KR101924748B1 - 사람 얼굴 모델 행렬 트레이닝 방법 및 장치, 및 저장 매체 - Google Patents

사람 얼굴 모델 행렬 트레이닝 방법 및 장치, 및 저장 매체 Download PDF

Info

Publication number
KR101924748B1
KR101924748B1 KR1020177036769A KR20177036769A KR101924748B1 KR 101924748 B1 KR101924748 B1 KR 101924748B1 KR 1020177036769 A KR1020177036769 A KR 1020177036769A KR 20177036769 A KR20177036769 A KR 20177036769A KR 101924748 B1 KR101924748 B1 KR 101924748B1
Authority
KR
South Korea
Prior art keywords
matrix
face
face image
dimensional feature
feature vector
Prior art date
Application number
KR1020177036769A
Other languages
English (en)
Other versions
KR20180010243A (ko
Inventor
서우훙 딩
지린 리
청제 왕
페이웨 황
융젠 우
궈푸 탄
Original Assignee
텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 filed Critical 텐센트 테크놀로지(센젠) 컴퍼니 리미티드
Publication of KR20180010243A publication Critical patent/KR20180010243A/ko
Application granted granted Critical
Publication of KR101924748B1 publication Critical patent/KR101924748B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/481
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

사람 얼굴 모델 행렬 트레이닝 방법 및 장치. 방법은: 사람 얼굴 이미지 라이브러리를 취득하는 단계 - 사람 얼굴 이미지 라이브러리는 사람 얼굴 이미지들의 k개 그룹들을 포함하고, 사람 얼굴 이미지들의 각각의 그룹은 적어도 한 사람의 적어도 하나의 사람 얼굴 이미지를 포함하고, k>2이고, k는 정수임 - (201); 사람 얼굴 이미지들의 k개 그룹들 중 사람 얼굴 이미지들의 각각의 그룹을 별도로 파싱하고, 파싱 결과에 따라 제1 행렬 및 제2 행렬을 계산하는 단계 - 제1 행렬은 사람 얼굴 이미지들의 각각의 그룹의 사람 얼굴 피처들의 그룹-내 공분산 행렬이고, 제2 행렬은 사람 얼굴 이미지들의 k개 그룹들의 사람 얼굴 피처들의 그룹-간 공분산 행렬임 - (202); 및 제1 행렬 및 제2 행렬에 따라 사람 얼굴 모델을 트레이닝하는 단계(203)를 포함한다.

Description

사람 얼굴 모델 행렬 트레이닝 방법 및 장치, 및 저장 매체
이 출원은 그 전체가 참조로 포함되는, 중화인민공화국의 국가지식산권국에 2015년 11월 26일에 출원된 "HUMAN FACE MODEL MATRIX TRAINING METHOD AND APPARATUS"라는 명칭의 중국 특허 출원 제201510836591.0호를 우선권 주장한다.
본 발명은 컴퓨터 기술 분야에 관한 것이고, 특히 얼굴 모델 행렬 트레이닝 방법 및 장치, 및 저장 매체에 관한 것이다.
얼굴 인식 기술은 일반적으로 2개 단계들을 포함한다. 첫째, 타겟 얼굴 이미지의 피처들이 추출되고; 둘째, 추출된 피처들과 기준 얼굴 이미지에서의 피처들 사이의 유사성이 계산된다.
유사성을 계산하기 이전에, 단말은 먼저 얼굴 이미지 라이브러리 내의 얼굴 이미지들에 따라 얼굴 모델 행렬을 계산할 필요가 있고, 이후 계산된 얼굴 모델 행렬에 따라 추출된 피처들과 기준 얼굴 이미지 내의 피처들 사이의 유사성을 계산한다. 종래 기술에서, 단말은 얼굴 이미지 라이브러리 내의 모든 얼굴 이미지들에 대한 계산을 수행할 필요가 있고, 계산 결과들에 따른 트레이닝을 통해, 얼굴 모델 행렬을 획득한다.
본 발명의 실시예들은 얼굴 모델 행렬 트레이닝 방법 및 장치를 제공한다.
제1 양태에 따르면, 본 발명의 실시예는:
얼굴 이미지 라이브러리를 획득하는 단계 - 얼굴 이미지 라이브러리는 얼굴 이미지들의 k개 그룹들을 포함하고, 얼굴 이미지들의 각각의 그룹은 적어도 한 사람의 적어도 하나의 얼굴 이미지를 포함하고, k > 2이고, k는 정수임 - ;
얼굴 이미지들의 k개 그룹들 각각을 별도로 파싱(parsing)하고, 파싱 결과들에 따라 제1 행렬 및 제2 행렬을 계산하는 단계 - 제2 행렬은 얼굴 이미지들의 k개 그룹들의 안면 특징들의 그룹-간 공분산 행렬임 - ; 및
제1 행렬 및 제2 행렬에 따라 얼굴 모델 행렬들을 트레이닝하는 단계
를 포함하는, 얼굴 모델 행렬 트레이닝 방법을 제공한다.
제2 양태에 따르면, 본 발명은:
얼굴 이미지 라이브러리를 획득하도록 구성되는 이미지 획득 모듈 - 얼굴 이미지 라이브러리는 얼굴 이미지들의 k개 그룹들을 포함하고, 얼굴 이미지들의 각각의 그룹은 적어도 한 사람의 적어도 하나의 얼굴 이미지를 포함하고, k > 2이고, k는 정수임 - ;
얼굴 이미지들의 k개 그룹들 각각을 별도로 파싱하고, 파싱 결과들에 따라 제1 행렬 및 제2 행렬을 계산하도록 구성되는 행렬 계산 모듈 - 제1 행렬은 얼굴 이미지들의 각각의 그룹의 안면 특징들의 그룹-간 공분산 행렬이고, 제2 행렬은 얼굴 이미지들의 k개 그룹들의 안면 특징들의 그룹-간 공분산 행렬임 - ; 및
행렬 계산 모듈에 의해 계산되는 제1 행렬 및 제2 행렬에 따라 얼굴 모델 행렬들을 트레이닝하도록 구성되는 행렬 트레이닝 모듈
을 포함하는, 얼굴 모델 행렬 트레이닝 장치를 제공한다.
제3 양태에 따르면, 본 발명의 실시예는:
얼굴 모델 행렬 트레이닝 장치가 얼굴 모델 행렬 트레이닝 방법을 수행하도록, 저장 매체에 저장된 프로그램 명령어들을 실행하도록 구성되는 하나 이상의 프로세서들
을 포함하는 얼굴 모델 행렬 트레이닝 장치를 제공한다.
제4 양태에 따르면, 본 발명은 프로그램 명령어들을 포함하는 비-휘발성 컴퓨터 판독 가능 저장 매체를 제공하며, 프로그램 명령어들은, 프로세서에 의해 실행될 때, 저장 매체를 얼굴 모델 행렬 트레이닝 방법을 수행하도록 구성한다.
본 발명의 실시예들에서, 얼굴 이미지 라이브러리 내의 얼굴 이미지들은 k개 그룹들로 분할되고, 단 하나의 그룹 내의 얼굴 이미지가 매번 메모리에 로딩되어 파싱되고, 이후 제1 행렬 및 제2 행렬이 파싱 결과들에 따라 계산되고, 얼굴 모델 행렬들은 제1 행렬 및 제2 행렬에 따라 트레이닝된다. 이러한 방식으로, 단말이 얼굴 이미지 라이브러리 내의 모든 얼굴 이미지들을 메모리에 동시에 로딩할 때 상대적으로 큰 메모리가 점유되는 기존의 기술에서의 문제점이 회피되고, 단 하나의 그룹 내의 얼굴 이미지를 매번 메모리에 로딩하는 것 및 이에 의한 트레이닝 프로세스에서 점유될 필요가 있는 메모리 감소의 효과들이 달성된다. 추가로, 단 하나의 그룹 내의 얼굴 이미지가 매번 파싱될 필요가 있기 때문에, 단말의 계산 복잡성 역시 어느 정도 감소된다.
본 발명의 실시예들의 기술적 해법들을 보다 명료하게 기술하기 위해, 다음은 실시예들을 기술하기 위해 요구되는 첨부 도면들을 간략하게 기술한다. 명백히, 후속하는 기재에서의 첨부 도면들은 본 발명의 일부 실시예들만을 도시하며, 본 기술분야의 통상의 기술자는 창의적 노력 없이 이러한 첨부 도면들로부터 다른 도면들을 여전히 유도할 수 있다.
도 1은 본 발명의 실시예들에 따른 얼굴 모델 행렬 트레이닝 방법에 관련된 서버의 블록도이다.
도 2는 본 발명의 실시예에 따른 얼굴 모델 행렬 트레이닝 방법의 방법 플로우차트이다.
도 3은 본 발명의 또 다른 실시예에 따른 얼굴 모델 행렬 트레이닝 방법의 방법 플로우차트이다.
도 4는 본 발명의 실시예에 따른 얼굴 모델 행렬 트레이닝 장치의 구조적 블록도이다.
도 5는 본 발명의 또 다른 실시예에 따른 얼굴 모델 행렬 트레이닝 장치의 구조적 블록도이다.
도 6은 본 발명의 또 다른 실시예에 따른 얼굴 모델 행렬 트레이닝 단말의 구조적 블록도이다.
본 개시내용의 목적, 기술적 해법들 및 장점들을 더욱 명료하게 하기 위해, 본 개시내용은 첨부 도면들에 관해 하기에 상세히 추가로 기술된다. 명백히, 기술된 실시예들은 본 발명의 모든 실시예들이기보다는 단지 일부 실시예들이다. 창의적 노력 없이 본 발명의 실시예들에 기초하여 본 기술분야의 통상의 기술자에 의해 획득되는 모든 다른 실시예들은 본 개시내용의 보호 범위에 들 것이다.
본 발명의 실시예들에 관련된 얼굴 모델 행렬 트레이닝 방법은 서버(100)에 적용될 수 있다. 구체적으로, 도 1을 참조하면, 서버(100)는 중앙 처리 장치(CPU)(101), 랜덤 액세스 메모리(RAM)(102) 및 판독-전용 메모리(ROM)(103)를 포함하는 시스템 메모리들(104), 및 시스템 메모리들(104)과 중앙 처리 장치(101)를 접속시키는 시스템 버스(105)를 포함한다. 서버(100)는 컴퓨터 내의 디바이스들 간의 정보 전송을 용이하게 하는 기본 입력/출력 시스템(I/O 시스템)(106), 및 운영 체제(113), 응용 프로그램(112), 및 또 다른 프로그램 모듈(115)을 저장하도록 구성되는 대용량 저장 디바이스(107)를 더 포함한다.
기본 입력/출력 시스템(106)은 정보를 디스플레이하도록 구성되는 디스플레이(108) 및 사용자에 의한 정보 입력을 위해 구성되는 마우스 또는 키보드와 같은 입력 디바이스를 포함한다. 디스플레이(108) 및 입력 디바이스(109) 모두 시스템 버스(105)에 접속되는 입력 및 출력 제어기(110)를 사용함으로써 중앙 처리 장치(101)에 접속된다. 기본 입력/출력 시스템(106)은 키보드, 마우스, 또는 전자 스타일러스와 같은 다수의 다른 디바이스들로부터의 입력을 수신하고 프로세싱하기 위한, 입력 및 출력 제어기(110)를 더 포함할 수 있다. 유사하게, 입력 및 출력 제어기(110)는 디스플레이, 프린터, 또는 또 다른 타입의 출력 디바이스에 출력을 추가로 제공한다.
대용량 저장 디바이스(107)는 시스템 버스(105)에 접속되는 대용량 저장 제어기(미도시)를 사용함으로써 중앙 처리 장치(101)에 접속된다. 대용량 저장 디바이스(107) 및 연관된 컴퓨터 판독 가능 매체는 서버(100)에 대한 비-휘발성 저장을 제공한다. 즉, 대용량 저장 디바이스(107)는 하드 디스크 드라이브 또는 CD-ROM 드라이버와 같은 컴퓨터 판독 가능 매체(미도시됨)를 포함할 수 있다.
일반성의 손실 없이, 컴퓨터 판독 가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다. 컴퓨터 저장 매체는, 컴퓨터 판독 가능 명령어들, 데이터 구조들, 프로그램 모듈들, 또는 다른 데이터와 같은 정보를 저장하고, 임의의 방법 또는 기술을 사용함으로써 구현되는 휘발성 및 비-휘발성의, 제거가능한 그리고 제거가능하지 않은 매체를 포함한다. 컴퓨터 저장 매체는 RAM, ROM, EPROM, EEPROM, 플래시 메모리, 또는 또 다른 고체 상태 저장 기술, CD-ROM, DVD, 또는 다른 광학 저장소, 자기 카세트, 자기 테이프, 자기 디스크 저장소, 또는 또 다른 자기 저장 디바이스를 포함한다. 명백히, 컴퓨터 저장 매체가 이전의 몇몇 타입들에 제한되지 않는다는 것이 본 기술분야의 통상의 기술자에 의해 알려질 수 있다. 시스템 메모리들(104) 및 대용량 저장 디바이스(107)는 총체적으로 메모리들이라 지칭될 수 있다.
본 발명의 실시예들에 따르면, 서버(100)는 추가로, 인터넷과 같은 네트워크를 사용함으로써, 동작을 위해 네트워크 상의 원격 컴퓨터에 접속될 수 있다. 즉, 서버(100)는 시스템 버스(105)에 접속되는 네트워크 인터페이스 유닛(111)을 사용함으로써 네트워크(112)에 접속될 수 있거나, 또는 네트워크 인터페이스 유닛(111)을 사용함으로써 또 다른 타입의 네트워크 또는 원격 컴퓨터 시스템(미도시됨)에 접속될 수 있다.
메모리는 하나 이상의 프로그램들을 더 포함하고, 하나 이상의 프로그램들은 메모리에 저장되며, 하나 이상의 프로그램들은 후속하는 실시예들에서 제공되는 얼굴 모델 행렬 트레이닝 방법을 실행하기 위해 사용된다.
도 2를 참조하면, 도 2는 본 발명의 실시예에 따른 얼굴 모델 행렬 트레이닝 방법의 방법 플로우차트이다. 이 실시예에서, 얼굴 모델 행렬 트레이닝 방법이 도 1에 도시된 서버에 적용되는 예가 설명을 위해 사용된다. 도 2에 도시된 바와 같이, 얼굴 모델 행렬 트레이닝 방법은 단계들(201 내지 203)을 포함할 수 있다.
단계 201. 얼굴 이미지 라이브러리를 획득하고, 얼굴 이미지 라이브러리는 얼굴 이미지들의 k개 그룹들을 포함한다.
얼굴 이미지들의 각각의 그룹은 적어도 한 사람의 적어도 하나의 얼굴 이미지를 포함하고, 여기서 k > 2이고, k는 정수이다.
단계 202. 얼굴 이미지들의 k개 그룹들 각각을 별도로 파싱하고, 파싱 결과들에 따라 제1 행렬 및 제2 행렬을 계산한다.
제1 행렬은 얼굴 이미지들의 각각의 그룹의 안면 피처들의 그룹-간 공분산 행렬이고, 제2 행렬은 얼굴 이미지들의 k개 그룹들의 안면 피처들의 그룹-간 공분산 행렬이다.
단계 203. 제1 행렬 및 제2 행렬에 따라 얼굴 모델 행렬들을 트레이닝한다.
요약하면, 이 실시예에서 제공되는 얼굴 모델 행렬 트레이닝 방법에 의해, 얼굴 이미지 라이브러리 내의 얼굴 이미지들이 k개 그룹들로 분할되고, 단지 하나의 그룹 내의 얼굴 이미지가 매번 메모리에 로딩되어 파싱되고, 이후 제1 행렬 및 제2 행렬이 파싱 결과들에 따라 계산되고, 얼굴 모델 행렬들은 제1 행렬 및 제2 행렬에 따라 트레이닝된다. 이러한 방식으로, 단말이 얼굴 이미지 라이브러리 내의 모든 얼굴 이미지들을 메모리에 동시에 로딩할 때 상대적으로 큰 메모리가 점유되는 기존 기술에서의 문제점이 회피되고, 단지 하나의 그룹 내의 얼굴 이미지를 매번 메모리에 로딩하는 것, 및 이에 의한 트레이닝 프로세스에서 점유될 필요가 있는 메모리의 감소의 효과들이 달성된다. 추가로, 단지 하나의 그룹 내의 얼굴 이미지가 매번 파싱될 필요가 있기 때문에, 단말의 계산 복잡성이 또한 어느 정도 감소된다.
도 3을 참조하면, 도 3은 본 발명의 실시예에 따른 얼굴 모델 행렬 트레이닝 방법의 방법 플로우차트이다. 이 실시예에서, 얼굴 모델 행렬 트레이닝 방법이 도 1에 도시된 서버에 적용되는 예가 설명을 위해 사용된다. 도 3에 도시된 바와 같이, 얼굴 모델 행렬 트레이닝 방법은 단계(301) 내지 단계(306)를 포함할 수 있다.
단계 301. 얼굴 이미지 라이브러리를 획득하고, 얼굴 이미지 라이브러리는 얼굴 이미지들의 k개 그룹들을 포함한다.
이 실시예에서 제공되는 얼굴 모델 행렬 트레이닝 방법은 모바일 폰, 태블릿 컴퓨터, 또는 컴퓨터와 같은 단말에 적용될 수 있다.
얼굴 이미지들의 k개 그룹들 각각은 적어도 한 사람의 적어도 하나의 얼굴 이미지를 포함할 수 있고, 여기서, k > 2이고, k는 정수이다.
예를 들어, 단말은 m*N개 얼굴 이미지들을 포함하는 이미지 라이브러리를 획득할 수 있고, 여기서 m은 얼굴 이미지 라이브러리 내의 사람들의 수이고, N은 각각의 사람의 얼굴 이미지들의 수이다. m명의 사람들은 k개 그룹들로 분할되고, 각각의 그룹은 m/k명의 사람들의 얼굴 이미지들을 포함한다.
단계 302. 얼굴 이미지들의 k개 그룹들 각각을 별도로 파싱하고, 파싱 결과들에 따라 제1 행렬 및 제2 행렬을 계산한다.
제1 행렬은 얼굴 이미지들의 각각의 그룹의 안면 피처들의 그룹-간 공분산 행렬이고, 제2 행렬은 얼굴 이미지들의 k개 그룹들의 안면 피처들의 그룹-간 공분산 행렬이다.
구체적으로, 이 단계는 제1 단계 내지 제7 단계를 포함할 수 있다.
첫째, 제1 행렬 Sg 및 제2 행렬 Ss을 초기화시킨다.
둘째, Ss에 따라 H를 계산하고 - 여기서
Figure 112017127226552-pct00001
임 - , Sg 및 Ss에 따라 L을 계산하고, 여기서
Figure 112017127226552-pct00002
이다.
셋째, 얼굴 이미지들의 각각의 그룹 내의 i번째 사람의 얼굴 이미지의 고차원 피처 벡터 xi 및 j번째 사람의 얼굴 이미지의 고차원 피처 벡터 xj를 획득하고, 여기서,
Figure 112017127226552-pct00003
Figure 112017127226552-pct00004
이고, n은 얼굴 이미지들의 하나의 그룹 내의 사람들의 수이다. 가능한 구현예에서, 얼굴 이미지들의 각각의 그룹 내의 각각의 얼굴 이미지에 대해, 단말은 각각의 얼굴 이미지의 고차원 피처 벡터를 추출할 수 있다. 구체적으로, 단말은 로컬 바이너리 패턴(Local Binary Pattern)(LBP) 알고리즘, 배향된 경사의 히스토그램(Histogram of Oriented Gradient)(HOG) 알고리즘, 가버(Gabor) 알고리즘, 또는 스케일-불변 피처 변환(Scale-Invariant Feature Transformation)(SIFT) 알고리즘을 사용함으로써 고차원 피처 벡터를 추출할 수 있다. 이는 이 실시예에서 제한되지 않는다. 실제 구현예에서, 단말은 또 다른 추출 방식으로 각각의 얼굴 이미지의 고차원 피처 벡터를 또한 추출할 수 있다.
설명을 위해 단말이 LBP를 사용함으로써 얼굴 이미지의 고차원 피처 벡터를 추출하는 예를 사용하면, 얼굴 이미지의 고차원 피처 벡터를 추출하는 단계들은 단계들 A, B, C 및 D을 포함할 수 있다.
A) h 스케일링된 얼굴 이미지들을 획득하고, 여기서 h 스케일링된 얼굴 이미지들은 타겟 얼굴 이미지가 h 프리셋 배수들에 따라 별도로 스케일링된 이후 획득되는 이미지들이다.
단말은 h 프리셋 배수들 각각에 따라 타겟 얼굴 이미지를 별도로 스케일링하고, 이후 h 스케일링된 타겟 얼굴 이미지들을 획득할 수 있다. h는 양의 정수이고, h 프리셋 배수들은 균일하게 분포될 수 있다. 추가로, 이 실시예에서의 스케일링은 타겟 얼굴 이미지를 다운 스케일링한다.
B) 얼굴 이미지 및 h 스케일링된 얼굴 이미지들 각각에 대해, 얼굴 이미지 내의 추출 얼굴 키 포인트들이 결정되고, 얼굴 키 포인트들에서 LBP 피처 벡터들을 추출한다.
이 단계는:
(a) 타겟 얼굴 이미지 내의 얼굴 프레임을 인지하는 것;
(b) 얼굴 프레임 내에 얼굴의 5개 안면 피처들을 위치시켜, 얼굴 키 포인트들을 획득하는 것 - 여기서 얼굴 키 포인트들은 좌우 눈썹들, 좌우 눈들, 코, 좌우 입꼬리 등을 포함할 수 있음 - ; 및
(c) 각각의 얼굴 키 포인트에 대해, 얼굴 키 포인트 상의 중심이 되는 프리셋 영역 내에서, 프리셋 영역 내의 LBP 피처들을 추출하는 것
을 포함할 수 있다.
선택적으로, 단말은 균일 인코딩을 사용함으로써 프리셋 영역 내의 LBP 피처들을 추출하여, LBP 피처 히스토그램을 획득할 수 있다. 프리셋 영역은 a*a 영역일 수 있고, 여기서 a는 양의 정수이다. 선택적으로, 단말은 균일 인코딩을 사용함으로써 프리셋 영역 내의 각각의 셀 내의 LBP 피처를 추출할 수 있다.
C) 얼굴 키 포인트들의 추출된 LBP 피처 벡터들에 따른 조합을 통해 얼굴 이미지의 LBP 피처 벡터를 결정한다.
단말이 각각의 얼굴 이미지에 대한 추출을 수행한 이후, 단말은 u개의 LBP 피처들을 추출할 수 있다.
단말이 타겟 얼굴 이미지 및 h 스케일링된 타겟 얼굴 이미지들에 대한 추출을 별도로 수행한 이후, 단말은 Y개의 LBP 피처들을 획득할 수 있고, 여기서 Y=u*(h+1)이다.
단말은 추출된 LBP 피처들을 LBP 피처 벡터 내의 파라미터들로서 사용하고, 이후, 조합을 통해 LBP 피처들을 포함하는 LBP 피처 벡터를 획득한다. 선택적으로, 단말은 각각의 얼굴 이미지로부터 추출된 LBP 피처를 LBP 피처 벡터 내의 하나의 행의 하나의 열로서 사용하고, 이후 h+1개 행들 또는 h+1개 열들을 포함하는 LBP 피처 벡터를 획득할 수 있다.
D). LBP 피처 벡터에 따라 얼굴 이미지의 고차원 피처 벡터를 계산한다.
얼굴 이미지의 LBP 피처 벡터가 xr이라고 가정된다. 이 단계는:
(a)
Figure 112017127226552-pct00005
에 대해 주성분 분석(Principal Component Analysis)(PCA) 차원 감소를 수행하고, 제1 I차원 피처들을 예약하여, 차원-감소 행렬 P를 획득하는 것 - 여기서 I는 양의 정수임 - ;
(b) xr에 대해
Figure 112017127226552-pct00006
을 계산하는 것;
(c) xp에 대해 LDA(Latent Dirichlet Allocation) 차원 감소를 수행하여, 차원-감소 행렬 L을 획득하는 것; 및
(d) xp에 대해
Figure 112017127226552-pct00007
를 계산하는 것 - x는 타겟 얼굴 이미지의 고차원 피처 벡터임 - 을 포함할 수 있다.
G는 제1 임계보다 더 크고 제2 임계보다 더 작으며, 일반적으로 I는 1440일 수 있다. PCA 차원 감소는 이미지 프로세싱에서 일반적으로 사용되는 차원 감소 방법이며, 여기서 원래 피처 벡터는 선형 변환에 의해 저차원 공간으로 매핑된다.
지금까지, 단말은 얼굴 이미지들의 각각의 그룹 내의 i번째 얼굴 이미지의 고차원 피처 벡터 xi 및 j번째 얼굴 이미지의 고차원 피처 벡터 xj를 획득할 수 있다.
선택적으로, 또 다른 가능한 구현예에서, 이 단계는 단계(1) 내지 단계(4)를 포함할 수 있다.
(1) 얼굴 이미지들의 각각의 그룹에 대해, 그룹 내의 얼굴 이미지들의 고차원 피처 벡터들을 계산한다.
이 단계에서의 계산 방식은 이전의 제1 가능한 구현예에서의 계산 방식과 유사하며, 상세항목들은 여기서 다시 기술되지 않는다.
(2) 얼굴 이미지들의 고차원 피처 벡터들의 평균을 계산한다.
단말이 그룹 내 얼굴 이미지들의 고차원 피처 벡터들을 계산한 이후, 단말은 얼굴 이미지들의 고차원 피처 벡터들의 평균을 계산할 수 있다.
(3) 그룹 내 각각의 얼굴 이미지에 대해, 얼굴 이미지의 고차원 피처 벡터로부터 평균을 차감하여, 평균 정규화 이후 획득된 얼굴 이미지의 고차원 피처 벡터를 획득한다.
(4) 평균 정규화 이후 획득된 얼굴 이미지의 고차원 피처 벡터를 얼굴 이미지의 고차원 피처 벡터로서 결정한다.
넷째, H, L, Sg 및 xi에 따라 gi를 계산하고 - 여기서,
Figure 112017127226552-pct00008
임 - H, L, xi, 및 xj에 따라 Sij를 계산하며, 여기서,
Figure 112017127226552-pct00009
이다.
다섯째, gi에 따라 Sg를 업데이트하고 - 여기서
Figure 112017127226552-pct00010
임 - , Sij에 따라 Ss를 업데이트하며, 여기서
Figure 112017127226552-pct00011
이고,
Figure 112017127226552-pct00012
는 gi의 전치 벡터이고,
Figure 112017127226552-pct00013
는 Sij의 전치 벡터이다.
여섯째, Sg 및 Ss가 수렴하는 경우, Sg 및 Ss를 획득한다.
일곱째, Ss에 따라 H를 계산하고, Sg 및 Ss가 수렴하지 않는 경우 다시 Sg 및 Ss에 따라 L을 계산하는 단계를 수행한다.
단계 303. 제1 행렬 및 제2 행렬에 따라 제3 행렬 및 제4 행렬을 계산한다.
제3 행렬은 얼굴 이미지 라이브러리 내의 안면 피처들의 공분산 행렬이고, 제4 행렬은 얼굴 이미지 라이브러리 내의 상이한 사람들의 안면 피처들 사이의 공분산 행렬이다.
선택적으로 이 단계는 다음을 포함할 수 있다:
첫째, Sg인 제1 행렬 및 Ss인 제2 행렬에 따라 제3 행렬
Figure 112017127226552-pct00014
을 계산하며 여기서
Figure 112017127226552-pct00015
이다.
둘째, 제4 행렬
Figure 112017127226552-pct00016
을 초기화시키며, 여기서
Figure 112017127226552-pct00017
은 얼굴 이미지 라이브러리 내의 모든 얼굴 이미지들의 샘플들을 포함할 수 있으며, 즉, m*N개 샘플들을 포함할 수 있는데, 이는 이 실시예에서 제한되지 않는다.
셋째,
Figure 112017127226552-pct00018
에 따라 F를 계산하고 - 여기서
Figure 112017127226552-pct00019
임 - ,
Figure 112017127226552-pct00020
Figure 112017127226552-pct00021
에 따라 G를 계산하며, 여기서
Figure 112017127226552-pct00022
이고, m은 얼굴 이미지 라이브러리 내의 얼굴 이미지들에 대응하는 사람들의 수이다.
넷째, F 및 G에 따라 얼굴 이미지 라이브러리 내의 i번째 사람의 가우시안 분포 평균
Figure 112017127226552-pct00023
을 계산하고 - 여기서
Figure 112017127226552-pct00024
임 - , F 및 G에 따라 i번째 사람 및 j번째 사람의 결합 분포 공분산 행렬
Figure 112017127226552-pct00025
을 계산하며, 여기서
Figure 112017127226552-pct00026
이고, xi는 i번째 사람의 고차원 피처 벡터이고, xj는 j번째 사람의 고차원 피처 벡터이다.
다섯째,
Figure 112017127226552-pct00027
에 따라
Figure 112017127226552-pct00028
를 업데이트하고,
Figure 112017127226552-pct00029
에 따라
Figure 112017127226552-pct00030
를 업데이트하며, 여기서,
Figure 112017127226552-pct00031
Figure 112017127226552-pct00032
이고,
Figure 112017127226552-pct00033
Figure 112017127226552-pct00034
의 전치 벡터이고,
Figure 112017127226552-pct00035
Figure 112017127226552-pct00036
의 전치 벡터이다.
여섯째,
Figure 112017127226552-pct00037
Figure 112017127226552-pct00038
이 수렴하는 경우
Figure 112017127226552-pct00039
Figure 112017127226552-pct00040
을 획득한다.
일곱째,
Figure 112017127226552-pct00041
에 따라 F를 계산하고,
Figure 112017127226552-pct00042
Figure 112017127226552-pct00043
이 수렴하지 않는 경우 다시
Figure 112017127226552-pct00044
Figure 112017127226552-pct00045
에 따라 G를 계산하는 단계를 수행한다.
단계 304. 제3 행렬 및 제4 행렬에 따라 얼굴 모델 행렬들을 트레이닝한다.
선택적으로, 이 단계는: 제3 행렬
Figure 112017127226552-pct00046
, 제4 행렬
Figure 112017127226552-pct00047
,
Figure 112017127226552-pct00048
Figure 112017127226552-pct00049
이 수렴할 때 획득되는 F, 및
Figure 112017127226552-pct00050
Figure 112017127226552-pct00051
이 수렴할 때 획득되는 G에 따라 트레이닝을 통해 얼굴 모델 행렬들을 획득하는 것을 포함한다.
얼굴 모델 행렬들은
Figure 112017127226552-pct00052
Figure 112017127226552-pct00053
이다.
단계 305. 타겟 얼굴 이미지의 고차원 피처 벡터 및 기준 얼굴 이미지의 고차원 피처 벡터를 획득한다.
트레이닝을 통해 트레이닝된 얼굴 모델 행렬들을 획득한 이후, 단말은 얼굴 모델 행렬들에 따라 얼굴 인식을 수행할 수 있다.
구체적으로, 단말은 인식될 타겟 얼굴 이미지의 고차원 피처 벡터를 획득하고, 기준 얼굴 이미지의 고차원 피처 벡터를 획득할 수 있다. 선택적으로, 단말은 LBP 알고리즘, HOG 알고리즘, 가버 알고리즘, 또는 SIFT 알고리즘을 사용함으로써 추출을 통해 고차원 피처 벡터들을 획득할 수 있다. 이는 이 실시예에서 제한되지 않는다.
단계 306. 타겟 얼굴 이미지의 고차원 피처 벡터, 기준 얼굴 이미지의 고차원 피처 벡터, 및 얼굴 모델 행렬들에 따라 타겟 얼굴 이미지와 기준 얼굴 이미지 사이의 유사성을 계산한다.
유사성은
Figure 112017127226552-pct00054
이다.
x1은 타겟 얼굴 이미지의 고차원 피처 벡터이고, x2는 기준 얼굴 이미지의 고차원 피처 벡터이고,
Figure 112017127226552-pct00055
는 x1의 전치 벡터이고,
Figure 112017127226552-pct00056
는 x2의 전치 벡터이고, A 및 G는 얼굴 모델 행렬들이다.
선택적으로, 유사성을 계산하기 이전에, 단말은 후속하는 단계들을 추가로 수행할 수 있다:
첫째, 얼굴 이미지 라이브러리 내의 모든 피처들의 평균 M을 획득한다.
이 단계는: 얼굴 이미지 라이브러리 내의 각각의 얼굴의 고차원 피처 벡터를 획득하는 것, 및 획득된 고차원 피처 벡터들에 따라 모든 피처들의 평균 M을 계산하는 것을 포함할 수 있다. 선택적으로, 단말은 LBP 알고리즘, HOG 알고리즘, 가버 알고리즘, 또는 SIFT 알고리즘을 사용함으로써 추출을 통해 각각의 얼굴 이미지의 고차원 피처 벡터를 획득할 수 있다. 이는 이 실시예에서 제한되지 않는다.
둘째, x1 및 x2에 대해 평균 정규화 프로세싱을 수행한다. 구체적으로,
Figure 112017127226552-pct00057
Figure 112017127226552-pct00058
이다.
x1 및 x2에 대해 평균 정규화 프로세싱을 수행함으로써, x1 및 x2는 0을 중심으로 분포될 수 있다. 이는 유사성의 계산 효율성을 개선시킨다.
추가로, 이 실시예에서, 얼굴 인식이 유사성을 사용함으로써 타겟 얼굴 이미지에 대해 수행되는 예는 단지 설명을 위해 사용된다. 선택적으로, 단말이 유사성을 계산한 이후, 단말은 타겟 얼굴 이미지의 고차원 피처 벡터와 기준 얼굴 이미지의 고차원 피처 벡터 사이의 분산을 추가로 계산하고, 이후 계산된 분산을 사용함으로써 얼굴 인식을 수행할 수 있다.
분산을 계산하는 단계는 다음을 포함할 수 있다:
첫째, 얼굴 이미지 라이브러리 내의 동일한 사람의 고차원 피처 벡터들의 평균 r1 및 분산 s1을 계산한다.
얼굴 이미지 라이브러리 내의 m*N개 얼굴 이미지들에 대해, 동일한 사람의 n개 얼굴 이미지 중, 임의의 2개의 얼굴 이미지들 사이의 유사성
Figure 112017127226552-pct00059
이 계산되어, (N-1)개
Figure 112017127226552-pct00060
을 획득한다. 얼굴 이미지 라이브러리 내의 m명의 사람들에 대해, 전체
Figure 112017127226552-pct00061
Figure 112017127226552-pct00062
이 획득된다.
Figure 112017127226552-pct00063
Figure 112017127226552-pct00064
의 평균 r1 및 분산 s1이 계산된다.
둘째, 계산된 평균들 r1 및 분산 s1및 유사성들에 따라 분산을 계산하고, 여기서 분산 s은:
Figure 112017127226552-pct00065
이다.
단말이 분산 s을 계산한 이후, 단말은 계산된 s를 범위 0 내지 100으로 정규화시킬 수 있다. s의 크기는 타겟 얼굴 이미지 및 기준 얼굴 이미지가 동일한 사람일 확률을 나타낸다. 다시 말해, s는 1과 100 사이의 값을 가지는 신뢰 계수이다. 더 큰 s는 2개의 얼굴 이미지들이 동일한 사람일 높은 확률을 나타낸다.
실제 구현예에서, 임계가 설정될 수 있다. s가 프리셋 임계보다 더 클 때, 타겟 얼굴 이미지 및 기준 얼굴 이미지가 동일한 사람이라고 결정된다. s가 프리셋 임계보다 더 작을 때, 타겟 얼굴 이미지와 기준 얼굴 이미지는 동일한 사람이 아니라고 결정된다. 실제 구현예에서, 프리셋 임계는 50보다 작지 않으며 100보다 크지 않은 수이다. 설계자는 요구되는 인식 정확성에 따라 임계를 설정할 수 있다. 구체적으로, 요구되는 정확성이 상대적으로 높은 경우, 임계는 상대적으로 큰 값, 예를 들어, 90으로 설정되고, 요구되는 정확성이 상대적으로 낮은 경우, 임계는 상대적으로 작은 값, 예를 들어, 60으로 설정될 수 있다.
단계(305) 및 단계(306)가 선택적 단계들이며, 실제 구현예에서 필요에 따라 수행될 수 있다는 것에 추가로 유의해야 한다. 이는 이 실시예에서 제한되지 않는다.
요약하면, 이 실시예에서 제공되는 얼굴 모델 행렬 트레이닝 방법에 의해, 얼굴 이미지 라이브러리 내의 얼굴 이미지들이 k개 그룹들로 분할되고, 단지 하나의 그룹 내의 얼굴 이미지가 매번 메모리에 로딩되어 파싱되고, 이후 제1 행렬 및 제2 행렬이 파싱 결과들에 따라 계산되며, 얼굴 모델 행렬들은 제1 행렬 및 제2 행렬에 따라 트레이닝된다. 이러한 방식으로, 단말이 얼굴 이미지 라이브러리 내의 모든 얼굴 이미지들을 메모리에 한꺼번에 로딩할 때 상대적으로 큰 메모리가 점유되는 기존의 기술에서의 문제점이 회피되고, 단지 하나의 그룹 내의 얼굴 이미지를 매번 메모리에 로딩하는 것 및 이에 의해 트레이닝 프로세스에서 점유될 필요가 있는 메모리를 감소시키는 것의 효과들이 달성된다. 추가로, 단지 하나의 그룹 내의 얼굴 이미지가 매번 파싱될 필요가 있기 때문에, 단말의 계산상 복잡성이 또한 어느 정도 감소된다.
도 4를 참조하면, 도 4는 본 발명의 실시예에 따른 얼굴 모델 행렬 트레이닝 장치의 구조적 블록도이다. 얼굴 모델 행렬 트레이닝 장치는 이미지 획득 모듈(410), 행렬 계산 모듈(420), 및 행렬 트레이닝 모듈(430)을 포함할 수 있다.
이미지 획득 모듈(410)은 얼굴 이미지 라이브러리를 획득하도록 구성되고, 얼굴 이미지 라이브러리는 얼굴 이미지들의 k개 그룹들을 포함하고, 얼굴 이미지들의 각각의 그룹은 적어도 한 사람의 적어도 하나의 얼굴 이미지를 포함하고, k > 2이고, k는 정수이다.
행렬 계산 모듈(420)은: 얼굴 이미지들의 k개 그룹들 각각을 별도로 파싱하고, 파싱 결과들에 따라 제1 행렬 및 제2 행렬을 계산하도록 구성되고, 제1 행렬은 얼굴 이미지들의 각각의 그룹의 안면 피처들의 그룹-내 공분산 행렬이고, 제2 행렬은 얼굴 이미지들의 k개 그룹들의 안면 피처들의 그룹-간 공분산 행렬이다.
행렬 트레이닝 모듈(430)은 행렬 계산 모듈(320)에 의해 계산되는 제1 행렬 및 제2 행렬에 따라 얼굴 모델 행렬들을 트레이닝하도록 구성된다.
요약하면, 이 실시예에서 제공되는 얼굴 모델 행렬 트레이닝 장치에 의해, 얼굴 이미지 라이브러리 내의 얼굴 이미지들은 k개 그룹들로 분할되고, 단지 하나의 그룹 내의 얼굴 이미지가 메모리에 매번 로딩되어 파싱되고, 이후 제1 행렬 및 제2 행렬은 파싱 결과들에 따라 계산되고, 얼굴 모델 행렬들은 제1 행렬 및 제2 행렬에 따라 트레이닝된다. 이러한 방식으로, 단말이 얼굴 이미지 라이브러리 내의 모든 얼굴 이미지들을 메모리에 한꺼번에 로딩할 때 상대적으로 큰 메모리가 점유되는 기존의 기술에서의 문제점이 회피되고, 단지 하나의 그룹 내의 얼굴 이미지를 매번 메모리에 로딩하는 것 및 이에 의해 트레이닝 프로세스에서 점유될 필요가 있는 메모리를 감소시키는 것의 효과들이 달성된다. 추가로, 단지 하나의 그룹 내의 얼굴 이미지가 매번 파싱될 필요가 있기 때문에, 단말의 계산상 복잡성이 또한 어느 정도 감소된다.
도 5를 참조하면, 도 5는 본 발명의 실시예에 따른 얼굴 모델 행렬 트레이닝 장치의 구조적 블록도이다. 얼굴 모델 행렬 트레이닝 장치는: 이미지 획득 모듈(510), 행렬 계산 모듈(520), 및 행렬 트레이닝 모듈(530)을 포함할 수 있다.
이미지 획득 모듈(510)은 얼굴 이미지 라이브러리를 획득하도록 구성되고, 얼굴 이미지 라이브러리는 얼굴 이미지들의 k개 그룹들을 포함하고, 얼굴 이미지들의 각각의 그룹은 적어도 한 사람의 적어도 하나의 얼굴 이미지를 포함하고, k > 2이고, k는 정수이다.
행렬 계산 모듈(520)은: 얼굴 이미지들의 k개 그룹들 각각을 별도로 파싱하고, 파싱 결과들에 따라 제1 행렬 및 제2 행렬을 계산하도록 구성되고, 제1 행렬은 얼굴 이미지들의 각각의 그룹의 안면 피처들의 그룹-내 공분산 행렬이고, 제2 행렬은 얼굴 이미지들의 k개 그룹들의 안면 피처들의 그룹-간 공분산 행렬이다.
행렬 트레이닝 모듈(530)은 행렬 계산 모듈(520)에 의해 계산되는 제1 행렬 및 제2 행렬에 따라 얼굴 모델 행렬들을 트레이닝하도록 구성된다.
선택적으로, 행렬 계산 모듈(520)은:
제1 행렬 Sg 및 제2 행렬 Ss을 초기화하도록 구성되는 초기화 유닛(521);
Ss에 따라 H를 계산하고 - 여기서
Figure 112017127226552-pct00066
임 - , Sg 및 Ss에 따라 L을 계산하도록 - 여기서
Figure 112017127226552-pct00067
임 - 구성되는 제1 계산 모듈(522);
얼굴 이미지들의 각각의 그룹 내의 i번째 사람의 얼굴 이미지의 고차원 피처 벡터 xi 및 j번째 사람의 얼굴 이미지의 고차원 피처 벡터 xj를 획득하도록 - 여기서,
Figure 112017127226552-pct00068
Figure 112017127226552-pct00069
이고, n은 얼굴 이미지들의 하나의 그룹 내의 사람들의 수임 - 구성되는 피처 획득 유닛(523);
H, L, Sg, 및 xi에 따라 gi를 계산하고 - 여기서
Figure 112017127226552-pct00070
임 - , H, L, xi, 및 xj에 따라 Sij를 계산하도록 - 여기서
Figure 112017127226552-pct00071
임 - 구성되는 제2 계산 유닛(524);
gi에 따라 Sg를 업데이트하고 - 여기서
Figure 112017127226552-pct00072
임 - , Sij에 따라 Ss를 업데이트하도록 - 여기서
Figure 112017127226552-pct00073
이고,
Figure 112017127226552-pct00074
는 gi의 전치 벡터이고,
Figure 112017127226552-pct00075
는 Sij의 전치 벡터임 - 구성되는 제3 계산 유닛(525); 및
제3 계산 유닛(5525)에 의해 계산되는 Sg 및 Ss가 수렴하는 경우 Sg 및 Ss를 획득하도록 구성되는 제4 계산 유닛(526)을 포함하고, 여기서
제1 계산 유닛(522)은 Ss에 따라 H를 계산하고, 제3 유닛에 의해 계산되는 Sg 및 Ss가 수렴하지 않는 경우 다시 Sg 및 Ss에 따라 L을 계산하는 단계를 수행하도록 추가로 구성된다.
선택적으로, 피처 획득 유닛(523)은:
얼굴 이미지들의 각각의 그룹에 대해, 그룹 내 얼굴 이미지들의 고차원 피처 벡터들을 계산하고;
얼굴 이미지들의 고차원 피처 벡터들의 평균을 계산하고;
그룹 내 각각의 얼굴 이미지에 대해, 얼굴 이미지의 고차원 피처 벡터로부터 평균을 차감하여, 평균 정규화 이후 획득된 얼굴 이미지의 고차원 피처 벡터를 획득하고; 그리고
평균 정규화 이후 획득된 얼굴 이미지의 고차원 피처 벡터를 얼굴 이미지의 고차원 피처 벡터로서 결정하도록 추가로 구성된다.
선택적으로, 행렬 트레이닝 모듈(530)은:
제1 행렬 및 제2 행렬에 따라 제3 행렬 및 제4 행렬을 계산하도록 구성되는 행렬 계산 유닛(531) - 여기서, 제3 행렬은 얼굴 이미지 라이브러리 내의 얼굴 피처들의 공분산 행렬이고, 제4 행렬은 얼굴 이미지 라이브러리 내의 상이한 사람들의 안면 피처들 사이의 공분산 행렬임 - ; 및
행렬 계산 유닛(531)에 의해 계산되는 제3 행렬 및 제4 행렬에 따라 얼굴 모델 행렬들을 트레이닝하도록 구성되는 행렬 트레이닝 유닛(532)을 포함한다.
선택적으로, 행렬 계산 유닛(531)은:
Sg인 제1 행렬 및 Ss인 제2 행렬에 따라 제3 행렬
Figure 112017127226552-pct00076
을 계산하고 - 여기서
Figure 112017127226552-pct00077
임 - ;
제4 행렬
Figure 112017127226552-pct00078
을 초기화시키고;
Figure 112017127226552-pct00079
에 따라 F를 계산하고 - 여기서
Figure 112017127226552-pct00080
임 - ,
Figure 112017127226552-pct00081
Figure 112017127226552-pct00082
에 따라 G를 계산하고 - 여기서
Figure 112017127226552-pct00083
이고, m은 얼굴 이미지 라이브러리 내의 얼굴 이미지들에 대응하는 사람들의 수임 - ;
F 및 G에 따라 얼굴 이미지 라이브러리 내의 i번째 사람의 가우시안 분포 평균
Figure 112017127226552-pct00084
를 계산하고 - 여기서
Figure 112017127226552-pct00085
임 - , F 및 G에 따라 i번째 사람 및 j번째 사람의 결합 분포 공분산 행렬
Figure 112017127226552-pct00086
을 계산하고 - 여기서
Figure 112017127226552-pct00087
이고, xi는 i번째 사람의 고차원 피처 벡터이고, xj는 j번째 사람의 고차원 피처 벡터임 - ;
Figure 112017127226552-pct00088
에 따라
Figure 112017127226552-pct00089
를 업데이트하고,
Figure 112017127226552-pct00090
에 따라
Figure 112017127226552-pct00091
를 업데이트하고 - 여기서,
Figure 112017127226552-pct00092
이고,
Figure 112017127226552-pct00093
Figure 112017127226552-pct00094
의 전치 벡터이고,
Figure 112017127226552-pct00095
Figure 112017127226552-pct00096
의 전치 벡터임 - ;
Figure 112017127226552-pct00097
Figure 112017127226552-pct00098
가 수렴하는 경우
Figure 112017127226552-pct00099
Figure 112017127226552-pct00100
를 획득하고; 그리고
Figure 112017127226552-pct00101
에 따라 F를 계산하고,
Figure 112017127226552-pct00102
Figure 112017127226552-pct00103
가 수렴하지 않는 경우 다시
Figure 112017127226552-pct00104
Figure 112017127226552-pct00105
에 따라 G를 계산하는 단계를 수행하도록 추가로 구성된다.
선택적으로, 행렬 트레이닝 유닛(532)은:
제3 행렬
Figure 112017127226552-pct00106
, 제4 행렬
Figure 112017127226552-pct00107
,
Figure 112017127226552-pct00108
Figure 112017127226552-pct00109
가 수렴할 때 획득되는 F, 및
Figure 112017127226552-pct00110
Figure 112017127226552-pct00111
가 수렴할 때 획득되는 G에 따른 트레이닝을 통해 얼굴 모델 행렬들 A 및 G를 획득하도록 추가로 구성되고, 여기서
얼굴 모델 행렬들은
Figure 112017127226552-pct00112
Figure 112017127226552-pct00113
이다.
선택적으로, 장치는:
타겟 얼굴 이미지의 고차원 피처 벡터 및 기준 얼굴 이미지의 고차원 피처 벡터를 획득하도록 구성되는 피처 획득 모듈(540); 및
타겟 얼굴 이미지의 고차원 피처 벡터, 기준 얼굴 이미지의 고차원 피처 벡터, 및 얼굴 모델 행렬들에 따라 타겟 얼굴 이미지와 기준 얼굴 이미지 사이의 유사성을 계산하도록 구성되는 얼굴 인식 모듈(550)을 더 포함한다.
선택적으로, 얼굴 인식 모듈(550)은:
유사성을
Figure 112017127226552-pct00114
로서 계산하도록 추가로 구성되고, x1은 타겟 얼굴 이미지의 고차원 피처 벡터이고, x2는 기준 얼굴 이미지의 고차원 피처 벡터이고,
Figure 112017127226552-pct00115
는 x1의 전치 벡터이고,
Figure 112017127226552-pct00116
는 x2의 전치 벡터이고, A 및 G는 얼굴 모델 행렬들이다.
요약하면, 이 실시예에서 제공되는 얼굴 모델 행렬 트레이닝 장치에 의해, 얼굴 이미지 라이브러리 내의 얼굴 이미지들은 k개 그룹들로 분할되고, 단지 하나의 그룹 내의 얼굴 이미지가 메모리에 매번 로딩되어 파싱되고, 이후 제1 행렬 및 제2 행렬은 파싱 결과들에 따라 계산되고, 얼굴 모델 행렬들은 제1 행렬 및 제2 행렬에 따라 트레이닝된다. 이러한 방식으로, 단말이 얼굴 이미지 라이브러리 내의 모든 얼굴 이미지들을 메모리에 한꺼번에 로딩할 때 상대적으로 큰 메모리가 점유되는 기존의 기술에서의 문제점이 회피되고, 단지 하나의 그룹 내의 얼굴 이미지를 매번 메모리에 로딩하는 것 및 이에 의해 트레이닝 프로세스에서 점유될 필요가 있는 메모리를 감소시키는 것의 효과들이 달성된다. 추가로, 단지 하나의 그룹 내의 얼굴 이미지가 매번 파싱될 필요가 있기 때문에, 단말의 계산상 복잡성이 또한 어느 정도 감소된다.
도 6은 본 발명의 실시예에 따른 얼굴 모델 행렬 트레이닝 단말(1100)의 블록도이다. 도 6을 참조하면, 단말(1100)은:
라디오 주파수(RF) 회로(110), 하나 이상의 컴퓨터 판독 가능 저장 매체를 포함하는 메모리(120), 입력 유닛(130), 디스플레이 유닛(140), 센서(150), 오디오 회로(160), WiFi(Wireless Fidelity)(무선 충실도) 모듈(170), 하나 이상의 프로세싱 코어들을 포함하는 프로세서(180) 및 파워 서플라이(190)와 같은 컴포넌트들을 포함할 수 있다. 본 기술분야의 통상의 기술자는 도 6에 도시된 단말의 구조가 단말에 대한 제한을 구성하지 않으며, 단말이 도면에 도시된 것보다 더 많거나 더 적은 컴포넌트들을 포함할 수 있거나, 또는 일부 컴포넌트들이 조합될 수 있거나, 또는 상이한 컴포넌트 배치가 사용될 수 있다는 것을 이해할 수 있다.
RF 회로(110)는 정보 수신 및 송신 프로세스 또는 호출 프로세스에서 신호들을 수신하고 송신하도록 구성될 수 있다. 특히, 기지국으로부터 다운링크 정보를 수신한 이후, RF 회로(110)는 다운링크 신호를 프로세싱을 위해 하나 이상의 프로세서들(180)에 전달하고, 관련된 업링크 데이터를 기지국에 송신한다. 일반적으로, RF 회로(110)는 안테나, 적어도 하나의 증폭기, 튜너, 하나 이상의 오실레이터들, 가입자 신원 모듈(SIM) 카드, 트랜시버, 커플러, 저잡음 증폭기(LNA) 및 듀플렉서를 포함하지만, 이에 제한되지 않는다. 추가로, RF 회로(110)는 또한 무선 통신에 의해 네트워크 및 또 다른 디바이스와 통신할 수 있다. 무선 통신은, 모바일 통신용 글로버 시스템(GSM), 범용 패킷 라디오 서비스(GPRS), 코드 분할 다중 액세스(CDMA), 광대역 코드 분할 다중 액세스(WCDMA), 롱 텀 에볼루션(LTE), 이메일, 단문 메시징 서비스(SMS) 등을 포함하지만 이에 제한되지 않는, 임의의 통신 표준 또는 프로토콜을 사용할 수 있다.
메모리(120)는 소프트웨어 프로그램 및 모듈을 저장하도록 구성될 수 있다. 프로세서(180)는 메모리(120)에 저장된 소프트웨어 프로그램 및 모듈을 실행하여, 다양한 기능 애플리케이션들 및 데이터 프로세싱을 구현한다. 메모리(120)는 프로그램 저장 영역 및 데이터 저장 영역을 주로 포함할 수 있다. 프로그램 저장 영역은 운영 체제, 적어도 하나의 기능(예컨대, 사운드 재생 기능 및 이미지 디스플레이 기능)에 의해 요구되는 응용 프로그램 등을 저장할 수 있다. 데이터 저장 영역은 단말(1100)의 사용에 따라 생성되는 데이터(예컨대, 오디오 데이터 및 주소록) 등을 저장할 수 있다. 추가로, 메모리(120)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 또한 비-휘발성 메모리, 예를 들어, 적어도 하나의 자기 디스크 저장 디바이스, 플래시 메모리 디바이스, 또는 또 다른 휘발성 고체-상태 저장 디바이스를 포함할 수 있다. 대응적으로, 메모리(120)는, 메모리(120)에 입력 유닛(130) 및 프로세서(180)의 액세스를 제공하기 위해, 메모리 제어기를 더 포함할 수 있다.
입력 유닛(130)은 입력 디지트 또는 캐릭터 정보를 수신하고, 사용자 설정 및 기능 제어에 관련된 키보드, 마우스, 조이스틱, 광학, 또는 트랙볼 신호 입력을 생성하도록 구성될 수 있다. 구체적으로, 입력 유닛(130)은 터치-감지형 표면(131) 및 또 다른 입력 디바이스(132)를 포함할 수 있다. 또한 터치 스크린 또는 터치 패널이라 지칭될 수 있는 터치-감지형 표면(131)은 터치-감지형 표면 상의 또는 터치-감지형 표면 근처의 사용자의 터치 동작(예컨대, 손가락 또는 스타일러스와 같은 임의의 적절한 오브젝트 또는 액세서리를 사용함으로써 터치-감지형 표면(131) 상의 또는 터치-감지형 표면(131) 근처의 사용자의 동작)을 수집하고, 프리셋 프로그램에 따라 대응하는 접속 장치를 구동할 수 있다. 선택적으로, 터치-감지형 표면(131)은 2개 파트들: 터치 검출 장치 및 터치 제어기를 포함할 수 있다. 터치 검출 장치는 사용자의 터치 위치를 검출하고, 터치 동작에 의해 생성되는 신호를 검출하고, 신호를 터치 제어기에 전달한다. 터치 제어기는 터치 검출 장치로부터 터치 정보를 수신하고, 터치 정보를 터치 포인트 좌표들로 전환시키고, 터치 포인트 좌표들을 프로세서(180)에 송신한다. 추가로, 터치 제어기는 프로세서(180)로부터 송신되는 코맨드를 수신하고 실행할 수 있다. 추가로, 터치-감지형 표면(131)은 저항성, 용량성, 적외선, 또는 표면 음파 타입 터치-감지형 표면일 수 있다. 터치-감지형 표면(131) 뿐만 아니라, 입력 유닛(130)은 또 다른 입력 디바이스(132)를 더 포함할 수 있다. 구체적으로, 또 다른 입력 디바이스(132)는, 물리적 키보드, 기능 키(예컨대, 음량 제어 키 또는 스위치 키), 트랙볼, 마우스, 및 조이스틱 중 하나 이상을 포함할 수 있지만, 이에 제한되지 않는다.
디스플레이 유닛(140)은 사용자에 의해 입력되는 정보 또는 사용자에게 제공되는 정보, 및 단말(1100)의 다양한 그래픽 사용자 인터페이스들을 디스플레이하도록 구성될 수 있다. 이러한 그래픽 사용자 인터페이스들은 그래프, 텍스트, 아이콘, 비디오, 또는 이들의 임의의 조합에 의해 형성될 수 있다. 디스플레이 유닛(140)은 디스플레이 패널(141)을 포함할 수 있다. 선택적으로, 디스플레이 패널(141)은 액정 디스플레이(LCD), 유기 발광 다이오드(OLED) 디스플레이 등을 사용함으로써 구성될 수 있다. 또한, 터치-감지형 표면(131)은 디스플레이 패널(141)을 커버할 수 있다. 터치-감지형 표면(131) 상의 또는 터치-감지형 표면(131) 근처의 터치 동작을 검출한 이후, 터치-감지형 표면(131)은, 터치 이벤트의 타입을 결정하기 위해, 터치 동작을 프로세서(180)에 전달한다. 이후, 프로세서(180)는 터치 이벤트의 타입에 따라, 디스플레이 패널(141) 상에 대응하는 시각적 출력을 제공한다. 터치-감지형 표면(131) 및 디스플레이 패널(141)이 도 6의 입력 및 출력 기능들을 구현하기 위해 2개의 별도의 파트들로서 사용되지만, 일부 실시예들에서, 터치-감지형 표면(131) 및 디스플레이 패널(141)은 입력 및 출력 기능들을 구현하도록 통합될 수 있다.
단말(1100)은 적어도 하나의 센서(150), 예를 들어, 광학 센서, 모션 센서, 및 다른 센서들을 더 포함할 수 있다. 구체적으로, 광학 센서는 주변광 센서 및 근접도 센서를 포함할 수 있다. 주변 광 센서는 주변광의 밝기에 따라 디스플레이 패널(141)의 휘도를 조정할 수 있다. 근접도 센서는 단말(1100)이 귀쪽으로 이동될 때 디스플레이 패널(141)을 스위치오프시키고 그리고/또는 백라이트를 인에이블시킬 수 있다. 모션 센서의 하나의 타입으로서, 중력 가속도 센서는 다양한 방향들에서(일반적으로 3개 축들 상에서) 가속도의 크기를 검출할 수 있고, 중력 가속도 센서가 정지해 있을 때 중력의 크기 및 방향을 검출할 수 있고, 모바일 폰의 자세(예를 들어, 풍경 배향과 인물 배향 사이의 스위칭, 관련된 게임 및 자력계 자세 캘리브레이션), 진동 인지에 관련된 기능(예컨대, 만보계 및 노크) 등을 인지하는 애플리케이션에 대해 사용될 수 있다. 단말(1100) 상에 제공될 수 있는, 자이로스코프, 기압계, 습도계, 온도계, 및 적외선 센서와 같은, 다른 센서들은 본원에 추가로 기술되지는 않는다.
오디오 회로(160), 라우드스피커(161), 및 마이크로폰(162)은 사용자와 단말(1100) 사이의 오디오 인터페이스들을 제공할 수 있다. 오디오 회로(160)는 수신된 오디오 데이터를 전기 신호로 전환시키고, 전기 신호를 라우드스피커(161)에 전송할 수 있다. 라우드스피커(161)는 전기 신호를 출력을 위한 사운드 신호로 전환시킨다. 반면, 마이크로폰(162)은 수집된 사운드 신호를 전기 신호로 전환시킨다. 오디오 회로(160)는 전기 신호를 수신하여, 전기 신호를 오디오 데이터로 전환시키고, 오디오 데이터를 프로세싱을 위해 프로세서(180)에 출력한다. 이후, 프로세서(180)는 오디오 데이터를, 예를 들어, RF 회로(110)를 사용함으로써 또 다른 단말 디바이스에 송신하거나, 또는 추가적인 프로세싱을 위해 메모리(120)에 오디오 데이터를 출력한다. 오디오 회로(160)는, 주변 이어폰과 단말(1100) 사이의 통신을 제공하기 위해, 이어플러그 잭을 더 포함할 수 있다.
WiFi는 단거리 무선 전송 기술이다. 단말(1100)은, WiFi 모듈(170)을 사용함으로써, 사용자가 이메일을 수신 및 송신하고, 웹페이지를 탐색하고, 스트리밍 미디어에 액세스하는 것 등을 보조할 수 있다. 단말(1100)은 사용자에게 무선 광대역 인터넷 액세스를 제공한다. 도 6이 WiFi 모듈(170)을 도시하지만, WiFi 모듈(170)이 단말(1100)의 필수 컴포넌트는 아니며, 요구될 때, 본 개시내용의 본질의 범위가 변경되지 않는 한 WiFi 모듈(170)이 생략될 수 있다는 것이 이해될 수 있다.
프로세서(180)는 단말(1100)의 제어 중심이며, 다양한 인터페이스들 및 라인들을 사용함으로써 모바일 폰의 다양한 파트들에 접속된다. 메모리(120)에 저장된 소프트웨어 프로그램 및/또는 모듈을 작동 또는 실행하고, 메모리(120)에 저장된 데이터를 불러옴으로써, 프로세서(180)는 단말(1100)의 다양한 기능들 및 데이터 프로세싱을 수행하고, 이에 의해 모바일 폰에 대한 전체 모니터링을 수행한다. 선택적으로, 프로세서(180)는 하나 이상의 프로세싱 코어들을 포함할 수 있다. 바람직하게는, 응용 프로세서 및 모뎀이 프로세서(180)에 통합될 수 있다. 응용 프로세서는 운영 체제, 사용자 인터페이스, 응용 프로그램들을 주로 프로세싱한다. 모뎀은 무선 통신을 주로 프로세싱한다. 이전의 모뎀이 또한 프로세서(180)에 통합되지 않을 수도 있다는 것이 이해될 수 있다.
단말(1100)은 컴포넌트들에 전력을 공급하기 위한 파워 서플라이(190)(예컨대 배터리)를 더 포함한다. 바람직하게는, 파워 서플라이는 전력 관리 시스템을 사용함으로써 프로세서(180)에 논리적으로 접속되고, 이에 의해 전력 관리 시스템을 사용함으로써 충전, 방전, 및 전력 소모 관리와 같은 기능들을 구현할 수 있다. 파워 서플라이(190)는 직류 또는 교류 파워 서플라이, 재-충전 시스템, 전력 장애 검출 회로, 파워 서플라이 컨버터 또는 인버터, 파워 서플라이 상태 표시자, 및 임의의 다른 컴포넌트들 중 하나 이상을 더 포함할 수 있다.
도면에 도시되지 않았지만, 단말(1100)은 카메라, 블루투스 모듈 등을 더 포함할 수 있으며, 이는 본원에 추가로 기술되지는 않는다. 구체적으로, 이 실시예에서, 단말의 디스플레이 유닛은 터치 스크린 디스플레이이고, 단말은 메모리 및 하나 이상의 프로그램들을 더 포함한다. 하나 이상의 프로그램들은 메모리에 저장되며, 하나 이상의 프로세서들에 의해 실행되도록 구성된다. 하나 이상의 프로그램들은 다음 동작들을 수행하도록 구성되는 명령어들을 포함한다: 얼굴 이미지 라이브러리를 획득하는 것 - 얼굴 이미지 라이브러리는 얼굴 이미지들의 k개 그룹들을 포함하고, 얼굴 이미지들의 각각의 그룹은 적어도 한 사람의 적어도 하나의 얼굴 이미지를 포함하고, k > 2이고, k는 정수임 - ; 얼굴 이미지들의 k개 그룹들 각각을 별도로 파싱하고, 파싱 결과들에 따라 제1 행렬 및 제2 행렬을 계산하는 것 - 제1 행렬은 얼굴 이미지들의 각각의 그룹의 안면 피처들의 그룹-내 공분산 행렬이고, 제2 행렬은 얼굴 이미지들의 k개 그룹들의 안면 피처들의 그룹-간 공분산 행렬임 - ; 및 제1 행렬 및 제2 행렬에 따라 얼굴 모델 행렬들을 트레이닝하는 것.
하나 이상의 프로그램들은 도 2 또는 도 3에서의 얼굴 모델 행렬 트레이닝 방법에서의 다른 동작들을 수행하도록 구성되는 명령어들을 더 포함한다.
이전 실시예들에서 제공되는 얼굴 모델 행렬 트레이닝 장치가 얼굴 모델 행렬을 트레이닝할 때 위의 기능 모듈들의 분할이 단지 예시적인 목적으로 기술된다는 것에 유의해야 한다. 실제 응용예들에서, 기능들은 특정 요구들에 따라 상이한 기능 모듈들에 할당될 수 있는데, 즉, 장치의 내부 구조를 전술된 기능들의 전부 또는 일부를 완료하기 위해 상이한 기능 모듈들로 분할한다. 추가로, 이전 실시예들에 제공되는 얼굴 모델 행렬 트레이닝 장치는 얼굴 모델 행렬 트레이닝 방법의 방법 실시예들의 개념과 동일한 개념에 기초한다. 특정 구현 프로세스에 대해, 방법 실시예들을 참조하며, 상세항목들은 여기서 다시 기술되지는 않는다.
본 발명의 이전 실시예들의 일련 번호들은 단지 설명의 목적에 맞으며, 실시예들의 우월성 또는 열등성을 나타내지 않는다.
본 기술분야의 통상의 기술자는, 이전의 실시예들의 단계들의 전부 또는 일부가 하드웨어를 사용함으로써 구현될 수 있거나, 또는 프로그램 명령어 관련 하드웨어에 의해 구현될 수 있음을 이해할 수 있다. 프로그램은 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 저장 매체는 판독-전용 메모리, 자기 디스크, 광학 디스크 등일 수 있다.
이전 기재들은 단지 본 발명의 바람직한 실시예들이지만, 본 개시내용을 제한하도록 의도되지 않는다. 본 개시내용의 사상 및 원리 내에서 이루어지는 임의의 수정, 등가적 대체, 또는 개선은 본 개시내용의 보호 범위 내에 들 것이다.

Claims (18)

  1. 얼굴 모델 행렬 트레이닝 방법으로서,
    얼굴 이미지 라이브러리를 획득하는 단계 - 상기 얼굴 이미지 라이브러리는 얼굴 이미지들의 k개 그룹들을 포함하고, 얼굴 이미지들의 각각의 그룹은 적어도 한 사람의 적어도 하나의 얼굴 이미지를 포함하고, k > 2이고, k는 정수임 - ;
    상기 얼굴 이미지들의 k개 그룹들 각각을 별도로 파싱(parsing)하고, 파싱 결과들에 따라 제1 행렬 및 제2 행렬을 계산하는 단계 - 상기 제1 행렬은 얼굴 이미지들의 각각의 그룹의 안면 특징들의 그룹-내 공분산 행렬이고, 상기 제2 행렬은 상기 얼굴 이미지들의 k개 그룹들의 안면 특징들의 그룹-간 공분산 행렬임 - ;
    상기 제1 행렬 및 상기 제2 행렬에 따라 제3 행렬 및 제4 행렬을 계산하는 단계 - 상기 제3 행렬은 상기 얼굴 이미지 라이브러리 내의 안면 특징들의 공분산 행렬이고, 상기 제4 행렬은 상기 얼굴 이미지 라이브러리 내의 상이한 사람들의 안면 특징들 간의 공분산 행렬임 - ; 및
    상기 제3 행렬 및 상기 제4 행렬에 따라 얼굴 모델 행렬들을 트레이닝하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서, 상기 얼굴 이미지들의 k개 그룹들 각각을 별도로 파싱하고, 파싱 결과들에 따라 제1 행렬 및 제2 행렬을 계산하는 단계는:
    제1 행렬 Sg 및 제2 행렬 Ss을 초기화하는 단계;
    Ss에 따라 H를 계산하고 -
    Figure 112017127226552-pct00117
    임 - , Sg 및 Ss에 따라 L을 계산하는 단계 -
    Figure 112017127226552-pct00118
    임 - ;
    얼굴 이미지들의 각각의 그룹 내의 i번째 사람의 얼굴 이미지의 고차원 피처 벡터 xi 및 j번째 사람의 얼굴 이미지의 고차원 피처 벡터 xj를 획득하는 단계 -
    Figure 112017127226552-pct00119
    Figure 112017127226552-pct00120
    이고, n은 얼굴 이미지들의 하나의 그룹 내의 사람들의 수임 - ;
    H, L, Sg, 및 xi에 따라 gi를 계산하고 -
    Figure 112017127226552-pct00121
    임 - , H, L, xi, 및 xj에 따라 Sij를 계산하는 단계 -
    Figure 112017127226552-pct00122
    임 - ;
    gi에 따라 Sg를 업데이트하고 -
    Figure 112017127226552-pct00123
    임 - , Sij에 따라 Ss를 업데이트하는 단계 -
    Figure 112017127226552-pct00124
    이고,
    Figure 112017127226552-pct00125
    는 gi의 전치 벡터이고,
    Figure 112017127226552-pct00126
    는 Sij의 전치 벡터임 - ;
    Sg 및 Ss가 수렴하는 경우 Sg 및 Ss를 획득하는 단계; 및
    Ss에 따라 H를 계산하고 Sg 및 Ss가 수렴하지 않는 경우 다시 Sg 및 Ss에 따라 L을 계산하는 단계를 수행하는 단계
    를 포함하는 방법.
  3. 제2항에 있어서, 얼굴 이미지들의 각각의 그룹 내의 i번째 얼굴 이미지의 고차원 피처 벡터 xi 및 j번째 얼굴 이미지의 고차원 피처 벡터 xj를 획득하는 단계는:
    얼굴 이미지들의 각각의 그룹에 대해, 상기 그룹 내의 얼굴 이미지들의 고차원 피처 벡터들을 계산하는 단계;
    상기 얼굴 이미지들의 고차원 피처 벡터들의 평균을 계산하는 단계;
    상기 그룹 내의 각각의 얼굴 이미지에 대해, 상기 얼굴 이미지의 고차원 피처 벡터로부터 상기 평균을 차감하여, 평균 정규화 이후 획득되는 상기 얼굴 이미지의 고차원 피처 벡터를 획득하는 단계; 및
    평균 정규화 이후 획득되는 상기 얼굴 이미지의 고차원 피처 벡터를 상기 얼굴 이미지의 고차원 피처 벡터로서 결정하는 단계
    를 포함하는 방법.
  4. 제1항에 있어서, 상기 제1 행렬 및 상기 제2 행렬에 따라 제3 행렬 및 제4 행렬을 계산하는 단계는:
    Sg인 상기 제1 행렬 및 Ss인 상기 제2 행렬에 따라 상기 제3 행렬
    Figure 112018060061073-pct00127
    을 계산하는 단계 -
    Figure 112018060061073-pct00128
    임 - ;
    상기 제4 행렬
    Figure 112018060061073-pct00129
    을 초기화하는 단계;
    Figure 112018060061073-pct00130
    에 따라 F를 계산하고 -
    Figure 112018060061073-pct00131
    임 - ,
    Figure 112018060061073-pct00132
    Figure 112018060061073-pct00133
    에 따라 G를 계산하는 단계 -
    Figure 112018060061073-pct00134
    이고, m은 상기 얼굴 이미지 라이브러리 내의 상기 얼굴 이미지들에 대응하는 사람들의 수임 - ;
    F 및 G에 따라 상기 얼굴 이미지 라이브러리 내의 i번째 사람의 가우시안 분포 평균
    Figure 112018060061073-pct00135
    를 계산하고 -
    Figure 112018060061073-pct00136
    임 - , F 및 G에 따라 상기 i번째 사람 및 j번째 사람의 결합 분포 공분산 행렬
    Figure 112018060061073-pct00137
    을 계산하는 단계 -
    Figure 112018060061073-pct00138
    이고, xi는 상기 i번째 사람의 고차원 피처 벡터이고, xj는 상기 j번째 사람의 고차원 피처 벡터임 - ;
    Figure 112018060061073-pct00139
    에 따라
    Figure 112018060061073-pct00140
    를 업데이트하고,
    Figure 112018060061073-pct00141
    에 따라
    Figure 112018060061073-pct00142
    를 업데이트하는 단계 -
    Figure 112018060061073-pct00143
    이고,
    Figure 112018060061073-pct00144
    Figure 112018060061073-pct00145
    의 전치 벡터이고,
    Figure 112018060061073-pct00146
    Figure 112018060061073-pct00147
    의 전치 벡터임 - ;
    Figure 112018060061073-pct00148
    Figure 112018060061073-pct00149
    가 수렴하는 경우
    Figure 112018060061073-pct00150
    Figure 112018060061073-pct00151
    를 획득하는 단계; 및
    Figure 112018060061073-pct00152
    에 따라 F를 계산하고,
    Figure 112018060061073-pct00153
    Figure 112018060061073-pct00154
    가 수렴하지 않는 경우 다시
    Figure 112018060061073-pct00155
    Figure 112018060061073-pct00156
    에 따라 G를 계산하는 단계를 수행하는 단계
    를 포함하는 방법.
  5. 제4항에 있어서, 상기 제3 행렬 및 상기 제4 행렬에 따라 얼굴 모델 행렬들을 트레이닝하는 단계는:
    상기 제3 행렬
    Figure 112018060061073-pct00157
    , 상기 제4 행렬
    Figure 112018060061073-pct00158
    ,
    Figure 112018060061073-pct00159
    Figure 112018060061073-pct00160
    가 수렴할 때 획득되는 F, 및
    Figure 112018060061073-pct00161
    Figure 112018060061073-pct00162
    가 수렴할 때 획득되는 G에 따른 트레이닝을 통해 상기 얼굴 모델 행렬들 A 및 G를 획득하는 단계를 포함하고,
    상기 얼굴 모델 행렬들은
    Figure 112018060061073-pct00163
    Figure 112018060061073-pct00164
    인 방법.
  6. 제1항에 있어서,
    타겟 얼굴 이미지의 고차원 피처 벡터 및 기준 얼굴 이미지의 고차원 피처 벡터를 획득하는 단계; 및
    상기 타겟 얼굴 이미지의 고차원 피처 벡터, 상기 기준 얼굴 이미지의 고차원 피처 벡터, 및 상기 얼굴 모델 행렬들에 따라 상기 타겟 얼굴 이미지와 상기 기준 얼굴 이미지 사이의 유사성을 계산하는 단계
    를 더 포함하는 방법.
  7. 제6항에 있어서,
    상기 타겟 얼굴 이미지의 고차원 피처 벡터, 상기 기준 얼굴 이미지의 고차원 피처 벡터, 및 상기 얼굴 모델 행렬들에 따라 상기 타겟 얼굴 이미지와 상기 기준 얼굴 이미지 사이의 유사성을 계산하는 단계는:
    상기 유사성을
    Figure 112018060061073-pct00165
    로서 계산하는 단계를 포함하고,
    x1은 상기 타겟 얼굴 이미지의 고차원 피처 벡터이고, x2는 상기 기준 얼굴 이미지의 고차원 피처 벡터이고,
    Figure 112018060061073-pct00166
    는 x1의 전치 벡터이고,
    Figure 112018060061073-pct00167
    는 x2의 전치 벡터이고, A 및 G는 상기 얼굴 모델 행렬들인 방법.
  8. 얼굴 모델 행렬 트레이닝 장치로서,
    얼굴 이미지 라이브러리를 획득하도록 구성되는 이미지 획득 모듈 - 상기 얼굴 이미지 라이브러리는 얼굴 이미지들의 k개 그룹들을 포함하고, 얼굴 이미지들의 각각의 그룹은 적어도 한 사람의 적어도 하나의 얼굴 이미지를 포함하고, k > 2임 - ;
    상기 얼굴 이미지들의 k개 그룹들 각각을 별도로 파싱하고, 파싱 결과들에 따라 제1 행렬 및 제2 행렬을 계산하도록 구성되는 행렬 계산 모듈 - 상기 제1 행렬은 얼굴 이미지들의 각각의 그룹의 안면 특징들의 그룹-내 공분산 행렬이고, 상기 제2 행렬은 상기 얼굴 이미지들의 k개 그룹들의 안면 특징들의 그룹-간 공분산 행렬임 - ; 및
    행렬 계산 유닛 및 행렬 트레이닝 유닛을 포함하는 행렬 트레이닝 모듈을 포함하고,
    상기 행렬 계산 유닛은 상기 제1 행렬 및 상기 제2 행렬에 따라 제3 행렬 및 제4 행렬을 계산하도록 구성되고 - 상기 제3 행렬은 상기 얼굴 이미지 라이브러리 내의 안면 특징들의 공분산 행렬이고, 상기 제4 행렬은 상기 얼굴 이미지 라이브러리 내의 상이한 사람들의 안면 특징들 간의 공분산 행렬임 - ;
    상기 행렬 트레이닝 유닛은 상기 행렬 계산 유닛에 의해 계산되는 상기 제3 행렬 및 상기 제4 행렬에 따라 얼굴 모델 행렬들을 트레이닝하도록 구성되는, 장치.
  9. 제8항에 있어서,
    상기 행렬 계산 모듈은:
    상기 제1 행렬 Sg 및 상기 제2 행렬 Ss을 초기화하도록 구성되는 초기화 유닛;
    Ss에 따라 H를 계산하고 -
    Figure 112018060061073-pct00168
    임 - , Sg 및 Ss에 따라 L을 계산하도록 -
    Figure 112018060061073-pct00169
    임 - 구성되는 제1 계산 유닛;
    얼굴 이미지들의 각각의 그룹 내의 i번째 사람의 얼굴 이미지의 고차원 피처 벡터 xi 및 j번째 사람의 얼굴 이미지의 고차원 피처 벡터 xj를 획득하도록 구성되는 피처 획득 유닛 -
    Figure 112018060061073-pct00170
    Figure 112018060061073-pct00171
    이고, n은 얼굴 이미지들의 하나의 그룹 내의 사람들의 수임 - ;
    H, L, Sg, 및 xi에 따라 gi를 계산하고 -
    Figure 112018060061073-pct00172
    임 - , H, L, xi, 및 xj에 따라 Sij를 계산하도록 -
    Figure 112018060061073-pct00173
    임 - 구성되는 제2 계산 유닛;
    gi에 따라 Sg를 업데이트하고 -
    Figure 112018060061073-pct00174
    임 - , Sij에 따라 Ss를 업데이트하도록 -
    Figure 112018060061073-pct00175
    이고,
    Figure 112018060061073-pct00176
    는 gi의 전치 벡터이고,
    Figure 112018060061073-pct00177
    는 Sij의 전치 벡터임 - 구성되는 제3 계산 유닛; 및
    상기 제3 계산 유닛에 의해 계산되는 Sg 및 Ss가 수렴하는 경우, Sg 및 Ss를 획득하도록 구성되는 제4 계산 유닛
    을 포함하고,
    상기 제1 계산 유닛은, Ss에 따라 H를 계산하고 상기 제3 계산 유닛에 의해 계산되는 Sg 및 Ss가 수렴하지 않는 경우 다시 Sg 및 Ss에 따라 L을 계산하는 단계를 수행하도록 추가로 구성되는 장치.
  10. 제9항에 있어서,
    상기 피처 획득 유닛은:
    얼굴 이미지들의 각각의 그룹에 대해, 상기 그룹 내의 얼굴 이미지들의 고차원 피처 벡터들을 계산하고;
    상기 얼굴 이미지들의 고차원 피처 벡터들의 평균을 계산하고;
    상기 그룹 내의 각각의 얼굴 이미지에 대해, 상기 얼굴 이미지의 고차원 피처 벡터로부터 상기 평균을 차감하여, 평균 정규화 이후 획득되는 상기 얼굴 이미지의 고차원 피처 벡터를 획득하고;
    평균 정규화 이후 획득되는 상기 얼굴 이미지의 고차원 피처 벡터를 상기 얼굴 이미지의 고차원 피처 벡터로서 결정하도록
    추가로 구성되는 장치.
  11. 제8항에 있어서, 상기 행렬 계산 유닛은:
    Sg인 상기 제1 행렬 및 Ss인 상기 제2 행렬에 따라 상기 제3 행렬
    Figure 112018060061073-pct00178
    을 계산하고 -
    Figure 112018060061073-pct00179
    임 - ;
    상기 제4 행렬
    Figure 112018060061073-pct00180
    을 초기화하고;
    Figure 112018060061073-pct00181
    에 따라 F를 계산하고 -
    Figure 112018060061073-pct00182
    임 - ,
    Figure 112018060061073-pct00183
    Figure 112018060061073-pct00184
    에 따라 G를 계산하고 -
    Figure 112018060061073-pct00185
    이고, m은 상기 얼굴 이미지 라이브러리 내의 상기 얼굴 이미지들에 대응하는 사람들의 수임 - ,
    F 및 G에 따라 상기 얼굴 이미지 라이브러리 내의 i번째 사람의 가우시안 분포 평균
    Figure 112018060061073-pct00186
    를 계산하고 -
    Figure 112018060061073-pct00187
    임 - , F 및 G에 따라 상기 i번째 사람 및 j번째 사람의 결합 분포 공분산 행렬
    Figure 112018060061073-pct00188
    을 계산하고 -
    Figure 112018060061073-pct00189
    이고, xi는 상기 i번째 사람의 고차원 피처 벡터이고, xj는 상기 j번째 사람의 고차원 피처 벡터임 - ;
    Figure 112018060061073-pct00190
    에 따라
    Figure 112018060061073-pct00191
    를 업데이트하고,
    Figure 112018060061073-pct00192
    에 따라
    Figure 112018060061073-pct00193
    를 업데이트하며 -
    Figure 112018060061073-pct00194
    이고,
    Figure 112018060061073-pct00195
    Figure 112018060061073-pct00196
    의 전치 벡터이고,
    Figure 112018060061073-pct00197
    Figure 112018060061073-pct00198
    의 전치 벡터임 - ;
    Figure 112018060061073-pct00199
    Figure 112018060061073-pct00200
    가 수렴하는 경우
    Figure 112018060061073-pct00201
    Figure 112018060061073-pct00202
    를 획득하고;
    Figure 112018060061073-pct00203
    에 따라 F를 계산하고,
    Figure 112018060061073-pct00204
    Figure 112018060061073-pct00205
    가 수렴하지 않는 경우 다시
    Figure 112018060061073-pct00206
    Figure 112018060061073-pct00207
    에 따라 G를 계산하는 단계를 수행하도록
    추가로 구성되는 장치.
  12. 제11항에 있어서, 상기 행렬 트레이닝 유닛은:
    상기 제3 행렬
    Figure 112018060061073-pct00208
    , 상기 제4 행렬
    Figure 112018060061073-pct00209
    ,
    Figure 112018060061073-pct00210
    Figure 112018060061073-pct00211
    가 수렴할 때 획득되는 F, 및
    Figure 112018060061073-pct00212
    Figure 112018060061073-pct00213
    가 수렴할 때 획득되는 G에 따른 트레이닝을 통해 상기 얼굴 모델 행렬들을 획득하도록 추가로 구성되고,
    상기 얼굴 모델 행렬들은
    Figure 112018060061073-pct00214
    Figure 112018060061073-pct00215
    인 장치.
  13. 제8항에 있어서,
    타겟 얼굴 이미지의 고차원 피처 벡터 및 기준 얼굴 이미지의 고차원 피처 벡터를 획득하도록 구성되는 피처 획득 모듈; 및
    상기 타겟 얼굴 이미지의 고차원 피처 벡터, 상기 기준 얼굴 이미지의 고차원 피처 벡터, 및 상기 얼굴 모델 행렬들에 따라 상기 타겟 얼굴 이미지와 상기 기준 얼굴 이미지 사이의 유사성을 계산하도록 구성되는 얼굴 인식 모듈
    을 더 포함하는 장치.
  14. 제13항에 있어서, 상기 얼굴 인식 모듈은:
    상기 유사성을
    Figure 112018060061073-pct00216
    로서 계산하도록 추가로 구성되고,
    x1은 상기 타겟 얼굴 이미지의 고차원 피처 벡터이고, x2는 상기 기준 얼굴 이미지의 고차원 피처 벡터이고,
    Figure 112018060061073-pct00217
    는 x1의 전치 벡터이고,
    Figure 112018060061073-pct00218
    는 x2의 전치 벡터이고, A 및 G는 상기 얼굴 모델 행렬들인 장치.
  15. 얼굴 모델 행렬 트레이닝 장치로서,
    상기 얼굴 모델 행렬 트레이닝 장치가 제1항 내지 제7항 중 어느 한 항에 따른 얼굴 모델 행렬 트레이닝 방법을 수행하도록, 저장 매체에 저장된 프로그램 명령어들을 실행하도록 구성되는 하나 이상의 프로세서들
    을 포함하는 얼굴 모델 행렬 트레이닝 장치.
  16. 프로그램 명령어들을 포함하는 비-휘발성 컴퓨터 판독 가능 저장 매체로서,
    상기 프로그램 명령어들은, 프로세서에 의해 실행될 때, 상기 저장 매체를, 제1항 내지 제7항 중 어느 한 항에 따른 얼굴 모델 행렬 트레이닝 방법을 수행하도록 구성하는 비-휘발성 컴퓨터 판독 가능 저장 매체.
  17. 삭제
  18. 삭제
KR1020177036769A 2015-11-26 2016-06-02 사람 얼굴 모델 행렬 트레이닝 방법 및 장치, 및 저장 매체 KR101924748B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510836591.0A CN106803054B (zh) 2015-11-26 2015-11-26 人脸模型矩阵训练方法和装置
CN201510836591.0 2015-11-26
PCT/CN2016/084526 WO2017088434A1 (zh) 2015-11-26 2016-06-02 人脸模型矩阵训练方法、装置及存储介质

Publications (2)

Publication Number Publication Date
KR20180010243A KR20180010243A (ko) 2018-01-30
KR101924748B1 true KR101924748B1 (ko) 2018-12-03

Family

ID=58763905

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177036769A KR101924748B1 (ko) 2015-11-26 2016-06-02 사람 얼굴 모델 행렬 트레이닝 방법 및 장치, 및 저장 매체

Country Status (6)

Country Link
US (2) US10395095B2 (ko)
EP (1) EP3382596B1 (ko)
JP (1) JP6553747B2 (ko)
KR (1) KR101924748B1 (ko)
CN (1) CN106803054B (ko)
WO (1) WO2017088434A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472460A (zh) * 2018-05-11 2019-11-19 北京京东尚科信息技术有限公司 人脸图像处理方法及装置
CN109359516A (zh) * 2018-08-31 2019-02-19 算丰科技(北京)有限公司 数据处理方法、数据处理装置以及电子设备
CN109961102B (zh) * 2019-03-30 2021-06-22 北京市商汤科技开发有限公司 图像处理方法、装置、电子设备及存储介质
CN110598535B (zh) * 2019-07-31 2021-03-23 广西大学 一种监控视频数据中使用的人脸识别分析方法
CN110879984A (zh) * 2019-11-18 2020-03-13 上海眼控科技股份有限公司 一种人脸比对的方法及设备
KR102565852B1 (ko) * 2020-11-25 2023-08-11 한국전자기술연구원 얼굴표정 분석기반 자폐 스펙트럼 장애 평가 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122097A (ja) * 2005-10-24 2007-05-17 Nec Corp 係数決定方法、特徴抽出方法、システム及びプログラム、並びにパタン照合方法、システム及びプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178569A (ja) * 2002-11-12 2004-06-24 Matsushita Electric Ind Co Ltd データ分類装置、物体認識装置、データ分類方法及び物体認識方法
US7856123B2 (en) * 2004-06-04 2010-12-21 France Telecom Method for recognising faces by means of a two-dimensional linear discriminant analysis
JP2006338092A (ja) * 2005-05-31 2006-12-14 Nec Corp パタン照合方法、パタン照合システム及びパタン照合プログラム
CN100373395C (zh) * 2005-12-15 2008-03-05 复旦大学 一种基于人脸统计知识的人脸识别方法
JP4697106B2 (ja) * 2006-09-25 2011-06-08 ソニー株式会社 画像処理装置および方法、並びにプログラム
US20090290791A1 (en) * 2008-05-20 2009-11-26 Holub Alex David Automatic tracking of people and bodies in video
US8553983B2 (en) * 2008-07-10 2013-10-08 Nec Corporation Personal authentication system and personal authentication method
CN101561874B (zh) * 2008-07-17 2011-10-26 清华大学 一种人脸虚拟图像生成的方法
SG171858A1 (en) * 2008-11-28 2011-07-28 Agency Science Tech & Res A method for updating a 2 dimensional linear discriminant analysis (2dlda) classifier engine
US8249361B1 (en) * 2010-04-22 2012-08-21 Google Inc. Interdependent learning of template map and similarity metric for object identification
CN102004899B (zh) * 2010-11-03 2012-09-26 无锡中星微电子有限公司 一种人脸认证系统及方法
CN102129574B (zh) * 2011-03-18 2016-12-07 广东中星电子有限公司 一种人脸认证方法及系统
KR20120123993A (ko) * 2011-05-02 2012-11-12 (주)베타 표준 얼굴 그래프 생성 방법
JP5899472B2 (ja) * 2012-05-23 2016-04-06 パナソニックIpマネジメント株式会社 人物属性推定システム、及び学習用データ生成装置
CN102831425B (zh) * 2012-08-29 2014-12-17 东南大学 一种人脸图像快速特征提取方法
CN103839041B (zh) * 2012-11-27 2017-07-18 腾讯科技(深圳)有限公司 客户端特征的识别方法和装置
WO2014167880A1 (ja) * 2013-04-09 2014-10-16 株式会社日立国際電気 画像検索装置、画像検索方法、および記録媒体
CN103745206B (zh) * 2014-01-27 2018-07-10 中国科学院深圳先进技术研究院 一种人脸识别方法及系统
CN105095833B (zh) * 2014-05-08 2019-03-15 中国科学院声学研究所 用于人脸识别的网络构建方法、识别方法及系统
CN104408405B (zh) * 2014-11-03 2018-06-15 北京畅景立达软件技术有限公司 人脸表示和相似度计算方法
FR3028064B1 (fr) * 2014-11-05 2016-11-04 Morpho Procede de comparaison de donnees ameliore
CN104573652B (zh) * 2015-01-04 2017-12-22 华为技术有限公司 确定人脸图像中人脸的身份标识的方法、装置和终端
CN104657718B (zh) * 2015-02-13 2018-12-14 武汉工程大学 一种基于人脸图像特征极限学习机的人脸识别方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122097A (ja) * 2005-10-24 2007-05-17 Nec Corp 係数決定方法、特徴抽出方法、システム及びプログラム、並びにパタン照合方法、システム及びプログラム

Also Published As

Publication number Publication date
EP3382596B1 (en) 2023-06-07
US10395095B2 (en) 2019-08-27
JP2018519573A (ja) 2018-07-19
US10599913B2 (en) 2020-03-24
JP6553747B2 (ja) 2019-07-31
EP3382596A1 (en) 2018-10-03
US20190332847A1 (en) 2019-10-31
CN106803054A (zh) 2017-06-06
WO2017088434A1 (zh) 2017-06-01
CN106803054B (zh) 2019-04-23
US20180005017A1 (en) 2018-01-04
KR20180010243A (ko) 2018-01-30
EP3382596A4 (en) 2019-08-14

Similar Documents

Publication Publication Date Title
KR101924748B1 (ko) 사람 얼굴 모델 행렬 트레이닝 방법 및 장치, 및 저장 매체
CN110321965B (zh) 物体重识别模型的训练方法、物体重识别的方法及装置
CN106919918B (zh) 一种人脸跟踪方法和装置
CN106156807B (zh) 卷积神经网络模型的训练方法及装置
US10607066B2 (en) Living body identification method, information generation method, and terminal
US20160112701A1 (en) Video processing method, device and system
US10142608B2 (en) Electronic apparatus and method for processing three-dimensional information using image
WO2015003606A1 (en) Method and apparatus for recognizing pornographic image
CN110147742B (zh) 一种关键点定位方法、装置及终端
CN114722937A (zh) 一种异常数据检测方法、装置、电子设备和存储介质
CN113190646A (zh) 一种用户名样本的标注方法、装置、电子设备及存储介质
CN111797148A (zh) 数据处理方法、装置、存储介质及电子设备
CN109726726B (zh) 视频中的事件检测方法及装置
CN114298123A (zh) 聚类处理方法、装置、电子设备及可读存储介质
US11200437B2 (en) Method for iris-based living body detection and related products
US20230232075A1 (en) Electronic device for providing content recommendation service, and method therefor
CN114612531A (zh) 一种图像处理方法、装置、电子设备及存储介质
CN113569043A (zh) 一种文本类别确定方法和相关装置
CN113806533B (zh) 比喻句式特征词语提取方法、装置、介质及设备
CN111797860A (zh) 特征提取方法、装置、存储介质及电子设备
CN113806532B (zh) 比喻句式判断模型的训练方法、装置、介质及设备
WO2024022149A1 (zh) 数据增强方法、装置及电子设备
CN116932256A (zh) 缺陷报告的分配方法、装置、电子设备及存储介质
CN112241491A (zh) 一种推荐词显示方法及终端设备
CN118052990A (zh) 图像识别方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant