KR20160073427A - 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법 및 시스템 - Google Patents
얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법 및 시스템 Download PDFInfo
- Publication number
- KR20160073427A KR20160073427A KR1020167015434A KR20167015434A KR20160073427A KR 20160073427 A KR20160073427 A KR 20160073427A KR 1020167015434 A KR1020167015434 A KR 1020167015434A KR 20167015434 A KR20167015434 A KR 20167015434A KR 20160073427 A KR20160073427 A KR 20160073427A
- Authority
- KR
- South Korea
- Prior art keywords
- feature
- face
- feature maps
- images
- matrix
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000001815 facial effect Effects 0.000 claims abstract description 56
- 238000000605 extraction Methods 0.000 claims abstract description 43
- 230000004044 response Effects 0.000 claims abstract description 28
- 238000001914 filtration Methods 0.000 claims abstract description 19
- 239000011159 matrix material Substances 0.000 claims description 63
- 230000004913 activation Effects 0.000 claims description 24
- 238000005286 illumination Methods 0.000 claims description 13
- 238000005070 sampling Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000000523 sample Substances 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Images
Classifications
-
- G06K9/00268—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G06K9/38—
-
- G06K9/6249—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2136—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
본 발명은 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법 및 시스템을 개시하였다. 상기 시스템은, 얼굴 이미지들의 데이터를 제1 크기(a first dimension)를 가지는 제1 복수 채널들의 특징 맵들로 필터링하고, 특징 맵들을 제2 크기(a second dimension)의 특징 맵들로 다운 샘플링하도록 구성된 제1 특징 추출 유닛과, 제2 크기의 특징 맵을 제2 크기를 가지는 제2 복수 채널들의 특징 맵들로 필터링하고, 제2 복수 채널들의 특징 맵들을 제3 크기(a third dimension)의 특징 맵들로 다운 샘플링하도록 구성된 제2 특징 추출 유닛과, 얼굴 영역 외부에 위치한 고응답(high responses)을 더 감소하도록 제3 크기(the third dimension)의 특징 맵들을 필터링함으로써 얼굴 이미지들의 신원들(identities) 사이의 식별력을 유지하는 동시에 얼굴 이미지들의 신원내(intra-identiry) 차이들을 감소하도록 구성된 제3 특징 추출 유닛을 포함할 수 있다.
Description
본 출원은 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법 및 시스템에 관한 것이다.
많은 실용 어플리케이션에서, 포즈 및 조명 변화는 얼굴 인식에 있어서 병목현상이 되고 있다. 기존의 많은 작업들이 이러한 변화를 해결하기 위하여 제안되었다. 포즈-불변(pose-invariant) 방법은 일반적으로 2D-기반과 3D-기반의 2가지 유형으로 나뉠 수 있다. 첫번째 유형에서는 2D-이미지를 매칭하거나 몇 가지 기저(bases) 또는 표본(exemplars)을 사용하여 테스트 이미지를 인코딩하는 방법에 의하여 포즈(poses)를 처리할 수 있다. 예를 들어, 종래 기술로서 스트레오 매칭 기법은 두 얼굴의 유사성을 계산하고, 트레이닝 이미지의 테스트 얼굴 조합을 표시한 다음, 선형 회귀 계수(linear regression coefficient)들을 얼굴 인식의 특징으로서 사용한다. 3D-기반 방법은 보통 3D 얼굴 데이터를 캡쳐하거나 2D 입력 데이터로부터 3D 모델을 추정하고, 추정된 3D 모델을 2D 프로브 얼굴 이미지(probe face image)와 매치를 시도한다. 이러한 방법은 프로브 얼굴(probe face)의 어느 뷰에서든 합성할 수 있게 하고, 포즈 변화에 보다 강인하게 한다.
조명-불변(illumination-invariant) 방법은 전형적으로 조명이 어떻게 얼굴 이미지에 영향을 주는 자에 대한 가정을 세우고, 이 가정을 이용하여 조명 효과를 모델링 하고 조명 효과를 제거한다. 예를 들어, 이 기술 분야에서, 몇몇 조명 환경(a few illuminations) 하에서 갤러리 내 각 물체 이미지를 캡쳐하는 프로젝터-기반(projector-based) 시스템이 설계되었다. 상기 몇몇 조명 환경을 선형 조합하여 임의의 조명 환경 하에서의 이미지를 생성할 수 있다. 이러한 증강 갤러리(augmented gallery)를 이용하여 약간의 코딩(sparse coding)으로 얼굴 인식을 수행한다.
위 방법들은 일정한 한계가 존재한다. 예컨대, 3D 데이터를 캡쳐하는 것은 추가 비용과 자원을 필요로 한다. 2D 데이터로부터 3D 모델을 추론하는 것은 불량 조건 문제(an ill-posed problem)를 야기한다. 통계적 조명 모델은 종종 제한된 환경에서만 적용되므로 실용 어플리케이션에서는 쉽게 일반화할 수 없는 문제가 있다.
본 발명은 상기와 같은 문제를 해결하기 위하여 제안된 것으로, 본 발명의 목적은 포즈와 조명 변화에 대하여 견고한 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법 및 시스템을 제공하는 데 목적이 있다.
일 방면에 있어서, 본 출원은 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법을 제공하며, 상기 방법은,
1) 얼굴 이미지들의 데이터를 제1 크기(a first dimension)를 가지는 제1 복수 채널들의 특징 맵들(feature maps)로 필터링하는 단계;
2) 상기 특징 맵들 중의 각 특징 맵을 규칙 에 따라 계산(computing)하되, 여기서 x는 상기 제1 크기(the first dimension)를 가지는 특징 맵들을 표시하는 단계;
3) 상기 계산된(computed) 특징 맵들을 제2 크기(a second dimension)의 특징 맵으로 다운 샘플링하는(down-sampling) 단계;
4) 상기 다운 샘플링된 특징 맵들(the down-sampled maps)을 제2 크기를 가지는 제2 복수 채널들의 특징 맵들로 필터링하는 단계;
6) 상기 계산된(computed) 제2 복수 채널들의 특징 맵들을 제3 크기(a third dimension)의 특징 맵들로 다운 샘플링하는 단계; 및
7) 얼굴 영역 외부의 고응답(high responses)을 감소하도록 상기 제3 크기(the third dimension)의 특징 맵들 중의 각 특징 맵을 필터링함으로써 상기 얼굴 이미지들의 신원내(intra-identity) 차이들을 감소하고 상기 얼굴 이미지들의 신원들(identities) 사이의 식별력(discrimination)을 유지하는 단계;를 포함한다.
다른 한 방면에 있어서, 본 출원은 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템을 제공하며, 상기 시스템은,
상기 얼굴 이미지들의 데이터를 제1 크기(a first dimension)를 가지는 제1 복수 채널들의 특징 맵들로 필터링하고, 상기 특징 맵들을 제2 크기(a second dimension)의 특징 맵들로 다운 샘플링하도록 구성된 제1 특징 추출 유닛;
상기 제2 크기의 특징 맵을 제2 크기를 가지는 제2 복수 채널들의 특징 맵들로 필터링하고, 상기 제2 복수 채널들의 특징 맵들을 제3 크기의 특징 맵들로 다운 샘플링하도록 구성된 제2 특징 추출 유닛; 및
얼굴 영역 외부의 고응답(high responses)을 더 감소하도록 상기 제3 크기의 특징 맵들을 필터링함으로써 상기 얼굴 이미지들의 신원들 사이의 식별력을 유지하는 동시에 상기 얼굴 이미지들의 신원내 차이들을 감소하도록 구성된 제3 특징 추출 유닛;을 포함한다.
일 실시예에 있어서, 상기 방법은 컴퓨터 중의 하나 또는 복수의 프로세서로 실행되거나 실시될 수 있다.
일 실시예에 있어서, 제1 특징 추출 유닛은 제1 행렬의 필터들, 제1 비선형 활성화 유닛 및 제1 행렬의 다운 샘플링 유닛들을 포함한다. 제1 행렬의 필터들은 상기 제1 복수 채녈의 특징 맵들 중의 각 특징 맵이 주로 상기 얼굴 이미지들의 포즈 정보를 캡쳐하는 상기 얼굴 영역 외부의 대량의 고응답과 상기 얼굴 이미지들의 얼굴 구조들을 캡쳐하는 상기 얼굴 영역 내부의 복수의 고응답을 구비하도록 상기 얼굴 이미지들의 데이터를 필터링하도록 구성된다. 제1 행렬의 다운 샘플링 유닛들은 상기 제1 복수 채널들의 특징 맵들을 제2 크기의 특징 맵들로 다운 샘플링하도록 구성된다. 제1 비선형 활성화 유닛은 상기 제1 행렬의 필터들(11)과 상기 제1 행렬의 다운 샘플링 유닛들을 비선형적으로 연결하도록 구성된다.
다른 실시예에 있어서, 제2 특징 추출 유닛은 제2 행렬의 필터들(21)을 포함한다. 제2 행렬의 필터들은 상기 얼굴 영역 외부의 고응답을 감소하도록 상기 제1 특징 추출 유닛으로부터 제공받은 상기 특징 맵들 중의 각 특징 맵을 필터링함으로써 상기 얼굴 이미지들의 상기 얼굴 구조들을 유지하는 동시에 대부분의 포즈 변화들을 폐기하도록 구성된다. 제2 특징 추출 유닛은 제2 비선형 활성화 유닛과, 상기 특징 맵들을 제2 크기의 특징 맵들로 다운 샘플링하도록 구성된 제2 행렬의 다운 샘플링 유닛들을 더 포함하되, 상기 제2 비선형 활성화 유닛은 상기 제2 행렬의 필터들과 상기 제2 행렬의 다운 샘플링 유닛들을 비선형적으로 연결하도록 구성된다.
다른 방면에 있어서, 본 출원은 컴퓨터 판독 가능한 매체를 제공하며, 상기 컴퓨터 판독 가능한 매체는
1) 얼굴 이미지들의 데이터를 제1 크기(a first dimension)를 가지는 제1 복수 채널들의 특징 맵들로 필터링하기 위한 명령어와,
2) 상기 특징 맵들 중의 각 특징 맵을 규칙 에 따라 계산(computing)하되, 여기서 x는 상기 제1 크기(the first dimension)를 가지는 특징 맵들을 표시하기 위한 명령어와,
3) 상기 계산된(computed) 특징 맵들을 제2 크기의 특징 맵으로 다운 샘플링하기 위한 명령어와,
4) 상기 다운 샘플링된 특징 맵들을 제2 크기(a second dimension)를 가지는 제2 복수 채널들의 특징 맵들로 필터링하기 위한 명령어와,
5) 상기 제2 크기(the second dimension)를 가지는 특징 맵들 중의 각 특징 맵을 규칙 에 따라 계산(computing)하되, 여기서 x는 상기 제2 복수 채널들의 특징 맵들을 표시하기 위한 명령어와,
6) 상기 계산된(computed) 제2 복수 채널들의 특징 맵들을 제3 크기의 특징 맵들로 다운 샘플링하기 위한 명령어와,
7) 얼굴 영역 외부의 고응답을 감소하도록 상기 제3 크기의 특징 맵들 중의 각 특징 맵을 필터링함으로써 상기 얼굴 이미지들의 신원내 차이들을 감소하고 상기 얼굴 이미지들의 신원들 사이의 식별력을 유지하기 위한 명령어를 저장한다.
본 발명에 따른 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법 및 시스템은 포즈와 조명의 변화에 대하여 견고한 특징 강조 불변성(feature-intensity-invariant)을 가진 선형함수를 이용하여 얼굴 특징을 적절히 추출하여 얼굴 인식율을 높일 수 있는 효과가 있다.
도 1은 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 과정의 흐름도를 도시한다.
도 2는 본 출원의 실시예에 따른 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템의 체계구조를 도시한다.
도 3은 본 출원의 실시예에 따른 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 예시적 시스템의 블록도를 도시한다.
도 4는 본 출원의 일 실시예에 따른 가중치의 파라미터를 트레이닝하는 흐름을 도시한다.
도 2는 본 출원의 실시예에 따른 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템의 체계구조를 도시한다.
도 3은 본 출원의 실시예에 따른 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 예시적 시스템의 블록도를 도시한다.
도 4는 본 출원의 일 실시예에 따른 가중치의 파라미터를 트레이닝하는 흐름을 도시한다.
이하, 첨부한 도면에 도시된 예시적 실시예들을 참조하여 상세한 설명을 진행하기로 한다. 도면 전체에 걸쳐, 동일한 참조 부호는 적절할 경우 동일하거나 유사한 부분을 지칭한다.
도 1은 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 과정(100)의 흐름도를 도시한다. 과정(100)에서, 임의의 포즈와 조명 변화를 구비한 일 신원(identity)의 얼굴 이미지를 입력으로 이용하고, 해당 신원(identity)의 규범화된 시각으로 얼굴을 재구성하여 타킷으로 사용한다(도 2를 참조). 먼저, 입력된 이미지는 교대로 적층된(stacked alternately) 세개의 국부적 연결층(locally connected layers)과 두개의 풀링 층(pooling layers)을 구비하는 특징 추출층(feature extraction layers)을 통하여 인코딩된다. 여기서, 각 층은 아래에서 후술하기로 한다. 각 층은 서로 다른 스케일로 얼굴 특징을 캡쳐한다. 제1 국부적 연결층은 제1 복수(예를 들어, 32개)의 특징 맵을 출력한다. 각 맵은 주로 포즈 정보(pose information)를 캡쳐하는 얼굴 영역 외부의 대량의 고응답(high responses)과, 얼굴 구조를 캡쳐하는 얼굴 영역 내부의 몇몇 고응답을 구비한다. 제2 국부적 연결층에서 출력된 특징 맵에 있어서, 얼굴 영역 외부의 고응답이 현저히 저감되었다. 이는 제2 국부적 연결층에서 출력된 특징 맵이 얼굴 구조를 유지하는 동시에 대부분의 포즈 변화를 폐기하였음을 의미한다. 제3 국부적 연결층은 희박하고 신원특징이 보류된 FIP 특징을 출력한다. FIP 특징은 규범화된 시각으로 얼굴 이미지를 회복하도록 사용될 수 있다.
일 실시예에 있어서, 과정(100)은 얼굴 이미지의 데이터를 제1 크기(a first dimension)를 가지는 제1 다수 채널의 특징 맵으로 필터링하는 단계(s101)를 포함한다. 이어서, 으로 각 맵을 계산(computing)하되, 여기서 x는 제2 크기의 각 특징 맵들을 표시한다. 계산된(computed) 맵은 제2 크기의 특징 맵으로 더 다운 샘플링된다. 본 단계에서, 얼굴 이미지의 데이터가 필터링될 경우, 각 맵은 1) 주로 얼굴 이미지의 포즈 정보를 캡쳐하는 얼굴 영역 외부의 대량의 고응답과 2) 얼굴 이미지의 얼굴 구조를 캡쳐하는 얼굴 영역 내부의 복수의 고응답을 구비한다.
예를 들어, 는 임의의 포즈와 조명하에서 오리지널 크기(예를 들어, 96 X 96)을 가지는 얼굴 이미지의 데이터 행렬을 표시한다. 아래 내용은 설명의 편의를 위하여 오리지널 크기인 96 X 96을 기초로 설명을 진행하기로 한다. 데이터 행렬 의 오리지널 크기는 32개 채널의 특징 맵으로 필터링될 수 있다.
일 실시예에서, 32개 서브 행렬을 포함하는 가중치 행렬 을 통하여 를 32개 특징 맵/채널로 변환하되, 여기서, 이고, 은 데이터 행렬의 오리지널 크기, 즉, =96을 표시한다.
각 서브 행렬은 이미지 데이터의 국부적 연결 구조를 유지하기에는 희박하다. 직관적으로 볼 때, 서브 행렬 중의 각 행 은 중심이 의 화소의 작은 필터를 표시하므로 상기 필터에 속하는 요소를 제외한 상기 행 중의 모든 요소들은 0이다. 특히, 의 가중치는 공유되지 않고, 이러한 행들의 0이 아닌 값들도 서로 다르다. 따라서, 가중치 행렬 은 32개 특징 맵 을 생성하고, 각 특징 맵은 크기를 가진다.
이어서, 학습하여야 할 파라미터의 수량을 감소하고 더욱 탄탄한 특징들을 획득하기 위하여, 행렬 (여기서, )를 이용하여 이러한 특징 맵들 중의 각각을 48 X 48특징들로 다운 샘플링한다. 의 각 는 아래와 같이 계산된다(computed).
여기서, 은 특징강도가 불변(feature-intensity-invariant)하는 보강된 선형 함수이다. 따라서, 이는 형태와 조명 변화에 대해 탄탄하다. 는 모든 를 함께 결부시켜 획득할 수 있고, 이로써 크기의 큰 특징 맵을 획득할 수 있다.
일 실시예에 있어서, 단계 s101전에, 과정(100)은 규칙 에 따라 얼굴 이미지들의 데이터를 비선형적으로 활성화할 수 있으며, 여기서 x는 각 얼굴 이미지들의 데이터를 표시한다. 다른 일 실시예에 있어서, 단계 s101전에 얼굴 이미지를 그레이 레벨(gray level) 이미지로 전환할 수 있다.
단계 s102에서, 계산된(computed) 각 맵을 제2 크기(a second dimension)를 가지는 제2 복수 채널들의 특징 맵으로 더 필터링하고, 필터링된 각 맵을 으로 더 계산(computing)하며, 여기서 x는 제2 크기(a second dimension)의 각 특징 맵들을 표시한다. 이어서, 상기 맵은 제3 크기(a third dimension)의 특징 맵으로 더 다운 샘플링된다.
여기서, 는 를 이용하여 크기로 다운 샘플링된다. 수학식 (2)는 제1 층 중의 작은 특징 맵 각각에 32개 서브 행렬을 곱한 다음 전체를 합계함을 의미하되, 여기서 각 서브 행렬은 위에서 설명한 바와 같은 희박한 구성을 구비한다. 수학식 (2)는 아래와 같은 수학식을 이용하여 행렬 형식으로 재구현될 수 있다,
단계 s103에서, 과정(100)은 얼굴 영역 외부의 고응답을 감소하도록 단계 s102에서 획득한 제3 크기(the third dimension)의 특징 맵들 중의 각 맵을 필터링함으로써 얼굴 이미지들의 신원내 차이를 감소하고 얼굴 이미지들의 신원들 사이의 식별력을 유지한다. 본 개시에서, 획득한 얼굴 특징은 얼굴 신원 보류(face identity-preserving; FIP)특징이라고도 지칭된다.
일 실시예에 있어서, 단계 s104에서, 과정(100)은 단계 s102로부터 제공받은 각 맵을 가중하고, 가중된 맵을 포즈와 조명 변화가 없는 정면 얼굴 이미지로 변환한다.
이상, 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법을 설명하였다. 이하, 도 2와 도 3을 참조하여 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템을 설명하기로 한다. 도 2는 본 출원의 실시예에 따른 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템(200)의 체계구조를 도시하고, 도 3은 본 출원의 실시예에 따른 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 예시적 시스템(200)의 블록도를 도시한다.
도 2에 도시된 것과 같이, 시스템(200)은 특징 추출층과 특징들을 포함한다. 전술한 바와 같이, 일 신원의 임의의 포즈와 조명 변화를 구비한 얼굴 이미지를 시스템(200)의 입력으로 이용한다. 시스템(200)은 해당 신원의 규범화된 시각으로 얼굴을 제구성하여 타깃으로 사용한다. 먼저, 입력된 이미지은 교대로 적층된 세개의 국부적 연결층(locally connected layers)과 두개의 풀링 층(pooling layers)을 구비하는 특징 추출층(feature extraction layers)을 통하여 인코딩한다. 각 층은 서로 다른 스케일로 얼굴 특징을 캡쳐한다. 제1 국부적 연결층은 제1 복수(예를 들어, 32개)의 특징 맵을 출력한다. 각 맵은 주로 포즈 정보를 캡쳐하는 얼굴 영역 외부의 대량의 고응답과, 얼굴 구조를 캡쳐하는 얼굴 영역 내부의 몇몇 고응답을 구비한다. 제2 국부적 연결층이 출력한 특징 맵에 있어서, 얼굴 영역 외부의 고응답이 현저히 저감되었다. 이는 제2 국부적 연결층에서 출력된 특징 맵이 얼굴 구조를 유지하는 동시에 대부분의 포즈 변화를 폐기하였음을 의미한다. 제3 국부적 연결층은 희박하고 신원특징이 보류된 FIP 특징을 출력한다. FIP 특징은 규범화된 시각으로 얼굴 이미지를 회복하도록 사용될 수 있다.
더욱 상세하게, 도 3에 도시한 바와 같이, 시스템(200)은 제1 특징 추출 유닛(10), 제2 특징 추출 유닛(20) 및 제3 특징 추출 유닛(30)을 포함할 수 있다. 제1 특징 추출 유닛(10)은 얼굴 이미지의 데이터를 제1 크기(a first dimension)를 가지는 제1 복수 채널들의 특징 맵으로 필터링하고, 제1 복수 채널들의 특징 맵을 제2 크기(a second dimension)의 특징 맵으로 다운 샘플링하도록 구성된다. 제2 특징 추출 유닛(11)은 제2 크기(a second dimension)의 특징 맵을 제2 크기(a second dimension)를 가지는 제2 복수 채널들의 특징 맵으로 필터링하고, 제2 복수 채널들의 특징 맵을 제3 크기의 특징 맵으로 다운 샘플링하도록 구성된다. 제3 특징 추출 유닛(12)은 얼굴 영역 외부의 고응답을 더 감소하도록 제3 크기의 특징 맵을 필터링함으로써 얼굴 이미지들의 신원들 사이의 식별력을 유지하는 동시에 얼굴 이미지들의 신원내 차이들을 감소하도록 구성된다.
도 3에 도시한 바와 같이, 시스템(200)은 제1 특징 추출 유닛(10)과 제2 특징 추출 유닛(11)사이에 배치되는 제1 비선형 활성화 유닛(20) 및 제2 특징 추출 유닛(11)과 제3 특징 추출 유닛(12)사이에 배치되는 제2 비선형 활성화 유닛(21)을 더 포함한다. 제1 및 제2 비선형 활성화 유닛은 규칙 에 따라 제1, 제2 및 제3 특징 추출 유닛을 각각 비선형적으로 연결하도록 구성되며, 여기서 는 추출된 특징 맵이다.
일 실시예에 있어서, 제1 특징 추출 유닛(10)은 제1 행렬의 필터들(11), 제1 비선형 활성화 유닛(12) 및 제1 행렬의 다운 샘플링 유닛들(13)을 포함한다. 제1 행렬의 필터들(11)은 각 맵이 주로 얼굴 이미지의 포즈 정보를 캡쳐하는 얼굴 영역 외부의 대량의 고응답과 얼굴 이미지의 얼굴 구조를 캡쳐하는 얼굴 영역 내부의 복수의 고응답을 구비하도록 얼굴 이미지의 데이터를 필터링하도록 구성된다. 제1 비선형 활성화 유닛(12)은 제1 행렬의 필터들(11)과 제1 행렬의 다운 샘플링 유닛들(13)을 비선형적으로 연결하도록 구성된다. 제1 행렬의 다운 샘플링 유닛들(13)은 특징 맵을 제2 크기의 특징 맵으로 다운 샘플링하도록 구성된다. 제1 행렬의 필터들(11), 제1 비선형 활성화 유닛(12) 및 제1 행렬의 다운 샘플링 유닛들(13)은 협력하여 상술한 수학식 (5)의 규칙에 따라 상기 기능들을 수행한다.
제2 특징 추출 유닛(20)은 제2 행렬의 필터들(21), 제2 비선형 활성화 유닛(22) 및 제2 행렬의 다운 샘플링 유닛들(23)을 포함한다. 제2 행렬의 필터들(21)은 얼굴 영역 외부의 고응답을 감소하도록 제1 특징 추출 유닛으로부터 제공받은 각 맵을 필터링함으로써 얼굴 이미지의 얼굴 구조를 유지하는 동시에 대부분의 포즈 변화를 폐기하도록 구성된다. 제2 행렬의 다운 샘플링 유닛들(23)은 특징 맵을 제2 크기의 특징 맵으로 다운 샘플링하도록 구성된다. 제2 비선형 활성화 유닛(22)은 제2 행렬의 필터들(21)와 제2 행렬의 다운 샘플링 유닛들(23)을 비선형적으로 연결하도록 구성된다. 제2 행렬의 필터들(21), 제2 비선형 활성화 유닛(22) 및 제2 행렬의 다운 샘플링 유닛들(23)은 협력하여 상술한 수학식 (2) 내지 (4)의 규칙에 따라 전술한 기능들을 수행한다.
한편, 시스템(200)은 제3 특징 추출 유닛(30)으로부터 제공받은 각 특징을 가중하고, 가중된 특징들을 상술한 수학식(5)의 규칙에 따라 포즈와 조명 변화가 없는 정면 얼굴 이미지들로 변환하도록 구성된 재구성 유닛(40)을 더 포함할 수 있다.
또한, 일 실시예에 있어서, 시스템(200)은 얼굴 이미지의 데이터가 제1 특징 추출 유닛에 입력되기 전에 얼굴 이미지의 데이터를 처리하도록 구성된 비선형 사전활성화 유닛(50)을 더 포함할 수 있다. 유닛(50)은 이미지를 그레이스케일 이미지로 변환하도록 더 구성될 수 있다.
3개 층(즉, 단계 S101-103, 유닛10-20)에서의 필터링 과정은 각각 제1 가중치 행렬 , 제2 가중치 행렬 및 제3 가중치 행렬 로 실행되고, 변환 과정은 제4 가중치 행렬 로 실행된다. 본 출원에는 최소 제곱 딕셔너리 러닝을 근거하는 지도 방법이 고안되었다. 상세하게, 행렬 , , 및 은 최소 제곱 딕셔너리 러닝을 기반으로 , , 및 의 파라미터들을 초기화한 다음, 재구성된 이미지와 실측값 사이의 합산 제곱한 재구성 오류를 역전파하는 것을 통하여 모든 파라미터들을 업데이트함으로써 트레이닝된다.
도 4는 , , 및 의 파라미터를 초기화하는 흐름을 도시한다. 제공된 는 한 세트의 FIP 특징들이고, 는 한 세트의 타깃 이미지들이되, m는 트레이닝 예들의 수량을 표시하며, 제1 단계에서 고정 행렬 O를 제공하고 아래와 같은 규칙에 따라 와 를 이용하여 을 초기화한다.
업데이트함에 있어서, 제기된 방법은 초기화이후 재구성 오류의 손실함수를 최소화하여 모든 가중치 행렬들을 업데이트하되,
(10)이고, 여기서, 이고, , 및 는 각각 한 세트의 입력 이미지들, 한 세트의 타킷 이미지들 및 한 세트의 재구성한 이미지들이다. 이는 확률적 기울기 하강법을 이용하여 를 업데이트하며, 여기서 k번째 반복에서의 의 업데이트 규칙은
(12) 이다.
여기서, 는 운동량 변수이고, 는 학습률이며, 은 도함수이며, 이는 역전파 오류와 이전층 의 특징의 외적으로 계산된다(computed). 해당 딥 네트워크에는, 의 세가지 서로 다른 표현식이 존재한다. 먼저, 변환층에 있어서, 는 아래와 같은 선형 보강 함수의 도함수에 근거하여 계산된다(computed).
본 개시에서, 와 는 와 동일한 활성화 함수를 사용함으로 같은 방식으로 계산된다(computed). 다운 샘플링에 인한 근소한 차이가 존재한다. 이러한 두개 층들에 있어서, 반드시 해당 역전파 오류를 업 샘플링하여 역전파 오류로 하여끔 입력 특징과 같은 크기를 가지도록 해야 한다. 본 출원은 각 그라디언트 단계이후 국부적 연결 구조를 구비하도록 가중치 행렬을 강화해야 한다. 이를 실시하기 위해, 해당 행렬 요소들이 연결되지 않을 경우, 상기 요소들을 0으로 설정한다.
본 발명의 실시예들은 하드웨어, 소프트웨어 및 이들의 조합을 이용하여 구현할 수 있다. 또한, 본 발명의 실시예들은 컴퓨터 프로그램 코드를 포함하는 하나 또는 복수의 컴퓨터 판독 가능한 저장 매체(디스크 기억 장치, CD-ROM, 광메모리등을 포함하며, 이에 제한되지 않음)에 구현된 컴퓨터 프로그램 제품에 사용될 수 있다. 예를 들어, 전술한 방법은 하나 또는 복수의 프로세서로 실시하여 컴퓨터 판독 가능한 매체에 저정된 명령어들을 실행할 수 있다. 상세하게, 상기 매체는 한쌍의 얼굴 이미지를 검색하기 위한 명령어, 얼굴 이미지 각각을 복수의 이미지 패치로 분할하기 위한 명령어(여기서, 하나의 이미지의 각 패치와 다른 한 이미지의 대응되는 패치는 한쌍의 패치를 구성한다), 각 패치 쌍의 제1 유사성을 확정하기 위한 명령어, 전체 패치 쌍중에서 상기 한쌍의 얼굴 이미지의 제2 유사성을 확정하기 위한 명령어, 제1 유사성과 제2 유사성을 사용하기 위한 명령어; 및 얼굴 이미지를 인식하기 위한 명령어를 저장할 수 있다.
이상의 설명에서는 설명의 목적으로 단일한 실시예에서 각 방면, 단계 또는 부재들을 함께 조합하였다. 본 개시는 청구하고자 하는 과제에 대해 개시한 모든 변화를 요구하는 것으로 해석하여서는 않된다. 첨부된 청구범위는 예시적 실시예들의 본 명세서에 포함되며, 각 청구항은 그 자체적으로 본 개시의 독립적인 실시예로 주장된다.
또한, 본 개시의 명세서 및 실천을 고려하여 본 개시의 청구된 범위를 벗어나지 않고서 개시된 시스템 및 방법에 대한 각종 변형 및 변화를 진행할 수 있음을 해당 기술 분야에서 통상의 지식을 가진 자는 자명할 것이다. 따라서, 명세서와 예시들은 오직 예시적으로만 간주하여야 하고, 본 개시의 진정한 범위는 첨부된 특허청구범위 및 그의 균등물로 정의하여야 한다.
s101 : 제1 처리 단계
s102 : 제2 처리 단계
s103 : 제3 처리 단계
s104 : 재구성 단계
10 : 제1 특징 추출 유닛
11 : 제1 행렬의 필터
12 : 제1 비선형 활성화 유닛
13 : 제1 행렬의 다운 샘플링 유닛
20 : 제2 특징 추출 유닛
21 : 제2 행렬의 필터
22 : 제2 비선형 활성화 유닛
23 : 제2 행렬의 다운 샘플링 유닛
30 : 제3 특징 추출 유닛
40 : 재구성 유닛
50 : 비선형 사전 활성화 유닛
s102 : 제2 처리 단계
s103 : 제3 처리 단계
s104 : 재구성 단계
10 : 제1 특징 추출 유닛
11 : 제1 행렬의 필터
12 : 제1 비선형 활성화 유닛
13 : 제1 행렬의 다운 샘플링 유닛
20 : 제2 특징 추출 유닛
21 : 제2 행렬의 필터
22 : 제2 비선형 활성화 유닛
23 : 제2 행렬의 다운 샘플링 유닛
30 : 제3 특징 추출 유닛
40 : 재구성 유닛
50 : 비선형 사전 활성화 유닛
Claims (17)
1) 얼굴 이미지들의 데이터를 제1 크기(a first dimension)를 가지는 제1 복수 채널들의 특징 맵들(feature maps)로 필터링하는 단계;
2) 상기 특징 맵들 중의 각 특징 맵을 규칙 에 따라 계산(computing)하되, 여기서 x는 상기 제1 크기(the first dimension)를 가지는 특징 맵들을 표시하는 단계;
3) 상기 계산된(computed) 특징 맵들을 제2 크기(a second dimension)의 특징 맵으로 다운 샘플링하는(down-sampling) 단계;
4) 상기 다운 샘플링된 특징 맵들(the down-sampled maps)을 제2 크기(a second dimension)를 가지는 제2 복수 채널들의 특징 맵들로 필터링하는 단계;
5) 상기 제2 크기를 가지는 특징 맵들 중의 각 특징 맵을 규칙 에 따라 계산(computing)하되, 여기서 x는 상기 제2 복수 채널들의 특징 맵들을 표시하는 단계;
6) 상기 계산된(computed) 제2 복수 채널들의 특징 맵들을 제3 크기(a third dimension)의 특징 맵들로 다운 샘플링하는 단계; 및
7) 얼굴 영역 외부의 고응답(high responses)을 감소하도록 상기 제3 크기(the third dimension)의 특징 맵들 중의 각 특징 맵을 필터링함으로써 상기 얼굴 이미지들의 신원내(intra-identity) 차이들을 감소하고 상기 얼굴 이미지들의 신원들(indentities) 사이의 식별력을 유지하는 단계;를 포함하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
2) 상기 특징 맵들 중의 각 특징 맵을 규칙 에 따라 계산(computing)하되, 여기서 x는 상기 제1 크기(the first dimension)를 가지는 특징 맵들을 표시하는 단계;
3) 상기 계산된(computed) 특징 맵들을 제2 크기(a second dimension)의 특징 맵으로 다운 샘플링하는(down-sampling) 단계;
4) 상기 다운 샘플링된 특징 맵들(the down-sampled maps)을 제2 크기(a second dimension)를 가지는 제2 복수 채널들의 특징 맵들로 필터링하는 단계;
5) 상기 제2 크기를 가지는 특징 맵들 중의 각 특징 맵을 규칙 에 따라 계산(computing)하되, 여기서 x는 상기 제2 복수 채널들의 특징 맵들을 표시하는 단계;
6) 상기 계산된(computed) 제2 복수 채널들의 특징 맵들을 제3 크기(a third dimension)의 특징 맵들로 다운 샘플링하는 단계; 및
7) 얼굴 영역 외부의 고응답(high responses)을 감소하도록 상기 제3 크기(the third dimension)의 특징 맵들 중의 각 특징 맵을 필터링함으로써 상기 얼굴 이미지들의 신원내(intra-identity) 차이들을 감소하고 상기 얼굴 이미지들의 신원들(indentities) 사이의 식별력을 유지하는 단계;를 포함하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
제1 항에 있어서,
상기 단계 1)은,
상기 제1 복수 채널의 특징 맵들 중의 각 특징 맵이 주로 상기 얼굴 이미지들의 포즈 정보를 캡쳐하는 얼굴 영역 외부의 대량의 고응답과, 상기 얼굴 이미지들의 얼굴 구조들을 캡쳐하는 상기 얼굴 영역 내부의 복수의 고응답을 구비하도록 상기 얼굴 이미지들의 데이터를 필터링하는 단계를 더 포함하는 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
상기 단계 1)은,
상기 제1 복수 채널의 특징 맵들 중의 각 특징 맵이 주로 상기 얼굴 이미지들의 포즈 정보를 캡쳐하는 얼굴 영역 외부의 대량의 고응답과, 상기 얼굴 이미지들의 얼굴 구조들을 캡쳐하는 상기 얼굴 영역 내부의 복수의 고응답을 구비하도록 상기 얼굴 이미지들의 데이터를 필터링하는 단계를 더 포함하는 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
제1 항 또는 제2항에 있어서,
상기 단계 7)은,
상기 얼굴 영역 외부의 고응답(high responses)을 감소하도록 상기 단계 6)으로부터 제공받은 상기 특징 맵들 중의 각 특징 맵을 필터링함으로써 상기 얼굴 이미지들의 상기 얼굴 구조들을 유지하는 동시에 대부분의 포즈 변화들을 폐기하는 것을 더 포함하는 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
상기 단계 7)은,
상기 얼굴 영역 외부의 고응답(high responses)을 감소하도록 상기 단계 6)으로부터 제공받은 상기 특징 맵들 중의 각 특징 맵을 필터링함으로써 상기 얼굴 이미지들의 상기 얼굴 구조들을 유지하는 동시에 대부분의 포즈 변화들을 폐기하는 것을 더 포함하는 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
제3 항에 있어서,
상기 단계 7)은,
상기 단계 6)으로부터 제공받은 상기 특징 맵들 중의 각 특징 맵을 가중하고,
상기 가중된 특징 맵들을 포즈와 조명 변화가 없는 정면 얼굴 이미지들로 변환하는 것을 더 포함하는 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
상기 단계 7)은,
상기 단계 6)으로부터 제공받은 상기 특징 맵들 중의 각 특징 맵을 가중하고,
상기 가중된 특징 맵들을 포즈와 조명 변화가 없는 정면 얼굴 이미지들로 변환하는 것을 더 포함하는 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
제1 항 또는 제2 항에 있어서,
상기 단계 1) 전에,
상기 얼굴 이미지들을 그레이 레벨 이미지들(gray level images)로 변환하는 단계를 더 포함하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
상기 단계 1) 전에,
상기 얼굴 이미지들을 그레이 레벨 이미지들(gray level images)로 변환하는 단계를 더 포함하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
제4 항에 있어서,
상기 단계 1), 단계 4) 및 단계 7) 중의 상기 필터링은 각각 제1 가중치 행렬 , 제2 가중치 행렬 , 제3 가중치 행렬 을 이용하여 진행하고, 상기 변환은 제4 가중치 행렬 를 이용하여 진행하되,
상기 가중치 행렬들 , , 및 은 최소 제곱 딕셔너리 러닝을 기반으로 , , 및 의 파라미터들을 초기화한 후 재구성된 이미지와 실측값사이의 합산 제곱한 재구성 오류를 역전파하는 것을 통하여 상기 모든 파라미터들을 업데이트함으로써 트레이닝되는 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
상기 단계 1), 단계 4) 및 단계 7) 중의 상기 필터링은 각각 제1 가중치 행렬 , 제2 가중치 행렬 , 제3 가중치 행렬 을 이용하여 진행하고, 상기 변환은 제4 가중치 행렬 를 이용하여 진행하되,
상기 가중치 행렬들 , , 및 은 최소 제곱 딕셔너리 러닝을 기반으로 , , 및 의 파라미터들을 초기화한 후 재구성된 이미지와 실측값사이의 합산 제곱한 재구성 오류를 역전파하는 것을 통하여 상기 모든 파라미터들을 업데이트함으로써 트레이닝되는 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
제6 항에 있어서,
제공된 는 한 세트의 FIP 특징들이고, 는 한 세트의 타깃 이미지들이되, m는 트레이닝 예들의 수량을 표시하며,
상기 초기화는,
고정 행렬 O를 제공하고 규칙 에 따라 와 를 이용하여 를 초기화하며, 여기서, 는 한 세트의 입력 이미지들이고, 는 프로베니우스놈(Frobenius norm.)이며,
고정 행렬 P를 제공하고 규칙에 따라 와 를 이용하여 를 초기화하며, 여기서, 는 고정값이고,
고정 행렬 Q를 제공하고 규칙 에 따라 와 를 이용하여 를 초기화하며,
규칙 에 따라 와 를 이용하여 를 초기화하는 것을 포함하는 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
제공된 는 한 세트의 FIP 특징들이고, 는 한 세트의 타깃 이미지들이되, m는 트레이닝 예들의 수량을 표시하며,
상기 초기화는,
고정 행렬 O를 제공하고 규칙 에 따라 와 를 이용하여 를 초기화하며, 여기서, 는 한 세트의 입력 이미지들이고, 는 프로베니우스놈(Frobenius norm.)이며,
고정 행렬 P를 제공하고 규칙에 따라 와 를 이용하여 를 초기화하며, 여기서, 는 고정값이고,
고정 행렬 Q를 제공하고 규칙 에 따라 와 를 이용하여 를 초기화하며,
규칙 에 따라 와 를 이용하여 를 초기화하는 것을 포함하는 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
상기 얼굴 이미지들의 데이터를 제1 크기(a first dimension)를 가지는 제1 복수 채널들의 특징 맵들로 필터링하고, 상기 특징 맵들을 제2 크기의 특징 맵들로 다운 샘플링하도록 구성된 제1 특징 추출 유닛;
상기 제2 크기의 특징 맵들을 제2 크기를 가지는 제2 복수 채널들의 특징 맵들로 필터링하고, 상기 제2 복수 채널들의 특징 맵들을 제3 크기(a third dimension)의 특징 맵들로 다운 샘플링하도록 구성된 제2 특징 추출 유닛; 및
얼굴 영역 외부의 고응답을 더 감소하도록 상기 제3 크기(the third dimension)의 특징 맵들을 필터링함으로써 상기 얼굴 이미지들의 신원들 사이의 식별력을 유지하는 동시에 상기 얼굴 이미지들의 신원내 차이들을 감소하도록 구성된 제3 특징 추출 유닛;을 포함하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템.
상기 제2 크기의 특징 맵들을 제2 크기를 가지는 제2 복수 채널들의 특징 맵들로 필터링하고, 상기 제2 복수 채널들의 특징 맵들을 제3 크기(a third dimension)의 특징 맵들로 다운 샘플링하도록 구성된 제2 특징 추출 유닛; 및
얼굴 영역 외부의 고응답을 더 감소하도록 상기 제3 크기(the third dimension)의 특징 맵들을 필터링함으로써 상기 얼굴 이미지들의 신원들 사이의 식별력을 유지하는 동시에 상기 얼굴 이미지들의 신원내 차이들을 감소하도록 구성된 제3 특징 추출 유닛;을 포함하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템.
제8 항에 있어서,
상기 제1 특징 추출 유닛은 제1 행렬의 필터들을 포함하되,
상기 제1 행렬의 필터들은 상기 제1 복수 채녈의 특징 맵들 중의 각 특징 맵이 주로 상기 얼굴 이미지의 포즈 정보를 캡쳐하는 상기 얼굴 영역 외부의 대량의 고응답과 상기 얼굴 이미지의 얼굴 구조들을 캡쳐하는 상기 얼굴 영역 내부의 복수의 고응답을 구비하도록 상기 얼굴 이미지의 데이터를 필터링하도록 구성된 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템.
상기 제1 특징 추출 유닛은 제1 행렬의 필터들을 포함하되,
상기 제1 행렬의 필터들은 상기 제1 복수 채녈의 특징 맵들 중의 각 특징 맵이 주로 상기 얼굴 이미지의 포즈 정보를 캡쳐하는 상기 얼굴 영역 외부의 대량의 고응답과 상기 얼굴 이미지의 얼굴 구조들을 캡쳐하는 상기 얼굴 영역 내부의 복수의 고응답을 구비하도록 상기 얼굴 이미지의 데이터를 필터링하도록 구성된 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템.
제9 항에 있어서,
상기 제2 특징 추출 유닛은,
제1 비선형 활성화 유닛과,
상기 제1 복수 채널의 특징 맵들을 상기 제2 크기의 특징 맵들로 다운 샘플링하도록 구성된 제1 행렬의 다운 샘플링 유닛들을 더 포함하되,
상기 제1 비선형 활성화 유닛은 상기 제1 행렬의 필터들(11)과 상기 제1 행렬의 다운 샘플링 유닛들을 비선형적으로 연결하도록 구성된 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템.
상기 제2 특징 추출 유닛은,
제1 비선형 활성화 유닛과,
상기 제1 복수 채널의 특징 맵들을 상기 제2 크기의 특징 맵들로 다운 샘플링하도록 구성된 제1 행렬의 다운 샘플링 유닛들을 더 포함하되,
상기 제1 비선형 활성화 유닛은 상기 제1 행렬의 필터들(11)과 상기 제1 행렬의 다운 샘플링 유닛들을 비선형적으로 연결하도록 구성된 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템.
제8 항에 있어서,
상기 제2 특징 추출 유닛은,
상기 얼굴 영역 외부의 고응답을 감소하도록 상기 제1 특징 추출 유닛으로부터 제공받은 상기 특징 맵들 중의 각 특징 맵을 필터링함으로써 상기 얼굴 이미지의 상기 얼굴 구조들을 유지하는 동시에 대부분의 포즈 변화들을 폐기하도록 구성된 제2 행렬의 필터들을 포함하는 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템.
상기 제2 특징 추출 유닛은,
상기 얼굴 영역 외부의 고응답을 감소하도록 상기 제1 특징 추출 유닛으로부터 제공받은 상기 특징 맵들 중의 각 특징 맵을 필터링함으로써 상기 얼굴 이미지의 상기 얼굴 구조들을 유지하는 동시에 대부분의 포즈 변화들을 폐기하도록 구성된 제2 행렬의 필터들을 포함하는 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템.
제11 항에 있어서,
상기 제2 특징 추출 유닛은,
제2 비선형 활성화 유닛과,
상기 특징 맵들을 상기 제2 크기의 특징 맵들로 다운 샘플링하도록 구성된 제2 행렬의 다운 샘플링 유닛들을 더 포함하되,
상기 제2 비선형 활성화 유닛은 상기 제2 행렬의 필터들과 상기 제2 행렬의 다운 샘플링 유닛들을 비선형적으로 연결하도록 구성된 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템.
상기 제2 특징 추출 유닛은,
제2 비선형 활성화 유닛과,
상기 특징 맵들을 상기 제2 크기의 특징 맵들로 다운 샘플링하도록 구성된 제2 행렬의 다운 샘플링 유닛들을 더 포함하되,
상기 제2 비선형 활성화 유닛은 상기 제2 행렬의 필터들과 상기 제2 행렬의 다운 샘플링 유닛들을 비선형적으로 연결하도록 구성된 것을 특징으로 하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템.
제8 항에 있어서,
상기 각 특징 맵들 중의 각 특징 맵을 가중하고 가중된 특징 맵들을 포즈와 조명 변화가 없는 정면 얼굴 이미지들로 변환하도록 구성된 재구성 유닛을 더 포함하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템.
상기 각 특징 맵들 중의 각 특징 맵을 가중하고 가중된 특징 맵들을 포즈와 조명 변화가 없는 정면 얼굴 이미지들로 변환하도록 구성된 재구성 유닛을 더 포함하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템.
제8 항에 있어서,
상기 얼굴 이미지들의 데이터를 상기 제1 특징 추출 유닛에 입력하기 전에 그레이스케일 이미지로 변환하도록 구성된 비선형 사전활성화 유닛을 더 포함하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템.
상기 얼굴 이미지들의 데이터를 상기 제1 특징 추출 유닛에 입력하기 전에 그레이스케일 이미지로 변환하도록 구성된 비선형 사전활성화 유닛을 더 포함하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 시스템.
제3 항에 있어서,
상기 단계 1) 전에,
상기 얼굴 이미지들을 그레이 레벨 이미지들(gray level images)로 변환하는 단계를 더 포함하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
상기 단계 1) 전에,
상기 얼굴 이미지들을 그레이 레벨 이미지들(gray level images)로 변환하는 단계를 더 포함하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
제4 항에 있어서,
상기 단계 1) 전에,
상기 얼굴 이미지들을 그레이 레벨 이미지들(gray level images)로 변환하는 단계를 더 포함하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
상기 단계 1) 전에,
상기 얼굴 이미지들을 그레이 레벨 이미지들(gray level images)로 변환하는 단계를 더 포함하는 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2013/088253 WO2015078017A1 (en) | 2013-11-30 | 2013-11-30 | Method and system for exacting face features from data of face images |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160073427A true KR20160073427A (ko) | 2016-06-24 |
KR101721062B1 KR101721062B1 (ko) | 2017-03-29 |
Family
ID=53198256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020167015434A KR101721062B1 (ko) | 2013-11-30 | 2013-11-30 | 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법 및 시스템 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9710697B2 (ko) |
EP (1) | EP3074926A4 (ko) |
JP (1) | JP6127219B2 (ko) |
KR (1) | KR101721062B1 (ko) |
CN (1) | CN105981050B (ko) |
HK (2) | HK1223716A1 (ko) |
WO (1) | WO2015078017A1 (ko) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200075063A (ko) * | 2018-12-07 | 2020-06-26 | 주식회사 포스코아이씨티 | 딥러닝 기반의 얼굴이미지 추출장치 |
KR20200084426A (ko) * | 2018-12-24 | 2020-07-13 | 주식회사 포스코아이씨티 | 오차감소 알고리즘을 이용하여 얼굴인식모델을 트레이닝시키는 얼굴인식시스템 |
KR20200084427A (ko) * | 2018-12-24 | 2020-07-13 | 주식회사 포스코아이씨티 | 딥러닝 기반의 얼굴인식모델을 이용하여 특징벡터를 추출하는 얼굴인식시스템 |
KR20200087350A (ko) * | 2018-12-31 | 2020-07-21 | 주식회사 포스코아이씨티 | Ai 기반의 얼굴인식 시스템 |
KR20200105500A (ko) * | 2018-05-04 | 2020-09-07 | 상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드 | 대상물 예측 방법 및 장치, 전자 기기 및 기억 매체 |
KR20220094997A (ko) * | 2020-12-29 | 2022-07-06 | 주식회사 테라젠바이오 | 유전정보 기반 미래 얼굴 예측 방법 및 장치 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127120B (zh) * | 2016-06-16 | 2018-03-13 | 北京市商汤科技开发有限公司 | 姿势估计方法和装置、计算机系统 |
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
US10467459B2 (en) * | 2016-09-09 | 2019-11-05 | Microsoft Technology Licensing, Llc | Object detection based on joint feature extraction |
CN108230294B (zh) * | 2017-06-14 | 2020-09-29 | 北京市商汤科技开发有限公司 | 图像检测方法、装置、电子设备和存储介质 |
US10043113B1 (en) * | 2017-10-04 | 2018-08-07 | StradVision, Inc. | Method and device for generating feature maps by using feature upsampling networks |
US9984325B1 (en) * | 2017-10-04 | 2018-05-29 | StradVision, Inc. | Learning method and learning device for improving performance of CNN by using feature upsampling networks, and testing method and testing device using the same |
CN110660037B (zh) * | 2018-06-29 | 2023-02-10 | 京东方科技集团股份有限公司 | 图像间脸部交换的方法、装置、系统和计算机程序产品 |
CN111881708A (zh) * | 2019-05-03 | 2020-11-03 | 爱唯秀股份有限公司 | 人脸识别系统 |
CN111860091A (zh) * | 2020-01-22 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 人脸图像评估方法和系统、服务器和计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090297046A1 (en) * | 2008-05-29 | 2009-12-03 | Microsoft Corporation | Linear Laplacian Discrimination for Feature Extraction |
KR20170011482A (ko) * | 2015-07-23 | 2017-02-02 | 시스템테크 (주) | 복합 사용자 인증 시스템 및 방법 |
KR20170015639A (ko) * | 2015-07-29 | 2017-02-09 | 대한민국(관리부서: 행정자치부 국립과학수사연구원장) | 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7720289B2 (en) * | 2005-12-14 | 2010-05-18 | Mitsubishi Electric Research Laboratories, Inc. | Method for constructing covariance matrices from data features |
CN101968850B (zh) | 2010-10-21 | 2012-12-12 | 重庆大学 | 一种模拟生物视觉机制的人脸特征提取方法 |
US8593452B2 (en) * | 2011-12-20 | 2013-11-26 | Apple Inc. | Face feature vector construction |
-
2013
- 2013-11-30 WO PCT/CN2013/088253 patent/WO2015078017A1/en active Application Filing
- 2013-11-30 US US15/100,019 patent/US9710697B2/en active Active
- 2013-11-30 CN CN201380081289.8A patent/CN105981050B/zh active Active
- 2013-11-30 JP JP2016549802A patent/JP6127219B2/ja active Active
- 2013-11-30 KR KR1020167015434A patent/KR101721062B1/ko active IP Right Grant
- 2013-11-30 EP EP13898392.9A patent/EP3074926A4/en not_active Ceased
-
2016
- 2016-10-17 HK HK16111981.0A patent/HK1223716A1/zh unknown
- 2016-10-18 HK HK16111990.9A patent/HK1223717A1/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090297046A1 (en) * | 2008-05-29 | 2009-12-03 | Microsoft Corporation | Linear Laplacian Discrimination for Feature Extraction |
KR20170011482A (ko) * | 2015-07-23 | 2017-02-02 | 시스템테크 (주) | 복합 사용자 인증 시스템 및 방법 |
KR20170015639A (ko) * | 2015-07-29 | 2017-02-09 | 대한민국(관리부서: 행정자치부 국립과학수사연구원장) | 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200105500A (ko) * | 2018-05-04 | 2020-09-07 | 상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드 | 대상물 예측 방법 및 장치, 전자 기기 및 기억 매체 |
KR20200075063A (ko) * | 2018-12-07 | 2020-06-26 | 주식회사 포스코아이씨티 | 딥러닝 기반의 얼굴이미지 추출장치 |
KR20200084426A (ko) * | 2018-12-24 | 2020-07-13 | 주식회사 포스코아이씨티 | 오차감소 알고리즘을 이용하여 얼굴인식모델을 트레이닝시키는 얼굴인식시스템 |
KR20200084427A (ko) * | 2018-12-24 | 2020-07-13 | 주식회사 포스코아이씨티 | 딥러닝 기반의 얼굴인식모델을 이용하여 특징벡터를 추출하는 얼굴인식시스템 |
KR20200087350A (ko) * | 2018-12-31 | 2020-07-21 | 주식회사 포스코아이씨티 | Ai 기반의 얼굴인식 시스템 |
KR20220094997A (ko) * | 2020-12-29 | 2022-07-06 | 주식회사 테라젠바이오 | 유전정보 기반 미래 얼굴 예측 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
EP3074926A4 (en) | 2017-10-11 |
JP6127219B2 (ja) | 2017-05-10 |
CN105981050A (zh) | 2016-09-28 |
US9710697B2 (en) | 2017-07-18 |
JP2016538671A (ja) | 2016-12-08 |
EP3074926A1 (en) | 2016-10-05 |
KR101721062B1 (ko) | 2017-03-29 |
HK1223717A1 (zh) | 2017-08-04 |
US20170004353A1 (en) | 2017-01-05 |
HK1223716A1 (zh) | 2017-08-04 |
CN105981050B (zh) | 2019-05-07 |
WO2015078017A1 (en) | 2015-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101721062B1 (ko) | 얼굴 이미지들의 데이터로부터 얼굴 특징들을 추출하는 방법 및 시스템 | |
CN111369440B (zh) | 模型训练、图像超分辨处理方法、装置、终端及存储介质 | |
CN109154973B (zh) | 执行卷积图像变换估算的方法和系统 | |
CN112750082B (zh) | 基于融合注意力机制的人脸超分辨率方法及系统 | |
WO2021018163A1 (zh) | 神经网络的搜索方法及装置 | |
CN106796716B (zh) | 用于为低分辨率图像提供超分辨率的设备和方法 | |
CN108960345A (zh) | 一种遥感图像的融合方法、系统及相关组件 | |
Chen et al. | Convolutional neural network based dem super resolution | |
CN104657962B (zh) | 基于级联线性回归的图像超分辨重建方法 | |
CN111160229B (zh) | 基于ssd网络的视频目标检测方法及装置 | |
CN114219890A (zh) | 一种三维重建方法、装置、设备及计算机存储介质 | |
CN105488759B (zh) | 一种基于局部回归模型的图像超分辨率重建方法 | |
CN109801323A (zh) | 具有自我提升能力的金字塔双目深度估计模型 | |
CN111696038A (zh) | 图像超分辨率方法、装置、设备及计算机可读存储介质 | |
CN117252761A (zh) | 一种跨传感器遥感图像超分辨率增强方法 | |
CN117576402B (zh) | 一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法 | |
Li et al. | Dept: depth estimation by parameter transfer for single still images | |
WO2023082089A1 (zh) | 一种三维重建方法、装置、设备及计算机存储介质 | |
CN112580529B (zh) | 移动机器人感知识别方法、装置、终端及存储介质 | |
CN111428809B (zh) | 基于空间信息融合与卷积神经网络的人群计数方法 | |
CN110926611A (zh) | 一种应用于压缩感知光谱成像系统的噪声抑制方法 | |
CN106250873A (zh) | 运动目标提取方法及装置 | |
EP3579138A1 (en) | Method for determining a type and a state of an object of interest | |
CN114565511A (zh) | 基于全局单应性估计的轻量级图像配准方法、系统及装置 | |
CN109840888B (zh) | 一种基于联合约束的图像超分辨率重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20200303 Year of fee payment: 4 |