KR20170096924A - Collaborative facial color feature learning method of multiple color spaces for face recognition and apparatus therefor - Google Patents

Collaborative facial color feature learning method of multiple color spaces for face recognition and apparatus therefor Download PDF

Info

Publication number
KR20170096924A
KR20170096924A KR1020160049385A KR20160049385A KR20170096924A KR 20170096924 A KR20170096924 A KR 20170096924A KR 1020160049385 A KR1020160049385 A KR 1020160049385A KR 20160049385 A KR20160049385 A KR 20160049385A KR 20170096924 A KR20170096924 A KR 20170096924A
Authority
KR
South Korea
Prior art keywords
color
feature
features
learning
extracted
Prior art date
Application number
KR1020160049385A
Other languages
Korean (ko)
Other versions
KR101906663B1 (en
Inventor
노용만
김형일
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Publication of KR20170096924A publication Critical patent/KR20170096924A/en
Application granted granted Critical
Publication of KR101906663B1 publication Critical patent/KR101906663B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06K9/00234
    • G06K9/00268
    • G06K9/6202
    • G06K9/627
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

A cooperative facial color feature learning method in various color spaces and an apparatus therefor are disclosed. The cooperative facial color feature learning method according to an embodiment of the present invention includes a step of extracting a color feature from each of a plurality of predetermined color spaces for a facial image; and a step of generating a fused feature with the extracted color features based on the learning of the extracted color features. The step of extracting color features can extract the color feature by learning the feature of deep convolutional neural networks (DCNNs) of each of the color spaces. Face recognition rate can be improved.

Description

다양한 컬러 공간에서 협동 얼굴 컬러 특징 학습 방법 및 장치{COLLABORATIVE FACIAL COLOR FEATURE LEARNING METHOD OF MULTIPLE COLOR SPACES FOR FACE RECOGNITION AND APPARATUS THEREFOR}Field of the Invention < RTI ID = 0.0 > [0001] < / RTI > A method and apparatus for cooperative facial color features in various color spaces,

본 발명은 협동 얼굴 컬러 특징 학습에 관한 것으로서, 보다 상세하게는 다양한 컬러 공간에서의 추출된 컬러 특징들을 학습을 통해 융합함으로써, 융합된 특징을 이용하여 얼굴 인식률을 향상시킬 수 있는 방법 및 장치에 관한 것이다.The present invention relates to cooperative facial color feature learning, and more particularly, to a method and apparatus for enhancing facial recognition rate using fused features by fusing extracted color features in various color spaces through learning will be.

얼굴 컬러는 얼굴 인식에서 중요한 요소이고 서로 다른 컬러 공간은 상호 보완적인 정보를 제공한다. 특히, 얼굴 컬러 정보를 이용한 얼굴 인식 정확도는 조도 변화나 저해상도 환경에서 향상된 인식률을 제공한다고 알려져 있다.Facial color is an important factor in face recognition, and different color spaces provide complementary information. Especially, face recognition accuracy using face color information is known to provide improved recognition rate in illumination change and low resolution environment.

많은 얼굴 컬러 기반 얼굴 인식 프레임워크는 수십년간 연구 되었으며, 일 실시예의 기술은 흑백 얼굴 인식 프레임워크를 컬러 얼굴인식 프레임워크로 발전시키고, 다른 일 실시예의 기술은 얼굴 컬러 이미지에서 상호 보완 효과를 최대로 하기 위하여, 지역 컬러 벡터 이진 패턴(LCVBPs)이 서로 다른 스펙트럼 밴드 이미지 사이에 공간적인 상호작용으로부터 얻어진 식별력 있는 텍스쳐(texture) 패턴을 표현하기 위해 제시되기도 하였다.Many face color based face recognition frameworks have been studied for decades, and the technique of one embodiment develops a monochrome face recognition framework as a color face recognition framework, and the technique of another embodiment maximizes the complementary effect , Local color vector binary patterns (LCVBPs) have been proposed to represent distinctive texture patterns obtained from spatial interactions between different spectral band images.

얼굴인식에서 더 식별력 있는 컬러 공간을 얻기 위해 얼굴 인식 프레임워크에 기반한 컬러 이미지 식별(CID) 공간이 디자인되었으며, RGB 컬러 공간의 R, YIQ 컬러 공간의 Q, YCbCr 컬러 공간의 Cr을 사용하여 RQCr이라고 명명되는 하이브리드 컬러 공간 구성이 제안되기도 하였다.To obtain a more discernible color space in face recognition, a color image identification (CID) space based on a face recognition framework was designed. In the R, YIQ color space of RGB color space and RQCr using Cr of YCbCr color space A named hybrid color space configuration has also been proposed.

그러나, 선택된 컬러 공간에 따른 얼굴 인식 정확도는 얼굴 인식 응용 사례와 환경에 따라 달라질 수 있다.However, the accuracy of facial recognition according to the selected color space may vary depending on the case of the face recognition application and the environment.

다양한 컬러 공간으로부터 컬러 공간 선택 시 최상의 얼굴 인식률을 구하기 위하여, 컬러-요소 특징을 선택하는 프레임워크가 제시된 바 있으며, 딥 러닝 프레임워크는 높은 영상 인식률을 보여 연구자들 사이에서 많은 주목을 끌고 있고, 딥 러닝 프레임워크를 얼굴인식에 적용시키는 경우 얼굴 인식률이 상당히 증가하였다. In order to obtain the best facial recognition rate when selecting a color space from various color spaces, a framework for selecting color-element features has been proposed. The deep learning framework has attracted much attention among researchers because of its high image recognition rate, When the running framework is applied to face recognition, the face recognition rate is significantly increased.

현재, 얼굴 인식 딥 러닝에서 보통은 RGB 컬러 이미지(또는 흑백 이미지)들이 이용되며, 딥 러닝 프레임워크에서 컬러 이용에 관한 연구는 아직 충분히 진행되지 않은 상태이다. 얼굴 컬러의 잘 알려진 장점과 그것의 효용성에도 불구하고 딥 러닝에서 얼굴 컬러의 효과는 여전히 미완성된 문제이다.Currently, RGB color images (or black and white images) are usually used in facial recognition deep learning, and research on color utilization in the deep learning framework has not been well under way. Despite the well-known advantages of facial color and its utility, the effect of facial color in deep running is still an incomplete problem.

따라서, 얼굴 인식률을 향상시킬 수 있는 방법의 필요성이 대두된다.Therefore, there is a need for a method for improving the face recognition rate.

본 발명의 실시예들은, 다양한 컬러 공간에서의 추출된 컬러 특징들을 학습을 통해 융합함으로써, 융합된 특징을 이용하여 얼굴 인식률을 향상시킬 수 있는 방법 및 장치를 제공한다.Embodiments of the present invention provide a method and apparatus for enhancing a face recognition rate using fused features by fusing extracted color features in various color spaces through learning.

본 발명의 일 실시예에 따른 얼굴 컬러 특징 학습 방법은 얼굴 이미지에 대하여, 미리 결정된 복수의 컬러 공간들 각각으로부터 컬러 특징을 추출하는 단계; 및 상기 추출된 컬러 특징들의 학습에 기초하여 상기 추출된 컬러 특징들이 융합된 융합 특징을 생성하는 단계를 포함한다.A face color feature learning method according to an exemplary embodiment of the present invention includes extracting a color feature from each of a plurality of predetermined color spaces for a face image; And generating the fused feature with the extracted color features based on learning of the extracted color features.

상기 컬러 특징을 추출하는 단계는 상기 컬러 공간들 각각의 DCNN(deep convolutional neural networks)의 특징을 학습함으로써, 상기 컬러 특징을 추출할 수 있다.The extracting of color features may extract the color features by learning features of deep convolutional neural networks (DCNNs) of each of the color spaces.

상기 융합 특징을 생성하는 단계는 상기 추출된 컬러 특징들에 대한 모든 특징 벡터를 연쇄시킴으로써, 상기 융합 특징을 생성할 수 있다.The generating the convergence feature may generate the convergence feature by concatenating all of the feature vectors for the extracted color features.

상기 융합 특징을 생성하는 단계는 상기 추출된 컬러 특징들에 대하여 DNN(deep neural networks)을 학습함으로써, 상기 융합 특징을 생성할 수 있다.The generating the fusion feature may generate the fusion feature by learning deep neural networks (DNNs) for the extracted color features.

상기 DNN은 복수의 완전 연결 레이어(fully connected layer)로 구성될 수 있다.The DNN may comprise a plurality of fully connected layers.

본 발명의 일 실시예에 따른 얼굴 컬러 특징을 이용한 얼굴 인식 방법은 얼굴 이미지에 대하여, 미리 결정된 복수의 컬러 공간들 각각으로부터 컬러 특징을 추출하는 단계; 상기 추출된 컬러 특징들의 학습에 기초하여 상기 추출된 컬러 특징들이 융합된 융합 특징을 생성하는 단계; 및 상기 생성된 융합 특징에 기초하여 상기 얼굴 이미지의 얼굴을 인식하는 단계를 포함한다.According to another aspect of the present invention, there is provided a face recognition method using a facial color feature, the method comprising: extracting a color feature from each of a plurality of predetermined color spaces for a face image; Generating a fusion feature in which the extracted color features are fused based on learning of the extracted color features; And recognizing a face of the face image based on the generated fusion feature.

상기 컬러 특징을 추출하는 단계는 상기 컬러 공간들 각각의 DCNN(deep convolutional neural networks)의 특징을 학습함으로써, 상기 컬러 특징을 추출할 수 있다.The extracting of color features may extract the color features by learning features of deep convolutional neural networks (DCNNs) of each of the color spaces.

상기 융합 특징을 생성하는 단계는 상기 추출된 컬러 특징들에 대하여 복수의 완전 연결 레이어(fully connected layer)로 구성된 DNN(deep neural networks)을 학습함으로써, 상기 융합 특징을 생성할 수 있다.The step of generating the convergence feature may generate the convergence feature by learning deep neural networks (DNN) composed of a plurality of fully connected layers for the extracted color features.

본 발명의 일 실시예에 따른 얼굴 컬러 특징 학습 장치는 얼굴 이미지에 대하여, 미리 결정된 복수의 컬러 공간들 각각으로부터 컬러 특징을 추출하는 추출부; 및 상기 추출된 컬러 특징들의 학습에 기초하여 상기 추출된 컬러 특징들이 융합된 융합 특징을 생성하는 융합부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for learning facial color features, comprising: an extractor for extracting color features from each of a plurality of predetermined color spaces with respect to a face image; And a fusion unit for generating a fusion feature in which the extracted color features are fused based on learning of the extracted color features.

상기 추출부는 상기 컬러 공간들 각각의 DCNN(deep convolutional neural networks)의 특징을 학습함으로써, 상기 컬러 특징을 추출할 수 있다.The extraction unit can extract the color feature by learning features of deep convolutional neural networks (DCNN) of each of the color spaces.

상기 융합부는 상기 추출된 컬러 특징들에 대한 모든 특징 벡터를 연쇄시킴으로써, 상기 융합 특징을 생성할 수 있다.The fusion unit may generate the fusion feature by concatenating all feature vectors for the extracted color features.

상기 융합부는 상기 추출된 컬러 특징들에 대하여 DNN(deep neural networks)을 학습함으로써, 상기 융합 특징을 생성할 수 있다.The fusion unit can generate the fusion feature by learning deep neural networks (DNN) for the extracted color features.

상기 DNN은 복수의 완전 연결 레이어(fully connected layer)로 구성될 수 있다.The DNN may comprise a plurality of fully connected layers.

본 발명의 일 실시예에 따른 얼굴 컬러 특징을 이용한 얼굴 인식 장치는 얼굴 이미지에 대하여, 미리 결정된 복수의 컬러 공간들 각각으로부터 컬러 특징을 추출하는 추출부; 상기 추출된 컬러 특징들의 학습에 기초하여 상기 추출된 컬러 특징들이 융합된 융합 특징을 생성하는 융합부; 및 상기 생성된 융합 특징에 기초하여 상기 얼굴 이미지의 얼굴을 인식하는 인식부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for recognizing a face using a facial color feature, the apparatus comprising: an extractor for extracting a color feature from each of a plurality of predetermined color spaces with respect to a face image; A fusion unit for generating a fusion feature in which the extracted color features are fused based on learning of the extracted color features; And a recognition unit for recognizing a face of the face image based on the generated fusion characteristic.

상기 추출부는 상기 컬러 공간들 각각의 DCNN(deep convolutional neural networks)의 특징을 학습함으로써, 상기 컬러 특징을 추출할 수 있다.The extraction unit can extract the color feature by learning features of deep convolutional neural networks (DCNN) of each of the color spaces.

상기 융합부는 상기 추출된 컬러 특징들에 대하여 복수의 완전 연결 레이어(fully connected layer)로 구성된 DNN(deep neural networks)을 학습함으로써, 상기 융합 특징을 생성할 수 있다.The fusion unit can generate the fusion feature by learning DNNs (deep neural networks) composed of a plurality of fully connected layers for the extracted color features.

본 발명의 실시예들에 따르면, 다양한 컬러 공간에서의 추출된 컬러 특징들을 학습을 통해 융합함으로써, 융합된 특징을 이용하여 얼굴 인식률을 향상시킬 수 있다.According to embodiments of the present invention, the extracted color features in various color spaces are fused through learning, thereby improving the face recognition rate using the fused features.

도 1은 컬러 공간에서의 기준이 되는 DCNN 구조에 대한 예시도를 나타낸 것이다.
도 2는 서로 다른 공간에서의 학습된 필터 커널의 예들을 나타낸 것이다.
도 3은 본 발명의 실시예에 따른 협동 얼굴 컬러 특징 학습 방법을 설명하기 위한 예시도를 나타낸 것이다.
도 4는 얼굴 이미지의 각 컬러 공간에 대한 제1 컨볼루션 레이어(C1)에서의 특징 맵을 나타낸 것이다.
도 5는 얼굴 이미지의 각 컬러 공간에 대한 제2 컨볼루션 레이어(C2)에서의 특징 맵을 나타낸 것이다.
도 6은 컬러 공간과 테스트 이미지에 대한 2차원 특징 부분 공간에 대한 예시도를 나타낸 것이다.
도 7은 본 발명의 일 실시예에 따른 협동 얼굴 컬러 특징 학습 장치에 대한 구성을 나타낸 것이다.
도 8은 본 발명의 일 실시예에 따른 얼굴 컬러 특징을 이용한 얼굴 인식 장치에 대한 구성을 나타낸 것이다.
Figure 1 shows an exemplary diagram of a DCNN structure as a reference in color space.
Figure 2 shows examples of learned filter kernels in different spaces.
FIG. 3 is a diagram illustrating an example of a cooperative facial color feature learning method according to an embodiment of the present invention.
Fig. 4 shows a feature map in the first convolution layer C1 for each color space of the face image.
5 shows a feature map in the second convolution layer C2 for each color space of the face image.
Figure 6 shows an exemplary view of a color space and a two-dimensional feature subspace for a test image.
FIG. 7 illustrates a configuration of a cooperative facial color feature learning apparatus according to an embodiment of the present invention.
FIG. 8 shows a configuration of a face recognition apparatus using a face color feature according to an embodiment of the present invention.

이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. In addition, the same reference numerals shown in the drawings denote the same members.

본 발명의 실시예들은, 다양한 컬러 공간에서의 추출된 컬러 특징들을 학습을 통해 융합함으로써, 융합된 특징을 이용하여 얼굴 인식률을 향상시키는 것을 그 요지로 한다.Embodiments of the present invention are intended to improve the face recognition rate using fused features by fusing extracted color features in various color spaces through learning.

도 1은 컬러 공간에서의 기준이 되는 DCNN 구조에 대한 예시도를 나타낸 것으로, 도 1에 도시된 바와 같이, 기준이 되는 DCNN은 4개의 컨볼루션 레이어(Convolution Layer)(C1, C2, C3 그리고 C4), 2개의 서브샘플링 레이어(Subsampling Layer)(또는 Max Pooling layer)(S1, S2) 그리고 2개의 완전 연결 레이어(Fully Connected Layer)로 총 8개의 레이어(L=8)로 구성된다.FIG. 1 shows an example of a reference DCNN structure in a color space. As shown in FIG. 1, a reference DCNN includes four convolution layers C1, C2, C3 and C4 ), Two subsampling layers (or Max Pooling layers S1 and S2) and two fully connected layers (L = 8).

여기서, 완전 연결 레이어는 F1과 Softmax 함수로 구성된 출력 레이어로 구성될 수 있다Here, the fully connected layer can consist of an output layer consisting of F1 and Softmax functions

입력 얼굴 이미지의 크기는 32x32 화소로, 3개 컬러 요소에 대해 32개의 특징 맵은 3x3 크기의 32개 커널(kernel)(32@3x3으로 표현됨)과의 컨볼루션(convolution)에 의해 얻어지며, 컨볼루션 연산은 아래 <수학식 1>과 같이 이루어진다.The input face image size is obtained by convolution with 32x32 pixels and 32 feature maps for 3 color elements with 32 kernels (represented by 32 @ 3x3) of 3x3 size, The loop operation is performed as shown in Equation (1) below.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

여기서, hj (l)은 l번째 레이어에서 j 번째 특징 맵을 의미하고, nl은 l번째 레이어에서 특징 맵의 개수를 의미하며, wij (l)은 가중치를 의미하고, bj (l)은 바이어스를 의미할 수 있다.Here, h j (l) is l means the j-th feature map in the second layer, and n l means a number of characteristic maps in the l-th layer, and w ij (l) refers to the weight, and b j (l ) May mean bias.

DCNN은 가중치와 바이어스로 학습되며, 컬러 얼굴 이미지의 첫 번째 컨볼루션 레이어는 아래 <수학식 2>와 같이 계산될 수 있다.DCNN is learned by weight and bias, and the first convolution layer of the color face image can be calculated as Equation (2) below.

[수학식 2]&Quot; (2) &quot;

Figure pat00002
Figure pat00002

여기서, Ck={Ck 1, Ck 2, Ck 3}이고, 세 개의 컬러 요소를 의미할 수 있다. 예를 들어, RGB 이미지의 경우 Ck 1는 R, Ck 2는 G, Ck 3는 B를 의미할 수 있다. 즉, 컬러 얼굴 이미지를 입력으로 받는 첫 번째 컨볼루션 레이어에서 컨볼루션은 DCNN의 가중치 파라미터들을 가지는 컬러 요소들의 가중치 합일 수 있다.Where C k = {C k 1 , C k 2 , C k 3 } and can mean three color elements. For example, in the case of an RGB image, C k 1 may denote R, C k 2 may denote G, and C k 3 may denote B. That is, in the first convolution layer that receives the color facial image as an input, the convolution may be a weighted sum of color elements having DCNN weighting parameters.

DCNN에서 학습된 가중치들은 입력 얼굴 이미지의 컬러 공간에 의하여 다른 모양을 가질 수 있다.The weights learned in the DCNN can have different shapes depending on the color space of the input face image.

도 2는 서로 다른 공간에서의 학습된 필터 커널의 예들을 나타낸 것으로, RGB(a), La*b*(b), YCbCr(c) 및 HSV(d)의 컬러 공간들에서 학습된 제1 컨볼루션 레이어의 3x3 필터 커널들(DCNN의 가중치들)의 예를 나타낸 것이다.Fig. 2 shows examples of learned filter kernels in different spaces. In Fig. 2, a first convolve learned in color spaces of RGB (a), La * b * (b), YCbCr (c) and HSV Here is an example of 3x3 filter kernels (DCNN weights) in the routing layer.

도 2에 도시된 바와 같이, 가중치들은 서로 다른 모양을 가지고, 이는 각 입력 컬러 얼굴 이미지에 대응되는 활성화 맵(activation map)이 서로 다른 응답 결과를 가지게 된다. 이에 대해 도 5와 도 6에서 설명한다.As shown in FIG. 2, the weights have different shapes, and the activation maps corresponding to the respective input color face images have different response results. This will be described with reference to FIG. 5 and FIG.

서로 다른 컬러 공간에서 학습된 특징들 즉, 히든 레이어들의 출력은 다른 특징 부분 공간(subspace)에 제시될 수 있고, 이는 상호 보완 효과를 낼 수 있다. 이하, 본 발명의 상세한 설명에서 컬러 공간 Ck로 학습된 DCNN을 DCNN-Ck로 표기하여 설명한다.The features learned in different color spaces, that is, the output of hidden layers, can be presented in different feature subspaces, which can provide complementary effects. Hereinafter, the learning DCNN in color space C k In the specification of the present invention will be described with referred to as DCNN-C k.

도 3은 본 발명의 실시예에 따른 협동 얼굴 컬러 특징 학습 방법을 설명하기 위한 예시도를 나타낸 것으로, 협동 얼굴 컬러 특징 학습 프레임워크를 나타낸 것이다.FIG. 3 is an exemplary diagram for explaining a cooperative face color feature learning method according to an embodiment of the present invention, and shows a cooperative face color feature learning framework.

도 3에 도시된 바와 같이, 본 발명의 실시예에 따른 협동 얼굴 컬러 특징 학습 프레임워크는 딥 학습 프레임워크에서 다양한 컬러 공간의 상호 보완 효과에 의해 유도되는 것으로, 1) 다양한 컬러 공간에서 DCNN에 의해 각각의 컬러 특징 추출, 2) DCNN을 이용한 다양한 컬러 특징 융합으로 구성된다.3, the cooperative facial color feature learning framework according to an embodiment of the present invention is derived by the complementary effects of various color spaces in a deep learning framework, such as 1) by DCNN in various color spaces Each color feature extraction, and 2) various color feature fusion using DCNN.

협동 얼굴 컬러 특징 학습 프레임워크는 입력 얼굴 이미지 예를 들어, RGB 얼굴 이미지로부터 다양한 컬러 공간 예를 들어, RGB, YCbCr

Figure pat00003
, YIQ, XYZ, HSV, RIQ, RQCr, YQCr 그리고 La*b*을 생성한다. 즉, 입력 얼굴 이미지는 다양한 컬러 공간으로 변형된다. 협동 얼굴 컬러 특징 학습 프레임워크는 생성된 각각의 컬러 공간(DCNN-Ck)에서 DCNN 학습을 통해 각각의 컬러 공간에서의 특징을 담은 정보를 획득할 수 있다. 협동 얼굴 컬러 특징 학습 프레임워크에서 다양한 컬러 특징 융합은 다양한 컬러 공간으로부터 학습된 특징을 한 곳에 모으기 위해 사용된다.The cooperative facial color feature learning framework may include input face images, for example, RGB face images from various color spaces, for example, RGB, YCbCr
Figure pat00003
, YIQ, XYZ, HSV, RIQ, RQCr, YQCr, and La * b *. That is, the input face image is transformed into various color spaces. The cooperative facial color feature learning framework can obtain information about features in each color space through DCNN learning in each of the generated color spaces (DCNN- Ck ). Cooperative Face Color Features In the learning framework, various color feature fusions are used to gather learned features from various color spaces.

여기서, 다양한 컬러 특징이 융합된 융합 특징은 높은 얼굴 인식률을 얻기 위하여, 다양한 컬러 공간으로부터 모든 특징 벡터들을 연쇄시켜 결합함으로써, 획득될 수 있다. 그러나, 다양한 컬러 공간의 특징 벡터들의 변별 능력(discriminative capabilities)은 상이하고, 따라서 최대 성능이 모든 특징 벡터들은 간단히 연쇄시킨다고 보장되는 것은 아니다. 또한, 증가된 차원에 의한 차원의 문제도 발생할 수 있다.Here, the convergence feature in which the various color features are fused can be obtained by concatenating and combining all feature vectors from various color spaces in order to obtain a high face recognition rate. However, the discriminative capabilities of the feature vectors in the various color spaces are different, and therefore maximum performance is not guaranteed to simply chain all feature vectors. In addition, a dimensional problem due to an increased dimension may also occur.

협동 얼굴 컬러 특징 학습 프레임워크에서의 융합 특징은 복수의 완전 연결 레이어(fully connected layer)로 구성된 DNN(deep neural networks)을 학습함으로써, 생성 또는 획득될 수 있다. 따라서, 협동 얼굴 컬러 특징 학습 프레임워크는 다양한 컬러 공간에서 DCNN-Ck로부터 학습된 특징 벡터를 학습하고 모아서 최종 출력되는 특징 벡터는 필수적인 내용만을 담고 있으며, 이는 학습된 특징의 식별력을 향상시킬 수 있다.The convergence feature in the cooperative face color feature learning framework can be generated or obtained by learning deep neural networks (DNN) composed of a plurality of fully connected layers. Therefore, the cooperative facial color feature learning framework learns and collects feature vectors learned from DCNN-C k in various color spaces, and the final output feature vector contains only the essential contents, which can improve the discrimination ability of learned features .

도 4에 대해 조금 더 설명하면, 입력으로 사용되는 컬러 예를 들어, RGB 얼굴 이미지는 다양한 컬러 공간 예를 들어, RGB, YCbCr

Figure pat00004
, YIQ, XYZ, HSV, RIQ, RQCr, YQCr 그리고 La*b*으로 변형된다. 그리고, 다양한 컬러 공간에서 학습된 DCNN 즉, DCNN-C1, DCNN-C2, DCNN-C3 등으로 명명되는 DCNN으로부터 d-차원의 다양한 특징 벡터들 yc1, yc2, yc3,... , ycn이 추출된다. 이러한 모든 특징 벡터들을 연쇄시키면 (nxd)-차원의 특징 벡터 즉, 융합 특징이 형성된다. 즉,
Figure pat00005
이 된다. 그 후, 앞단에서 나온 y에 대해, Q(m)과 b(m)을 이용하여 파라미터가 결정되는 DNN이 결합된 특징 벡터를 아래 <수학식 3>과 같이 얻을 수 있다.4, a color used as an input, for example, an RGB face image may be represented by various color spaces such as RGB, YCbCr
Figure pat00004
, YIQ, XYZ, HSV, RIQ, RQCr, YQCr and La * b *. In addition, DCNNs learned in various color spaces, DCNN-C 1 , DCNN-C 2 , and DCNN-C 3 Dimensional feature vectors y c1 , y c2 , y c3 , ..., y cn are extracted from the DCNN, By concatenating all of these feature vectors, (nxd) -dimensional feature vectors, that is, fusion features are formed. In other words,
Figure pat00005
. Thereafter, a feature vector to which DNNs whose parameters are determined by using Q (m) and b (m) with respect to y from the front end is combined can be obtained as Equation (3) below.

[수학식 3]&Quot; (3) &quot;

Figure pat00006
Figure pat00006

여기서, Q(m)과 b(m)는 각각 DNN의 m 번째 레이어의 가중치와 바이어스를 의미하고, M은 DNN에서 레이어의 수를 의미하며, f(m)은 m 번째 레이어에서 특징 벡터를 모아 놓은 것을 의미하고, f(0)=y일 수 있다.Here, Q (m) and b (m) denote the weights and weights of the mth layer of DNN, M denotes the number of layers in DNN, f (m) , And f (0) = y.

DNN 파라미터에 의해 연쇄된 특징 벡터는 낮은 차원의 혼합된 특징 공간으로 맵핑(mapping)될 수 있고, 다양한 컬러 공간으로부터 혼합된 컬러 특징은 압축된 형태로 입력 정보를 묘사할 수 있다. 나아가, 식별력 있는 특징 벡터의 경우 DNN의 학습된 가중치에 의해 강조될 수 있다.The feature vectors concatenated by the DNN parameter can be mapped to a mixed feature space of low dimension and mixed color features from various color spaces can describe the input information in compressed form. Furthermore, in the case of discernible feature vectors, it can be emphasized by the learned weight of DNN.

이와 같이, 본 발명의 실시예에 따른 협동 얼굴 컬러 특징 학습 프레임워크는 다양한 컬러 공간에서의 추출된 컬러 특징들을 학습을 통해 융합함으로써, 융합된 특징을 이용하여 얼굴 인식률을 향상시킬 수 있다.As described above, the cooperative facial color feature learning framework according to the embodiment of the present invention can enhance the face recognition rate by using the fused features by fusing the extracted color features in various color spaces through learning.

즉, 본 발명은 협동 얼굴 컬러 특징 학습 프레임워크에 의해 학습된 얼굴 이미지에 대한 융합 특징을 이용하여 얼굴 이미지의 얼굴을 인식할 수 있다.That is, the present invention can recognize the face of the face image using the convergence feature of the face image learned by the cooperative face color feature learning framework.

다시 말해, 본 발명의 다른 실시예는, 얼굴 이미지에 대한 다양한 컬러 공간에서의 컬러 특징을 추출하고, 추출된 다양한 컬러 공간에서의 컬러 특징들의 학습에 기초하여 컬러 특징들이 융합된 융합 특징을 생성하며, 생성된 융합 특징에 기초하여 얼굴 이미지의 얼굴을 인식함으로써, 얼굴 인식률을 향상시킬 수 있다.In other words, another embodiment of the present invention is a method of extracting color features in various color spaces for a face image, generating color features based on learning of color features in the extracted color spaces, , The face recognition rate can be improved by recognizing the face of the face image based on the generated fusion characteristic.

이러한 본 발명은 다음과 같은 실험을 통해 얼굴 인식률을 증명할 수 있다.The present invention can prove the face recognition rate through the following experiment.

먼저, 본 발명을 증명하기 위하여, RGB 얼굴 이미지로부터 9가지의 서로 다른 컬러 공간인 YCbCr

Figure pat00007
, YIQ, XYZ, HSV, RIQ, RQCr, YQCr, La*b* 그리고 흑백을 생성한다. 이 때, 실험을 위하여, 조도 변화 아래서 촬영된 Multi-PIE dataset을 사용하며, Dataset은 200개 주제에 대해 14320개의 트레이닝 이미지(training image), 5863개의 프로브(probe) 얼굴 이미지, 137개 주제로부터 137 갤러리 얼굴 이미지(총 주제의 수는 337개)로 구성될 수 있다.First, in order to prove the present invention, nine different color spaces YCbCr
Figure pat00007
, YIQ, XYZ, HSV, RIQ, RQCr, YQCr, La * b *, and black and white. At this time, for the experiment, we use Multi-PIE dataset photographed under illumination change. Dataset has 14320 training images, 5863 probe face images for 200 subjects, 137 And a gallery face image (the total number of subjects is 337).

모든 얼굴 이미지는 32x32 픽셀로 사이즈 변환되며, 트레이닝과 테스팅 시 사용되는 사람의 주체 정보(subject 또는 ID)는 서로 다르고, 얼굴 인식률은 갤러리 얼굴 이미지에서 추출된 특징 벡터로부터 프로브 얼굴 이미지에서 추출된 특징 벡터까지 1-최근접 이웃 분류(nearest neighbor classification) 방식으로 산출한다.All facial images are resized to 32x32 pixels. The subject information (subject or ID) used in training and testing is different from each other. The face recognition rate is calculated from the feature vector extracted from the face image of the gallery, 1 - Nearest neighbor classification.

본 발명의 DCNN 구조에서 학습률(learning rate) 은 0.01로 설정되고 지수함수로 감쇄하며, 드롭아웃(dropout)의 확률은 Softmax 레이어에서 0.5이고, 두 개의 서브샘플링 레이어에서 0.25이다. DNN 구조에서 두 개의 완전 연결 레이어는 2048개의 유닛과 512개의 유닛 그리고 Softmax 레이어로 구성된다. DNN에서 학습 속도는 0.001이며 드롭아웃 확률은 0.5로 설정된다.In the DCNN architecture of the present invention, the learning rate is set to 0.01 and attenuated to an exponential function, with a probability of dropout of 0.5 at the Softmax layer and 0.25 at the two subsampling layers. In the DNN structure, the two fully connected layers consist of 2048 units, 512 units and a Softmax layer. In DNN, the learning rate is 0.001 and the dropout probability is set to 0.5.

그리고 DCNN-Ck에서, 마지막 Softmax 레이어를 위한 활성화 함수 σ(x)는 시그모이드(sigmoid) 함수이고, σ(x)=1/(1-e-x) 일 수 있다. 그 외 다른 레이어에서 활성화 함수로 ReLU가 사용될 수 있다. 즉,

Figure pat00008
Figure pat00009
일 수 있다. 또한, DCNN과 DNN을 모두 학습하기 위해서 크로스 엔트로피 로스(cross-entropy loss)함수가 사용된다.And in DCNN-C k, activation function σ (x) for the final Softmax layer may be a sigmoid (sigmoid) and function, σ (x) = 1 / (1-e -x). ReLU can be used as an activation function in other layers. In other words,
Figure pat00008
Figure pat00009
Lt; / RTI &gt; In addition, a cross-entropy loss function is used to learn both DCNN and DNN.

상술한 실험에 대한 실험 결과에 대하여, 아래 표 1은 다양한 컬러 공간으로 학습된 DCNN-Ck의 얼굴 인식률(FR accuracy)을 보여준다.Table 1 below shows the FR accuracy of DCNN-C k learned in various color spaces.

Figure pat00010
Figure pat00010

표 1을 통해 알 수 있듯이, 전반적으로 컬러 얼굴 이미지의 얼굴 인식률은 흑백 얼굴 이미지의 인식률 보다 높은 것을 알 수 있으며, La*b*

Figure pat00011
얼굴 이미지의 경우 흑백 이미지와 비교하여 얼굴인식률은 17.05% 더 높고 RGB 얼굴 인식과 비교했을 때 8.27% 높은 것을 알 수 있다. 이는 얼굴 신분 정보가 컬러 공간에 따라 DCNN-Ck에서 다르게 학습됨을 보이고 있다.As shown in Table 1, the face recognition rate of the color face image is higher than that of the black and white face image, and La * b *
Figure pat00011
The face recognition rate is 17.05% higher than the monochrome image and 8.27% higher than the RGB face recognition. This shows that face identification information is learned differently in DCNN-C k according to color space.

예를 들어, 도 5와 도 6은 처음 두 개의 컨볼루션 레이어를 지났을 때의 테스트 얼굴 이미지를 보여주는 것으로, 얼굴 신분 특징 맵은 DCNN-Ck

Figure pat00012
에 의해 서로 다른 컬러 공간에 서로 다른 모습으로 나타난다. 뿐만 아니라 도 7에 도시된 바와 같이, 특징 서브 공간에 있는 Class1(RGB)와 Class1(Y
Figure pat00013
CbCr) Class1에 대해 RGB와 YCbCr 특징을 살펴보면 같은 ID를 가짐에도 불구하고 매우 멀리 떨어져 있으며, 심지어 특징 서브 공간에서 클래스간 거리를 넘기도 하는 것을 알 수 이다.For example, FIGS. 5 and 6 show the test face image when the first two convolution layers are passed. The face identification characteristic map is DCNN-C k
Figure pat00012
In different color spaces. In addition, as shown in FIG. 7, in the feature subspace, Class1 (RGB) and Class1 (Y
Figure pat00013
CbCr) Looking at the RGB and YCbCr features for Class1, we can see that even though they have the same ID, they are very distant, even beyond the distance between classes in feature subspaces.

다양한 컬러 공간에서 각각의 특징에 존재하는 상호보완 효과를 분석하기 위해, Fisher의 기준을 기반으로 하여 연쇄된 4,608(512차원 x 9컬러 공간)차원 특징 벡터로부터 일부 특징만을 뽑으며, 4,608 차원 특징벡터로부터 3,000 특징 벡터가 선택될 때, 얼굴 인식률은 약 87%이다. 3,000 특징 벡터는 각각 RGB, YCbCr

Figure pat00014
, YIQ, XYZ, HSV, RIQ, RQCr, YQCr 그리고 La*b*
Figure pat00015
컬러 공간으로부터 338, 326, 342, 326, 341, 333, 327, 357, 310개의 특징들로 구성되며, 각각의 컬러 공간에서 기여된 특징들은 약 10퍼센트 정도로 균등한 비율로 존재한다. To analyze the complementary effects of each feature in various color spaces, only some features are extracted from 4,608 (512-dimensional x 9-color space) dimensional feature vectors based on Fisher's criterion, and 4,608 dimensional feature vectors When 3,000 feature vectors are selected, the face recognition rate is about 87%. The 3,000 feature vectors are RGB, YCbCr
Figure pat00014
, YIQ, XYZ, HSV, RIQ, RQCr, YQCr, and La * b *
Figure pat00015
The color space consists of 338, 326, 342, 326, 341, 333, 327, 357, and 310 features from the color space, and the features contributed in each color space are present in equal proportions on the order of about 10 percent.

상기 표 1에 도시된 바와 같이, 하나의 DCNN-Ck

Figure pat00016
가 사용된 얼굴 인식 성능 결과로부터 다양한 컬러 공간에서 학습된 특징이 얼굴 인식 결과에서 상호 보완적인 효과를 발생시키는 것을 알 수 있다.As shown in Table 1, one DCNN- Ck
Figure pat00016
The results show that the features learned in various color spaces generate complementary effects in the face recognition results.

아래 [표 2]는 Multi-PIE dataset으로 제시된 방법(collaborative feature learning)을 이용한 얼굴 인식 성능과 특징-레벨 연쇄 방법(feature-level concatenation)을 이용한 얼굴 인식 성능을 비교한 결과를 나타낸 것이다.Table 2 below shows the comparison of face recognition performance using the method presented in the Multi-PIE dataset (collaborative feature learning) and face recognition performance using the feature-level concatenation method.

Figure pat00017
Figure pat00017

상술한 바와 같이, 9개의 컬러 공간에서 얻어진 특징들을 연쇄적으로 연결하여 이용하는 경우 얼굴 인식 정확도는 87.34%까지 증가한다. 단순히 다양한 특징들을 융합함으로써, 서로 다른 컬러 공간으로부터 매우 식별력있는 결과를 얻을 수 있다. DNN에 제시된 특징 융합 방법이 사용되었을 때, 얼굴 인식 정확도는 더 낮은 특징 차원으로도 향상될 수 있으며, 중요하지 않은 특징들을 제거하면서 여러 개의 DCNN-Ck로부터 상호 보완적인 정보들을 이용하여 특징 융합을 통해 학습을 진행할 수 있다.As described above, the face recognition accuracy increases to 87.34% when the features obtained in the nine color spaces are used in a cascade connection. By merely fusing the various features, highly discernible results can be obtained from different color spaces. When the feature fusion method given in DNN is used, the face recognition accuracy of a characteristic fused using complementary information from multiple DCNN-C k, removing features further not important, and can be improved at a low characteristic dimension Learning can be carried out.

이와 같이, 본 발명의 실시예들에 따른 방법은 컬러 얼굴 이미지에서 얼굴 인식이 흑백 얼굴 인식보다 훨씬 높음을 알 수 있으며, 얼굴 인식률은 다양한 컬러 공간에서 학습된 특징들의 선택과 융합에 따라 향상되는 것을 알 수 있다. 특히, 융합된 특징을 기반으로 하는 DNN을 통하여 다양한 컬러 공간에 존재하는 상호 보완적인 정보를 충분히 이용할 수 있으며, 그 결과 얼굴 인식률이 더욱 더 향상될 수 있다. As described above, it can be seen that the method according to the embodiments of the present invention has a much higher face recognition rate than the monochrome face recognition in the color face image, and the face recognition rate is improved according to the selection and fusion of the learned features in various color spaces Able to know. In particular, the DNN based on the fused features makes it possible to fully utilize complementary information existing in various color spaces, and as a result, the face recognition rate can be further improved.

도 7은 본 발명의 일 실시예에 따른 협동 얼굴 컬러 특징 학습 장치에 대한 구성을 나타낸 것으로, 상술한 협동 얼굴 컬러 특징 학습 방법을 수행하는 장치에 대한 구성을 나타낸 것이다.FIG. 7 illustrates a configuration of a cooperative facial color feature learning apparatus according to an embodiment of the present invention, and shows a configuration of an apparatus for performing the cooperative facial color feature learning method.

도 7을 참조하면, 본 발명의 실시예에 따른 협동 얼굴 컬러 특징 학습 장치(700)는 추출부(710)와 융합부(720)를 포함한다.Referring to FIG. 7, the cooperative facial color feature learning apparatus 700 according to the embodiment of the present invention includes an extraction unit 710 and a fusion unit 720.

추출부(710)는 얼굴 이미지에 대하여, 미리 결정된 복수의 컬러 공간들 각각으로부터 컬러 특징을 추출한다.The extracting unit 710 extracts color features from each of the predetermined plurality of color spaces with respect to the face image.

이 때, 추출부(710)는 컬러 공간들 각각의 DCNN의 특징을 학습함으로써, 컬러 공간들 각각의 컬러 특징을 추출할 수 있다.At this time, the extracting unit 710 can extract the color characteristic of each of the color spaces by learning the characteristic of the DCNN of each of the color spaces.

이러한 추출부에 대한 내용은 이 외에도 상술한 방법에서 컬러 공간들에서 컬러 특징을 추출하는 모든 내용을 포함할 수 있다.The contents of such an extractor may also include all contents extracting color features in color spaces in the above-described method.

융합부(720)는 추출된 컬러 특징들의 학습에 기초하여 추출된 컬러 특징들이 융합된 융합 특징을 생성한다.The fusion unit 720 generates a fusion feature in which the extracted color features are fused based on learning of the extracted color features.

이 때, 융합부(720)는 추출된 컬러 특징들에 대한 모든 특징 벡터를 연쇄시킴으로써, 융합 특징을 생성할 수 있다.At this time, the fusion unit 720 can generate fusion characteristics by concatenating all the feature vectors for the extracted color features.

이 때, 융합부(720)는 추출된 컬러 특징들에 대하여 DNN을 학습함으로써, 융합 특징을 생성할 수 있으며, DNN은 복수의 완전 연결 레이어로 구성될 수 있다.At this time, the fusion unit 720 can generate convergence characteristics by learning the DNN for the extracted color features, and the DNN can be composed of a plurality of completely connected layers.

물론, 융합부에 대한 내용은 이 외에도 상술한 방법에서 추출된 컬러 특징들을 융합하여 융합 특징을 생성 또는 출력하는 모든 내용을 포함할 수 있다.Of course, the contents of the fusion unit may include all the contents that generate or output the fusion characteristic by fusing the color features extracted in the above-described method.

도 8은 본 발명의 일 실시예에 따른 얼굴 컬러 특징을 이용한 얼굴 인식 장치에 대한 구성을 나타낸 것으로, 도 7의 얼굴 컬러 특징 학습 장치에 의해 융합된 융합 특징을 이용하여 얼굴을 인식하는 장치에 대한 구성을 나타낸 것이다.FIG. 8 shows a configuration of a face recognition apparatus using a facial color feature according to an embodiment of the present invention. FIG. 8 illustrates a face recognition apparatus using a fused feature fused by the facial color feature learning apparatus of FIG. FIG.

도 8을 참조하면, 본 발명의 실시예에 따른 얼굴 인식 장치(800)는 추출부(810), 융합부(820) 및 인식부(830)를 포함한다.Referring to FIG. 8, the face recognition apparatus 800 according to the embodiment of the present invention includes an extraction unit 810, a fusion unit 820, and a recognition unit 830.

추출부(810)는 얼굴 이미지에 대하여, 미리 결정된 복수의 컬러 공간들 각각으로부터 컬러 특징을 추출한다.The extracting unit 810 extracts color features from each of the predetermined plurality of color spaces with respect to the face image.

이 때, 추출부(810)는 컬러 공간들 각각의 DCNN의 특징을 학습함으로써, 컬러 공간들 각각의 컬러 특징을 추출할 수 있다.At this time, the extracting unit 810 can extract the color characteristic of each of the color spaces by learning the characteristic of the DCNN of each of the color spaces.

이러한 추출부에 대한 내용은 이 외에도 상술한 방법에서 컬러 공간들에서 컬러 특징을 추출하는 모든 내용을 포함할 수 있다.The contents of such an extractor may also include all contents extracting color features in color spaces in the above-described method.

융합부(820)는 추출된 컬러 특징들의 학습에 기초하여 추출된 컬러 특징들이 융합된 융합 특징을 생성한다.The fusion unit 820 generates a fusion feature in which the extracted color features are fused based on learning of the extracted color features.

이 때, 융합부(820)는 추출된 컬러 특징들에 대한 모든 특징 벡터를 연쇄시킴으로써, 융합 특징을 생성할 수 있다.At this time, the fusion unit 820 can generate fusion characteristics by concatenating all the feature vectors for the extracted color features.

이 때, 융합부(820)는 추출된 컬러 특징들에 대하여 DNN을 학습함으로써, 융합 특징을 생성할 수 있으며, DNN은 복수의 완전 연결 레이어로 구성될 수 있다.At this time, the fusion unit 820 can generate convergence characteristics by learning the DNN for the extracted color features, and the DNN can be composed of a plurality of completely connected layers.

물론, 융합부에 대한 내용은 이 외에도 상술한 방법에서 추출된 컬러 특징들을 융합하여 융합 특징을 생성 또는 출력하는 모든 내용을 포함할 수 있다.Of course, the contents of the fusion unit may include all the contents that generate or output the fusion characteristic by fusing the color features extracted in the above-described method.

인식부(830)는 생성된 융합 특징에 기초하여 얼굴 이미지의 얼굴을 인식한다.The recognition unit 830 recognizes the face of the face image based on the generated fusion characteristic.

이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 시스템, 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the systems, devices, and components described in the embodiments may be implemented, for example, as processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예들에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to embodiments may be implemented in the form of a program instruction that may be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI &gt; or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (16)

얼굴 이미지에 대하여, 미리 결정된 복수의 컬러 공간들 각각으로부터 컬러 특징을 추출하는 단계; 및
상기 추출된 컬러 특징들의 학습에 기초하여 상기 추출된 컬러 특징들이 융합된 융합 특징을 생성하는 단계
를 포함하는 얼굴 컬러 특징 학습 방법.
Extracting color features from each of a plurality of predetermined color spaces, for a face image; And
Generating a fused feature wherein the extracted color features are fused based on learning of the extracted color features
A face color feature learning method.
제1항에 있어서,
상기 컬러 특징을 추출하는 단계는
상기 컬러 공간들 각각의 DCNN(deep convolutional neural networks)의 특징을 학습함으로써, 상기 컬러 특징을 추출하는 것을 특징으로 하는 얼굴 컬러 특징 학습 방법.
The method according to claim 1,
The step of extracting the color feature
Wherein the color features are extracted by learning features of deep convolutional neural networks (DCNN) of each of the color spaces.
제1항에 있어서,
상기 융합 특징을 생성하는 단계는
상기 추출된 컬러 특징들에 대한 모든 특징 벡터를 연쇄시킴으로써, 상기 융합 특징을 생성하는 것을 특징으로 하는 얼굴 컬러 특징 학습 방법.
The method according to claim 1,
The step of generating the fusion feature
Wherein the convergence feature is generated by concatenating all the feature vectors for the extracted color features.
제1항에 있어서,
상기 융합 특징을 생성하는 단계는
상기 추출된 컬러 특징들에 대하여 DNN(deep neural networks)을 학습함으로써, 상기 융합 특징을 생성하는 것을 특징으로 하는 얼굴 컬러 특징 학습 방법.
The method according to claim 1,
The step of generating the fusion feature
And learning the DNN (deep neural networks) for the extracted color features to generate the fusion feature.
제4항에 있어서,
상기 DNN은
복수의 완전 연결 레이어(fully connected layer)로 구성되는 것을 특징으로 하는 얼굴 컬러 특징 학습 방법.
5. The method of claim 4,
The DNN
And a plurality of fully connected layers.
얼굴 이미지에 대하여, 미리 결정된 복수의 컬러 공간들 각각으로부터 컬러 특징을 추출하는 단계;
상기 추출된 컬러 특징들의 학습에 기초하여 상기 추출된 컬러 특징들이 융합된 융합 특징을 생성하는 단계; 및
상기 생성된 융합 특징에 기초하여 상기 얼굴 이미지의 얼굴을 인식하는 단계
를 포함하는 얼굴 컬러 특징을 이용한 얼굴 인식 방법.
Extracting color features from each of a plurality of predetermined color spaces, for a face image;
Generating a fusion feature in which the extracted color features are fused based on learning of the extracted color features; And
Recognizing a face of the face image based on the generated fusion characteristic
Wherein the facial color feature is a face image.
제6항에 있어서,
상기 컬러 특징을 추출하는 단계는
상기 컬러 공간들 각각의 DCNN(deep convolutional neural networks)의 특징을 학습함으로써, 상기 컬러 특징을 추출하는 것을 특징으로 하는 얼굴 컬러 특징을 이용한 얼굴 인식 방법.
The method according to claim 6,
The step of extracting the color feature
Wherein the color features are extracted by learning characteristics of deep convolutional neural networks (DCNN) of each of the color spaces.
제6항에 있어서,
상기 융합 특징을 생성하는 단계는
상기 추출된 컬러 특징들에 대하여 복수의 완전 연결 레이어(fully connected layer)로 구성된 DNN(deep neural networks)을 학습함으로써, 상기 융합 특징을 생성하는 것을 특징으로 하는 얼굴 컬러 특징을 이용한 얼굴 인식 방법.
The method according to claim 6,
The step of generating the fusion feature
Wherein the convergence feature is generated by learning DNNs (deep neural networks) composed of a plurality of fully connected layers with respect to the extracted color features.
얼굴 이미지에 대하여, 미리 결정된 복수의 컬러 공간들 각각으로부터 컬러 특징을 추출하는 추출부; 및
상기 추출된 컬러 특징들의 학습에 기초하여 상기 추출된 컬러 특징들이 융합된 융합 특징을 생성하는 융합부
를 포함하는 얼굴 컬러 특징 학습 장치.
An extraction unit for extracting color features from each of the predetermined plurality of color spaces, with respect to the face image; And
Wherein the extracted color features are based on learning of the extracted color features,
Wherein the face color feature learning device comprises:
제9항에 있어서,
상기 추출부는
상기 컬러 공간들 각각의 DCNN(deep convolutional neural networks)의 특징을 학습함으로써, 상기 컬러 특징을 추출하는 것을 특징으로 하는 얼굴 컬러 특징 학습 장치.
10. The method of claim 9,
The extracting unit
And extracts the color features by learning features of deep convolutional neural networks (DCNN) of each of the color spaces.
제9항에 있어서,
상기 융합부는
상기 추출된 컬러 특징들에 대한 모든 특징 벡터를 연쇄시킴으로써, 상기 융합 특징을 생성하는 것을 특징으로 하는 얼굴 컬러 특징 학습 장치.
10. The method of claim 9,
The fusion unit
And the fusion feature is generated by concatenating all the feature vectors for the extracted color features.
제9항에 있어서,
상기 융합부는
상기 추출된 컬러 특징들에 대하여 DNN(deep neural networks)을 학습함으로써, 상기 융합 특징을 생성하는 것을 특징으로 하는 얼굴 컬러 특징 학습 장치.
10. The method of claim 9,
The fusion unit
And the convergence feature is generated by learning DNN (deep neural networks) for the extracted color features.
제12항에 있어서,
상기 DNN은
복수의 완전 연결 레이어(fully connected layer)로 구성되는 것을 특징으로 하는 얼굴 컬러 특징 학습 장치.
13. The method of claim 12,
The DNN
And a plurality of fully connected layers.
얼굴 이미지에 대하여, 미리 결정된 복수의 컬러 공간들 각각으로부터 컬러 특징을 추출하는 추출부;
상기 추출된 컬러 특징들의 학습에 기초하여 상기 추출된 컬러 특징들이 융합된 융합 특징을 생성하는 융합부; 및
상기 생성된 융합 특징에 기초하여 상기 얼굴 이미지의 얼굴을 인식하는 인식부
를 포함하는 얼굴 컬러 특징을 이용한 얼굴 인식 장치.
An extraction unit for extracting color features from each of the predetermined plurality of color spaces, with respect to the face image;
A fusion unit for generating a fusion feature in which the extracted color features are fused based on learning of the extracted color features; And
A recognition unit for recognizing a face of the face image based on the generated fusion characteristic,
Wherein the facial color feature includes at least one of a face image and a face image.
제14항에 있어서,
상기 추출부는
상기 컬러 공간들 각각의 DCNN(deep convolutional neural networks)의 특징을 학습함으로써, 상기 컬러 특징을 추출하는 것을 특징으로 하는 얼굴 컬러 특징을 이용한 얼굴 인식 장치.
15. The method of claim 14,
The extracting unit
Wherein the color features are extracted by learning characteristics of deep convolutional neural networks (DCNN) of each of the color spaces.
제14항에 있어서,
상기 융합부는
상기 추출된 컬러 특징들에 대하여 복수의 완전 연결 레이어(fully connected layer)로 구성된 DNN(deep neural networks)을 학습함으로써, 상기 융합 특징을 생성하는 것을 특징으로 하는 얼굴 컬러 특징을 이용한 얼굴 인식 장치.
15. The method of claim 14,
The fusion unit
And the convergence feature is generated by learning DNNs (deep neural networks) composed of a plurality of fully connected layers with respect to the extracted color features.
KR1020160049385A 2016-02-16 2016-04-22 Collaborative facial color feature learning method of multiple color spaces for face recognition and apparatus therefor KR101906663B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160017575 2016-02-16
KR1020160017575 2016-02-16

Publications (2)

Publication Number Publication Date
KR20170096924A true KR20170096924A (en) 2017-08-25
KR101906663B1 KR101906663B1 (en) 2018-10-12

Family

ID=59761440

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160049385A KR101906663B1 (en) 2016-02-16 2016-04-22 Collaborative facial color feature learning method of multiple color spaces for face recognition and apparatus therefor

Country Status (1)

Country Link
KR (1) KR101906663B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101942808B1 (en) * 2018-11-13 2019-01-29 주식회사 인텔리빅스 Apparatus for CCTV Video Analytics Based on Object-Image Recognition DCNN
WO2019168280A1 (en) * 2018-02-28 2019-09-06 이화여자대학교 산학협력단 Method and device for deciphering lesion from capsule endoscope image by using neural network
KR20220037861A (en) * 2020-09-18 2022-03-25 건국대학교 산학협력단 Apparatus and method for detecting forgery or alteration of the face

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102047977B1 (en) * 2019-08-21 2019-11-22 주식회사 인포웍스 System and method for fusion eo/ir image based on deep neural network algorithm

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5709410B2 (en) * 2009-06-16 2015-04-30 キヤノン株式会社 Pattern processing apparatus and method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019168280A1 (en) * 2018-02-28 2019-09-06 이화여자대학교 산학협력단 Method and device for deciphering lesion from capsule endoscope image by using neural network
KR101942808B1 (en) * 2018-11-13 2019-01-29 주식회사 인텔리빅스 Apparatus for CCTV Video Analytics Based on Object-Image Recognition DCNN
KR20220037861A (en) * 2020-09-18 2022-03-25 건국대학교 산학협력단 Apparatus and method for detecting forgery or alteration of the face

Also Published As

Publication number Publication date
KR101906663B1 (en) 2018-10-12

Similar Documents

Publication Publication Date Title
Chen et al. DISC: Deep image saliency computing via progressive representation learning
Vig et al. Large-scale optimization of hierarchical features for saliency prediction in natural images
US10410353B2 (en) Multi-label semantic boundary detection system
WO2019100723A1 (en) Method and device for training multi-label classification model
WO2019100724A1 (en) Method and device for training multi-label classification model
CN108280455B (en) Human body key point detection method and apparatus, electronic device, program, and medium
CN111353531B (en) Hyperspectral image classification method based on singular value decomposition and spatial spectral domain attention mechanism
KR101906663B1 (en) Collaborative facial color feature learning method of multiple color spaces for face recognition and apparatus therefor
CN108491848B (en) Image saliency detection method and device based on depth information
CN112036260B (en) Expression recognition method and system for multi-scale sub-block aggregation in natural environment
CN105303163B (en) A kind of method and detection device of target detection
CN113505768A (en) Model training method, face recognition method, electronic device and storage medium
JP6107531B2 (en) Feature extraction program and information processing apparatus
Demir et al. Clustering-based extraction of border training patterns for accurate SVM classification of hyperspectral images
JP2023507248A (en) System and method for object detection and recognition
CN111860124A (en) Remote sensing image classification method based on space spectrum capsule generation countermeasure network
KR101873645B1 (en) Method and apparatus for multiple image information generation and the processing for optimal recognition performance in a deep learning
CN112418256A (en) Classification, model training and information searching method, system and equipment
Al-Badri et al. Adaptive Non-Maximum Suppression for improving performance of Rumex detection
JP6808783B2 (en) Image processing using artificial neural networks
US20210295509A1 (en) Disease diagnosis system and method using multiple color models and neural network
Bartoli et al. Computer Vision–ECCV 2020 Workshops: Glasgow, UK, August 23–28, 2020, Proceedings, Part VI
Estrada et al. Appearance-based keypoint clustering
CN114037056A (en) Method and device for generating neural network, computer equipment and storage medium
Shen et al. A holistic image segmentation framework for cloud detection and extraction

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant