KR102174175B1 - Facial emotional recognition apparatus for Identify Emotion and method thereof - Google Patents

Facial emotional recognition apparatus for Identify Emotion and method thereof Download PDF

Info

Publication number
KR102174175B1
KR102174175B1 KR1020180135303A KR20180135303A KR102174175B1 KR 102174175 B1 KR102174175 B1 KR 102174175B1 KR 1020180135303 A KR1020180135303 A KR 1020180135303A KR 20180135303 A KR20180135303 A KR 20180135303A KR 102174175 B1 KR102174175 B1 KR 102174175B1
Authority
KR
South Korea
Prior art keywords
emotion
face image
emotions
facial
value
Prior art date
Application number
KR1020180135303A
Other languages
Korean (ko)
Other versions
KR20200055811A (en
Inventor
김병규
김지해
정다미
Original Assignee
숙명여자대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숙명여자대학교산학협력단 filed Critical 숙명여자대학교산학협력단
Priority to KR1020180135303A priority Critical patent/KR102174175B1/en
Publication of KR20200055811A publication Critical patent/KR20200055811A/en
Application granted granted Critical
Publication of KR102174175B1 publication Critical patent/KR102174175B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • G06K9/00308
    • G06K9/00268
    • G06K9/00288
    • G06K9/481
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

본 발명은 입력된 얼굴 이미지로부터 감정을 식별하는 얼굴 감정 인식 장치 및 그 방법에 대한 것이다.
본 발명에 따르면, 입력된 얼굴 이미지로부터 감정을 식별하는 얼굴 감정 인식 장치에 있어서, 감정 인식 대상이 되는 얼굴 이미지를 입력받고, 입력된 얼굴 이미지로부터 얼굴 이미지 전체에 대한 특징을 추출하며, 추출된 특징으로부터 획득된 6개의 감정 중 상위 2개의 감정에 대한 정보를 전달하는 얼굴 특징 추출부, 상기 입력된 얼굴 이미지와 동일 인물에 대한 기본 얼굴 이미지에 각각 부여된 특징점을 비교하여 좌표의 차이를 산출하고, 상기 좌표의 차이값을 CNN알고리즘의해 적용하여 상위 2개의 감정에 대한 벡터값을 산출하는 기하학적 변화량 추출부, 그리고 상기 얼굴 특징 추출부로부터 추출된 감정 인식값과 상기 기하학적 변화량 추출부에서 산출된 벡터값에 각각 가중치를 부여하여 산출된 결과값 중 최고값을 가진 감정을 최종 감정으로 분류하는 감정 분류부를 포함한다.
본 발명에 따른 얼굴 표정 인식 장치는 종래의 알고리즘을 통해 획득한 상위 2 개의 감정 내에서 빈번하게 발생되는 감정인식 오류를 개선하고, 얼굴 특징을 통해 추출된 인식값과 기하학적 변화량을 통해 산출된 벡터값에 각각 가중치를 부여 결과값을 산출함으로써 정확도가 개선된 최종 감정이 결정되는 효과를 지닌다.
The present invention relates to a facial emotion recognition apparatus and method for identifying emotion from an input facial image.
According to the present invention, in a facial emotion recognition apparatus for identifying emotion from an input face image, a face image to be subjected to emotion recognition is input, a feature of the entire face image is extracted from the input face image, and the extracted feature A facial feature extraction unit that transmits information on the upper two emotions among the six emotions obtained from, and calculates a difference in coordinates by comparing the input face image with the feature points respectively assigned to the basic face image for the same person, A geometric change amount extracting unit that calculates vector values for two upper emotions by applying the difference value of the coordinates by the CNN algorithm, and the emotion recognition value extracted from the facial feature extracting unit and the vector value calculated by the geometric change amount extracting unit. And an emotion classifying unit for classifying the emotion having the highest value among the result values calculated by assigning a weight to each as a final emotion.
The facial expression recognition apparatus according to the present invention improves emotion recognition errors that frequently occur in the upper two emotions obtained through a conventional algorithm, and a vector value calculated through a recognition value extracted through facial features and a geometric change amount. Each weight is assigned to each and the result value is calculated, thereby having the effect of determining the final emotion with improved accuracy.

Description

감정을 식별하기 위한 얼굴 감정 인식 장치 및 그 방법{Facial emotional recognition apparatus for Identify Emotion and method thereof}TECHNICAL FIELD [0001] Facial emotion recognition apparatus for identifying emotions and method thereof

본 발명은 감정을 식별할 수 있는 얼굴 감정 인식 장치 및 그 방법 에 관한 것으로서, 더욱 상세하게는 학습 알고리즘을 이용하여 입력된 얼굴 이미지로부터 감정을 정확하게 식별할 수 있는 얼굴 감정 인식 장치 및 그 방법에 관한 것이다.The present invention relates to a facial emotion recognition device capable of identifying emotions and a method thereof, and more particularly, to a facial emotion recognition device capable of accurately identifying emotions from an input facial image using a learning algorithm and a method thereof. will be.

최근 사람과 기계 사람과 사람 사이의 소통을 위한 기술들은 인간의 상호작용에 주요한 역할을 하는 오감을 토대로 발달해왔다. 특히 최근에는 인공지능 기술의 발달로 애플사의 siri, 아마존사의 alex 그리고 인공지능 스피커인 SKT의 NUGU, 네이버의 클로바까지 사람의 음성과 언어를 인지하여 반응하는 기술로 사람의 일상 스케줄을 관리하거나, 좋아하는 음악을 재생하는 등 인공지능 로봇에 적용되어 실 생활에 긴밀한 상호작용을 하고 있다. 그러나 사람의 복잡하고 복합적인 상호작용을 이해하기 위해서는, 기술에서도 다양한 감각의 수용이 필요하다. Recently, human and machine technologies for communication between humans and humans have been developed based on the five senses that play a major role in human interaction. In particular, with the development of artificial intelligence technology in recent years, Apple's siri, Amazon's alex, and SKT's NUGU, an artificial intelligence speaker, and Naver's Clova, manage people's daily schedules with technologies that recognize and respond to people's voices and languages. It is applied to artificial intelligence robots, such as playing music that is played, and has a close interaction in real life. However, in order to understand the complex and complex interactions of people, it is necessary to accept various senses in technology.

그 중에서도 인간의 감각 중 50%이상의 인지 비율을 가지고 있는 시각에 대한 기술의 필요성이 중요하다. 인간의 얼굴은 사용자의 현재 상태를 이해할 수 있는 단서로써 중요한 정보를 제공한다. 지난 10년 동안 표정 분류 및 인식은 널리 연구되어 왔고 최근 데이터의 증가와 딥러닝 기술의 발전으로 보다 정확하게 실시간으로 감정을 인식하는 얼굴 인식 시스템 연구가 활발해지고 있다. Among them, the necessity of technology for vision, which has a cognitive ratio of 50% or more of human senses, is important. The human face provides important information as a clue to understand the user's current state. Facial expression classification and recognition have been widely studied for the past 10 years, and with the recent increase in data and the development of deep learning technology, research on a face recognition system that more accurately recognizes emotions in real time has become active.

그러나, 종래의 얼굴인식 시스템은 딥러닝 학습에 사용하기 위하여 방대한 양의 데이터를 필요로 하고, 감정 레이블이 있는 얼굴 표정 인식 데이터 셋이 부족한 문제점이 야기되었다. However, the conventional facial recognition system requires a large amount of data to be used for deep learning learning, and a problem of a lack of facial expression recognition data set with emotion labels is caused.

또한, 얼굴 표정 인식 데이터 셋은 순차적으로 변화가 있는 데이터 셋보다 정지 상태의 테이터 셋이 주를 이루고 있어, 공간적인 모습을 주로 사용하여 정확도가 떨어지는 문제점이 있었다, In addition, the facial expression recognition data set is mainly composed of the data set in a stationary state than the data set in which there is a change in sequence, so there is a problem that the accuracy is poor due to mainly using the spatial appearance.

본 발명의 배경이 되는 기술은 대한민국 공개특허공보 제10-2014-00876007호(2014.07.09. 공개)에 개시되어 있다.The technology behind the present invention is disclosed in Korean Patent Application Publication No. 10-2014-00876007 (published on July 9, 2014).

본 발명이 이루고자 하는 기술적 과제는, 학습 알고리즘을 이용하여 입력된 얼굴 이미지로부터 감정을 정확하게 식별할 수 있는 얼굴 감정 인식 장치 및 그 방법을 제공하는데 목적이 있다. An object of the present invention is to provide a facial emotion recognition apparatus and method capable of accurately identifying emotions from an input face image using a learning algorithm.

이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따르면, 입력된 얼굴 이미지로부터 감정을 식별하는 얼굴 감정 인식 장치에 있어서, 감정 인식 대상이 되는 얼굴 이미지를 입력받고, 입력된 얼굴 이미지로부터 얼굴 이미지 전체에 대한 특징을 추출하며, 추출된 특징으로부터 순위에 따라 나열된 6개의 감정을 획득하고, 획득된 6개의 감정 중 상위 2개의 감정에 대한 정보를 기하학적 변화량 추출부 및 감정분류부에 각각 전달하는 얼굴 특징 추출부, 상기 입력된 얼굴 이미지와 동일 인물에 대한 표정이 없는 기본 얼굴 이미지에 각각 부여된 특징점을 비교하여 좌표의 차이를 산출하고, CNN알고리즘에 의해 조합된 6개의 감정에 상기 좌표의 차이값을 적용하여 상위 2개의 감정에 대한 벡터값을 산출하는 기하학적 변화량 추출부, 그리고 상기 얼굴 특징 추출부로부터 전달받은 상위 2개의 감정으로부터 산출된 감정 인식값과 상기 기하학적 변화량 추출부에서 산출된 벡터값에 각각 가중치를 부여하여 상위 2개 감정에 대한 각각의 결과값을 산출하며, 산출된 결과값 중 최고값을 가진 감정을 분류하는 감정 분류부를 포함한다. According to an embodiment of the present invention for achieving such a technical problem, in a facial emotion recognition apparatus for identifying emotion from an input face image, a face image to be subjected to emotion recognition is input, and the entire face image is received from the input face image. Facial feature extraction that extracts features for, obtains six emotions listed according to ranking from the extracted features, and delivers information on the top two emotions among the obtained six emotions to the geometrical variation extraction unit and the emotion classification unit, respectively. Second, the difference in coordinates is calculated by comparing the feature points assigned to the input face image and the basic face image without facial expressions for the same person, and the difference in coordinates is applied to the six emotions combined by the CNN algorithm. Thus, a geometrical change amount extracting unit that calculates vector values for the upper two emotions, and an emotion recognition value calculated from the upper two emotions transmitted from the facial feature extracting unit and a vector value calculated by the geometrical change amount extracting unit are weighted respectively. And an emotion classifying unit that calculates each result value for the upper two emotions by assigning to and classifies the emotion having the highest value among the calculated result values.

상기 감정은, 행복, 슬픔, 두려움, 혐오감, 놀람 및 분노를 포함한 6가지로 분류될 수 있다. The emotions can be classified into six categories including happiness, sadness, fear, disgust, surprise and anger.

상기 얼굴 특징 추출부는, 상기 감정 인식 대상이 되는 얼굴 이미지를 입력받는 이미지 입력모듈, 상기 입력된 얼굴 이미지로부터 얼굴 영역을 분리하는 얼굴 영역 인식모듈, 상기 분리된 얼굴 이미지를 오토인코더(autoencoder)에 적용하여 상기 입력된 얼굴 이미지로부터 기본 얼굴 이미지를 생성하여 기하학적 변화량 추출부로 전달하는 얼굴생성모듈, LBP(local binary pattern) 알고리즘을 이용하여 상기 입력된 얼굴 이미지로부터 얼굴의 주요 특징 정보를 추출하는 얼굴 특징 추출모듈, 그리고 상기 추출된 얼굴의 주요 특징정보를 CNN알고리즘에 적용하여 6가지의 감정 결과를 산출하고, 산출된 6가지의 감정 결과 중에서 상위 2개에 해당하는 감정을 기하학적 변화량 추출부 및 감정분류부에 각각 전달하는 판단모듈을 포함할 수 있다. The facial feature extraction unit may include an image input module receiving an input of a face image subject to emotion recognition, a face region recognition module separating a face region from the input face image, and applying the separated face image to an autoencoder A face generation module that generates a basic face image from the input face image and transmits it to the geometric change amount extraction unit, and facial feature extraction that extracts main feature information of the face from the input face image using a local binary pattern (LBP) algorithm. The module and the extracted main feature information of the face are applied to the CNN algorithm to calculate six emotion results, and the emotion corresponding to the top two among the calculated six emotion results is determined by a geometric change amount extraction unit and an emotion classification unit. It may include a determination module that is transmitted to each.

상기 얼굴생성모듈은, 동일인에 대하여 표정이 있는 얼굴 이미지와 표정이 없는 기본 얼굴이미지를 이용하여 2개의 얼굴 이미지 사이의 특징값 차이로부터 발생되는 에러를 학습시켜 데이터셋을 생성하며, 상기 생성된 데이터셋이 적용된 오토인코더(autoencoder)를 이용하여 상기 감정 인식 대상이 되는 얼굴 이미지로부터 상기 기본 얼굴 이미지를 생성할 수 있다. The face generation module generates a dataset by learning an error arising from a difference in feature values between two face images using a facial image with an expression and a basic face image without an expression for the same person, and generates the data set. The basic face image may be generated from the face image that is the emotion recognition target by using an autoencoder to which the set is applied.

상기 얼굴 특징 추출모듈은, 상기 얼굴 영역만 분리된 얼굴 이미지에 블러링(blurring)을 적용하여 노이즈를 제거한 다음, LBP알고리즘을 이용하여 주요 액션 유니트(action units) 위주로 특징을 추출할 수 있다. The facial feature extraction module may apply blurring to a face image in which only the face area is separated to remove noise, and then extract features mainly in main action units using an LBP algorithm.

상기 LBP알고리즘은, 하기 수학식에 의해 산출될 수 있다. The LBP algorithm may be calculated by the following equation.

Figure 112018110076570-pat00001
,
Figure 112018110076570-pat00002
Figure 112018110076570-pat00001
,
Figure 112018110076570-pat00002

여기서,

Figure 112018110076570-pat00003
는 입력된 얼굴 이미지에 선택된 현재의 픽셀이고,
Figure 112018110076570-pat00004
Figure 112018110076570-pat00005
의 이웃에 분포된 픽셀이고,
Figure 112018110076570-pat00006
은 현재의 픽셀과 이웃의 픽셀을 비교하여 0 또는 1로 산출된 값이고, P는 8로, 비교하고자 하는 이웃 픽셀의 개수이다. 따라서 p는 0부터 7까지 현재의 픽셀의 왼쪽 상단에 위치한 이웃 픽셀부터 시계방향으로 부여된다.here,
Figure 112018110076570-pat00003
Is the current pixel selected in the input face image,
Figure 112018110076570-pat00004
Is
Figure 112018110076570-pat00005
Are pixels distributed in the neighborhood of
Figure 112018110076570-pat00006
Is a value calculated as 0 or 1 by comparing the current pixel with a neighboring pixel, and P is 8, which is the number of neighboring pixels to be compared. Therefore, p is given from 0 to 7 in a clockwise direction from a neighboring pixel located at the top left of the current pixel.

상기 판단모듈은, 상기 LBP알고리즘이 적용된 상기 입력된 얼굴 이미지에 복수의 컨볼루션(convolution)을 적용하여 6가지의 감정을 산출하고, 산출된 6가지의 감정 중에서 상위 2개에 해당하는 감정을 분류할 수 있다. The determination module calculates six emotions by applying a plurality of convolutions to the input face image to which the LBP algorithm is applied, and classifies emotions corresponding to the top two among the calculated six emotions. can do.

상기 기하학적 변화량 추출부는, 상기 감정 인식 대상이 되는 얼굴 이미지를 입력받는 이미지 입력모듈, 상기 입력된 얼굴 이미지와 상기 얼굴 생성모듈로부터 전달받은 기본 얼굴 이미지에 액션 유니트(action units)를 중심으로 특징점을 생성하는 특징점 생성모듈, 상기 생성된 특징점을 이용하여 상기 입력된 얼굴 이미지와 상기 기본 얼굴 이미지를 비교 판단하고, 차이가 발생된 특징점에 대한 좌표 차이를 이용하여 벡터값을 산출하는 벡터값 산출모듈, 그리고 상기 판단모듈로부터 수신된 상위 2개의 감정에 대응되며, 상기 벡터값 산출모듈에서 산출된 벡터값을 CNN알고리즘에 적용하여 조합된 6개의 감정 중에서 상위 2개에 해당하는 감정을 선택하는 감정결과 산출 모듈을 포함할 수 있다. The geometrical change amount extracting unit generates feature points based on action units on an image input module receiving an input of the face image to be subjected to emotion recognition, the input face image and a basic face image transmitted from the face generation module. A feature point generation module, a vector value calculation module that compares and determines the input face image and the basic face image using the generated feature point, and calculates a vector value using a coordinate difference for the feature point where the difference occurs, and An emotion result calculation module that corresponds to the upper two emotions received from the determination module, and selects emotions corresponding to the upper two among the six emotions combined by applying the vector value calculated by the vector value calculation module to the CNN algorithm It may include.

상기 벡터값 산출모듈은, 하기 수학식에 의해 벡터값을 산출할 수 있다. The vector value calculation module may calculate a vector value by the following equation.

Figure 112018110076570-pat00007
Figure 112018110076570-pat00007

여기서, (

Figure 112018110076570-pat00008
,
Figure 112018110076570-pat00009
)는 표정이 있을 때의 특징점에 대한 좌표값이고, (
Figure 112018110076570-pat00010
,
Figure 112018110076570-pat00011
)는 표정이 없을 때의 특징점에 대한 좌표값이다. here, (
Figure 112018110076570-pat00008
,
Figure 112018110076570-pat00009
) Is the coordinate value for the feature point when there is an expression, and (
Figure 112018110076570-pat00010
,
Figure 112018110076570-pat00011
) Is the coordinate value for the feature point when there is no expression.

상기 감정 분류부는, 상기 얼굴 특징 추출부로부터 상위 2가지의 감정에 대한 정보를 전달받는 감정수신모듈, 상기 얼굴 특징 추출부로부터 전달받은 상위 2가지의 감정을 감정 인식값으로 산출하여 정규화하는 인식값 산출모듈, 그리고 상기 얼굴 특징 추출부의 상위 2가지의 감정에 대한 인식값과 상기 기하학적 변화량 추출부로부터 전달받은 상위 2가지의 감정에 대한 벡터값에 가중치를 부여하여 상기 상위 2가지의 감정에 대해 결과값을 산출하며, 산출된 결과값 중에서 최고 값이 부여된 감정을 상기 감정 인식 대상이 되는 얼굴 이미지에 대한 감정으로 결정할 수 있다. The emotion classification unit includes an emotion receiving module for receiving information on the upper two emotions from the facial feature extraction unit, and a recognition value for calculating and normalizing the upper two emotions transmitted from the facial feature extraction unit as an emotion recognition value. The calculation module, and the recognition values for the upper two emotions of the facial feature extracting unit and the vector values for the upper two emotions transmitted from the geometrical variation extracting unit, are weighted to result in the upper two emotions. A value is calculated, and an emotion to which the highest value is assigned among the calculated result values may be determined as the emotion for the face image to be the emotion recognition target.

상기 감정 분류부는, 하기 수학식에 의해 상기 상위 2가지의 감정에 대해 결과값을 산출할 수 있다. The emotion classification unit may calculate result values for the upper two emotions by the following equation.

Figure 112018110076570-pat00012
Figure 112018110076570-pat00012

여기서,

Figure 112018110076570-pat00013
는 얼굴 특징 추출부에서 추출된 감정에 대한 인식값이고,
Figure 112018110076570-pat00014
는 기하학적 변화량 추출부에서 추출된 감정에 대한 벡터값이며,
Figure 112018110076570-pat00015
는 가중치 값을 나타낸다. here,
Figure 112018110076570-pat00013
Is the recognition value for the emotion extracted from the facial feature extraction unit,
Figure 112018110076570-pat00014
Is a vector value for the emotion extracted from the geometric change amount extraction unit,
Figure 112018110076570-pat00015
Represents the weight value.

상기 가중치 값은 0.7과 0.8의 사이의 값으로 설정될 수 있다. The weight value may be set to a value between 0.7 and 0.8.

또한, 본 발명은 감정 인식 대상이 되는 얼굴 이미지로부터 얼굴 이미지 전체에 대한 특징을 추출하고, 상기 추출된 얼굴 특징으로부터 획득된 6개의 감정 중 상위 2개의 감정에 대한 정보를 추출하는 단계,In addition, the present invention includes the steps of extracting features for the entire face image from the face image subject to emotion recognition, and extracting information on the upper two emotions among the six emotions obtained from the extracted facial features,

상기 입력된 얼굴 이미지와 동일 인물에 대한 표정이 없는 기본 얼굴 이미지에 각각 부여된 특징점을 비교하여 좌표의 차이를 산출하고, 상기 산출된 좌표의 차이값을 CNN알고리즘에 적용하여 상위 2개의 감정에 대한 벡터값을 산출하는 단계, 그리고The input face image and the feature points assigned to the basic face image without expression for the same person are compared to calculate the difference in coordinates, and the calculated difference value of the coordinates is applied to the CNN algorithm for the upper two emotions. Calculating the vector value, and

상기 얼굴 특징으로부터 산출된 상위 2개의 감정에 대한 인식값과 특징점의 차이를 이용하여 산출된 상위 2개의 감정에 대한 벡터값에 각각 가중치를 부여하여 상위 2개 감정에 대한 각각의 결과값을 산출하고, 산출된 결과값 중 최고값을 가진 감정을 최종 감정으로 분류하는 단계를 포함한다. Each result value for the upper two emotions is calculated by assigning a weight to each of the vector values for the upper two emotions calculated using the difference between the recognition values for the upper two emotions calculated from the facial features and the feature point, and And classifying the emotion having the highest value among the calculated result values as final emotions.

이와 같이 본 발명에 따르면, 종래의 알고리즘을 통해 획득한 상위 2 개의 감정 내에서 빈번하게 발생되는 감정인식 오류를 개선하고, 동적, 또는 정적인 상태의 특징으로 모두 사용 가능하며, 얼굴 특징 통해 추출된 인식값과 특징점의 기하학적 변화량을 통해 산출된 벡터값에 각각 가중치를 부여 결과값을 산출함으로써 정확도가 개선된 최종 감정이 결정되는 효과를 도모할 수 있다. As described above, according to the present invention, it is possible to improve emotion recognition errors that frequently occur in the upper two emotions obtained through a conventional algorithm, and can be used both as features of a dynamic or static state, and extracted through facial features. A weight is applied to the vector value calculated through the geometric change of the recognition value and the feature point, and the result value is calculated, thereby achieving an effect of determining a final emotion with improved accuracy.

또한, 본 발명은 별도의 데이터 셋이 없어도 입력된 얼굴 이미지에서 기본 얼굴 이미지를 추출할 수 있으므로 데이터 셋의 부족 문제를 해결하고, 공간적인 데이터 셋이 아닌 정적인 데이터 셋으로부터 동적인 정보 추출이 가능한 효과를 지닌다. In addition, since the present invention can extract a basic face image from an input face image even without a separate data set, it is possible to solve the problem of lack of data set and to extract dynamic information from a static data set rather than a spatial data set. It has an effect.

또한, 본 발명은 감정을 은폐하려는 정서 상태 시, 변화의 정도가 적고 짧은 시간을 가지기 때문에, 부분적인 액션 유니트의 강도 측정과 높은 프레임 수를 분석함으로써, 더 세밀하고 포괄적인 분석이 가능한 효과를 지닌다. In addition, the present invention has the effect of enabling a more detailed and comprehensive analysis by measuring the strength of a partial action unit and analyzing a high number of frames because the degree of change is small and has a short time in the emotional state to conceal the emotion. .

도 1은 본 발명의 실시예에 따른 얼굴 표정 인식 장치에 관한 구성도이다.
도 2는 도 1에 도시된 얼굴 특징 추출부에 대한 구성도이다.
도 3은 도 1에 도시된 기하학적 변화량 추출부 에 대한 구성도이다.
도 4는 도 3의 특징점 생성모듈에서 생성된 특징점을 개략적으로 설명하기 위한 도면이다.
도 5는 도 1에 도시된 감정분류부에 대한 구성을 나타내는 도면이다.
도 6은 본 발명의 실시예에 따른 얼굴 감정 인식 장치를 이용한 감정 식별 방법을 개략적으로 설명하기 위한 순서도이다.
도 7은 도 6에 도시된 S610 단계를 설명하기 위한 순서도이다.
도 8은 도 7에 도시된 S613단계에서 오토인코더를 통해 얼굴 이미지로부터 기본 얼굴 이미지를 생성하는 예를 도시한 도면이다.
도 9는 7에 도시된 S614단계에서 LBP알고리즘을 통해 특징을 추출하는 방법을 도시한 도면이다.
도 10은 7에 도시된 S615단계에서 판단 모듈로부터 상위 2개의 감정을 추출하는 방법을 예시한 도면이다.
도 11은 도 6에 도시된 S620 단계를 설명하기 위한 순서도이다.
도 12는 도 11에 도시된 S623단계에서 얼굴이미지와 기본이미지의 차이를 개략적으로 설명하기 위한 도면이다.
도 13은 도 6에 도시된 S630 단계를 설명하기 위한 순서도이다.
도 14는 도 8에 도시된 S634 단계에서 부여되는 가중치 값에 대한 그래프이다.
1 is a block diagram of an apparatus for recognizing facial expressions according to an embodiment of the present invention.
FIG. 2 is a configuration diagram of a facial feature extraction unit illustrated in FIG. 1.
3 is a configuration diagram of a geometric change amount extraction unit shown in FIG. 1.
FIG. 4 is a diagram schematically illustrating a feature point generated by the feature point generation module of FIG. 3.
5 is a diagram showing the configuration of the emotion classification unit shown in FIG.
6 is a flowchart schematically illustrating an emotion identification method using a facial emotion recognition apparatus according to an embodiment of the present invention.
FIG. 7 is a flow chart for explaining step S610 shown in FIG. 6.
FIG. 8 is a diagram illustrating an example of generating a basic face image from a face image through an autoencoder in step S613 shown in FIG. 7.
9 is a diagram illustrating a method of extracting a feature through the LBP algorithm in step S614 shown in FIG. 7.
10 is a diagram illustrating a method of extracting the upper two emotions from the determination module in step S615 shown in FIG. 7.
11 is a flow chart for explaining step S620 shown in FIG.
12 is a diagram schematically illustrating a difference between a face image and a basic image in step S623 illustrated in FIG. 11.
FIG. 13 is a flowchart for explaining step S630 shown in FIG. 6.
14 is a graph of a weight value assigned in step S634 shown in FIG. 8.

이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this process, the thickness of the lines or the size of components shown in the drawings may be exaggerated for clarity and convenience of description.

또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of users or operators. Therefore, definitions of these terms should be made based on the contents throughout the present specification.

이하에서는 도 1을 이용하여 본 발명의 실시예에 따른 얼굴 표정 인식 장치에 대하여 설명한다. Hereinafter, an apparatus for recognizing facial expressions according to an embodiment of the present invention will be described with reference to FIG. 1.

도 1은 본 발명의 실시예에 따른 얼굴 표정 인식 장치에 관한 구성도이다.1 is a block diagram of an apparatus for recognizing facial expressions according to an embodiment of the present invention.

도 1에 나타난 바와 같이, 본 발명의 실시예에 따른 얼굴 표정 인식 장치(100)는 얼굴 특징 추출부(110), 기하학적 변화량 추출부(120), 감정 분류부(130)를 포함한다. As shown in FIG. 1, the facial expression recognition apparatus 100 according to an embodiment of the present invention includes a facial feature extraction unit 110, a geometric change amount extraction unit 120, and an emotion classification unit 130.

먼저, 얼굴 특징 추출부(110)는 사용자로부터 감정 인식 대상이 되는 얼굴 이미지를 입력받고, 입력된 얼굴 이미지로부터 얼굴 이미지 전체에 대한 특징을 추출한다. First, the facial feature extraction unit 110 receives a face image that is an emotion recognition target from a user, and extracts features of the entire face image from the input face image.

그 다음, 얼굴 특징 추출부(110)는 얼굴 이미지 전체에서 추출된 특징으로부터 순위에 따라 나열된 6개의 감정을 획득하고, 획득된 6개의 감정 중 상위 2개의 감정에 대한 정보를 기하학적 변화량 추출부(120) 및 감정분류부(130)에 각각 전달한다. Then, the facial feature extraction unit 110 acquires six emotions listed according to ranking from the features extracted from the entire face image, and obtains information on the upper two emotions among the obtained six emotions, and the geometric change amount extraction unit 120 ) And the emotion classification unit 130, respectively.

기하학적 변화량 추출부(120)는 입력된 얼굴 이미지와 동일 인물에 대한 표정이 없는 기본 얼굴 이미지에 각각 부여된 특징점을 비교하여 좌표의 차이를 산출한다. 그 다음, 기하학적 변화량 추출부(120)는 산출된 좌표의 차이값을 CNN알고리즘에 적용하여 조합된 6개의 감정 중에서 상위 2개의 감정에 대한 벡터값을 산출한다. The geometrical change amount extracting unit 120 calculates a difference in coordinates by comparing the input face image with the feature points respectively assigned to the basic face image without an expression for the same person. Then, the geometric change amount extraction unit 120 calculates vector values for the upper two emotions among the six emotions combined by applying the calculated difference value of the coordinates to the CNN algorithm.

감정 분류부(130)는 얼굴 특징 추출부(110)에서 추출된 상위 2개 에 대한 감정정보와 기하학적 변화량 추출부(120)에서 추출된 상위 2개의 감정에 대한 벡터값에 각각 가중치를 부여하여 결과값을 산출한다. 감정 분류부(130)는 산출된 결과값을 이용하여 상위 2개 감정 중에서 최고값을 가진 감정을 최종 감정으로 결정한다. The emotion classification unit 130 gives a weight to each of the emotion information for the upper two extracted by the facial feature extraction unit 110 and the vector values for the upper two emotions extracted by the geometric change amount extraction unit 120, Calculate the value. The emotion classifying unit 130 determines the emotion having the highest value among the two upper emotions as the final emotion by using the calculated result value.

이하에서는 도 2를 통하여 본 발명의 실시예에 따른 얼굴 특징 추출부(110)에 대하여 설명한다. Hereinafter, a facial feature extraction unit 110 according to an embodiment of the present invention will be described with reference to FIG. 2.

도 2는 도 1에 도시된 얼굴 특징 추출부에 대한 구성도이다. FIG. 2 is a configuration diagram of a facial feature extraction unit illustrated in FIG. 1.

얼굴 특징 추출부(110)는 입력된 감정 인식 대상이 되는 얼굴 이미지로부터 얼굴 영역을 추척하고, 추척된 얼굴 영역에서 특징을 추출하는 것으로서, 이미지 입력모듈(111), 얼굴 영역 인식모듈(112), 얼굴생성모듈(113), 얼굴 특징 추출 모듈(114) 및 판단모듈(115)을 포함한다. The facial feature extraction unit 110 tracks a face area from an input facial image to be recognized for emotion, and extracts features from the tracked face area, and includes an image input module 111, a face area recognition module 112, A face generation module 113, a facial feature extraction module 114, and a determination module 115 are included.

먼저, 이미지 입력모듈(111)은 사용자가 입력한 얼굴 이미지를 수신한다. 수신된 얼굴 이미지는 감정 인식 대상으로서, 이미지 입력모듈(111)은 수신된 얼굴이미지를 영역 인식모듈(112)에 전달한다. First, the image input module 111 receives a face image input by a user. The received face image is an emotion recognition object, and the image input module 111 delivers the received face image to the region recognition module 112.

얼굴 영역 인식모듈(112)은 전달받은 얼굴 이미지로부터 얼굴 영역만을 분리한다. The face region recognition module 112 separates only the face region from the received face image.

이때, 얼굴 영역 인식모듈(112)이 얼굴 영역만을 분리하는 이유는 이미지 내에 포함된 인물의 위치, 인물이 착용하고 있는 세서리, 햇빛 및 인물이 착용하고 있는 의상 등의 환경 변수에 따라 감정 인식의 정확도가 떨어지는 것을 방지하기 위함이다. At this time, the reason why the face region recognition module 112 separates only the face region is the accuracy of emotion recognition according to environmental variables such as the position of the person included in the image, the accessories worn by the person, sunlight and the clothes worn by the person. This is to prevent falling.

얼굴생성모듈(113)은 전달받은 얼굴 영역만 분리된 얼굴 이미지로부터 기본 얼굴 이미지를 생성한다. 또한, 얼굴생성모듈(113)은 동일 인물에 대하여 얼굴이미지와 기본 얼굴이미지를 모두를 수집하여 데이터셋을 생성한다. The face generation module 113 generates a basic face image from the face image in which only the received face area is separated. In addition, the face generation module 113 generates a data set by collecting both a face image and a basic face image for the same person.

얼굴 특징 추출 모듈(114)은 얼굴 영역 인식 모듈(112)로부터 분리된 얼굴 이미지를 LBP(local binary pattern) 알고리즘에 적용하여 얼굴 전체의 주요 특징을 추출한다. 이를 다시 설명하면, 얼굴 특징 추출 모듈(114)은 얼굴 전체의 주요 특징을 추출하기 위하여 입력된 얼굴이미지의 각 픽셀에 대한 LBP을 산출하고, 산출된 LBP 이미지 결과에 따라 질감 형태로 나타낸 얼굴이미지를 판단모듈(115)에 전달한다. The facial feature extraction module 114 extracts main features of the entire face by applying the face image separated from the face region recognition module 112 to a local binary pattern (LBP) algorithm. In other words, the facial feature extraction module 114 calculates the LBP for each pixel of the input face image in order to extract the main features of the entire face, and generates a face image expressed in a texture form according to the calculated LBP image result. It is transmitted to the determination module 115.

판단모듈(115)은 전달받은 질감 형태의 얼굴이미지를 CNN알고리즘에 적용하여 6가지의 감정 결과를 산출한다. The determination module 115 calculates six emotion results by applying the received textured face image to the CNN algorithm.

산출된 6가지의 감정에 대한 정보는 순서에 따라 나열되며, 판단모듈(115)은 나열된 6가지의 감정에 대한 정보 중에서 순위가 높은 2가지의 감정 정보를 감정분류부(130)에 전달한다. The calculated information on the six emotions is arranged in order, and the determination module 115 transmits two emotion information having a high ranking among the information on the six emotions listed to the emotion classification unit 130.

이하에서는 도 3및 도 4를 통하여 본 발명의 실시예에 따른 기하학적 변화량 추출부(120)에 대하여 더욱 상세하게 설명한다. Hereinafter, the geometrical change amount extraction unit 120 according to an embodiment of the present invention will be described in more detail with reference to FIGS. 3 and 4.

도 3은 도 1에 도시된 기하학적 변화량 추출부 에 대한 구성도이고, 도 4는 도 3의 특징점 생성모듈에서 생성된 특징점을 개략적으로 설명하기 위한 도면이다. FIG. 3 is a configuration diagram of a geometric change amount extracting unit shown in FIG. 1, and FIG. 4 is a diagram schematically illustrating a feature point generated by the feature point generation module of FIG. 3.

기하학적 변화량 추출부(120)는 얼굴 이미지와 기본 얼굴이미지에 각각 부여된 특징점을 이용하여 변화량을 추출하고, 추출된 변화량을 이용하여 상위 2개의 감정에 대한 벡터값을 추출하는 것으로서, 이미지 입력모듈(121), 특징점 생성모듈(122), 벡터값 산출모듈(123) 및 감정결과 산출모듈(124)을 포함한다.The geometrical change amount extracting unit 120 extracts the amount of change using feature points respectively assigned to the face image and the basic face image, and extracts vector values for the upper two emotions by using the extracted amount of change. 121), a feature point generation module 122, a vector value calculation module 123, and an analysis result calculation module 124.

먼저, 이미지 입력모듈(121)은 사용자로부터 감정 인식 대상이 되는 얼굴 이미지를 입력받는다. First, the image input module 121 receives a face image that is an emotion recognition target from a user.

특징점 생성모듈(122)은 이미지 입력모듈(121)로부터 얼굴 이미지를 전달받고, 전달받은 얼굴이미지에 액션 유니트를 중심으로 특징점을 생성한다. The feature point generation module 122 receives a face image from the image input module 121 and generates a feature point based on the action unit on the received face image.

액션 유니트(action units)는 얼굴 표정을 지을 때 움직이는 주요 근육들을 지칭하는 것으로서, 특징점 생성모듈(122)은 도 4에 도시된 바와 같이, 눈썹, 눈, 코, 입 등에 대략 18개 정도의 특징점을 위치시킨다. Action units refer to major muscles that move when making facial expressions. As shown in FIG. 4, the feature point generation module 122 generates approximately 18 feature points such as eyebrows, eyes, nose, and mouth. Position.

상기와 같이 특징점을 생성함으로서, 얼굴이미지를 통해 감정을 식별할 때 조명으로부터의 영향을 줄일 수 있고, 얼굴 이미지와 기본 얼굴 이미지의 차이점을 통해 감정 식별이 용이한 효과를 지닌다. By generating the feature points as described above, it is possible to reduce the effect of lighting when identifying emotions through a face image, and it has an effect that it is easy to identify emotions through a difference between a face image and a basic face image.

한편, 특징점 생성모듈(122)은 얼굴 이미지에 생성된 특징점의 변화를 추적하기 위하여 기본 얼굴 이미지에도 특징점을 생성한다. 만약, 기본 얼굴 이미지에 대한 정보가 없을 경우에는 얼굴 특징 추출부(110)의 얼굴 생성모듈(112)에 생성된 기본 얼굴 이미지를 요청하여 수신한다. Meanwhile, the feature point generation module 122 also generates feature points in the basic face image in order to track changes in the feature points generated in the face image. If there is no information on the basic face image, the face generation module 112 of the facial feature extraction unit 110 requests and receives the generated basic face image.

벡터값 산출모듈(123)은 특징점 생성모듈(122)로부터 특징점이 생성된 얼굴 이미지와 기본 얼굴 이미지를 각각 전달받고, 얼굴 이미지와 기본 얼굴 이미지를 비교 판단하여 차이가 발생된 특징점에 대해 벡터값을 산출한다. The vector value calculation module 123 receives the face image and the basic face image from which the feature point is generated from the feature point generation module 122, and compares the face image and the basic face image to determine a vector value for the feature point where the difference occurs. Calculate.

이하에서는 도 5를 이용하여 본 발명의 실시예에 따른 감정분류부(130)에 대하여 더욱 상세하게 설명한다. Hereinafter, the emotion classification unit 130 according to an embodiment of the present invention will be described in more detail with reference to FIG. 5.

도 5는 도 1에 도시된 감정분류부에 대한 구성을 나타내는 도면이다. 5 is a diagram showing the configuration of the emotion classification unit shown in FIG.

도 5에 나타낸 바와 같이, 감정 분류부(130)는 얼굴 특징 추출부(110)에서 추출된 상위 2개의 감정에 대한 정보와 기하학적 변화량 추출부(120)에서 추출된 상위 2개의 감정에 대한 벡터값에 각각 가중치를 부여하여 최종 감정으로 결정할 수 있는 결과값을 산출하는 것으로서, 감정수신모듈(131), 인식값 산출모듈(132) 및 분류모듈(133)을 포함한다. As shown in FIG. 5, the emotion classification unit 130 includes information on the upper two emotions extracted by the facial feature extraction unit 110 and vector values for the upper two emotions extracted by the geometrical change amount extraction unit 120. Each weight is assigned to calculate a result value that can be determined as a final emotion, and includes an emotion receiving module 131, a recognition value calculation module 132, and a classification module 133.

감정수신모듈(131)은 얼굴 특징 추출부(110)로부터 상위 2가지의 감정에 대한 정보를 전달받는다. 이때, 특징 추출부(110)로부터 수신된 상위 2가지의 감정 정보는 값으로 산출된 것이 아니라 정보만을 포함한다. 따라서, 감정수신모듈(131)은 수신된 감정 정보를 인식값 산출모듈(132)에 전달한다. The emotion receiving module 131 receives information on the upper two emotions from the facial feature extraction unit 110. At this time, the upper two emotion information received from the feature extraction unit 110 is not calculated as a value, but includes only information. Accordingly, the emotion receiving module 131 transmits the received emotion information to the recognition value calculation module 132.

인식값 산출모듈(132)은 전달받은 상위 2가지의 감정에 대한 정보를 인식값으로 산출한다. 따라서, 인식값 산출모듈(132)은 감정에 대한 정보를 인식값으로 산출하여 정규화한다. The recognition value calculation module 132 calculates information on the received upper two emotions as a recognition value. Accordingly, the recognition value calculation module 132 calculates and normalizes information on emotion as a recognition value.

분류모듈(133)은 얼굴 특징 추출부(110)로부터 전달받아 획득한 상위 2가지의 감정에 대한 인식값과 기하학적 변화량 추출부(120)로부터 전달받은 상위 2가지의 감정에 대한 벡터값을 전달받는다. 그리고, 분류모듈(133)은 전달받은 인식값과 벡터값에 가중치를 부여하여 감정 인식 대상이 되는 얼굴 이미지에 대한 감정을 결정한다. The classification module 133 receives the recognition values for the top two emotions received from the facial feature extraction unit 110 and the vector values for the top two emotions received from the geometric change amount extraction unit 120. . In addition, the classification module 133 determines an emotion for a face image that is an emotion recognition target by assigning a weight to the received recognition value and the vector value.

이하에서는 도 6을 통하여 본 발명의 실시예에 따른 얼굴 감정 인식 장치(100)를 이용하여 감정을 식별할 수 있는 방법에 대하여 설명한다. Hereinafter, a method of identifying an emotion using the facial emotion recognition apparatus 100 according to an embodiment of the present invention will be described with reference to FIG. 6.

도 6은 본 발명의 실시예에 따른 얼굴 감정 인식 장치를 이용한 감정 식별 방법을 개략적으로 설명하기 위한 순서도이다. 6 is a flowchart schematically illustrating an emotion identification method using a facial emotion recognition apparatus according to an embodiment of the present invention.

도 6에 나타낸 바와 같이, 본 발명의 실시예에 따른 얼굴 감정 인식 장치(100)를 이용한 감정 식별 방법은 얼굴 특징 추출부로부터 상위 2개 감정에 대한 정보를 추출하는 단계(S610), 기하학적 변화량 추출부로부터 상위 2개 감정에 대한 벡터값을 추출하는 단계(S620) 및 최종 감정 분류단계(S630)을 포함한다. As shown in FIG. 6, in the emotion identification method using the facial emotion recognition apparatus 100 according to an embodiment of the present invention, the step of extracting information on the upper two emotions from the facial feature extracting unit (S610), extracting the geometric change amount A step of extracting vector values for the upper two emotions from the part (S620) and a final emotion classification step (S630).

먼저, 얼굴 특징 추출부(110)는 입력된 얼굴 이미지를 이용하여 얼굴 전체에 대한 특징을 추출하고, 추출된 특징으로부터 상위 2개 감정에 대한 정보를 추출한다(S610). First, the facial feature extraction unit 110 extracts features for the entire face using the input face image, and extracts information on the upper two emotions from the extracted features (S610).

그 다음, 기하학적 변화량 추출부(120)는 사용자가 입력한 얼굴 이미지와 얼굴 특징 추출부(110)로부터 수신된 기본 얼굴이미지에 특징점을 생성한다. 기하학적 변화량 추출부(120)는 생성된 특징점의 차이값을 이용하여 상위 2개 감정에 대한 벡터값을 산출한다(S620). Then, the geometrical change amount extraction unit 120 generates feature points in the face image input by the user and the basic face image received from the facial feature extraction unit 110. The geometric change amount extracting unit 120 calculates vector values for the upper two emotions by using the difference values between the generated feature points (S620).

상기와 같이, 얼굴 특징 추출부(110)에서 상위 2개 감정에 대한 정보를 추출하고, 기하학적 변화량 추출부(120)에서 상위 2개 감정에 대한 벡터값을 산출이 완료되면, 감정 분류부(130)는 인식값과 벡터값에 각각 가중치를 부여하여 결과값을 산출하고, 산출된 결과값을 이용하여 최종 감정 결정한다(S630).As described above, when the facial feature extraction unit 110 extracts information on the upper two emotions and the geometric change amount extraction unit 120 calculates vector values for the upper two emotions, the emotion classification unit 130 ) Calculates a result value by assigning a weight to each of the recognized value and the vector value, and determines a final emotion by using the calculated result value (S630).

하기에서는 앞서 기재된 각 단계를 더욱 상세하게 설명한다. In the following, each step described above will be described in more detail.

먼저, 도 7내지 도 10을 이용하여 얼굴 특징 추출부로부터 상위 2개 감정에 대한 정보를 추출하는 단계(S610)에 대해 더욱 상세하게 설명한다. First, a step (S610) of extracting information on the upper two emotions from the facial feature extraction unit will be described in more detail using FIGS. 7 to 10.

도 7은 도 6에 도시된 S610 단계를 설명하기 위한 순서도이고, 도 8은 도 7에 도시된 S613단계에서 오토인코더를 통해 얼굴 이미지로부터 기본 얼굴 이미지를 생성하는 예를 도시한 도면이고, 도 9는 7에 도시된 S614단계에서 LBP알고리즘을 통해 특징을 추출하는 방법을 도시한 도면이고, 도 10은 7에 도시된 S615단계에서 판단 모듈로부터 상위 2개의 감정을 추출하는 방법을 예시한 도면이다. 7 is a flow chart for explaining step S610 shown in FIG. 6, and FIG. 8 is a diagram showing an example of generating a basic face image from a face image through an autoencoder in step S613 shown in FIG. FIG. 7 is a diagram illustrating a method of extracting features through the LBP algorithm in step S614 shown in FIG. 7, and FIG. 10 is a diagram illustrating a method of extracting the upper two emotions from the determination module in step S615 shown in FIG.

도 7에 나타낸 바와 같이, 얼굴 특징 추출부로부터 상위 2개 감정에 대한 정보를 추출하는 단계(S610)는 얼굴 이미지 입력단계(S611), 얼굴 영역 분리 단계(S612), 기본 얼굴 생성단계(S613). LBP알고리즘을 통해 얼굴 특징 추출단계(S614) 및 상위 2가지 감정 정보 전달단계(S615)를 포함한다. As shown in FIG. 7, the step of extracting information on the upper two emotions from the facial feature extraction unit (S610) includes a face image input step (S611), a face region separation step (S612), and a basic face generation step (S613). . It includes a facial feature extraction step (S614) and the upper two emotion information delivery step (S615) through the LBP algorithm.

먼저, 얼굴 특징 추출부(110)의 이미지 입력모듈(111)은 사용자로부터 인식 대상이 되는 얼굴 이미지를 입력받는다(S611).First, the image input module 111 of the facial feature extraction unit 110 receives a face image to be recognized from a user (S611).

이미지 입력모듈(111)은 입력받은 얼굴이미지를 이미지 입력모듈(112)에 전달하고, 이미지 입력모듈(112)은 전달받은 얼굴 이미지에서 얼굴 영역만 분리한다(S612).The image input module 111 transfers the received face image to the image input module 112, and the image input module 112 separates only the face area from the received face image (S612).

상기에서 분리된 얼굴 이미지는 얼굴 생성 모듈(113)과 얼굴 특징 추출모듈(114)에 각각 전달한다. The separated face image is transmitted to the face generation module 113 and the face feature extraction module 114, respectively.

먼저, 얼굴생성모듈(113)은 생성된 데이터 셋을 기반으로 감정 인식 대상이 되는 얼굴 이미지로부터 기본 얼굴이미지를 생성한다(S613).First, the face generation module 113 generates a basic face image from a face image that is an emotion recognition target based on the generated data set (S613).

이에 대하여 자세하게 설명하면, 먼저, 얼굴생성모듈(113)은 도 8에 나타낸 바와 같이, 동일 인물로부터 획득한 얼굴 이미지와 기본 얼굴 이미지를 VGG19 네트워크 구조가 차용된 오토인코더(autoencoder)의 인풋(input)과 아웃풋(output)에 각각 입력한다. To explain this in detail, first, as shown in FIG. 8, the face generation module 113 inputs a face image and a basic face image obtained from the same person into an autoencoder using a VGG19 network structure. And output respectively.

이때, 오토인코더(autoencoder)는 다차원 입력 데이터를 저차원 부호로 바꾸고, 다시 저차원 부호를 처음 입력한 다차원 데이터로 바꾸면서 차이값을 찾아내는 것이다.In this case, the autoencoder finds a difference value by changing the multidimensional input data into a low-dimensional code and then converting the low-dimensional code into the first input multidimensional data.

상기와 같이, 얼굴생성모듈(113)은 오토인코더(autoencoder)를 통해 얼굴 이미지와 기본 얼굴 이미지 사이에 발생되는 차이값을 반복적으로 산출하여 데이터 셋을 생성한다.As described above, the face generation module 113 generates a data set by repeatedly calculating a difference value generated between the face image and the basic face image through an autoencoder.

따라서, 얼굴생성모듈(113)은 사용자로부터 입력된 얼굴 이미지가 감정은 알 수 없되 표정이 발생된 이미지 하나일 경우, 딥러닝된 데이터셋에 의해 산출된 차이값을 입력된 얼굴 이미지에 적용하여 기본 얼굴 이미지를 생성한다. Therefore, when the face image input from the user is one image in which emotions are unknown but expressions are generated, the face generation module 113 applies the difference value calculated by the deep-learned dataset to the input face image. Create a face image.

한편, 분리된 얼굴 이미지를 전달받은 얼굴 특징 추출모듈(114)은 분리 얼굴 이미지로부터 얼굴 전체 특징을 추출한다(S614). Meanwhile, the facial feature extraction module 114 receiving the separated face image extracts the entire face feature from the separated face image (S614).

이때, 얼굴 특징 추출모듈(114)에서 추출되는 얼굴 전체 특징은 얼굴 이미지에 포함된 복수의 픽셀에서 특징값을 산출하고, 산출된 특징값에 따라 유채색으로 나타나 있던 얼굴 이미지를 무채색으로 표현하되 질감이 있는 것처럼 나타낸다. At this time, for the entire face feature extracted by the facial feature extraction module 114, a feature value is calculated from a plurality of pixels included in the face image, and the face image that has been shown in a chromatic color according to the calculated feature value is expressed in an achromatic color, but the texture is It appears as if it exists.

따라서, 얼굴 특징 추출모듈(114)은 LBP(local binary pattern) 알고리즘을 이용하여 특징값을 산출한다. Accordingly, the facial feature extraction module 114 calculates a feature value using a local binary pattern (LBP) algorithm.

LBP(local binary pattern) 알고리즘은 이미지의 질감을 효율적으로 나타내는 것으로서, 이미지의 모든 픽셀에 대해 각 픽셀의 주변 영역의 상대적인 밝기 변화를 이진수로 코딩한 값을 산출한다. 즉, 중앙 픽셀보다 밝으면 1, 어두우면 0으로 코딩하고, 코딩된 값들을 연결한 이진수를 해당 픽셀의 특징값으로 사용하며, 현재 픽셀의 LBP는 하기 수학식 1를 이용하여 계산한다. The LBP (local binary pattern) algorithm efficiently expresses the texture of an image, and calculates a value obtained by coding the relative brightness change of the surrounding area of each pixel for all pixels of the image in binary numbers. That is, if it is brighter than the center pixel, it is coded as 1, and if it is dark, it is coded as 0, and a binary number connecting the coded values is used as the feature value of the pixel, and the LBP of the current pixel is calculated using Equation 1 below.

Figure 112018110076570-pat00016
Figure 112018110076570-pat00016

여기서,

Figure 112018110076570-pat00017
는 입력된 얼굴 이미지에 선택된 현재의 픽셀이고,
Figure 112018110076570-pat00018
Figure 112018110076570-pat00019
의 이웃에 분포된 픽셀이고,
Figure 112018110076570-pat00020
은 현재의 픽셀과 이웃의 픽셀을 비교하여 0 또는 1로 산출된 값이다. 또한, P는 8로, 비교하고자 하는 이웃 픽셀의 개수이다. 따라서 p는 0부터 7까지 현재의 픽셀의 왼쪽 상단에 위치한 이웃 픽셀부터 시계방향으로 부여된다.here,
Figure 112018110076570-pat00017
Is the current pixel selected in the input face image,
Figure 112018110076570-pat00018
Is
Figure 112018110076570-pat00019
Are pixels distributed in the neighborhood of
Figure 112018110076570-pat00020
Is a value calculated as 0 or 1 by comparing the current pixel with a neighboring pixel. Also, P is 8, which is the number of neighboring pixels to be compared. Therefore, p is given from 0 to 7 in a clockwise direction from a neighboring pixel located at the top left of the current pixel.

예를 들어 설명하면, 도 9에 도시된 바와 같이, 현재의 픽셀을 중심으로 이웃하고 있는 8개의 픽셀을 이용한다. 현재 픽셀값(

Figure 112018110076570-pat00021
)이 65이고, 주변 픽셀값(
Figure 112018110076570-pat00022
)이 70,66,58,60,60,64,68,69값을 가진다고 가정한 상태에서,
Figure 112018110076570-pat00023
)식을 대입하면, 5, 1, -7, -5, -5, -1, 3, 4가 산출된다. For example, as shown in FIG. 9, eight pixels adjacent to the current pixel are used. Current pixel value (
Figure 112018110076570-pat00021
) Is 65, and the surrounding pixel value (
Figure 112018110076570-pat00022
) Is assumed to have values of 70,66,58,60,60,64,68,69,
Figure 112018110076570-pat00023
Substituting the equation) yields 5, 1, -7, -5, -5, -1, 3, 4.

이때, 산출된

Figure 112018110076570-pat00024
값을 이진수로 변환하며, 이진수 변환 방법은 이웃의 픽셀이 현재의 픽셀보다 더 크거나 같은 경우 1로 변환하고, 현재의 픽셀이 더 작은 경우에는 0으로 변환한다. 따라서, 5, 1, -7, -5, -5, -1, 3, 4는 1,1,0,0,0,0,1,1로 변환한다. At this time, the calculated
Figure 112018110076570-pat00024
The value is converted to a binary number. In the binary conversion method, when the neighboring pixel is greater than or equal to the current pixel, it is converted to 1, and when the current pixel is smaller, it is converted to 0. Thus, 5, 1, -7, -5, -5, -1, 3, 4 convert to 1,1,0,0,0,0,1,1.

변환된 값을 2의 거듭제곱으로 곱하고 이를 다시 더하여 LBP를 계산한다. 즉, (1*1)+(1*2)+(0*4)+(0*8)+(0*16)+(0*32)+(1*64)+(1*128)로 계산하여 195를 산출한다. The converted value is multiplied by a power of 2 and added again to calculate the LBP. That is, (1*1)+(1*2)+(0*4)+(0*8)+(0*16)+(0*32)+(1*64)+(1*128) 195 is calculated.

상기와 같은 산출방법에 따라 얼굴 특징 모듈(114)은 입력된 얼굴이미지의 각 픽셀에 대한 LBP을 산출하여 입력받은 얼굴이미지를 질감 형태로 나타내고 이를 판단모듈(115)에 전달한다. According to the above calculation method, the facial feature module 114 calculates the LBP for each pixel of the input face image, displays the received face image in a texture form, and transmits it to the determination module 115.

한편, 얼굴 특징 추출모듈(114)은 얼굴 영역만 분리된 얼굴 이미지를 LBP알고리즘에 전용하기 전에 전처리 과정인 블러링(blurring)을 적용하여 노이즈를 제거한 다음, LBP알고리즘을 이용하여 주요 액션 유니트(action units) 위주로 특징을 추출한다. On the other hand, the facial feature extraction module 114 removes noise by applying blurring, a pre-processing process, before converting the face image separated by only the face region to the LBP algorithm, and then using the LBP algorithm to remove the noise. units) to extract features.

상기와 같이, 얼굴 특징 추출모듈(114)로부터 얼굴 특징에 대한 정보를 전달받은 판단모듈(115)은 특징 정보를 CNN알고리즘에 적용하여 6가지의 감정 결과를 산출한다. As described above, the determination module 115, which received information on the facial feature from the facial feature extraction module 114, applies the feature information to the CNN algorithm and calculates six emotion results.

한편, CNN알고리즘은 합성곱 신경망이라고 불리는 인공 신경망 알고리즘으로서, 입력 데이터가 2차원 형태로 존재하며, 컨볼루션 계층 및 풀링 계층을 포함한다. 이때, 컨볼루션 계층 및 풀링 계층은 얼굴 이미지에서 영역을 지정하고 값을 압축하는 과정을 진행한다. Meanwhile, the CNN algorithm is an artificial neural network algorithm called a convolutional neural network, in which input data exists in a two-dimensional form, and includes a convolutional layer and a pooling layer. At this time, the convolutional layer and the pooling layer designate a region in the face image and perform a process of compressing a value.

따라서, 판단모듈(115)은 전달받은 LBP 이미지를 CNN알고리즘에 입력하고 하기 표1에 기재된 바와 같이 3번의 컨볼루션 계층과 두번의 풀링 계층을 진행하여 마지막 소프트맥스 계층에 7개로 분류된 감정정보를 산출한다. Therefore, the determination module 115 inputs the received LBP image into the CNN algorithm, and proceeds with three convolutional layers and two pooling layers as shown in Table 1 below, so that the emotion information classified into seven in the last softmax layer is stored. Calculate.

Figure 112018110076570-pat00025
Figure 112018110076570-pat00025

이때, 7개의 감정은 행복, 슬픔, 두려움, 혐오감, 놀람 및 분노를 포함한 6가지와 하나의 무감정을 포함한다. 그러나, 본 발명에서는 무감정을 제외한 6가지 감정으로 분류한다. At this time, the seven emotions include six emotions, including happiness, sadness, fear, disgust, surprise, and anger, and one innocence. However, in the present invention, it is classified into six emotions excluding no emotions.

상기와 같이 6가지의 감정정보를 산출한 판단모듈(115)은 도 10에 나타낸 바와 같이, 순위에 따라 0부터 5까지 나열하며, 나열된 0부터 5까지의 감정 정보중에서 0과 1에 해당하는 상위 2가지의 감정정보를 기하학적 변화량 추출부(120)와 감정분류부(130)에 각각 전달한다(S615).As shown in FIG. 10, the determination module 115 calculating six kinds of emotion information as described above is arranged from 0 to 5 according to the rank, and is the highest level corresponding to 0 and 1 among the listed emotion information from 0 to 5. The two kinds of emotion information are transmitted to the geometrical change amount extraction unit 120 and the emotion classification unit 130, respectively (S615).

이하에서는 도 11및 도 12를 이용하여 기하학적 변화량 추출부로부터 상위 2개 감정에 대한 벡터값를 추출하는 단계(S620)에 대하여 더욱 상세하게 설명한다.Hereinafter, the step (S620) of extracting vector values for the upper two emotions from the geometric change amount extracting unit will be described in more detail using FIGS. 11 and 12.

도 11은 도 6에 도시된 S620 단계를 설명하기 위한 순서도이고, 도 12는 도 11에 도시된 S623단계에서 얼굴이미지와 기본이미지의 차이를 개략적으로 설명하기 위한 도면이다.FIG. 11 is a flowchart illustrating step S620 shown in FIG. 6, and FIG. 12 is a diagram schematically illustrating a difference between a face image and a basic image in step S623 shown in FIG.

도 11에 나타난 바와 같이, 기하학적 변화량 추출부(120)로부터 상위 2개 감정에 대한 벡터값를 추출하는 단계(S620)는 얼굴 이미지 입력단계(S621), 입력된 얼굴 이미지와 기본 얼굴 이미지에 특징점 생성단계(S622), 특징점 차이를 이용하여 벡터값 산출단계(S623) 및 상위 2가지 감정 벡터값 산출 단계(S624)를 포함한다. As shown in FIG. 11, the step of extracting the vector values for the upper two emotions from the geometric change amount extracting unit 120 (S620) is a face image input step (S621), a feature point generation step in the input face image and the basic face image. (S622), a vector value calculation step (S623) by using the feature point difference, and the upper two emotion vector values calculation step (S624).

먼저, 사용자로부터 감정을 식별하기 위한 얼굴이미지를 입력받는다(S621), First, a face image for identifying emotion is input from the user (S621),

이때, 사용자는 얼굴 이미지 하나만 입력할 수도 있고, 동일 인물에 대한 얼굴 이미지와 기본 얼굴이미지를 모두 입력할 수도 있다. In this case, the user may input only one face image, or both a face image and a basic face image for the same person.

상기와 같이, 얼굴 이미지를 입력받은 이미지 입력모듈(121)은 얼굴 이미지를 특징점 생성모듈(122)에 전달한다. 얼굴 이미지를 전달받은 특징점 생성모듈(122)은 얼굴이미지에 특징점을 생성한다(S622).As described above, the image input module 121 receiving the face image transmits the face image to the feature point generation module 122. The feature point generation module 122 receiving the face image generates feature points in the face image (S622).

이때, 특징점 생성모듈(122)은 얼굴 이미지와 기본 얼굴 이미지 모두에게 특징점을 생성하여, 얼굴 이미지에 생성된 특징점과 기본 얼굴 이미지에 생성된 특징점의 차이를 비교할 수 있도록 한다. 만약, 사용자로부터 기본 얼굴 이미지를 입력받지 못하였을 경우에는 앞서 기재된 바와 같이, 얼굴 특징 추출부(120)의 얼굴 생성 모듈(113)에 요청하여 기본 얼굴 이미지를 수신받는다. At this time, the feature point generation module 122 generates feature points in both the face image and the basic face image, so that the difference between the feature points generated in the face image and the feature points generated in the basic face image can be compared. If a basic face image is not received from the user, as described above, a request is made to the face generation module 113 of the facial feature extraction unit 120 to receive the basic face image.

상기와 같이 얼굴 이미지와 기본 얼굴 이미지 모두에 특징점을 생성한 특징점 생성모듈(122)은 얼굴 이미지와 기본 얼굴 이미지를 벡터값 산출모듈(123)에 전달한다. As described above, the feature point generation module 122 that generates the feature points in both the face image and the basic face image transmits the face image and the basic face image to the vector value calculation module 123.

백터값 산출모듈(123)은 전달받은 얼굴 이미지와 기본 얼굴 이미지 각각에 생성된 특징점을 비교하고 발생된 좌표 차이를 이용하여 백터값을 산출한다(S623).The vector value calculation module 123 compares feature points generated in each of the received face image and the basic face image, and calculates a vector value using the generated coordinate difference (S623).

한편, 특징점은 대략 18개로 생성하며, (x,y) 좌표를 가지고 있으므로 대략 36개의 벡터가 생성된다. On the other hand, approximately 18 feature points are generated, and since they have (x,y) coordinates, approximately 36 vectors are generated.

따라서, 벡터값 산출모듈(123)은 도 12에 도시된 바와 같이, 얼굴 이미지에 생성된 특징점의 좌표와 기본 얼굴 이미지에 생성된 특징점의 좌표를 비교하고, 비교하여 차이가 발생된 특징점에 대한 좌표를 벡터값으로 산출한다. Accordingly, as shown in FIG. 12, the vector value calculation module 123 compares the coordinates of the feature points generated in the face image and the coordinates of the feature points generated in the basic face image, and compares the coordinates of the feature points where the difference occurs. Is calculated as a vector value.

이때, 36길이의 벡터값은 수학식 2에 적용되어 산출한다. At this time, a vector value of length 36 is calculated by applying to Equation 2.

Figure 112018110076570-pat00026
Figure 112018110076570-pat00026

여기서, (

Figure 112018110076570-pat00027
,
Figure 112018110076570-pat00028
)는 표정이 있을 때의 특징점에 대한 좌표값이고, (
Figure 112018110076570-pat00029
,
Figure 112018110076570-pat00030
)는 표정이 없을 때의 특징점에 대한 좌표값이다. here, (
Figure 112018110076570-pat00027
,
Figure 112018110076570-pat00028
) Is the coordinate value for the feature point when there is an expression, and (
Figure 112018110076570-pat00029
,
Figure 112018110076570-pat00030
) Is the coordinate value for the feature point when there is no expression.

상기와 같이 벡터값을 산출한 백터값 산출모듈(123)은 벡터값을 감정결과 산출모듈(124)에 전달한다. The vector value calculation module 123 that calculates the vector value as described above transfers the vector value to the analysis result calculation module 124.

감정결과 산출모듈(124)는 전달받은 벡터값을 VGG16 네트워크를 활용하여 구성된 CNN 알고리즘에 적용하여 조합된 6개의 감정 중에서 상위 2개에 해당하는 감정에 대한 벡터값을 선택하게 된다(S624).The emotion result calculation module 124 applies the received vector value to the CNN algorithm configured using the VGG16 network, and selects vector values for the emotions corresponding to the upper two among the combined six emotions (S624).

VGG16 네트워크는 16개의 레이어로 구성된 모델이며, convolutional, fully-connected layer로 이루어진다. 따라서, 상기 VGG16 네트워크를 적용한 CNN알고리즘은 하기의 표2와 같다. The VGG16 network is a model consisting of 16 layers, and consists of a convolutional and fully-connected layer. Therefore, the CNN algorithm to which the VGG16 network is applied is shown in Table 2 below.

Figure 112018110076570-pat00031
Figure 112018110076570-pat00031

CNN알고리즘은 6개의 감정을 조합하여 총 30개의 경우의 수를 생성한다. 즉, 6개의 감정을 한쌍으로 조합하며, 조합된 한쌍의 감정은 하기의 표2에 기재된 바와 같이, 소프트맥스 계층에 상위 2에 해당하는 감정을 한쌍에 해당을 하는 모델을 선택하여 감정 결과를 산출한다. The CNN algorithm creates a total of 30 cases by combining 6 emotions. That is, six emotions are combined into a pair, and the combined emotions are calculated by selecting a model corresponding to the upper 2 emotions in the Softmax layer as shown in Table 2 below. do.

따라서, 감정결과 산출모듈(124)는 산출된 상위 2개의 감정에 대한 벡터값을 감정 분류부(130)에 전달한다. Accordingly, the emotion result calculation module 124 transmits the calculated vector values for the two uppermost emotions to the emotion classification unit 130.

이하에서는 도 13을 이용하여 최종 감정 분류단계(S630)에 대하여 더욱 상세하게 설명한다.Hereinafter, the final emotion classification step (S630) will be described in more detail using FIG. 13.

도 13은 도 6에 도시된 S630 단계를 설명하기 위한 순서도이고, 도 14는 도 8에 도시된 S634 단계에서 부여되는 가중치 값에 대한 그래프이다.FIG. 13 is a flow chart for explaining step S630 shown in FIG. 6, and FIG. 14 is a graph of weight values assigned in step S634 shown in FIG. 8.

도 13에 나타낸 바와 같이, 최종 감정 분류단계(S630)는 감정에 대한 정보 수신단계(S631), 인식값 산출 단계(S632), 벡터값 수신단계(S633), 인식값과 벡터값을 이용하여 결과값 산출단계(S634) 및 최종 감정 결정 단계(S634)를 포함한다. As shown in Fig. 13, the final emotion classification step (S630) includes the information receiving step (S631), the recognition value calculation step (S632), the vector value receiving step (S633), and the result using the recognition value and the vector value. It includes a value calculation step (S634) and a final emotion determination step (S634).

먼저, 감정 분류부(130)의 감정수신모듈(131)은 얼굴 특징 추출부(110)와 기하학적 변화량 추출부(120)로부터 각각 상위 2가지의 감정에 대한 정보를 수신한다(S931). First, the emotion receiving module 131 of the emotion classifying unit 130 receives information on the upper two emotions from the facial feature extraction unit 110 and the geometric change amount extraction unit 120 (S931).

이때, 얼굴 특징 추출부(110)로부터 수신받은 감정 정보는 행복, 슬픔, 두려움, 혐오감, 놀람 및 분노 중에서 2가지의 감정을 표현하는 것으로, 값으로 인식하지 못한다. 따라서, 감정수신모듈(131)은 인식값 산출모듈(132)에 얼굴 특징 추출부(110)로부터 수신받은 상위 2가지의 감정에 대한 정보를 전달한다. At this time, the emotion information received from the facial feature extraction unit 110 expresses two emotions among happiness, sadness, fear, disgust, surprise, and anger, and cannot be recognized as a value. Accordingly, the emotion receiving module 131 transmits information on the upper two emotions received from the facial feature extraction unit 110 to the recognition value calculating module 132.

따라서, 인식값 산출모듈(132)은 전달받은 상위 2가지의 감정에 대한 정보를 이용하여 인식값을 산출한다(S632).Accordingly, the recognition value calculation module 132 calculates a recognition value by using the information on the received upper two emotions (S632).

이때, 인식값은 하기 수학식 3에 의해 산출된다. At this time, the recognized value is calculated by Equation 3 below.

Figure 112018110076570-pat00032
Figure 112018110076570-pat00032

여기서,

Figure 112018110076570-pat00033
는 앞서 산출한 얼굴 특징 추출부(110)의 결과 중 상위 k번째 값에 해당한다. j는 0부터 1의 값을 가지며, 이는 상위 2개의 감정을 의미한다. 이 결과,
Figure 112018110076570-pat00034
는 상위 2가지의 감정에 대해 정규화된 값이다.here,
Figure 112018110076570-pat00033
Is the highest k-th value among the results of the facial feature extraction unit 110 calculated above. j has a value from 0 to 1, which means the top two emotions. As a result of this,
Figure 112018110076570-pat00034
Is the normalized value for the top two emotions.

인식값 산출모듈(132)은 얼굴 특징 추출부로부터 전달받은 상위 2가지의 감정의 합을 1로 판단한다. 즉, 상위 1의 감정에 대한 인식값과 상위 2의 감정에 대한 인식값의 합은 1이 된다. 예를 들면, 상위 1의 감정을 웃는 감정이고, 상위 2의 감정을 화내는 감정이라고 가정하였을 때, 웃는 감정의 인식값이 0.9라고 가정하면, 상위 2에 해당하는 화내는 감정은 0.1이다. The recognition value calculation module 132 determines the sum of the upper two emotions received from the facial feature extraction unit as 1. That is, the sum of the recognition values for the emotions of the upper 1 and the emotions of the upper 2 becomes 1. For example, assuming that the upper 1 emotion is a smiling emotion and the upper 2 emotion is an angry emotion, assuming that the recognition value of the smiling emotion is 0.9, the angry emotion corresponding to the upper 2 is 0.1.

상기와 같이, 감정정보를 인식값으로 산출한 인식값 산출모듈(132)은 인식값을 분류모듈(133)로 전달한다. As described above, the recognition value calculation module 132 that calculates the emotion information as a recognition value transfers the recognition value to the classification module 133.

한편, 분류모듈(133)은 인식값뿐만 아니라 기하학적 기하학적 변화량 추출부(120)로부터 벡터값을 전달받는다(S633).Meanwhile, the classification module 133 receives not only the recognized value, but also the vector value from the geometrical and geometrical variation extracting unit 120 (S633).

그 다음, 분류모듈(133)은 전달받은 인식값과 벡터값에 가중치를 부여하여 상위 2개에 해당하는 감정에 대한 결과값을 산출한다(S634)Then, the classification module 133 calculates result values for emotions corresponding to the top two by assigning weights to the received recognition values and vector values (S634).

이때, 결과값은 하기 식 4에 의해 연산된다. At this time, the result value is calculated by the following equation 4.

Figure 112018110076570-pat00035
Figure 112018110076570-pat00035

여기서,

Figure 112018110076570-pat00036
는 얼굴 특징 추출부에서 추출된 감정에 대한 인식값이고,
Figure 112018110076570-pat00037
는 기하학적 변화량 추출부에서 추출된 감정에 대한 인식값이며,
Figure 112018110076570-pat00038
는 가중치 값을 나타낸다.here,
Figure 112018110076570-pat00036
Is the recognition value for the emotion extracted from the facial feature extraction unit,
Figure 112018110076570-pat00037
Is the recognition value for the emotion extracted from the geometric change amount extraction unit,
Figure 112018110076570-pat00038
Represents the weight value.

이때, 가중치 값은 0.7과 0.8의 사이 값으로 설정된다. At this time, the weight value is set to a value between 0.7 and 0.8.

즉, 얼굴 특징 추출부에서 추출된 상위 2가지 감정에 대한 인식값은 0.7 내지 0.8의 가중치가 부여되고, 기하학적 변화량 추출부에서 추출된 상위 2가지 감정에 대한 벡터값은 0.2 내지 0.3의 가중치가 부여된다. That is, the recognition values for the top two emotions extracted from the facial feature extraction unit are assigned a weight of 0.7 to 0.8, and the vector values for the top two emotions extracted from the geometric change amount extraction unit are given a weight of 0.2 to 0.3. do.

한편, 분류모듈(133)은 결과값을 얻기 위하여 부여된 가중치에 대하여 데이터셋을 생성하고, 생성된 데이터셋을 이용하여 정확도가 높은 가중치 값을 산출한다. Meanwhile, the classification module 133 generates a data set with respect to the weight assigned to obtain a result value, and calculates a weight value with high accuracy using the generated data set.

이를 다시 설명하면, 가중치 값을 얻기 위하여 분류모듈(133)은 데이터셋을 생성한다. 데이터셋은 트레이닝 데이터와 테스트 데이터를 9대1의 비율로 대입하여 생성한 것으로서, 트레이닝 데이터는 6가지 감정 정보에 대한 인식값 또는 벡터값을 반복적으로 산출하고, 산출된 인식값 또는 벡터값의 평균에 따라 산출된 데이터이다. 반면, 데스트 데이터는 트레이닝 데이터와 대조하기 위하여 입력되는 데이터이다. In other words, the classification module 133 generates a data set to obtain a weight value. The data set is generated by substituting the training data and test data in a ratio of 9 to 1, and the training data is the average of the recognized values or vector values by repeatedly calculating the recognition values or vector values for 6 kinds of emotion information. It is the data calculated according to. On the other hand, the test data is data input to match the training data.

인식값에 대한 데이터 셋은 CK+으로 나타내고, 벡터값에 대한 데이터셋은 JAFFE으로 나타내어 하기의 표 3과 같이 가중치를 부여하여 정확도 추이에 대한 결과값을 산출한다. The data set for the recognized value is represented by CK+, and the data set for the vector value is represented by JAFFE, and weights are assigned as shown in Table 3 below to calculate the result value for the accuracy trend.

weight (α)
dataset
weight (α)
dataset
0.10.1 0.20.2 0.30.3 0.40.4 0.50.5 0.60.6 0.70.7 0.80.8 0.90.9
CK+CK+ 50.9350.93 54.6354.63 55.5655.56 57.4157.41 73.1573.15 88.8988.89 89.8189.81 89.8189.81 88.8988.89 JAFFEJAFFE 45.0545.05 47.2547.25 49.4549.45 49.4549.45 52.7552.75 93.4193.41 94.5194.51 96.7096.70 96.7096.70 AverageAverage 47.9947.99 50.9450.94 52.5052.50 53.4353.43 62.9562.95 91.1591.15 92.1692.16 93.2693.26 92.8092.80

상기 가중치의 정확도를 추이하기 위하여 산출에 표를 그래프에 대입하였을 경우, 도 14에 도시된 바와 같이, 가중치값이 0.7 내지 0.8이었을 때 가장 정확도가 높게 측정되었다. When a table is substituted into a graph for calculation in order to change the accuracy of the weight, as shown in FIG. 14, the highest accuracy was measured when the weight value was 0.7 to 0.8.

따라서, 분류모듈(133)은 앞서 기재된 바와 같이 산출된 가중치 값 0.7 내지 0.8을 부여하여 결과값을 산출하다. Accordingly, the classification module 133 calculates a result value by assigning a weight value of 0.7 to 0.8 calculated as described above.

상기와 같이, 분류모듈(133)은 2가지 감정에 대하여 각각의 결과값을 산출하고, 2개의 결과값 중에서 최고값이 부여된 감정을 감정 인식 대상이 되는 얼굴 이미지에 대한 감정으로 결정한다(S635). As described above, the classification module 133 calculates each result value for the two emotions, and determines the emotion to which the highest value is assigned among the two result values as the emotion for the face image to be subjected to emotion recognition (S635). ).

따라서, 본 발명의 실시예에 따른 얼굴 표정 인식 장치는 종래의 알고리즘을 통해 획득한 상위 2 개의 감정 내에서 빈번하게 발생되는 감정인식 오류를 개선하고, 얼굴 특징을 통해 추출된 인식값과 기하학적 변화량을 통해 산출된 벡터값에 각각 가중치를 부여 결과값을 산출함으로써 정확도가 개선된 최종 감정이 결정되는 효과를 도모할 수 있다. Therefore, the facial expression recognition apparatus according to an embodiment of the present invention improves the emotion recognition error that frequently occurs in the upper two emotions obtained through a conventional algorithm, and calculates the recognition value and geometric change amount extracted through the facial features. A weight is applied to each calculated vector value and the result value is calculated, thereby achieving an effect of determining a final emotion with improved accuracy.

또한, 본 발명에 따르면, 별도의 데이터 셋이 없어도 입력된 얼굴 이미지에서 기본 얼굴 이미지를 추출할 수 있으므로 데이터 셋의 부족 문제를 해결하고, 공간적인 데이터 셋이 아닌 정적인 데이터 셋으로부터 동적인 정보 추출이 가능한 효과를 지닌다. In addition, according to the present invention, since the basic face image can be extracted from the input face image even without a separate data set, the problem of lack of data set is solved, and dynamic information is extracted from static data set rather than spatial data set. This has the possible effect.

또한, 본 발명에 따르면, 감정을 은폐하려는 정서 상태 시, 변화의 정도가 적고 짧은 시간을 가지기 때문에, 부분적인 액션 유니트의 강도 측정과 높은 프레임 수를 분석함으로써, 더 세밀하고 포괄적인 분석이 가능한 효과를 지닌다. In addition, according to the present invention, since the degree of change is small and has a short time in the emotional state to conceal the emotion, a more detailed and comprehensive analysis is possible by analyzing the strength of a partial action unit and a high number of frames Has.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are only exemplary, and those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. will be. Therefore, the true technical protection scope of the present invention should be determined by the technical idea of the following claims.

100 : 얼굴 표정 인식 장치
110 : 얼굴 특징 추출부 111 : 이미지 입력모듈
112 : 얼굴 영역 인식모듈 113 : 얼굴생성모듈
114 : 얼굴 특징 추출모듈 115 : 판단모듈
120 : 기하학적 변화량 추출부 121 : 이미지 입력모듈
122 : 특징점 생성모듈 123 : 벡터값 산출모듈
124 : 감정결과 산출 모듈
130 : 감정 분류부 131 : 감정수신모듈
132 : 인식값 산출모듈 133 : 분류모듈
100: facial expression recognition device
110: facial feature extraction unit 111: image input module
112: face region recognition module 113: face generation module
114: facial feature extraction module 115: judgment module
120: geometric change amount extraction unit 121: image input module
122: feature point generation module 123: vector value calculation module
124: evaluation result calculation module
130: emotion classification unit 131: emotion receiving module
132: recognition value calculation module 133: classification module

Claims (24)

입력된 얼굴 이미지로부터 감정을 식별하는 얼굴 감정 인식 장치에 있어서,
감정 인식 대상이 되는 얼굴 이미지를 입력받고, 입력된 얼굴 이미지로부터 얼굴 이미지 전체에 대한 특징을 추출하며, 추출된 특징으로부터 순위에 따라 나열된 6개의 감정을 획득하고, 획득된 6개의 감정 중 상위 2개의 감정에 대한 정보를 기하학적 변화량 추출부 및 감정분류부에 각각 전달하는 얼굴 특징 추출부,
상기 입력된 얼굴 이미지와 동일 인물에 대한 표정이 없는 기본 얼굴 이미지에 각각 부여된 특징점을 비교하여 좌표의 차이를 산출하고, CNN알고리즘에 의해 조합된 6개의 감정에 상기 좌표의 차이값을 적용하여 상위 2개의 감정에 대한 벡터값을 산출하는 기하학적 변화량 추출부, 그리고
상기 얼굴 특징 추출부로부터 전달받은 상위 2개의 감정으로부터 산출된 감정 인식값과 상기 기하학적 변화량 추출부에서 산출된 벡터값에 각각 가중치를 부여하여 상위 2개 감정에 대한 각각의 결과값을 산출하며, 산출된 결과값 중 최고값을 가진 감정을 분류하는 감정 분류부를 포함하며,
상기 얼굴 특징 추출부는,
상기 감정 인식 대상이 되는 얼굴 이미지를 입력받는 이미지 입력모듈,
상기 입력된 얼굴 이미지로부터 얼굴 영역을 분리하는 얼굴 영역 인식모듈,
상기 분리된 얼굴 이미지를 오토인코더(autoencoder)에 적용하여 상기 입력된 얼굴 이미지로부터 기본 얼굴 이미지를 생성하여 기하학적 변화량 추출부로 전달하는 얼굴 생성모듈,
상기 얼굴 영역만 분리된 얼굴 이미지에 블러링(blurring)을 적용하여 노이즈를 제거한 다음, LBP(local binary pattern) 알고리즘을 이용하여 주요 액션 유니트(action units) 위주로 얼굴의 주요 특징정보를 추출하는 얼굴 특징 추출모듈, 그리고
상기 추출된 얼굴의 주요 특징정보를 CNN알고리즘에 적용하여 6가지의 감정 결과를 산출하고, 산출된 6가지의 감정 결과 중에서 상위 2개에 해당하는 감정을 기하학적 변화량 추출부 및 감정분류부에 각각 전달하는 판단모듈을 포함하고
상기 감정 분류부는,
상기 얼굴 특징 추출부로부터 상위 2가지의 감정에 대한 정보를 전달받는 감정수신모듈,
상기 얼굴 특징 추출부로부터 전달받은 상위 2가지의 감정을 감정 인식값으로 산출하여 정규화하는 인식값 산출모듈, 그리고
상기 얼굴 특징 추출부의 상위 2가지의 감정에 대한 인식값과 상기 기하학적 변화량 추출부로부터 전달받은 상위 2가지의 감정에 대한 벡터값에 가중치를 부여하여 상기 상위 2가지의 감정에 대해 결과값을 산출하며, 산출된 결과값 중에서 최고 값이 부여된 감정을 상기 감정 인식 대상이 되는 얼굴 이미지에 대한 감정으로 결정하는 분류모듈을 포함하는 얼굴 감정 인식 장치.
In the facial emotion recognition device for identifying emotion from the input face image,
A face image that is an emotion recognition target is input, features of the entire face image are extracted from the input face image, six emotions listed according to ranking are obtained from the extracted features, and the top two emotions are obtained. A facial feature extraction unit that transmits information on emotion to a geometric change amount extraction unit and an emotion classification unit, respectively,
The difference in coordinates is calculated by comparing the input face image with the feature points assigned to the basic face image without expression for the same person, and the difference value of the coordinates is applied to the six emotions combined by the CNN algorithm. A geometrical change amount extraction unit that calculates vector values for two emotions, and
Weights are assigned to the emotion recognition values calculated from the upper two emotions received from the facial feature extraction unit and the vector values calculated by the geometric change amount extraction unit to calculate each result value for the upper two emotions, and calculate It includes an emotion classifying unit for classifying the emotion having the highest value among the result values,
The facial feature extraction unit,
An image input module for receiving a face image to be the target of emotion recognition,
A face region recognition module that separates a face region from the input face image,
A face generation module that applies the separated face image to an autoencoder to generate a basic face image from the input face image and transmits it to a geometric change amount extraction unit,
A facial feature that removes noise by applying blurring to a face image in which only the face region is separated, and then extracts the main feature information of the face mainly in the main action units using a local binary pattern (LBP) algorithm. Extraction module, and
The extracted main feature information of the face is applied to the CNN algorithm to calculate six emotion results, and the emotions corresponding to the top two among the calculated six emotion results are transmitted to the geometric change amount extraction unit and the emotion classification unit, respectively. It includes a judgment module that
The emotion classification unit,
An emotion receiving module that receives information on the upper two emotions from the facial feature extraction unit,
A recognition value calculation module that calculates and normalizes the upper two emotions received from the facial feature extraction unit as emotion recognition values, and
A weight is assigned to the recognition values for the upper two emotions of the facial feature extraction unit and the vector values for the upper two emotions transmitted from the geometric change amount extraction unit to calculate a result value for the upper two emotions. And a classification module configured to determine an emotion to which the highest value is assigned among the calculated result values as an emotion for a face image to be subjected to emotion recognition.
제1항에 있어서,
상기 감정은,
행복, 슬픔, 두려움, 혐오감, 놀람 및 분노를 포함한 6가지로 분류되는 얼굴 감정 인식 장치.
The method of claim 1,
The above emotion is,
Facial emotion recognition device classified into 6 categories including happiness, sadness, fear, disgust, surprise and anger.
삭제delete 제1항에 있어서,
상기 얼굴생성모듈은,
동일인에 대하여 표정이 있는 얼굴 이미지와 표정이 없는 기본 얼굴이미지를 이용하여 2개의 얼굴 이미지 사이의 특징값 차이로부터 발생되는 에러를 학습시켜 데이터셋을 생성하며,
상기 생성된 데이터셋이 적용된 오토인코더(autoencoder)를 이용하여 상기 감정 인식 대상이 되는 얼굴 이미지로부터 상기 기본 얼굴 이미지를 생성하는 얼굴 감정 인식 장치.
The method of claim 1,
The face generation module,
A dataset is created by learning an error arising from the difference in feature values between two face images using a face image with an expression and a basic face image without an expression for the same person.
A facial emotion recognition device that generates the basic face image from a face image that is a target of emotion recognition using an autoencoder to which the generated data set is applied.
삭제delete 제1항에 있어서,
상기 LBP 알고리즘은,
하기 수학식에 의해 산출되는 얼굴 감정 인식 장치:
Figure 112020502784013-pat00039
,
Figure 112020502784013-pat00040

여기서,
Figure 112020502784013-pat00041
는 입력된 얼굴 이미지에 선택된 현재의 픽셀이고,
Figure 112020502784013-pat00042
Figure 112020502784013-pat00043
의 이웃에 분포된 픽셀이고,
Figure 112020502784013-pat00044
은 현재의 픽셀과 이웃의 픽셀을 비교하여 0 또는 1로 산출된 값이고, P는 8로, 비교하고자 하는 이웃 픽셀의 개수이다. 따라서 p는 0부터 7까지 현재의 픽셀의 왼쪽 상단에 위치한 이웃 픽셀부터 시계방향으로 부여된다.
The method of claim 1,
The LBP algorithm,
Facial emotion recognition device calculated by the following equation:
Figure 112020502784013-pat00039
,
Figure 112020502784013-pat00040

here,
Figure 112020502784013-pat00041
Is the current pixel selected in the input face image,
Figure 112020502784013-pat00042
Is
Figure 112020502784013-pat00043
Are pixels distributed in the neighborhood of
Figure 112020502784013-pat00044
Is a value calculated as 0 or 1 by comparing the current pixel with a neighboring pixel, and P is 8, which is the number of neighboring pixels to be compared. Therefore, p is given from 0 to 7 in a clockwise direction from a neighboring pixel located at the top left of the current pixel.
제1항에 있어서,
상기 판단모듈은,
상기 LBP 알고리즘이 적용된 상기 입력된 얼굴 이미지에 복수의 컨볼루션(convolution)을 적용하여 6가지의 감정을 산출하고,
산출된 6가지의 감정 중에서 상위 2개에 해당하는 감정을 분류하는 얼굴 감정 인식 장치.
The method of claim 1,
The determination module,
Six emotions are calculated by applying a plurality of convolutions to the input face image to which the LBP algorithm is applied,
A facial emotion recognition device for classifying emotions corresponding to the top two among the calculated six emotions.
제1항에 있어서,
상기 기하학적 변화량 추출부는,
상기 감정 인식 대상이 되는 얼굴 이미지를 입력받는 이미지 입력모듈,
상기 입력된 얼굴 이미지와 상기 얼굴 생성모듈로부터 전달받은 기본 얼굴 이미지에 액션 유니트(action units)를 중심으로 특징점을 생성하는 특징점 생성모듈,
상기 생성된 특징점을 이용하여 상기 입력된 얼굴 이미지와 상기 기본 얼굴 이미지를 비교 판단하고, 차이가 발생된 특징점에 대한 좌표 차이를 이용하여 벡터값을 산출하는 벡터값 산출모듈, 그리고
상기 판단모듈로부터 수신된 상위 2개의 감정에 대응되며, 상기 벡터값 산출모듈에서 산출된 벡터값을 CNN알고리즘에 적용하여 조합된 6개의 감정 중에서 상위 2개에 해당하는 감정을 선택하는 감정결과 산출 모듈을 포함하는 얼굴 감정 인식 장치.
The method of claim 1,
The geometric change amount extraction unit,
An image input module for receiving a face image to be the target of emotion recognition,
A feature point generation module for generating feature points based on action units in the input face image and the basic face image transmitted from the face generating module,
A vector value calculation module that compares and determines the input face image and the basic face image using the generated feature points, and calculates a vector value using a coordinate difference for the feature point where the difference occurs, and
An emotion result calculation module that corresponds to the upper two emotions received from the determination module, and selects emotions corresponding to the upper two among the six emotions combined by applying the vector value calculated by the vector value calculation module to the CNN algorithm Facial emotion recognition device comprising a.
제8항에 있어서,
상기 벡터값 산출모듈은,
하기 수학식에 의해 벡터값을 산출하는 얼굴 감정 인식 장치:
Figure 112018110076570-pat00045

여기서, (
Figure 112018110076570-pat00046
,
Figure 112018110076570-pat00047
)는 표정이 있을 때의 특징점에 대한 좌표값이고, (
Figure 112018110076570-pat00048
,
Figure 112018110076570-pat00049
)는 표정이 없을 때의 특징점에 대한 좌표값이다.
The method of claim 8,
The vector value calculation module,
Facial emotion recognition device for calculating a vector value by the following equation:
Figure 112018110076570-pat00045

here, (
Figure 112018110076570-pat00046
,
Figure 112018110076570-pat00047
) Is the coordinate value for the feature point when there is an expression, and (
Figure 112018110076570-pat00048
,
Figure 112018110076570-pat00049
) Is the coordinate value for the feature point when there is no expression.
삭제delete 제1항에 있어서,
상기 감정 분류부는,
하기 수학식에 의해 상기 상위 2가지의 감정에 대해 결과값을 산출하는 얼굴 감정 인식 장치:
Figure 112020045303427-pat00050

여기서,
Figure 112020045303427-pat00051
는 얼굴 특징 추출부에서 추출된 감정에 대한 인식값이고,
Figure 112020045303427-pat00052
는 기하학적 변화량 추출부에서 추출된 감정에 대한 벡터값이며,
Figure 112020045303427-pat00053
는 가중치 값을 나타낸다.
The method of claim 1,
The emotion classification unit,
Facial emotion recognition apparatus for calculating result values for the upper two emotions by the following equation:
Figure 112020045303427-pat00050

here,
Figure 112020045303427-pat00051
Is the recognition value for the emotion extracted from the facial feature extraction unit,
Figure 112020045303427-pat00052
Is a vector value for the emotion extracted from the geometric change amount extraction unit,
Figure 112020045303427-pat00053
Represents the weight value.
제11항에 있어서,
상기 가중치 값은 0.7과 0.8의 사이의 값으로 설정되는 얼굴 감정 인식 장치.
The method of claim 11,
The weight value is set to a value between 0.7 and 0.8.
얼굴 감정 인식 장치를 이용하여 입력된 얼굴 이미지로부터 감정을 식별하는 방법에 있어서,
감정 인식 대상이 되는 얼굴 이미지로부터 얼굴 이미지 전체에 대한 특징을 추출하고, 상기 추출된 얼굴 특징으로부터 획득된 6개의 감정 중 상위 2개의 감정에 대한 정보를 추출하는 단계,
상기 입력된 얼굴 이미지와 동일 인물에 대한 표정이 없는 기본 얼굴 이미지에 각각 부여된 특징점을 비교하여 좌표의 차이를 산출하고, 상기 산출된 좌표의 차이값을 CNN알고리즘에 적용하여 상위 2개의 감정에 대한 벡터값을 산출하는 단계, 그리고
상기 얼굴 특징으로부터 산출된 상위 2개의 감정에 대한 인식값과 특징점의 차이를 이용하여 산출된 상위 2개의 감정에 대한 벡터값에 각각 가중치를 부여하여 상위 2개 감정에 대한 각각의 결과값을 산출하고, 산출된 결과값 중 최고값을 가진 감정을 최종 감정으로 분류하는 단계를 포함하며,
상기 얼굴 특징을 이용하여 상위 2개의 감정에 대한 정보를 추출하는 단계는,
상기 감정 인식 대상이 되는 얼굴 이미지를 입력받는 단계,
상기 입력된 얼굴 이미지로부터 얼굴 영역을 분리하는 단계
상기 분리된 얼굴 이미지를 오토인코더(autoencoder)에 적용하여 상기 입력된 얼굴 이미지로부터 기본 얼굴 이미지를 생성하는 단계,
상기 얼굴 영역만 분리된 얼굴 이미지에 블러링(blurring)을 적용하여 노이즈를 제거한 다음, LBP(local binary pattern) 알고리즘을 이용하여 주요 액션 유니트(action units) 위주로 얼굴의 주요 특징정보를 추출하는 단계, 그리고
상기 추출된 얼굴의 주요 특징정보를 CNN알고리즘에 적용하여 6가지의 감정 결과를 산출하고, 산출된 6가지의 감정 결과 중에서 상위 2개에 해당하는 감정을 분류하는 단계를 포함하며,
상기 최종 감정을 분류하는 단계는,
상기 얼굴 특징으로부터 추출된 상위 2가지의 감정에 대한 정보를 전달받는 단계,
상기 전달받은 상위 2가지의 감정을 인식값으로 산출하는 단계, 그리고
상기 산출된 상위 2가지의 감정에 대한 인식값과 상기 특징점의 차이를 이용하여 산출된 상위 2개의 감정에 대한 벡터값에 가중치를 부여하여 상위 2가지의 감정에 대해 결과값을 산출하고, 산출된 결과값 중에서 최고 값이 부여된 감정을 상기 감정 인식 대상이 되는 얼굴 이미지에 대한 감정으로 결정하는 단계를 포함하는 얼굴 감정 인식 방법.
In a method of identifying emotion from an input face image using a facial emotion recognition device,
Extracting features for the entire face image from the face image subject to emotion recognition, and extracting information on the upper two emotions among the six emotions obtained from the extracted facial features,
The input face image and the feature points assigned to the basic face image without expression for the same person are compared to calculate the difference in coordinates, and the calculated difference value of the coordinates is applied to the CNN algorithm for the upper two emotions. Calculating the vector value, and
Each result value for the upper two emotions is calculated by assigning a weight to each of the vector values for the upper two emotions calculated using the difference between the recognition values for the upper two emotions calculated from the facial features and the feature point, and And classifying the emotion with the highest value among the calculated result values as the final emotion,
Extracting information on the upper two emotions by using the facial features,
Receiving a face image to be the target of the emotion recognition,
Separating a face area from the input face image
Generating a basic face image from the input face image by applying the separated face image to an autoencoder,
Applying blurring to the face image where only the face area is separated to remove noise, and then extracting main feature information of the face mainly in main action units using a local binary pattern (LBP) algorithm, And
Computing six emotion results by applying the extracted main feature information of the face to the CNN algorithm, and classifying emotions corresponding to the top two among the calculated six emotion results,
The step of classifying the final emotion,
Receiving information on the upper two emotions extracted from the facial features,
The step of calculating the received upper two emotions as recognition values, and
A weight is assigned to the vector values for the upper two emotions calculated by using the calculated recognition values for the upper two emotions and the difference between the feature points to calculate the result values for the upper two emotions, and the calculated A facial emotion recognition method comprising the step of determining an emotion to which the highest value is assigned among the result values as an emotion for a face image to be an emotion recognition target.
제13항에 있어서,
상기 감정은,
행복, 슬픔, 두려움, 혐오감, 놀람 및 분노를 포함한 6가지로 분류되는 얼굴 감정 인식 방법.
The method of claim 13,
The above emotion is,
6 ways to recognize facial emotions, including happiness, sadness, fear, disgust, surprise and anger.
삭제delete 제13항에 있어서,
상기 기본 얼굴 이미지를 생성하는 단계는,
동일인에 대하여 표정이 있는 얼굴 이미지와 표정이 없는 기본 얼굴 이미지를 이용하여 2개의 얼굴 이미지 사이의 특징값 차이로부터 발생되는 에러를 학습시켜 데이터셋을 생성하는 단계, 그리고
상기 생성된 데이터셋이 적용된 오토인코더(autoencoder)를 이용하여 상기 감정 인식 대상이 되는 얼굴 이미지로부터 기본 얼굴 이미지를 생성하는 단계를 포함하는 얼굴 감정 인식 방법.
The method of claim 13,
The step of generating the basic face image,
Creating a dataset by learning an error arising from the difference in feature values between two face images using a facial image with an expression and a basic facial image without an expression for the same person, and
And generating a basic face image from the face image that is the emotion recognition target by using an autoencoder to which the generated data set is applied.
삭제delete 제13항에 있어서,
상기 LBP 알고리즘은,
하기 수학식에 의해 산출되는 얼굴 감정 인식 방법:
Figure 112020045303427-pat00054
,
Figure 112020045303427-pat00055

여기서,
Figure 112020045303427-pat00056
는 입력된 얼굴 이미지에 선택된 현재의 픽셀이고,
Figure 112020045303427-pat00057
Figure 112020045303427-pat00058
의 이웃에 분포된 픽셀이고,
Figure 112020045303427-pat00059
은 현재의 픽셀과 이웃의 픽셀을 비교하여 0 또는 1로 산출된 값이고, P는 8로, 비교하고자 하는 이웃 픽셀의 개수이다. 따라서 p는 0부터 7까지 현재의 픽셀의 왼쪽 상단에 위치한 이웃 픽셀부터 시계방향으로 부여된다.
The method of claim 13,
The LBP algorithm,
Facial emotion recognition method calculated by the following equation:
Figure 112020045303427-pat00054
,
Figure 112020045303427-pat00055

here,
Figure 112020045303427-pat00056
Is the current pixel selected in the input face image,
Figure 112020045303427-pat00057
Is
Figure 112020045303427-pat00058
Are pixels distributed in the neighborhood of
Figure 112020045303427-pat00059
Is a value calculated as 0 or 1 by comparing the current pixel with a neighboring pixel, and P is 8, which is the number of neighboring pixels to be compared. Therefore, p is given from 0 to 7 in a clockwise direction from a neighboring pixel located at the top left of the current pixel.
제13항에 있어서,
상기 상위 2개에 해당하는 감정을 분류하는 단계는,
상기 LBP 알고리즘이 적용된 상기 입력된 얼굴 이미지에 복수의 컨볼루션(convolution)을 적용하여 6가지의 감정을 산출하는 단계,
산출된 6가지의 감정 중에서 상위 2개에 해당하는 감정을 분류하는 단계를 포함하는 얼굴 감정 인식 방법.
The method of claim 13,
The step of classifying the emotions corresponding to the top two,
Calculating six emotions by applying a plurality of convolutions to the input face image to which the LBP algorithm is applied,
A facial emotion recognition method comprising the step of classifying emotions corresponding to the upper two among the calculated six emotions.
제13항에 있어서,
상기 상위 2개의 감정에 대한 벡터값을 산출하는 단계는,
상기 감정 인식 대상이 되는 얼굴 이미지를 입력받는 단계,
상기 입력된 얼굴 이미지와 기본 얼굴 이미지에 액션 유니트(action units)를 중심으로 특징점을 생성하는 단계,
상기 생성된 특징점을 이용하여 상기 입력된 얼굴 이미지와 상기 기본 얼굴 이미지를 비교 판단하고, 차이가 발생된 특징점에 대한 좌표 차이를 이용하여 벡터값을 산출하는 단계, 그리고
상기 산출된 벡터값을 CNN알고리즘에 적용하여 조합된 6개의 감정 중에서 상위 2개에 해당하는 감정을 선택하는 단계를 포함하는 얼굴 감정 인식 방법.
The method of claim 13,
The step of calculating vector values for the upper two emotions,
Receiving a face image to be the target of the emotion recognition,
Generating feature points based on action units in the input face image and the basic face image,
Comparing and determining the input face image and the basic face image using the generated feature point, and calculating a vector value using a coordinate difference for the feature point where the difference is generated, and
And applying the calculated vector value to a CNN algorithm to select an emotion corresponding to the upper two among the six emotions combined.
제20항에 있어서,
상기 벡터값을 산출하는 단계는,
하기 수학식에 의해 벡터값을 산출하는 얼굴 감정 인식 방법:
Figure 112018110076570-pat00060

여기서, (
Figure 112018110076570-pat00061
,
Figure 112018110076570-pat00062
)는 표정이 있을 때의 특징점에 대한 좌표값이고, (
Figure 112018110076570-pat00063
,
Figure 112018110076570-pat00064
)는 표정이 없을 때의 특징점에 대한 좌표값이다.
The method of claim 20,
The step of calculating the vector value,
Facial emotion recognition method for calculating a vector value by the following equation:
Figure 112018110076570-pat00060

here, (
Figure 112018110076570-pat00061
,
Figure 112018110076570-pat00062
) Is the coordinate value for the feature point when there is an expression, and (
Figure 112018110076570-pat00063
,
Figure 112018110076570-pat00064
) Is the coordinate value for the feature point when there is no expression.
삭제delete 제13항에 있어서,
상기 최종 감정을 분류하는 단계는,
하기 수학식에 의해 상기 상위 2가지의 감정에 대해 결과값을 산출하는 얼굴 감정 인식 방법:
Figure 112020045303427-pat00065

여기서,
Figure 112020045303427-pat00066
는 얼굴 특징 추출부에서 추출된 감정에 대한 인식값이고,
Figure 112020045303427-pat00067
는 기하학적 변화량 추출부에서 추출된 감정에 대한 벡터값이며,
Figure 112020045303427-pat00068
는 가중치 값을 나타낸다.
The method of claim 13,
The step of classifying the final emotion,
Facial emotion recognition method for calculating result values for the top two emotions by the following equation:
Figure 112020045303427-pat00065

here,
Figure 112020045303427-pat00066
Is the recognition value for the emotion extracted from the facial feature extraction unit,
Figure 112020045303427-pat00067
Is a vector value for the emotion extracted from the geometric change amount extraction unit,
Figure 112020045303427-pat00068
Represents the weight value.
제23항에 있어서,
상기 가중치 값은 0.7과 0.8의 사이의 값으로 설정되는 얼굴 감정 인식 방법.
The method of claim 23,
The weight value is set to a value between 0.7 and 0.8.
KR1020180135303A 2018-11-06 2018-11-06 Facial emotional recognition apparatus for Identify Emotion and method thereof KR102174175B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180135303A KR102174175B1 (en) 2018-11-06 2018-11-06 Facial emotional recognition apparatus for Identify Emotion and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180135303A KR102174175B1 (en) 2018-11-06 2018-11-06 Facial emotional recognition apparatus for Identify Emotion and method thereof

Publications (2)

Publication Number Publication Date
KR20200055811A KR20200055811A (en) 2020-05-22
KR102174175B1 true KR102174175B1 (en) 2020-11-06

Family

ID=70913973

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180135303A KR102174175B1 (en) 2018-11-06 2018-11-06 Facial emotional recognition apparatus for Identify Emotion and method thereof

Country Status (1)

Country Link
KR (1) KR102174175B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112801403A (en) * 2021-02-10 2021-05-14 武汉科技大学 Method and system for predicting potential threat degree of aerial target based on SSA-BP

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021001851A1 (en) * 2019-07-02 2021-01-07 Entropik Technologies Private Limited A system for estimating a user's response to a stimulus
CN111881822A (en) * 2020-07-27 2020-11-03 深圳市爱深盈通信息技术有限公司 Access control method, device, equipment and storage medium based on face recognition
KR102240895B1 (en) * 2020-08-07 2021-04-15 윤태훈 System for providing information for weight management
KR20230007019A (en) * 2021-07-05 2023-01-12 주식회사 아이티스노우볼 Face emotion recognition device and operation method
CN116682159B (en) * 2023-06-07 2024-02-02 广东辉杰智能科技股份有限公司 Automatic stereo recognition method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101921717B1 (en) * 2015-04-13 2018-11-26 (주)리얼아이즈 Face recognition method and facial feature extraction method using local contour patten
KR102252298B1 (en) * 2016-10-21 2021-05-14 삼성전자주식회사 Method and apparatus for recognizing facial expression
KR101893554B1 (en) * 2017-02-14 2018-08-30 영남대학교 산학협력단 Method and apparatus of recognizing facial expression base on multi-modal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112801403A (en) * 2021-02-10 2021-05-14 武汉科技大学 Method and system for predicting potential threat degree of aerial target based on SSA-BP

Also Published As

Publication number Publication date
KR20200055811A (en) 2020-05-22

Similar Documents

Publication Publication Date Title
KR102174175B1 (en) Facial emotional recognition apparatus for Identify Emotion and method thereof
CN110135375B (en) Multi-person attitude estimation method based on global information integration
Goh et al. Micro-expression recognition: an updated review of current trends, challenges and solutions
CN106960202B (en) Smiling face identification method based on visible light and infrared image fusion
CN108491835B (en) Two-channel convolutional neural network for facial expression recognition
CN106599854B (en) Automatic facial expression recognition method based on multi-feature fusion
JP7386545B2 (en) Method for identifying objects in images and mobile device for implementing the method
Jan et al. Accurate facial parts localization and deep learning for 3D facial expression recognition
KR101549645B1 (en) Method and apparatus of recognizing facial expression using motion dictionary
CN111354079A (en) Three-dimensional face reconstruction network training and virtual face image generation method and device
CN109684959B (en) Video gesture recognition method and device based on skin color detection and deep learning
CN109558832A (en) A kind of human body attitude detection method, device, equipment and storage medium
CN110765839B (en) Multi-channel information fusion and artificial intelligence emotion monitoring method for visible light facial image
Khan et al. Facial expression recognition on real world face images using intelligent techniques: A survey
CN112800903A (en) Dynamic expression recognition method and system based on space-time diagram convolutional neural network
Limcharoen et al. View-independent gait recognition using joint replacement coordinates (jrcs) and convolutional neural network
Wilhelm Towards facial expression analysis in a driver assistance system
CN112819718A (en) Image processing method and device, electronic device and storage medium
CN111797705A (en) Action recognition method based on character relation modeling
Sun et al. Face recognition based on local gradient number pattern and fuzzy convex-concave partition
CN114372926A (en) Traditional Chinese medicine tongue tenderness identification method based on image restoration and convolutional neural network
Nair et al. Facial expression analysis for distress detection
CN114973349A (en) Face image processing method and training method of face image processing model
Selvi et al. Kathakali face expression detection using deep learning techniques
KR102508765B1 (en) User-customized meta content providing system based on artificial neural network and method therefor

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant