KR102174175B1 - Facial emotional recognition apparatus for Identify Emotion and method thereof - Google Patents
Facial emotional recognition apparatus for Identify Emotion and method thereof Download PDFInfo
- Publication number
- KR102174175B1 KR102174175B1 KR1020180135303A KR20180135303A KR102174175B1 KR 102174175 B1 KR102174175 B1 KR 102174175B1 KR 1020180135303 A KR1020180135303 A KR 1020180135303A KR 20180135303 A KR20180135303 A KR 20180135303A KR 102174175 B1 KR102174175 B1 KR 102174175B1
- Authority
- KR
- South Korea
- Prior art keywords
- emotion
- face image
- emotions
- facial
- value
- Prior art date
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 254
- 230000001815 facial effect Effects 0.000 title claims abstract description 102
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 57
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000000605 extraction Methods 0.000 claims abstract description 84
- 239000013598 vector Substances 0.000 claims abstract description 75
- 230000008859 change Effects 0.000 claims abstract description 49
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 43
- 238000004364 calculation method Methods 0.000 claims description 29
- 230000014509 gene expression Effects 0.000 claims description 19
- 239000000284 extract Substances 0.000 claims description 14
- 230000009471 action Effects 0.000 claims description 8
- 238000013215 result calculation Methods 0.000 claims description 7
- 230000008921 facial expression Effects 0.000 abstract description 12
- 230000000694 effects Effects 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 18
- 238000013527 convolutional neural network Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000238558 Eucarida Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G06K9/00308—
-
- G06K9/00268—
-
- G06K9/00288—
-
- G06K9/481—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06T5/002—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 입력된 얼굴 이미지로부터 감정을 식별하는 얼굴 감정 인식 장치 및 그 방법에 대한 것이다.
본 발명에 따르면, 입력된 얼굴 이미지로부터 감정을 식별하는 얼굴 감정 인식 장치에 있어서, 감정 인식 대상이 되는 얼굴 이미지를 입력받고, 입력된 얼굴 이미지로부터 얼굴 이미지 전체에 대한 특징을 추출하며, 추출된 특징으로부터 획득된 6개의 감정 중 상위 2개의 감정에 대한 정보를 전달하는 얼굴 특징 추출부, 상기 입력된 얼굴 이미지와 동일 인물에 대한 기본 얼굴 이미지에 각각 부여된 특징점을 비교하여 좌표의 차이를 산출하고, 상기 좌표의 차이값을 CNN알고리즘의해 적용하여 상위 2개의 감정에 대한 벡터값을 산출하는 기하학적 변화량 추출부, 그리고 상기 얼굴 특징 추출부로부터 추출된 감정 인식값과 상기 기하학적 변화량 추출부에서 산출된 벡터값에 각각 가중치를 부여하여 산출된 결과값 중 최고값을 가진 감정을 최종 감정으로 분류하는 감정 분류부를 포함한다.
본 발명에 따른 얼굴 표정 인식 장치는 종래의 알고리즘을 통해 획득한 상위 2 개의 감정 내에서 빈번하게 발생되는 감정인식 오류를 개선하고, 얼굴 특징을 통해 추출된 인식값과 기하학적 변화량을 통해 산출된 벡터값에 각각 가중치를 부여 결과값을 산출함으로써 정확도가 개선된 최종 감정이 결정되는 효과를 지닌다. The present invention relates to a facial emotion recognition apparatus and method for identifying emotion from an input facial image.
According to the present invention, in a facial emotion recognition apparatus for identifying emotion from an input face image, a face image to be subjected to emotion recognition is input, a feature of the entire face image is extracted from the input face image, and the extracted feature A facial feature extraction unit that transmits information on the upper two emotions among the six emotions obtained from, and calculates a difference in coordinates by comparing the input face image with the feature points respectively assigned to the basic face image for the same person, A geometric change amount extracting unit that calculates vector values for two upper emotions by applying the difference value of the coordinates by the CNN algorithm, and the emotion recognition value extracted from the facial feature extracting unit and the vector value calculated by the geometric change amount extracting unit. And an emotion classifying unit for classifying the emotion having the highest value among the result values calculated by assigning a weight to each as a final emotion.
The facial expression recognition apparatus according to the present invention improves emotion recognition errors that frequently occur in the upper two emotions obtained through a conventional algorithm, and a vector value calculated through a recognition value extracted through facial features and a geometric change amount. Each weight is assigned to each and the result value is calculated, thereby having the effect of determining the final emotion with improved accuracy.
Description
본 발명은 감정을 식별할 수 있는 얼굴 감정 인식 장치 및 그 방법 에 관한 것으로서, 더욱 상세하게는 학습 알고리즘을 이용하여 입력된 얼굴 이미지로부터 감정을 정확하게 식별할 수 있는 얼굴 감정 인식 장치 및 그 방법에 관한 것이다.The present invention relates to a facial emotion recognition device capable of identifying emotions and a method thereof, and more particularly, to a facial emotion recognition device capable of accurately identifying emotions from an input facial image using a learning algorithm and a method thereof. will be.
최근 사람과 기계 사람과 사람 사이의 소통을 위한 기술들은 인간의 상호작용에 주요한 역할을 하는 오감을 토대로 발달해왔다. 특히 최근에는 인공지능 기술의 발달로 애플사의 siri, 아마존사의 alex 그리고 인공지능 스피커인 SKT의 NUGU, 네이버의 클로바까지 사람의 음성과 언어를 인지하여 반응하는 기술로 사람의 일상 스케줄을 관리하거나, 좋아하는 음악을 재생하는 등 인공지능 로봇에 적용되어 실 생활에 긴밀한 상호작용을 하고 있다. 그러나 사람의 복잡하고 복합적인 상호작용을 이해하기 위해서는, 기술에서도 다양한 감각의 수용이 필요하다. Recently, human and machine technologies for communication between humans and humans have been developed based on the five senses that play a major role in human interaction. In particular, with the development of artificial intelligence technology in recent years, Apple's siri, Amazon's alex, and SKT's NUGU, an artificial intelligence speaker, and Naver's Clova, manage people's daily schedules with technologies that recognize and respond to people's voices and languages. It is applied to artificial intelligence robots, such as playing music that is played, and has a close interaction in real life. However, in order to understand the complex and complex interactions of people, it is necessary to accept various senses in technology.
그 중에서도 인간의 감각 중 50%이상의 인지 비율을 가지고 있는 시각에 대한 기술의 필요성이 중요하다. 인간의 얼굴은 사용자의 현재 상태를 이해할 수 있는 단서로써 중요한 정보를 제공한다. 지난 10년 동안 표정 분류 및 인식은 널리 연구되어 왔고 최근 데이터의 증가와 딥러닝 기술의 발전으로 보다 정확하게 실시간으로 감정을 인식하는 얼굴 인식 시스템 연구가 활발해지고 있다. Among them, the necessity of technology for vision, which has a cognitive ratio of 50% or more of human senses, is important. The human face provides important information as a clue to understand the user's current state. Facial expression classification and recognition have been widely studied for the past 10 years, and with the recent increase in data and the development of deep learning technology, research on a face recognition system that more accurately recognizes emotions in real time has become active.
그러나, 종래의 얼굴인식 시스템은 딥러닝 학습에 사용하기 위하여 방대한 양의 데이터를 필요로 하고, 감정 레이블이 있는 얼굴 표정 인식 데이터 셋이 부족한 문제점이 야기되었다. However, the conventional facial recognition system requires a large amount of data to be used for deep learning learning, and a problem of a lack of facial expression recognition data set with emotion labels is caused.
또한, 얼굴 표정 인식 데이터 셋은 순차적으로 변화가 있는 데이터 셋보다 정지 상태의 테이터 셋이 주를 이루고 있어, 공간적인 모습을 주로 사용하여 정확도가 떨어지는 문제점이 있었다, In addition, the facial expression recognition data set is mainly composed of the data set in a stationary state than the data set in which there is a change in sequence, so there is a problem that the accuracy is poor due to mainly using the spatial appearance.
본 발명의 배경이 되는 기술은 대한민국 공개특허공보 제10-2014-00876007호(2014.07.09. 공개)에 개시되어 있다.The technology behind the present invention is disclosed in Korean Patent Application Publication No. 10-2014-00876007 (published on July 9, 2014).
본 발명이 이루고자 하는 기술적 과제는, 학습 알고리즘을 이용하여 입력된 얼굴 이미지로부터 감정을 정확하게 식별할 수 있는 얼굴 감정 인식 장치 및 그 방법을 제공하는데 목적이 있다. An object of the present invention is to provide a facial emotion recognition apparatus and method capable of accurately identifying emotions from an input face image using a learning algorithm.
이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따르면, 입력된 얼굴 이미지로부터 감정을 식별하는 얼굴 감정 인식 장치에 있어서, 감정 인식 대상이 되는 얼굴 이미지를 입력받고, 입력된 얼굴 이미지로부터 얼굴 이미지 전체에 대한 특징을 추출하며, 추출된 특징으로부터 순위에 따라 나열된 6개의 감정을 획득하고, 획득된 6개의 감정 중 상위 2개의 감정에 대한 정보를 기하학적 변화량 추출부 및 감정분류부에 각각 전달하는 얼굴 특징 추출부, 상기 입력된 얼굴 이미지와 동일 인물에 대한 표정이 없는 기본 얼굴 이미지에 각각 부여된 특징점을 비교하여 좌표의 차이를 산출하고, CNN알고리즘에 의해 조합된 6개의 감정에 상기 좌표의 차이값을 적용하여 상위 2개의 감정에 대한 벡터값을 산출하는 기하학적 변화량 추출부, 그리고 상기 얼굴 특징 추출부로부터 전달받은 상위 2개의 감정으로부터 산출된 감정 인식값과 상기 기하학적 변화량 추출부에서 산출된 벡터값에 각각 가중치를 부여하여 상위 2개 감정에 대한 각각의 결과값을 산출하며, 산출된 결과값 중 최고값을 가진 감정을 분류하는 감정 분류부를 포함한다. According to an embodiment of the present invention for achieving such a technical problem, in a facial emotion recognition apparatus for identifying emotion from an input face image, a face image to be subjected to emotion recognition is input, and the entire face image is received from the input face image. Facial feature extraction that extracts features for, obtains six emotions listed according to ranking from the extracted features, and delivers information on the top two emotions among the obtained six emotions to the geometrical variation extraction unit and the emotion classification unit, respectively. Second, the difference in coordinates is calculated by comparing the feature points assigned to the input face image and the basic face image without facial expressions for the same person, and the difference in coordinates is applied to the six emotions combined by the CNN algorithm. Thus, a geometrical change amount extracting unit that calculates vector values for the upper two emotions, and an emotion recognition value calculated from the upper two emotions transmitted from the facial feature extracting unit and a vector value calculated by the geometrical change amount extracting unit are weighted respectively. And an emotion classifying unit that calculates each result value for the upper two emotions by assigning to and classifies the emotion having the highest value among the calculated result values.
상기 감정은, 행복, 슬픔, 두려움, 혐오감, 놀람 및 분노를 포함한 6가지로 분류될 수 있다. The emotions can be classified into six categories including happiness, sadness, fear, disgust, surprise and anger.
상기 얼굴 특징 추출부는, 상기 감정 인식 대상이 되는 얼굴 이미지를 입력받는 이미지 입력모듈, 상기 입력된 얼굴 이미지로부터 얼굴 영역을 분리하는 얼굴 영역 인식모듈, 상기 분리된 얼굴 이미지를 오토인코더(autoencoder)에 적용하여 상기 입력된 얼굴 이미지로부터 기본 얼굴 이미지를 생성하여 기하학적 변화량 추출부로 전달하는 얼굴생성모듈, LBP(local binary pattern) 알고리즘을 이용하여 상기 입력된 얼굴 이미지로부터 얼굴의 주요 특징 정보를 추출하는 얼굴 특징 추출모듈, 그리고 상기 추출된 얼굴의 주요 특징정보를 CNN알고리즘에 적용하여 6가지의 감정 결과를 산출하고, 산출된 6가지의 감정 결과 중에서 상위 2개에 해당하는 감정을 기하학적 변화량 추출부 및 감정분류부에 각각 전달하는 판단모듈을 포함할 수 있다. The facial feature extraction unit may include an image input module receiving an input of a face image subject to emotion recognition, a face region recognition module separating a face region from the input face image, and applying the separated face image to an autoencoder A face generation module that generates a basic face image from the input face image and transmits it to the geometric change amount extraction unit, and facial feature extraction that extracts main feature information of the face from the input face image using a local binary pattern (LBP) algorithm. The module and the extracted main feature information of the face are applied to the CNN algorithm to calculate six emotion results, and the emotion corresponding to the top two among the calculated six emotion results is determined by a geometric change amount extraction unit and an emotion classification unit. It may include a determination module that is transmitted to each.
상기 얼굴생성모듈은, 동일인에 대하여 표정이 있는 얼굴 이미지와 표정이 없는 기본 얼굴이미지를 이용하여 2개의 얼굴 이미지 사이의 특징값 차이로부터 발생되는 에러를 학습시켜 데이터셋을 생성하며, 상기 생성된 데이터셋이 적용된 오토인코더(autoencoder)를 이용하여 상기 감정 인식 대상이 되는 얼굴 이미지로부터 상기 기본 얼굴 이미지를 생성할 수 있다. The face generation module generates a dataset by learning an error arising from a difference in feature values between two face images using a facial image with an expression and a basic face image without an expression for the same person, and generates the data set. The basic face image may be generated from the face image that is the emotion recognition target by using an autoencoder to which the set is applied.
상기 얼굴 특징 추출모듈은, 상기 얼굴 영역만 분리된 얼굴 이미지에 블러링(blurring)을 적용하여 노이즈를 제거한 다음, LBP알고리즘을 이용하여 주요 액션 유니트(action units) 위주로 특징을 추출할 수 있다. The facial feature extraction module may apply blurring to a face image in which only the face area is separated to remove noise, and then extract features mainly in main action units using an LBP algorithm.
상기 LBP알고리즘은, 하기 수학식에 의해 산출될 수 있다. The LBP algorithm may be calculated by the following equation.
, ,
여기서, 는 입력된 얼굴 이미지에 선택된 현재의 픽셀이고, 는 의 이웃에 분포된 픽셀이고, 은 현재의 픽셀과 이웃의 픽셀을 비교하여 0 또는 1로 산출된 값이고, P는 8로, 비교하고자 하는 이웃 픽셀의 개수이다. 따라서 p는 0부터 7까지 현재의 픽셀의 왼쪽 상단에 위치한 이웃 픽셀부터 시계방향으로 부여된다.here, Is the current pixel selected in the input face image, Is Are pixels distributed in the neighborhood of Is a value calculated as 0 or 1 by comparing the current pixel with a neighboring pixel, and P is 8, which is the number of neighboring pixels to be compared. Therefore, p is given from 0 to 7 in a clockwise direction from a neighboring pixel located at the top left of the current pixel.
상기 판단모듈은, 상기 LBP알고리즘이 적용된 상기 입력된 얼굴 이미지에 복수의 컨볼루션(convolution)을 적용하여 6가지의 감정을 산출하고, 산출된 6가지의 감정 중에서 상위 2개에 해당하는 감정을 분류할 수 있다. The determination module calculates six emotions by applying a plurality of convolutions to the input face image to which the LBP algorithm is applied, and classifies emotions corresponding to the top two among the calculated six emotions. can do.
상기 기하학적 변화량 추출부는, 상기 감정 인식 대상이 되는 얼굴 이미지를 입력받는 이미지 입력모듈, 상기 입력된 얼굴 이미지와 상기 얼굴 생성모듈로부터 전달받은 기본 얼굴 이미지에 액션 유니트(action units)를 중심으로 특징점을 생성하는 특징점 생성모듈, 상기 생성된 특징점을 이용하여 상기 입력된 얼굴 이미지와 상기 기본 얼굴 이미지를 비교 판단하고, 차이가 발생된 특징점에 대한 좌표 차이를 이용하여 벡터값을 산출하는 벡터값 산출모듈, 그리고 상기 판단모듈로부터 수신된 상위 2개의 감정에 대응되며, 상기 벡터값 산출모듈에서 산출된 벡터값을 CNN알고리즘에 적용하여 조합된 6개의 감정 중에서 상위 2개에 해당하는 감정을 선택하는 감정결과 산출 모듈을 포함할 수 있다. The geometrical change amount extracting unit generates feature points based on action units on an image input module receiving an input of the face image to be subjected to emotion recognition, the input face image and a basic face image transmitted from the face generation module. A feature point generation module, a vector value calculation module that compares and determines the input face image and the basic face image using the generated feature point, and calculates a vector value using a coordinate difference for the feature point where the difference occurs, and An emotion result calculation module that corresponds to the upper two emotions received from the determination module, and selects emotions corresponding to the upper two among the six emotions combined by applying the vector value calculated by the vector value calculation module to the CNN algorithm It may include.
상기 벡터값 산출모듈은, 하기 수학식에 의해 벡터값을 산출할 수 있다. The vector value calculation module may calculate a vector value by the following equation.
여기서, (, )는 표정이 있을 때의 특징점에 대한 좌표값이고, (, )는 표정이 없을 때의 특징점에 대한 좌표값이다. here, ( , ) Is the coordinate value for the feature point when there is an expression, and ( , ) Is the coordinate value for the feature point when there is no expression.
상기 감정 분류부는, 상기 얼굴 특징 추출부로부터 상위 2가지의 감정에 대한 정보를 전달받는 감정수신모듈, 상기 얼굴 특징 추출부로부터 전달받은 상위 2가지의 감정을 감정 인식값으로 산출하여 정규화하는 인식값 산출모듈, 그리고 상기 얼굴 특징 추출부의 상위 2가지의 감정에 대한 인식값과 상기 기하학적 변화량 추출부로부터 전달받은 상위 2가지의 감정에 대한 벡터값에 가중치를 부여하여 상기 상위 2가지의 감정에 대해 결과값을 산출하며, 산출된 결과값 중에서 최고 값이 부여된 감정을 상기 감정 인식 대상이 되는 얼굴 이미지에 대한 감정으로 결정할 수 있다. The emotion classification unit includes an emotion receiving module for receiving information on the upper two emotions from the facial feature extraction unit, and a recognition value for calculating and normalizing the upper two emotions transmitted from the facial feature extraction unit as an emotion recognition value. The calculation module, and the recognition values for the upper two emotions of the facial feature extracting unit and the vector values for the upper two emotions transmitted from the geometrical variation extracting unit, are weighted to result in the upper two emotions. A value is calculated, and an emotion to which the highest value is assigned among the calculated result values may be determined as the emotion for the face image to be the emotion recognition target.
상기 감정 분류부는, 하기 수학식에 의해 상기 상위 2가지의 감정에 대해 결과값을 산출할 수 있다. The emotion classification unit may calculate result values for the upper two emotions by the following equation.
여기서, 는 얼굴 특징 추출부에서 추출된 감정에 대한 인식값이고, 는 기하학적 변화량 추출부에서 추출된 감정에 대한 벡터값이며, 는 가중치 값을 나타낸다. here, Is the recognition value for the emotion extracted from the facial feature extraction unit, Is a vector value for the emotion extracted from the geometric change amount extraction unit, Represents the weight value.
상기 가중치 값은 0.7과 0.8의 사이의 값으로 설정될 수 있다. The weight value may be set to a value between 0.7 and 0.8.
또한, 본 발명은 감정 인식 대상이 되는 얼굴 이미지로부터 얼굴 이미지 전체에 대한 특징을 추출하고, 상기 추출된 얼굴 특징으로부터 획득된 6개의 감정 중 상위 2개의 감정에 대한 정보를 추출하는 단계,In addition, the present invention includes the steps of extracting features for the entire face image from the face image subject to emotion recognition, and extracting information on the upper two emotions among the six emotions obtained from the extracted facial features,
상기 입력된 얼굴 이미지와 동일 인물에 대한 표정이 없는 기본 얼굴 이미지에 각각 부여된 특징점을 비교하여 좌표의 차이를 산출하고, 상기 산출된 좌표의 차이값을 CNN알고리즘에 적용하여 상위 2개의 감정에 대한 벡터값을 산출하는 단계, 그리고The input face image and the feature points assigned to the basic face image without expression for the same person are compared to calculate the difference in coordinates, and the calculated difference value of the coordinates is applied to the CNN algorithm for the upper two emotions. Calculating the vector value, and
상기 얼굴 특징으로부터 산출된 상위 2개의 감정에 대한 인식값과 특징점의 차이를 이용하여 산출된 상위 2개의 감정에 대한 벡터값에 각각 가중치를 부여하여 상위 2개 감정에 대한 각각의 결과값을 산출하고, 산출된 결과값 중 최고값을 가진 감정을 최종 감정으로 분류하는 단계를 포함한다. Each result value for the upper two emotions is calculated by assigning a weight to each of the vector values for the upper two emotions calculated using the difference between the recognition values for the upper two emotions calculated from the facial features and the feature point, and And classifying the emotion having the highest value among the calculated result values as final emotions.
이와 같이 본 발명에 따르면, 종래의 알고리즘을 통해 획득한 상위 2 개의 감정 내에서 빈번하게 발생되는 감정인식 오류를 개선하고, 동적, 또는 정적인 상태의 특징으로 모두 사용 가능하며, 얼굴 특징 통해 추출된 인식값과 특징점의 기하학적 변화량을 통해 산출된 벡터값에 각각 가중치를 부여 결과값을 산출함으로써 정확도가 개선된 최종 감정이 결정되는 효과를 도모할 수 있다. As described above, according to the present invention, it is possible to improve emotion recognition errors that frequently occur in the upper two emotions obtained through a conventional algorithm, and can be used both as features of a dynamic or static state, and extracted through facial features. A weight is applied to the vector value calculated through the geometric change of the recognition value and the feature point, and the result value is calculated, thereby achieving an effect of determining a final emotion with improved accuracy.
또한, 본 발명은 별도의 데이터 셋이 없어도 입력된 얼굴 이미지에서 기본 얼굴 이미지를 추출할 수 있으므로 데이터 셋의 부족 문제를 해결하고, 공간적인 데이터 셋이 아닌 정적인 데이터 셋으로부터 동적인 정보 추출이 가능한 효과를 지닌다. In addition, since the present invention can extract a basic face image from an input face image even without a separate data set, it is possible to solve the problem of lack of data set and to extract dynamic information from a static data set rather than a spatial data set. It has an effect.
또한, 본 발명은 감정을 은폐하려는 정서 상태 시, 변화의 정도가 적고 짧은 시간을 가지기 때문에, 부분적인 액션 유니트의 강도 측정과 높은 프레임 수를 분석함으로써, 더 세밀하고 포괄적인 분석이 가능한 효과를 지닌다. In addition, the present invention has the effect of enabling a more detailed and comprehensive analysis by measuring the strength of a partial action unit and analyzing a high number of frames because the degree of change is small and has a short time in the emotional state to conceal the emotion. .
도 1은 본 발명의 실시예에 따른 얼굴 표정 인식 장치에 관한 구성도이다.
도 2는 도 1에 도시된 얼굴 특징 추출부에 대한 구성도이다.
도 3은 도 1에 도시된 기하학적 변화량 추출부 에 대한 구성도이다.
도 4는 도 3의 특징점 생성모듈에서 생성된 특징점을 개략적으로 설명하기 위한 도면이다.
도 5는 도 1에 도시된 감정분류부에 대한 구성을 나타내는 도면이다.
도 6은 본 발명의 실시예에 따른 얼굴 감정 인식 장치를 이용한 감정 식별 방법을 개략적으로 설명하기 위한 순서도이다.
도 7은 도 6에 도시된 S610 단계를 설명하기 위한 순서도이다.
도 8은 도 7에 도시된 S613단계에서 오토인코더를 통해 얼굴 이미지로부터 기본 얼굴 이미지를 생성하는 예를 도시한 도면이다.
도 9는 7에 도시된 S614단계에서 LBP알고리즘을 통해 특징을 추출하는 방법을 도시한 도면이다.
도 10은 7에 도시된 S615단계에서 판단 모듈로부터 상위 2개의 감정을 추출하는 방법을 예시한 도면이다.
도 11은 도 6에 도시된 S620 단계를 설명하기 위한 순서도이다.
도 12는 도 11에 도시된 S623단계에서 얼굴이미지와 기본이미지의 차이를 개략적으로 설명하기 위한 도면이다.
도 13은 도 6에 도시된 S630 단계를 설명하기 위한 순서도이다.
도 14는 도 8에 도시된 S634 단계에서 부여되는 가중치 값에 대한 그래프이다.1 is a block diagram of an apparatus for recognizing facial expressions according to an embodiment of the present invention.
FIG. 2 is a configuration diagram of a facial feature extraction unit illustrated in FIG. 1.
3 is a configuration diagram of a geometric change amount extraction unit shown in FIG. 1.
FIG. 4 is a diagram schematically illustrating a feature point generated by the feature point generation module of FIG. 3.
5 is a diagram showing the configuration of the emotion classification unit shown in FIG.
6 is a flowchart schematically illustrating an emotion identification method using a facial emotion recognition apparatus according to an embodiment of the present invention.
FIG. 7 is a flow chart for explaining step S610 shown in FIG. 6.
FIG. 8 is a diagram illustrating an example of generating a basic face image from a face image through an autoencoder in step S613 shown in FIG. 7.
9 is a diagram illustrating a method of extracting a feature through the LBP algorithm in step S614 shown in FIG. 7.
10 is a diagram illustrating a method of extracting the upper two emotions from the determination module in step S615 shown in FIG. 7.
11 is a flow chart for explaining step S620 shown in FIG.
12 is a diagram schematically illustrating a difference between a face image and a basic image in step S623 illustrated in FIG. 11.
FIG. 13 is a flowchart for explaining step S630 shown in FIG. 6.
14 is a graph of a weight value assigned in step S634 shown in FIG. 8.
이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this process, the thickness of the lines or the size of components shown in the drawings may be exaggerated for clarity and convenience of description.
또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of users or operators. Therefore, definitions of these terms should be made based on the contents throughout the present specification.
이하에서는 도 1을 이용하여 본 발명의 실시예에 따른 얼굴 표정 인식 장치에 대하여 설명한다. Hereinafter, an apparatus for recognizing facial expressions according to an embodiment of the present invention will be described with reference to FIG. 1.
도 1은 본 발명의 실시예에 따른 얼굴 표정 인식 장치에 관한 구성도이다.1 is a block diagram of an apparatus for recognizing facial expressions according to an embodiment of the present invention.
도 1에 나타난 바와 같이, 본 발명의 실시예에 따른 얼굴 표정 인식 장치(100)는 얼굴 특징 추출부(110), 기하학적 변화량 추출부(120), 감정 분류부(130)를 포함한다. As shown in FIG. 1, the facial
먼저, 얼굴 특징 추출부(110)는 사용자로부터 감정 인식 대상이 되는 얼굴 이미지를 입력받고, 입력된 얼굴 이미지로부터 얼굴 이미지 전체에 대한 특징을 추출한다. First, the facial
그 다음, 얼굴 특징 추출부(110)는 얼굴 이미지 전체에서 추출된 특징으로부터 순위에 따라 나열된 6개의 감정을 획득하고, 획득된 6개의 감정 중 상위 2개의 감정에 대한 정보를 기하학적 변화량 추출부(120) 및 감정분류부(130)에 각각 전달한다. Then, the facial
기하학적 변화량 추출부(120)는 입력된 얼굴 이미지와 동일 인물에 대한 표정이 없는 기본 얼굴 이미지에 각각 부여된 특징점을 비교하여 좌표의 차이를 산출한다. 그 다음, 기하학적 변화량 추출부(120)는 산출된 좌표의 차이값을 CNN알고리즘에 적용하여 조합된 6개의 감정 중에서 상위 2개의 감정에 대한 벡터값을 산출한다. The geometrical change
감정 분류부(130)는 얼굴 특징 추출부(110)에서 추출된 상위 2개 에 대한 감정정보와 기하학적 변화량 추출부(120)에서 추출된 상위 2개의 감정에 대한 벡터값에 각각 가중치를 부여하여 결과값을 산출한다. 감정 분류부(130)는 산출된 결과값을 이용하여 상위 2개 감정 중에서 최고값을 가진 감정을 최종 감정으로 결정한다. The
이하에서는 도 2를 통하여 본 발명의 실시예에 따른 얼굴 특징 추출부(110)에 대하여 설명한다. Hereinafter, a facial
도 2는 도 1에 도시된 얼굴 특징 추출부에 대한 구성도이다. FIG. 2 is a configuration diagram of a facial feature extraction unit illustrated in FIG. 1.
얼굴 특징 추출부(110)는 입력된 감정 인식 대상이 되는 얼굴 이미지로부터 얼굴 영역을 추척하고, 추척된 얼굴 영역에서 특징을 추출하는 것으로서, 이미지 입력모듈(111), 얼굴 영역 인식모듈(112), 얼굴생성모듈(113), 얼굴 특징 추출 모듈(114) 및 판단모듈(115)을 포함한다. The facial
먼저, 이미지 입력모듈(111)은 사용자가 입력한 얼굴 이미지를 수신한다. 수신된 얼굴 이미지는 감정 인식 대상으로서, 이미지 입력모듈(111)은 수신된 얼굴이미지를 영역 인식모듈(112)에 전달한다. First, the
얼굴 영역 인식모듈(112)은 전달받은 얼굴 이미지로부터 얼굴 영역만을 분리한다. The face
이때, 얼굴 영역 인식모듈(112)이 얼굴 영역만을 분리하는 이유는 이미지 내에 포함된 인물의 위치, 인물이 착용하고 있는 세서리, 햇빛 및 인물이 착용하고 있는 의상 등의 환경 변수에 따라 감정 인식의 정확도가 떨어지는 것을 방지하기 위함이다. At this time, the reason why the face
얼굴생성모듈(113)은 전달받은 얼굴 영역만 분리된 얼굴 이미지로부터 기본 얼굴 이미지를 생성한다. 또한, 얼굴생성모듈(113)은 동일 인물에 대하여 얼굴이미지와 기본 얼굴이미지를 모두를 수집하여 데이터셋을 생성한다. The
얼굴 특징 추출 모듈(114)은 얼굴 영역 인식 모듈(112)로부터 분리된 얼굴 이미지를 LBP(local binary pattern) 알고리즘에 적용하여 얼굴 전체의 주요 특징을 추출한다. 이를 다시 설명하면, 얼굴 특징 추출 모듈(114)은 얼굴 전체의 주요 특징을 추출하기 위하여 입력된 얼굴이미지의 각 픽셀에 대한 LBP을 산출하고, 산출된 LBP 이미지 결과에 따라 질감 형태로 나타낸 얼굴이미지를 판단모듈(115)에 전달한다. The facial
판단모듈(115)은 전달받은 질감 형태의 얼굴이미지를 CNN알고리즘에 적용하여 6가지의 감정 결과를 산출한다. The
산출된 6가지의 감정에 대한 정보는 순서에 따라 나열되며, 판단모듈(115)은 나열된 6가지의 감정에 대한 정보 중에서 순위가 높은 2가지의 감정 정보를 감정분류부(130)에 전달한다. The calculated information on the six emotions is arranged in order, and the
이하에서는 도 3및 도 4를 통하여 본 발명의 실시예에 따른 기하학적 변화량 추출부(120)에 대하여 더욱 상세하게 설명한다. Hereinafter, the geometrical change
도 3은 도 1에 도시된 기하학적 변화량 추출부 에 대한 구성도이고, 도 4는 도 3의 특징점 생성모듈에서 생성된 특징점을 개략적으로 설명하기 위한 도면이다. FIG. 3 is a configuration diagram of a geometric change amount extracting unit shown in FIG. 1, and FIG. 4 is a diagram schematically illustrating a feature point generated by the feature point generation module of FIG. 3.
기하학적 변화량 추출부(120)는 얼굴 이미지와 기본 얼굴이미지에 각각 부여된 특징점을 이용하여 변화량을 추출하고, 추출된 변화량을 이용하여 상위 2개의 감정에 대한 벡터값을 추출하는 것으로서, 이미지 입력모듈(121), 특징점 생성모듈(122), 벡터값 산출모듈(123) 및 감정결과 산출모듈(124)을 포함한다.The geometrical change
먼저, 이미지 입력모듈(121)은 사용자로부터 감정 인식 대상이 되는 얼굴 이미지를 입력받는다. First, the
특징점 생성모듈(122)은 이미지 입력모듈(121)로부터 얼굴 이미지를 전달받고, 전달받은 얼굴이미지에 액션 유니트를 중심으로 특징점을 생성한다. The feature
액션 유니트(action units)는 얼굴 표정을 지을 때 움직이는 주요 근육들을 지칭하는 것으로서, 특징점 생성모듈(122)은 도 4에 도시된 바와 같이, 눈썹, 눈, 코, 입 등에 대략 18개 정도의 특징점을 위치시킨다. Action units refer to major muscles that move when making facial expressions. As shown in FIG. 4, the feature
상기와 같이 특징점을 생성함으로서, 얼굴이미지를 통해 감정을 식별할 때 조명으로부터의 영향을 줄일 수 있고, 얼굴 이미지와 기본 얼굴 이미지의 차이점을 통해 감정 식별이 용이한 효과를 지닌다. By generating the feature points as described above, it is possible to reduce the effect of lighting when identifying emotions through a face image, and it has an effect that it is easy to identify emotions through a difference between a face image and a basic face image.
한편, 특징점 생성모듈(122)은 얼굴 이미지에 생성된 특징점의 변화를 추적하기 위하여 기본 얼굴 이미지에도 특징점을 생성한다. 만약, 기본 얼굴 이미지에 대한 정보가 없을 경우에는 얼굴 특징 추출부(110)의 얼굴 생성모듈(112)에 생성된 기본 얼굴 이미지를 요청하여 수신한다. Meanwhile, the feature
벡터값 산출모듈(123)은 특징점 생성모듈(122)로부터 특징점이 생성된 얼굴 이미지와 기본 얼굴 이미지를 각각 전달받고, 얼굴 이미지와 기본 얼굴 이미지를 비교 판단하여 차이가 발생된 특징점에 대해 벡터값을 산출한다. The vector
이하에서는 도 5를 이용하여 본 발명의 실시예에 따른 감정분류부(130)에 대하여 더욱 상세하게 설명한다. Hereinafter, the
도 5는 도 1에 도시된 감정분류부에 대한 구성을 나타내는 도면이다. 5 is a diagram showing the configuration of the emotion classification unit shown in FIG.
도 5에 나타낸 바와 같이, 감정 분류부(130)는 얼굴 특징 추출부(110)에서 추출된 상위 2개의 감정에 대한 정보와 기하학적 변화량 추출부(120)에서 추출된 상위 2개의 감정에 대한 벡터값에 각각 가중치를 부여하여 최종 감정으로 결정할 수 있는 결과값을 산출하는 것으로서, 감정수신모듈(131), 인식값 산출모듈(132) 및 분류모듈(133)을 포함한다. As shown in FIG. 5, the
감정수신모듈(131)은 얼굴 특징 추출부(110)로부터 상위 2가지의 감정에 대한 정보를 전달받는다. 이때, 특징 추출부(110)로부터 수신된 상위 2가지의 감정 정보는 값으로 산출된 것이 아니라 정보만을 포함한다. 따라서, 감정수신모듈(131)은 수신된 감정 정보를 인식값 산출모듈(132)에 전달한다. The
인식값 산출모듈(132)은 전달받은 상위 2가지의 감정에 대한 정보를 인식값으로 산출한다. 따라서, 인식값 산출모듈(132)은 감정에 대한 정보를 인식값으로 산출하여 정규화한다. The recognition
분류모듈(133)은 얼굴 특징 추출부(110)로부터 전달받아 획득한 상위 2가지의 감정에 대한 인식값과 기하학적 변화량 추출부(120)로부터 전달받은 상위 2가지의 감정에 대한 벡터값을 전달받는다. 그리고, 분류모듈(133)은 전달받은 인식값과 벡터값에 가중치를 부여하여 감정 인식 대상이 되는 얼굴 이미지에 대한 감정을 결정한다. The
이하에서는 도 6을 통하여 본 발명의 실시예에 따른 얼굴 감정 인식 장치(100)를 이용하여 감정을 식별할 수 있는 방법에 대하여 설명한다. Hereinafter, a method of identifying an emotion using the facial
도 6은 본 발명의 실시예에 따른 얼굴 감정 인식 장치를 이용한 감정 식별 방법을 개략적으로 설명하기 위한 순서도이다. 6 is a flowchart schematically illustrating an emotion identification method using a facial emotion recognition apparatus according to an embodiment of the present invention.
도 6에 나타낸 바와 같이, 본 발명의 실시예에 따른 얼굴 감정 인식 장치(100)를 이용한 감정 식별 방법은 얼굴 특징 추출부로부터 상위 2개 감정에 대한 정보를 추출하는 단계(S610), 기하학적 변화량 추출부로부터 상위 2개 감정에 대한 벡터값을 추출하는 단계(S620) 및 최종 감정 분류단계(S630)을 포함한다. As shown in FIG. 6, in the emotion identification method using the facial
먼저, 얼굴 특징 추출부(110)는 입력된 얼굴 이미지를 이용하여 얼굴 전체에 대한 특징을 추출하고, 추출된 특징으로부터 상위 2개 감정에 대한 정보를 추출한다(S610). First, the facial
그 다음, 기하학적 변화량 추출부(120)는 사용자가 입력한 얼굴 이미지와 얼굴 특징 추출부(110)로부터 수신된 기본 얼굴이미지에 특징점을 생성한다. 기하학적 변화량 추출부(120)는 생성된 특징점의 차이값을 이용하여 상위 2개 감정에 대한 벡터값을 산출한다(S620). Then, the geometrical change
상기와 같이, 얼굴 특징 추출부(110)에서 상위 2개 감정에 대한 정보를 추출하고, 기하학적 변화량 추출부(120)에서 상위 2개 감정에 대한 벡터값을 산출이 완료되면, 감정 분류부(130)는 인식값과 벡터값에 각각 가중치를 부여하여 결과값을 산출하고, 산출된 결과값을 이용하여 최종 감정 결정한다(S630).As described above, when the facial
하기에서는 앞서 기재된 각 단계를 더욱 상세하게 설명한다. In the following, each step described above will be described in more detail.
먼저, 도 7내지 도 10을 이용하여 얼굴 특징 추출부로부터 상위 2개 감정에 대한 정보를 추출하는 단계(S610)에 대해 더욱 상세하게 설명한다. First, a step (S610) of extracting information on the upper two emotions from the facial feature extraction unit will be described in more detail using FIGS. 7 to 10.
도 7은 도 6에 도시된 S610 단계를 설명하기 위한 순서도이고, 도 8은 도 7에 도시된 S613단계에서 오토인코더를 통해 얼굴 이미지로부터 기본 얼굴 이미지를 생성하는 예를 도시한 도면이고, 도 9는 7에 도시된 S614단계에서 LBP알고리즘을 통해 특징을 추출하는 방법을 도시한 도면이고, 도 10은 7에 도시된 S615단계에서 판단 모듈로부터 상위 2개의 감정을 추출하는 방법을 예시한 도면이다. 7 is a flow chart for explaining step S610 shown in FIG. 6, and FIG. 8 is a diagram showing an example of generating a basic face image from a face image through an autoencoder in step S613 shown in FIG. FIG. 7 is a diagram illustrating a method of extracting features through the LBP algorithm in step S614 shown in FIG. 7, and FIG. 10 is a diagram illustrating a method of extracting the upper two emotions from the determination module in step S615 shown in FIG.
도 7에 나타낸 바와 같이, 얼굴 특징 추출부로부터 상위 2개 감정에 대한 정보를 추출하는 단계(S610)는 얼굴 이미지 입력단계(S611), 얼굴 영역 분리 단계(S612), 기본 얼굴 생성단계(S613). LBP알고리즘을 통해 얼굴 특징 추출단계(S614) 및 상위 2가지 감정 정보 전달단계(S615)를 포함한다. As shown in FIG. 7, the step of extracting information on the upper two emotions from the facial feature extraction unit (S610) includes a face image input step (S611), a face region separation step (S612), and a basic face generation step (S613). . It includes a facial feature extraction step (S614) and the upper two emotion information delivery step (S615) through the LBP algorithm.
먼저, 얼굴 특징 추출부(110)의 이미지 입력모듈(111)은 사용자로부터 인식 대상이 되는 얼굴 이미지를 입력받는다(S611).First, the
이미지 입력모듈(111)은 입력받은 얼굴이미지를 이미지 입력모듈(112)에 전달하고, 이미지 입력모듈(112)은 전달받은 얼굴 이미지에서 얼굴 영역만 분리한다(S612).The
상기에서 분리된 얼굴 이미지는 얼굴 생성 모듈(113)과 얼굴 특징 추출모듈(114)에 각각 전달한다. The separated face image is transmitted to the
먼저, 얼굴생성모듈(113)은 생성된 데이터 셋을 기반으로 감정 인식 대상이 되는 얼굴 이미지로부터 기본 얼굴이미지를 생성한다(S613).First, the
이에 대하여 자세하게 설명하면, 먼저, 얼굴생성모듈(113)은 도 8에 나타낸 바와 같이, 동일 인물로부터 획득한 얼굴 이미지와 기본 얼굴 이미지를 VGG19 네트워크 구조가 차용된 오토인코더(autoencoder)의 인풋(input)과 아웃풋(output)에 각각 입력한다. To explain this in detail, first, as shown in FIG. 8, the
이때, 오토인코더(autoencoder)는 다차원 입력 데이터를 저차원 부호로 바꾸고, 다시 저차원 부호를 처음 입력한 다차원 데이터로 바꾸면서 차이값을 찾아내는 것이다.In this case, the autoencoder finds a difference value by changing the multidimensional input data into a low-dimensional code and then converting the low-dimensional code into the first input multidimensional data.
상기와 같이, 얼굴생성모듈(113)은 오토인코더(autoencoder)를 통해 얼굴 이미지와 기본 얼굴 이미지 사이에 발생되는 차이값을 반복적으로 산출하여 데이터 셋을 생성한다.As described above, the
따라서, 얼굴생성모듈(113)은 사용자로부터 입력된 얼굴 이미지가 감정은 알 수 없되 표정이 발생된 이미지 하나일 경우, 딥러닝된 데이터셋에 의해 산출된 차이값을 입력된 얼굴 이미지에 적용하여 기본 얼굴 이미지를 생성한다. Therefore, when the face image input from the user is one image in which emotions are unknown but expressions are generated, the
한편, 분리된 얼굴 이미지를 전달받은 얼굴 특징 추출모듈(114)은 분리 얼굴 이미지로부터 얼굴 전체 특징을 추출한다(S614). Meanwhile, the facial
이때, 얼굴 특징 추출모듈(114)에서 추출되는 얼굴 전체 특징은 얼굴 이미지에 포함된 복수의 픽셀에서 특징값을 산출하고, 산출된 특징값에 따라 유채색으로 나타나 있던 얼굴 이미지를 무채색으로 표현하되 질감이 있는 것처럼 나타낸다. At this time, for the entire face feature extracted by the facial
따라서, 얼굴 특징 추출모듈(114)은 LBP(local binary pattern) 알고리즘을 이용하여 특징값을 산출한다. Accordingly, the facial
LBP(local binary pattern) 알고리즘은 이미지의 질감을 효율적으로 나타내는 것으로서, 이미지의 모든 픽셀에 대해 각 픽셀의 주변 영역의 상대적인 밝기 변화를 이진수로 코딩한 값을 산출한다. 즉, 중앙 픽셀보다 밝으면 1, 어두우면 0으로 코딩하고, 코딩된 값들을 연결한 이진수를 해당 픽셀의 특징값으로 사용하며, 현재 픽셀의 LBP는 하기 수학식 1를 이용하여 계산한다. The LBP (local binary pattern) algorithm efficiently expresses the texture of an image, and calculates a value obtained by coding the relative brightness change of the surrounding area of each pixel for all pixels of the image in binary numbers. That is, if it is brighter than the center pixel, it is coded as 1, and if it is dark, it is coded as 0, and a binary number connecting the coded values is used as the feature value of the pixel, and the LBP of the current pixel is calculated using
여기서, 는 입력된 얼굴 이미지에 선택된 현재의 픽셀이고, 는 의 이웃에 분포된 픽셀이고, 은 현재의 픽셀과 이웃의 픽셀을 비교하여 0 또는 1로 산출된 값이다. 또한, P는 8로, 비교하고자 하는 이웃 픽셀의 개수이다. 따라서 p는 0부터 7까지 현재의 픽셀의 왼쪽 상단에 위치한 이웃 픽셀부터 시계방향으로 부여된다.here, Is the current pixel selected in the input face image, Is Are pixels distributed in the neighborhood of Is a value calculated as 0 or 1 by comparing the current pixel with a neighboring pixel. Also, P is 8, which is the number of neighboring pixels to be compared. Therefore, p is given from 0 to 7 in a clockwise direction from a neighboring pixel located at the top left of the current pixel.
예를 들어 설명하면, 도 9에 도시된 바와 같이, 현재의 픽셀을 중심으로 이웃하고 있는 8개의 픽셀을 이용한다. 현재 픽셀값()이 65이고, 주변 픽셀값()이 70,66,58,60,60,64,68,69값을 가진다고 가정한 상태에서, )식을 대입하면, 5, 1, -7, -5, -5, -1, 3, 4가 산출된다. For example, as shown in FIG. 9, eight pixels adjacent to the current pixel are used. Current pixel value ( ) Is 65, and the surrounding pixel value ( ) Is assumed to have values of 70,66,58,60,60,64,68,69, Substituting the equation) yields 5, 1, -7, -5, -5, -1, 3, 4.
이때, 산출된 값을 이진수로 변환하며, 이진수 변환 방법은 이웃의 픽셀이 현재의 픽셀보다 더 크거나 같은 경우 1로 변환하고, 현재의 픽셀이 더 작은 경우에는 0으로 변환한다. 따라서, 5, 1, -7, -5, -5, -1, 3, 4는 1,1,0,0,0,0,1,1로 변환한다. At this time, the calculated The value is converted to a binary number. In the binary conversion method, when the neighboring pixel is greater than or equal to the current pixel, it is converted to 1, and when the current pixel is smaller, it is converted to 0. Thus, 5, 1, -7, -5, -5, -1, 3, 4 convert to 1,1,0,0,0,0,1,1.
변환된 값을 2의 거듭제곱으로 곱하고 이를 다시 더하여 LBP를 계산한다. 즉, (1*1)+(1*2)+(0*4)+(0*8)+(0*16)+(0*32)+(1*64)+(1*128)로 계산하여 195를 산출한다. The converted value is multiplied by a power of 2 and added again to calculate the LBP. That is, (1*1)+(1*2)+(0*4)+(0*8)+(0*16)+(0*32)+(1*64)+(1*128) 195 is calculated.
상기와 같은 산출방법에 따라 얼굴 특징 모듈(114)은 입력된 얼굴이미지의 각 픽셀에 대한 LBP을 산출하여 입력받은 얼굴이미지를 질감 형태로 나타내고 이를 판단모듈(115)에 전달한다. According to the above calculation method, the
한편, 얼굴 특징 추출모듈(114)은 얼굴 영역만 분리된 얼굴 이미지를 LBP알고리즘에 전용하기 전에 전처리 과정인 블러링(blurring)을 적용하여 노이즈를 제거한 다음, LBP알고리즘을 이용하여 주요 액션 유니트(action units) 위주로 특징을 추출한다. On the other hand, the facial
상기와 같이, 얼굴 특징 추출모듈(114)로부터 얼굴 특징에 대한 정보를 전달받은 판단모듈(115)은 특징 정보를 CNN알고리즘에 적용하여 6가지의 감정 결과를 산출한다. As described above, the
한편, CNN알고리즘은 합성곱 신경망이라고 불리는 인공 신경망 알고리즘으로서, 입력 데이터가 2차원 형태로 존재하며, 컨볼루션 계층 및 풀링 계층을 포함한다. 이때, 컨볼루션 계층 및 풀링 계층은 얼굴 이미지에서 영역을 지정하고 값을 압축하는 과정을 진행한다. Meanwhile, the CNN algorithm is an artificial neural network algorithm called a convolutional neural network, in which input data exists in a two-dimensional form, and includes a convolutional layer and a pooling layer. At this time, the convolutional layer and the pooling layer designate a region in the face image and perform a process of compressing a value.
따라서, 판단모듈(115)은 전달받은 LBP 이미지를 CNN알고리즘에 입력하고 하기 표1에 기재된 바와 같이 3번의 컨볼루션 계층과 두번의 풀링 계층을 진행하여 마지막 소프트맥스 계층에 7개로 분류된 감정정보를 산출한다. Therefore, the
이때, 7개의 감정은 행복, 슬픔, 두려움, 혐오감, 놀람 및 분노를 포함한 6가지와 하나의 무감정을 포함한다. 그러나, 본 발명에서는 무감정을 제외한 6가지 감정으로 분류한다. At this time, the seven emotions include six emotions, including happiness, sadness, fear, disgust, surprise, and anger, and one innocence. However, in the present invention, it is classified into six emotions excluding no emotions.
상기와 같이 6가지의 감정정보를 산출한 판단모듈(115)은 도 10에 나타낸 바와 같이, 순위에 따라 0부터 5까지 나열하며, 나열된 0부터 5까지의 감정 정보중에서 0과 1에 해당하는 상위 2가지의 감정정보를 기하학적 변화량 추출부(120)와 감정분류부(130)에 각각 전달한다(S615).As shown in FIG. 10, the
이하에서는 도 11및 도 12를 이용하여 기하학적 변화량 추출부로부터 상위 2개 감정에 대한 벡터값를 추출하는 단계(S620)에 대하여 더욱 상세하게 설명한다.Hereinafter, the step (S620) of extracting vector values for the upper two emotions from the geometric change amount extracting unit will be described in more detail using FIGS. 11 and 12.
도 11은 도 6에 도시된 S620 단계를 설명하기 위한 순서도이고, 도 12는 도 11에 도시된 S623단계에서 얼굴이미지와 기본이미지의 차이를 개략적으로 설명하기 위한 도면이다.FIG. 11 is a flowchart illustrating step S620 shown in FIG. 6, and FIG. 12 is a diagram schematically illustrating a difference between a face image and a basic image in step S623 shown in FIG.
도 11에 나타난 바와 같이, 기하학적 변화량 추출부(120)로부터 상위 2개 감정에 대한 벡터값를 추출하는 단계(S620)는 얼굴 이미지 입력단계(S621), 입력된 얼굴 이미지와 기본 얼굴 이미지에 특징점 생성단계(S622), 특징점 차이를 이용하여 벡터값 산출단계(S623) 및 상위 2가지 감정 벡터값 산출 단계(S624)를 포함한다. As shown in FIG. 11, the step of extracting the vector values for the upper two emotions from the geometric change amount extracting unit 120 (S620) is a face image input step (S621), a feature point generation step in the input face image and the basic face image. (S622), a vector value calculation step (S623) by using the feature point difference, and the upper two emotion vector values calculation step (S624).
먼저, 사용자로부터 감정을 식별하기 위한 얼굴이미지를 입력받는다(S621), First, a face image for identifying emotion is input from the user (S621),
이때, 사용자는 얼굴 이미지 하나만 입력할 수도 있고, 동일 인물에 대한 얼굴 이미지와 기본 얼굴이미지를 모두 입력할 수도 있다. In this case, the user may input only one face image, or both a face image and a basic face image for the same person.
상기와 같이, 얼굴 이미지를 입력받은 이미지 입력모듈(121)은 얼굴 이미지를 특징점 생성모듈(122)에 전달한다. 얼굴 이미지를 전달받은 특징점 생성모듈(122)은 얼굴이미지에 특징점을 생성한다(S622).As described above, the
이때, 특징점 생성모듈(122)은 얼굴 이미지와 기본 얼굴 이미지 모두에게 특징점을 생성하여, 얼굴 이미지에 생성된 특징점과 기본 얼굴 이미지에 생성된 특징점의 차이를 비교할 수 있도록 한다. 만약, 사용자로부터 기본 얼굴 이미지를 입력받지 못하였을 경우에는 앞서 기재된 바와 같이, 얼굴 특징 추출부(120)의 얼굴 생성 모듈(113)에 요청하여 기본 얼굴 이미지를 수신받는다. At this time, the feature
상기와 같이 얼굴 이미지와 기본 얼굴 이미지 모두에 특징점을 생성한 특징점 생성모듈(122)은 얼굴 이미지와 기본 얼굴 이미지를 벡터값 산출모듈(123)에 전달한다. As described above, the feature
백터값 산출모듈(123)은 전달받은 얼굴 이미지와 기본 얼굴 이미지 각각에 생성된 특징점을 비교하고 발생된 좌표 차이를 이용하여 백터값을 산출한다(S623).The vector
한편, 특징점은 대략 18개로 생성하며, (x,y) 좌표를 가지고 있으므로 대략 36개의 벡터가 생성된다. On the other hand, approximately 18 feature points are generated, and since they have (x,y) coordinates, approximately 36 vectors are generated.
따라서, 벡터값 산출모듈(123)은 도 12에 도시된 바와 같이, 얼굴 이미지에 생성된 특징점의 좌표와 기본 얼굴 이미지에 생성된 특징점의 좌표를 비교하고, 비교하여 차이가 발생된 특징점에 대한 좌표를 벡터값으로 산출한다. Accordingly, as shown in FIG. 12, the vector
이때, 36길이의 벡터값은 수학식 2에 적용되어 산출한다. At this time, a vector value of length 36 is calculated by applying to
여기서, (, )는 표정이 있을 때의 특징점에 대한 좌표값이고, (, )는 표정이 없을 때의 특징점에 대한 좌표값이다. here, ( , ) Is the coordinate value for the feature point when there is an expression, and ( , ) Is the coordinate value for the feature point when there is no expression.
상기와 같이 벡터값을 산출한 백터값 산출모듈(123)은 벡터값을 감정결과 산출모듈(124)에 전달한다. The vector
감정결과 산출모듈(124)는 전달받은 벡터값을 VGG16 네트워크를 활용하여 구성된 CNN 알고리즘에 적용하여 조합된 6개의 감정 중에서 상위 2개에 해당하는 감정에 대한 벡터값을 선택하게 된다(S624).The emotion
VGG16 네트워크는 16개의 레이어로 구성된 모델이며, convolutional, fully-connected layer로 이루어진다. 따라서, 상기 VGG16 네트워크를 적용한 CNN알고리즘은 하기의 표2와 같다. The VGG16 network is a model consisting of 16 layers, and consists of a convolutional and fully-connected layer. Therefore, the CNN algorithm to which the VGG16 network is applied is shown in Table 2 below.
CNN알고리즘은 6개의 감정을 조합하여 총 30개의 경우의 수를 생성한다. 즉, 6개의 감정을 한쌍으로 조합하며, 조합된 한쌍의 감정은 하기의 표2에 기재된 바와 같이, 소프트맥스 계층에 상위 2에 해당하는 감정을 한쌍에 해당을 하는 모델을 선택하여 감정 결과를 산출한다. The CNN algorithm creates a total of 30 cases by combining 6 emotions. That is, six emotions are combined into a pair, and the combined emotions are calculated by selecting a model corresponding to the upper 2 emotions in the Softmax layer as shown in Table 2 below. do.
따라서, 감정결과 산출모듈(124)는 산출된 상위 2개의 감정에 대한 벡터값을 감정 분류부(130)에 전달한다. Accordingly, the emotion
이하에서는 도 13을 이용하여 최종 감정 분류단계(S630)에 대하여 더욱 상세하게 설명한다.Hereinafter, the final emotion classification step (S630) will be described in more detail using FIG. 13.
도 13은 도 6에 도시된 S630 단계를 설명하기 위한 순서도이고, 도 14는 도 8에 도시된 S634 단계에서 부여되는 가중치 값에 대한 그래프이다.FIG. 13 is a flow chart for explaining step S630 shown in FIG. 6, and FIG. 14 is a graph of weight values assigned in step S634 shown in FIG. 8.
도 13에 나타낸 바와 같이, 최종 감정 분류단계(S630)는 감정에 대한 정보 수신단계(S631), 인식값 산출 단계(S632), 벡터값 수신단계(S633), 인식값과 벡터값을 이용하여 결과값 산출단계(S634) 및 최종 감정 결정 단계(S634)를 포함한다. As shown in Fig. 13, the final emotion classification step (S630) includes the information receiving step (S631), the recognition value calculation step (S632), the vector value receiving step (S633), and the result using the recognition value and the vector value. It includes a value calculation step (S634) and a final emotion determination step (S634).
먼저, 감정 분류부(130)의 감정수신모듈(131)은 얼굴 특징 추출부(110)와 기하학적 변화량 추출부(120)로부터 각각 상위 2가지의 감정에 대한 정보를 수신한다(S931). First, the
이때, 얼굴 특징 추출부(110)로부터 수신받은 감정 정보는 행복, 슬픔, 두려움, 혐오감, 놀람 및 분노 중에서 2가지의 감정을 표현하는 것으로, 값으로 인식하지 못한다. 따라서, 감정수신모듈(131)은 인식값 산출모듈(132)에 얼굴 특징 추출부(110)로부터 수신받은 상위 2가지의 감정에 대한 정보를 전달한다. At this time, the emotion information received from the facial
따라서, 인식값 산출모듈(132)은 전달받은 상위 2가지의 감정에 대한 정보를 이용하여 인식값을 산출한다(S632).Accordingly, the recognition
이때, 인식값은 하기 수학식 3에 의해 산출된다. At this time, the recognized value is calculated by
여기서, 는 앞서 산출한 얼굴 특징 추출부(110)의 결과 중 상위 k번째 값에 해당한다. j는 0부터 1의 값을 가지며, 이는 상위 2개의 감정을 의미한다. 이 결과, 는 상위 2가지의 감정에 대해 정규화된 값이다.here, Is the highest k-th value among the results of the facial
인식값 산출모듈(132)은 얼굴 특징 추출부로부터 전달받은 상위 2가지의 감정의 합을 1로 판단한다. 즉, 상위 1의 감정에 대한 인식값과 상위 2의 감정에 대한 인식값의 합은 1이 된다. 예를 들면, 상위 1의 감정을 웃는 감정이고, 상위 2의 감정을 화내는 감정이라고 가정하였을 때, 웃는 감정의 인식값이 0.9라고 가정하면, 상위 2에 해당하는 화내는 감정은 0.1이다. The recognition
상기와 같이, 감정정보를 인식값으로 산출한 인식값 산출모듈(132)은 인식값을 분류모듈(133)로 전달한다. As described above, the recognition
한편, 분류모듈(133)은 인식값뿐만 아니라 기하학적 기하학적 변화량 추출부(120)로부터 벡터값을 전달받는다(S633).Meanwhile, the
그 다음, 분류모듈(133)은 전달받은 인식값과 벡터값에 가중치를 부여하여 상위 2개에 해당하는 감정에 대한 결과값을 산출한다(S634)Then, the
이때, 결과값은 하기 식 4에 의해 연산된다. At this time, the result value is calculated by the
여기서, 는 얼굴 특징 추출부에서 추출된 감정에 대한 인식값이고, 는 기하학적 변화량 추출부에서 추출된 감정에 대한 인식값이며, 는 가중치 값을 나타낸다.here, Is the recognition value for the emotion extracted from the facial feature extraction unit, Is the recognition value for the emotion extracted from the geometric change amount extraction unit, Represents the weight value.
이때, 가중치 값은 0.7과 0.8의 사이 값으로 설정된다. At this time, the weight value is set to a value between 0.7 and 0.8.
즉, 얼굴 특징 추출부에서 추출된 상위 2가지 감정에 대한 인식값은 0.7 내지 0.8의 가중치가 부여되고, 기하학적 변화량 추출부에서 추출된 상위 2가지 감정에 대한 벡터값은 0.2 내지 0.3의 가중치가 부여된다. That is, the recognition values for the top two emotions extracted from the facial feature extraction unit are assigned a weight of 0.7 to 0.8, and the vector values for the top two emotions extracted from the geometric change amount extraction unit are given a weight of 0.2 to 0.3. do.
한편, 분류모듈(133)은 결과값을 얻기 위하여 부여된 가중치에 대하여 데이터셋을 생성하고, 생성된 데이터셋을 이용하여 정확도가 높은 가중치 값을 산출한다. Meanwhile, the
이를 다시 설명하면, 가중치 값을 얻기 위하여 분류모듈(133)은 데이터셋을 생성한다. 데이터셋은 트레이닝 데이터와 테스트 데이터를 9대1의 비율로 대입하여 생성한 것으로서, 트레이닝 데이터는 6가지 감정 정보에 대한 인식값 또는 벡터값을 반복적으로 산출하고, 산출된 인식값 또는 벡터값의 평균에 따라 산출된 데이터이다. 반면, 데스트 데이터는 트레이닝 데이터와 대조하기 위하여 입력되는 데이터이다. In other words, the
인식값에 대한 데이터 셋은 CK+으로 나타내고, 벡터값에 대한 데이터셋은 JAFFE으로 나타내어 하기의 표 3과 같이 가중치를 부여하여 정확도 추이에 대한 결과값을 산출한다. The data set for the recognized value is represented by CK+, and the data set for the vector value is represented by JAFFE, and weights are assigned as shown in Table 3 below to calculate the result value for the accuracy trend.
datasetweight (α)
dataset
상기 가중치의 정확도를 추이하기 위하여 산출에 표를 그래프에 대입하였을 경우, 도 14에 도시된 바와 같이, 가중치값이 0.7 내지 0.8이었을 때 가장 정확도가 높게 측정되었다. When a table is substituted into a graph for calculation in order to change the accuracy of the weight, as shown in FIG. 14, the highest accuracy was measured when the weight value was 0.7 to 0.8.
따라서, 분류모듈(133)은 앞서 기재된 바와 같이 산출된 가중치 값 0.7 내지 0.8을 부여하여 결과값을 산출하다. Accordingly, the
상기와 같이, 분류모듈(133)은 2가지 감정에 대하여 각각의 결과값을 산출하고, 2개의 결과값 중에서 최고값이 부여된 감정을 감정 인식 대상이 되는 얼굴 이미지에 대한 감정으로 결정한다(S635). As described above, the
따라서, 본 발명의 실시예에 따른 얼굴 표정 인식 장치는 종래의 알고리즘을 통해 획득한 상위 2 개의 감정 내에서 빈번하게 발생되는 감정인식 오류를 개선하고, 얼굴 특징을 통해 추출된 인식값과 기하학적 변화량을 통해 산출된 벡터값에 각각 가중치를 부여 결과값을 산출함으로써 정확도가 개선된 최종 감정이 결정되는 효과를 도모할 수 있다. Therefore, the facial expression recognition apparatus according to an embodiment of the present invention improves the emotion recognition error that frequently occurs in the upper two emotions obtained through a conventional algorithm, and calculates the recognition value and geometric change amount extracted through the facial features. A weight is applied to each calculated vector value and the result value is calculated, thereby achieving an effect of determining a final emotion with improved accuracy.
또한, 본 발명에 따르면, 별도의 데이터 셋이 없어도 입력된 얼굴 이미지에서 기본 얼굴 이미지를 추출할 수 있으므로 데이터 셋의 부족 문제를 해결하고, 공간적인 데이터 셋이 아닌 정적인 데이터 셋으로부터 동적인 정보 추출이 가능한 효과를 지닌다. In addition, according to the present invention, since the basic face image can be extracted from the input face image even without a separate data set, the problem of lack of data set is solved, and dynamic information is extracted from static data set rather than spatial data set. This has the possible effect.
또한, 본 발명에 따르면, 감정을 은폐하려는 정서 상태 시, 변화의 정도가 적고 짧은 시간을 가지기 때문에, 부분적인 액션 유니트의 강도 측정과 높은 프레임 수를 분석함으로써, 더 세밀하고 포괄적인 분석이 가능한 효과를 지닌다. In addition, according to the present invention, since the degree of change is small and has a short time in the emotional state to conceal the emotion, a more detailed and comprehensive analysis is possible by analyzing the strength of a partial action unit and a high number of frames Has.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are only exemplary, and those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. will be. Therefore, the true technical protection scope of the present invention should be determined by the technical idea of the following claims.
100 : 얼굴 표정 인식 장치
110 : 얼굴 특징 추출부 111 : 이미지 입력모듈
112 : 얼굴 영역 인식모듈 113 : 얼굴생성모듈
114 : 얼굴 특징 추출모듈 115 : 판단모듈
120 : 기하학적 변화량 추출부 121 : 이미지 입력모듈
122 : 특징점 생성모듈 123 : 벡터값 산출모듈
124 : 감정결과 산출 모듈
130 : 감정 분류부 131 : 감정수신모듈
132 : 인식값 산출모듈 133 : 분류모듈100: facial expression recognition device
110: facial feature extraction unit 111: image input module
112: face region recognition module 113: face generation module
114: facial feature extraction module 115: judgment module
120: geometric change amount extraction unit 121: image input module
122: feature point generation module 123: vector value calculation module
124: evaluation result calculation module
130: emotion classification unit 131: emotion receiving module
132: recognition value calculation module 133: classification module
Claims (24)
감정 인식 대상이 되는 얼굴 이미지를 입력받고, 입력된 얼굴 이미지로부터 얼굴 이미지 전체에 대한 특징을 추출하며, 추출된 특징으로부터 순위에 따라 나열된 6개의 감정을 획득하고, 획득된 6개의 감정 중 상위 2개의 감정에 대한 정보를 기하학적 변화량 추출부 및 감정분류부에 각각 전달하는 얼굴 특징 추출부,
상기 입력된 얼굴 이미지와 동일 인물에 대한 표정이 없는 기본 얼굴 이미지에 각각 부여된 특징점을 비교하여 좌표의 차이를 산출하고, CNN알고리즘에 의해 조합된 6개의 감정에 상기 좌표의 차이값을 적용하여 상위 2개의 감정에 대한 벡터값을 산출하는 기하학적 변화량 추출부, 그리고
상기 얼굴 특징 추출부로부터 전달받은 상위 2개의 감정으로부터 산출된 감정 인식값과 상기 기하학적 변화량 추출부에서 산출된 벡터값에 각각 가중치를 부여하여 상위 2개 감정에 대한 각각의 결과값을 산출하며, 산출된 결과값 중 최고값을 가진 감정을 분류하는 감정 분류부를 포함하며,
상기 얼굴 특징 추출부는,
상기 감정 인식 대상이 되는 얼굴 이미지를 입력받는 이미지 입력모듈,
상기 입력된 얼굴 이미지로부터 얼굴 영역을 분리하는 얼굴 영역 인식모듈,
상기 분리된 얼굴 이미지를 오토인코더(autoencoder)에 적용하여 상기 입력된 얼굴 이미지로부터 기본 얼굴 이미지를 생성하여 기하학적 변화량 추출부로 전달하는 얼굴 생성모듈,
상기 얼굴 영역만 분리된 얼굴 이미지에 블러링(blurring)을 적용하여 노이즈를 제거한 다음, LBP(local binary pattern) 알고리즘을 이용하여 주요 액션 유니트(action units) 위주로 얼굴의 주요 특징정보를 추출하는 얼굴 특징 추출모듈, 그리고
상기 추출된 얼굴의 주요 특징정보를 CNN알고리즘에 적용하여 6가지의 감정 결과를 산출하고, 산출된 6가지의 감정 결과 중에서 상위 2개에 해당하는 감정을 기하학적 변화량 추출부 및 감정분류부에 각각 전달하는 판단모듈을 포함하고
상기 감정 분류부는,
상기 얼굴 특징 추출부로부터 상위 2가지의 감정에 대한 정보를 전달받는 감정수신모듈,
상기 얼굴 특징 추출부로부터 전달받은 상위 2가지의 감정을 감정 인식값으로 산출하여 정규화하는 인식값 산출모듈, 그리고
상기 얼굴 특징 추출부의 상위 2가지의 감정에 대한 인식값과 상기 기하학적 변화량 추출부로부터 전달받은 상위 2가지의 감정에 대한 벡터값에 가중치를 부여하여 상기 상위 2가지의 감정에 대해 결과값을 산출하며, 산출된 결과값 중에서 최고 값이 부여된 감정을 상기 감정 인식 대상이 되는 얼굴 이미지에 대한 감정으로 결정하는 분류모듈을 포함하는 얼굴 감정 인식 장치.In the facial emotion recognition device for identifying emotion from the input face image,
A face image that is an emotion recognition target is input, features of the entire face image are extracted from the input face image, six emotions listed according to ranking are obtained from the extracted features, and the top two emotions are obtained. A facial feature extraction unit that transmits information on emotion to a geometric change amount extraction unit and an emotion classification unit, respectively,
The difference in coordinates is calculated by comparing the input face image with the feature points assigned to the basic face image without expression for the same person, and the difference value of the coordinates is applied to the six emotions combined by the CNN algorithm. A geometrical change amount extraction unit that calculates vector values for two emotions, and
Weights are assigned to the emotion recognition values calculated from the upper two emotions received from the facial feature extraction unit and the vector values calculated by the geometric change amount extraction unit to calculate each result value for the upper two emotions, and calculate It includes an emotion classifying unit for classifying the emotion having the highest value among the result values,
The facial feature extraction unit,
An image input module for receiving a face image to be the target of emotion recognition,
A face region recognition module that separates a face region from the input face image,
A face generation module that applies the separated face image to an autoencoder to generate a basic face image from the input face image and transmits it to a geometric change amount extraction unit,
A facial feature that removes noise by applying blurring to a face image in which only the face region is separated, and then extracts the main feature information of the face mainly in the main action units using a local binary pattern (LBP) algorithm. Extraction module, and
The extracted main feature information of the face is applied to the CNN algorithm to calculate six emotion results, and the emotions corresponding to the top two among the calculated six emotion results are transmitted to the geometric change amount extraction unit and the emotion classification unit, respectively. It includes a judgment module that
The emotion classification unit,
An emotion receiving module that receives information on the upper two emotions from the facial feature extraction unit,
A recognition value calculation module that calculates and normalizes the upper two emotions received from the facial feature extraction unit as emotion recognition values, and
A weight is assigned to the recognition values for the upper two emotions of the facial feature extraction unit and the vector values for the upper two emotions transmitted from the geometric change amount extraction unit to calculate a result value for the upper two emotions. And a classification module configured to determine an emotion to which the highest value is assigned among the calculated result values as an emotion for a face image to be subjected to emotion recognition.
상기 감정은,
행복, 슬픔, 두려움, 혐오감, 놀람 및 분노를 포함한 6가지로 분류되는 얼굴 감정 인식 장치.The method of claim 1,
The above emotion is,
Facial emotion recognition device classified into 6 categories including happiness, sadness, fear, disgust, surprise and anger.
상기 얼굴생성모듈은,
동일인에 대하여 표정이 있는 얼굴 이미지와 표정이 없는 기본 얼굴이미지를 이용하여 2개의 얼굴 이미지 사이의 특징값 차이로부터 발생되는 에러를 학습시켜 데이터셋을 생성하며,
상기 생성된 데이터셋이 적용된 오토인코더(autoencoder)를 이용하여 상기 감정 인식 대상이 되는 얼굴 이미지로부터 상기 기본 얼굴 이미지를 생성하는 얼굴 감정 인식 장치.The method of claim 1,
The face generation module,
A dataset is created by learning an error arising from the difference in feature values between two face images using a face image with an expression and a basic face image without an expression for the same person.
A facial emotion recognition device that generates the basic face image from a face image that is a target of emotion recognition using an autoencoder to which the generated data set is applied.
상기 LBP 알고리즘은,
하기 수학식에 의해 산출되는 얼굴 감정 인식 장치:
,
여기서, 는 입력된 얼굴 이미지에 선택된 현재의 픽셀이고, 는 의 이웃에 분포된 픽셀이고, 은 현재의 픽셀과 이웃의 픽셀을 비교하여 0 또는 1로 산출된 값이고, P는 8로, 비교하고자 하는 이웃 픽셀의 개수이다. 따라서 p는 0부터 7까지 현재의 픽셀의 왼쪽 상단에 위치한 이웃 픽셀부터 시계방향으로 부여된다.The method of claim 1,
The LBP algorithm,
Facial emotion recognition device calculated by the following equation:
,
here, Is the current pixel selected in the input face image, Is Are pixels distributed in the neighborhood of Is a value calculated as 0 or 1 by comparing the current pixel with a neighboring pixel, and P is 8, which is the number of neighboring pixels to be compared. Therefore, p is given from 0 to 7 in a clockwise direction from a neighboring pixel located at the top left of the current pixel.
상기 판단모듈은,
상기 LBP 알고리즘이 적용된 상기 입력된 얼굴 이미지에 복수의 컨볼루션(convolution)을 적용하여 6가지의 감정을 산출하고,
산출된 6가지의 감정 중에서 상위 2개에 해당하는 감정을 분류하는 얼굴 감정 인식 장치.The method of claim 1,
The determination module,
Six emotions are calculated by applying a plurality of convolutions to the input face image to which the LBP algorithm is applied,
A facial emotion recognition device for classifying emotions corresponding to the top two among the calculated six emotions.
상기 기하학적 변화량 추출부는,
상기 감정 인식 대상이 되는 얼굴 이미지를 입력받는 이미지 입력모듈,
상기 입력된 얼굴 이미지와 상기 얼굴 생성모듈로부터 전달받은 기본 얼굴 이미지에 액션 유니트(action units)를 중심으로 특징점을 생성하는 특징점 생성모듈,
상기 생성된 특징점을 이용하여 상기 입력된 얼굴 이미지와 상기 기본 얼굴 이미지를 비교 판단하고, 차이가 발생된 특징점에 대한 좌표 차이를 이용하여 벡터값을 산출하는 벡터값 산출모듈, 그리고
상기 판단모듈로부터 수신된 상위 2개의 감정에 대응되며, 상기 벡터값 산출모듈에서 산출된 벡터값을 CNN알고리즘에 적용하여 조합된 6개의 감정 중에서 상위 2개에 해당하는 감정을 선택하는 감정결과 산출 모듈을 포함하는 얼굴 감정 인식 장치.The method of claim 1,
The geometric change amount extraction unit,
An image input module for receiving a face image to be the target of emotion recognition,
A feature point generation module for generating feature points based on action units in the input face image and the basic face image transmitted from the face generating module,
A vector value calculation module that compares and determines the input face image and the basic face image using the generated feature points, and calculates a vector value using a coordinate difference for the feature point where the difference occurs, and
An emotion result calculation module that corresponds to the upper two emotions received from the determination module, and selects emotions corresponding to the upper two among the six emotions combined by applying the vector value calculated by the vector value calculation module to the CNN algorithm Facial emotion recognition device comprising a.
상기 벡터값 산출모듈은,
하기 수학식에 의해 벡터값을 산출하는 얼굴 감정 인식 장치:
여기서, (, )는 표정이 있을 때의 특징점에 대한 좌표값이고, (, )는 표정이 없을 때의 특징점에 대한 좌표값이다. The method of claim 8,
The vector value calculation module,
Facial emotion recognition device for calculating a vector value by the following equation:
here, ( , ) Is the coordinate value for the feature point when there is an expression, and ( , ) Is the coordinate value for the feature point when there is no expression.
상기 감정 분류부는,
하기 수학식에 의해 상기 상위 2가지의 감정에 대해 결과값을 산출하는 얼굴 감정 인식 장치:
여기서, 는 얼굴 특징 추출부에서 추출된 감정에 대한 인식값이고, 는 기하학적 변화량 추출부에서 추출된 감정에 대한 벡터값이며, 는 가중치 값을 나타낸다. The method of claim 1,
The emotion classification unit,
Facial emotion recognition apparatus for calculating result values for the upper two emotions by the following equation:
here, Is the recognition value for the emotion extracted from the facial feature extraction unit, Is a vector value for the emotion extracted from the geometric change amount extraction unit, Represents the weight value.
상기 가중치 값은 0.7과 0.8의 사이의 값으로 설정되는 얼굴 감정 인식 장치.The method of claim 11,
The weight value is set to a value between 0.7 and 0.8.
감정 인식 대상이 되는 얼굴 이미지로부터 얼굴 이미지 전체에 대한 특징을 추출하고, 상기 추출된 얼굴 특징으로부터 획득된 6개의 감정 중 상위 2개의 감정에 대한 정보를 추출하는 단계,
상기 입력된 얼굴 이미지와 동일 인물에 대한 표정이 없는 기본 얼굴 이미지에 각각 부여된 특징점을 비교하여 좌표의 차이를 산출하고, 상기 산출된 좌표의 차이값을 CNN알고리즘에 적용하여 상위 2개의 감정에 대한 벡터값을 산출하는 단계, 그리고
상기 얼굴 특징으로부터 산출된 상위 2개의 감정에 대한 인식값과 특징점의 차이를 이용하여 산출된 상위 2개의 감정에 대한 벡터값에 각각 가중치를 부여하여 상위 2개 감정에 대한 각각의 결과값을 산출하고, 산출된 결과값 중 최고값을 가진 감정을 최종 감정으로 분류하는 단계를 포함하며,
상기 얼굴 특징을 이용하여 상위 2개의 감정에 대한 정보를 추출하는 단계는,
상기 감정 인식 대상이 되는 얼굴 이미지를 입력받는 단계,
상기 입력된 얼굴 이미지로부터 얼굴 영역을 분리하는 단계
상기 분리된 얼굴 이미지를 오토인코더(autoencoder)에 적용하여 상기 입력된 얼굴 이미지로부터 기본 얼굴 이미지를 생성하는 단계,
상기 얼굴 영역만 분리된 얼굴 이미지에 블러링(blurring)을 적용하여 노이즈를 제거한 다음, LBP(local binary pattern) 알고리즘을 이용하여 주요 액션 유니트(action units) 위주로 얼굴의 주요 특징정보를 추출하는 단계, 그리고
상기 추출된 얼굴의 주요 특징정보를 CNN알고리즘에 적용하여 6가지의 감정 결과를 산출하고, 산출된 6가지의 감정 결과 중에서 상위 2개에 해당하는 감정을 분류하는 단계를 포함하며,
상기 최종 감정을 분류하는 단계는,
상기 얼굴 특징으로부터 추출된 상위 2가지의 감정에 대한 정보를 전달받는 단계,
상기 전달받은 상위 2가지의 감정을 인식값으로 산출하는 단계, 그리고
상기 산출된 상위 2가지의 감정에 대한 인식값과 상기 특징점의 차이를 이용하여 산출된 상위 2개의 감정에 대한 벡터값에 가중치를 부여하여 상위 2가지의 감정에 대해 결과값을 산출하고, 산출된 결과값 중에서 최고 값이 부여된 감정을 상기 감정 인식 대상이 되는 얼굴 이미지에 대한 감정으로 결정하는 단계를 포함하는 얼굴 감정 인식 방법.In a method of identifying emotion from an input face image using a facial emotion recognition device,
Extracting features for the entire face image from the face image subject to emotion recognition, and extracting information on the upper two emotions among the six emotions obtained from the extracted facial features,
The input face image and the feature points assigned to the basic face image without expression for the same person are compared to calculate the difference in coordinates, and the calculated difference value of the coordinates is applied to the CNN algorithm for the upper two emotions. Calculating the vector value, and
Each result value for the upper two emotions is calculated by assigning a weight to each of the vector values for the upper two emotions calculated using the difference between the recognition values for the upper two emotions calculated from the facial features and the feature point, and And classifying the emotion with the highest value among the calculated result values as the final emotion,
Extracting information on the upper two emotions by using the facial features,
Receiving a face image to be the target of the emotion recognition,
Separating a face area from the input face image
Generating a basic face image from the input face image by applying the separated face image to an autoencoder,
Applying blurring to the face image where only the face area is separated to remove noise, and then extracting main feature information of the face mainly in main action units using a local binary pattern (LBP) algorithm, And
Computing six emotion results by applying the extracted main feature information of the face to the CNN algorithm, and classifying emotions corresponding to the top two among the calculated six emotion results,
The step of classifying the final emotion,
Receiving information on the upper two emotions extracted from the facial features,
The step of calculating the received upper two emotions as recognition values, and
A weight is assigned to the vector values for the upper two emotions calculated by using the calculated recognition values for the upper two emotions and the difference between the feature points to calculate the result values for the upper two emotions, and the calculated A facial emotion recognition method comprising the step of determining an emotion to which the highest value is assigned among the result values as an emotion for a face image to be an emotion recognition target.
상기 감정은,
행복, 슬픔, 두려움, 혐오감, 놀람 및 분노를 포함한 6가지로 분류되는 얼굴 감정 인식 방법.The method of claim 13,
The above emotion is,
6 ways to recognize facial emotions, including happiness, sadness, fear, disgust, surprise and anger.
상기 기본 얼굴 이미지를 생성하는 단계는,
동일인에 대하여 표정이 있는 얼굴 이미지와 표정이 없는 기본 얼굴 이미지를 이용하여 2개의 얼굴 이미지 사이의 특징값 차이로부터 발생되는 에러를 학습시켜 데이터셋을 생성하는 단계, 그리고
상기 생성된 데이터셋이 적용된 오토인코더(autoencoder)를 이용하여 상기 감정 인식 대상이 되는 얼굴 이미지로부터 기본 얼굴 이미지를 생성하는 단계를 포함하는 얼굴 감정 인식 방법.The method of claim 13,
The step of generating the basic face image,
Creating a dataset by learning an error arising from the difference in feature values between two face images using a facial image with an expression and a basic facial image without an expression for the same person, and
And generating a basic face image from the face image that is the emotion recognition target by using an autoencoder to which the generated data set is applied.
상기 LBP 알고리즘은,
하기 수학식에 의해 산출되는 얼굴 감정 인식 방법:
,
여기서, 는 입력된 얼굴 이미지에 선택된 현재의 픽셀이고, 는 의 이웃에 분포된 픽셀이고, 은 현재의 픽셀과 이웃의 픽셀을 비교하여 0 또는 1로 산출된 값이고, P는 8로, 비교하고자 하는 이웃 픽셀의 개수이다. 따라서 p는 0부터 7까지 현재의 픽셀의 왼쪽 상단에 위치한 이웃 픽셀부터 시계방향으로 부여된다.The method of claim 13,
The LBP algorithm,
Facial emotion recognition method calculated by the following equation:
,
here, Is the current pixel selected in the input face image, Is Are pixels distributed in the neighborhood of Is a value calculated as 0 or 1 by comparing the current pixel with a neighboring pixel, and P is 8, which is the number of neighboring pixels to be compared. Therefore, p is given from 0 to 7 in a clockwise direction from a neighboring pixel located at the top left of the current pixel.
상기 상위 2개에 해당하는 감정을 분류하는 단계는,
상기 LBP 알고리즘이 적용된 상기 입력된 얼굴 이미지에 복수의 컨볼루션(convolution)을 적용하여 6가지의 감정을 산출하는 단계,
산출된 6가지의 감정 중에서 상위 2개에 해당하는 감정을 분류하는 단계를 포함하는 얼굴 감정 인식 방법.The method of claim 13,
The step of classifying the emotions corresponding to the top two,
Calculating six emotions by applying a plurality of convolutions to the input face image to which the LBP algorithm is applied,
A facial emotion recognition method comprising the step of classifying emotions corresponding to the upper two among the calculated six emotions.
상기 상위 2개의 감정에 대한 벡터값을 산출하는 단계는,
상기 감정 인식 대상이 되는 얼굴 이미지를 입력받는 단계,
상기 입력된 얼굴 이미지와 기본 얼굴 이미지에 액션 유니트(action units)를 중심으로 특징점을 생성하는 단계,
상기 생성된 특징점을 이용하여 상기 입력된 얼굴 이미지와 상기 기본 얼굴 이미지를 비교 판단하고, 차이가 발생된 특징점에 대한 좌표 차이를 이용하여 벡터값을 산출하는 단계, 그리고
상기 산출된 벡터값을 CNN알고리즘에 적용하여 조합된 6개의 감정 중에서 상위 2개에 해당하는 감정을 선택하는 단계를 포함하는 얼굴 감정 인식 방법.The method of claim 13,
The step of calculating vector values for the upper two emotions,
Receiving a face image to be the target of the emotion recognition,
Generating feature points based on action units in the input face image and the basic face image,
Comparing and determining the input face image and the basic face image using the generated feature point, and calculating a vector value using a coordinate difference for the feature point where the difference is generated, and
And applying the calculated vector value to a CNN algorithm to select an emotion corresponding to the upper two among the six emotions combined.
상기 벡터값을 산출하는 단계는,
하기 수학식에 의해 벡터값을 산출하는 얼굴 감정 인식 방법:
여기서, (, )는 표정이 있을 때의 특징점에 대한 좌표값이고, (, )는 표정이 없을 때의 특징점에 대한 좌표값이다. The method of claim 20,
The step of calculating the vector value,
Facial emotion recognition method for calculating a vector value by the following equation:
here, ( , ) Is the coordinate value for the feature point when there is an expression, and ( , ) Is the coordinate value for the feature point when there is no expression.
상기 최종 감정을 분류하는 단계는,
하기 수학식에 의해 상기 상위 2가지의 감정에 대해 결과값을 산출하는 얼굴 감정 인식 방법:
여기서, 는 얼굴 특징 추출부에서 추출된 감정에 대한 인식값이고, 는 기하학적 변화량 추출부에서 추출된 감정에 대한 벡터값이며, 는 가중치 값을 나타낸다. The method of claim 13,
The step of classifying the final emotion,
Facial emotion recognition method for calculating result values for the top two emotions by the following equation:
here, Is the recognition value for the emotion extracted from the facial feature extraction unit, Is a vector value for the emotion extracted from the geometric change amount extraction unit, Represents the weight value.
상기 가중치 값은 0.7과 0.8의 사이의 값으로 설정되는 얼굴 감정 인식 방법.The method of claim 23,
The weight value is set to a value between 0.7 and 0.8.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180135303A KR102174175B1 (en) | 2018-11-06 | 2018-11-06 | Facial emotional recognition apparatus for Identify Emotion and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180135303A KR102174175B1 (en) | 2018-11-06 | 2018-11-06 | Facial emotional recognition apparatus for Identify Emotion and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200055811A KR20200055811A (en) | 2020-05-22 |
KR102174175B1 true KR102174175B1 (en) | 2020-11-06 |
Family
ID=70913973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180135303A KR102174175B1 (en) | 2018-11-06 | 2018-11-06 | Facial emotional recognition apparatus for Identify Emotion and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102174175B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112801403A (en) * | 2021-02-10 | 2021-05-14 | 武汉科技大学 | Method and system for predicting potential threat degree of aerial target based on SSA-BP |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021001851A1 (en) * | 2019-07-02 | 2021-01-07 | Entropik Technologies Private Limited | A system for estimating a user's response to a stimulus |
CN111881822B (en) * | 2020-07-27 | 2024-09-17 | 芯算一体(深圳)科技有限公司 | Access control method, device, equipment and storage medium based on face recognition |
KR102240895B1 (en) * | 2020-08-07 | 2021-04-15 | 윤태훈 | System for providing information for weight management |
CN112307942B (en) * | 2020-10-29 | 2024-06-28 | 广东富利盛仿生机器人股份有限公司 | Facial expression quantization representation method, system and medium |
KR102677561B1 (en) * | 2021-07-05 | 2024-06-21 | 주식회사 아이티스노우볼 | Face emotion recognition device and operation method |
KR102669078B1 (en) * | 2021-11-23 | 2024-05-24 | 한국공학대학교산학협력단 | Method and apparatus for generating facial expression data of human-friendly robot |
CN114529973A (en) * | 2022-02-22 | 2022-05-24 | 中南林业科技大学 | Semi-supervised face emotion recognition method |
CN116682159B (en) * | 2023-06-07 | 2024-02-02 | 广东辉杰智能科技股份有限公司 | Automatic stereo recognition method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101921717B1 (en) * | 2015-04-13 | 2018-11-26 | (주)리얼아이즈 | Face recognition method and facial feature extraction method using local contour patten |
KR102252298B1 (en) * | 2016-10-21 | 2021-05-14 | 삼성전자주식회사 | Method and apparatus for recognizing facial expression |
KR101893554B1 (en) * | 2017-02-14 | 2018-08-30 | 영남대학교 산학협력단 | Method and apparatus of recognizing facial expression base on multi-modal |
-
2018
- 2018-11-06 KR KR1020180135303A patent/KR102174175B1/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112801403A (en) * | 2021-02-10 | 2021-05-14 | 武汉科技大学 | Method and system for predicting potential threat degree of aerial target based on SSA-BP |
Also Published As
Publication number | Publication date |
---|---|
KR20200055811A (en) | 2020-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102174175B1 (en) | Facial emotional recognition apparatus for Identify Emotion and method thereof | |
Goh et al. | Micro-expression recognition: an updated review of current trends, challenges and solutions | |
CN110135375B (en) | Multi-person attitude estimation method based on global information integration | |
CN106960202B (en) | Smiling face identification method based on visible light and infrared image fusion | |
CN106599854B (en) | Automatic facial expression recognition method based on multi-feature fusion | |
Jan et al. | Accurate facial parts localization and deep learning for 3D facial expression recognition | |
KR101549645B1 (en) | Method and apparatus of recognizing facial expression using motion dictionary | |
Perveen et al. | Spontaneous facial expression recognition: A part based approach | |
CN109684959B (en) | Video gesture recognition method and device based on skin color detection and deep learning | |
CN110765839B (en) | Multi-channel information fusion and artificial intelligence emotion monitoring method for visible light facial image | |
Wilhelm | Towards facial expression analysis in a driver assistance system | |
CN109902623B (en) | Gait recognition method based on perception compression | |
CN112183198A (en) | Gesture recognition method for fusing body skeleton and head and hand part profiles | |
CN112819718A (en) | Image processing method and device, electronic device and storage medium | |
CN111414803A (en) | Face recognition method and device and electronic equipment | |
KR102508765B1 (en) | User-customized meta content providing system based on artificial neural network and method therefor | |
WO2023047162A1 (en) | Object sequence recognition method, network training method, apparatuses, device, and medium | |
CN114973349A (en) | Face image processing method and training method of face image processing model | |
Sun et al. | Face recognition based on local gradient number pattern and fuzzy convex-concave partition | |
CN111797705A (en) | Action recognition method based on character relation modeling | |
CN114372926A (en) | Traditional Chinese medicine tongue tenderness identification method based on image restoration and convolutional neural network | |
Selvi et al. | Kathakali face expression detection using deep learning techniques | |
CN117115312A (en) | Voice-driven facial animation method, device, equipment and medium | |
Hsia et al. | A fast face detection method for illumination variant condition | |
KR20180092453A (en) | Face recognition method Using convolutional neural network and stereo image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |