KR20240077290A - Apparatus for recognizing facial expression intensity - Google Patents

Apparatus for recognizing facial expression intensity Download PDF

Info

Publication number
KR20240077290A
KR20240077290A KR1020220159654A KR20220159654A KR20240077290A KR 20240077290 A KR20240077290 A KR 20240077290A KR 1020220159654 A KR1020220159654 A KR 1020220159654A KR 20220159654 A KR20220159654 A KR 20220159654A KR 20240077290 A KR20240077290 A KR 20240077290A
Authority
KR
South Korea
Prior art keywords
facial expression
facial
intensity
image
recognition
Prior art date
Application number
KR1020220159654A
Other languages
Korean (ko)
Inventor
유호영
김현진
채원석
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020220159654A priority Critical patent/KR20240077290A/en
Publication of KR20240077290A publication Critical patent/KR20240077290A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 표정 강도 인식 장치에 관한 것으로, 입력 영상의 영상 전처리를 수행하는 영상 전처리 모듈; 상기 영상 전처리가 수행된 영상을 지정된 알고리즘에 따라 처리하여 얼굴의 표정 분류와 표정 강도 분류를 수행하는 프로세서; 및 상기 표정 분류와 표정 강도 분류의 결과를 바탕으로, 상기 입력 영상의 얼굴 표정을 세분화된 단계에 따라 인식하여 출력하는 미세 표정 인식 모듈을 포함하는 것을 특징으로 한다.The present invention relates to an facial expression intensity recognition device, comprising: an image pre-processing module that performs image pre-processing of an input image; a processor that processes the image on which the image preprocessing has been performed according to a designated algorithm to classify facial expressions and facial expression intensity; and a fine expression recognition module that recognizes and outputs facial expressions of the input image in granular stages based on the results of the expression classification and expression intensity classification.

Figure P1020220159654
Figure P1020220159654

Description

표정 강도 인식 장치{APPARATUS FOR RECOGNIZING FACIAL EXPRESSION INTENSITY}Facial expression intensity recognition device {APPARATUS FOR RECOGNIZING FACIAL EXPRESSION INTENSITY}

본 발명은 표정 강도 인식 장치에 관한 것으로, 보다 상세하게는 얼굴의 표정을 인식할 때 표정의 강도를 인식할 수 있도록 함으로써, 세분화된 미세 표정을 인식할 수 있도록 하는, 표정 강도 인식 장치에 관한 것이다.The present invention relates to an facial expression intensity recognition device, and more specifically, to an facial expression intensity recognition device that enables recognition of segmented micro-expressions by recognizing the intensity of the facial expression when recognizing it. .

최근 인간의 얼굴 표정을 컴퓨터를 통해 분류, 처리함에 있어, 다양한 알고리즘이 제안되고 있다.Recently, various algorithms have been proposed to classify and process human facial expressions through computers.

얼굴 표정을 학습하는 가장 대중적인 알고리즘으로는, 얼굴의 특징을 대상의 표정 변화를 나타내는 이미지에서 추출하고, 이를 표정 데이터셋과 결합하여 심층 신경망을 통해 학습시켜 분류, 처리하는 CNN(Convolutional Neural Networks) 학습 방식 등을 예시할 수 있다.The most popular algorithm for learning facial expressions is CNN (Convolutional Neural Networks), which extracts facial features from images showing changes in the target's expression, combines them with facial expression datasets, and learns them through a deep neural network to classify and process them. Examples of learning methods, etc. can be provided.

그러나 일반적인 CNN 학습 방식에 의한 얼굴 표정의 인식은, 사람의 감정을 반영하는 세분화된 미세 표정을 인식하는 데 한계가 있다.However, facial expression recognition using the general CNN learning method has limitations in recognizing fine-grained micro-expressions that reflect human emotions.

본 발명의 배경기술은 대한민국 공개특허 10-2020-0047311호(2020.04.20. 공개, 딥러닝을 이용하는 얼굴 인식 장치)에 개시되어 있다. The background technology of the present invention is disclosed in Republic of Korea Patent Publication No. 10-2020-0047311 (published on April 20, 2020, face recognition device using deep learning).

본 발명의 일 측면에 따르면, 본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 얼굴의 표정을 인식할 때 표정의 강도를 인식할 수 있도록 함으로써, 세분화된 미세 표정을 인식할 수 있도록 하는, 표정 강도 인식 장치를 제공하는 데 그 목적이 있다. According to one aspect of the present invention, the present invention was created to solve the above problems, and enables recognition of fine-grained fine expressions by recognizing the intensity of facial expressions when recognizing facial expressions. The purpose is to provide a facial expression intensity recognition device.

본 발명의 일 측면에 따른 표정 강도 인식 장치는, 입력 영상의 영상 전처리를 수행하는 영상 전처리 모듈; 상기 영상 전처리가 수행된 영상을 지정된 알고리즘에 따라 처리하여 얼굴의 표정 분류와 표정 강도 분류를 수행하는 프로세서; 및 상기 표정 분류와 표정 강도 분류의 결과를 바탕으로, 상기 입력 영상의 얼굴 표정을 세분화된 단계에 따라 인식하여 출력하는 미세 표정 인식 모듈을 포함하는 것을 특징으로 한다.An facial expression intensity recognition device according to an aspect of the present invention includes an image pre-processing module that performs image pre-processing of an input image; a processor that processes the image on which the image preprocessing has been performed according to a designated algorithm to classify facial expressions and facial expression intensity; and a fine expression recognition module that recognizes and outputs facial expressions of the input image in granular stages based on the results of the expression classification and expression intensity classification.

본 발명의 일 측면에 따르면, 본 발명은 얼굴의 표정을 인식할 때 다양한 표정의 강도를 인식할 수 있도록 함으로써, 세분화된 미세 표정을 인식할 수 있도록 한다.According to one aspect of the present invention, when recognizing facial expressions, the present invention enables recognition of the intensity of various facial expressions, thereby enabling recognition of fine-grained fine facial expressions.

또한 본 발명은 기존에 정확하게 인식할 수 없었던 낮은 강도의 표정에 대해서 더 정확히 인식할 수 있도록 한다.Additionally, the present invention enables more accurate recognition of low-intensity facial expressions that previously could not be accurately recognized.

도 1은 본 발명의 일 실시예에 따른 표정 강도 인식 장치의 개략적인 구성을 보인 예시도이다.
도 2는 본 발명의 일 실시예에 따른 표정 강도 인식 방법을 설명하기 위하여 보인 흐름도이다.
도 3은 상기 도 1에 있어서, 표정에 대한 강도가 태깅된 미세 표정 인식을 위한 학습용 데이터셋을 구성하는 방법을 개략적으로 설명하기 위하여 보인 예시도이다.
도 4는 상기 도 1에 있어서, 표정 강도 인식 장치를 이용한 표정 강도 인식 시험 결과를 보인 예시도이다.
Figure 1 is an exemplary diagram showing the schematic configuration of an facial expression intensity recognition device according to an embodiment of the present invention.
Figure 2 is a flowchart shown to explain a method for recognizing facial expression intensity according to an embodiment of the present invention.
FIG. 3 is an example diagram schematically shown to explain a method of configuring a learning dataset for fine facial expression recognition in which the intensity of facial expressions is tagged in FIG. 1.
FIG. 4 is an exemplary diagram showing the results of an expression intensity recognition test using an expression intensity recognition device in FIG. 1.

이하, 첨부된 도면을 참조하여 본 발명에 따른 표정 강도 인식 장치의 일 실시예를 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, an embodiment of the facial expression intensity recognition device according to the present invention will be described with reference to the attached drawings. In this process, the thickness of lines or sizes of components shown in the drawings may be exaggerated for clarity and convenience of explanation. In addition, the terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.

일반적으로 표정 인식 기술은 입력 영상으로부터 검출된 얼굴이 어떤 표정인지 인식하는 기술이며, 기존에 얼굴 표정 인식을 위해서 다양한 방법들이 제안되어 왔으며, 얼굴의 움직임 단위(Facial Action Unit)별로 분석하여 표정을 유추하거나, 얼굴 주요 부위의 특징점(landmark)을 추출하여 표정 인식에 활용하였다.In general, facial expression recognition technology is a technology that recognizes what kind of expression a face detected from an input image has. Various methods have previously been proposed for facial expression recognition, and facial expressions are inferred by analyzing each facial action unit. Alternatively, landmarks of key parts of the face were extracted and used for facial expression recognition.

한편 최근 딥러닝 기술이 발달하면서 콘볼루션 신경망(Convolutional Neural Network, CNN) 기법을 통해 추출한 영상의 특징(feature)을 표정 인식에 적용하는 방법들이 제안되고 있으며, 표정 인식의 정확도가 크게 향상되었다. Meanwhile, with the recent development of deep learning technology, methods of applying image features extracted through the Convolutional Neural Network (CNN) technique to facial expression recognition have been proposed, and the accuracy of facial expression recognition has been greatly improved.

참고로 기존의 표정 인식 기술에서 인식 가능한 표정의 갯수는 훈련 데이터의 구성에 따라 차이가 있지만, 통상적으로 사용되는 표정 인식 모델이나 공개 데이터셋으로는 보통 6~8종 정도의 대표적인 표정(예 : 화남, 기쁨, 슬픔, 놀람, 역겨움, 싫어함 등)이 사용된다. For reference, the number of facial expressions that can be recognized in existing facial expression recognition technology varies depending on the composition of the training data, but commonly used facial expression recognition models or public datasets usually have about 6 to 8 representative facial expressions (e.g., angry). , joy, sadness, surprise, disgust, dislike, etc.) are used.

따라서 기존에는 동일한 표정에서의 강도 변화(예 : 매우 기쁨 -> 조금 기쁨)나 미세한 표정(즉, 강도가 낮은 표정)의 인식은 불가능하였고, 이에 따라 학습자, 환자, 고객, 면접자, 및 운전자 등의 모니터링 시스템이나, 우울증 진단, 및 인공지능과의 상호작용 등의 상용화 분야에서 활용도가 제한적일 수밖에 없었다. Therefore, previously, it was impossible to recognize intensity changes (e.g., very happy -> slightly happy) or subtle facial expressions (i.e., low-intensity facial expressions) in the same facial expression, and as a result, learners, patients, customers, interviewers, and drivers It had limited utility in commercialization areas such as monitoring systems, depression diagnosis, and interaction with artificial intelligence.

한편 종래에 미세 표정 인식을 위한 방법들은 영상을 입력으로 하는 CNN 기반의 주 네트워크와, 특징점 정보를 입력으로 하는 DNN(혹은 RNN) 기반의 보조 네트워크로 구성되는 것이 일반적이다. Meanwhile, conventional methods for fine facial expression recognition generally consist of a CNN-based main network that uses images as input, and a DNN (or RNN)-based auxiliary network that uses feature point information as input.

그런데 상기 특징점 기반의 딥러닝 모델은 주 네트워크에 비해 매우 간단하여 좋은 성능을 기대하기 어렵고, 특히 강도가 약한(또는 낮은) 표정들(예 : 조금 놀람, 조금 싫어함 등)은 강도가 강한 표정들에 비해 얼굴 주요부위의 움직임이 크지 않기 때문에 특징점들의 분포가 표정별로 비슷하여 인식 정확도가 현저하게 떨어지는 문제점이 있으며, 또한, 특징점을 추출하는 과정 자체에서도 오류가 전파되어 인식 정확도를 떨어지게 하는 문제점이 있다.However, the feature point-based deep learning model is very simple compared to the main network, so it is difficult to expect good performance, and in particular, expressions with weak (or low) intensity (e.g., a little surprise, a little dislike, etc.) are compared to expressions with high intensity. Compared to this, because the movement of the main parts of the face is not large, the distribution of feature points is similar for each expression, which causes a problem in that recognition accuracy is significantly reduced. In addition, there is a problem in that errors are propagated in the process of extracting feature points themselves, reducing recognition accuracy.

따라서 본 실시예는 얼굴의 표정을 인식할 때 다양한 표정의 강도를 인식할 수 있도록 함으로써, 세분화된 미세 표정을 인식할 수 있도록 하는 기술에 대해서 설명한다.Therefore, this embodiment describes a technology that allows recognition of fine-grained, fine-grained facial expressions by recognizing the intensity of various facial expressions when recognizing facial expressions.

도 1은 본 발명의 일 실시예에 따른 표정 강도 인식 장치의 개략적인 구성을 보인 예시도이다.Figure 1 is an exemplary diagram showing the schematic configuration of an facial expression intensity recognition device according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 실시예에 따른 표정 강도 인식 장치는, 영상 전처리 모듈(110), 프로세서(120), 및 미세 표정 인식 모듈(130)을 포함한다.As shown in FIG. 1, the facial expression intensity recognition device according to this embodiment includes an image pre-processing module 110, a processor 120, and a fine facial expression recognition module 130.

상기 영상 전처리 모듈(110)은 입력 영상으로부터 얼굴을 검출한 후, 얼굴 부분만 잘라내어, 미세 표정 인식을 위한 프로세서의 입력 규격으로 변환한다. The image pre-processing module 110 detects the face from the input image, cuts out only the face portion, and converts it to the input standard of the processor for fine facial expression recognition.

이 때 전처리 과정으로서 입력 영상에 대한 해상도 변경, 및 회전과 반전 등의 영상 증식(image augmentation)이나 데이터 증강 과정이 포함될 수 있다. At this time, the preprocessing process may include changing the resolution of the input image, and image augmentation or data augmentation processes such as rotation and inversion.

상기 프로세서(120)는 CNN 기반으로 얼굴 영상의 특징을 추출한다.The processor 120 extracts features of the face image based on CNN.

예컨대 상기 프로세서(120)는 지정된 네트워크(예 : VGGNet, Resnet 등)를 활용하여 얼굴 영상의 특징을 추출할 수 있다.For example, the processor 120 may extract features of a face image using a designated network (e.g., VGGNet, Resnet, etc.).

또한 상기 프로세서(120)는 CNN 백본(Backbone) 네트워크를 공유하여, 표정 분류와 표정 강도 분류를 동시에 수행한다. Additionally, the processor 120 shares a CNN backbone network and simultaneously performs facial expression classification and facial expression intensity classification.

예컨대 상기 프로세서(120)는 다중 태스크 러닝(Multi Task Learning)을 수행할 수 있으며, 지정된 네트워크(예 : fully-connected neural network, dense neural network 등)로 구현될 수 있다.For example, the processor 120 can perform multi-task learning and can be implemented with a designated network (eg, fully-connected neural network, dense neural network, etc.).

또한 상기 프로세서(120)는 CNN 네트워크와 함께 표정 및 표정 강도 인식을 위한 태깅 정보가 포함된 데이터셋(즉, 미세 표정 인식을 위한 학습용 데이터셋)을 이용하여 미리 학습을 수행한다.In addition, the processor 120 performs learning in advance using a CNN network and a dataset containing tagging information for facial expression and facial expression intensity recognition (i.e., a learning dataset for fine facial expression recognition).

본 실시예에서 상기 "미세 표정 인식을 위한 학습용 데이터셋"은, 표정 인식과 표정 강도 인식 두 가지를 수행할 수 있는 데이터셋으로 구성된다.In this embodiment, the “learning dataset for fine facial expression recognition” consists of a dataset that can perform both facial expression recognition and facial expression intensity recognition.

이에 따라 기존의 "얼굴 표정 인식을 위한 학습용 데이터셋"은, 단순히 각 얼굴 영상에 대한 표정 정보만 태깅이 되어 있지만, 본 실시예에서의 "미세 표정 인식을 위한 학습용 데이터셋"은, 사람이 느끼는 표정 강도를 더 정확하게 인식하기 위하여, 각 얼굴 영상의 표정 강도 정보가 추가적으로 태깅되도록 구성된다(도 3 참조).Accordingly, the existing "learning dataset for facial expression recognition" simply tags the expression information for each face image, but the "learning dataset for fine expression recognition" in this embodiment is In order to more accurately recognize expression intensity, the expression intensity information of each face image is configured to be additionally tagged (see Figure 3).

가령, 본 실시예에서 상기 프로세서(120)가 10종 표정(예 : 중립, 분노, 놀람, 공포, 역겨움, 슬픔, 행복, 싫어함, 졸림, 차분)과 4단계 강도(예 : 1단계, 2단계, 3단계, 4단계)로 "미세 표정 인식을 위한 학습용 데이터셋"을 구성하여 학습하였다고 가정할 경우, 10종 표정 분류와 4단계 강도 분류를 통해 40종의 미세 표정 인식이 가능하게 된다. For example, in this embodiment, the processor 120 selects 10 types of facial expressions (e.g., neutral, angry, surprise, fear, disgust, sadness, happy, dislike, sleepy, calm) and 4 levels of intensity (e.g., level 1, level 2). , Step 3, Step 4), assuming that the "learning dataset for micro-expression recognition" has been formed and learned, it is possible to recognize 40 types of micro-expressions through 10 types of facial expression classification and 4-step intensity classification.

상기 미세 표정 인식 모듈(130)은 상기 프로세서(120)에서의 표정 분류 및 강도 분류의 결과를 바탕으로, 입력 영상의 표정을 다양한 미세 표정으로 매핑(인식)하여 출력한다.The micro-expression recognition module 130 maps (recognizes) the facial expressions of the input image to various micro-expressions based on the results of facial expression classification and intensity classification in the processor 120 and outputs them.

도 2는 본 발명의 일 실시예에 따른 표정 강도 인식 방법을 설명하기 위하여 보인 흐름도이다.Figure 2 is a flowchart shown to explain a method for recognizing facial expression intensity according to an embodiment of the present invention.

도 2를 참조하면, 영상 전처리 모듈(110)이 입력 영상으로부터 얼굴을 검출하고(S101), 상기 입력 영상으로부터 검출한 얼굴 부분만 잘라내어, 상기 프로세서(120)가 지정된 알고리즘에 따라 미세 표정 인식을 수행하기 위한 입력 규격에 맞춰 영상 전처리를 수행한다(S102).Referring to FIG. 2, the image pre-processing module 110 detects a face from an input image (S101), cuts out only the face part detected from the input image, and the processor 120 performs fine facial expression recognition according to a designated algorithm. Image preprocessing is performed according to the input standard (S102).

예컨대 상기 영상 전처리는, 프로세서(120)의 표정 인식 성능을 높이기 위하여, 입력 영상에 대한 해상도 변경, 및 회전과 반전 등의 영상 증식(image augmentation)이나 데이터 증강 등의 영상 전처리 과정을 포함할 수 있다. For example, in order to improve the facial expression recognition performance of the processor 120, the image pre-processing may include image pre-processing processes such as changing the resolution of the input image, image augmentation such as rotation and inversion, or data augmentation. .

상기와 같이 영상 전처리가 수행되면, 상기 프로세서(120)는 CNN 기반으로 얼굴 영상의 특징을 추출한다(S103).When image preprocessing is performed as described above, the processor 120 extracts features of the face image based on CNN (S103).

예컨대 상기 프로세서(120)는 지정된 네트워크(예 : VGGNet, Resnet 등)를 활용하여 얼굴 영상의 특징을 추출할 수 있다.For example, the processor 120 may extract features of a face image using a designated network (e.g., VGGNet, Resnet, etc.).

상기와 같이 얼굴 영상의 특징이 추출되면, 상기 프로세서(120)는 CNN 백본(Backbone) 네트워크를 공유하여, 표정 분류와 표정 강도 분류를 동시에 수행함으로써(S104, S105), 상기 표정 분류 및 강도 분류의 결과를 바탕으로, 미세 표정을 인식하여 출력한다(S106).When the features of the face image are extracted as described above, the processor 120 shares the CNN backbone network and performs facial expression classification and facial expression intensity classification simultaneously (S104, S105), thereby performing the facial expression classification and intensity classification. Based on the results, fine facial expressions are recognized and output (S106).

이 때 상기 프로세서(120)에서 수행되는 표정 분류 및 강도 분류의 알고리즘은 지정된 네트워크(예 : fully-connected neural network, dense neural network 등)를 바탕으로 구현될 수 있다.At this time, the facial expression classification and intensity classification algorithms performed by the processor 120 may be implemented based on a designated network (e.g., fully-connected neural network, dense neural network, etc.).

도 3은 상기 도 1에 있어서, 표정에 대한 강도가 태깅된 미세 표정 인식을 위한 학습용 데이터셋을 구성하는 방법을 개략적으로 설명하기 위하여 보인 예시도이다.FIG. 3 is an example diagram schematically shown to explain a method of configuring a learning dataset for fine facial expression recognition in which the intensity of facial expressions is tagged in FIG. 1.

예컨대 본 실시예에서 상기 미세 표정 인식을 위한 학습용 데이터셋은, 서로 다른 사람들(예 : id1, id2, id3)에게 얼굴 영상을 보여주고, 각자가 느끼는 표정을 "recommend_exp"에 태깅하고, 추가적으로 각자가 생각하는 표정에 대한 강도를 "intensity"에 각각 태깅하여 구성된다. For example, in this embodiment, the learning dataset for fine expression recognition shows face images to different people (e.g., id1, id2, id3), tags the expression felt by each person in "recommend_exp", and additionally each person It is constructed by tagging the intensity of each thinking facial expression with “intensity.”

이에 따라 도 3을 참조하면, 사람들(예 : id1, id2, id3)에게 보여준 얼굴 영상에 대하여, 각 사람들(예 : id1, id2, id3)이 느끼는 표정은 "angry"로 동일하지만, 각 사람들(예 : id1, id2, id3)이 느끼는 표정의 강도는 약간씩 차이(예 : 3, 3, 4)가 있음을 알 수 있다.Accordingly, referring to FIG. 3, with respect to the face images shown to people (e.g., id1, id2, and id3), the expression felt by each person (e.g., id1, id2, and id3) is the same as “angry,” but each person (e.g., id1, id2, and id3) feels the same as “angry.” It can be seen that the intensity of the facial expressions (e.g. id1, id2, id3) feels slightly different (e.g. 3, 3, 4).

따라서 상기 프로세서(120)는 표정 인식과 표정 강도 인식 두 가지를 수행할 수 있는 "미세 표정 인식을 위한 학습용 데이터셋"을 학습함으로써, 얼굴 표정과 표정 강도를 동시에 인식하여 세분화된 미세한 표정까지도 인식할 수 있게 된다.Therefore, the processor 120 learns a “training dataset for fine expression recognition” that can perform both facial expression recognition and facial expression intensity recognition, thereby recognizing facial expressions and facial expression intensity at the same time to recognize even finely segmented facial expressions. It becomes possible.

도 4는 상기 도 1에 있어서, 표정 강도 인식 장치를 이용한 표정 강도 인식 시험 결과를 보인 예시도이다.FIG. 4 is an exemplary diagram showing the results of an expression intensity recognition test using an expression intensity recognition device in FIG. 1.

본 실시예를 이용한 시험은 10종 표정 및 4단계 강도의 데이터셋 학습을 적용한 것으로, 도 4에 도시된 바와 같이, 입력 영상의 얼굴 부분이 검출되어 바운딩 박스로 표시되고, 웃는 표정으로부터 10가지의 표정 중 행복을 인식하였으며, 강도는 1, 2, 3, 4 단계 중에서 중간보다 높은 단계인 3단계로 인식되어 그 결과가 표시된 것을 보여준다.The test using this example applies dataset learning of 10 types of facial expressions and 4 levels of intensity. As shown in FIG. 4, the face part of the input image is detected and displayed as a bounding box, and 10 types of facial expressions are selected from the smiling expressions. Happiness was recognized among the facial expressions, and the intensity was recognized as level 3, which is higher than the middle among levels 1, 2, 3, and 4, and the results are shown.

즉, 본 실시예는 미세 표정 인식을 위한 학습용 데이터셋을 이용한 학습 결과, 한 장의 입력 영상으로부터 표정과 그 표정 강도를 분류하여 미세한 표정까지도 인식할 수 있게 된다.That is, in this embodiment, as a result of learning using a learning dataset for fine facial expression recognition, even fine facial expressions can be recognized by classifying facial expressions and their intensity from a single input image.

상술한 바와 같이 본 실시예는, 얼굴 영상으로부터 특징점(landmark)을 활용하여 표정 강도를 인식하는 종래의 방법과 달리, 사람이 얼굴을 보고 직접적으로 느끼는 표정의 강도 정보를 추가적으로 수집하고, 이를 데이터셋으로 구성하여 학습한 후 얼굴 표정 인식에 활용함으로써, 기존에 정확하게 인식할 수 없었던 낮은 강도의 표정(즉, 미세한 표정)도 보다 정확히 인식할 수 있도록 하는 효과가 있다.As described above, this embodiment, unlike the conventional method of recognizing expression intensity using landmarks from face images, additionally collects information on the intensity of expression felt directly by a person when looking at the face, and sets this as a dataset. By configuring and learning it and then using it to recognize facial expressions, there is an effect of enabling more accurate recognition of low-intensity expressions (i.e., subtle expressions) that previously could not be accurately recognized.

또한 본 실시예는 CNN 백본(Backbone) 네트워크를 공유하여, 표정 분류와 표정 강도 분류를 동시에 수행하는 다중 태스크 러닝(Multi Task Learning)을 통해 미세한 표정을 포함한 다양한 표정 강도를 학습하여, 얼굴 표정과 표정 강도를 인식할 수 있도록 하는 효과가 있다.In addition, this embodiment shares the CNN backbone network and learns various expression intensities, including fine expressions, through multi-task learning that simultaneously performs facial expression classification and facial expression intensity classification. It has the effect of allowing the intensity to be recognized.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 특허청구범위에 의해서 정하여져야 할 것이다. The present invention has been described with reference to the embodiments shown in the drawings, but these are merely exemplary, and those skilled in the art will recognize that various modifications and other equivalent embodiments are possible therefrom. You will understand. Therefore, the scope of technical protection of the present invention should be determined by the scope of the patent claims below.

110 : 영상 전처리 모듈
120 : 프로세서
130 : 미세 표정 인식 모듈
110: Image pre-processing module
120: processor
130: Fine facial expression recognition module

Claims (1)

입력 영상의 영상 전처리를 수행하는 영상 전처리 모듈;
상기 영상 전처리가 수행된 영상을 지정된 알고리즘에 따라 처리하여 얼굴의 표정 분류와 표정 강도 분류를 수행하는 프로세서; 및
상기 표정 분류와 표정 강도 분류의 결과를 바탕으로, 상기 입력 영상의 얼굴 표정을 세분화된 단계에 따라 인식하여 출력하는 미세 표정 인식 모듈을 포함하는 것을 특징으로 하는 표정 강도 인식 장치.
An image pre-processing module that performs image pre-processing of the input image;
a processor that processes the image on which the image preprocessing has been performed according to a designated algorithm to classify facial expressions and facial expression intensity; and
An facial expression intensity recognition device comprising a fine facial expression recognition module that recognizes and outputs facial expressions of the input image in granular stages based on the results of the facial expression classification and facial expression intensity classification.
KR1020220159654A 2022-11-24 2022-11-24 Apparatus for recognizing facial expression intensity KR20240077290A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220159654A KR20240077290A (en) 2022-11-24 2022-11-24 Apparatus for recognizing facial expression intensity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220159654A KR20240077290A (en) 2022-11-24 2022-11-24 Apparatus for recognizing facial expression intensity

Publications (1)

Publication Number Publication Date
KR20240077290A true KR20240077290A (en) 2024-05-31

Family

ID=91330278

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220159654A KR20240077290A (en) 2022-11-24 2022-11-24 Apparatus for recognizing facial expression intensity

Country Status (1)

Country Link
KR (1) KR20240077290A (en)

Similar Documents

Publication Publication Date Title
CN109409222B (en) Multi-view facial expression recognition method based on mobile terminal
CN112990054B (en) Compact linguistics-free facial expression embedding and novel triple training scheme
Dino et al. Facial expression recognition based on hybrid feature extraction techniques with different classifiers
Hoque et al. Real time bangladeshi sign language detection using faster r-cnn
González-Hernández et al. Recognition of learning-centered emotions using a convolutional neural network
Danisman et al. Boosting gender recognition performance with a fuzzy inference system
Bejaoui et al. Fully automated facial expression recognition using 3D morphable model and mesh-local binary pattern
Cao et al. Facial expression recognition based on local binary pattern features and support vector machine
Tautkutė et al. Classifying and visualizing emotions with emotional DAN
Li et al. Facial expression classification using salient pattern driven integrated geometric and textual features
Chen et al. A multi-scale fusion convolutional neural network for face detection
CN114758382A (en) Face AU detection model establishing method and application based on adaptive patch learning
Nasir et al. Recognition of human emotion transition from video sequence using triangulation induced various centre pairs distance signatures
Srininvas et al. A framework to recognize the sign language system for deaf and dumb using mining techniques
Salih et al. Deep learning for face expressions detection: Enhanced recurrent neural network with long short term memory
Nagaral et al. Hybrid approach for facial expression recognition using HJDLBP and LBP histogram in video sequences
Kurundkar et al. Real-Time Sign Language Detection
Kakkar Facial expression recognition with LDPP & LTP using deep belief network
KR20240077290A (en) Apparatus for recognizing facial expression intensity
ViswanathReddy et al. Facial emotions over static facial images using deep learning techniques with hysterical interpretation
Adene et al. Detection and Classification of Human Gender into Binary (Male and Female) Using Convolutional Neural Network (CNN) Model
Moustafa et al. Arabic Sign Language Recognition Systems: A Systematic Review
CN113221698B (en) Facial key point positioning method based on deep learning and expression recognition
Goswami et al. Review on Smile Detection
Abdualghani et al. Face expression recognition in grayscale images using image segmentation and deep learning