KR102187396B1 - Learning method and apparatus for facial expression recognition, facial expression recognition method using electromyogram data - Google Patents

Learning method and apparatus for facial expression recognition, facial expression recognition method using electromyogram data Download PDF

Info

Publication number
KR102187396B1
KR102187396B1 KR1020190023580A KR20190023580A KR102187396B1 KR 102187396 B1 KR102187396 B1 KR 102187396B1 KR 1020190023580 A KR1020190023580 A KR 1020190023580A KR 20190023580 A KR20190023580 A KR 20190023580A KR 102187396 B1 KR102187396 B1 KR 102187396B1
Authority
KR
South Korea
Prior art keywords
facial expression
value
recognition
emg data
facial
Prior art date
Application number
KR1020190023580A
Other languages
Korean (ko)
Other versions
KR20200106121A (en
Inventor
임창환
차호승
최성준
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020190023580A priority Critical patent/KR102187396B1/en
Publication of KR20200106121A publication Critical patent/KR20200106121A/en
Application granted granted Critical
Publication of KR102187396B1 publication Critical patent/KR102187396B1/en

Links

Images

Classifications

    • G06K9/00268
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • A61B5/0488
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

근전도 데이터를 이용하는 얼굴 표정 인식의 인식 성공률을 높이기 위한 학습 방법 및 장치가 개시된다. 개시된 얼굴 표정 인식을 위한 학습 방법은 복수의 얼굴 표정에 대한 사용자 안면부의 근전도 데이터로부터 제1특징값을 추출하는 단계; 및 상기 제1특징값 및 상기 얼굴 표정에 대한 래퍼런스 근전도 데이터로부터 얻어진 제2특징값을 이용하여, 상기 근전도 데이터에 대한 얼굴 표정 클래스를 학습하는 단계를 포함하며, 상기 근전도 데이터에 대한 상기 얼굴 표정 클래스를 학습하는 단계는 상기 얼굴 표정 클래스에 대한 상기 제1특징값의 제1평균값 및 제1공분산값을 계산하는 단계; 상기 얼굴 표정 클래스에 대한 상기 제2특징값의 제2평균값 및 상기 제1평균값을 가중 평균하여, 제1파라미터를 생성하는 단계; 및 상기 얼굴 표정 클래스에 대한 상기 제2특징값의 제2공분산값 및 상기 제1공분산값을 가중 평균하여, 제2파라미터를 생성하는 단계를 포함하며, 상기 제1 및 제2파라미터는 LDA 모델을 위한 파라미터이다.Disclosed is a learning method and apparatus for increasing a recognition success rate of facial expression recognition using EMG data. The disclosed learning method for facial expression recognition includes: extracting a first feature value from EMG data of a user's face portion for a plurality of facial expressions; And learning a facial expression class for the EMG data by using the first feature value and a second feature value obtained from reference EMG data for the facial expression, wherein the facial expression class for the EMG data The learning step includes: calculating a first average value and a first covariance value of the first feature value for the facial expression class; Generating a first parameter by weighting averaging a second average value and the first average value of the second feature value for the facial expression class; And generating a second parameter by a weighted average of the second covariance value and the first covariance value of the second feature value for the facial expression class, wherein the first and second parameters are LDA models. This parameter is for.

Description

얼굴 표정 인식을 위한 학습 방법 및 장치, 근전도 데이터를 이용하는 얼굴 표정 인식 방법{LEARNING METHOD AND APPARATUS FOR FACIAL EXPRESSION RECOGNITION, FACIAL EXPRESSION RECOGNITION METHOD USING ELECTROMYOGRAM DATA} Learning method and device for facial expression recognition, facial expression recognition method using EMG data {LEARNING METHOD AND APPARATUS FOR FACIAL EXPRESSION RECOGNITION, FACIAL EXPRESSION RECOGNITION METHOD USING ELECTROMYOGRAM DATA}

본 발명은 얼굴 표정 인식 방법에 관한 것으로서, 더욱 상세하게는 얼굴 표정 인식을 위한 학습 방법 및 장치와, 근전도 데이터를 이용하는 얼굴 표정 인식 방법에 관한 것이다. The present invention relates to a facial expression recognition method, and more particularly, to a learning method and apparatus for facial expression recognition, and a facial expression recognition method using EMG data.

현재 얼굴 표정 인식 기술은 크게 두가지 방향으로 연구되고 있다. 하나는 이미지 기반으로 얼굴 표정을 인식하는 것이고, 다른 하나는 얼굴의 근전도(electromyogram) 신호를 기반으로 얼굴 표정을 인식하는 것이다.Currently, facial expression recognition technology is being studied in two directions. One is to recognize facial expressions based on images, and the other is to recognize facial expressions based on an electromyogram signal of the face.

이미지 기반의 얼굴 표정 인식 기술의 경우, 사용자의 시야 전방에 카메라가 위치해야하기 때문에 사용자의 시야가 카메라에 의해 가려질 수 있으며, 사용자가 HMD와 같은 장비를 착용할 경우 얼굴 표정 인식 성능이 떨어질 수 있다. 최근 가상 현실 기술이 발달하면서 다양한 가상 현실 서비스가 제공되고 있으며, 가상 현실 서비스를 제공받는 사용자의 얼굴 표정을 가상 현실 서비스에 융합하려는 시도들이 있는데, 이미지 기반의 얼굴 표정 인식 기술은 이러한 서비스에 적합하지 않다.In the case of image-based facial expression recognition technology, since the camera must be positioned in front of the user's field of view, the user's field of view may be obscured by the camera, and if the user wears equipment such as an HMD, the performance of facial expression recognition may deteriorate. have. With the recent development of virtual reality technology, various virtual reality services are being provided, and there are attempts to fuse the facial expressions of users receiving virtual reality services into virtual reality services. Image-based facial expression recognition technology is not suitable for these services. not.

따라서 최근에는 HMD에 근전도 측정 전극을 부착하여, 근전도 신호 기반으로 사용자의 얼굴 표정을 인식하는 기술이 많이 개발되고 있다. Therefore, in recent years, a lot of technologies for recognizing a user's facial expression based on an EMG signal by attaching an EMG measuring electrode to an HMD have been developed.

관련 선행문헌으로 대한민국 공개특허 제2016-0024725호, 대한민국 등록특허 제10-1633057호가 있다.Related prior documents include Korean Patent Application Publication No. 2016-0024725 and Korean Patent Registration No. 10-1633057.

본 발명은, 근전도 데이터를 이용하는 얼굴 표정 인식의 인식 성공률을 높이기 위한 학습 방법 및 장치를 제공하기 위한 것이다.The present invention is to provide a learning method and apparatus for increasing a recognition success rate of facial expression recognition using EMG data.

또한 본 발명은, 사용자가 얼굴 표정을 변화시키는 과정에서 발생하는, 얼굴 표정의 오인식을 줄이기 위한 근전도 데이터를 이용하는 얼굴 표정 인식 방법을 제공하기 위한 것이다.In addition, the present invention is to provide a facial expression recognition method using EMG data for reducing misrecognition of facial expressions that occurs in a process of changing facial expressions by a user.

상기한 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 복수의 얼굴 표정에 대한 사용자 안면부의 근전도 데이터로부터 제1특징값을 추출하는 단계; 및 상기 제1특징값 및 상기 얼굴 표정에 대한 래퍼런스 근전도 데이터로부터 얻어진 제2특징값을 이용하여, 상기 근전도 데이터에 대한 얼굴 표정 클래스를 학습하는 단계를 포함하며, 상기 근전도 데이터에 대한 상기 얼굴 표정 클래스를 학습하는 단계는 상기 얼굴 표정 클래스에 대한 상기 제1특징값의 제1평균값 및 제1공분산값을 계산하는 단계; 상기 얼굴 표정 클래스에 대한 상기 제2특징값의 제2평균값 및 상기 제1평균값을 가중 평균하여, 제1파라미터를 생성하는 단계; 및 상기 얼굴 표정 클래스에 대한 상기 제2특징값의 제2공분산값 및 상기 제1공분산값을 가중 평균하여, 제2파라미터를 생성하는 단계를 포함하며, 상기 제1 및 제2파라미터는 LDA 모델을 위한 파라미터인 얼굴 표정 인식을 위한 학습 방법이 제공된다.According to an embodiment of the present invention for achieving the above object, extracting a first feature value from EMG data of a user's face for a plurality of facial expressions; And learning a facial expression class for the EMG data by using the first feature value and a second feature value obtained from reference EMG data for the facial expression, wherein the facial expression class for the EMG data The learning step includes: calculating a first average value and a first covariance value of the first feature value for the facial expression class; Generating a first parameter by weighting averaging a second average value and the first average value of the second feature value for the facial expression class; And generating a second parameter by a weighted average of the second covariance value and the first covariance value of the second feature value for the facial expression class, wherein the first and second parameters are LDA models. A learning method for facial expression recognition, which is a parameter for, is provided.

또한 상기한 목적을 달성하기 위한 본 발명의 다른 실시예에 따르면, 복수의 얼굴 표정에 대한 사용자 안면부의 근전도 데이터로부터 제1특징값을 추출하는 특징값 추출부; 및 상기 제1특징값 및 상기 얼굴 표정에 대한 래퍼런스 근전도 데이터로부터 얻어진 제2특징값을 이용하여, 상기 근전도 데이터에 대한 얼굴 표정 클래스를 학습하는 얼굴 표정 학습부를 포함하며, 상기 얼굴 표정 학습부는 상기 얼굴 표정 클래스에 대한 상기 제1특징값의 제1평균값 및 제1공분산값을 계산하는 연산부; 및 상기 얼굴 표정 클래스에 대한 상기 제2특징값의 제2평균값 및 상기 제1평균값을 가중 평균하여, 제1파라미터를 생성하고, 상기 얼굴 표정 클래스에 대한 상기 제2특징값의 제2공분산값 및 상기 제1공분산값을 가중 평균하여, 제2파라미터를 생성하는 파라미터 생성부를 포함하며, 상기 제1 및 제2파라미터는 LDA 모델을 위한 파라미터인 얼굴 표정 인식을 위한 학습 장치가 제공된다.In addition, according to another embodiment of the present invention for achieving the above object, a feature value extracting unit for extracting a first feature value from EMG data of a user's face for a plurality of facial expressions; And a facial expression learning unit for learning a facial expression class for the EMG data by using the first feature value and a second characteristic value obtained from reference EMG data for the facial expression, wherein the facial expression learning unit An operation unit that calculates a first average value and a first covariance value of the first feature value for an expression class; And a weighted average of the second average value and the first average value of the second feature value for the facial expression class to generate a first parameter, and a second covariance value of the second feature value for the facial expression class, and A learning apparatus for recognizing facial expressions is provided, comprising a parameter generator configured to generate a second parameter by weighting the first covariance value, wherein the first and second parameters are parameters for an LDA model.

또한 상기한 목적을 달성하기 위한 본 발명의 다른 실시예에 따르면, 사용자 안면부의 근전도 데이터를 입력받는 단계; 학습 데이터를 이용하여, 미리 설정된 인식 주기로 상기 근전도 데이터에 대한 얼굴 표정을 인식하는 단계; 및 미리 설정된 개수만큼 연속적으로 인식된 결과가 동일한 경우, 상기 연속적으로 인식된 결과를 현재 최종 인식 결과로 출력하는 단계를 포함하는 근전도 데이터를 이용하는 얼굴 표정 인식 방법이 제공된다.In addition, according to another embodiment of the present invention for achieving the above object, the step of receiving EMG data of the user's face; Recognizing facial expressions for the EMG data at a preset recognition period using the learning data; And outputting the successively recognized results as a current final recognition result when the results continuously recognized by a preset number are the same, a facial expression recognition method using EMG data.

본 발명에 따르면, 임계값 이상의 얼굴 표정 인식률을 나타내는 훈련 데이터를 추가로 이용하여 학습을 수행함으로써, 얼굴 표정 인식률이 향상될 수 있다.According to the present invention, the facial expression recognition rate may be improved by additionally performing learning by using training data indicating a facial expression recognition rate equal to or greater than a threshold value.

또한 본 발명에 따르면, 임계값 이상으로 연속적인 얼굴 인식 결과가 동일한 경우에 연속적인 얼굴 표정 인식 결과를 최종 인식 결과로 출력함으로써, 표정 전이 과정에서 발생하는 얼굴 표정 오인식을 줄일 수 있다.In addition, according to the present invention, by outputting the continuous facial expression recognition result as the final recognition result when the continuous facial recognition result is equal to or greater than a threshold value, it is possible to reduce misrecognition of facial expressions occurring in the facial expression transfer process.

도 1은 본 발명의 일실시예에 따른 얼굴 표정 인식을 위한 학습 장치를 설명하기 위한 도면이다.
도 2는 본 발명의 일실시예에 따른 얼굴 표정 인식을 위한 학습 방법을 설명하기 위한 도면이다.
도 3은 레퍼런스 근전도 데이터를 이용한 경우와 그렇지 않은 경우의 얼굴 표정 인식률을 나타내는 도면이다.
도 4는 본 발명의 일실시예에 따른 근전도 데이터를 이용하는 얼굴 표정 인식 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 일실시예에 따른 얼굴 표정 인식 결과의 일예를 설명하기 위한 도면이다.
1 is a view for explaining a learning device for facial expression recognition according to an embodiment of the present invention.
2 is a view for explaining a learning method for facial expression recognition according to an embodiment of the present invention.
3 is a diagram showing a facial expression recognition rate when reference EMG data is used and when the reference EMG data is not used.
4 is a diagram for describing a facial expression recognition method using EMG data according to an embodiment of the present invention.
5 is a view for explaining an example of a facial expression recognition result according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals have been used for similar elements.

본 발명은 안면부의 근전도 신호를 이용하는 얼굴 표정 인식 방법에 관한 것으로서, 기계 학습을 이용하여 사용자의 얼굴 표정을 인식한다.The present invention relates to a facial expression recognition method using an EMG signal of a facial part, and recognizes a user's facial expression using machine learning.

사용자의 얼굴 표정 인식은 다양한 분야에 응용되고 있으며, 최근에는 사용자의 표정이 반영된 가상 공간의 아바타를 생성하는 서비스 등을 제공하기 위해 가상 현실 분야에 활용되고 있다. Recognizing a user's facial expression has been applied in various fields, and recently, it has been used in the virtual reality field to provide a service for generating an avatar in a virtual space reflecting the user's expression.

얼굴 표정을 학습하기 위한 훈련 데이터로서, 미리 주어진 다양한 복수의 얼굴 표정에 대한 사용자 안면부의 근전도 신호가 이용될 수 있다. 안면부에서 측정한 근전도 신호는, 얼굴 표정에 따라 다른 특징을 나타내기 때문에 근전호 신호를 훈련 데이터로 이용할 수 있다. 그리고 얼굴 표정에 따른 근전도 신호의 특징의 차이가 클수록 학습 효과는 커질 수 있으며, 얼굴 표정에 따른 근전도 신호의 특징의 차이는 표정간의 차이가 커질수록 극대화될 수 있다. 하지만, 연기자와 같이 다양한 표정을 연습하지 않는 이상, 얼굴 표정에 따른 근전도 특징의 차이가 커지도록 사용자가 표정을 짓는 것이 어려울 수 있으며, 이는 학습 효과의 저하로 이어진다.As training data for learning facial expressions, an EMG signal of a user's face for a plurality of previously given facial expressions may be used. Since the EMG signals measured by the facial part show different features according to facial expressions, the EMG signals can be used as training data. In addition, the greater the difference in the features of the EMG signal according to the facial expression, the greater the learning effect, and the difference in the features of the EMG signal according to the facial expression may be maximized as the difference between the facial expressions increases. However, it may be difficult for the user to make facial expressions so that the difference in EMG characteristics according to facial expressions increases, unless various facial expressions are practiced like an actor, which leads to a decrease in the learning effect.

이에 본 발명은 다양한 얼굴 표정이 충분히 연습된 사용자의 훈련 데이터와 그렇지 못한 훈련 데이터를 함께 이용함으로써, 얼굴 표정 인식률을 높일 수 있는 학습 방법을 제안한다.Accordingly, the present invention proposes a learning method capable of increasing the recognition rate of facial expressions by using both training data of a user who has sufficiently practiced various facial expressions and training data that is not.

한편, 전술된 바와 같이, 얼굴 표정을 위한 학습 방법은 미리 주어진 얼굴 표정에 대한 근전도 데이터를 이용한다. 따라서, 얼굴 표정 인식 과정에서는, 미리 주어진 얼굴 표정 중 하나가 인식 결과로 출력된다. 하지만 사용자가 얼굴 표정을 변화시키는 과정에서의 표정은, 미리 주어진 얼굴 표정에 포함되지 않으므로, 사용자가 얼굴 표정을 변화시키는 과정에서 사용자의 표정이 오인식되는 결과가 발생할 수 있다.Meanwhile, as described above, the learning method for facial expressions uses EMG data for facial expressions given in advance. Therefore, in the facial expression recognition process, one of the previously given facial expressions is output as a recognition result. However, since the expression in the process of changing the facial expression by the user is not included in the facial expression given in advance, the result of the user's expression being misrecognized may occur in the process of changing the facial expression by the user.

예컨대, 사용자의 표정이 웃는 표정에서 놀라는 표정으로 변하는 경우, 표정이 변하는 과정에서의 중간 상태 표정에 대해 엉뚱한 표정 인식 결과가 출력될 수 있다.For example, when the user's expression changes from a smiling expression to a surprise expression, an incorrect expression recognition result may be output for an intermediate expression in the process of changing the expression.

이에 본 발명은, 사용자의 표정이 바뀌는 과정 즉, 사용자의 표정 전이시 발생할 수 있는 표정 오인식을 줄일 수 있는 얼굴 표정 인식 방법을 제안한다.Accordingly, the present invention proposes a facial expression recognition method capable of reducing facial expression misrecognition that may occur when a user's expression is changed, that is, when a user's expression is transferred.

본 발명에 따른 학습 방법 및 얼굴 표정 인식 방법은 프로세서를 포함하는 컴퓨팅 장치에서 수행될 수 있다. 실시예에 따라서 학습 방법 및 얼굴 표정 인식 방법은 하나의 컴퓨팅 장치에서 수행될 수 있으며, 또는 별도의 학습 장치 및 얼굴 표정 인식 장치에서 수행될 수도 있다.The learning method and the facial expression recognition method according to the present invention may be performed in a computing device including a processor. Depending on the embodiment, the learning method and the facial expression recognition method may be performed by one computing device, or may be performed by a separate learning device and a facial expression recognition device.

이하에서, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 얼굴 표정 인식을 위한 학습 장치를 설명하기 위한 도면이다.1 is a view for explaining a learning device for facial expression recognition according to an embodiment of the present invention.

도 1을 참조하면 본 발명에 따른 학습 장치는 특징값 추출부(110) 및 얼굴 표정 학습부(210)를 포함한다. Referring to FIG. 1, the learning apparatus according to the present invention includes a feature value extracting unit 110 and a facial expression learning unit 210.

특징값 추출부(110)는 복수의 얼굴 표정에 대한 사용자 안면부의 근전도 데이터로부터 제1특징값을 추출한다. 일실시예로서, 근전도 데이터는 사용자가 착용한 HMD로부터 제공될 수 있으며, HMD에는 사용자 안면부의 근전도 신호 획득을 위한 전극이 부착될 수 있다. The feature value extracting unit 110 extracts a first feature value from EMG data of the user's face for a plurality of facial expressions. As an embodiment, EMG data may be provided from an HMD worn by a user, and an electrode for acquiring an EMG signal of a user's face may be attached to the HMD.

특징값 추출부(110)는 제공된 근전도 데이터를 전처리하여 특징값을 추출할 수 있으며, 얼굴 표정의 특징을 잘 나타낼 수 있는 다양한 값이, 특징값으로서 이용될 수 있다. 일실시예로서 특징값은 근전도 신호에 대한 샘플 엔트로피(sample entropy), RMS(Root Mean Square), 웨이브랭스(wave length) 또는 캡스트럴 계수(cepstral coefficient)일 수 있다. The feature value extraction unit 110 may extract a feature value by pre-processing the provided EMG data, and various values capable of well representing the features of facial expressions may be used as the feature value. As an embodiment, the feature value may be a sample entropy, a root mean square (RMS), a wave length, or a cepstral coefficient for an EMG signal.

얼굴 표정 학습부(120)는 제1특징값 및 복수의 얼굴 표정에 대한 래퍼런스 근전도 데이터로부터 얻어진 제2특징값을 이용하여, 근전도 데이터에 대한 얼굴 표정 클래스를 학습한다. 즉, 얼굴 표정 학습부(120)는 사용자 안면부의 근전도 데이터라는 훈련 데이터뿐만 아니라, 래퍼런스 근전도 데이터를 함께 이용하여, 사용자의 근전도 데이터에 대한 얼굴 표정 클래스를 학습한다.The facial expression learning unit 120 learns a facial expression class for EMG data by using a first feature value and a second feature value obtained from reference EMG data for a plurality of facial expressions. That is, the facial expression learning unit 120 learns a facial expression class for the user's EMG data by using the reference EMG data as well as training data called EMG data of the user's face.

래퍼런스 근전도 데이터는, 임계값 이상의 얼굴 표정 인식률을 나타내는 훈련 데이터로서, 표정 연습이 이루어진 대상의 안면부로부터 얻어진 데이터일 수 있다. 다시 말해, 래퍼런스 근전도 데이터는, 레퍼런스 근전도 데이터를 이용한 학습 결과로부터 얼굴 표정 인식을 수행하였을 때의 인식률이, 임계값 이상을 나타내는 훈련 데이터일 수 있다.The reference EMG data is training data indicating a facial expression recognition rate equal to or greater than a threshold value, and may be data obtained from a facial portion of a subject on which facial expression training has been performed. In other words, the reference EMG data may be training data indicating that a recognition rate when facial expression recognition is performed from a learning result using the reference EMG data is greater than or equal to a threshold value.

본 발명에 따르면, 임계값 이상의 얼굴 표정 인식률을 나타내는 훈련 데이터를 추가로 이용하여 학습을 수행함으로써, 얼굴 표정 인식률이 향상될 수 있다.According to the present invention, the facial expression recognition rate may be improved by additionally performing learning by using training data indicating a facial expression recognition rate equal to or greater than a threshold value.

얼굴 표정 학습부(120)는 보다 구체적으로 연산부(121) 및 파라미터 생성부(123)를 포함한다.The facial expression learning unit 120 more specifically includes an operation unit 121 and a parameter generation unit 123.

연산부(121)는 웃는 표정, 우는 표정, 화난 표정 등과 같은 다양한 얼굴 표정 클래스에 대한 제1특징값의 제1평균값 및 제1공분산값을 계산한다. 즉, 사용자가 웃는 표정을 지을 때 얻어진 근전도 데이터로부터 추출된 제1특징값의 제1평균값 및 사용자가 우는 표정을 지을 때 얻어진 근전도 데이터로부터 추출된 제1특징값의 제1평균값을 계산할 수 있다. 그리고 얼굴 표정 클래스 각각의 제1특징값에 대해 공분산을 계산하고, 얼굴 표정 클래스 별로 계산된 공분산을 평균함으로써 제1공분산값을 계산할 수 있다. 또한 실시예에 따라서 얼굴 표정 클래스에 대한 제2특징값의 제2평균값 및 제2공분산값을 계산할 수도 있으며, 제2평균값 및 제2공분산값을 계산하는 방법은, 제1평균값 및 제1공분산값을 계산하는 방법과 동일하다.The operation unit 121 calculates a first average value and a first covariance value of the first feature values for various facial expression classes such as a smiling expression, a crying expression, and an angry expression. That is, the first average value of the first feature value extracted from the EMG data obtained when the user makes a smiling expression and the first average value of the first feature value extracted from the EMG data obtained when the user makes a crying expression may be calculated. In addition, the first covariance value may be calculated by calculating the covariance for the first feature value of each facial expression class and averaging the covariance calculated for each facial expression class. In addition, according to an embodiment, the second average value and the second covariance value of the second feature value for the facial expression class may be calculated, and the method of calculating the second average value and the second covariance value includes the first average value and the first covariance value. It is the same as how to calculate.

파라미터 생성부(123)는 얼굴 표정 클래스 각각에 대해 제2특징값의 제2평균값 및 제1평균값을 가중 평균하여, 제1파라미터를 생성하고, 제2특징값의 제2공분산값 및 제1공분산값을 가중 평균하여, 제2파라미터를 생성한다. 즉, 얼굴 표정 클래스 별로 제1 및 제2파라미터가 생성되며, 제1 및 제2파라미터는 LDA(Linear Discriminant Analysis) 모델을 위한 파라미터이다. The parameter generator 123 generates a first parameter by weighted average of the second average value and the first average value of the second feature value for each facial expression class, and the second covariance value and the first covariance of the second feature value The values are weighted averaged to generate a second parameter. That is, first and second parameters are generated for each facial expression class, and the first and second parameters are parameters for a linear discriminant analysis (LDA) model.

LDA는 기계 학습의 한가지 방법으로서, 주어진 데이터를 여러 클래스로 분류하기 위해 이용되는 방법이다. LDA 모델의 파라미터로, 클래스 각각에 포함되는 데이터의 평균값과 공분산값이 이용되며, 평균값과 공분산값이 결정되면, 데이터를 여러 클래스로 구분하는 직선이 결정된다. LDA 기반의 학습 방법에서, 근전도 데이터에 대한 얼굴 표정 클래스를 학습한다는 것은 결국, LDA 모델의 파라미터인 평균값과 공분산 값을 결정하는 것이라고 할 수 있다.LDA, as a method of machine learning, is a method used to classify given data into several classes. As parameters of the LDA model, the average and covariance values of data included in each class are used. When the average and covariance values are determined, a straight line that divides the data into several classes is determined. In the LDA-based learning method, learning the facial expression class for the EMG data can be said to determine the mean value and the covariance value, which are parameters of the LDA model.

전술된 바와 같이, 제1파라미터는 제1 및 제2평균값의 가중 평균 결과로서, LDA 모델을 위한 평균값에 대응되며, 제2파라미터는 제1 및 제2공분산값의 가중 평균 결과로서 LDA 모델을 위한 공분산값에 대응된다.As described above, the first parameter is the weighted average result of the first and second average values, corresponding to the average value for the LDA model, and the second parameter is the weighted average result of the first and second covariance values, for the LDA model. Corresponds to the covariance value.

이와 같이, LDA 모델을 위한 파라미터가 결정되면, 학습된 LDA 모델을 이용하여 사용자의 타겟 근전도 데이터에 대한 얼굴 표정 클래스가 결정될 수 있고, 이러한 얼굴 표정 클래스가 사용자의 얼굴 표정으로 출력될 수 있다.In this way, when a parameter for the LDA model is determined, a facial expression class for the user's target EMG data may be determined using the learned LDA model, and the facial expression class may be output as the user's facial expression.

도 2는 본 발명의 일실시예에 따른 얼굴 표정 인식을 위한 학습 방법을 설명하기 위한 도면이며, 도 3은 레퍼런스 근전도 데이터를 이용한 경우와 그렇지 않은 경우의 얼굴 표정 인식률을 나타내는 도면이다. 도 2에서는 학습 장치의 학습 방법이 일실시예로서 설명된다.2 is a diagram for explaining a learning method for facial expression recognition according to an embodiment of the present invention, and FIG. 3 is a diagram illustrating a facial expression recognition rate when reference EMG data is used and when reference EMG data is not used. In FIG. 2, a learning method of a learning device is described as an embodiment.

본 발명에 따른 학습 장치는 복수의 얼굴 표정에 대한 사용자 안면부의 근전도 데이터로부터 제1특징값을 추출(S210)하며, 실시예에 따라서, 복수의 얼굴 표정에 대한 래퍼런스 근전도 데이터로부터 제2특징값을 추출할 수도 있다. 이 때, 학습 장치는 근전도 데이터의 편차를 줄이기 위해 근전도 데이터를 전처리하여 특징값(제1 및 제2특징값 포함)을 추출할 수 있다. The learning apparatus according to the present invention extracts a first feature value from EMG data of a user's face for a plurality of facial expressions (S210), and according to an embodiment, a second feature value from reference EMG data for a plurality of facial expressions. It can also be extracted. In this case, the learning apparatus may extract feature values (including first and second feature values) by pre-processing the EMG data to reduce deviation of the EMG data.

학습 장치는 일예로서, 먼저 HMD 전극으로부터 제공된 근전도 신호에 대해 20 ~ 450Hz의 주파수 대역으로 대역 통과 필터링을 수행하고, 미리 설정된 크기의 윈도우를 이동시키며, 근전도 데이터를 추출한다. 그리고 시간 영역에서 각각의 윈도우 크기에 대응되어 추출된 근전도 데이터에 대해, 리만 기반 커널을 적용한 결과로부터 특징값을 추출한다. 리만 기반 커널은 BCI(Brain Computer Interface) 분야에서 많이 활용되고 있는 필터의 일종이다.As an example, the learning apparatus first performs band pass filtering on an EMG signal provided from an HMD electrode in a frequency band of 20 to 450 Hz, moves a window of a preset size, and extracts EMG data. In addition, feature values are extracted from the result of applying the Riemann-based kernel to the EMG data extracted corresponding to each window size in the time domain. The Riemann-based kernel is a kind of filter that is widely used in the field of BCI (Brain Computer Interface).

이후 학습 장치는 제1특징값 및 제2특징값을 이용하여, 근전도 데이터에 대한 얼굴 표정 클래스를 학습하며, 일실시예로서, LDA 모델을 이용하여 학습을 수행할 수 있다.Thereafter, the learning apparatus learns a facial expression class for the EMG data by using the first feature value and the second feature value, and, as an embodiment, the learning may be performed using the LDA model.

보다 구체적으로 학습 장치는 얼굴 표정 클래스에 대한 제1특징값의 제1평균값 및 제1공분산값을 계산(S220)한다. 그리고 얼굴 표정 클래스에 대한 제2특징값의 제2평균값 및 제1평균값을 가중 평균하여, 제1파라미터를 생성(S230)하고, 얼굴 표정 클래스에 대한 제2특징값의 제2공분산값 및 제1공분산값을 가중 평균하여, 제2파라미터를 생성(S240)한다. 제1 및 제2파라미터는 LDA 모델을 위한 파라미터이다.In more detail, the learning apparatus calculates a first average value and a first covariance value of the first feature value for the facial expression class (S220). Then, the second average value and the first average value of the second feature value for the facial expression class are weighted to generate a first parameter (S230), and the second covariance value and the first value of the second feature value for the facial expression class are The weighted average of the covariance values is performed to generate a second parameter (S240). The first and second parameters are parameters for the LDA model.

학습 장치는 일예로서, [수학식 1]과 같이 제1 및 제2파라미터를 생성할 수 있다.As an example, the learning device may generate first and second parameters as shown in [Equation 1].

Figure 112019020995481-pat00001
Figure 112019020995481-pat00001

여기서,

Figure 112019020995481-pat00002
는 제2평균값을 나타내며,
Figure 112019020995481-pat00003
는 제1평균값을 나타낸다. 그리고
Figure 112019020995481-pat00004
는 제2공분산값을 나타내며,
Figure 112019020995481-pat00005
는 제2평균값을 나타낸다. α,β는 각각 제1 및 제2파라미터를 위한 가중치로서, 0보다 크고 1보다 작은 범위에서 결정될 수 있다.here,
Figure 112019020995481-pat00002
Represents the second average value,
Figure 112019020995481-pat00003
Represents the first average value. And
Figure 112019020995481-pat00004
Represents the second covariance value,
Figure 112019020995481-pat00005
Represents the second average value. α and β are weights for the first and second parameters, respectively, and may be determined in a range greater than 0 and less than 1.

예컨대, 총 11개의 얼굴 표정 클래스가 존재한다면, 11개의 평균값 원소를 포함하는 제1 및 제2평균값 벡터가 계산될 수 있으며, 제1파라미터 역시 11개의 가중 평균값 원소를 포함하는 1개의 벡터로 계산될 수 있다. 그리고 제1 및 제2공분산값은 11x11 크기의 행렬 형태로 계산될 수 있으며, 가중 평균된 공분산값을 나타내는 제2파라미터 역시 11x11 크기의 행렬 형태로 계산될 수 있다.For example, if there are a total of 11 facial expression classes, the first and second average value vectors including 11 average value elements can be calculated, and the first parameter can also be calculated as one vector including 11 weighted average value elements. I can. In addition, the first and second covariance values may be calculated in the form of a matrix having a size of 11×11, and a second parameter representing the weighted averaged covariance value may also be calculated in the form of a matrix having a size of 11×11.

도 3을 참조하면, 임계값 이상의 얼굴 표정 인식률을 나타내는 훈련 데이터인 래퍼런스 근전도 데이터를 추가로 이용한 경우가 사용자에 대한 근전도 데이터만을 이용한 경우보다 인식률이 높음을 알 수 있다. 일예로서, 사용자에 대한 근전도 데이터만을 이용한 경우 인식률은 83.73%이나, α,β가 각각 0.7, 0.8일 때의 인식률은 86.70%로, 래퍼런스 근전도 데이터를 추가로 이용한 경우, 보다 우수한 인식률을 나타낸다.Referring to FIG. 3, it can be seen that the case of additionally using reference EMG data, which is training data representing the recognition rate of facial expressions equal to or greater than a threshold value, has a higher recognition rate than the case of using only EMG data for a user. As an example, when using only EMG data for a user, the recognition rate is 83.73%, but when α and β are 0.7 and 0.8, respectively, the recognition rate is 86.70%, and when reference EMG data is additionally used, the recognition rate is better.

도 3에서 빨간색 막대는 래퍼런스 근전도 데이터를 추가로 이용한 경우의 인식률을 나타내며, 파란색 막대는 사용자에 대한 근전도 데이터만을 이용한 경우의 인식률을 나타낸다. 그리고 도 3에서 x축은 제1 및 제2파라미터를 위한 다양한 가중치를 나타내며, y축은 인식률을 나타낸다.In FIG. 3, a red bar represents a recognition rate when reference EMG data is additionally used, and a blue bar represents a recognition rate when only EMG data for a user is used. In FIG. 3, the x-axis represents various weights for the first and second parameters, and the y-axis represents the recognition rate.

제1평균값 및 제1공분산값에 적용되는 가중치(1-α, 1-β)가, 제2평균값 및 제2공분산값에 적용되는 가중치(α, β)보다 작을 경우에 인식률은 높아지며, 제2공분산값에 적용되는 가중치(β)가 제2평균값에 적용되는 가중치(α)보다 클 경우, 인식률이 높아지는 경향이 나타나므로, 학습 장치는 이와 같이 가중치를 적용하여 제1 및 제2파라미터를 생성할 수 있다. When the weights (1-α, 1-β) applied to the first average value and the first covariance value are smaller than the weights (α, β) applied to the second average value and the second covariance value, the recognition rate increases, and the second When the weight (β) applied to the covariance value is greater than the weight (α) applied to the second average value, the recognition rate tends to increase, so the learning device can generate the first and second parameters by applying the weight in this way. I can.

도 4는 본 발명의 일실시예에 따른 근전도 데이터를 이용하는 얼굴 표정 인식 방법을 설명하기 위한 도면이며, 도 5는 본 발명의 일실시예에 따른 얼굴 표정 인식 결과의 일예를 설명하기 위한 도면이다. 도 4에서는 얼굴 표정 인식 장치의 얼굴 표정 인식 방법이 일실시예로서 설명된다.4 is a diagram for explaining a facial expression recognition method using EMG data according to an embodiment of the present invention, and FIG. 5 is a view for explaining an example of a facial expression recognition result according to an embodiment of the present invention. In FIG. 4, a method of recognizing a facial expression by an apparatus for recognizing a facial expression is described as an embodiment.

본 발명에 따른 얼굴 표정 인식 장치는 도 2와 같이 생성된 제1 및 제2파라미터가 적용된 LDA 모델을 이용하여, 사용자의 근전도 데이터에 대한 얼굴 표정을 인식할 수 있다. The facial expression recognition apparatus according to the present invention may recognize a facial expression for the user's EMG data by using the LDA model to which the first and second parameters generated as shown in FIG. 2 are applied.

이를 위해, 얼굴 표정 인식 장치는 먼저 사용자 안면부의 근전도 데이터를 수신(S410) 즉 입력받아, 학습 데이터를 이용하여, 미리 설정된 인식 주기로 근전도 데이터에 대한 얼굴 표정을 인식(S420)한다. 여기서, 학습 데이터는 전술된 LDA 모델이다.To this end, the facial expression recognition apparatus first receives (S410), that is, the EMG data of the user's face, and recognizes the facial expression on the EMG data at a preset recognition period using the learning data (S420). Here, the training data is the LDA model described above.

그리고 얼굴 표정 인식 장치는 단계 S420에서의 인식 결과를 그대로 최종 인식 결과로 출력하지 않으며, 미리 설정된 개수만큼 연속적으로 인식된 결과의 동일성에 따라서, 최종 인식 결과를 출력한다. 즉, 얼굴 표정 인식 장치는 현재 인식 시점의 인식 결과와 현재 인식 시점으로부터 미리 설정된 개수에 대응되는 과거 인식 시점까지의 인식 결과의 동일성에 따라서, 단계 S420에서의 인식 결과 중 하나를 최종 인식 결과로 출력한다.Further, the facial expression recognition apparatus does not output the recognition result in step S420 as the final recognition result as it is, but outputs the final recognition result according to the identity of the continuously recognized results by a preset number. That is, the facial expression recognition apparatus outputs one of the recognition results in step S420 as the final recognition result according to the sameness of the recognition result at the current recognition point and the recognition result from the current recognition point to the past recognition point corresponding to a preset number. do.

얼굴 표정 인식 장치는 일실시예로서, 미리 설정된 개수만큼 연속적으로 인식된 결과가 동일한 경우, 연속적으로 인식된 결과를 현재 최종 인식 결과로 출력(S430)한다. 만일, 미리 설정된 개수만큼 연속적으로 인식된 결과가 동일하지 않은 경우, 얼굴 표정 인식 장치는 이전 최종 인식 결과를 현재 최종 인식 결과로 출력한다.The apparatus for recognizing facial expressions is an embodiment, and when the result of consecutive recognition as many as a preset number is the same, outputs the continuously recognized result as the current final recognition result (S430). If the results continuously recognized by the preset number are not the same, the facial expression recognition apparatus outputs the previous final recognition result as the current final recognition result.

예컨대, 사용자가 무표정에서 놀람 표정으로 얼굴 표정을 바꾸는 과정에서, 얼굴 표정 인식 장치는 단계 S420에서 도 5에 도시된 바와 같이, 표정을 인식할 수 있다. 도 5에서, 1은 무표정, 2는 슬픈 표정, 5는 놀람 표정을 나타낸다. 사용자가 무표정(1)에서 놀람 표정(5)으로 얼굴 표정을 변경하였지만, 얼굴 표정을 바꾸는 과정(510)에서, 슬픈 표정이 인식될 수 있다. 사용자가 표정을 바꾸는 과정에서 슬픈 표정을 지은 것은 아니지만, 표정 전이 과정에서의 표정에 대응되는 얼굴 표정은 학습되지 않았기 때문에, 표정 전이 과정에서의 표정이 슬픈 표정으로 오인식된 것이다.For example, in a process in which the user changes a facial expression from a neutral expression to a surprise expression, the facial expression recognition apparatus may recognize the facial expression as shown in FIG. 5 in step S420. In FIG. 5, 1 represents a neutral expression, 2 represents a sad expression, and 5 represents a surprise expression. Although the user changes the facial expression from the expressionless expression (1) to the surprise expression (5), in the process 510 of changing the facial expression, a sad expression may be recognized. Although the user did not make a sad expression in the process of changing facial expressions, the facial expression corresponding to the expression in the expression transfer process was not learned, so the expression in the expression transfer process was misrecognized as a sad expression.

표정 전이 과정이 생략될 수는 없으며, 표정 전이 과정에서 발생할 수 있는 다양한 표정을 모두 학습할 수는 없을 뿐만 아니라, 표정 전이 과정에서의 표정이 인식될 필요도 없기 때문에, 얼굴 표정 인식 장치는 이러한 오인식을 방지하기 위해, 단계 S420의 인식 결과가 일예로서, 4개만큼 연속적으로 동일한 경우, 단계 S430에서 연속적으로 인식된 결과를 현재 최종 인식 결과로 출력한다. Since the facial expression transfer process cannot be omitted, it is not possible to learn all the various expressions that may occur in the facial expression transfer process, and the facial expression in the facial expression transfer process does not need to be recognized. In order to prevent, as an example, when the recognition results in step S420 are the same as four consecutively, the results continuously recognized in step S430 are output as the current final recognition results.

따라서, 도 5를 참조하면, 얼굴 표정을 바꾸는 과정(510)에서의 사용자의 표정으로 인해, 단계 S420에서 연속적으로 인식된 4개의 결과가 동일하지 않은 상태에서는, 얼굴 표정 인식 장치가 이전 최종 인식 결과인 무표정(1)을 현재 최종 인식 결과로 단계 S430에서 출력한다. 그리고 얼굴 표정을 바꾸는 과정(510)이후 단계 S420에서 연속적으로 인식된 4개의 결과는 모두 놀람 표정(5)이므로, 얼굴 표정 인식 장치는 단계 S430에서 놀람 표정(5)을 최종 인식 결과로 출력한다.Therefore, referring to FIG. 5, due to the user's expression in the process 510 of changing the facial expression, in a state in which the four consecutively recognized results in step S420 are not the same, the facial expression recognition apparatus performs the previous final recognition result. The human expression (1) is output in step S430 as the current final recognition result. After the process 510 of changing the facial expression, since all four results continuously recognized in step S420 are the expressions of surprise 5, the facial expression recognition apparatus outputs the expression of surprise 5 in step S430 as the final recognition result.

결국, 단계 S430에서 최종적으로 출력되는 인식 결과는, 슬픈 표정없이 무표정(1)과 놀람 표정(5)으로만 이루어질 수 있으며, 슬픈 표정이 오인식되는 것이 방지될 수 있다.As a result, the recognition result finally output in step S430 may consist of only the expressionless expression (1) and the surprise expression (5) without a sad expression, and a sad expression may be prevented from being misrecognized.

사용자에게 무표정을 짓다가 슬픈 표정을 짓도록 지시를 준 실험 환경에서, 단계 S420에서의 오인식률은 3.13%였으나, 단계 S430에서의 오인식률은 1.72%로 낮아짐을 확인할 수 있었다.In the experimental environment in which the user was instructed to make a sad expression while making a expressionless expression, the false recognition rate in step S420 was 3.13%, but the false recognition rate in step S430 was reduced to 1.72%.

결국, 본 발명에 따르면, 임계값 이상으로 연속적인 얼굴 인식 결과가 동일한 경우에 연속적인 얼굴 표정 인식 결과를 최종 인식 결과로 출력함으로써, 표정 전이 과정에서 발생하는 얼굴 표정 오인식을 줄일 수 있다.As a result, according to the present invention, by outputting the continuous facial expression recognition result as the final recognition result when the continuous facial recognition result is equal to or greater than the threshold value, it is possible to reduce misrecognition of facial expressions occurring in the facial expression transfer process.

한편, 단계 S430에서의 미리 설정된 개수는 사용자의 표정 변화 속도에 따라 결정될 수 있다. 사용자의 표정 변화 속도가 느릴수록 미리 설정된 개수는 증가되며, 사용자의 표정 변화 속도가 빠를수록 미리 설정된 개수는 감소하도록 설정될 수 있다.Meanwhile, the preset number in step S430 may be determined according to the user's expression change speed. The preset number may be set to increase as the user's expression change speed is slower, and the preset number may be set to decrease as the user's expression change speed increases.

그리고 사용자의 표정 변화 속도는 단계 S420에서의 인식 결과로부터 추정되거나 또는 사용자 개개인의 특성을 고려하여 사용자가 직접 설정할 수 있다.In addition, the user's expression change speed may be estimated from the recognition result in step S420 or may be directly set by the user in consideration of individual characteristics.

얼굴 표정 인식 장치는 연속적으로 인식되는 결과를 카운팅하고, 현재 카운팅 시점 전후의 카운팅 개수보다 적은 개수로 카운팅된 인식 결과의 개수를 이용하여 사용자의 표정 변화 속도를 판단할 수 있다. 여기서, 카운팅은 연속적으로 인식되는 결과에 대한 카운팅을 의미한다. 얼굴 표정 인식 장치는 일예로서, 전후의 카운팅 개수보다 적은 개수로 카운팅된 인식 결과의 개수의 역수를 사용자의 표정 변화 속도로 판단할 수 있다.The facial expression recognition apparatus may count results that are continuously recognized, and determine the speed of change of the user's facial expressions by using the number of recognition results counted to be less than the number of counts before and after the current counting time. Here, counting means counting the results that are continuously recognized. As an example, the facial expression recognition apparatus may determine an inverse number of the number of recognition results counted to be less than the number of counting before and after, as the speed of change of the user's expression.

도 5와 같이, 얼굴 표정을 바꾸는 과정(510)에서 카운팅된 인식 결과의 개수는 3이며, 이는 이전의 무표정으로 인식된 카운팅 개수 4, 이후의 슬픈 표정으로 인식된 개수 4보다 적다. 따라서, 얼굴 표정 인식 장치는 얼굴 표정을 바꾸는 과정(510)에서의 인식 결과의 개수를 이용하여 사용자의 표정 변화 속도를 판단할 수 있으며, 1/3을 사용자의 표정 변화 속도로 판단할 수 있다.As shown in FIG. 5, the number of recognition results counted in the process 510 of changing the facial expression is 3, which is less than the number of counting 4 recognized as a previous expressionless expression and the number 4 recognized as a sad expression afterwards. Accordingly, the facial expression recognition apparatus may determine the user's expression change speed using the number of recognition results in the process 510 of changing the facial expression, and determine 1/3 as the user's expression change speed.

앞서 설명한 기술적 내용들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예들을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The technical details described above may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiments, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.As described above, in the present invention, specific matters such as specific components, etc., and limited embodiments and drawings have been described, but this is provided only to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , If a person of ordinary skill in the field to which the present invention belongs, various modifications and variations are possible from these descriptions. Therefore, the spirit of the present invention is limited to the described embodiments and should not be defined, and all things that are equivalent or equivalent to the claims as well as the claims to be described later fall within the scope of the spirit of the present invention. .

Claims (9)

얼굴 표정 인식 장치 사용자의 복수의 얼굴 표정에 대한 사용자 안면부의 근전도 데이터로부터 제1특징값을 추출하는 단계; 및
상기 제1특징값 및 상기 얼굴 표정에 대한 래퍼런스 근전도 데이터로부터 얻어진 제2특징값을 이용하여, 상기 근전도 데이터에 대한 얼굴 표정 클래스를 학습하는 단계를 포함하며,
상기 근전도 데이터에 대한 상기 얼굴 표정 클래스를 학습하는 단계는
상기 얼굴 표정 클래스에 대한 상기 제1특징값의 제1평균값 및 제1공분산값을 계산하는 단계;
상기 얼굴 표정 클래스에 대한 상기 제2특징값의 제2평균값 및 상기 제1평균값을 가중 평균하여, 제1파라미터를 생성하는 단계; 및
상기 얼굴 표정 클래스에 대한 상기 제2특징값의 제2공분산값 및 상기 제1공분산값을 가중 평균하여, 제2파라미터를 생성하는 단계를 포함하며,
상기 제1 및 제2파라미터는 LDA 모델을 위한 파라미터이며,
상기 래퍼런스 근전도 데이터는, 임계값 이상의 얼굴 표정 인식률을 나타내는 훈련 데이터인,
얼굴 표정 인식을 위한 학습 방법.
Extracting a first feature value from EMG data of a user's face part for a plurality of facial expressions of a user of the facial expression recognition device; And
Using the first feature value and a second feature value obtained from reference EMG data for the facial expression, learning a facial expression class for the EMG data,
Learning the facial expression class for the EMG data
Calculating a first average value and a first covariance value of the first feature value for the facial expression class;
Generating a first parameter by a weighted average of the second average value and the first average value of the second feature value for the facial expression class; And
And generating a second parameter by weighting averaging a second covariance value of the second feature value and the first covariance value for the facial expression class,
The first and second parameters are parameters for the LDA model,
The reference EMG data is training data indicating a facial expression recognition rate equal to or greater than a threshold value,
Learning method for facial expression recognition.
제 1항에 있어서,
상기 제1평균값 및 상기 제1공분산값에 적용되는 가중치는
상기 제2평균값 및 상기 제2공분산값에 적용되는 가중치보다 작은 가중치인
얼굴 표정 인식을 위한 학습 방법.
The method of claim 1,
The weight applied to the first average value and the first covariance value is
A weight that is smaller than the weight applied to the second average value and the second covariance value
Learning method for facial expression recognition.
제 2항에 있어서,
상기 제2공분산값에 적용되는 가중치는
상기 제2평균값에 적용되는 가중치보다 큰 가중치인
얼굴 표정 인식을 위한 학습 방법.
The method of claim 2,
The weight applied to the second covariance value is
A weight greater than the weight applied to the second average value
Learning method for facial expression recognition.
삭제delete 삭제delete 사용자 안면부의 근전도 데이터를 입력받는 단계;
학습 데이터를 이용하여, 미리 설정된 인식 주기로 상기 근전도 데이터에 대한 얼굴 표정을 인식하는 단계; 및
미리 설정된 개수만큼 연속적으로 인식된 결과가 동일한 경우, 상기 연속적으로 인식된 결과를 현재 최종 인식 결과로 출력하는 단계를 포함하며,
상기 연속적으로 인식된 결과를 최종 인식 결과로 출력하는 단계는
상기 미리 설정된 개수만큼 연속적으로 인식된 결과가 동일하지 않은 경우, 이전 최종 인식 결과를 상기 현재 최종 인식 결과로 출력하는
근전도 데이터를 이용하는 얼굴 표정 인식 방법.
Receiving EMG data of the user's face;
Recognizing facial expressions for the EMG data at a preset recognition period using the learning data; And
In the case where the results continuously recognized as much as a preset number are the same, outputting the continuously recognized results as a current final recognition result,
The step of outputting the continuously recognized result as a final recognition result
If the results continuously recognized by the preset number are not the same, outputting the previous final recognition result as the current final recognition result
Facial expression recognition method using EMG data.
삭제delete 제 6항에 있어서,
상기 미리 설정된 개수는
상기 사용자의 표정 변화 속도에 따라 결정되는
근전도 데이터를 이용하는 얼굴 표정 인식 방법.
The method of claim 6,
The preset number is
Determined according to the user's expression change speed
Facial expression recognition method using EMG data.
제 8항에 있어서,
상기 연속적으로 인식된 결과를 카운팅하는 단계; 및
현재 카운팅 시점 전후의 카운팅 개수보다 적은 개수로 카운팅된 인식 결과의 개수를 이용하여 상기 사용자의 표정 변화 속도를 판단하는 단계
를 더 포함하는 근전도 데이터를 이용하는 얼굴 표정 인식 방법.
The method of claim 8,
Counting the successively recognized results; And
Determining the user's expression change speed using the number of recognition results counted less than the number of counting before and after the current counting point
Facial expression recognition method using EMG data further comprising a.
KR1020190023580A 2019-02-28 2019-02-28 Learning method and apparatus for facial expression recognition, facial expression recognition method using electromyogram data KR102187396B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190023580A KR102187396B1 (en) 2019-02-28 2019-02-28 Learning method and apparatus for facial expression recognition, facial expression recognition method using electromyogram data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190023580A KR102187396B1 (en) 2019-02-28 2019-02-28 Learning method and apparatus for facial expression recognition, facial expression recognition method using electromyogram data

Publications (2)

Publication Number Publication Date
KR20200106121A KR20200106121A (en) 2020-09-11
KR102187396B1 true KR102187396B1 (en) 2020-12-04

Family

ID=72472641

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190023580A KR102187396B1 (en) 2019-02-28 2019-02-28 Learning method and apparatus for facial expression recognition, facial expression recognition method using electromyogram data

Country Status (1)

Country Link
KR (1) KR102187396B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016149063A (en) * 2015-02-13 2016-08-18 オムロン株式会社 Emotion estimation system and emotion estimation method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130006030A (en) * 2011-07-08 2013-01-16 가톨릭대학교 산학협력단 Construction method of classification model for emotion recognition and apparatus thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016149063A (en) * 2015-02-13 2016-08-18 オムロン株式会社 Emotion estimation system and emotion estimation method

Also Published As

Publication number Publication date
KR20200106121A (en) 2020-09-11

Similar Documents

Publication Publication Date Title
Fan et al. A dynamic framework based on local Zernike moment and motion history image for facial expression recognition
Zhang et al. Random Gabor based templates for facial expression recognition in images with facial occlusion
Pfister et al. Recognising spontaneous facial micro-expressions
Le Ngo et al. Sparsity in dynamics of spontaneous subtle emotions: analysis and application
KR100771244B1 (en) Method and apparatus for processing video data
Cotter Sparse representation for accurate classification of corrupted and occluded facial expressions
CN108108662B (en) Deep neural network recognition model and recognition method
CN105447432B (en) A kind of face method for anti-counterfeit based on local motion mode
Wimmer et al. Low-level fusion of audio and video feature for multi-modal emotion recognition
CN105320950A (en) A video human face living body detection method
CN107403142A (en) A kind of detection method of micro- expression
Ragheb et al. Vihasi: virtual human action silhouette data for the performance evaluation of silhouette-based action recognition methods
CN109784277B (en) Emotion recognition method based on intelligent glasses
Cornejo et al. Emotion recognition from occluded facial expressions using weber local descriptor
Xu et al. Action recognition by saliency-based dense sampling
CN113553961B (en) Training method and device of face recognition model, electronic equipment and storage medium
KR20160087740A (en) Method and apparatus for determining type of movement of object in video
CN114360073A (en) Image identification method and related device
KR102187396B1 (en) Learning method and apparatus for facial expression recognition, facial expression recognition method using electromyogram data
KR102192342B1 (en) Method and device for multimodal character identification on multiparty dialogues
Kondo et al. Siamese-structure deep neural network recognizing changes in facial expression according to the degree of smiling
Le Cornu et al. Voicing classification of visual speech using convolutional neural networks
KR20200049936A (en) Biometric device and method
KR20190110223A (en) Facial expression registration method for facial expression recognition and facial expression recognition method using the same
Su et al. Micro-expression recognition based on the spatio-temporal feature

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant