KR102216360B1 - Emotion recognition method and device using electromyogram signal - Google Patents

Emotion recognition method and device using electromyogram signal Download PDF

Info

Publication number
KR102216360B1
KR102216360B1 KR1020180080953A KR20180080953A KR102216360B1 KR 102216360 B1 KR102216360 B1 KR 102216360B1 KR 1020180080953 A KR1020180080953 A KR 1020180080953A KR 20180080953 A KR20180080953 A KR 20180080953A KR 102216360 B1 KR102216360 B1 KR 102216360B1
Authority
KR
South Korea
Prior art keywords
emotion
user
emg signal
emotion recognition
emotions
Prior art date
Application number
KR1020180080953A
Other languages
Korean (ko)
Other versions
KR20200007162A (en
Inventor
임창환
차호승
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020180080953A priority Critical patent/KR102216360B1/en
Publication of KR20200007162A publication Critical patent/KR20200007162A/en
Application granted granted Critical
Publication of KR102216360B1 publication Critical patent/KR102216360B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor

Abstract

사용자의 표정으로부터 사용자의 감정을 추론할 수 있는, 근전도 신호를 이용하는 감정 인식 방법 및 장치가 개시된다. 개시된 근전도 신호를 이용하는 감정 인식 방법은, 사용자 안면부에 대한 근전도 신호를 입력받는 단계; 상기 근전도 신호에 대해 전처리를 수행하는 단계; 전처리된 근전도 신호로부터 특징값을 추출하는 단계; 및 상기 특징값을 이용하여, 사용자에 대한 감정을 인식하는 단계를 포함하며, 상기 특징값은 샘플 엔트로피(sample entropy), RMS, 웨이브랭스 및 캡스트럴 계수(cepstral coefficient) 중 둘 이상을 포함한다.Disclosed is a method and apparatus for recognizing emotions using an EMG signal, capable of inferring a user's emotion from a user's facial expression. An emotion recognition method using the disclosed EMG signal includes the steps of receiving an EMG signal for a user's face; Performing preprocessing on the EMG signal; Extracting a feature value from the preprocessed EMG signal; And recognizing an emotion for the user by using the feature value, wherein the feature value includes two or more of sample entropy, RMS, wave length, and cepstral coefficient. .

Description

근전도 신호를 이용하는 감정 인식 방법 및 장치{EMOTION RECOGNITION METHOD AND DEVICE USING ELECTROMYOGRAM SIGNAL}Emotion recognition method and apparatus using an electromyogram signal TECHNICAL FIELD [EMOTION RECOGNITION METHOD AND DEVICE USING ELECTROMYOGRAM SIGNAL]

본 발명은 감정 인식 방법 및 장치에 관한 것으로서, 더욱 상세하게는 사용자 안면부의 근전도 신호를 이용하는 감정 인식 방법 및 장치에 관한 것이다. The present invention relates to an emotion recognition method and device, and more particularly, to an emotion recognition method and device using an EMG signal of a user's face.

현재 얼굴 표정 인식 기술은 크게 두가지 방향으로 연구되고 있다. 하나는 이미지 기반으로 얼굴 표정을 인식하는 것이고, 다른 하나는 얼굴의 근전도(electromyogram, EMG) 신호를 기반으로 얼굴 표정을 인식하는 것이다.Currently, facial expression recognition technology is being studied in two directions. One is to recognize facial expressions based on images, and the other is to recognize facial expressions based on an electromyogram (EMG) signal of the face.

이미지 기반의 얼굴 표정 인식 기술의 경우, 사용자의 시야 전방에 카메라가 위치해야하기 때문에 사용자의 시야가 카메라에 의해 가려질 수 있으며, 사용자가 HMD와 같은 장비를 착용할 경우 얼굴 표정 인식 성능이 떨어질 수 있다. 최근 가상 현실 기술이 발달하면서 다양한 가상 현실 서비스가 제공되고 있으며, 가상 현실 서비스를 제공받는 사용자의 얼굴 표정을 가상 현실 서비스에 융합하려는 시도들이 있는데, 이미지 기반의 얼굴 표정 인식 기술은 이러한 서비스에 적합하지 않다.In the case of image-based facial expression recognition technology, since the camera must be positioned in front of the user's field of view, the user's field of view may be obscured by the camera, and if the user wears equipment such as an HMD, the performance of facial expression recognition may deteriorate. have. With the recent development of virtual reality technology, various virtual reality services are being provided, and there are attempts to fuse the facial expressions of users receiving virtual reality services into virtual reality services. Image-based facial expression recognition technology is not suitable for these services. not.

따라서 최근에는 HMD에 근전도 측정 전극을 부착하여, 근전도 신호 기반으로 사용자의 얼굴 표정을 인식하는 기술이 많이 개발되고 있다. 얼굴 표정(웃음, 화남, 슬픔 등등)에 따라 얼굴 근육의 활성화정도가 다르게 일어나므로, 이러한 다른 패턴을 나타내는 근전도 신호를 이용하여 사용자의 얼굴 표정을 인식할 수 있다.Therefore, in recent years, a lot of technologies for recognizing a user's facial expression based on an EMG signal by attaching an EMG measuring electrode to an HMD have been developed. Since the degree of activation of facial muscles differs according to facial expressions (laughter, anger, sadness, etc.), the user's facial expression can be recognized using an EMG signal representing such a different pattern.

관련 선행문헌으로 대한민국 공개특허 제2016-0024725호, 대한민국 등록특허 제10-1633057호가 있다.Related prior documents include Korean Patent Application Publication No. 2016-0024725 and Korean Patent Registration No. 10-1633057.

본 발명은 사용자의 표정으로부터 사용자의 감정을 추론할 수 있는, 근전도 신호를 이용하는 감정 인식 방법 및 장치를 제공하기 위한 것이다.An object of the present invention is to provide a method and apparatus for recognizing emotions using an EMG signal capable of inferring a user's emotion from a user's facial expression.

상기한 목적을 달성하기 위한 본 발명의 일 실시예에 따르면, 사용자 안면부에 대한 근전도 신호를 입력받는 단계; 상기 근전도 신호에 대해 전처리를 수행하는 단계; 전처리된 근전도 신호로부터 특징값을 추출하는 단계; 및 상기 특징값을 이용하여, 사용자에 대한 감정을 인식하는 단계를 포함하며, 상기 특징값은 샘플 엔트로피(sample entropy), RMS, 웨이브랭스 및 캡스트럴 계수(cepstral coefficient) 중 둘 이상을 포함하는 근전도 신호를 이용하는 감정 인식 방법이 제공된다.According to an embodiment of the present invention for achieving the above object, receiving an EMG signal for a user's face; Performing preprocessing on the EMG signal; Extracting a feature value from the preprocessed EMG signal; And recognizing an emotion for the user by using the feature value, wherein the feature value includes at least two of sample entropy, RMS, wave length, and cepstral coefficient. An emotion recognition method using an EMG signal is provided.

또한 상기한 목적을 달성하기 위한 본 발명의 다른 실시예에 따르면, 사용자 안면부의 제1근전도 신호를 이용하여, 사용자에 대한 감정을 인식하는 단계; 상기 인식된 감정에 대한 정확도를 분석하는 단계; 상기 인식된 복수의 감정 중에서, 상기 정확도에 따라 선택된 감정을 포함하는 후보 감정 그룹을 결정하는 단계; 및 상기 사용자 안면부의 제2근전도 신호를 이용하여, 상기 후보 감정 그룹에 포함된 감정 중 하나를 상기 사용자에 대한 감정으로 인식하는 단계를 포함하는 근전도 신호를 이용하는 감정 인식 방법이 제공된다.In addition, according to another embodiment of the present invention for achieving the above object, by using the first EMG signal of the user's face part, recognizing emotions for the user; Analyzing the accuracy of the recognized emotion; Determining a candidate emotion group including an emotion selected according to the accuracy from among the plurality of recognized emotions; And recognizing one of the emotions included in the candidate emotion group as an emotion for the user by using the second EMG signal of the user's face.

또한 상기한 목적을 달성하기 위한 본 발명의 다른 실시예에 따르면, 근전도 신호를 이용하는 웨어러블 디바이스 타입의 감정 인식 장치에 있어서, 사용자 안면부의 근전도 신호를 측정하는 복수의 전극; 상기 근전도 신호로부터 특징값을 추출하고, 상기 특징값을 이용하여 사용자에 대한 감정을 인식하는 감정 인식부; 및 상기 인식된 감정에 기반하여 상기 사용자에 대한 아바타를 생성하는 이미지 처리부를 포함하는 근전도 신호를 이용하는 감정 인식 장치가 제공된다.In addition, according to another embodiment of the present invention for achieving the above object, there is provided a wearable device type emotion recognition apparatus using an EMG signal, comprising: a plurality of electrodes for measuring an EMG signal of a user's face; An emotion recognition unit for extracting a feature value from the EMG signal and recognizing an emotion for a user using the feature value; And there is provided an emotion recognition apparatus using an EMG signal including an image processing unit that generates an avatar for the user based on the recognized emotion.

본 발명에 따르면, 사용자 안면부에 대한 근전도 신호를 이용함으로써, 사용자의 표정 변화에 따른 감정을 추론할 수 있다.According to the present invention, by using the EMG signal to the user's face, it is possible to infer an emotion according to a change in the user's facial expression.

또한 본 발명에 따르면 미리 인식된 감정의 정확도를 분석하고 분석된 결과에 기반하여 사용자의 감정을 인식함으로써, 감정 인식의 정확도가 향상될 수 있다.In addition, according to the present invention, the accuracy of emotion recognition may be improved by analyzing the accuracy of the emotion recognized in advance and recognizing the emotion of the user based on the analyzed result.

또한 본 발명에 따르면 기계 학습에 이용되는 감정을, 감정 인식의 정확도 및 개인별 감정 패턴에 적응적으로 결정함으로써, 감정 학습에 소요되는 시간을 줄일 수 있다.In addition, according to the present invention, by adaptively determining the emotion used for machine learning according to the accuracy of emotion recognition and individual emotion patterns, it is possible to reduce the time required for emotion learning.

도 1은 본 발명의 일실시예에 따른 근전도 신호를 이용하는 감정 인식 장치를 설명하기 위한 도면이다.
도 2는 본 발명의 일실시예에 따른 근전도 신호를 이용하는 감정 인식 방법을 설명하기 위한 도면이다.
도 3은 본 발명의 다른 실시예에 따른 근전도 신호를 이용하는 감정 인식 방법을 설명하기 위한 도면이다.
도 4는 8개의 감정에 대한 혼동 행렬을 도시하는 도면이다.
1 is a diagram for describing an emotion recognition apparatus using an EMG signal according to an embodiment of the present invention.
2 is a view for explaining an emotion recognition method using an EMG signal according to an embodiment of the present invention.
3 is a diagram for explaining an emotion recognition method using an EMG signal according to another embodiment of the present invention.
4 is a diagram showing a confusion matrix for eight emotions.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals have been used for similar elements.

본 발명은 사용자의 얼굴 표정으로부터 사용자에 대한 감정을 인식하는 방법에 관한 발명으로서, 사용자 안면부에 대한 근전도 신호를 이용하여 사용자에 대한 감정을 인식하는 방법을 제안한다.The present invention relates to a method of recognizing a user's emotion from a user's facial expression, and proposes a method of recognizing a user's emotion by using an EMG signal to a user's face.

감정에 따라서 얼굴 표정이 달라지므로, 얼굴 표정으로부터 사용자에 대한 감정을 추론할 수 있다. 그리고 이러한 얼굴 표정에 따라서 얼굴 근육의 활성화 정도가 다르게 일어나므로, 얼굴 표정에 따라서 안면부에 대한 근전도 신호가 변화하며 결국, 사용자 안면부에 대한 근전도 신호로부터 사용자에 대한 감정을 추론할 수 있다.Since facial expressions vary according to emotions, emotions for the user can be inferred from facial expressions. In addition, since the degree of activation of the facial muscles differs according to such facial expressions, the EMG signal for the facial part changes according to the facial expression, and as a result, emotions for the user can be inferred from the EMG signals for the user's facial part.

이하에서, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 근전도 신호를 이용하는 감정 인식 장치를 설명하기 위한 도면이다.1 is a diagram for describing an emotion recognition apparatus using an EMG signal according to an embodiment of the present invention.

본 발명에 따른 감정 인식 장치는 웨어러블 타입의 장치로서, 일실시예로서 사용자의 안면부에 착용되는 HMD(Head Mounted Display) 타입일 수 있다.The emotion recognition device according to the present invention is a wearable type device, and may be a head mounted display (HMD) type worn on a user's face as an embodiment.

본 발명에 따른 감정 인식 장치는 복수의 전극(110), 감정 인식부(120) 및 이미지 처리부(130)를 포함한다.The emotion recognition apparatus according to the present invention includes a plurality of electrodes 110, an emotion recognition unit 120, and an image processing unit 130.

복수의 전극(110)은 사용자 안면부의 근정도 신호를 측정하며, 사용자의 안구 주변에 접촉하여 근전도 신호를 측정할 수 있다. 전극의 개수 및 위치는 실시예에 따라서 다양하게 결정될 수 있다.The plurality of electrodes 110 may measure a muscle level signal of the user's face, and may measure an EMG signal by contacting the user's eyeball periphery. The number and position of electrodes may be variously determined according to exemplary embodiments.

감정 인식부(120)는 근전도 신호로부터 특징값을 추출하고, 추출된 특징값을 이용하여 사용자에 대한 감정을 인식한다. 일실시예로서, 샘플 엔트로피(sample entropy), RMS(Root Mean Square), 웨이브랭스(wavelength) 및 캡스트럴 계수(cepstral coefficient) 중 둘 이상이 특징값으로 이용될 수 있다.The emotion recognition unit 120 extracts a feature value from the EMG signal, and recognizes an emotion for a user using the extracted feature value. In an embodiment, two or more of sample entropy, root mean square (RMS), wavelength, and cepstral coefficient may be used as feature values.

감정 인식부(120)는 일실시예로서, 학습 데이터를 이용하여 사용자에 대한 감정을 인식할 수 있다. 다양한 감정에 대한 사용자의 레퍼런스 얼굴 표정으로부터 얻어진 근전도 신호를 이용하여 기계 학습을 수행하고, 기계 학습으로부터 얻어진 학습 데이터를 감정 인식에 이용할 수 있다. 사용자가 기계 학습에 이용된 레퍼런스 얼굴 표정과 유사한 얼굴 표정을 짓는다면, 근전도 신호 또한 유사할 것이므로 레퍼런스 얼굴 표정에 대응되는 감정이 사용자에 대한 감정으로 인식될 수 있을 것이다.As an embodiment, the emotion recognition unit 120 may recognize emotions for a user using learning data. Machine learning may be performed using EMG signals obtained from a user's reference facial expressions for various emotions, and learning data obtained from machine learning may be used for emotion recognition. If the user makes facial expressions similar to the reference facial expressions used in machine learning, the EMG signals will also be similar, so that emotions corresponding to the reference facial expressions may be recognized as emotions toward the user.

이미지 처리부(130)는 인식된 감정에 기반하여, 사용자에 대한 아바타를 생성한다. 즉, 이미지 처리부(130)는 사용자의 현재 감정 상태를 나타내는 아바타를 생성한다.The image processing unit 130 generates an avatar for the user based on the recognized emotion. That is, the image processing unit 130 generates an avatar indicating the current emotional state of the user.

가상 현실 장치는 HMD 형태로 대부분 제공되는데, 이미지 처리부(130)는 가상 현실 공간에서, 사용자의 감정을 나타내는 아바타를 생성할 수 있다. 사용자는 이러한 아바타를 이용하여 다양한 가상 현실 서비스를 이용할 수 있다.Most virtual reality devices are provided in the form of an HMD, and the image processing unit 130 may generate an avatar representing a user's emotions in a virtual reality space. A user can use various virtual reality services using such an avatar.

도 2는 본 발명의 일실시예에 따른 근전도 신호를 이용하는 감정 인식 방법을 설명하기 위한 도면이다. 2 is a view for explaining an emotion recognition method using an EMG signal according to an embodiment of the present invention.

본 발명에 따른 감정 인식 방법은 프로세서를 포함하는 컴퓨팅 장치에서 수행될 수 있다. 이하에서, 도 1에서 설명된 감정 인식 장치의 감정 인식 방법이 설명되나, 본 발명에 따른 감정 인식 방법이 수행되는 감정 인식 장치는 웨어러블 타입으로 한정될 필요는 없다. The emotion recognition method according to the present invention may be performed in a computing device including a processor. Hereinafter, the emotion recognition method of the emotion recognition apparatus described in FIG. 1 will be described, but the emotion recognition apparatus in which the emotion recognition method according to the present invention is performed does not need to be limited to a wearable type.

본 발명에 따른 감정 인식 장치는 사용자 안면부에 대한 근전도 신호를 입력받아(S210), 근전도 신호에 대해 전처리를 수행(S220)한다. The emotion recognition apparatus according to the present invention receives an EMG signal for a user's face (S210), and performs preprocessing on the EMG signal (S220).

근전도 신호는 사용자 안면부에 착용된 웨어러블 디바이스에서 측정된 신호이거나 또는 별도의 근전도 측정 장치로부터 제공될 수 있다. 감정 인식 장치는 입력된 근전도 신호에 대해 20~450Hz의 대역통과필터를 이용해 전처리를 수행할 수 있다.The EMG signal may be a signal measured by a wearable device worn on the user's face or may be provided from a separate EMG measurement device. The emotion recognition apparatus may perform preprocessing on the input EMG signal using a band pass filter of 20 to 450 Hz.

본 발명에 따른 감정 인식 장치는 전처리된 근전도 신호로부터 특징값을 추출(S230)하며, 전술된 바와 같이, 샘플 엔트로피, RMS, 웨이브랭스 및 캡스트럴 계수 중 둘 이상을 특징값으로 추출할 수 있다.The emotion recognition apparatus according to the present invention extracts a feature value from the preprocessed EMG signal (S230), and, as described above, may extract two or more of sample entropy, RMS, wave length, and capstral coefficient as a feature value. .

단계 S230에서 감정 인식 장치는 미리 설정된 시간동안 측정된 근전도 신호에 대해, 미리 설정된 크기의 윈도우를 이동시키며, 윈도우 각각에 대한 특징값을 추출한다. 예컨대 사용자 안면부에 대한 근전도 신호는 3초동안 측정된 신호일 수 있으며, 0.1초 크기의 윈도우에 대해 특징값이 추출된다. 다시 말해, 0.1초 동안의 근전도 신호에 대해 특징값이 추출되며, 윈도우 구간별로 특징값이 추출된다.In step S230, the emotion recognition apparatus moves a window of a preset size with respect to the EMG signal measured for a preset time, and extracts a feature value for each window. For example, the EMG signal for the user's face may be a signal measured for 3 seconds, and a feature value is extracted for a 0.1 second window. In other words, feature values are extracted for the EMG signal for 0.1 second, and feature values are extracted for each window section.

이 때, 감정 인식 장치는 전처리된 근전도 신호를 자기회귀(Autoregressive, AR) 모델링하여, 특징값을 추출할 수 있다. 자기회귀 모델링은 일실시예로서, [수학식 1]과 같이 이루어질 수 있다.In this case, the emotion recognition apparatus may extract a feature value by modeling the pre-processed EMG signal with autoregressive (AR). As an example, autoregressive modeling may be performed as shown in [Equation 1].

Figure 112018068683004-pat00001
Figure 112018068683004-pat00001

[수학식 1]은 4차 자기회귀 모델링을 나타내며, 여기서,

Figure 112018068683004-pat00002
는 현재 근전도 신호,
Figure 112018068683004-pat00003
는 이전 근전도 신호를 나타낸다. 그리고 C는 상수이며, ai는 모델링에서 계산되는 계수이다.
Figure 112018068683004-pat00004
는 잡음 성분을 나타낸다.[Equation 1] represents the fourth-order autoregressive modeling, where,
Figure 112018068683004-pat00002
Is the current EMG signal,
Figure 112018068683004-pat00003
Represents the previous EMG signal. And C is a constant, and a i is a coefficient calculated in modeling.
Figure 112018068683004-pat00004
Represents the noise component.

위와 같이 모델링된 수식으로부터, [수학식 2]와 같이 캡스트럴 계수가 계산될 수 있다. 각각의 윈도우 별로 근전도 신호에 대해 모델링이 이루어지며, [수학식 2]를 통해 윈도우 각각에 대한 캡스트럴 계수(c1, cp)가 계산된다.From the equation modeled as above, the capstral coefficient can be calculated as in [Equation 2]. EMG signals are modeled for each window, and the capstral coefficients (c 1 , c p ) for each window are calculated through [Equation 2].

Figure 112018068683004-pat00005
Figure 112018068683004-pat00005

여기서, ap는 4차 자기회귀 모델의 계수에 대응되며, p는

Figure 112018068683004-pat00006
범위의 정수이다.Where a p corresponds to the coefficients of the fourth-order autoregressive model, and p is
Figure 112018068683004-pat00006
It is an integer in the range.

그리고 RMS, 샘플 엔트로피 및 웨이브랭스는 별도의 모델링없이, 각 윈도우 구간에서의 근전도 신호를 샘플링하여 계산될 수 있다. RMS는 윈도우 구간에서의 신호값에 대한 실효치를 나타내며, 웨이브랭스는 윈도우 구간에서의 신호의 길이에 대응된다. 그리고 샘플 엔트로피는 연속된 신호의 특성을 나타내는데 사용되는 통계적 파라미터의 한 종류이다(Richman, JS; Moorman, JR, Physiological time-series analysis using approximate entropy and sample entropy, Journal of Physiology. Heart and Circulatory Physiology, 2000).In addition, RMS, sample entropy, and wave length may be calculated by sampling the EMG signals in each window section without additional modeling. RMS represents the effective value for the signal value in the window section, and the wave length corresponds to the length of the signal in the window section. And sample entropy is a kind of statistical parameter used to characterize a continuous signal (Richman, JS; Moorman, JR, Physiological time-series analysis using approximate entropy and sample entropy, Journal of Physiology.Heart and Circulatory Physiology, 2000) ).

본 발명에 따른 감정 인식 장치는 추출된 특징값을 이용하여, 사용자에 대한 감정을 인식(S240)한다.The emotion recognition apparatus according to the present invention recognizes the emotion of the user by using the extracted feature value (S240).

전술된 바와 같이, 감정 인식 장치는 기계 학습을 통해 사용자의 감정을 추론할 수 있으며, 일실시예로서 LDA(Linear Discriminant Analysis) 알고리즘이 이용될 수 있다.As described above, the emotion recognition apparatus may infer a user's emotion through machine learning, and as an example, a linear discriminant analysis (LDA) algorithm may be used.

감정 인식 장치는 윈도우 각각에 대한 특징값으로부터 사용자에 대한 감정을 인식하며, 인식된 감정의 개수에 따라서, 사용자에 대한 최종 감정을 결정할 수 있다. 예컨대, 30개의 윈도우에 대해서 인식된 감정 중 슬픔이 가장 많다면, 감정 인식 장치는 사용자에 대한 최종 감정을 슬픔으로 결정할 수 있다.The emotion recognition apparatus recognizes emotions for the user from feature values for each window, and may determine a final emotion for the user according to the number of recognized emotions. For example, if sadness is the most among the emotions recognized for 30 windows, the emotion recognition apparatus may determine the final emotion for the user as sadness.

결국 본 발명에 따르면, 사용자 안면부에 대한 근전도 신호를 이용함으로써, 사용자의 표정 변화에 따른 감정을 추론할 수 있다.After all, according to the present invention, by using the EMG signal for the user's face, it is possible to infer emotions according to the user's facial expression changes.

한편, 본 발명에 따른 감정 인식 장치는 인식된 감정에 대한 정확도를 분석하고 분석 결과를 활용함으로써, 감정 인식에 대한 정확도를 높일 수 있는데, 이는 도 3에서 보다 상세히 설명하기로 한다.Meanwhile, the emotion recognition apparatus according to the present invention can increase the accuracy of the emotion recognition by analyzing the accuracy of the recognized emotion and using the analysis result, which will be described in more detail with reference to FIG. 3.

도 3은 본 발명의 다른 실시예에 따른 근전도 신호를 이용하는 감정 인식 방법을 설명하기 위한 도면이며, 도 4는 8개의 감정에 대한 혼동 행렬을 도시하는 도면이다.3 is a diagram for explaining an emotion recognition method using an EMG signal according to another embodiment of the present invention, and FIG. 4 is a diagram illustrating a confusion matrix for eight emotions.

본 발명에 따른 감정 인식 장치는 사용자 안면부의 제1근전도 신호를 이용하여, 사용자에 대한 감정을 인식(S310)한다. 도 2에서 설명된 바와 같이, 제1근전도 신호의 특징값 및 기계 학습을 이용하여 감정을 인식할 수 있다.The emotion recognition apparatus according to the present invention recognizes the emotion of the user by using the first EMG signal of the user's face (S310). As described in FIG. 2, emotions may be recognized using feature values of the first EMG signal and machine learning.

그리고 감정 인식 장치는 제1근전도 신호를 통해 인식된 감정에 대한 정확도를 분석(S320)한다. 사용자의 실제 감정과 단계 S310에서 인식된 결과를 비교함으로써 정확도가 분석될 수 있으며, 도 4와 같은 혼동 행렬을 통해 정확도가 분석될 수 있다.In addition, the emotion recognition apparatus analyzes the accuracy of the emotion recognized through the first EMG signal (S320). Accuracy may be analyzed by comparing the actual emotion of the user with the result recognized in step S310, and accuracy may be analyzed through a confusion matrix as shown in FIG. 4.

도 4는 사용자의 8개 감정과 본 발명에 따른 감정 인식 결과를 비교하여 얻어진 혼동 행렬(confusion matrix)을 나타내는 도면으로서, 인식된 감정의 정확도를 나타낸다. 혼동 행렬은 사용자의 실제 감정(target class)에 대한 감정의 인식 결과(output class)의 횟수를 나타낸다.4 is a diagram showing a confusion matrix obtained by comparing eight emotions of a user with an emotion recognition result according to the present invention, and shows the accuracy of the recognized emotions. The confusion matrix represents the number of output classes of the user's real emotion (target class).

도 4는 8개 감정 각각에 대한 총 6840번의 감정 인식 결과를 나타내며, 예컨대, 사용자의 실제 감정인 화남에 대해 화남으로 인식된 횟수는 4263회이며, 비웃음으로 인식된 횟수는 75회이다. 그리고 사용자의 실제 감정인 비웃음에 대해 비웃음으로 인식된 횟수는 6179회이며, 역겨움으로 인식된 횟수는 156회이다. 도 4에서 제일 아래 행의 초록색 수치(%)는 감정 인식의 정확도, 적색 수치(%)는 감정 인식의 에러율을 나타낸다.4 shows a total of 6840 emotion recognition results for each of the eight emotions. For example, the number of times the user's actual emotion, anger, is recognized as anger is 4263 times, and the number of times that is recognized as ridicule is 75 times. In addition, the number of times the user's actual feelings of ridicule are recognized as ridicule is 6179 times, and the number of times it is recognized as disgust is 156 times. In FIG. 4, the green value (%) in the bottom row indicates the accuracy of emotion recognition, and the red value (%) indicates the error rate of emotion recognition.

도 4를 참조하면, 행복(93.4%), 비웃음(90.3%), 놀람(75.6%)에 대한 감정 인식의 정확도가 75% 이상으로 높은 편이며, 슬픔(67.6%), 무표정(67.5%), 역겨움(66.6%), 화남(62.3%), 두려움(61.1%) 등에 대한 감정 인식의 정확도가 상대적으로 낮음을 알 수 있다. 감정의 종류에 따라서, 표정이 유사한 감정이 있을 수 있기 때문에, 인식 정확도가 낮은 감정이 존재할 수 있다. 4, the accuracy of emotion recognition for happiness (93.4%), ridicule (90.3%), and surprise (75.6%) is higher than 75%, sadness (67.6%), expressionlessness (67.5%), It can be seen that the accuracy of emotion recognition for disgust (66.6%), anger (62.3%), and fear (61.1%) is relatively low. Depending on the type of emotion, since there may be emotions with similar facial expressions, emotions with low recognition accuracy may exist.

감정 인식 장치는 단계 S310에서 인식된 복수의 감정 중에서, 정확도에 따라 선택된 감정을 포함하는 후보 감정 그룹을 결정(S330)하고, 사용자 안면부의 제2근전도 신호를 이용하여, 후보 감정 그룹에 포함된 감정 중 하나를 사용자에 대한 감정으로 인식(S340)한다.The emotion recognition apparatus determines a candidate emotion group including an emotion selected according to accuracy from among a plurality of emotions recognized in step S310 (S330), and uses the second EMG signal of the user's face to determine the emotion included in the candidate emotion group. One of them is recognized as an emotion toward the user (S340).

일실시예로서, 감정 인식 장치는 도 4에서 정확도가 높은 것으로 분류된 비웃음, 행복 및 놀람을 포함하는 후보 감정 그룹을 결정할 수 있다.As an embodiment, the emotion recognition apparatus may determine a candidate emotion group including ridicule, happiness, and surprise classified as having high accuracy in FIG. 4.

또는 감정 인식 장치는 감정 인식 정확도 뿐만 아니라, 사용자가 실생활에서 자주 느끼는 감정, 즉 사용자의 감정 패턴을 고려하여 후보 감정 그룹을 결정할 수도 있다. 예컨대, 사용자가 실생활에서 자주 느끼는 감정이 행복, 놀람, 슬픔, 화남, 두려움이라면, 이 중에서 정확도가 높은 순서대로 미리 설정된 개수만큼의 감정을 포함하는 후보 감정 그룹이 결정될 수 있다. 미리 설정된 개수가 4라면, 행복, 놀람, 슬픔, 화남이라는 4개의 감정이 후보 감정 그룹에 포함될 수 있다. 사용자의 감정 패턴은 사용자에 의해 설정될 수 있다.Alternatively, the emotion recognition apparatus may determine a candidate emotion group in consideration of not only emotion recognition accuracy, but also emotions that the user often feels in real life, that is, the user's emotion pattern. For example, if the emotions that the user frequently feels in real life are happiness, surprise, sadness, anger, and fear, among them, a candidate emotion group including a preset number of emotions may be determined in the order of high accuracy. If the preset number is 4, four emotions of happiness, surprise, sadness, and anger may be included in the candidate emotion group. The user's emotional pattern may be set by the user.

이러한 후보 감정 그룹에 포함된 감정에 대한 근전도 신호의 특징값을 이용하여 학습이 수행될 수 있으며, 감정 인식 장치는 학습 데이터에 기반하여, 후보 감정 그룹에 포함된 감정 중 하나를 사용자의 감정으로 인식할 수 있다. 단계 S310과 마찬가지로, 감정 인식 장치는 단계 S340에서 제2근전도 신호로부터 추출된 특징값을 이용하여, 사용자에 대한 감정을 인식할 수 있다.Learning may be performed using feature values of EMG signals for emotions included in the candidate emotion group, and the emotion recognition device recognizes one of the emotions included in the candidate emotion group as the user's emotion based on the learning data. can do. Like in step S310, the emotion recognition apparatus may recognize an emotion toward the user by using the feature value extracted from the second EMG signal in step S340.

[표 1]은 도 4의 8개의 감정을 대상으로 하는 감정 인식 결과의 정확도를 나타내는 표이며, [표 2]는 행복, 놀람, 슬픔, 화남이라는 4개의 감정이 포함된 후보 감정 그룹을 이용한 감정 인식 결과의 정확도를 나타내는 표이다. 후보 감정 그룹을 이용한 경우, 정확도가 10% 이상 상승하였음을 알 수 있다.[Table 1] is a table showing the accuracy of emotion recognition results targeting the eight emotions of FIG. 4, and [Table 2] is an emotion using a candidate emotion group including four emotions: happiness, surprise, sadness, and anger. This is a table showing the accuracy of the recognition results. In the case of using the candidate emotion group, it can be seen that the accuracy has increased by 10% or more.

Figure 112018068683004-pat00007
Figure 112018068683004-pat00007

Figure 112018068683004-pat00008
Figure 112018068683004-pat00008

결국, 본 발명에 따르면 미리 인식된 감정의 정확도를 분석하고 분석된 결과에 기반하여 사용자의 감정을 인식함으로써, 감정 인식의 정확도가 향상될 수 있다.Consequently, according to the present invention, the accuracy of emotion recognition may be improved by analyzing the accuracy of the emotion recognized in advance and recognizing the emotion of the user based on the analyzed result.

또한 본 발명에 따르면 기계 학습에 이용되는 감정을, 감정 인식의 정확도 및 개인별 감정 패턴에 적응적으로 결정함으로써, 감정 학습에 소요되는 시간을 줄일 수 있다.In addition, according to the present invention, by adaptively determining the emotion used for machine learning according to the accuracy of emotion recognition and individual emotion patterns, it is possible to reduce the time required for emotion learning.

한편, 실시예에 따라서, 제2근전도 신호로부터 추출되는 특징값은 후보 감정 그룹의 정확도에 따라서 결정될 수 있다. 예컨대, 후보 감정 그룹에 포함되는 감정의 정확도가 전체적으로 낮은 편이라면, 4개의 특징값을 모두 추출하여 감정 인식의 정확도를 높일 수 있다. 반면, 후보 감정 그룹에 포함되는 감정의 정확도가 전체적으로 높은 편이라면, 3개 이하의 특징값을 추출함으로써, 인식 성능을 수용 가능한 정도로 유지하면서 감정 인식에 소요되는 연산량을 줄일 수 있다.Meanwhile, according to an embodiment, the feature value extracted from the second EMG signal may be determined according to the accuracy of the candidate emotion group. For example, if the accuracy of the emotion included in the candidate emotion group is generally low, the accuracy of emotion recognition may be improved by extracting all four feature values. On the other hand, if the accuracy of emotions included in the candidate emotion group is generally high, by extracting three or less feature values, it is possible to reduce the amount of computation required for emotion recognition while maintaining the recognition performance to an acceptable level.

앞서 설명한 기술적 내용들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예들을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The technical details described above may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiments, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.As described above, in the present invention, specific matters such as specific components, etc., and limited embodiments and drawings have been described, but this is provided only to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , If a person of ordinary skill in the field to which the present invention belongs, various modifications and variations are possible from these descriptions. Therefore, the spirit of the present invention is limited to the described embodiments and should not be defined, and all things that are equivalent or equivalent to the claims as well as the claims to be described later fall within the scope of the spirit of the present invention. .

Claims (10)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 컴퓨팅 장치에서 수행되는, 근전도 신호를 이용하는 감정 인식 방법에 있어서,
사용자 안면부의 제1근전도 신호를 이용하여, 사용자에 대한 감정을 인식하는 단계;
상기 인식된 감정에 대한 정확도를 분석하는 단계;
상기 인식된 복수의 감정 중에서, 사용자의 감정 패턴 및 상기 정확도에 따라 선택된 감정을 포함하는 후보 감정 그룹을 결정하는 단계; 및
상기 사용자 안면부의 제2근전도 신호를 이용하여, 상기 후보 감정 그룹에 포함된 감정 중 하나를 상기 사용자에 대한 감정으로 인식하는 단계를 포함하며,
상기 후보 감정 그룹에 포함된 감정 중 하나를 상기 사용자에 대한 감정으로 인식하는 단계는
상기 제2근전도 신호로부터 추출된 특징값을 이용하여, 상기 사용자에 대한 감정을 인식하며,
상기 특징값은 샘플 엔트로피(sample entropy), RMS, 웨이브랭스 및 캡스트럴 계수(cepstral coefficient) 중 둘 이상을 포함하며,
상기 제2근전도 신호로부터 추출되는 특징값의 개수는
상기 후보 감정 그룹에 포함되는 감정의 정확도에 따라서 결정되는
근전도 신호를 이용하는 감정 인식 방법.
In the emotion recognition method using an EMG signal performed in a computing device,
Recognizing an emotion toward the user by using the first EMG signal on the user's face;
Analyzing the accuracy of the recognized emotion;
Determining a candidate emotion group including an emotion selected according to a user's emotion pattern and the accuracy from among the plurality of recognized emotions; And
Recognizing one of the emotions included in the candidate emotion group as an emotion toward the user using a second EMG signal of the user's face,
Recognizing one of the emotions included in the candidate emotion group as an emotion for the user
Using the feature value extracted from the second EMG signal, to recognize the emotion of the user,
The feature value includes at least two of sample entropy, RMS, wave length, and cepstral coefficient,
The number of feature values extracted from the second EMG signal is
Determined according to the accuracy of the emotion included in the candidate emotion group
An emotion recognition method using EMG signals.
삭제delete 삭제delete 제 6항에 있어서,
상기 제1 및 제2근전도 신호는
상기 사용자 안면부에 착용된 웨어러블 디바이스에서 측정된 신호인
근전도 신호를 이용하는 감정 인식 방법.
The method of claim 6,
The first and second EMG signals are
The signal measured by the wearable device worn on the user's face
An emotion recognition method using EMG signals.
삭제delete
KR1020180080953A 2018-07-12 2018-07-12 Emotion recognition method and device using electromyogram signal KR102216360B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180080953A KR102216360B1 (en) 2018-07-12 2018-07-12 Emotion recognition method and device using electromyogram signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180080953A KR102216360B1 (en) 2018-07-12 2018-07-12 Emotion recognition method and device using electromyogram signal

Publications (2)

Publication Number Publication Date
KR20200007162A KR20200007162A (en) 2020-01-22
KR102216360B1 true KR102216360B1 (en) 2021-02-16

Family

ID=69368326

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180080953A KR102216360B1 (en) 2018-07-12 2018-07-12 Emotion recognition method and device using electromyogram signal

Country Status (1)

Country Link
KR (1) KR102216360B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101633057B1 (en) * 2015-04-22 2016-06-23 재단법인 실감교류인체감응솔루션연구단 Facial Motion Capture Method for Head-Mounted Display System

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101029786B1 (en) * 2006-09-13 2011-04-19 니뽄 덴신 덴와 가부시키가이샤 Emotion detecting method, emotion detecting apparatus, emotion detecting program that implements the same method, and storage medium that stores the same program
KR101727940B1 (en) * 2015-01-08 2017-04-18 한국과학기술연구원 Apparatus and method for decision of psychological state using bio signals

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101633057B1 (en) * 2015-04-22 2016-06-23 재단법인 실감교류인체감응솔루션연구단 Facial Motion Capture Method for Head-Mounted Display System

Also Published As

Publication number Publication date
KR20200007162A (en) 2020-01-22

Similar Documents

Publication Publication Date Title
Jain et al. Cubic SVM classifier based feature extraction and emotion detection from speech signals
US10262196B2 (en) System and method for predicting neurological disorders
KR102221264B1 (en) Method for estimating human emotions using deep psychological affect network and system therefor
US20180240261A1 (en) System, method and apparatus for detecting facial expression in a virtual reality system
KR101738278B1 (en) Emotion recognition method based on image
Al Osman et al. Multimodal affect recognition: Current approaches and challenges
WO2021068783A1 (en) Emotion recognition method, device and apparatus
KR102291039B1 (en) personalized sports service providing method and apparatus thereof
CN110464367B (en) Psychological anomaly detection method and system based on multi-channel cooperation
Maaoui et al. Automatic human stress detection based on webcam photoplethysmographic signals
KR102424403B1 (en) Method and apparatus for predicting user state
Pereira et al. Physiotherapy Exercises Evaluation using a Combined Approach based on sEMG and Wearable Inertial Sensors.
CN108509034A (en) Electronic device, information processing method and related product
Boelders et al. Detection of mild dyspnea from pairs of speech recordings
CN112800908B (en) Method for establishing anxiety perception model based on individual gait analysis in video
Rodrigues et al. Classification of facial expressions under partial occlusion for VR games
KR102216360B1 (en) Emotion recognition method and device using electromyogram signal
CN113243918A (en) Risk detection method and device based on multi-mode hidden information test
JP2019032591A (en) Computer system
CN113313795A (en) Virtual avatar facial expression generation system and virtual avatar facial expression generation method
TWI646438B (en) Emotion detection system and method
WO2022152751A1 (en) Speech-analysis based automated physiological and pathological assessment
KR20190110223A (en) Facial expression registration method for facial expression recognition and facial expression recognition method using the same
Yuan et al. Depression identification from gait spectrum features based on hilbert-huang transform
KR102155134B1 (en) Apparatus and method for human identification using gait pattern based on emg

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant