KR20190125707A - Method for estimating emotion based on psychological activity and biosignal of user and system therefor - Google Patents

Method for estimating emotion based on psychological activity and biosignal of user and system therefor Download PDF

Info

Publication number
KR20190125707A
KR20190125707A KR1020180049845A KR20180049845A KR20190125707A KR 20190125707 A KR20190125707 A KR 20190125707A KR 1020180049845 A KR1020180049845 A KR 1020180049845A KR 20180049845 A KR20180049845 A KR 20180049845A KR 20190125707 A KR20190125707 A KR 20190125707A
Authority
KR
South Korea
Prior art keywords
component
emotional
model
modeling
motion
Prior art date
Application number
KR1020180049845A
Other languages
Korean (ko)
Other versions
KR102142183B1 (en
Inventor
조성호
김병형
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020180049845A priority Critical patent/KR102142183B1/en
Publication of KR20190125707A publication Critical patent/KR20190125707A/en
Application granted granted Critical
Publication of KR102142183B1 publication Critical patent/KR102142183B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Abstract

Disclosed are a method for estimating emotion based on psychological activity and biosignal of a user and a system thereof. According to an embodiment of the present invention, the method for estimating emotion includes the following steps: calculating a motion component, a motivation component, and an adaptation component through learning an affective situation of a user by using an image sequence; modeling a balance model and an arousal model based on the calculated motion component, motivation component, and adaptation component; and generating an emotion curve based on the affective situation represented on an emotion space by the modeled balance model and arousal model.

Description

사용자의 심리활동과 생체신호에 기반한 감정 추정 방법 및 그 시스템 {Method for estimating emotion based on psychological activity and biosignal of user and system therefor}Methods for estimating emotion based on psychological activity and biosignal of user and system therefor}

본 발명은 사용자의 감정을 유추할 수 있는 기술에 관한 것으로서, 보다 상세하게는 사용자의 심리활동과 생체신호에 기반하여 사용자의 감정을 추정할 수 있는 방법 및 그 시스템에 관한 것이다.The present invention relates to a technique for inferring a user's emotion, and more particularly, to a method and a system for estimating a user's emotion based on a user's psychological activity and a biosignal.

감정 인식은 기쁨, 흥분 및 두려움과 같은 감정 상태를 측정함으로써 사람과 컴퓨터 간의 감정적인 상호 작용을 이해하기 용이하게 하기 때문에 최근에 많은 관심을 받고 있다. 사람의 감정 상태를 모델링하기 위하여, 사람이 느끼는 감정을 자세하게 설명하는 주관적인 자기 보고(subjective self-reports)는 자신의 정서적 상태를 표시(또는 라벨)하는데 사용될 수 있는 유용한 정보를 제공할 수 있다. 예를 들어, 감정 평가 툴인 SAM(Self-Assessment Manikin)은 즐거움, 어라우절(arousal) 및 우월(dominance)이라는 세 가지 감정 요소를 표현하는 만화 캐릭터를 묘사하는 그래픽 스케일을 사용한다. 대부분의 경우 참가자의 자기 평가는 실험실 환경에서 참가자가 편안한 의자에 앉아 평가 수준을 표시하는 형태로 수행된다. 이러한 평가 방법은 유효성 및 확증과 관련된 문제 예를 들어, 참가자가 자신이 느끼는 감정에 정확히 답할 수 없고 대신 다른 사람들이 답할 것이라고 생각하는 답변을 답하는 방법 이외에도 야외 환경에서는 수행될 수 없는 문제를 가지고 있다. 또한, 이 평가 방법은 복잡한 감정 조건에 대해 즉각적인 인간의 정서만을 산출 할 수 있으며, 일상 생활에서의 정서적 역동성에 대한 제한된 이해를 제공할 뿐이다. 따라서 실제 상황에서 유발된 인간 감정을 표시하기 위한 자동적인 방법을 제공하는 것이 중요하다.Emotional awareness has received a lot of attention lately because it makes it easier to understand the emotional interaction between a person and a computer by measuring emotional states such as joy, excitement, and fear. In order to model a person's emotional state, subjective self-reports that describe in detail the feeling a person may provide useful information that can be used to indicate (or label) his emotional state. For example, the emotional assessment tool, Self-Assessment Manikin (SAM), uses a graphical scale that depicts a cartoon character that expresses three emotional elements: joy, arousal, and dominance. In most cases, the participant's self-assessment is performed in a laboratory setting in which the participant is seated in a comfortable chair to indicate the level of evaluation. This method of evaluation has a problem with validity and confirmation that cannot be performed in outdoor environments other than answering the participant's exact answer to what he or she feels and instead expecting others to answer. In addition, this assessment method can yield immediate human emotions for complex emotional conditions and only provide a limited understanding of emotional dynamics in everyday life. Therefore, it is important to provide an automatic method for displaying human emotions triggered in real situations.

그러나 실제 상황에 대한 정서적 라벨링(affective labeling)에 대한 연구는 거의 이루어지지 않았다. 어떤 상황에 대한 이해를 바탕으로 정서적 반응을 정량화하는 것은 어려운 일이다. 인간이 상호 작용하는 실제 대상에 대한 인지적 이해가 필요하며, 이는 상호 작용을 기반으로 예상되는 감정의 정서적 수준을 결정할 수 있다. 가장 어려운 문제는 대상 의존적인 정서의 수준을 정량화하고, 인간의 피질에서 시각적인 관심을 찾고, 실제 환경에서 아티팩트(artifact)을 줄이는 것이다. However, little research has been done on affective labeling of real situations. It is difficult to quantify emotional responses based on an understanding of a situation. A cognitive understanding of the actual objects with which humans interact is needed, which can determine the emotional level of emotions expected based on interactions. The most difficult problem is to quantify the level of object-dependent emotions, find visual attention in the human cortex, and reduce artifacts in the real environment.

정서적 라벨을 제공하면 콘텐츠 추천 시스템과 같은 전문 분야를 향상시킬 수 있으며, 명시적 태깅과 암시적 태깅의 두 가지 방법을 이용하여 정서 차원의 원인인 자극에 대한 피실험자의 정서적 반응을 정량화 할 수 있다.Providing emotional labels can enhance specializations, such as content recommendation systems, and quantify the subject's emotional response to the stimulus that is the cause of the emotional dimension by using both explicit and implicit tagging.

인간 감정은 Valence(V), Arousal(A), Dominance(D)의 세 가지 중요한 의미로 개념화 될 수 있다. 밸런스(Valence)는 감정의 유형이며 불쾌감이나 부정적인 감정에서 쾌적하고 행복하며 긍정적인 감정에 이르기까지 감정적인 상태나 반응을 특성화한다. 어라우절(Arousal)은 감정의 강도로서, 졸음이나 지루함에서 극도의 흥분까지의 감정적인 상태나 반응을 특징 짓는 것이다. Dominance는 valence와 arousal을 가진 감정 상태를 "통제가 없다"에서 "완전 통제"까지 구분한다. 예를 들어, 슬픔과 분노는 valance 값과 arousal 값이 비슷하지만, dominance 값에서 구분된다. 인간 감정의 전체 범위는 3차원 VAC 좌표 공간에서 일련의 포인트로 표현될 수 있다. 반대로, 각각의 기본 감정은 양극성 실체로 표현될 수 있으며, 도 1a에 도시된 바와 같이 valence와 arousal에 의한 모든 감정을 특징으로 하며, 감정 라벨은 2차원 VA 평면상의 다양한 위치에 표현될 수 있다.Human emotion can be conceptualized in three important senses: Valence (V), Arousal (A), and Dominance (D). Valence is a type of emotion and characterizes an emotional state or reaction, from discomfort or negative emotions to pleasant, happy, positive emotions. Arousal is the intensity of emotion, which characterizes an emotional state or reaction from drowsiness or boredom to extreme excitement. Dominance distinguishes emotional states with valence and arousal from "no control" to "full control". For example, sadness and anger have similar valance and arousal values, but are distinguished from dominance values. The full range of human emotion can be expressed as a series of points in the three-dimensional VAC coordinate space. Conversely, each basic emotion can be expressed as a bipolar entity, characterized by all emotions by valence and arousal, as shown in FIG. 1A, and emotion labels can be expressed at various locations on the two-dimensional VA plane.

그리고, 종래 다양한 연구에 따르면 감정 좌표계에 매핑된 정서적 반응은 도 1b에 도시된 바와 같이 대략 포물선임을 알 수 있다. 일 예의 종래 기술에서 포물선 표면을 사용하여 정서적 에이전트에게 기질, 분위기 및 감정을 할당함으로써 에이전트의 성격을 정의하였다.In addition, according to various conventional studies, it can be seen that the emotional response mapped to the emotional coordinate system is approximately parabolic as shown in FIG. 1B. In one example prior art, the nature of an agent is defined by using parabolic surfaces to assign temperament, mood and emotion to the emotional agent.

명시적 접근법은 사용자에게 주어진 사건이나 자극에 대한 응답으로 자신의 느낌을 보고하도록 요구함으로써 라벨을 제공한다. IAPS(International Affective Picture System)는 SAM과 같은 명시적인 자체 보고 툴을 사용하여 정서 라벨을 얻는 데 사용되는 일반적인 데이터 세트이다. 도 2에 도시된 바와 같이, SAM은 valence(긍정에서 부정까지), arousal(높은 레벨에서 낮은 레벨까지) 및 dominance(낮은 레벨에서 높은 레벨까지)과 관련된 다양한 자극에 대한 감정적 반응을 넓은 범위에서 측정하는 그림 기반 평가 기술이다. 명시적 자체 보고 툴로부터 얻은 정서적 라벨은 감정 상태에 대한 실측 데이터로 간주되어 신뢰성 있는 감정 인식 시스템을 구축하는 데 사용된다.The explicit approach provides labels by requiring users to report their feelings in response to a given event or stimulus. The International Affective Picture System (IAPS) is a common dataset used to obtain sentiment labels using explicit self-reporting tools such as SAM. As shown in Figure 2, SAM measures a wide range of emotional responses to various stimuli associated with valence (positive to negative), arousal (high to low level) and dominance (low to high level). Is a picture-based evaluation technique. Emotional labels obtained from explicit self-reporting tools are considered actual data on the emotional state and are used to build a reliable emotion recognition system.

그러나 인간의 감정을 표시하기 위한 명시적 접근법의 주요 단점은 보고 절차의 개입(intrusiveness)이다. 반대로, 암시적 정서 라벨링 접근법은 비개입 측정이다. 라벨링은 사용자를 자극에 노출하고 노출에 대한 응답을 기록하여 얻을 수 있다. 시각적 및 동작 관련 기능은 감정 인식에서 중요한 요소이다. 종래 일 실시예의 기술은 인간의 감정을 라벨링 하기 위해 얼굴 변화 특성을 사용하였으며, 종래 다른 일 실시예의 기술은 인간 정서에 반응하는 시각적인 특징으로서 대상 동작을 연구하였고, 모션의 강도가 증가하면 감정적 arousal 수준이 증가할 수 있음을 보여 주었다. 종래 또 다른 일 실시예의 기술은 모션 강도와 샷(shot) 변화율을 이용하여 arousal을 특징 짓는 방법을 개발하였으며, 종래 또 다른 일 실시예의 기술은 arousal 수준을 결정하기 위해 모션 활동을 사용하고 arousal의 지속적인 변화를 곡선으로 표현하였다.However, the main disadvantage of the explicit approach to expressing human emotion is the intrusiveness of the reporting process. In contrast, the implicit emotional labeling approach is a non-intrusive measure. Labeling can be obtained by exposing the user to a stimulus and recording the response to the exposure. Visual and motion-related functions are important elements in emotion recognition. The technique of one conventional embodiment used facial change characteristics to label human emotions, and the technique of another conventional embodiment studied a target motion as a visual feature in response to human emotion, and emotional arousal as the intensity of motion increased. It has been shown that levels can increase. The technique of another conventional embodiment has developed a method of characterizing arousal using motion intensity and shot change rate, while the technique of another conventional embodiment uses motion activity to determine the arousal level and the continuous The change is represented by a curve.

다른 방법은 심리적 행동의 감정적인 특징을 추출하여 감정 상태와 연관시키는 것으로, 종래 많은 연구들은 감정적 행동을 측정하는 방법을 제안하였다. 예를 들어, 굴곡 및 확장과 같은 팔 움직임은 접근 및 회피 행동에 대한 반응 간의 긍정적이고 부정적인 상호 작용을 조사하는 데 사용되어왔다. 종래 일 실시예의 기술은 긍정적인 자극과 부정적인 자극이 접근(approach)과 회피(withdrawal) 행동을 촉진 하는지를 결정하기 위해 조이스틱을 사용하였다. 참가자들은 조이스틱을 당겨 자극의 크기를 늘리거나 조이스틱을 밀어서 자극의 크기를 줄임으로써 조이스틱을 제어하도록 지시 받았으며, 그들의 측정 기준은 긍정적 또는 부정적 자극에 반응하는 청소년의 접근 및 회피 행동을 구별할 수 있다. 하지만, 해당 기술은 통제된 실험 설정으로 제한되며, 특정 장비의 사용을 요구하고 참가자가 시스템과 실시간으로 상호 작용하지 않는 일부 제한된 지각 작업을 사용한다.Another method is to extract emotional features of psychological behaviors and associate them with emotional states. Many conventional studies have suggested methods for measuring emotional behaviors. For example, arm movements such as flexion and extension have been used to investigate positive and negative interactions between responses to approach and avoidance behaviors. One prior art technique used joysticks to determine if positive and negative stimuli promoted approach and withdrawal behavior. Participants were instructed to control the joystick by pulling the joystick to increase the size of the stimulus or by pushing the joystick to reduce the size of the stimulus, and their metrics could distinguish adolescents' approach and avoidance behaviors in response to positive or negative stimuli. However, the technology is limited to controlled experimental setups and uses some limited perceptual work that requires the use of certain equipment and does not allow participants to interact with the system in real time.

본 발명의 실시예들은, 사용자의 심리활동과 생체신호에 기반하여 사용자의 감정을 추정할 수 있는 방법 및 그 시스템를 제공한다.Embodiments of the present invention provide a method and system for estimating a user's emotion based on the user's psychological activity and bio-signal.

본 발명의 실시예들은, 사용자의 행동에 기반하여 사용자가 느끼는 감정의 값을 추출할 수 있는 방법 및 그 시스템을 제공한다.Embodiments of the present invention provide a method and system for extracting a value of an emotion felt by a user based on the user's behavior.

본 발명의 일 실시예에 따른 감정 추정 방법은 이미지 시퀀스를 이용한 사용자의 정서적 상황(affecttive situation)의 학습을 통해 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하는 단계; 상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 단계; 및 상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 단계를 포함한다.In the emotion estimation method according to an embodiment of the present invention, a motion component, a motivation component, and an adaptation component are obtained through learning of an emotional situation of a user using an image sequence. Calculating; Modeling a balance model and an arousal model based on the calculated motion component, synchronization component, and adaptive component; And generating an emotional curve based on the emotional situation represented on the emotional space by the modeled balance model and the augmentation model.

상기 계산하는 단계는 상기 이미지 시퀀스에 대하여, 옵티컬 플로우(optical flow) 추정을 사용하여 인접한 프레임 사이의 정서적 대상의 모션을 특성화하고 정량화함으로써, 상기 모션 구성 요소를 계산할 수 있다.The calculating may calculate the motion component by characterizing and quantifying the motion of the emotional object between adjacent frames using optical flow estimation for the image sequence.

상기 계산하는 단계는 상기 이미지 시퀀스의 각 이미지 프레임에서 추정된 모션 활동성과 상기 사용자의 몸에 부착된 가속도계에 의해 수집된 가속도계 데이터를 이용하여 모션 잡음을 제거함으로써, 상기 모션 구성 요소를 계산할 수 있다.The calculating may include calculating motion components by removing motion noise using motion activity estimated in each image frame of the image sequence and accelerometer data collected by an accelerometer attached to the user's body.

상기 계산하는 단계는 상기 이미지 시퀀스의 이미지 프레임에서 사용자의 관심 대상에 대응하는 돌출 영역을 획득하고, 상기 획득된 돌출 영역에 기초하여 상기 동기 구성 요소를 계산할 수 있다.The calculating may include obtaining a protrusion area corresponding to a user's interest in the image frame of the image sequence, and calculating the sync component based on the acquired protrusion area.

상기 계산하는 단계는 상기 이미지 시퀀스의 이미지 프레임에서 상기 관심 대상에 대한 주변 일정 영역의 옵티컬 플로우를 이용한 발산 및 회전을 계산함으로써, 상기 동기 구성 요소를 계산할 수 있다.The calculating may include calculating the synchronization component by calculating divergence and rotation using an optical flow of a predetermined region around the object of interest in the image frame of the image sequence.

상기 계산하는 단계는 시간에 따라 변하는 상기 이미지 시퀀스의 현재 프레임까지 누적된 정서적 상황 길이에 기초하여 상기 적응 구성 요소를 계산할 수 있다.The calculating may calculate the adaptive component based on an emotional situation length accumulated up to a current frame of the image sequence that changes over time.

상기 모델링하는 단계는 상기 계산된 모션 구성 요소와 적응 구성 요소를 이용하여 상기 어라우절 모델을 모델링할 수 있다.The modeling may be performed by using the calculated motion component and the adaptive component to model the AU clause model.

상기 모델링하는 단계는 상기 어라우절 모델과 상기 동기 구성 요소를 이용하여 상기 밸런스 모델을 모델링할 수 있다.In the modeling, the balance model may be modeled using the augmentation model and the synchronization component.

본 발명의 다른 일 실시예에 따른 감정 추정 방법은 이미지 시퀀스를 이용한 사용자의 행동에 기반하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 단계; 상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 단계; 및 상기 정서 커브를 이용하여 상기 사용자의 감정 값을 추정하는 단계를 포함한다.In accordance with another aspect of the present invention, an emotion estimation method includes: modeling a balance model and an arousal model based on a user's behavior using an image sequence; Generating an emotional curve based on the emotional situation represented on the emotional space by the modeled balance model and the ʻauraud 'model; And estimating an emotion value of the user using the emotional curve.

상기 모델링하는 단계는 상기 사용자의 행동에 기반하여 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하는 단계; 및 상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 단계를 포함할 수 있다.The modeling may include calculating a motion component, a motivation component, and an adaptation component based on the user's behavior; And modeling a balance model and an arousal model based on the calculated motion component, synchronization component, and adaptive component.

상기 모델링하는 단계는 상기 이미지 시퀀스로부터 상기 사용자의 관심 대상을 감지하고, 상기 감지된 관심 대상과의 상호 작용을 기반으로 상기 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링할 수 있다.The modeling may include detecting an object of interest of the user from the image sequence, and modeling the balance model and the arousal model based on the interaction with the detected object of interest.

본 발명의 일 실시예에 따른 감정 추정 시스템은 이미지 시퀀스를 이용한 사용자의 정서적 상황(affecttive situation)의 학습을 통해 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하는 계산부; 상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 모델링부; 및 상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 생성부를 포함한다.The emotion estimation system according to an embodiment of the present invention is a motion component, a motivation component, and an adaptation component through learning of an emotional situation of a user using an image sequence. A calculation unit for calculating a); A modeling unit for modeling a balance model and an arousal model based on the calculated motion component, synchronization component, and adaptive component; And a generator configured to generate an emotional curve based on the emotional situation represented on the emotional space by the modeled balance model and the augmentation model.

본 발명의 다른 일 실시예에 따른 감정 추정 시스템은 이미지 시퀀스를 이용한 사용자의 행동에 기반하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 모델링부; 상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 생성부; 및 상기 정서 커브를 이용하여 상기 사용자의 감정 값을 추정하는 추정부를 포함한다.According to another aspect of the present invention, an emotion estimation system includes a modeling unit for modeling a balance model and an arousal model based on a user's behavior using an image sequence; A generator configured to generate an emotional curve based on the emotional situation represented in the emotion space by the modeled balance model and the ʻauraud 'model; And an estimator estimating the emotion value of the user using the emotional curve.

본 발명의 실시예들에 따르면, 실제 상황에 정서적 라벨(affective labels)을 제공하기 위한 계산 프레임 워크를 제공할 수 있다.According to embodiments of the present invention, it is possible to provide a calculation framework for providing affective labels in actual situations.

기존 감정 인식 시스템들은 사용자들이 자가 평가(self-assessment)라는 자가 평가표에 의해 본인의 감정을 수동적으로 값을 산출하고 거기에 맞추어 감정을 인식하는 반면, 본 발명은 이러한 자가평가표 없이 사용자의 행동으로부터 감정 값을 자동적으로 산출해낼 수 있다.Existing emotion recognition systems allow users to passively value their emotions based on a self-assessment table called self-assessment and recognize the emotions accordingly, while the present invention provides for emotions from the user's behavior without such a self-assessment table. The value can be calculated automatically.

또한, 본 발명은 실생활에서 사용자가 하는 행동을 통해 감정 값을 유추하기 때문에 기존의 감정 인식 시스템의 자동화를 이루어낼수 있으며, 실생활 환경에서 여러 어플리케이션들과 적용이 가능하다.In addition, the present invention can induce the automation of the existing emotion recognition system because it infers the emotion value through the behavior of the user in the real life, and can be applied to various applications in the real life environment.

이러한 본 발명은 우울증 초기 진단 기술 적용을 통한 의료 분야, 가상/증강 현실 내의 콘텐츠에 대한 사용자의 감정적 반응을 파악하는 기술 등에 적용할 수 있다.The present invention can be applied to the medical field through the application of the early diagnosis technology for depression, a technology for identifying the emotional response of the user to the content in the virtual / augmented reality.

또한, 본 발명은 뇌파를 측정하는 센서들의 소형화 기술 발전에 따라 웨어러블 시장으로 확대가 가능하고, 사용자의 스마트폰과 연동 가능한 뇌파 측정 웨어러블 기기 제작을 통해 일상 생활에서 사용할 수도 있다.In addition, the present invention can be extended to the wearable market according to the miniaturization technology of the sensors for measuring brain waves, and can be used in daily life through the production of brain wave measuring wearable devices that can be linked to the user's smartphone.

도 1은 밸런스-어라우절 공간에서 감정 분포와 포물선 형상에 대한 일 예시도를 나타낸 것이다.
도 2는 SAM(Self-Assessment Manikin)을 설명하기 위한 일 예시도를 나타낸 것이다.
도 3은 본 발명의 일 실시예에 따른 프레임워크에 대한 개념도를 나타낸 것이다.
도 4는 동기 구성 요소를 설명하기 위한 일 예시도를 나타낸 것이다.
도 5는 상이한 파라미터들에 대하여 SAM과 본 발명의 프레임워크 간 밸런스와 어라우절 등급 거리에 관한 5배 교차 유효성 스킴 결과를 나타낸 것이다.
도 6은 어라우절 커브와 밸런스 커브를 결합한 정서 커브에 대한 일 예시도를 나타낸 것이다.
도 7은 모든 참가자들에 대한 5배 교차 유효성 스킴을 통한 분류 절차의 결과에 대한 일 예시도를 나타낸 것이다.
Figure 1 shows an example of the distribution of emotion and parabolic shape in the balance-arranged space.
2 illustrates an exemplary diagram for explaining a self-assessment manikin (SAM).
3 shows a conceptual diagram of a framework according to an embodiment of the present invention.
4 illustrates an exemplary diagram for describing a synchronization component.
FIG. 5 shows the results of a 5-fold cross-validation scheme on the balance between the SAM and the framework of the present invention and the augmentation rating distance for different parameters.
FIG. 6 shows an example of an emotional curve combining an augmentation curve and a balance curve.
FIG. 7 shows an exemplary view of the results of the classification procedure with a 5-fold cross validity scheme for all participants.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형 태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, only these embodiments are intended to make the disclosure of the present invention complete, and common knowledge in the art to which the present invention pertains. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상 의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and / or “comprising” refers to a component, step, operation and / or element that is one or more of the other components, steps, operations and / or elements. It does not exclude existence or addition.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사 전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined beforehand that are generally used are not to be interpreted ideally or excessively unless they are clearly specifically defined.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명하고자 한다. 도면 상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

본 발명의 실시예들은, 정서적인 비디오 내용을 모델링하기 위하여 낮은 레벨의 기능 기반 프레임워크를 제공하는 것으로, 2차원 감정 좌표 공간 예를 들어, 밸러슨(valence)-어라우절(arousal) 감정 좌표 공간에서 일련의 포인트로 정서적 상황을 표현하고 모델링할 수 있는 프레임워크를 제공하는 것을 그 요지로 한다.Embodiments of the present invention provide a low-level, feature-based framework for modeling emotional video content, such as two-dimensional emotional coordinate spaces, for example, a valence-arousal emotional coordinate space. The idea is to provide a framework for expressing and modeling emotional situations in a series of points.

여기서, 본 발명은 심리적 행동의 기초가 되는 인간의 피질에서 시각적인 관심을 감지하고, 관심 대상과의 상호 작용을 기반으로 예상되는 감정을 정량화할 수 있다.Here, the present invention can detect visual interest in the cortex of a human being, which is the basis of psychological behavior, and quantify anticipated emotions based on interactions with objects of interest.

본 발명은 시공간적 상황의 결과를 정서 커브라고 불리는 다항식 곡선으로 표현할 수 있다.The present invention can express the result of a spatiotemporal situation as a polynomial curve called an emotional curve.

여기서, 비디오는 비디오를 시청하는 도중 어느 하나의 느낌에서 다른 느낌으로 예상되는 전환을 안정적으로 묘사하는 정서 커브로 표현될 수 있으며, 정서 커브는 IAPS(International Affective Picture System)(P. J. Lang, M. M. Bradley, and B. N. Cuthbert, "International affective picture system (iaps): Technical manual and affective ratings," NIMH Center for the Study of Emotion and Attention, pp. 39-58, 1997.) 및 IADS(International Affective Digitized Sounds system)(M. Bradley and P. Lang, "International affective digitized sounds (iads): Technical manual and affective ratings," Center for Research in Psychophysiology, Univ. Florida, Gainesville, FL, 1991.)에서 수집된 많은 집단의 정신 생리학 실험에 기반할 수 있다.Here, the video can be expressed as an emotional curve that stably describes the transition expected from one feeling to the other while watching the video, and the emotional curve can be represented by the International Affective Picture System (IAPS) (PJ Lang, MM Bradley, and BN Cuthbert, "International affective picture system (iaps): Technical manual and affective ratings," NIMH Center for the Study of Emotion and Attention, pp. 39-58, 1997.) and International Affective Digitized Sounds System (IADS) Bradley and P. Lang, "International affective digitized sounds (iads): Technical manual and affective ratings," Center for Research in Psychophysiology, Univ. Florida, Gainesville, FL, 1991.) Can be based.

IAPS 및 IADS는 보정된 시청각 자극에 대한 정서적 반응의 측정을 포함하며, 두 시스템이 시청각 내용으로 폭 넓은 감정을 수집하는 것을 목표로 하고 있지만, 감정 좌표계에 매핑된 감정 반응은 대략 포물선에 해당한다는 사실이 몇 가지 연구를 통하여 결정된 바 있다. 예를 들어, 포물선 표면을 사용하여 정서 에이전트에게 기질, 분위기 및 감정을 할당함으로써 에이전트의 성격을 정의할 수 있다.IAPS and IADS include the measurement of emotional responses to calibrated audiovisual stimuli, although both systems aim to collect a wide range of emotions in audiovisual content, but the emotional response mapped to the emotional coordinate system is roughly parabolic. This has been determined through several studies. For example, parabolic surfaces can be used to define an agent's personality by assigning temperament, mood, and emotion to an emotional agent.

본 발명은 상술한 내용과 유사하게 이미지 시퀀스에서 추출된 낮은 레벨의 특징으로부터 정서 커브를 도출하는 모델을 도출하는 것으로, 본 발명에서의 모델은 생활의 사건에 기반한 인간의 감정적 행동을 반영하고 정서적 상황을 나타내는 정서 커브를 계산하기 위해 접근-회피(approach-withdrawal) 이론을 사용한다.The present invention derives a model that derives an emotional curve from low-level features extracted from an image sequence similar to the above, wherein the model in the present invention reflects the emotional behavior of humans based on the events of life and the emotional situation. Approach-withdrawal theory is used to calculate the emotional curve representing

본 발명의 프레임워크에서, 정서적인 상황은 '정서 커브'라고 지칭한다. 여기서, 정서 커브는 valence-arousal 감정 공간상의 한 세트의 포인트에 맞춰진 다항식 곡선을 의미할 수 있다. 또한, 실제 환경에서 정서적 상황을 모델링하고 표현하기 위하여, 사용자가 일상적인 상황에서 자유롭게 행동할 수 있도록 쉽게 착용할 수 있는 장치를 이용하여 환경 정보를 수집할 수 있다. 해당 장치는 정면 카메라, 가속도계 및 작은 생리 센서로 구성될 수 있다. 본 발명은 이러한 장치에서 수집된 데이터를 사용하여 정서적인 상황 표현을 학습하고, 인간의 감정을 분류하는데 사용될 수 있는 생리학적 변화를 알기 위한 적절한 정서적 라벨을 제공한다.In the framework of the present invention, an emotional situation is referred to as an 'emotional curve'. Here, the emotional curve may mean a polynomial curve that is fitted to a set of points in the valence-arousal emotional space. In addition, in order to model and express an emotional situation in a real environment, environmental information may be collected using a device that can be easily worn so that a user can behave freely in everyday situations. The device may consist of a front camera, an accelerometer and a small physiological sensor. The present invention uses the data collected in such devices to learn emotional contextual representations and to provide appropriate emotional labels for physiological changes that can be used to classify human emotions.

본 발명에서의 정서적 상황은 정서적 실체의 특정 배열로 정의될 수 있으며, 본 발명은 이러한 정서적인 상황을 모델링하고 표현하기 위한 프레임워크를 제공한다. 여기서, 정서적 실체는 사람들이 만나고, 상호 작용하며, 감정적인 반응을 느끼는 다양한 실제 세계의 물건일 수 있다.The emotional context in the present invention may be defined as a specific arrangement of emotional entities, and the present invention provides a framework for modeling and expressing such emotional situations. Here, the emotional reality may be an object of various real worlds where people meet, interact, and feel emotional responses.

본 발명에 의해 정서적 상황이 모델링되면 인간 상호 작용의 내용을 이해할 수 있으며, 이러한 상황을 표현하면 상호 작용을 기반으로 예상되는 감정의 수준을 결정할 수 있다. 따라서, 본 발명의 프레임워크는 실제 상황에서의 인지적 정서와 정서적 정서 사이의 의미적 차이를 줄이는 데 도움을 줄 수 있다.When the emotional situation is modeled by the present invention, the contents of human interaction can be understood, and expressing such a situation can determine the expected level of emotion based on the interaction. Thus, the framework of the present invention can help to reduce semantic differences between cognitive and emotional emotions in real situations.

이러한 본 발명에 대해 상세히 설명하면 다음과 같다.The present invention will be described in detail as follows.

도 3은 본 발명의 일 실시예에 따른 프레임워크를 나타낸 것으로, 본 발명의 프레임워크는 실제 시나리오에서 이미지 시퀀스의 정서적 라벨링을 제공한다.3 illustrates a framework in accordance with one embodiment of the present invention, wherein the framework of the present invention provides for emotional labeling of an image sequence in a practical scenario.

본 발명의 프레임워크는 상황에서 정서적 내용이 직면한 정서적 행동으로부터 행동 경향의 느낌을 정량화하기 위하여, 자기 중심적(egocentric image) 이미지를 기반으로 정서적 상황(affective situation)을 학습하고 표현한다. 본 발명은 매 시간 프레임마다 자기 중심적인 이미지를 취하고, 입력으로 보조 가속도계(auxiliary accelerometer) 데이터를 사용하며, valence-arousal 공간에 두 개의 감정 포인트를 출력할 수 있다.The framework of the present invention learns and expresses an emotional situation based on an egocentric image to quantify the feeling of behavioral trends from the emotional behavior faced by the emotional content in the context. The present invention can take a self-centered image every time frame, use auxiliary accelerometer data as input, and output two emotion points in valence-arousal space.

여기서, 학습된 포인트는 정서 커브(affective curve)라고 지칭되는 다항식 곡선으로 표현될 수 있다.Here, the learned points may be represented by polynomial curves called emotional curves.

도 3에 도시된 바와 같이, 본 발명의 프레임워크는 이미지 시퀀스로부터 모션 구성 요소, 동기 구성 요소, 적응 구성 요소를 계산한 후 계산된 세가지 구성 요소를 이용하여 정서적 상황을 표현하고, 2차원 감정 공간 상에 표현된 정서적 상황을 이용하여 정서 커브를 생성하며, 이렇게 생성된 정서 커브를 이용하여 정서적 라벨링을 제공한다.As shown in FIG. 3, the framework of the present invention expresses an emotional situation using three components calculated after calculating a motion component, a synchronization component, and an adaptive component from an image sequence, and a two-dimensional emotion space. Emotional curves are generated using the emotional situations represented above, and emotional labeling is provided using the generated emotional curves.

정서적 상황 학습Emotional situation learning

종래 일 실시예 기술(A. Hanjalic and L.-Q. Xu, "Affective video content representation and modeling," IEEE transactions on multimedia, vol. 7, no. 1, pp. 143-154, 2005.)은 모델을 심리적으로 정당화하는데 사용된 3가지 기준에 근거하여 valence 및 arousal 공간에 대한 정서 커브를 개발하였다. 본 발명은 실제 상황에 본 발명의 프레임워크를 적용하기 위하여 상술한 기준들을 수정한다.One prior art technique (A. Hanjalic and L.-Q. Xu, "Affective video content representation and modeling," IEEE transactions on multimedia, vol. 7, no. 1, pp. 143-154, 2005.) We developed an emotional curve for valence and arousal spaces based on three criteria used to psychologically justify The present invention modifies the aforementioned criteria in order to apply the framework of the present invention in practical situations.

(1) 비교 가능성 : 비슷한 유형의 감정적 행동에 대해 서로 다른 상황에서 얻은 valence, arousal 및 결과 정서 커브의 값을 비교할 수 있다. 이 기준은 시간 곡선을 계산할 때 자연스럽게 표준화 및 스케일링 요구 사항을 부과한다.(1) Comparability: Comparable values of valence, arousal and resultant emotional curves obtained in different situations for similar types of emotional behavior. This criterion naturally imposes standardization and scaling requirements when calculating time curves.

(2) 호환성 : 정서 커브의 모양이 valence-arousal 감정 공간에서 특정 시간이 주어졌을 때의 상황을 반영한다. 상황이 종료되면 곡선의 모양은 2D 감정 공간에서 대략적인 포물선 모양이 된다.(2) Compatibility: The shape of the emotional curve reflects the situation given a certain time in the valence-arousal emotional space. When the situation is over, the shape of the curve becomes an approximate parabolic shape in the 2D emotion space.

(3) 평활도 : 이전 프레임의 감정 유지 정도를 나타낸다. 이는 인간의 감정을 이끌어 내는데 관련된 콘텐츠의 정서적인 비율이 상황의 연속적인 프레임 사이에서 갑자기 변하지 않도록 한다.(3) Smoothness: indicates the degree of emotion retention of the previous frame. This ensures that the emotional proportion of the content involved in eliciting human emotions does not suddenly change between successive frames of the situation.

1) 정서적 상황 학습의 감정 특징1) Emotional Characteristics of Emotional Situation Learning

본 발명은 상황에서 사용된 여러 가지 정서적 표현을 관찰할 수 있다. 본 발명은 이러한 감정적 현상을 arousal 및 valence로 모델링하기 위하여, 프레임 k에서 arousal과 valence에 대한 일반 함수 A(k)와 V(k)를 사용한다. 두 함수는 감정 반응의 모션 구성 요소, 감정적 접근-회피 행동의 동기 구성 요소 및 정서적 상황의 적응 구성 요소의 세 가지 구성 요소를 통합하는 함수의 적절한 형식을 가질 수 있다.The present invention can observe various emotional expressions used in the context. The present invention uses the general functions A (k) and V (k) for arousal and valence in frame k to model these emotional phenomena as arousal and valence. Both functions may have a suitable form of function incorporating three components: the motion component of the emotional response, the motivation component of the emotional approach-avoidance behavior, and the adaptive component of the emotional situation.

a) 감정 반응의 모션 구성 요소(motion component)a) motion component of the emotional response

기존의 몇몇 연구는 모션이 개인의 정서적 반응에 영향을 미치는 가장 중요한 시각적 특징 중 하나라고 보고한 바 있다. 모션은 표현력이 풍부하고 강한 감정적 반응을 불러 일으킬 수 있다. 대상의 모션이 인간의 감정 반응에 미치는 영향에 대한 연구에 따르면 모션 강도가 증가하면 arousal이 증가하는 것으로 나타난다.Several previous studies have reported that motion is one of the most important visual features that affect an individual's emotional response. Motion is expressive and can induce strong emotional reactions. Studies on the effects of subject motion on human emotional responses show that arousal increases with increasing motion intensity.

본 발명은 각 비디오 프레임 k에서 모션 활동성 m(k)을 추정하기 위해 모션 구성 요소를 계산한다.The present invention calculates motion components to estimate motion activity m (k) in each video frame k.

여기서, 본 발명은 옵티컬 플로우(optical flow) 추정을 사용하여 인접한 프레임 사이의 정서적 대상의 모션을 특성화하고 정량화할 수 있으며, 모든 추정된 모션 벡터

Figure pat00001
의 평균 크기는 모션 활동성을 공식화하는데 사용될 수 있다.Here, the present invention can use optical flow estimation to characterize and quantify the motion of an emotional object between adjacent frames, all estimated motion vectors
Figure pat00001
The average size of can be used to formulate motion activity.

모션 활동성 m(k)는 아래 <수학식 1>과 같이 나타낼 수 있다.The motion activity m (k) may be expressed as Equation 1 below.

[수학식 1][Equation 1]

Figure pat00002
Figure pat00002

여기서,

Figure pat00003
는 프레임 k에서의 모션 벡터 i를 의미하고, B는 프레임 k에서의 모션 벡터의 수를 의미할 수 있다.here,
Figure pat00003
May mean the motion vector i in the frame k, and B may mean the number of motion vectors in the frame k.

자기 중심적 이미지는 일반적으로 인체에 부착된 카메라에서 캡처되기 때문에 이미지에는 모션 활동성 m(k)를 오염시키는 모션 잡음이 포함될 수 있다. 본 발명은 이러한 모션 잡음을 제거하기 위하여, 모션 구성 요소

Figure pat00004
에 가속도계 데이터
Figure pat00005
를 사용할 수 있으며, 모션 컴포넌트
Figure pat00006
는 아래 <수학식 2>와 같이 나타낼 수 있다.Since self-centered images are typically captured by cameras attached to the human body, the images may contain motion noise that contaminates the motion activity m (k). The present invention provides a motion component to remove such motion noise.
Figure pat00004
Accelerometer data on
Figure pat00005
Can be used for motion components
Figure pat00006
Can be expressed as in Equation 2 below.

[수학식 2][Equation 2]

Figure pat00007
Figure pat00007

여기서,

Figure pat00008
는 0과 1 사이에서 정규화된 가우시안 평활 결과를 의미할 수 있다.here,
Figure pat00008
May mean a Gaussian smoothing result normalized between 0 and 1.

이들은 모션 활동성의 실제 요인이 아니기 때문에

Figure pat00009
는 모션 잡음이 증가하면 arousal이 감소한다는 것을 의미한다.Because these are not real factors of motion activity
Figure pat00009
Means that the arousal decreases as the motion noise increases.

도 4는 모션 구성 요소에 대한 개념도를 나타낸 것으로, 도 4에 도시된 바와 같이, 각 비디오 프레임 k에서의 이미지로부터 시각적 주의(또는 관심)은 돌출 맵에 의해 인간 피질(cortex)에서 검출된다. 이미지로부터 검출된 포물선 돌출 맵을 이용하여 이진 돌출 맵을 생성하고, 생성된 이진 돌출 맵을 이용하여 동기 맵을 생성함으로써, 동기 맵을 이용하여 관심 대상과 관련된 감정적 접근-회피 행동이 계산될 수 있다. 즉, 이진 도출맵에 의해 커버된 영역에서, 관심 대상과 관련된 감정적 접근-회피 행동은 대상 주변 옵티컬 플로우를 이용하여 계산될 수 있다.4 illustrates a conceptual diagram for a motion component, as shown in FIG. 4, visual attention (or interest) from an image in each video frame k is detected in the human cortex by a protrusion map. By generating a binary protrusion map using a parabolic protrusion map detected from an image and generating a synchronization map using the generated binary protrusion map, an emotional approach-avoidance behavior associated with an object of interest can be calculated using the synchronization map. . That is, in the area covered by the binary derivation map, the emotional approach-avoidance behavior associated with the object of interest may be calculated using the optical flow around the object.

b) 감정적 접근-회피 행동의 동기 구성 요소(motivation component)b) the motivational component of the emotional approach-avoidance behavior;

본 발명은 모션 구성 요소와 유사하게 다양한 상황에서 정서적 내용에 응답하여 발생하는 감정적 행동을 모델링하기 위한 동기 구성 요소

Figure pat00010
를 계산한다. 동기 구성 요소의 계산은 먼저 시각적인 주의(visual attention)을 통해 참가자의 의도를 파악하여 수행된다.Motivational components for modeling emotional behaviors that occur in response to emotional content in various situations, similar to motion components
Figure pat00010
Calculate The calculation of the motive component is first performed by grasping the participant's intention through visual attention.

여기서, 특정 고정 지점에서 유지되는 시각적 주의의 위치를 예상하는 것은 돌출(saliency) 예측 또는 탐지로 수행될 수 있다.Here, estimating the location of visual attention maintained at a particular fixed point may be performed with saliency prediction or detection.

컴퓨터 비젼, 로보틱스 및 신경 과학에서 이러한 현상이 나타나고 점점 더 주목을 받고 있다. 본 발명은 이미지 프레임에서 가장 돌출된 영역을 획득하기 위하여 돌출 모델(saliency model) 예를 들어, 돌출 어텐티브 모델(saliency attentive model)을 사용할 수 있다.Computer phenomena, robotics and neurosciences have seen this phenomenon and are getting more and more attention. The present invention may use a saliency model, for example, a saliency attentive model to obtain the most protruding region in the image frame.

여기서, 돌출 모델은 확장된 컨벌루셔널 네트워크(DCN; dilated convolutional networks)와 돌출 대상 검출기로 다중 학습된 시선 프라이어(gaze priors)에 의해 계산된 특징들의 집합을 가지는 컨볼루션 LSTM을 구축함으로써, 장면에서 인간 눈의 고정(human eye fixations)을 예측할 수 있다.Here, the salient model builds a convolutional LSTM with a set of features computed by multi-learned gaze priors with dilated convolutional networks (DCN) and salient target detectors. Human eye fixations can be predicted.

본 발명은 임계 값 th를 갖는 이진 돌출 맵을 생성하기 위하여, [0, 1] 내의 값을 갖는 확률 맵인 최종 돌출 맵을 사용한다. 이진 돌출 맵에서 흰색은 참가자가 시각적으로 관심(또는 주의)을 가지는 주요 고정 영역이 된다. 본 발명은 인간의 시각 주의 예측 결과인 돌출 대상을 기반으로, 각 비디오 프레임 k에서 관심 대상 주변의 옵티컬 플로우를 이용한 발산 및 회전을 계산함으로써, 관심 대상과 관련된 감정적 접근-회피 행동을 학습한다. 이러한 방법은 단일 대상에 접근하는 것이 대상을 확대하는 것과 동일하고, 돌출 대상의 중심 포인트를 둘러싸는 플로우 벡터의 발산에 동일한 영향을 미치기 때문에 가능하다.The present invention uses the final overhang map, which is a probability map with values within [0, 1], to produce a binary overhang map with a threshold value t h . In a binary protrusion map, white is the main fixed area where participants visually care (or pay attention). The present invention learns the emotional approach-avoidance behavior associated with an object of interest by calculating the divergence and rotation using the optical flow around the object of interest in each video frame k, based on the projected object as a result of the human visual attention prediction. This approach is possible because accessing a single object is the same as enlarging the object and has the same effect on the divergence of the flow vector surrounding the center point of the protruding object.

이 때, 본 발명은 인접한 프레임 사이의 다중 스케일 블록 기반 매칭을 사용하여 플로우를 계산할 수 있다.In this case, the present invention may calculate the flow using multi-scale block based matching between adjacent frames.

본 발명은 동기된 행동을 기술하기 위하여, 6개의 원시 옵티컬 플로우 패턴 예를 들어, 수직축 주위의 회전, 수평축 주위의 회전, 대상 방향으로 접근, 이미지 평면의 옵티컬 축 주위의 회전 및 복소 쌍곡선 플로우(complex hyperbolic flows)로 플로우를 표준화한다. 여기서, 모션 벡터가 주어지면, 픽셀 c(x, y)에서의 속도

Figure pat00011
는 아래 <수학식 3>과 같이 나타낼 수 있다.In order to describe the synchronous behavior, the present invention uses six raw optical flow patterns, e.g. rotation around the vertical axis, rotation around the horizontal axis, approach in the target direction, rotation around the optical axis of the image plane and complex hyperbolic flow (complex). Standardize flows with hyperbolic flows. Where, given the motion vector, the velocity at pixel c (x, y)
Figure pat00011
Can be expressed as in Equation 3 below.

[수학식 3][Equation 3]

Figure pat00012
Figure pat00012

여기서,

Figure pat00013
는 픽셀 c0에서의 속도를 의미하고,
Figure pat00014
는 아래 <수학식 4>와 같이 정의되는 행렬일 수 있다.here,
Figure pat00013
Is the velocity at pixel c 0 ,
Figure pat00014
May be a matrix defined as in Equation 4 below.

[수학식 4][Equation 4]

Figure pat00015
Figure pat00015

이 때, 행렬

Figure pat00016
는 아래 <수학식 5>와 같이 분해될 수 있다.At this time,
Figure pat00016
Can be decomposed as shown in Equation 5 below.

[수학식 5][Equation 5]

Figure pat00017
Figure pat00017

여기서,

Figure pat00018
Figure pat00019
은 각각 발산 옵티컬 플로우와 회전 옵티컬 플로우를 의미하고,
Figure pat00020
Figure pat00021
는 상이한 유형의 쌍곡선 옵티컬 플로우를 의미할 수 있다.here,
Figure pat00018
Wow
Figure pat00019
Denotes a divergent optical flow and a rotating optical flow, respectively.
Figure pat00020
and
Figure pat00021
May mean different types of hyperbolic optical flow.

행렬 D, R, H1 및 H2는 아래 <수학식 6>과 같을 수 있다.The matrices D, R, H 1 and H 2 may be as shown in Equation 6 below.

[수학식 6][Equation 6]

Figure pat00022
Figure pat00022

모션 벡터 필드의 속도는 대략 6개의 파라미터 예를 들어,

Figure pat00023
로 특징지어 질 수 있다. 본 발명은 관심 대상의 옵티컬 플로우 필드가 주어지면 상기 수학식 5와 최소 자승 오차 방법(least squared error method)을 이용하여 파라미터 벡터를 추정한다. 파라미터 u는 오른쪽 및 왼쪽 회전과 연관되고,
Figure pat00024
는 위쪽 및 아래쪽 방향과 연관되며, d는 대상 접근 및 회피와 연관되고, 나머지 세 파라미터 r, h1, h2는 결합된 모션을 나타낸다.The velocity of the motion vector field is approximately six parameters,
Figure pat00023
Can be characterized as Given an optical flow field of interest, the present invention estimates the parameter vector using Equation 5 and the least squared error method. Parameter u is associated with right and left rotation,
Figure pat00024
Is associated with up and down directions, d is associated with object approaching and avoidance, and the remaining three parameters r, h 1 , h 2 represent combined motion.

6개의 파라미터를 사용하여 프레임 k에서 동기 구성 요소

Figure pat00025
를 계산할 있으며, 아래 <수학식 7>과 같이 나타낼 수 있다.Sync component in frame k with six parameters
Figure pat00025
It can be calculated as shown in Equation 7 below.

[수학식 7][Equation 7]

Figure pat00026
Figure pat00026

여기서, X, Y는 관심 대상의 옵티컬 플로우 필드의 폭와 높이를 의미할 수 있다.Here, X and Y may mean the width and height of the optical flow field of interest.

c) 정서적 상황의 적응 구성 요소(adaptation component)c) the adaptation component of an emotional situation

본 발명은 사용자의 감정과 상황에 적응하려는 의도 사이의 연결을 나타내기 위하여 시간에 따라 변하는 상황 길이를 사용한다. 본 발명은 프레임 k에서 함수

Figure pat00027
를 도출함으로써, 상황의 감정적 적응을 모델링할 수 있으며, 함수
Figure pat00028
는 아래 <수학식 8>과 같이 나타낼 수 있다.The present invention uses situation lengths that change over time to represent a connection between the user's feelings and the intention to adapt to the situation. The present invention functions in frame k
Figure pat00027
By deriving, we can model the emotional adaptation of the situation and
Figure pat00028
Can be expressed as Equation 8 below.

[수학식 8][Equation 8]

Figure pat00029
Figure pat00029

여기서,

Figure pat00030
Figure pat00031
은 함수
Figure pat00032
의 형상을 결정하고,
Figure pat00033
는 정서적 상황의 길이로, 현재 프레임 k까지의 정서적 상황의 누적 합계를 의미할 수 있다.here,
Figure pat00030
And
Figure pat00031
Is a function
Figure pat00032
Determine the shape of,
Figure pat00033
Is the length of the emotional situation, and may mean a cumulative sum of the emotional situations up to the current frame k.

함수

Figure pat00034
는 현재 프레임 k의 상황이 이전 프레임 k-1과 동일하면 1만큼 값이 증가한다. 본 발명은 로그 함수 예를 들어, log10 함수를 사용하여 정서적 상황의 적응 구성 요소를 모델링할 수 있다.function
Figure pat00034
If the situation of the current frame k is equal to the previous frame k-1, the value is increased by one. The present invention can model the adaptive component of an emotional situation using a log function, for example, a log 10 function.

2) Arousal 및 Valence 모델2) Arousal and Valence Model

본 발명은 arousal을 모델링하기 위하여, 함수 A(k)는 프레임 k에서의 정서적 상황에서 이미지 시퀀스를 따라 모션 구성 요소

Figure pat00035
및 적응 구성요소
Figure pat00036
의 기여도를 통합하기 위하여 모션 및 적응의 가중된 평균을 사용한다. 상기 함수는 이동 평균 필터를 통해 구성 요소의 이웃하는 로컬 최대 값을 병합하기에 충분히 긴 평활화 윈도우(smoothing window)로 컨벌루션된다. 결과는 0과 1의 범위로 정규화된다. 여기서, 함수 A(k)는 아래 <수학식 9>와 같이 나타낼 수 있다.In order to model the arousal, the function A (k) is a motion component along an image sequence in an emotional situation at frame k.
Figure pat00035
And adaptive components
Figure pat00036
The weighted average of motion and adaptation is used to incorporate the contributions of. The function is convolved with a smoothing window long enough to merge the component's neighboring local maximum values through a moving average filter. The result is normalized to the range 0 and 1. Here, the function A (k) can be expressed as Equation 9 below.

[수학식 9][Equation 9]

Figure pat00037
Figure pat00037

여기서,

Figure pat00038
Figure pat00039
인 두 함수에 가중치를 부여하기 위한 계수들을 의미할 수 있다.here,
Figure pat00038
Is
Figure pat00039
It may mean coefficients for weighting the two functions.

호환성 기준은 arousal 과 valence 시간 곡선을 결합하여 생성된 정서 커브가 2D 감정 공간과 유사한 포물선 모양을 갖는 valence-arousal 좌표계의 영역을 포함해야 한다는 것을 요구한다. 여기서, 호환성 기준은 arousal의 값과 이와 관련된 valence의 절대 값을 요구할 수 있다.The compatibility criterion requires that the emotional curve generated by combining the arousal and valence time curves must include a region of the valence-arousal coordinate system that has a parabolic shape similar to the 2D emotion space. Here, the compatibility criterion may require an arousal value and an absolute value of valence associated with it.

따라서, arousal 값의 범위는 valence 의 절대 값 범위를 결정할 수 있다.Thus, the range of arousal values can determine the absolute value range of valence.

즉, 본 발명은 현재 프레임 k에서 arousal A(k)의 값을 고려하여 이 값의 범위 의존성을 포착하는 함수 r(k)를 정의함으로써, valence를 모델링할 수 있다.That is, the present invention can model valence by defining a function r (k) that captures the range dependency of this value in consideration of the value of arousal A (k) in the current frame k.

여기서, 함수 r(k)는 아래 <수학식 10>과 같이 정의될 수 있으며, valence 함수 V(k)는 아래 <수학식 11>과 같이 나타낼 수 있다.Here, the function r (k) may be defined as in Equation 10 below, and the valence function V (k) may be represented as in Equation 11 below.

[수학식 10][Equation 10]

Figure pat00040
Figure pat00040

[수학식 11][Equation 11]

Figure pat00041
Figure pat00041

여기서, r(k)는 예상된 느낌의 부정성은 상황에서의 감정적 적응의 양에 의해 결정된다는 것을 의미할 수 있다. 즉, 참가자(피실험자)가 상황을 회피하기 원한다면,

Figure pat00042
는 작은 값이 되고 예상된 감정은 부정적인 경향이 된다.Here, r (k) may mean that the negativity of the expected feeling is determined by the amount of emotional adaptation in the situation. In other words, if the participant (subject) wants to avoid the situation,
Figure pat00042
Is small and the expected emotion tends to be negative.

이 함수에 기초하여, valence 값 V(k)은 동기 구성 요소

Figure pat00043
에 의해 세밀하게 결정될 수 있으며, 함수 A(k)와 유사하게 함수 V(k)는 동일한 이동 평균 필터로 평활화될 수 있다. 여기서,
Figure pat00044
는 각각 r(k)와 V(k)의 가중된 평균을 의미할 수 있다.Based on this function, the valence value V (k) is the synchronous component
Figure pat00043
Can be determined in detail, and similarly to function A (k), function V (k) can be smoothed with the same moving average filter. here,
Figure pat00044
May mean a weighted average of r (k) and V (k), respectively.

정서적 상황 표현Expressing emotional situations

본 발명은 상술한 계산에 의해 학습된 valence 값과 arousal 값으로부터 2D 감정 공간에 대한 정서적 상황을 표현한다. 본 발명은 GPR(Gaussian process regression) 모델을 근사화하기 위해 Gaussian process regression(GPR) 모델에 맞는 두 개의 감정 값을 사용한다. 여기서, GPR 모델은 선형 기본 함수와 정확한 맞춤 방법을 사용하는 비파라메트릭 커널 기반 확률 모델일 수 있다. 이것은 인간에 의해 감지되는 상황에 따른 감정적 궤적의 표현으로서 정서 커브를 생성할 수 있다.The present invention expresses the emotional situation for the 2D emotion space from the valence value and the arousal value learned by the above calculation. The present invention uses two emotion values that fit the Gaussian process regression (GPR) model to approximate the Gaussian process regression (GPR) model. Here, the GPR model may be a nonparametric kernel based probabilistic model using a linear basic function and an accurate fitting method. This can generate an emotional curve as a representation of the emotional trajectory according to the situation as perceived by the human being.

디바이스device 구성 Configuration

본 발명은 본 발명의 프레임워크에 대한 웨어러블 디바이스를 구성하고, 매일 상황에서 자유롭게 사용자가 행동할 수 있게 한다. 해당 기기는 사용자의 감정을 수집한다. 여기서, 해당 기기는 사용자의 뇌파(EEG) 신호를 수집할 수 있고, 멀티모달 센서 예를 들어, 카메라, 생리학 센서(Physiological Sensor) 등을 이용하여 사용자 주변의 다양한 영향을 캡쳐할 수 있다.The present invention constructs a wearable device for the framework of the present invention and allows the user to act freely in everyday situations. The device collects the emotions of the user. Here, the device may collect the EEG signal of the user, and may capture various effects around the user by using a multi-modal sensor, for example, a camera, a physiological sensor.

정서적 상황 Emotional situation 데이터셋Data set

정서적 상황은

Figure pat00045
로 정의될 수 있다. 여기서,
Figure pat00046
이고, Ns는 정서적 상황의 수를 의미하고, Ne는 상황에서 감정적 포인트의 쌍(valence, arousal)의 수를 의미할 수 있다.Emotional situation
Figure pat00045
It can be defined as. here,
Figure pat00046
, Ns may represent the number of emotional situations, and Ne may mean the number of emotional (valence, arousal) pairs in the situation.

Ne는 수초 내에서 카메라의 프레임 레이트와 상황의 지속기간

Figure pat00047
의 곱에 의하여 결정될 수 있다. 매 30초로부터 모든 감정 포인트들은 정서적 라벨의 단일 집합을 생성하기 위하여 평균될 수 있다. 모든 상황의 지속기간은 세 주석자(annotators)에 의해 매뉴얼적으로 결정될 수 있다. 어떤 상황은 실측 값(ground truth)으로 SAM-등급 라벨을 가질 수 있다. SAM-등급 상황은
Figure pat00048
로 정의될 수 있으며,
Figure pat00049
는 Ns 내에서 SAM-등급 상황의 인덱스를 의미할 수 있다. SAM-등급 상황은 본 발명의 프레임워크의 파라미터들을 추정하고 그 성능을 평가하는데 사용된다. 각 상황은 두 채널 EEG 신호와 가속도 측정 데이터를 포함한다. Ne is the frame rate of the camera and the duration of the situation in seconds.
Figure pat00047
It can be determined by the product of. From every 30 seconds all emotion points can be averaged to produce a single set of emotional labels. The duration of any situation can be determined manually by three annotators. Some situations may have a SAM-grade label as ground truth. SAM-grade situation
Figure pat00048
Can be defined as
Figure pat00049
May refer to the index of the SAM-class situation within Ns. The SAM-grade situation is used to estimate the parameters of the framework of the present invention and to evaluate its performance. Each situation includes two channel EEG signals and acceleration measurement data.

파라미터 설정(setting)Parameter setting

정서적 상황을 모델링하고 정서 커브로 표현하기 위하여, 각 참가자에 대한 파라미터들은 5배 교차 유효성 스킴(five-fold cross-validation scheme)을 통해 설정된다. 이 파라미터들은 상황에 대한 첫번째 프레임에서 적응 구성 요소가 -1/

Figure pat00050
의 최소 값을 가지도록 2와 -1로 설정될 수 있다.
Figure pat00051
Figure pat00052
는 매 오일 동안 최대 값에 의해 결정될 수 있다.To model the emotional situation and express it in an emotional curve, the parameters for each participant are set through a five-fold cross-validation scheme. These parameters are set to -1 / by the adaptive component in the first frame of the situation.
Figure pat00050
It can be set to 2 and -1 to have a minimum value of.
Figure pat00051
Wow
Figure pat00052
Can be determined by the maximum value during each oil.

도 5는 상이한 파라미터

Figure pat00053
,
Figure pat00054
Figure pat00055
에 대하여 SAM과 본 발명의 프레임워크 간 valence와 arousal 등급 거리에 관한 5배 교차 유효성 스킴 결과를 나타낸 것이다. 정서 커브는 공간과 시간적 상황에서 정서적 역학(affective dynamics)을 표현하고 정서적 라벨의 복수 쌍을 포함하기 때문에 SAM 등급의 쌍과 비교할 때 상이한 것을 알 수 있다. 이는 valence와 arousal 등급이 동일한 상황에서 감정을 표현하는데 불연속 값을 가지기 때문이다. 비교를 위해, 본 발명은 모든 참가자들에 대해 0부터 6까지 스케일된 정서적 라벨 쌍의 평균 제곱 오차 제곱근(RMSE; root mean squared errors)을 계산한다. 여기서, 정서적 라벨 쌍의 평균 제곱 오차 제곱근은 아래 <수학식 12>와 같이 계산될 수 있다.5 shows different parameters
Figure pat00053
,
Figure pat00054
and
Figure pat00055
The results show a 5-fold cross-validation scheme for valence and arousal rating distances between SAM and the framework of the present invention. It can be seen that the emotional curves are different when compared to pairs of SAM grades because they represent affective dynamics in spatial and temporal situations and include multiple pairs of emotional labels. This is because valence and arousal grades have discrete values for expressing emotions in the same situation. For comparison, the present invention calculates root mean squared errors (RMSE) of emotional label pairs scaled from 0 to 6 for all participants. Here, the square root of the mean square error of the emotional label pair may be calculated as shown in Equation 12 below.

[수학식 12][Equation 12]

Figure pat00056
Figure pat00056

여기서,

Figure pat00057
는 예측된 정서적 라벨의 쌍을 의미하고,
Figure pat00058
는 상황
Figure pat00059
에서 실측 값 라벨의 쌍을 의미할 수 있다. 0은 부정적 밸런스 등급을 표현하고, 3은 중립 밸런스 등급을 표현하며, 6은 긍정적 밸런스 등급을 표현한다. 또한, 0은 중립 어라우절 등급을 표현하며, 3은 낮은 어라우절 등급을 표현하며, 6은 높은 어라우절 등급을 표현한다.here,
Figure pat00057
Means a pair of predicted emotional labels,
Figure pat00058
Situation
Figure pat00059
May mean a pair of measured value labels. 0 represents a negative balance grade, 3 represents a neutral balance grade, and 6 represents a positive balance grade. In addition, 0 represents a neutral augmentation grade, 3 represents a low augmentation grade, and 6 represents a high augmentation grade.

Figure pat00060
Figure pat00061
가 어라우절 값 A(k)를 결정하는 반면, 밸런스 값 V(k)는
Figure pat00062
Figure pat00063
파라미터에 의해 결정된다. 파라미터
Figure pat00064
은 적응 구성 요소 l(k)가 0이 되는 경우 결정된다. 이는 밸런스 값 V(k)의 부호와 어라우절 값 A(K)의 증가에 직접적으로 영향을 준다.
Figure pat00065
가 더 작은 값을 가지게 되면, 적응 구성 요소 l(k)는 0이 되고 밸런스 값 V(k)의 부호는 앞선 k에서 양이 된다. 도 7a에 도시된 바와 같이, 밸런스 등급에 대한 최고 성능은 0.5이고, 두 개의 서로 다른 포인트 0.25와 0.75은 밸런스 등급에 대하여 그 다음 최고 파라미터이다. 반대로, 도 7b에 도시된 바와 같이 어라우절 등급의 거리는 대부분의 참가자에 대해 0.5 이후에 최소화된다. 파라미터
Figure pat00066
Figure pat00067
는 모션 구성 요소와 적응 구성 요소에 관한 어라우절 레벨을 결정한다. 그 결과, 본 발명의 시스템은 도 7c에 도시된 바와 같이 파라미터
Figure pat00068
에 대하여 대부분의 참가자에 대해 0.7과 0.8 사이에서 어라우절 등급에 대하여 최고의 성능을 가지는 것을 알 수 있다.
Figure pat00069
이 0.85보다 크고 0.4보다 작은 경우 범위를 벗어난 거리는 거의 동일하게 유지된다. 파라미터
Figure pat00070
Figure pat00071
는 밸런스 레벨을 결정한다.
Figure pat00072
이 더 큰 값을 가지게 되면 그 결과 밸런스는 접근-회피 행동과 연관된 감정을 표현할 수 없다. 도 7d에 도시된 바와 같이, 본 발명에 따른 시스템의 성능은 파라미터
Figure pat00073
이 변하는 경우 현저하게 변동하는 것을 알 수 있다. 본 발명에서 모든 참가자에 대해
Figure pat00074
Figure pat00075
을 0.75와 0.5로 설정하고,
Figure pat00076
은 실험에서 각 개인에 대해 최소 거리를 만들기 위하여 0.25, 0.5, 0.75에서 선택될 수 있다.
Figure pat00060
Wow
Figure pat00061
Determines the augment value A (k), while the balance value V (k)
Figure pat00062
Wow
Figure pat00063
Determined by the parameter. parameter
Figure pat00064
Is determined when the adaptive component l (k) becomes zero. This directly affects the sign of the balance value V (k) and the increase in the augment value A (K).
Figure pat00065
Has a smaller value, the adaptive component l (k) becomes zero and the sign of the balance value V (k) becomes positive at the preceding k. As shown in FIG. 7A, the best performance for the balance class is 0.5, and two different points 0.25 and 0.75 are the next best parameters for the balance class. In contrast, as shown in FIG. 7B, the distance of the augmentation rating is minimized after 0.5 for most participants. parameter
Figure pat00066
and
Figure pat00067
Determines the augmentation level for the motion component and the adaptive component. As a result, the system of the present invention has a parameter as shown in Fig. 7C.
Figure pat00068
We can see that we have the best performance for the augmentation grade between 0.7 and 0.8 for most participants.
Figure pat00069
If this is greater than 0.85 and less than 0.4, the out-of-range distance remains nearly the same. parameter
Figure pat00070
and
Figure pat00071
Determines the balance level.
Figure pat00072
With this larger value, the balance cannot express the emotions associated with approach-avoidance behavior. As shown in Fig. 7d, the performance of the system according to the invention is a parameter.
Figure pat00073
It can be seen that if this changes significantly. For all participants in the present invention
Figure pat00074
and
Figure pat00075
Is set to 0.75 and 0.5,
Figure pat00076
Can be chosen from 0.25, 0.5, 0.75 to make the minimum distance for each individual in the experiment.

분류를 위한 EEG 데이터 전처리와 설정EEG data preprocessing and setup for classification

전처리 과정에서, EEGlab 툴박스를 이용한 2Hz 컷오프 주파수를 가지는 하이패스 필터와 눈 아티팩트를 제거하기 위한 같은 블라인드 소스 분리 기술이 적용된다. 제한된 독립 구성요소 분석(cICA; constrained independent component analysis) 알고리즘은 모션 아티팩트를 제거함으로써, 신호를 정제하는데 적용된다. 상기 cICA 알고리즘은 ICA의 확장된 알고리즘이다.In the preprocessing process, the same blind source separation technique is used to remove eye artifacts and a highpass filter with a 2Hz cutoff frequency using the EEGlab toolbox. A constrained independent component analysis (cICA) algorithm is applied to refine the signal by eliminating motion artifacts. The cICA algorithm is an extended algorithm of ICA.

EEG 신호는 모션 아티팩트에 대해 취약하다. 본 발명은 몸 움직임에 의해 발생하는 EEG 신호에서 모션 아티팩트를 분리하고 제거하는 대신, 모션 아티팩트와 상관 관계가 높은 EEG 신호를 포기 또는 제거함으로써, EEG 신호의 질을 향상시킬 수 있다. 이를 위해, 본 발명은 가속도계 데이터 G()를 0부터 1까지의 범위로 변화시킴으로써, EEG 신호를 분리된 두 그룹으로 나눌 수 있다. 분리된 두 그룹 각각으로부터 특징들 예를 들어, 평균 파워, 최대 진폭, 진폭의 표준 편차, 진폭이 첨도(Kurtosis)와 진폭의 비대칭(Skewness) 등의 특징들을 추출한다. 이렇게 추출된 특징들은 깨끄한 EEG의 주요 특성들을 묘사히기 위하여 행렬화된다. PCA(principal component analysis)를 이용하여 2차원 공간에서 특징들을 표현한 후 2차원 공간에서 두 그룹 간의 바타차야 거리(Bhattacharyya distance)를 계산한다. 옵티컬 G()는 깨끗한 EEG와 오염된 EEG 같의 미분기로서, 두 그룹 간의 최대 거리에 의해 결정된다. 본 발명에서 생리학적 관계와 심리학적 관계를 분석하기 위하여, 가속도계 데이터 G()가 최적 값보다 적은 정서적 상황에서 EEG 스펙트럼 파워, 세 구성 요소 그리고 정서적 라벨을 사용한다.EEG signals are vulnerable to motion artifacts. The present invention can improve the quality of the EEG signal by abandoning or eliminating the EEG signal highly correlated with the motion artifact, instead of separating and eliminating the motion artifact from the EEG signal caused by body movement. To this end, the present invention can divide the EEG signal into two separate groups by changing the accelerometer data G () in the range from 0 to 1. From each of the two separate groups, features such as average power, maximum amplitude, standard deviation of amplitude, amplitude kurtosis and amplitude skewness are extracted. The extracted features are then matrixed to describe the main features of the EEG. After the features are expressed in two-dimensional space using principal component analysis (PCA), the Battacharyya distance between two groups in two-dimensional space is calculated. Optical G () is a differentiator such as clean and contaminated EEG, determined by the maximum distance between the two groups. To analyze the physiological and psychological relationships in the present invention, EEG spectral power, three components and emotional labels are used in emotional situations where accelerometer data G () is less than optimal.

EEG 신호를 이용한 정서 커브로부터 획득된 정서적 라벨의 효율성을 연구하기 위하여, 본 발명은 정서 커브를 밸런스-어라우절 공간에서 7개의 상태 예를 들어, 낮은 어라우절/부정적 밸런스(LANV; low-arousal/negative valence), 낮은 어라우절/중립 밸런스(LAUV; low-arousal/neutral valence), 낮은 어라우절/긍정적 밸런스(LAPV; low-arousal/positive valence), 중간 어라우절/부정적 밸런스(MANV; mid-arousal/negative valence), 중간 어라우절/긍정적 밸런스(MAPV; mid-arousal/positive valence), 높은 어라우절/부정적 밸런스(HANV; high arousal/negative valence) 및 높은 어라우절/긍정적 밸런스(HAPV; high-arousal/positive valence)로 분할한다. 여기서, 본 발명은 실제 실험에서 특성화되지 않기 때문에 MANV와 HAUV는 제외할 수 있다.In order to study the efficiency of emotional labels obtained from emotional curves using EEG signals, the present invention is directed to the emotional curves in seven states, e.g., low-arousal / negative valence), low-arousal / neutral valence (LAUV), low-arousal / positive valence (LAPV), mid-arousal / negative valence, mid-arousal / positive valence (MAPV), high arousal / negative valence (HANV) and high-arousal balance (HAPV) / positive valence). Here, MANV and HAUV can be excluded because the present invention is not characterized in the actual experiment.

감정 인식에서 EEG 기반 특징들을 추출하는 몇몇 연구들은 시간, 시간 주파수, 주파수의 세 도메인으로 카테고리화한다. 신호가 심리 기간 동안 고정되어 있다 가정하면, 세 도메인들 중 주파수 도메인 특징이 가장 많이 사용된다. 따라서, 본 발명은 상이한 주파수 대역에서 주파수 도메인 특징들 예를 들어, 고차 스펙트럼(HOS; higher order spectra), 파워 스펙트럼 밀도(PSD; power spectral density)를 사용한다.Some studies that extract EEG-based features from emotion recognition categorize into three domains: time, time frequency, and frequency. Assuming that the signal is fixed during the hearing period, the frequency domain feature is the most used of the three domains. Thus, the present invention uses frequency domain features in different frequency bands, for example, higher order spectra (HOS), power spectral density (PSD).

HOS 특징은 신호의 고차 모멘트 또는 누적(cumulants)의 스펙트럼 표현으로 인간 감정을 분석하는데 사용된다. 특히 본 발명은 EEG 신호를 이용한 정서 커브로부터 획득된 정서적 라벨의 효능을 연구하기 위하여, 네 개의 주파수 대역 예를 들어, 쎄타(4~7Hz), 알파(8~13Hz), 베타(14~29Hz), 감마(30~45Hz)의 주파수 대역에서 바이코히어런스

Figure pat00077
의 평균을 사용한다. 바이코히어런스는 신호 x(t)의 정규화된 바이스펙트럼
Figure pat00078
일 수 있다. 신호들은 겹치지 않는 세그먼트들로 분할되고, 각 세그먼트 내에서 데이터는 해닝(Hanning) 윈도우 및 푸리에 변환된다. 여기서, 바이스펙트럼은 아래 <수학식 13>과 같이 정의될 수 있다.HOS features are used to analyze human emotions as spectral representations of higher orders or cumulants of the signal. In particular, the present invention, in order to study the efficacy of the emotional label obtained from the emotional curve using the EEG signal, four frequency bands, for example, theta (4 ~ 7Hz), alpha (8 ~ 13Hz), beta (14 ~ 29Hz) , Bicoherence in the gamma (30-45 Hz) frequency band
Figure pat00077
Use the average of Bicoherence is the normalized bispectrum of the signal x (t)
Figure pat00078
Can be. The signals are divided into non-overlapping segments, within which data the Hanning window and the Fourier transform. Here, the bispectrum may be defined as in Equation 13 below.

[수학식 13][Equation 13]

Figure pat00079
Figure pat00079

여기서,

Figure pat00080
는 신호 x(t)의 푸리에 변환을 의미하고,
Figure pat00081
Figure pat00082
의 복소 공액(complex conjugate)을 의미할 수 있다. 바이스펙트럼은 신호의 다른 구성 요소의 위상 정보를 보전한다. 두 주파수 구성 요소
Figure pat00083
Figure pat00084
Figure pat00085
의 주파수에서 세번째 구성 요소가 존재하는 경우 위상으로 결합된다. 바이코히어런스
Figure pat00086
는 아래 <수학식 14>와 같이 정의될 수 있다.here,
Figure pat00080
Means the Fourier transform of the signal x (t),
Figure pat00081
Is
Figure pat00082
It may mean a complex conjugate of. Bispectrum preserves the phase information of the other components of the signal. Two frequency components
Figure pat00083
and
Figure pat00084
Is
Figure pat00085
If there is a third component at the frequency of the phase is combined. Bicoherence
Figure pat00086
May be defined as in Equation 14 below.

[수학식 14][Equation 14]

Figure pat00087
Figure pat00087

여기서,

Figure pat00088
Figure pat00089
에서 파워 스펙트럼을 의미할 수 있다. 바이코히어런스는 두 주파수 구성 요소 간의 위상 커플링 범위를 정량화한다. 결과 주파수 분해능은
Figure pat00090
Figure pat00091
축 모두에서 1Hz이다. 네 개의 주파수 대역에서 바이코히어런스
Figure pat00092
의 평균 크기는 아래 <수학식 15>와 같이 계산될 수 있다.here,
Figure pat00088
Is
Figure pat00089
Can mean the power spectrum. Bicoherence quantifies the range of phase coupling between two frequency components. The resulting frequency resolution
Figure pat00090
and
Figure pat00091
1 Hz on both axes. Bicoherence in Four Frequency Bands
Figure pat00092
The average size of can be calculated as shown in Equation 15 below.

[수학식 15][Equation 15]

Figure pat00093
Figure pat00093

여기서, q1과 q2는 각각 주파수 대역을 의미하고,

Figure pat00094
는 두 주파수 대역 q1과 q2에서 주파수 구성 요소들을 의미할 수 있다. PSD의 파워 특징은 Welchs 방법을 이용하여 추정되고 네 개의 주파수 대역으로 나누어진다.
Figure pat00095
와 네 개 주파수 대역의 평균 파워는 EEG 신호를 이용한 정서 커브로부터 획득된 정석적 라벨의 상관을 분석하는데 사용된다.Here, q1 and q2 each mean a frequency band,
Figure pat00094
May mean frequency components in two frequency bands q1 and q2. The power characteristic of the PSD is estimated using the Welchs method and divided into four frequency bands.
Figure pat00095
The average power of the four and four frequency bands is used to analyze the correlation of the static label obtained from the emotional curve using the EEG signal.

도 6은 어라우절 커브와 밸런스 커브를 결합한 정서 커브에 대한 일 예시도를 나타낸 것으로, 도 6에 도시된 각 커브는 참가자의 일상에서 정서적 상황의 감정 표현을 표현하며, 포물선 형상의 평균 커브는 중립 밸런스와 하이 레벨 어라우절에 의해 특성화된 몇몇 감정들을 제외하고는 V-A 감정 공간을 커버한다. 여기서, 점선 라인은 참가자들 개인들에 대한 정서 커브를 나타내고, 실선은 모든 참가자들의 평균 커브를 나타낸다.FIG. 6 shows an example of an emotional curve combining an augmented curve and a balance curve. Each curve shown in FIG. 6 represents an emotional expression of an emotional situation in a participant's daily life, and an average curve of a parabolic shape is neutral. It covers the VA emotion space with the exception of some emotions characterized by balance and high level augmentation. Here, the dashed line represents the emotional curve for the participants, and the solid line represents the average curve of all the participants.

생리학적 특수성: 7 개의 정서적 상태의 네 개의 주파수 대역에서 바이코히어런스 크기와 PSD에 대한 ANOVA 테스트 결과는 베타 주파수 대역에서는 0.0679의 p 값을 갖고 나머지 주파수 대역에서는 0.05보다 낮은 p 값을 갖는다. p값은 모든 주파수 대역에서의 바이코히어런스 크기에 의한 것이고, 쎄타, 알파, 감마 주파수에서의 PSD는 세 주파수 대역이 7가지의 감정적 상태와 크게 다르게 나타난다. 이러한 결과는 PSD와 바이코히어런스가 감정들을 분류하는 생리학적 특징들로 유용하게 사용될 수 있다는 것을 의미한다. Physiological specificity : The ANOVA test results for bicoherence magnitude and PSD in four frequency bands of seven emotional states have a p value of 0.0679 in the beta frequency band and a p value lower than 0.05 in the remaining frequency bands. The p-value is due to the magnitude of the bicoherence in all frequency bands, while the PSDs at theta, alpha, and gamma frequencies differ significantly from the seven emotional states in the three frequency bands. These results indicate that PSD and bicoherence can be usefully used as physiological features to classify emotions.

ANOVA의 결과에 기초하여, 본 발명은 EEG 기반 감정 인식에서 신뢰할 수 있는 정서적 라벨 역할을 할 수 있도록 정서 커브의 효율성을 잘 평가할 수 있는 분류 프로세스를 설계할 수 있다. 특히, 본 바명은 네 개의 주파수 대역에서 PSD와 바이코히어러슨 특징들을 추출하고, 특징 선택을 위한 상호 정보를 사용하며, 인식에서 가장 높은 정확성을 생성하는 5차 다항식 커널을 가지는 SVM(support vector machine) 알고리즘을 이용하여 선택된 특징들을 7가지의 정서적 상태들로 분류한다. 서로 다른 감정 상태들을 구별하기 위한 신뢰할 수 있는 감정 라벨로서의 정서 커브의 효율성은 주제별 분류 성능에 의해 평가될 수 있다.Based on the results of ANOVA, the present invention can design a classification process that can better assess the effectiveness of an emotional curve to serve as a reliable emotional label in EEG-based emotion recognition. In particular, this name extracts PSD and Vicohererson features from four frequency bands, uses mutual information for feature selection, and has a 5th order polynomial kernel with a 5th order polynomial kernel that produces the highest accuracy in recognition. Classify the selected features into seven emotional states. The effectiveness of an emotional curve as a reliable emotional label to distinguish different emotional states can be assessed by thematic classification performance.

도 7은 모든 참가자들에 대한 5배 교차 유효성 스킴을 통한 분류 절차의 결과에 대한 일 예시도를 나타낸 것으로, 7가지의 정서적 상태에 대한 모든 개별 결과의 평균 정확도를 나타낸 것이다.FIG. 7 shows an exemplary diagram of the results of the classification procedure with a 5-fold cross validity scheme for all participants, showing the average accuracy of all individual results for seven emotional states.

도 7에 도시된 바와 같이, 7가지의 정서적 상태를 인식하기 위한 정확도는 66.65%이며, 이는 정서적 라벨에 의해 그룹화된 EEG 신호가 뚜렷한 패턴을 가진다는 것을 의미한다. LAUV상태는 3.7의 가장 낮은 표준 편차를 가지고 가장 높은 정확도를 가지고, LAPV 상태와 LANV 상태는 다른 5가지의 상태보다 상대적으로 더 높은 표준 편차인 7.09와 7.17을 가진다. 이는 참가자들이 LAPV와 LANV 상태에서 서로 다른 활성화 패턴을 가지는 반면, LAUV 상태에서 차분하고 편안한 느낌과 같은 뇌 활동의 유사한 패턴을 가지는 것을 의미한다.As shown in FIG. 7, the accuracy for recognizing seven emotional states is 66.65%, which means that the EEG signals grouped by the emotional labels have distinct patterns. The LAUV state has the lowest standard deviation of 3.7 and the highest accuracy, while the LAPV state and the LANV state have relatively higher standard deviations of 7.09 and 7.17 than the other five states. This means that participants have different activation patterns in the LAPV and LANV states, while having similar patterns of brain activity, such as feeling calm and relaxed in the LAUV state.

생리학적 특성: 본 발명은 심리학적 측정과 생리학적 증거 사이의 갭을 줄이기 위하여 4개의 주파수 대역에서의 EEG 스펙트럼 파워와 정서적 라벨 간의 통계적인 관계를 조사한다. 아래 표 1을 통해, 알파 주수파 성분은 두 등급에 대해 더 높은 상관 관계를 가지는 것을 알 수 있다. Physiological Characteristics : The present invention examines the statistical relationship between EEG spectral power and emotional labels in four frequency bands to reduce the gap between psychological measurements and physiological evidence. From Table 1 below, it can be seen that the alpha frequency components have a higher correlation for the two classes.

Figure pat00096
Figure pat00096

여기서, F3과 F4는 EEG 신호를 감지하기 위한 두 전극을 의미할 수 있다.Here, F3 and F4 may refer to two electrodes for detecting the EEG signal.

본 발명의 정서적 데이터셋은 참자자들의 손 움직임을 포함하고 있으며, 운동 피질 영역에서 움직임에 의해 활성화되는 Mu 리듬(8~11Hz)는 알파 주파수 성분과 강한 관련성이 있기 때문에 움직임과 관련된 운동 피질 활성화는 밸런스 등급 또는 어라우절 등급과 상관 관계가 있다.The emotional dataset of the present invention includes hand movements of the participants, and since the Mu rhythm (8-11 Hz) activated by the movement in the motor cortical region is strongly related to the alpha frequency component, the activation of the motor cortex associated with movement is Correlated with the balance grade or the augmentation grade.

그러나, 이것은 손 움직임의 심리학적 측정이 생물학적 변화와 관련이 없다는 것을 의미하지는 않는다. 알파 주파수 대역이 손 움직임에 의해 오염되었는지 심리적 측정과 관련 있는지 확인하기 위해, 본 발명은 네 개의 주차수 대역의 파워와 세 개의 구성 요소 간의 상관 계수를 계산한다. 아래 표 2는 생리학적 뇌 활동과 정서적 상태 사이의 각 구성 요소에 대한 상관 관계를 보여준다.However, this does not mean that psychological measurements of hand movements are not associated with biological changes. To determine if the alpha frequency band is contaminated by hand movements and correlates with psychological measurements, the present invention calculates the power of four parking bands and the correlation coefficient between the three components. Table 2 below shows the correlation for each component between physiological brain activity and emotional state.

Figure pat00097
Figure pat00097

상술한 바와 같이 모션 구성 요소와 동기 구성 요소는 움직임에 의해 영향을 받지만, 동기 구성 요소만이 심리학에서 사용자의 접근 행동을 반영하고 밸런스 등급에서 이를 정량화한다. 모션 구성 요소 및 동기 구성 요소와 연관된 알파 주파수 대역에서의 계수 값과 함께, 알파 주파수 대역에서의 생리학적 변화와 움직임의 심리학적 측정 간의 연관성은 운동 피질 활성화의 결과일 수 없다. 이는 Mu 리듬이 활성화와 관련 있고 모션 구성 요소가 아니라 동기 구성 요소에만 긍정적으로 관련이 있기 때문이다.As described above, the motion component and the sync component are affected by the movement, but only the sync component reflects the user's approaching behavior in psychology and quantifies it in the balance class. The association between physiological changes in the alpha frequency band and psychological measurements of motion with the coefficient values in the alpha frequency band associated with the motion component and the synchronous component cannot be the result of motor cortical activation. This is because Mu rhythm is related to activation and positively related only to synchronous components, not motion components.

게다가, 본 발명은 정서적 라벨이 심리학적 현상에 기인한 생리학적 특징을 포함하는지를 명확하게 한다. EEG 스펙트럼 파워와 세 구성 요소간의 관계를 조사하기 위하여, 본 발명은 Granger 인과성 테스트를 사용한다. 여기서, Granger 인과성 테스트는 두 시리즈 간의 정보의 흐름을 분석할 수 있다. x1에서의 패턴이 어떤 시간 기간 내에 x2에서 반복된다면 x2 Granger가 x1을 야기한다고 할 수 있다. 이 때, 본 발명은 벡터 자기 회귀 시계열(vector autoregressive time series)에 의해 적합화된 다변수 Granger 인과성 테스트를 사용할 수 있다.In addition, the present invention makes clear that emotional labels include physiological features attributable to psychological phenomena. To investigate the relationship between EEG spectral power and the three components, the present invention uses a Granger causality test. Here, the Granger causal test can analyze the flow of information between two series. If the pattern at x1 repeats at x2 within a certain time period, it can be said that the x2 Granger causes x1. At this time, the present invention may use a multivariate Granger causality test fitted by a vector autoregressive time series.

본 발명은 모든 참가자에 대하여 세 가지 구성 요소로부터 네 개의 주파수 대역에서 EEG 스펙트럼 파워로 Granger 인과성을 계산한다. 인과성 테스트의 평균 0.29, 0.36 및 0.08은 각각 세 가지 구성 요소의 영향 하에 있는 EEG 스펙트럼 파워에 대하여 양의 값을 갖는 것을 알 수 있다. 알파 주파수 대역과 쎄타 주파수 대역은 상대적으로 높은 인과성을 가지며, 다른 구성 요소와 비교해서 모든 구성 요소로부터 영향을 받는다. 반대로, 베타 주파수 대역은 세 가지 구성 요소의 양항 하에서 낮은 인과성을 가진다.The present invention calculates Granger causality with EEG spectral power in four frequency bands from three components for all participants. It can be seen that the average of 0.29, 0.36 and 0.08 of the causal test have positive values for the EEG spectral power, which are under the influence of three components, respectively. The alpha and theta frequency bands have a relatively high causality and are affected by all components compared to other components. In contrast, the beta frequency band has low causality under both terms of the three components.

다른 정서적 라벨에서 뇌 신호의 특성은 상관 관계와 인과성 테스트에 의해 분석되며, EEG 기반 통계 분석을 통해 생리학적 응답은 연속적인 정서적 라벨과 상관 관계가 있다는 것을 알 수 있다.In other emotional labels, the characteristics of brain signals are analyzed by correlation and causal tests, and EEG-based statistical analysis shows that physiological responses correlate with continuous emotional labels.

이와 같이, 본 발명에 따른 프레임워크는 정서적인 상황 표현과 모델링을 수행하며, 다음과 같은 기여도를 제공할 수 있다.As such, the framework according to the present invention performs emotional contextual expression and modeling, and may provide the following contributions.

(1) 정서적 상황 표현 : 본 발명은 정서 커브를 제시한다. 정서 커브는 시간이 지남에 따라 밸런스와 어라우절 감정 공간에 대한 누적된 포인트 집합으로, 실제 환경에서의 감정적 역동성을 나타낸다.(1) Emotional Situation Representation: The present invention presents an emotional curve. Emotion curves are cumulative sets of points over the balance and augmented emotional space over time, representing emotional dynamics in the real environment.

(2) 정서적 상황 모델링 : 본 발명은 이미지 시퀀스가 *?*주어지면, 예상된 느낌을 감지하고 상황의 변화를 추적한다. 본 발명은 상황의 변화를 모델링하기 위해 동기, 모션 및 적응이라는 세 가지 구성 요소를 제시하는데, 구성 요소들은 상황에 대한 감정적인 반응을 반영하기 위해 추출된 낮은 레벨의 시각적 특징으로 계산될 수 있다. 특히, 동기 구성 요소는 접근 회피 경향을 기초로 하고, 상황에서의 정서적 내용에 응답하여 발생하는 감정적인 행동으로부터의 행동 경향의 *?*느낌을 정량화한다.(2) Emotional Situation Modeling: The present invention senses the expected feeling and tracks changes in the situation when an image sequence is given. The present invention presents three components, modeling motivation, motion and adaptation, to model changes in the situation, which can be computed with low level visual features extracted to reflect the emotional response to the situation. In particular, the motivational component is based on the tendency to avoid access and quantifies the feeling of behavioral trends from emotional behaviors that occur in response to emotional content in the context.

(3) 정서적 라벨의 효과를 검증하기 위한 생리학적 실험 : 본 발명은 실제 시나리오에서 여러 날 동안의 장기간의 일련의 생활 기록을 이용하여 평가하며, 서로 다른 감정 라벨에 대한 뇌 신호의 특성을 조사하고 분석한다. 뇌파 측정(Electroencephalography, EEG) 기반의 통계 분석은 생리적인 반응이 지속적으로 정서적 라벨과 관련이 있음을 보여준다.(3) Physiological experiments to verify the effect of emotional labeling: The present invention evaluates using a series of long-term life records for several days in a real-world scenario, and investigates the characteristics of brain signals for different emotional labels. Analyze Statistical analysis based on electroencephalography (EEG) shows that physiological responses are consistently associated with emotional labels.

이러한 본 발명에 따른 프레임워크는 감정 추정 시스템으로 구현될 수 있다. 예컨대, 본 발명의 일 실시예에 따른 감정 추정 시스템은 계산부, 모델링부, 생성부 및 추정부를 포함할 수 있다. 물론, 여기서의 구성 수단들은 상황에 따라 달라질 수 있다.Such a framework according to the present invention may be implemented as an emotion estimation system. For example, the emotion estimation system according to an embodiment of the present invention may include a calculator, a modeler, a generator, and an estimator. Of course, the configuration means herein may vary depending on the situation.

계산부는 이미지 시퀀스를 이용한 사용자의 정서적 상황(affecttive situation)의 학습을 통해 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산한다.The calculator calculates a motion component, a motivation component, and an adaptation component through learning of an emotional situation of the user using the image sequence.

이 때, 계산부는 이미지 시퀀스에 대하여, 옵티컬 플로우(optical flow) 추정을 사용하여 인접한 프레임 사이의 정서적 대상의 모션을 특성화하고 정량화함으로써, 상기 모션 구성 요소를 계산할 수 있다.In this case, the calculation unit may calculate the motion component by characterizing and quantifying a motion of an emotional object between adjacent frames using optical flow estimation for the image sequence.

나아가, 계산부는 이미지 시퀀스의 각 이미지 프레임에서 추정된 모션 활동성과 상기 사용자의 몸에 부착된 가속도계에 의해 수집된 가속도계 데이터를 이용하여 모션 잡음을 제거함으로써, 모션 구성 요소를 계산할 수 있다.In addition, the calculator may calculate a motion component by removing motion noise using motion activity estimated in each image frame of the image sequence and accelerometer data collected by an accelerometer attached to the user's body.

더 나아가, 계산부는 이미지 시퀀스의 이미지 프레임에서 사용자의 관심 대상에 대응하는 돌출 영역을 획득하고, 상기 획득된 돌출 영역에 기초하여 상기 동기 구성 요소를 계산할 수 있다.Furthermore, the calculator may acquire a protrusion area corresponding to the user's interest in the image frame of the image sequence, and calculate the synchronization component based on the acquired protrusion area.

더 나아가, 계산부는 이미지 시퀀스의 이미지 프레임에서 상기 관심 대상에 대한 주변 일정 영역의 옵티컬 플로우를 이용한 발산 및 회전을 계산함으로써, 상기 동기 구성 요소를 계산할 수 있다.Furthermore, the calculator may calculate the synchronization component by calculating the divergence and rotation using the optical flow of a certain area around the target of interest in the image frame of the image sequence.

더 나아가, 계산부는 시간에 따라 변하는 상기 이미지 시퀀스의 현재 프레임까지 누적된 정서적 상황 길이에 기초하여 상기 적응 구성 요소를 계산할 수 있다.Furthermore, the calculator may calculate the adaptive component based on the emotional situation length accumulated up to the current frame of the image sequence that changes over time.

모델링부는 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링한다.The modeling unit models a balance model and an arousal model based on the calculated motion component, synchronization component, and adaptive component.

이 때, 모델링부는 계산된 모션 구성 요소와 적응 구성 요소를 이용하여 상기 어라우절 모델을 모델링할 수 있으며, 어라우절 모델과 동기 구성 요소를 이용하여 밸런스 모델을 모델링할 수 있다.In this case, the modeling unit may model the Aargument model using the calculated motion component and the adaptive component, and may model the balance model using the Aargument model and the synchronization component.

생성부는 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성한다.The generation unit generates an emotional curve based on the emotional situation represented on the emotional space by the modeled balance model and the augmentation model.

추정부는 정서 커브를 이용하여 사용자의 감정 값을 추정한다.The estimator estimates the emotion value of the user using the emotion curve.

또한, 본 발명의 다른 일 실시예에 따른 시스템은 이미지 시퀀스를 이용한 사용자의 행동에 기반하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하고, 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성함으로써, 생성된 정서 커브를 이용하여 사용자의 감정 값을 추정할 수도 있다.In addition, the system according to another embodiment of the present invention models the balance model and the arousal model based on the user's behavior using the image sequence, and the emotion is modeled by the modeled balance model and the By generating an emotional curve based on the emotional situation represented in space, the generated emotional curve may be used to estimate the user's emotion value.

여기서, 시스템은 이미지 시퀀스로부터 상기 사용자의 관심 대상을 감지하고, 감지된 관심 대상과의 상호 작용을 기반으로 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링할 수 있다.Here, the system may detect the user's interest from the image sequence, and model a balance model and an arousal model based on the interaction with the detected interest.

비록, 본 발명의 시스템에서 그 설명이 생략되었더라도, 본 발명에 따른 시스템은 상기 도 3 내지 도 7에서 설명한 모든 내용을 포함할 수 있다는 것은 이 기술 분야에 종사하는 당업자에게 있어서 자명하다.Although the description is omitted in the system of the present invention, it will be apparent to those skilled in the art that the system according to the present invention may include all the contents described above with reference to FIGS. 3 to 7.

이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 시스템, 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or apparatus described above may be implemented with hardware components, software components, and / or combinations of hardware components and software components. For example, the systems, devices, and components described in the embodiments may include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable arrays (FPAs). ), A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.

실시예들에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiments may be embodied in the form of program instructions that may be executed by various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components Or even if replaced or substituted by equivalents, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.

Claims (22)

이미지 시퀀스를 이용한 사용자의 정서적 상황(affecttive situation)의 학습을 통해 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하는 단계;
상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 단계; 및
상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 단계
를 포함하는 감정 추정 방법.
Calculating a motion component, a motivation component, and an adaptation component through learning of an emotional situation of the user using the image sequence;
Modeling a balance model and an arousal model based on the calculated motion component, synchronization component, and adaptive component; And
Generating an emotional curve based on the emotional situation represented on the emotional space by the modeled balance model and the ʻauraud 'model
Emotion estimation method comprising a.
제1항에 있어서,
상기 계산하는 단계는
상기 이미지 시퀀스에 대하여, 옵티컬 플로우(optical flow) 추정을 사용하여 인접한 프레임 사이의 정서적 대상의 모션을 특성화하고 정량화함으로써, 상기 모션 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 방법.
The method of claim 1,
The calculating step
For the image sequence, calculating the motion component by characterizing and quantifying the motion of an emotional object between adjacent frames using optical flow estimation.
제1항에 있어서,
상기 계산하는 단계는
상기 이미지 시퀀스의 각 이미지 프레임에서 추정된 모션 활동성과 상기 사용자의 몸에 부착된 가속도계에 의해 수집된 가속도계 데이터를 이용하여 모션 잡음을 제거함으로써, 상기 모션 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 방법.
The method of claim 1,
The calculating step
The motion component is calculated by removing motion noise using motion activity estimated in each image frame of the image sequence and accelerometer data collected by an accelerometer attached to the user's body. .
제1항에 있어서,
상기 계산하는 단계는
상기 이미지 시퀀스의 이미지 프레임에서 사용자의 관심 대상에 대응하는 돌출 영역을 획득하고, 상기 획득된 돌출 영역에 기초하여 상기 동기 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 방법.
The method of claim 1,
The calculating step
And a protruding region corresponding to the user's interest in the image frame of the image sequence, and calculating the synchronization component based on the acquired protruding region.
제4항에 있어서,
상기 계산하는 단계는
상기 이미지 시퀀스의 이미지 프레임에서 상기 관심 대상에 대한 주변 일정 영역의 옵티컬 플로우를 이용한 발산 및 회전을 계산함으로써, 상기 동기 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 방법.
The method of claim 4, wherein
The calculating step
And calculating the synchronization component by calculating divergence and rotation using an optical flow of a predetermined region around the target of interest in the image frame of the image sequence.
제1항에 있어서,
상기 계산하는 단계는
시간에 따라 변하는 상기 이미지 시퀀스의 현재 프레임까지 누적된 정서적 상황 길이에 기초하여 상기 적응 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 방법.
The method of claim 1,
The calculating step
And calculating the adaptive component based on the emotional context length accumulated up to the current frame of the image sequence that changes over time.
제1항에 있어서,
상기 모델링하는 단계는
상기 계산된 모션 구성 요소와 적응 구성 요소를 이용하여 상기 어라우절 모델을 모델링하는 것을 특징으로 하는 감정 추정 방법.
The method of claim 1,
The modeling step
Emotion estimation method, characterized in that for modeling the Augment model using the calculated motion component and adaptive component.
제1항에 있어서,
상기 모델링하는 단계는
상기 어라우절 모델과 상기 동기 구성 요소를 이용하여 상기 밸런스 모델을 모델링하는 것을 특징으로 하는 감정 추정 방법.
The method of claim 1,
The modeling step
Emotion estimation method characterized in that for modeling the balance model by using the augmentation model and the synchronization component.
이미지 시퀀스를 이용한 사용자의 행동에 기반하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 단계;
상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 단계; 및
상기 정서 커브를 이용하여 상기 사용자의 감정 값을 추정하는 단계
를 포함하는 감정 추정 방법.
Modeling a balance model and an arousal model based on the user's behavior using the image sequence;
Generating an emotional curve based on the emotional situation represented on the emotional space by the modeled balance model and the ʻauraud 'model; And
Estimating the emotion value of the user using the emotional curve
Emotion estimation method comprising a.
제9항에 있어서,
상기 모델링하는 단계는
상기 사용자의 행동에 기반하여 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하는 단계; 및
상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 단계
를 포함하는 것을 특징으로 하는 감정 추정 방법.
The method of claim 9,
The modeling step
Calculating a motion component, a motivation component and an adaptation component based on the user's behavior; And
Modeling a balance model and an arousal model based on the calculated motion component, synchronization component, and adaptive component
Emotion estimation method comprising a.
제9항에 있어서,
상기 모델링하는 단계는
상기 이미지 시퀀스로부터 상기 사용자의 관심 대상을 감지하고, 상기 감지된 관심 대상과의 상호 작용을 기반으로 상기 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 것을 특징으로 하는 감정 추정 방법.
The method of claim 9,
The modeling step
And detecting the interest of the user from the image sequence and modeling the balance model and the arousal model based on the interaction with the detected interest.
이미지 시퀀스를 이용한 사용자의 정서적 상황(affecttive situation)의 학습을 통해 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하는 계산부;
상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 모델링부; 및
상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 생성부
를 포함하는 감정 추정 시스템.
A calculation unit configured to calculate a motion component, a motivation component, and an adaptation component through learning of an emotional situation of the user using an image sequence;
A modeling unit for modeling a balance model and an arousal model based on the calculated motion component, synchronization component, and adaptive component; And
A generation unit for generating an emotional curve based on the emotional situation expressed in the emotion space by the modeled balance model and the AU clause model
Emotion estimation system comprising a.
제12항에 있어서,
상기 계산부는
상기 이미지 시퀀스에 대하여, 옵티컬 플로우(optical flow) 추정을 사용하여 인접한 프레임 사이의 정서적 대상의 모션을 특성화하고 정량화함으로써, 상기 모션 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 12,
The calculation unit
For said image sequence, calculating said motion component by characterizing and quantifying the motion of an emotional object between adjacent frames using optical flow estimation.
제12항에 있어서,
상기 계산부는
상기 이미지 시퀀스의 각 이미지 프레임에서 추정된 모션 활동성과 상기 사용자의 몸에 부착된 가속도계에 의해 수집된 가속도계 데이터를 이용하여 모션 잡음을 제거함으로써, 상기 모션 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 12,
The calculation unit
An emotion estimation system, wherein the motion component is calculated by removing motion noise using motion estimation estimated at each image frame of the image sequence and accelerometer data collected by an accelerometer attached to the user's body .
제12항에 있어서,
상기 계산부는
상기 이미지 시퀀스의 이미지 프레임에서 사용자의 관심 대상에 대응하는 돌출 영역을 획득하고, 상기 획득된 돌출 영역에 기초하여 상기 동기 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 12,
The calculation unit
And a protruding region corresponding to the user's interest in the image frame of the image sequence, and calculating the synchronization component based on the acquired protruding region.
제15항에 있어서,
상기 계산부는
상기 이미지 시퀀스의 이미지 프레임에서 상기 관심 대상에 대한 주변 일정 영역의 옵티컬 플로우를 이용한 발산 및 회전을 계산함으로써, 상기 동기 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 15,
The calculation unit
And calculating the synchronization component by calculating divergence and rotation using an optical flow of a predetermined region around the target of interest in the image frame of the image sequence.
제12항에 있어서,
상기 계산부는
시간에 따라 변하는 상기 이미지 시퀀스의 현재 프레임까지 누적된 정서적 상황 길이에 기초하여 상기 적응 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 12,
The calculation unit
Wherein the adaptive component is calculated based on the emotional context length accumulated up to the current frame of the image sequence that changes over time.
제12항에 있어서,
상기 모델링부는
상기 계산된 모션 구성 요소와 적응 구성 요소를 이용하여 상기 어라우절 모델을 모델링하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 12,
The modeling unit
Emotion estimating system, characterized in that for modeling the Auraugraph model using the calculated motion component and adaptive component.
제12항에 있어서,
상기 모델링부는
상기 어라우절 모델과 상기 동기 구성 요소를 이용하여 상기 밸런스 모델을 모델링하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 12,
The modeling unit
Emotion estimating system, characterized in that for modeling the balance model by using the augmentation model and the synchronization component.
이미지 시퀀스를 이용한 사용자의 행동에 기반하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 모델링부;
상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 생성부; 및
상기 정서 커브를 이용하여 상기 사용자의 감정 값을 추정하는 추정부
를 포함하는 감정 추정 시스템.
A modeling unit for modeling a balance model and an arousal model based on a user's behavior using an image sequence;
A generator configured to generate an emotional curve based on the emotional situation represented in the emotion space by the modeled balance model and the ʻauraud 'model; And
An estimator estimating an emotion value of the user using the emotional curve
Emotion estimation system comprising a.
제20항에 있어서,
상기 모델링부는
상기 사용자의 행동에 기반하여 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하고, 상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 20,
The modeling unit
Calculate a motion component, a motivation component and an adaptation component based on the user's behavior, and based on the calculated motion component, the synchronization component and the adaptive component And modeling a balance model and an arousal model.
제20항에 있어서,
상기 모델링부는
상기 이미지 시퀀스로부터 상기 사용자의 관심 대상을 감지하고, 상기 감지된 관심 대상과의 상호 작용을 기반으로 상기 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 20,
The modeling unit
And a balance model and an arousal model based on interactions with the detected targets of interest.
KR1020180049845A 2018-04-30 2018-04-30 Method for estimating emotion based on psychological activity and biosignal of user and system therefor KR102142183B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180049845A KR102142183B1 (en) 2018-04-30 2018-04-30 Method for estimating emotion based on psychological activity and biosignal of user and system therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180049845A KR102142183B1 (en) 2018-04-30 2018-04-30 Method for estimating emotion based on psychological activity and biosignal of user and system therefor

Publications (2)

Publication Number Publication Date
KR20190125707A true KR20190125707A (en) 2019-11-07
KR102142183B1 KR102142183B1 (en) 2020-08-06

Family

ID=68578896

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180049845A KR102142183B1 (en) 2018-04-30 2018-04-30 Method for estimating emotion based on psychological activity and biosignal of user and system therefor

Country Status (1)

Country Link
KR (1) KR102142183B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597967A (en) * 2021-01-05 2021-04-02 沈阳工业大学 Emotion recognition method and device for immersive virtual environment and multi-modal physiological signals
KR20210135378A (en) * 2020-05-04 2021-11-15 한국과학기술원 Method for understanding emotion dynamics in daily life and system therefore

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090055426A (en) * 2007-11-28 2009-06-02 중앙대학교 산학협력단 Emotion recognition mothod and system based on feature fusion
KR101738278B1 (en) * 2015-12-31 2017-05-22 성균관대학교산학협력단 Emotion recognition method based on image
US20170238860A1 (en) * 2010-06-07 2017-08-24 Affectiva, Inc. Mental state mood analysis using heart rate collection based on video imagery
KR20170109554A (en) * 2014-12-30 2017-09-29 닛토덴코 가부시키가이샤 A method and apparatus for deriving a mental state of a subject
KR101795723B1 (en) * 2017-02-08 2017-12-01 상명대학교산학협력단 Recognition of basic emotion in facial expression using implicit synchronization of facial micro-movements

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090055426A (en) * 2007-11-28 2009-06-02 중앙대학교 산학협력단 Emotion recognition mothod and system based on feature fusion
US20170238860A1 (en) * 2010-06-07 2017-08-24 Affectiva, Inc. Mental state mood analysis using heart rate collection based on video imagery
KR20170109554A (en) * 2014-12-30 2017-09-29 닛토덴코 가부시키가이샤 A method and apparatus for deriving a mental state of a subject
KR101738278B1 (en) * 2015-12-31 2017-05-22 성균관대학교산학협력단 Emotion recognition method based on image
KR101795723B1 (en) * 2017-02-08 2017-12-01 상명대학교산학협력단 Recognition of basic emotion in facial expression using implicit synchronization of facial micro-movements

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210135378A (en) * 2020-05-04 2021-11-15 한국과학기술원 Method for understanding emotion dynamics in daily life and system therefore
CN112597967A (en) * 2021-01-05 2021-04-02 沈阳工业大学 Emotion recognition method and device for immersive virtual environment and multi-modal physiological signals

Also Published As

Publication number Publication date
KR102142183B1 (en) 2020-08-06

Similar Documents

Publication Publication Date Title
Ko et al. Emotion recognition using EEG signals with relative power values and Bayesian network
Giakoumis et al. Using activity-related behavioural features towards more effective automatic stress detection
Pediaditis et al. Vision-based motion detection, analysis and recognition of epileptic seizures—a systematic review
Liu et al. Reinforcement online learning for emotion prediction by using physiological signals
KR20190128978A (en) Method for estimating human emotions using deep psychological affect network and system therefor
EP3364868B1 (en) Generating natural language representations of mental content from functional brain images
Hsu Fuzzy Hopfield neural network clustering for single-trial motor imagery EEG classification
US20210386343A1 (en) Remote prediction of human neuropsychological state
Jung et al. Multi-modal approach for affective computing
Kist et al. Rethinking glottal midline detection
Jafari et al. Emotion recognition in EEG signals using deep learning methods: A review
KR102142183B1 (en) Method for estimating emotion based on psychological activity and biosignal of user and system therefor
Sadiq et al. Evaluation of power spectral and machine learning techniques for the development of subject-specific BCI
Mellouk et al. CNN-LSTM for automatic emotion recognition using contactless photoplythesmographic signals
Hristov Real-time abnormal human activity detection using 1DCNN-LSTM for 3D skeleton data
Jaiswal et al. Heart rate estimation network from facial videos using spatiotemporal feature image
JP4876988B2 (en) Brain computer interface device
Tao et al. Multi-feature fusion prediction of fatigue driving based on improved optical flow algorithm
Turaev et al. Review and analysis of patients’ body language from an artificial intelligence perspective
Jaswal et al. Empirical analysis of multiple modalities for emotion recognition using convolutional neural network
Mazher et al. Beyond traditional approaches: A partial directed coherence with graph theory-based mental load assessment using EEG modality
Chiarugi et al. Facial Signs and Psycho-physical Status Estimation for Well-being Assessment.
Nagasawa et al. Continuous estimation of emotional change using multimodal responses from remotely measured biological information
KR102341937B1 (en) Method for understanding emotion dynamics in daily life and system therefore
Mustafa et al. Heart rate estimation from facial videos for depression analysis

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right