KR102142183B1 - Method for estimating emotion based on psychological activity and biosignal of user and system therefor - Google Patents

Method for estimating emotion based on psychological activity and biosignal of user and system therefor Download PDF

Info

Publication number
KR102142183B1
KR102142183B1 KR1020180049845A KR20180049845A KR102142183B1 KR 102142183 B1 KR102142183 B1 KR 102142183B1 KR 1020180049845 A KR1020180049845 A KR 1020180049845A KR 20180049845 A KR20180049845 A KR 20180049845A KR 102142183 B1 KR102142183 B1 KR 102142183B1
Authority
KR
South Korea
Prior art keywords
emotional
component
model
motion
modeling
Prior art date
Application number
KR1020180049845A
Other languages
Korean (ko)
Other versions
KR20190125707A (en
Inventor
조성호
김병형
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020180049845A priority Critical patent/KR102142183B1/en
Publication of KR20190125707A publication Critical patent/KR20190125707A/en
Application granted granted Critical
Publication of KR102142183B1 publication Critical patent/KR102142183B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Abstract

사용자의 심리활동과 생체신호에 기반한 감정 추정 방법 및 그 시스템이 개시된다. 본 발명의 일 실시예에 따른 감정 추정 방법은 이미지 시퀀스를 이용한 사용자의 정서적 상황(affecttive situation)의 학습을 통해 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하는 단계; 상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 단계; 및 상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 단계를 포함한다.Disclosed is a method and system for estimating emotions based on a user's psychological activity and bio signals. The emotion estimation method according to an embodiment of the present invention is a motion component, a motivation component, and an adaptation component through learning a user's emotional situation using an image sequence. ); Modeling a balance model and an arousal model based on the calculated motion component, synchronous component and adaptive component; And generating an emotional curve based on the emotional situation expressed on the emotional space by the modeled balance model and auraun model.

Description

사용자의 심리활동과 생체신호에 기반한 감정 추정 방법 및 그 시스템 {Method for estimating emotion based on psychological activity and biosignal of user and system therefor}Method and estimating emotion based on psychological activity and biosignal of user and system therefor}

본 발명은 사용자의 감정을 유추할 수 있는 기술에 관한 것으로서, 보다 상세하게는 사용자의 심리활동과 생체신호에 기반하여 사용자의 감정을 추정할 수 있는 방법 및 그 시스템에 관한 것이다.The present invention relates to a technique for inferring a user's emotions, and more particularly, to a method and a system for estimating a user's emotions based on the user's psychological activity and bio signals.

감정 인식은 기쁨, 흥분 및 두려움과 같은 감정 상태를 측정함으로써 사람과 컴퓨터 간의 감정적인 상호 작용을 이해하기 용이하게 하기 때문에 최근에 많은 관심을 받고 있다. 사람의 감정 상태를 모델링하기 위하여, 사람이 느끼는 감정을 자세하게 설명하는 주관적인 자기 보고(subjective self-reports)는 자신의 정서적 상태를 표시(또는 라벨)하는데 사용될 수 있는 유용한 정보를 제공할 수 있다. 예를 들어, 감정 평가 툴인 SAM(Self-Assessment Manikin)은 즐거움, 어라우절(arousal) 및 우월(dominance)이라는 세 가지 감정 요소를 표현하는 만화 캐릭터를 묘사하는 그래픽 스케일을 사용한다. 대부분의 경우 참가자의 자기 평가는 실험실 환경에서 참가자가 편안한 의자에 앉아 평가 수준을 표시하는 형태로 수행된다. 이러한 평가 방법은 유효성 및 확증과 관련된 문제 예를 들어, 참가자가 자신이 느끼는 감정에 정확히 답할 수 없고 대신 다른 사람들이 답할 것이라고 생각하는 답변을 답하는 방법 이외에도 야외 환경에서는 수행될 수 없는 문제를 가지고 있다. 또한, 이 평가 방법은 복잡한 감정 조건에 대해 즉각적인 인간의 정서만을 산출 할 수 있으며, 일상 생활에서의 정서적 역동성에 대한 제한된 이해를 제공할 뿐이다. 따라서 실제 상황에서 유발된 인간 감정을 표시하기 위한 자동적인 방법을 제공하는 것이 중요하다.Emotional awareness is gaining much attention recently because it facilitates understanding of the emotional interactions between people and computers by measuring emotional states such as joy, excitement and fear. To model a person's emotional state, subjective self-reports that describe in detail the feelings a person feels can provide useful information that can be used to display (or label) his emotional state. For example, the emotion-assessment tool, Self-Assessment Manikin (SAM), uses a graphic scale that depicts a cartoon character expressing three emotional elements: pleasure, arousal, and dominance. In most cases, the participant's self-assessment is performed in a laboratory environment in which the participant sits in a comfortable chair and displays the evaluation level. This method of evaluation has problems related to validity and confirmation, for example, a participant cannot accurately answer the feelings he or she feels and instead of answering an answer that others think will be answered. In addition, this method of evaluation can only produce immediate human emotions for complex emotional conditions, and only provides a limited understanding of the emotional dynamics in everyday life. Therefore, it is important to provide an automatic method for displaying human emotions caused in real situations.

그러나 실제 상황에 대한 정서적 라벨링(affective labeling)에 대한 연구는 거의 이루어지지 않았다. 어떤 상황에 대한 이해를 바탕으로 정서적 반응을 정량화하는 것은 어려운 일이다. 인간이 상호 작용하는 실제 대상에 대한 인지적 이해가 필요하며, 이는 상호 작용을 기반으로 예상되는 감정의 정서적 수준을 결정할 수 있다. 가장 어려운 문제는 대상 의존적인 정서의 수준을 정량화하고, 인간의 피질에서 시각적인 관심을 찾고, 실제 환경에서 아티팩트(artifact)을 줄이는 것이다. However, little research has been done on affective labeling of real situations. It is difficult to quantify an emotional response based on an understanding of a situation. It requires a cognitive understanding of the actual objects that humans interact with, which can determine the emotional level of expected emotions based on the interactions. The most difficult problems are quantifying the level of subject-dependent emotions, finding visual attention in the human cortex, and reducing artifacts in the real world.

정서적 라벨을 제공하면 콘텐츠 추천 시스템과 같은 전문 분야를 향상시킬 수 있으며, 명시적 태깅과 암시적 태깅의 두 가지 방법을 이용하여 정서 차원의 원인인 자극에 대한 피실험자의 정서적 반응을 정량화 할 수 있다.Providing emotional labels can improve specialty areas such as content recommendation systems, and quantify the subject's emotional response to stimuli that are the cause of the emotional dimension using two methods: explicit tagging and implicit tagging.

인간 감정은 Valence(V), Arousal(A), Dominance(D)의 세 가지 중요한 의미로 개념화 될 수 있다. 밸런스(Valence)는 감정의 유형이며 불쾌감이나 부정적인 감정에서 쾌적하고 행복하며 긍정적인 감정에 이르기까지 감정적인 상태나 반응을 특성화한다. 어라우절(Arousal)은 감정의 강도로서, 졸음이나 지루함에서 극도의 흥분까지의 감정적인 상태나 반응을 특징 짓는 것이다. Dominance는 valence와 arousal을 가진 감정 상태를 "통제가 없다"에서 "완전 통제"까지 구분한다. 예를 들어, 슬픔과 분노는 valance 값과 arousal 값이 비슷하지만, dominance 값에서 구분된다. 인간 감정의 전체 범위는 3차원 VAC 좌표 공간에서 일련의 포인트로 표현될 수 있다. 반대로, 각각의 기본 감정은 양극성 실체로 표현될 수 있으며, 도 1a에 도시된 바와 같이 valence와 arousal에 의한 모든 감정을 특징으로 하며, 감정 라벨은 2차원 VA 평면상의 다양한 위치에 표현될 수 있다.Human emotion can be conceptualized in three important ways: Valence (V), Arousal (A), and Dominance (D). Balance is a type of emotion and characterizes an emotional state or reaction, from unpleasant or negative emotions to pleasant, happy and positive emotions. Arousal is the intensity of emotions, which characterizes an emotional state or reaction from drowsiness or boredom to extreme excitement. Dominance distinguishes emotional states with valence and arousal from "no control" to "full control". For example, sadness and anger have similar valance and arousal values, but are distinguished from dominance values. The full range of human emotions can be expressed as a series of points in a 3D VAC coordinate space. Conversely, each basic emotion can be expressed as a bipolar entity, and features all emotions due to valence and arousal as shown in FIG. 1A, and the emotion label can be expressed at various locations on the 2D VA plane.

그리고, 종래 다양한 연구에 따르면 감정 좌표계에 매핑된 정서적 반응은 도 1b에 도시된 바와 같이 대략 포물선임을 알 수 있다. 일 예의 종래 기술에서 포물선 표면을 사용하여 정서적 에이전트에게 기질, 분위기 및 감정을 할당함으로써 에이전트의 성격을 정의하였다.In addition, according to various conventional studies, it can be seen that the emotional response mapped to the emotional coordinate system is approximately a parabola as illustrated in FIG. 1B. In one example prior art, a parabolic surface was used to define the character of an agent by assigning temperament, mood, and emotion to an emotional agent.

명시적 접근법은 사용자에게 주어진 사건이나 자극에 대한 응답으로 자신의 느낌을 보고하도록 요구함으로써 라벨을 제공한다. IAPS(International Affective Picture System)는 SAM과 같은 명시적인 자체 보고 툴을 사용하여 정서 라벨을 얻는 데 사용되는 일반적인 데이터 세트이다. 도 2에 도시된 바와 같이, SAM은 valence(긍정에서 부정까지), arousal(높은 레벨에서 낮은 레벨까지) 및 dominance(낮은 레벨에서 높은 레벨까지)과 관련된 다양한 자극에 대한 감정적 반응을 넓은 범위에서 측정하는 그림 기반 평가 기술이다. 명시적 자체 보고 툴로부터 얻은 정서적 라벨은 감정 상태에 대한 실측 데이터로 간주되어 신뢰성 있는 감정 인식 시스템을 구축하는 데 사용된다.Explicit approaches provide labels by requiring users to report their feelings in response to a given event or stimulus. The International Affective Picture System (IAPS) is a common data set used to obtain emotional labels using explicit self-reporting tools such as SAM. As shown in Figure 2, SAM measures a wide range of emotional responses to various stimuli associated with valence (from positive to negative), arousal (from high to low) and dominance (from low to high). It is a picture-based evaluation technique. Emotional labels obtained from explicit self-reporting tools are considered actual data on emotional state and are used to build a reliable emotional recognition system.

그러나 인간의 감정을 표시하기 위한 명시적 접근법의 주요 단점은 보고 절차의 개입(intrusiveness)이다. 반대로, 암시적 정서 라벨링 접근법은 비개입 측정이다. 라벨링은 사용자를 자극에 노출하고 노출에 대한 응답을 기록하여 얻을 수 있다. 시각적 및 동작 관련 기능은 감정 인식에서 중요한 요소이다. 종래 일 실시예의 기술은 인간의 감정을 라벨링 하기 위해 얼굴 변화 특성을 사용하였으며, 종래 다른 일 실시예의 기술은 인간 정서에 반응하는 시각적인 특징으로서 대상 동작을 연구하였고, 모션의 강도가 증가하면 감정적 arousal 수준이 증가할 수 있음을 보여 주었다. 종래 또 다른 일 실시예의 기술은 모션 강도와 샷(shot) 변화율을 이용하여 arousal을 특징 짓는 방법을 개발하였으며, 종래 또 다른 일 실시예의 기술은 arousal 수준을 결정하기 위해 모션 활동을 사용하고 arousal의 지속적인 변화를 곡선으로 표현하였다.However, the main disadvantage of explicit approaches to expressing human emotions is the intrusiveness of the reporting process. Conversely, the implicit emotional labeling approach is a non-intervention measure. Labeling can be achieved by exposing the user to the stimulus and recording the response to the exposure. Visual and motion-related functions are important elements in emotion recognition. The technique of one conventional embodiment used the face change characteristic to label human emotions, and the technique of another conventional example studied the target motion as a visual characteristic that responds to human emotion, and emotional arousal when the intensity of motion increases It showed that the level could increase. The technique of another conventional embodiment has developed a method of characterizing arousal using motion intensity and a shot change rate, and the technique of another conventional embodiment uses motion activity to determine the arousal level and continuous arousal Changes are expressed as curves.

다른 방법은 심리적 행동의 감정적인 특징을 추출하여 감정 상태와 연관시키는 것으로, 종래 많은 연구들은 감정적 행동을 측정하는 방법을 제안하였다. 예를 들어, 굴곡 및 확장과 같은 팔 움직임은 접근 및 회피 행동에 대한 반응 간의 긍정적이고 부정적인 상호 작용을 조사하는 데 사용되어왔다. 종래 일 실시예의 기술은 긍정적인 자극과 부정적인 자극이 접근(approach)과 회피(withdrawal) 행동을 촉진 하는지를 결정하기 위해 조이스틱을 사용하였다. 참가자들은 조이스틱을 당겨 자극의 크기를 늘리거나 조이스틱을 밀어서 자극의 크기를 줄임으로써 조이스틱을 제어하도록 지시 받았으며, 그들의 측정 기준은 긍정적 또는 부정적 자극에 반응하는 청소년의 접근 및 회피 행동을 구별할 수 있다. 하지만, 해당 기술은 통제된 실험 설정으로 제한되며, 특정 장비의 사용을 요구하고 참가자가 시스템과 실시간으로 상호 작용하지 않는 일부 제한된 지각 작업을 사용한다.Another method is to extract emotional features of psychological behaviors and associate them with emotional states, and many studies have proposed methods to measure emotional behaviors. For example, arm movements such as flexion and extension have been used to investigate positive and negative interactions between responses to approach and avoidance behaviors. The technique of one conventional embodiment used a joystick to determine whether positive and negative stimuli promote approach and withdrawal behavior. Participants were instructed to control the joystick by pulling the joystick to increase the size of the stimulus or by pushing the joystick to reduce the size of the stimulus, and their metrics can distinguish adolescents' approach and avoidance behaviors that respond to positive or negative stimuli. However, the technology is limited to a controlled experimental setup, and uses some limited perceptual tasks that require the use of specific equipment and that the participant does not interact with the system in real time.

본 발명의 실시예들은, 사용자의 심리활동과 생체신호에 기반하여 사용자의 감정을 추정할 수 있는 방법 및 그 시스템를 제공한다.Embodiments of the present invention provide a method and a system for estimating a user's emotion based on a user's psychological activity and a biosignal.

본 발명의 실시예들은, 사용자의 행동에 기반하여 사용자가 느끼는 감정의 값을 추출할 수 있는 방법 및 그 시스템을 제공한다.Embodiments of the present invention provide a method and a system capable of extracting an emotion value felt by a user based on a user's behavior.

본 발명의 일 실시예에 따른 감정 추정 방법은 이미지 시퀀스를 이용한 사용자의 정서적 상황(affecttive situation)의 학습을 통해 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하는 단계; 상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 단계; 및 상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 단계를 포함한다.The emotion estimation method according to an embodiment of the present invention is a motion component, a motivation component, and an adaptation component through learning a user's emotional situation using an image sequence. ); Modeling a balance model and an arousal model based on the calculated motion component, synchronous component and adaptive component; And generating an emotional curve based on the emotional situation expressed on the emotional space by the modeled balance model and auraun model.

상기 계산하는 단계는 상기 이미지 시퀀스에 대하여, 옵티컬 플로우(optical flow) 추정을 사용하여 인접한 프레임 사이의 정서적 대상의 모션을 특성화하고 정량화함으로써, 상기 모션 구성 요소를 계산할 수 있다.The calculating step may calculate the motion component by characterizing and quantifying motion of an emotional object between adjacent frames using optical flow estimation for the image sequence.

상기 계산하는 단계는 상기 이미지 시퀀스의 각 이미지 프레임에서 추정된 모션 활동성과 상기 사용자의 몸에 부착된 가속도계에 의해 수집된 가속도계 데이터를 이용하여 모션 잡음을 제거함으로써, 상기 모션 구성 요소를 계산할 수 있다.The calculating step may calculate the motion component by removing motion noise using motion activity estimated in each image frame of the image sequence and accelerometer data collected by an accelerometer attached to the user's body.

상기 계산하는 단계는 상기 이미지 시퀀스의 이미지 프레임에서 사용자의 관심 대상에 대응하는 돌출 영역을 획득하고, 상기 획득된 돌출 영역에 기초하여 상기 동기 구성 요소를 계산할 수 있다.The calculating step may obtain a protruding area corresponding to a user's interest in an image frame of the image sequence, and calculate the synchronous component based on the obtained protruding area.

상기 계산하는 단계는 상기 이미지 시퀀스의 이미지 프레임에서 상기 관심 대상에 대한 주변 일정 영역의 옵티컬 플로우를 이용한 발산 및 회전을 계산함으로써, 상기 동기 구성 요소를 계산할 수 있다.The calculating step may calculate the synchronous component by calculating divergence and rotation using an optical flow of a predetermined area around the object of interest in the image frame of the image sequence.

상기 계산하는 단계는 시간에 따라 변하는 상기 이미지 시퀀스의 현재 프레임까지 누적된 정서적 상황 길이에 기초하여 상기 적응 구성 요소를 계산할 수 있다.The calculating step may calculate the adaptive component based on the emotional situation length accumulated up to the current frame of the image sequence that changes over time.

상기 모델링하는 단계는 상기 계산된 모션 구성 요소와 적응 구성 요소를 이용하여 상기 어라우절 모델을 모델링할 수 있다.The modeling step may model the arousal model using the calculated motion component and adaptive component.

상기 모델링하는 단계는 상기 어라우절 모델과 상기 동기 구성 요소를 이용하여 상기 밸런스 모델을 모델링할 수 있다.In the modeling step, the balance model may be modeled using the aurajeol model and the synchronous component.

본 발명의 다른 일 실시예에 따른 감정 추정 방법은 이미지 시퀀스를 이용한 사용자의 행동에 기반하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 단계; 상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 단계; 및 상기 정서 커브를 이용하여 상기 사용자의 감정 값을 추정하는 단계를 포함한다.An emotion estimation method according to another embodiment of the present invention includes modeling a balance model and an arousal model based on a user's behavior using an image sequence; Generating an emotional curve based on the emotional situation expressed on the emotional space by the modeled balance model and auraun model; And estimating the emotion value of the user using the emotion curve.

상기 모델링하는 단계는 상기 사용자의 행동에 기반하여 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하는 단계; 및 상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 단계를 포함할 수 있다.The modeling step includes calculating a motion component, a motivation component, and an adaptation component based on the user's behavior; And modeling a balance model and an arousal model based on the calculated motion component, synchronous component, and adaptive component.

상기 모델링하는 단계는 상기 이미지 시퀀스로부터 상기 사용자의 관심 대상을 감지하고, 상기 감지된 관심 대상과의 상호 작용을 기반으로 상기 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링할 수 있다.The modeling step may detect the user's interest from the image sequence, and model the balance model and the arousal model based on the interaction with the sensed interest.

본 발명의 일 실시예에 따른 감정 추정 시스템은 이미지 시퀀스를 이용한 사용자의 정서적 상황(affecttive situation)의 학습을 통해 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하는 계산부; 상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 모델링부; 및 상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 생성부를 포함한다.The emotion estimation system according to an embodiment of the present invention is a motion component, a motivation component, and an adaptation component through learning a user's emotional situation using an image sequence. ) Calculating unit; A modeling unit that models a balance model and an arousal model based on the calculated motion component, synchronous component, and adaptive component; And a generating unit generating an emotional curve based on the emotional situation expressed on the emotional space by the modeled balance model and the aurajeol model.

본 발명의 다른 일 실시예에 따른 감정 추정 시스템은 이미지 시퀀스를 이용한 사용자의 행동에 기반하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 모델링부; 상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 생성부; 및 상기 정서 커브를 이용하여 상기 사용자의 감정 값을 추정하는 추정부를 포함한다.An emotion estimation system according to another embodiment of the present invention includes a modeling unit for modeling a balance model and an arousal model based on a user's behavior using an image sequence; A generation unit generating an emotion curve based on the emotional situation expressed on the emotional space by the modeled balance model and the auraun model; And an estimation unit for estimating the emotion value of the user using the emotional curve.

본 발명의 실시예들에 따르면, 실제 상황에 정서적 라벨(affective labels)을 제공하기 위한 계산 프레임 워크를 제공할 수 있다.According to embodiments of the present invention, it is possible to provide a calculation framework for providing emotional labels in an actual situation.

기존 감정 인식 시스템들은 사용자들이 자가 평가(self-assessment)라는 자가 평가표에 의해 본인의 감정을 수동적으로 값을 산출하고 거기에 맞추어 감정을 인식하는 반면, 본 발명은 이러한 자가평가표 없이 사용자의 행동으로부터 감정 값을 자동적으로 산출해낼 수 있다.Existing emotion recognition systems allow users to passively calculate their emotions by self-assessment self-assessment and recognize emotions accordingly, while the present invention provides emotions from user's behavior without such self-assessment. The value can be calculated automatically.

또한, 본 발명은 실생활에서 사용자가 하는 행동을 통해 감정 값을 유추하기 때문에 기존의 감정 인식 시스템의 자동화를 이루어낼수 있으며, 실생활 환경에서 여러 어플리케이션들과 적용이 가능하다.In addition, since the present invention infers emotion values through actions performed by users in real life, automation of an existing emotion recognition system can be achieved and can be applied to various applications in a real life environment.

이러한 본 발명은 우울증 초기 진단 기술 적용을 통한 의료 분야, 가상/증강 현실 내의 콘텐츠에 대한 사용자의 감정적 반응을 파악하는 기술 등에 적용할 수 있다.The present invention can be applied to a medical field through application of an early diagnosis technique for depression, a technique for grasping a user's emotional response to content in virtual/augmented reality, and the like.

또한, 본 발명은 뇌파를 측정하는 센서들의 소형화 기술 발전에 따라 웨어러블 시장으로 확대가 가능하고, 사용자의 스마트폰과 연동 가능한 뇌파 측정 웨어러블 기기 제작을 통해 일상 생활에서 사용할 수도 있다.In addition, the present invention can be expanded to the wearable market according to the development of miniaturization technology of sensors for measuring brain waves, and can also be used in daily life through the manufacture of brain waves measuring wearable devices that can be linked to a user's smartphone.

도 1은 밸런스-어라우절 공간에서 감정 분포와 포물선 형상에 대한 일 예시도를 나타낸 것이다.
도 2는 SAM(Self-Assessment Manikin)을 설명하기 위한 일 예시도를 나타낸 것이다.
도 3은 본 발명의 일 실시예에 따른 프레임워크에 대한 개념도를 나타낸 것이다.
도 4는 동기 구성 요소를 설명하기 위한 일 예시도를 나타낸 것이다.
도 5는 상이한 파라미터들에 대하여 SAM과 본 발명의 프레임워크 간 밸런스와 어라우절 등급 거리에 관한 5배 교차 유효성 스킴 결과를 나타낸 것이다.
도 6은 어라우절 커브와 밸런스 커브를 결합한 정서 커브에 대한 일 예시도를 나타낸 것이다.
도 7은 모든 참가자들에 대한 5배 교차 유효성 스킴을 통한 분류 절차의 결과에 대한 일 예시도를 나타낸 것이다.
FIG. 1 shows an exemplary diagram for the distribution of emotions and the shape of a parabola in the balance-arrow space.
Figure 2 shows an exemplary diagram for explaining a self-assessment manikin (SAM).
3 is a conceptual diagram for a framework according to an embodiment of the present invention.
4 shows an exemplary diagram for describing a synchronous component.
FIG. 5 shows the results of a 5x cross-effectiveness scheme for balance and aura-class distance between SAM and the framework of the present invention for different parameters.
FIG. 6 is a diagram illustrating an example of an emotional curve that combines an arousal curve and a balance curve.
FIG. 7 shows an exemplary diagram for the results of the classification procedure through the 5-fold cross-effectiveness scheme for all participants.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형 태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, only the embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains. It is provided to fully inform the person having the scope of the invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상 의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for describing the embodiments, and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, “comprises” and/or “comprising” refers to the components, steps, operations, and/or elements mentioned above of one or more other components, steps, operations, and/or elements. Presence or addition is not excluded.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사 전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings commonly understood by those skilled in the art to which the present invention pertains. In addition, terms that are defined in advance are generally not to be interpreted ideally or excessively unless specifically defined.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명하고자 한다. 도면 상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. The same reference numerals are used for the same components in the drawings, and duplicate descriptions for the same components are omitted.

본 발명의 실시예들은, 정서적인 비디오 내용을 모델링하기 위하여 낮은 레벨의 기능 기반 프레임워크를 제공하는 것으로, 2차원 감정 좌표 공간 예를 들어, 밸러슨(valence)-어라우절(arousal) 감정 좌표 공간에서 일련의 포인트로 정서적 상황을 표현하고 모델링할 수 있는 프레임워크를 제공하는 것을 그 요지로 한다.Embodiments of the present invention provide a low-level function-based framework for modeling emotional video content, such as a two-dimensional emotional coordinate space, for example, a valence-arousal emotional coordinate space The main goal is to provide a framework for expressing and modeling emotional situations with a series of points.

여기서, 본 발명은 심리적 행동의 기초가 되는 인간의 피질에서 시각적인 관심을 감지하고, 관심 대상과의 상호 작용을 기반으로 예상되는 감정을 정량화할 수 있다.Here, the present invention can detect the visual interest in the human cortex, which is the basis of psychological behavior, and quantify the expected emotion based on the interaction with the object of interest.

본 발명은 시공간적 상황의 결과를 정서 커브라고 불리는 다항식 곡선으로 표현할 수 있다.The present invention can express the result of the spatiotemporal situation as a polynomial curve called an emotional curve.

여기서, 비디오는 비디오를 시청하는 도중 어느 하나의 느낌에서 다른 느낌으로 예상되는 전환을 안정적으로 묘사하는 정서 커브로 표현될 수 있으며, 정서 커브는 IAPS(International Affective Picture System)(P. J. Lang, M. M. Bradley, and B. N. Cuthbert, "International affective picture system (iaps): Technical manual and affective ratings," NIMH Center for the Study of Emotion and Attention, pp. 39-58, 1997.) 및 IADS(International Affective Digitized Sounds system)(M. Bradley and P. Lang, "International affective digitized sounds (iads): Technical manual and affective ratings," Center for Research in Psychophysiology, Univ. Florida, Gainesville, FL, 1991.)에서 수집된 많은 집단의 정신 생리학 실험에 기반할 수 있다.Here, the video can be expressed as an emotional curve stably depicting a transition expected from one feeling to another while watching a video, and the emotional curve is an International Affective Picture System (IAPS) (PJ Lang, MM Bradley, and BN Cuthbert, "International affective picture system (iaps): Technical manual and affective ratings," NIMH Center for the Study of Emotion and Attention, pp. 39-58, 1997.) and International Affective Digitized Sounds system (IADS) (M Bradley and P. Lang, "International affective digitized sounds (iads): Technical manual and affective ratings," Center for Research in Psychophysiology, Univ. Florida, Gainesville, FL, 1991.) Can be based.

IAPS 및 IADS는 보정된 시청각 자극에 대한 정서적 반응의 측정을 포함하며, 두 시스템이 시청각 내용으로 폭 넓은 감정을 수집하는 것을 목표로 하고 있지만, 감정 좌표계에 매핑된 감정 반응은 대략 포물선에 해당한다는 사실이 몇 가지 연구를 통하여 결정된 바 있다. 예를 들어, 포물선 표면을 사용하여 정서 에이전트에게 기질, 분위기 및 감정을 할당함으로써 에이전트의 성격을 정의할 수 있다.IAPS and IADS include measurements of emotional responses to calibrated audiovisual stimuli, and while both systems aim to collect a wide range of emotions from audiovisual content, the fact that the emotional responses mapped to the emotional coordinate system is roughly parabolic It has been determined through several studies. For example, a parabolic surface can be used to define an agent's personality by assigning temperament, mood, and emotion to an emotional agent.

본 발명은 상술한 내용과 유사하게 이미지 시퀀스에서 추출된 낮은 레벨의 특징으로부터 정서 커브를 도출하는 모델을 도출하는 것으로, 본 발명에서의 모델은 생활의 사건에 기반한 인간의 감정적 행동을 반영하고 정서적 상황을 나타내는 정서 커브를 계산하기 위해 접근-회피(approach-withdrawal) 이론을 사용한다.The present invention derives a model that derives an emotional curve from low-level features extracted from an image sequence, similar to the above, the model in the present invention reflects the emotional behavior of humans based on events of life and affects emotional situations Approach-withdrawal theory is used to calculate the emotional curve representing.

본 발명의 프레임워크에서, 정서적인 상황은 '정서 커브'라고 지칭한다. 여기서, 정서 커브는 valence-arousal 감정 공간상의 한 세트의 포인트에 맞춰진 다항식 곡선을 의미할 수 있다. 또한, 실제 환경에서 정서적 상황을 모델링하고 표현하기 위하여, 사용자가 일상적인 상황에서 자유롭게 행동할 수 있도록 쉽게 착용할 수 있는 장치를 이용하여 환경 정보를 수집할 수 있다. 해당 장치는 정면 카메라, 가속도계 및 작은 생리 센서로 구성될 수 있다. 본 발명은 이러한 장치에서 수집된 데이터를 사용하여 정서적인 상황 표현을 학습하고, 인간의 감정을 분류하는데 사용될 수 있는 생리학적 변화를 알기 위한 적절한 정서적 라벨을 제공한다.In the framework of the present invention, emotional situations are referred to as'emotional curves'. Here, the emotional curve may mean a polynomial curve fitted to a set of points in the valence-arousal emotional space. In addition, in order to model and express an emotional situation in a real environment, environmental information may be collected using an easily wearable device so that a user can freely act in a daily situation. The device can consist of a front camera, an accelerometer and a small physiological sensor. The present invention provides appropriate emotional labels for learning emotional context expressions using data collected from these devices and for knowing physiological changes that can be used to classify human emotions.

본 발명에서의 정서적 상황은 정서적 실체의 특정 배열로 정의될 수 있으며, 본 발명은 이러한 정서적인 상황을 모델링하고 표현하기 위한 프레임워크를 제공한다. 여기서, 정서적 실체는 사람들이 만나고, 상호 작용하며, 감정적인 반응을 느끼는 다양한 실제 세계의 물건일 수 있다.Emotional situations in the present invention can be defined as a specific arrangement of emotional entities, and the present invention provides a framework for modeling and expressing such emotional situations. Here, emotional reality can be a variety of real-world objects where people meet, interact, and feel emotional reactions.

본 발명에 의해 정서적 상황이 모델링되면 인간 상호 작용의 내용을 이해할 수 있으며, 이러한 상황을 표현하면 상호 작용을 기반으로 예상되는 감정의 수준을 결정할 수 있다. 따라서, 본 발명의 프레임워크는 실제 상황에서의 인지적 정서와 정서적 정서 사이의 의미적 차이를 줄이는 데 도움을 줄 수 있다.When the emotional situation is modeled by the present invention, it is possible to understand the content of human interaction, and by expressing this situation, it is possible to determine the expected level of emotion based on the interaction. Therefore, the framework of the present invention can help to reduce the semantic difference between cognitive emotions and emotional emotions in real situations.

이러한 본 발명에 대해 상세히 설명하면 다음과 같다.The present invention will be described in detail as follows.

도 3은 본 발명의 일 실시예에 따른 프레임워크를 나타낸 것으로, 본 발명의 프레임워크는 실제 시나리오에서 이미지 시퀀스의 정서적 라벨링을 제공한다.3 illustrates a framework according to an embodiment of the present invention, the framework of the present invention provides emotional labeling of an image sequence in an actual scenario.

본 발명의 프레임워크는 상황에서 정서적 내용이 직면한 정서적 행동으로부터 행동 경향의 느낌을 정량화하기 위하여, 자기 중심적(egocentric image) 이미지를 기반으로 정서적 상황(affective situation)을 학습하고 표현한다. 본 발명은 매 시간 프레임마다 자기 중심적인 이미지를 취하고, 입력으로 보조 가속도계(auxiliary accelerometer) 데이터를 사용하며, valence-arousal 공간에 두 개의 감정 포인트를 출력할 수 있다.The framework of the present invention learns and expresses an emotional situation based on an egocentric image in order to quantify the feeling of behavior tendency from the emotional behavior faced by emotional content in a situation. The present invention can take a self-centered image every time frame, use auxiliary accelerometer data as input, and output two emotion points in a valence-arousal space.

여기서, 학습된 포인트는 정서 커브(affective curve)라고 지칭되는 다항식 곡선으로 표현될 수 있다.Here, the learned point can be expressed as a polynomial curve called an affective curve.

도 3에 도시된 바와 같이, 본 발명의 프레임워크는 이미지 시퀀스로부터 모션 구성 요소, 동기 구성 요소, 적응 구성 요소를 계산한 후 계산된 세가지 구성 요소를 이용하여 정서적 상황을 표현하고, 2차원 감정 공간 상에 표현된 정서적 상황을 이용하여 정서 커브를 생성하며, 이렇게 생성된 정서 커브를 이용하여 정서적 라벨링을 제공한다.As shown in FIG. 3, the framework of the present invention expresses an emotional situation using three components calculated after calculating a motion component, a synchronous component, and an adaptive component from an image sequence, and a two-dimensional emotional space The emotional curve is generated using the emotional situation expressed on the image, and emotional labeling is provided using the generated emotional curve.

정서적 상황 학습Emotional situation learning

종래 일 실시예 기술(A. Hanjalic and L.-Q. Xu, "Affective video content representation and modeling," IEEE transactions on multimedia, vol. 7, no. 1, pp. 143-154, 2005.)은 모델을 심리적으로 정당화하는데 사용된 3가지 기준에 근거하여 valence 및 arousal 공간에 대한 정서 커브를 개발하였다. 본 발명은 실제 상황에 본 발명의 프레임워크를 적용하기 위하여 상술한 기준들을 수정한다.One conventional technology (A. Hanjalic and L.-Q. Xu, "Affective video content representation and modeling," IEEE transactions on multimedia, vol. 7, no. 1, pp. 143-154, 2005.) Emotion curves for valence and arousal spaces were developed based on three criteria used to justify psychologically. The present invention modifies the above-mentioned criteria in order to apply the framework of the present invention to the actual situation.

(1) 비교 가능성 : 비슷한 유형의 감정적 행동에 대해 서로 다른 상황에서 얻은 valence, arousal 및 결과 정서 커브의 값을 비교할 수 있다. 이 기준은 시간 곡선을 계산할 때 자연스럽게 표준화 및 스케일링 요구 사항을 부과한다.(1) Comparability: The values of valence, arousal, and resulting emotional curves obtained in different situations can be compared for similar types of emotional behavior. This criterion naturally imposes standardization and scaling requirements when calculating the time curve.

(2) 호환성 : 정서 커브의 모양이 valence-arousal 감정 공간에서 특정 시간이 주어졌을 때의 상황을 반영한다. 상황이 종료되면 곡선의 모양은 2D 감정 공간에서 대략적인 포물선 모양이 된다.(2) Compatibility: The shape of the emotional curve reflects the situation when a specific time is given in the valence-arousal emotional space. When the situation ends, the shape of the curve becomes an approximate parabolic shape in the 2D emotional space.

(3) 평활도 : 이전 프레임의 감정 유지 정도를 나타낸다. 이는 인간의 감정을 이끌어 내는데 관련된 콘텐츠의 정서적인 비율이 상황의 연속적인 프레임 사이에서 갑자기 변하지 않도록 한다.(3) Smoothness: indicates the degree of emotion retention in the previous frame. This ensures that the emotional proportion of content involved in eliciting human emotions does not suddenly change between successive frames of the situation.

1) 정서적 상황 학습의 감정 특징1) Emotional characteristics of emotional situation learning

본 발명은 상황에서 사용된 여러 가지 정서적 표현을 관찰할 수 있다. 본 발명은 이러한 감정적 현상을 arousal 및 valence로 모델링하기 위하여, 프레임 k에서 arousal과 valence에 대한 일반 함수 A(k)와 V(k)를 사용한다. 두 함수는 감정 반응의 모션 구성 요소, 감정적 접근-회피 행동의 동기 구성 요소 및 정서적 상황의 적응 구성 요소의 세 가지 구성 요소를 통합하는 함수의 적절한 형식을 가질 수 있다.The present invention can observe various emotional expressions used in situations. The present invention uses general functions A(k) and V(k) for arousal and valence in frame k to model these emotional phenomena as arousal and valence. The two functions may have a suitable form of function that integrates the three components of the motion component of the emotional response, the motivation component of the emotional approach-avoidance behavior, and the adaptive component of the emotional situation.

a) 감정 반응의 모션 구성 요소(motion component)a) Motion component of emotional response

기존의 몇몇 연구는 모션이 개인의 정서적 반응에 영향을 미치는 가장 중요한 시각적 특징 중 하나라고 보고한 바 있다. 모션은 표현력이 풍부하고 강한 감정적 반응을 불러 일으킬 수 있다. 대상의 모션이 인간의 감정 반응에 미치는 영향에 대한 연구에 따르면 모션 강도가 증가하면 arousal이 증가하는 것으로 나타난다.Several previous studies have reported that motion is one of the most important visual features affecting an individual's emotional response. Motion is expressive and can evoke strong emotional reactions. Studies on the effect of the subject's motion on the human emotional response indicate that arousal increases as the motion intensity increases.

본 발명은 각 비디오 프레임 k에서 모션 활동성 m(k)을 추정하기 위해 모션 구성 요소를 계산한다.The present invention calculates the motion component to estimate the motion activity m(k) in each video frame k.

여기서, 본 발명은 옵티컬 플로우(optical flow) 추정을 사용하여 인접한 프레임 사이의 정서적 대상의 모션을 특성화하고 정량화할 수 있으며, 모든 추정된 모션 벡터

Figure 112018042716250-pat00001
의 평균 크기는 모션 활동성을 공식화하는데 사용될 수 있다.Here, the present invention can characterize and quantify the motion of an emotional object between adjacent frames using optical flow estimation, and all estimated motion vectors
Figure 112018042716250-pat00001
The average size of can be used to formulate motion activity.

모션 활동성 m(k)는 아래 <수학식 1>과 같이 나타낼 수 있다.The motion activity m(k) can be expressed as <Equation 1> below.

[수학식 1][Equation 1]

Figure 112018042716250-pat00002
Figure 112018042716250-pat00002

여기서,

Figure 112018042716250-pat00003
는 프레임 k에서의 모션 벡터 i를 의미하고, B는 프레임 k에서의 모션 벡터의 수를 의미할 수 있다.here,
Figure 112018042716250-pat00003
Denotes a motion vector i in frame k, and B denotes the number of motion vectors in frame k.

자기 중심적 이미지는 일반적으로 인체에 부착된 카메라에서 캡처되기 때문에 이미지에는 모션 활동성 m(k)를 오염시키는 모션 잡음이 포함될 수 있다. 본 발명은 이러한 모션 잡음을 제거하기 위하여, 모션 구성 요소

Figure 112018042716250-pat00004
에 가속도계 데이터
Figure 112018042716250-pat00005
를 사용할 수 있으며, 모션 컴포넌트
Figure 112018042716250-pat00006
는 아래 <수학식 2>와 같이 나타낼 수 있다.Since the self-centered image is usually captured by a camera attached to the human body, the image may contain motion noise that contaminates the motion activity m(k). In order to remove such motion noise, the present invention is a motion component
Figure 112018042716250-pat00004
Accelerometer data
Figure 112018042716250-pat00005
You can use motion components
Figure 112018042716250-pat00006
Can be expressed as <Equation 2> below.

[수학식 2][Equation 2]

Figure 112018042716250-pat00007
Figure 112018042716250-pat00007

여기서,

Figure 112018042716250-pat00008
는 0과 1 사이에서 정규화된 가우시안 평활 결과를 의미할 수 있다.here,
Figure 112018042716250-pat00008
Can mean a Gaussian smoothing result normalized between 0 and 1.

이들은 모션 활동성의 실제 요인이 아니기 때문에

Figure 112018042716250-pat00009
는 모션 잡음이 증가하면 arousal이 감소한다는 것을 의미한다.Because these are not real factors of motion activity
Figure 112018042716250-pat00009
Means that the arousal decreases as the motion noise increases.

도 4는 모션 구성 요소에 대한 개념도를 나타낸 것으로, 도 4에 도시된 바와 같이, 각 비디오 프레임 k에서의 이미지로부터 시각적 주의(또는 관심)은 돌출 맵에 의해 인간 피질(cortex)에서 검출된다. 이미지로부터 검출된 포물선 돌출 맵을 이용하여 이진 돌출 맵을 생성하고, 생성된 이진 돌출 맵을 이용하여 동기 맵을 생성함으로써, 동기 맵을 이용하여 관심 대상과 관련된 감정적 접근-회피 행동이 계산될 수 있다. 즉, 이진 도출맵에 의해 커버된 영역에서, 관심 대상과 관련된 감정적 접근-회피 행동은 대상 주변 옵티컬 플로우를 이용하여 계산될 수 있다.FIG. 4 shows a conceptual diagram of motion components, as shown in FIG. 4, visual attention (or interest) from an image in each video frame k is detected in the human cortex by an extruded map. By generating a binary protrusion map using the parabolic protrusion map detected from the image and generating a synchronization map using the generated binary protrusion map, the emotional access-avoidance behavior related to the object of interest can be calculated using the synchronization map. . That is, in the area covered by the binary derivation map, the emotional approach-avoidance behavior related to the object of interest can be calculated using the optical flow around the object.

b) 감정적 접근-회피 행동의 동기 구성 요소(motivation component)b) Emotional approach--motivation component of avoidance behavior

본 발명은 모션 구성 요소와 유사하게 다양한 상황에서 정서적 내용에 응답하여 발생하는 감정적 행동을 모델링하기 위한 동기 구성 요소

Figure 112018042716250-pat00010
를 계산한다. 동기 구성 요소의 계산은 먼저 시각적인 주의(visual attention)을 통해 참가자의 의도를 파악하여 수행된다.The present invention is a synchronous component for modeling emotional behavior occurring in response to emotional content in various situations similar to the motion component
Figure 112018042716250-pat00010
To calculate. The calculation of the motivational component is performed by first grasping the participant's intention through visual attention.

여기서, 특정 고정 지점에서 유지되는 시각적 주의의 위치를 예상하는 것은 돌출(saliency) 예측 또는 탐지로 수행될 수 있다.Here, predicting the position of the visual attention maintained at a specific fixed point may be performed with saliency prediction or detection.

컴퓨터 비젼, 로보틱스 및 신경 과학에서 이러한 현상이 나타나고 점점 더 주목을 받고 있다. 본 발명은 이미지 프레임에서 가장 돌출된 영역을 획득하기 위하여 돌출 모델(saliency model) 예를 들어, 돌출 어텐티브 모델(saliency attentive model)을 사용할 수 있다.In computer vision, robotics, and neuroscience, this is happening and is getting more and more attention. The present invention may use a saliency model, for example, a saliency attentive model, to obtain the most protruding area in the image frame.

여기서, 돌출 모델은 확장된 컨벌루셔널 네트워크(DCN; dilated convolutional networks)와 돌출 대상 검출기로 다중 학습된 시선 프라이어(gaze priors)에 의해 계산된 특징들의 집합을 가지는 컨볼루션 LSTM을 구축함으로써, 장면에서 인간 눈의 고정(human eye fixations)을 예측할 수 있다.Here, the protrusion model is constructed in a scene by constructing a convolutional LSTM having a set of features calculated by gaze priors multi-learned with dilated convolutional networks (DCNs) and an object detector. Human eye fixations can be predicted.

본 발명은 임계 값 th를 갖는 이진 돌출 맵을 생성하기 위하여, [0, 1] 내의 값을 갖는 확률 맵인 최종 돌출 맵을 사용한다. 이진 돌출 맵에서 흰색은 참가자가 시각적으로 관심(또는 주의)을 가지는 주요 고정 영역이 된다. 본 발명은 인간의 시각 주의 예측 결과인 돌출 대상을 기반으로, 각 비디오 프레임 k에서 관심 대상 주변의 옵티컬 플로우를 이용한 발산 및 회전을 계산함으로써, 관심 대상과 관련된 감정적 접근-회피 행동을 학습한다. 이러한 방법은 단일 대상에 접근하는 것이 대상을 확대하는 것과 동일하고, 돌출 대상의 중심 포인트를 둘러싸는 플로우 벡터의 발산에 동일한 영향을 미치기 때문에 가능하다.The present invention uses a final protrusion map, which is a probability map having a value in [0, 1], to generate a binary protrusion map having a threshold value t h . In the binary overhanging map, white becomes the main fixed area of interest (or attention) for the participant. The present invention learns the emotional approach-avoidance behavior related to the object of interest by calculating the divergence and rotation using the optical flow around the object of interest in each video frame k based on the protruding object, which is the prediction result of the human visual attention. This is possible because approaching a single object is the same as enlarging the object, and has the same effect on the divergence of the flow vector surrounding the center point of the extruded object.

이 때, 본 발명은 인접한 프레임 사이의 다중 스케일 블록 기반 매칭을 사용하여 플로우를 계산할 수 있다.At this time, the present invention can calculate the flow using multi-scale block-based matching between adjacent frames.

본 발명은 동기된 행동을 기술하기 위하여, 6개의 원시 옵티컬 플로우 패턴 예를 들어, 수직축 주위의 회전, 수평축 주위의 회전, 대상 방향으로 접근, 이미지 평면의 옵티컬 축 주위의 회전 및 복소 쌍곡선 플로우(complex hyperbolic flows)로 플로우를 표준화한다. 여기서, 모션 벡터가 주어지면, 픽셀 c(x, y)에서의 속도

Figure 112018042716250-pat00011
는 아래 <수학식 3>과 같이 나타낼 수 있다.The present invention describes six primitive optical flow patterns, e.g., rotation around the vertical axis, rotation around the horizontal axis, approaching the target direction, rotation around the optical axis of the image plane, and complex hyperbolic flows to describe synchronized behavior. Standardize flows with hyperbolic flows. Where, given a motion vector, the velocity at pixel c(x, y)
Figure 112018042716250-pat00011
Can be expressed as <Equation 3> below.

[수학식 3][Equation 3]

Figure 112018042716250-pat00012
Figure 112018042716250-pat00012

여기서,

Figure 112018042716250-pat00013
는 픽셀 c0에서의 속도를 의미하고,
Figure 112018042716250-pat00014
는 아래 <수학식 4>와 같이 정의되는 행렬일 수 있다.here,
Figure 112018042716250-pat00013
Is the velocity at pixel c 0 ,
Figure 112018042716250-pat00014
May be a matrix defined as <Equation 4> below.

[수학식 4][Equation 4]

Figure 112018042716250-pat00015
Figure 112018042716250-pat00015

이 때, 행렬

Figure 112018042716250-pat00016
는 아래 <수학식 5>와 같이 분해될 수 있다.At this time, the matrix
Figure 112018042716250-pat00016
Can be decomposed as in <Equation 5> below.

[수학식 5][Equation 5]

Figure 112018042716250-pat00017
Figure 112018042716250-pat00017

여기서,

Figure 112018042716250-pat00018
Figure 112018042716250-pat00019
은 각각 발산 옵티컬 플로우와 회전 옵티컬 플로우를 의미하고,
Figure 112018042716250-pat00020
Figure 112018042716250-pat00021
는 상이한 유형의 쌍곡선 옵티컬 플로우를 의미할 수 있다.here,
Figure 112018042716250-pat00018
Wow
Figure 112018042716250-pat00019
Is a divergent optical flow and a rotating optical flow, respectively,
Figure 112018042716250-pat00020
and
Figure 112018042716250-pat00021
Can mean different types of hyperbolic optical flows.

행렬 D, R, H1 및 H2는 아래 <수학식 6>과 같을 수 있다.The matrix D, R, H 1 and H 2 may be as shown in <Equation 6> below.

[수학식 6][Equation 6]

Figure 112018042716250-pat00022
Figure 112018042716250-pat00022

모션 벡터 필드의 속도는 대략 6개의 파라미터 예를 들어,

Figure 112018042716250-pat00023
로 특징지어 질 수 있다. 본 발명은 관심 대상의 옵티컬 플로우 필드가 주어지면 상기 수학식 5와 최소 자승 오차 방법(least squared error method)을 이용하여 파라미터 벡터를 추정한다. 파라미터 u는 오른쪽 및 왼쪽 회전과 연관되고,
Figure 112018042716250-pat00024
는 위쪽 및 아래쪽 방향과 연관되며, d는 대상 접근 및 회피와 연관되고, 나머지 세 파라미터 r, h1, h2는 결합된 모션을 나타낸다.The velocity of the motion vector field is approximately 6 parameters, for example,
Figure 112018042716250-pat00023
Can be characterized as. The present invention estimates a parameter vector using Equation 5 and the least squared error method given the optical flow field of interest. The parameter u is associated with right and left rotation,
Figure 112018042716250-pat00024
Is associated with the upward and downward directions, d is associated with object approach and avoidance, and the remaining three parameters r, h 1 and h 2 represent combined motion.

6개의 파라미터를 사용하여 프레임 k에서 동기 구성 요소

Figure 112018042716250-pat00025
를 계산할 있으며, 아래 <수학식 7>과 같이 나타낼 수 있다.Synchronous component in frame k with 6 parameters
Figure 112018042716250-pat00025
Can be calculated and can be expressed as <Equation 7> below.

[수학식 7][Equation 7]

Figure 112018042716250-pat00026
Figure 112018042716250-pat00026

여기서, X, Y는 관심 대상의 옵티컬 플로우 필드의 폭와 높이를 의미할 수 있다.Here, X and Y may mean the width and height of the optical flow field of interest.

c) 정서적 상황의 적응 구성 요소(adaptation component)c) the adaptation component of the emotional situation

본 발명은 사용자의 감정과 상황에 적응하려는 의도 사이의 연결을 나타내기 위하여 시간에 따라 변하는 상황 길이를 사용한다. 본 발명은 프레임 k에서 함수

Figure 112018042716250-pat00027
를 도출함으로써, 상황의 감정적 적응을 모델링할 수 있으며, 함수
Figure 112018042716250-pat00028
는 아래 <수학식 8>과 같이 나타낼 수 있다.The present invention uses context lengths that change over time to represent a link between a user's feelings and an intention to adapt to the situation. The present invention functions at frame k
Figure 112018042716250-pat00027
By deriving, we can model the emotional adaptation of the situation,
Figure 112018042716250-pat00028
Can be expressed as <Equation 8> below.

[수학식 8][Equation 8]

Figure 112018042716250-pat00029
Figure 112018042716250-pat00029

여기서,

Figure 112018042716250-pat00030
Figure 112018042716250-pat00031
은 함수
Figure 112018042716250-pat00032
의 형상을 결정하고,
Figure 112018042716250-pat00033
는 정서적 상황의 길이로, 현재 프레임 k까지의 정서적 상황의 누적 합계를 의미할 수 있다.here,
Figure 112018042716250-pat00030
And
Figure 112018042716250-pat00031
Silver function
Figure 112018042716250-pat00032
Determine the shape of,
Figure 112018042716250-pat00033
Is the length of the emotional situation, and may mean a cumulative sum of emotional situations up to the current frame k.

함수

Figure 112018042716250-pat00034
는 현재 프레임 k의 상황이 이전 프레임 k-1과 동일하면 1만큼 값이 증가한다. 본 발명은 로그 함수 예를 들어, log10 함수를 사용하여 정서적 상황의 적응 구성 요소를 모델링할 수 있다.function
Figure 112018042716250-pat00034
Increases the value by 1 if the current frame k is the same as the previous frame k-1. The present invention can model an adaptive component of an emotional situation using a logarithmic function, for example a log 10 function.

2) Arousal 및 Valence 모델2) Arousal and Valence models

본 발명은 arousal을 모델링하기 위하여, 함수 A(k)는 프레임 k에서의 정서적 상황에서 이미지 시퀀스를 따라 모션 구성 요소

Figure 112018042716250-pat00035
및 적응 구성요소
Figure 112018042716250-pat00036
의 기여도를 통합하기 위하여 모션 및 적응의 가중된 평균을 사용한다. 상기 함수는 이동 평균 필터를 통해 구성 요소의 이웃하는 로컬 최대 값을 병합하기에 충분히 긴 평활화 윈도우(smoothing window)로 컨벌루션된다. 결과는 0과 1의 범위로 정규화된다. 여기서, 함수 A(k)는 아래 <수학식 9>와 같이 나타낼 수 있다.In the present invention, in order to model arousal, the function A(k) is a motion component along an image sequence in an emotional situation at frame k.
Figure 112018042716250-pat00035
And adaptive components
Figure 112018042716250-pat00036
The weighted average of motion and adaptation is used to incorporate the contribution of. The function is convolved into a smoothing window long enough to merge the neighboring local maximums of the components through a moving average filter. Results are normalized to the range of 0 and 1. Here, the function A(k) can be expressed as <Equation 9> below.

[수학식 9][Equation 9]

Figure 112018042716250-pat00037
Figure 112018042716250-pat00037

여기서,

Figure 112018042716250-pat00038
Figure 112018042716250-pat00039
인 두 함수에 가중치를 부여하기 위한 계수들을 의미할 수 있다.here,
Figure 112018042716250-pat00038
The
Figure 112018042716250-pat00039
It may mean coefficients for weighting the iron function.

호환성 기준은 arousal 과 valence 시간 곡선을 결합하여 생성된 정서 커브가 2D 감정 공간과 유사한 포물선 모양을 갖는 valence-arousal 좌표계의 영역을 포함해야 한다는 것을 요구한다. 여기서, 호환성 기준은 arousal의 값과 이와 관련된 valence의 절대 값을 요구할 수 있다.The compatibility criterion requires that the emotional curve generated by combining the arousal and valence time curves should contain a region of the valence-arousal coordinate system with a parabolic shape similar to the 2D emotional space. Here, the compatibility criterion may require the arousal value and the absolute value of the associated valence.

따라서, arousal 값의 범위는 valence 의 절대 값 범위를 결정할 수 있다.Therefore, the range of arousal values can determine the absolute value range of valence.

즉, 본 발명은 현재 프레임 k에서 arousal A(k)의 값을 고려하여 이 값의 범위 의존성을 포착하는 함수 r(k)를 정의함으로써, valence를 모델링할 수 있다.That is, the present invention can model valence by defining a function r(k) that captures the range dependency of this value in consideration of the value of arousal A(k) in the current frame k.

여기서, 함수 r(k)는 아래 <수학식 10>과 같이 정의될 수 있으며, valence 함수 V(k)는 아래 <수학식 11>과 같이 나타낼 수 있다.Here, the function r(k) may be defined as <Equation 10> below, and the valence function V(k) may be expressed as <Equation 11> below.

[수학식 10][Equation 10]

Figure 112018042716250-pat00040
Figure 112018042716250-pat00040

[수학식 11][Equation 11]

Figure 112018042716250-pat00041
Figure 112018042716250-pat00041

여기서, r(k)는 예상된 느낌의 부정성은 상황에서의 감정적 적응의 양에 의해 결정된다는 것을 의미할 수 있다. 즉, 참가자(피실험자)가 상황을 회피하기 원한다면,

Figure 112018042716250-pat00042
는 작은 값이 되고 예상된 감정은 부정적인 경향이 된다.Here, r(k) may mean that the negativity of the expected feeling is determined by the amount of emotional adaptation in the situation. That is, if the participant (subject) wants to avoid the situation,
Figure 112018042716250-pat00042
Becomes a small value and the expected emotion becomes a negative tendency.

이 함수에 기초하여, valence 값 V(k)은 동기 구성 요소

Figure 112018042716250-pat00043
에 의해 세밀하게 결정될 수 있으며, 함수 A(k)와 유사하게 함수 V(k)는 동일한 이동 평균 필터로 평활화될 수 있다. 여기서,
Figure 112018042716250-pat00044
는 각각 r(k)와 V(k)의 가중된 평균을 의미할 수 있다.Based on this function, the valence value V(k) is a synchronous component
Figure 112018042716250-pat00043
It can be determined in detail, and similarly to function A(k), function V(k) can be smoothed with the same moving average filter. here,
Figure 112018042716250-pat00044
Can mean the weighted average of r(k) and V(k), respectively.

정서적 상황 표현Expressing emotional situation

본 발명은 상술한 계산에 의해 학습된 valence 값과 arousal 값으로부터 2D 감정 공간에 대한 정서적 상황을 표현한다. 본 발명은 GPR(Gaussian process regression) 모델을 근사화하기 위해 Gaussian process regression(GPR) 모델에 맞는 두 개의 감정 값을 사용한다. 여기서, GPR 모델은 선형 기본 함수와 정확한 맞춤 방법을 사용하는 비파라메트릭 커널 기반 확률 모델일 수 있다. 이것은 인간에 의해 감지되는 상황에 따른 감정적 궤적의 표현으로서 정서 커브를 생성할 수 있다.The present invention expresses an emotional situation for a 2D emotional space from valence values and arousal values learned by the above-described calculation. The present invention uses two emotion values that fit the Gaussian process regression (GPR) model to approximate the GPR (Gaussian process regression) model. Here, the GPR model may be a non-parametric kernel-based probability model using a linear basic function and an exact fitting method. This can generate an emotional curve as an expression of an emotional trajectory according to a situation sensed by a human being.

디바이스device 구성 Configuration

본 발명은 본 발명의 프레임워크에 대한 웨어러블 디바이스를 구성하고, 매일 상황에서 자유롭게 사용자가 행동할 수 있게 한다. 해당 기기는 사용자의 감정을 수집한다. 여기서, 해당 기기는 사용자의 뇌파(EEG) 신호를 수집할 수 있고, 멀티모달 센서 예를 들어, 카메라, 생리학 센서(Physiological Sensor) 등을 이용하여 사용자 주변의 다양한 영향을 캡쳐할 수 있다.The present invention constitutes a wearable device for the framework of the present invention, and allows the user to act freely in everyday situations. The device collects the user's emotions. Here, the device can collect the EEG signal of the user, and capture various effects around the user by using a multi-modal sensor, such as a camera or a physiological sensor.

정서적 상황 Emotional situation 데이터셋Dataset

정서적 상황은

Figure 112018042716250-pat00045
로 정의될 수 있다. 여기서,
Figure 112018042716250-pat00046
이고, Ns는 정서적 상황의 수를 의미하고, Ne는 상황에서 감정적 포인트의 쌍(valence, arousal)의 수를 의미할 수 있다.Emotional situation
Figure 112018042716250-pat00045
Can be defined as here,
Figure 112018042716250-pat00046
, Ns may mean the number of emotional situations, and Ne may mean the number of emotional points (valence, arousal) in the situation.

Ne는 수초 내에서 카메라의 프레임 레이트와 상황의 지속기간

Figure 112018042716250-pat00047
의 곱에 의하여 결정될 수 있다. 매 30초로부터 모든 감정 포인트들은 정서적 라벨의 단일 집합을 생성하기 위하여 평균될 수 있다. 모든 상황의 지속기간은 세 주석자(annotators)에 의해 매뉴얼적으로 결정될 수 있다. 어떤 상황은 실측 값(ground truth)으로 SAM-등급 라벨을 가질 수 있다. SAM-등급 상황은
Figure 112018042716250-pat00048
로 정의될 수 있으며,
Figure 112018042716250-pat00049
는 Ns 내에서 SAM-등급 상황의 인덱스를 의미할 수 있다. SAM-등급 상황은 본 발명의 프레임워크의 파라미터들을 추정하고 그 성능을 평가하는데 사용된다. 각 상황은 두 채널 EEG 신호와 가속도 측정 데이터를 포함한다. Ne is the frame rate of the camera and the duration of the situation within seconds.
Figure 112018042716250-pat00047
It can be determined by the product of. From every 30 seconds all emotion points can be averaged to create a single set of emotional labels. The duration of any situation can be determined manually by three annotators. Some situations may have a SAM-grade label as the ground truth. SAM-grade situation
Figure 112018042716250-pat00048
Can be defined as
Figure 112018042716250-pat00049
May denote an index of a SAM-grade situation within Ns. The SAM-grade situation is used to estimate the parameters of the framework of the present invention and evaluate its performance. Each situation includes two channel EEG signals and acceleration measurement data.

파라미터 설정(setting)Parameter setting

정서적 상황을 모델링하고 정서 커브로 표현하기 위하여, 각 참가자에 대한 파라미터들은 5배 교차 유효성 스킴(five-fold cross-validation scheme)을 통해 설정된다. 이 파라미터들은 상황에 대한 첫번째 프레임에서 적응 구성 요소가 -1/

Figure 112018042716250-pat00050
의 최소 값을 가지도록 2와 -1로 설정될 수 있다.
Figure 112018042716250-pat00051
Figure 112018042716250-pat00052
는 매 오일 동안 최대 값에 의해 결정될 수 있다.To model the emotional situation and express it with an emotional curve, the parameters for each participant are set through a five-fold cross-validation scheme. These parameters have an adaptive component of -1/ in the first frame of the situation.
Figure 112018042716250-pat00050
It can be set to 2 and -1 to have the minimum value of.
Figure 112018042716250-pat00051
Wow
Figure 112018042716250-pat00052
Can be determined by the maximum value for every oil.

도 5는 상이한 파라미터

Figure 112018042716250-pat00053
,
Figure 112018042716250-pat00054
Figure 112018042716250-pat00055
에 대하여 SAM과 본 발명의 프레임워크 간 valence와 arousal 등급 거리에 관한 5배 교차 유효성 스킴 결과를 나타낸 것이다. 정서 커브는 공간과 시간적 상황에서 정서적 역학(affective dynamics)을 표현하고 정서적 라벨의 복수 쌍을 포함하기 때문에 SAM 등급의 쌍과 비교할 때 상이한 것을 알 수 있다. 이는 valence와 arousal 등급이 동일한 상황에서 감정을 표현하는데 불연속 값을 가지기 때문이다. 비교를 위해, 본 발명은 모든 참가자들에 대해 0부터 6까지 스케일된 정서적 라벨 쌍의 평균 제곱 오차 제곱근(RMSE; root mean squared errors)을 계산한다. 여기서, 정서적 라벨 쌍의 평균 제곱 오차 제곱근은 아래 <수학식 12>와 같이 계산될 수 있다.5 shows different parameters
Figure 112018042716250-pat00053
,
Figure 112018042716250-pat00054
and
Figure 112018042716250-pat00055
The results show the results of the 5 times cross-effectiveness scheme for valence and arousal rating distance between SAM and the framework of the present invention. It can be seen that the emotional curve is different when compared to the SAM-grade pair because it expresses affective dynamics in spatial and temporal situations and includes multiple pairs of emotional labels. This is because the valence and arousal grades have a discontinuity in expressing emotion in the same situation. For comparison, the present invention calculates the root mean squared errors (RMSE) of a pair of emotional labels scaled from 0 to 6 for all participants. Here, the square root of the mean square error of the emotional label pair can be calculated as shown in <Equation 12>.

[수학식 12][Equation 12]

Figure 112018042716250-pat00056
Figure 112018042716250-pat00056

여기서,

Figure 112018042716250-pat00057
는 예측된 정서적 라벨의 쌍을 의미하고,
Figure 112018042716250-pat00058
는 상황
Figure 112018042716250-pat00059
에서 실측 값 라벨의 쌍을 의미할 수 있다. 0은 부정적 밸런스 등급을 표현하고, 3은 중립 밸런스 등급을 표현하며, 6은 긍정적 밸런스 등급을 표현한다. 또한, 0은 중립 어라우절 등급을 표현하며, 3은 낮은 어라우절 등급을 표현하며, 6은 높은 어라우절 등급을 표현한다.here,
Figure 112018042716250-pat00057
Means a pair of predicted emotional labels,
Figure 112018042716250-pat00058
The situation
Figure 112018042716250-pat00059
In can mean a pair of measured value labels. 0 represents a negative balance grade, 3 represents a neutral balance grade, and 6 represents a positive balance grade. In addition, 0 represents a neutral aura level, 3 represents a low aura level, and 6 represents a high aura level.

Figure 112018042716250-pat00060
Figure 112018042716250-pat00061
가 어라우절 값 A(k)를 결정하는 반면, 밸런스 값 V(k)는
Figure 112018042716250-pat00062
Figure 112018042716250-pat00063
파라미터에 의해 결정된다. 파라미터
Figure 112018042716250-pat00064
은 적응 구성 요소 l(k)가 0이 되는 경우 결정된다. 이는 밸런스 값 V(k)의 부호와 어라우절 값 A(K)의 증가에 직접적으로 영향을 준다.
Figure 112018042716250-pat00065
가 더 작은 값을 가지게 되면, 적응 구성 요소 l(k)는 0이 되고 밸런스 값 V(k)의 부호는 앞선 k에서 양이 된다. 도 7a에 도시된 바와 같이, 밸런스 등급에 대한 최고 성능은 0.5이고, 두 개의 서로 다른 포인트 0.25와 0.75은 밸런스 등급에 대하여 그 다음 최고 파라미터이다. 반대로, 도 7b에 도시된 바와 같이 어라우절 등급의 거리는 대부분의 참가자에 대해 0.5 이후에 최소화된다. 파라미터
Figure 112018042716250-pat00066
Figure 112018042716250-pat00067
는 모션 구성 요소와 적응 구성 요소에 관한 어라우절 레벨을 결정한다. 그 결과, 본 발명의 시스템은 도 7c에 도시된 바와 같이 파라미터
Figure 112018042716250-pat00068
에 대하여 대부분의 참가자에 대해 0.7과 0.8 사이에서 어라우절 등급에 대하여 최고의 성능을 가지는 것을 알 수 있다.
Figure 112018042716250-pat00069
이 0.85보다 크고 0.4보다 작은 경우 범위를 벗어난 거리는 거의 동일하게 유지된다. 파라미터
Figure 112018042716250-pat00070
Figure 112018042716250-pat00071
는 밸런스 레벨을 결정한다.
Figure 112018042716250-pat00072
이 더 큰 값을 가지게 되면 그 결과 밸런스는 접근-회피 행동과 연관된 감정을 표현할 수 없다. 도 7d에 도시된 바와 같이, 본 발명에 따른 시스템의 성능은 파라미터
Figure 112018042716250-pat00073
이 변하는 경우 현저하게 변동하는 것을 알 수 있다. 본 발명에서 모든 참가자에 대해
Figure 112018042716250-pat00074
Figure 112018042716250-pat00075
을 0.75와 0.5로 설정하고,
Figure 112018042716250-pat00076
은 실험에서 각 개인에 대해 최소 거리를 만들기 위하여 0.25, 0.5, 0.75에서 선택될 수 있다.
Figure 112018042716250-pat00060
Wow
Figure 112018042716250-pat00061
Determines the aura value A(k), while the balance value V(k)
Figure 112018042716250-pat00062
Wow
Figure 112018042716250-pat00063
It is determined by parameters. parameter
Figure 112018042716250-pat00064
Is determined when the adaptive component l(k) becomes zero. This directly affects the sign of the balance value V(k) and the increase in the aura clause value A(K).
Figure 112018042716250-pat00065
If has a smaller value, the adaptive component l(k) becomes 0 and the sign of the balance value V(k) becomes positive in the preceding k. As shown in Fig. 7A, the highest performance for the balance class is 0.5, and two different points 0.25 and 0.75 are the next highest parameters for the balance class. Conversely, as shown in FIG. 7B, the distance of the aura level is minimized after 0.5 for most participants. parameter
Figure 112018042716250-pat00066
and
Figure 112018042716250-pat00067
Determines the aura level for the motion component and the adaptive component. As a result, the system of the present invention is a parameter as shown in Figure 7c
Figure 112018042716250-pat00068
For most participants, it is found that it has the best performance for the aura level between 0.7 and 0.8.
Figure 112018042716250-pat00069
If it is greater than 0.85 and less than 0.4, the out-of-range distance remains almost the same. parameter
Figure 112018042716250-pat00070
and
Figure 112018042716250-pat00071
Determines the balance level.
Figure 112018042716250-pat00072
With this larger value, the resulting balance cannot express the emotions associated with approach-avoidance behavior. As shown in Figure 7d, the performance of the system according to the invention is a parameter
Figure 112018042716250-pat00073
It can be seen that when it changes, it fluctuates remarkably. For all participants in the present invention
Figure 112018042716250-pat00074
and
Figure 112018042716250-pat00075
Set to 0.75 and 0.5,
Figure 112018042716250-pat00076
Can be selected from 0.25, 0.5, and 0.75 to create the minimum distance for each individual in the experiment.

분류를 위한 EEG 데이터 전처리와 설정Preprocessing and setting of EEG data for classification

전처리 과정에서, EEGlab 툴박스를 이용한 2Hz 컷오프 주파수를 가지는 하이패스 필터와 눈 아티팩트를 제거하기 위한 같은 블라인드 소스 분리 기술이 적용된다. 제한된 독립 구성요소 분석(cICA; constrained independent component analysis) 알고리즘은 모션 아티팩트를 제거함으로써, 신호를 정제하는데 적용된다. 상기 cICA 알고리즘은 ICA의 확장된 알고리즘이다.In the pre-treatment process, a high-pass filter with a 2 Hz cutoff frequency using the EEGlab toolbox and the same blind source separation technique for removing eye artifacts are applied. A constrained independent component analysis (cICA) algorithm is applied to refine the signal by removing motion artifacts. The cICA algorithm is an extended algorithm of ICA.

EEG 신호는 모션 아티팩트에 대해 취약하다. 본 발명은 몸 움직임에 의해 발생하는 EEG 신호에서 모션 아티팩트를 분리하고 제거하는 대신, 모션 아티팩트와 상관 관계가 높은 EEG 신호를 포기 또는 제거함으로써, EEG 신호의 질을 향상시킬 수 있다. 이를 위해, 본 발명은 가속도계 데이터 G()를 0부터 1까지의 범위로 변화시킴으로써, EEG 신호를 분리된 두 그룹으로 나눌 수 있다. 분리된 두 그룹 각각으로부터 특징들 예를 들어, 평균 파워, 최대 진폭, 진폭의 표준 편차, 진폭이 첨도(Kurtosis)와 진폭의 비대칭(Skewness) 등의 특징들을 추출한다. 이렇게 추출된 특징들은 깨끄한 EEG의 주요 특성들을 묘사히기 위하여 행렬화된다. PCA(principal component analysis)를 이용하여 2차원 공간에서 특징들을 표현한 후 2차원 공간에서 두 그룹 간의 바타차야 거리(Bhattacharyya distance)를 계산한다. 옵티컬 G()는 깨끗한 EEG와 오염된 EEG 같의 미분기로서, 두 그룹 간의 최대 거리에 의해 결정된다. 본 발명에서 생리학적 관계와 심리학적 관계를 분석하기 위하여, 가속도계 데이터 G()가 최적 값보다 적은 정서적 상황에서 EEG 스펙트럼 파워, 세 구성 요소 그리고 정서적 라벨을 사용한다.EEG signals are vulnerable to motion artifacts. The present invention can improve the quality of the EEG signal by abandoning or removing the EEG signal having a high correlation with the motion artifact, instead of separating and removing the motion artifact from the EEG signal generated by body movement. To this end, the present invention allows the EEG signals to be divided into two separate groups by changing the accelerometer data G() in a range from 0 to 1. Features are extracted from each of the two separate groups, for example, average power, maximum amplitude, standard deviation of amplitude, and amplitude as Kurtosis and amplitude skewness. These extracted features are matrixed to describe the main characteristics of the enlightened EEG. PCA (principal component analysis) is used to express the features in a two-dimensional space, and then the batacharyya distance between two groups is calculated in the two-dimensional space. Optical G() is a clean EEG and a contaminated EEG-like differentiator, determined by the maximum distance between the two groups. To analyze physiological and psychological relationships in the present invention, EEG spectral power, three components, and emotional labels are used in an emotional situation in which the accelerometer data G() is less than an optimal value.

EEG 신호를 이용한 정서 커브로부터 획득된 정서적 라벨의 효율성을 연구하기 위하여, 본 발명은 정서 커브를 밸런스-어라우절 공간에서 7개의 상태 예를 들어, 낮은 어라우절/부정적 밸런스(LANV; low-arousal/negative valence), 낮은 어라우절/중립 밸런스(LAUV; low-arousal/neutral valence), 낮은 어라우절/긍정적 밸런스(LAPV; low-arousal/positive valence), 중간 어라우절/부정적 밸런스(MANV; mid-arousal/negative valence), 중간 어라우절/긍정적 밸런스(MAPV; mid-arousal/positive valence), 높은 어라우절/부정적 밸런스(HANV; high arousal/negative valence) 및 높은 어라우절/긍정적 밸런스(HAPV; high-arousal/positive valence)로 분할한다. 여기서, 본 발명은 실제 실험에서 특성화되지 않기 때문에 MANV와 HAUV는 제외할 수 있다.In order to study the efficiency of the emotional label obtained from the emotional curve using the EEG signal, the present invention provides the emotional curve with seven states in the balance-aura space, for example, low-arousal/ LANV. negative valence), low-arousal/neutral balance (LAUV), low-arousal/positive valence (LAPV), mid-arousal/negative balance (MANV; mid-arousal) /negative valence), mid-arousal/positive valence (MAPV), high arousal/negative valence (HANV) and high arousal/negative valence (HAPV) /positive valence). Here, since the present invention is not characterized in actual experiments, MANV and HAUV can be excluded.

감정 인식에서 EEG 기반 특징들을 추출하는 몇몇 연구들은 시간, 시간 주파수, 주파수의 세 도메인으로 카테고리화한다. 신호가 심리 기간 동안 고정되어 있다 가정하면, 세 도메인들 중 주파수 도메인 특징이 가장 많이 사용된다. 따라서, 본 발명은 상이한 주파수 대역에서 주파수 도메인 특징들 예를 들어, 고차 스펙트럼(HOS; higher order spectra), 파워 스펙트럼 밀도(PSD; power spectral density)를 사용한다.Some studies that extract EEG-based features from emotion recognition categorize them into three domains: time, time frequency, and frequency. Assuming that the signal is fixed during the psychological period, the frequency domain feature is the most used of the three domains. Thus, the present invention uses frequency domain features in different frequency bands, such as higher order spectra (HOS), power spectral density (PSD).

HOS 특징은 신호의 고차 모멘트 또는 누적(cumulants)의 스펙트럼 표현으로 인간 감정을 분석하는데 사용된다. 특히 본 발명은 EEG 신호를 이용한 정서 커브로부터 획득된 정서적 라벨의 효능을 연구하기 위하여, 네 개의 주파수 대역 예를 들어, 쎄타(4~7Hz), 알파(8~13Hz), 베타(14~29Hz), 감마(30~45Hz)의 주파수 대역에서 바이코히어런스

Figure 112018042716250-pat00077
의 평균을 사용한다. 바이코히어런스는 신호 x(t)의 정규화된 바이스펙트럼
Figure 112018042716250-pat00078
일 수 있다. 신호들은 겹치지 않는 세그먼트들로 분할되고, 각 세그먼트 내에서 데이터는 해닝(Hanning) 윈도우 및 푸리에 변환된다. 여기서, 바이스펙트럼은 아래 <수학식 13>과 같이 정의될 수 있다.The HOS feature is used to analyze human emotions by spectral representation of higher order moments or cumulants of the signal. In particular, the present invention, in order to study the efficacy of the emotional label obtained from the emotional curve using the EEG signal, four frequency bands, for example, theta (4-7 Hz), alpha (8-13 Hz), beta (14-29 Hz) , Bi-coherence in the frequency band of gamma (30-45 Hz)
Figure 112018042716250-pat00077
Use the average of. The bicoherence is the normalized bispectrum of the signal x(t).
Figure 112018042716250-pat00078
Can be The signals are divided into non-overlapping segments, and the data within each segment is transformed to a Hanning window and Fourier. Here, the bi-spectrum can be defined as <Equation 13> below.

[수학식 13][Equation 13]

Figure 112018042716250-pat00079
Figure 112018042716250-pat00079

여기서,

Figure 112018042716250-pat00080
는 신호 x(t)의 푸리에 변환을 의미하고,
Figure 112018042716250-pat00081
Figure 112018042716250-pat00082
의 복소 공액(complex conjugate)을 의미할 수 있다. 바이스펙트럼은 신호의 다른 구성 요소의 위상 정보를 보전한다. 두 주파수 구성 요소
Figure 112018042716250-pat00083
Figure 112018042716250-pat00084
Figure 112018042716250-pat00085
의 주파수에서 세번째 구성 요소가 존재하는 경우 위상으로 결합된다. 바이코히어런스
Figure 112018042716250-pat00086
는 아래 <수학식 14>와 같이 정의될 수 있다.here,
Figure 112018042716250-pat00080
Is the Fourier transform of the signal x(t),
Figure 112018042716250-pat00081
The
Figure 112018042716250-pat00082
It may mean a complex conjugate of. Bispectrum preserves the phase information of other components of the signal. Two frequency components
Figure 112018042716250-pat00083
and
Figure 112018042716250-pat00084
The
Figure 112018042716250-pat00085
At the frequency of the third component is present, the phases are combined. Bicoherence
Figure 112018042716250-pat00086
Can be defined as <Equation 14> below.

[수학식 14][Equation 14]

Figure 112018042716250-pat00087
Figure 112018042716250-pat00087

여기서,

Figure 112018042716250-pat00088
Figure 112018042716250-pat00089
에서 파워 스펙트럼을 의미할 수 있다. 바이코히어런스는 두 주파수 구성 요소 간의 위상 커플링 범위를 정량화한다. 결과 주파수 분해능은
Figure 112018042716250-pat00090
Figure 112018042716250-pat00091
축 모두에서 1Hz이다. 네 개의 주파수 대역에서 바이코히어런스
Figure 112018042716250-pat00092
의 평균 크기는 아래 <수학식 15>와 같이 계산될 수 있다.here,
Figure 112018042716250-pat00088
The
Figure 112018042716250-pat00089
Can mean power spectrum. Bicoherence quantifies the range of phase coupling between two frequency components. The resulting frequency resolution
Figure 112018042716250-pat00090
and
Figure 112018042716250-pat00091
1 Hz on both axes. Bicoherence in four frequency bands
Figure 112018042716250-pat00092
The average size of can be calculated as <Equation 15> below.

[수학식 15][Equation 15]

Figure 112018042716250-pat00093
Figure 112018042716250-pat00093

여기서, q1과 q2는 각각 주파수 대역을 의미하고,

Figure 112018042716250-pat00094
는 두 주파수 대역 q1과 q2에서 주파수 구성 요소들을 의미할 수 있다. PSD의 파워 특징은 Welchs 방법을 이용하여 추정되고 네 개의 주파수 대역으로 나누어진다.
Figure 112018042716250-pat00095
와 네 개 주파수 대역의 평균 파워는 EEG 신호를 이용한 정서 커브로부터 획득된 정석적 라벨의 상관을 분석하는데 사용된다.Here, q1 and q2 mean frequency bands,
Figure 112018042716250-pat00094
Can mean frequency components in two frequency bands q1 and q2. The power characteristics of the PSD are estimated using the Welchs method and divided into four frequency bands.
Figure 112018042716250-pat00095
And the average power of the four frequency bands are used to analyze the correlation of the qualitative label obtained from the emotional curve using the EEG signal.

도 6은 어라우절 커브와 밸런스 커브를 결합한 정서 커브에 대한 일 예시도를 나타낸 것으로, 도 6에 도시된 각 커브는 참가자의 일상에서 정서적 상황의 감정 표현을 표현하며, 포물선 형상의 평균 커브는 중립 밸런스와 하이 레벨 어라우절에 의해 특성화된 몇몇 감정들을 제외하고는 V-A 감정 공간을 커버한다. 여기서, 점선 라인은 참가자들 개인들에 대한 정서 커브를 나타내고, 실선은 모든 참가자들의 평균 커브를 나타낸다.FIG. 6 shows an example of an emotional curve combining an arousal curve and a balance curve, and each curve illustrated in FIG. 6 expresses an emotional expression of an emotional situation in a participant's daily life, and the average curve of a parabolic shape is neutral It covers the VA emotion space, with the exception of some emotions characterized by balance and high-level aura clauses. Here, the dotted line represents the emotional curve for the individual participants, and the solid line represents the average curve for all participants.

생리학적 특수성: 7 개의 정서적 상태의 네 개의 주파수 대역에서 바이코히어런스 크기와 PSD에 대한 ANOVA 테스트 결과는 베타 주파수 대역에서는 0.0679의 p 값을 갖고 나머지 주파수 대역에서는 0.05보다 낮은 p 값을 갖는다. p값은 모든 주파수 대역에서의 바이코히어런스 크기에 의한 것이고, 쎄타, 알파, 감마 주파수에서의 PSD는 세 주파수 대역이 7가지의 감정적 상태와 크게 다르게 나타난다. 이러한 결과는 PSD와 바이코히어런스가 감정들을 분류하는 생리학적 특징들로 유용하게 사용될 수 있다는 것을 의미한다. Physiological specificity : The ANOVA test results for the bicoherence magnitude and PSD in four frequency bands in seven emotional states have a p value of 0.0679 in the beta frequency band and a p value lower than 0.05 in the other frequency bands. The p-value is due to the magnitude of bicoherence in all frequency bands, and in theta, alpha, and gamma frequencies, the three frequency bands appear significantly different from the seven emotional states. These results indicate that PSD and bicoherence can be useful as physiological features that classify emotions.

ANOVA의 결과에 기초하여, 본 발명은 EEG 기반 감정 인식에서 신뢰할 수 있는 정서적 라벨 역할을 할 수 있도록 정서 커브의 효율성을 잘 평가할 수 있는 분류 프로세스를 설계할 수 있다. 특히, 본 바명은 네 개의 주파수 대역에서 PSD와 바이코히어러슨 특징들을 추출하고, 특징 선택을 위한 상호 정보를 사용하며, 인식에서 가장 높은 정확성을 생성하는 5차 다항식 커널을 가지는 SVM(support vector machine) 알고리즘을 이용하여 선택된 특징들을 7가지의 정서적 상태들로 분류한다. 서로 다른 감정 상태들을 구별하기 위한 신뢰할 수 있는 감정 라벨로서의 정서 커브의 효율성은 주제별 분류 성능에 의해 평가될 수 있다.Based on the results of ANOVA, the present invention can design a classification process that can evaluate the efficiency of the emotional curve well so that it can act as a reliable emotional label in EEG-based emotion recognition. In particular, this name is SVM (support vector machine) with a fifth-order polynomial kernel that extracts PSD and bicohererson features from four frequency bands, uses mutual information for feature selection, and generates the highest accuracy in recognition. ) The selected features are classified into seven emotional states using an algorithm. The effectiveness of the emotional curve as a reliable emotional label for distinguishing different emotional states can be evaluated by thematic classification performance.

도 7은 모든 참가자들에 대한 5배 교차 유효성 스킴을 통한 분류 절차의 결과에 대한 일 예시도를 나타낸 것으로, 7가지의 정서적 상태에 대한 모든 개별 결과의 평균 정확도를 나타낸 것이다.FIG. 7 shows an exemplary diagram of the results of the classification procedure through the 5-fold cross-effectiveness scheme for all participants, and shows the average accuracy of all individual results for the seven emotional states.

도 7에 도시된 바와 같이, 7가지의 정서적 상태를 인식하기 위한 정확도는 66.65%이며, 이는 정서적 라벨에 의해 그룹화된 EEG 신호가 뚜렷한 패턴을 가진다는 것을 의미한다. LAUV상태는 3.7의 가장 낮은 표준 편차를 가지고 가장 높은 정확도를 가지고, LAPV 상태와 LANV 상태는 다른 5가지의 상태보다 상대적으로 더 높은 표준 편차인 7.09와 7.17을 가진다. 이는 참가자들이 LAPV와 LANV 상태에서 서로 다른 활성화 패턴을 가지는 반면, LAUV 상태에서 차분하고 편안한 느낌과 같은 뇌 활동의 유사한 패턴을 가지는 것을 의미한다.As shown in Fig. 7, the accuracy for recognizing the seven emotional states is 66.65%, which means that the EEG signals grouped by the emotional labels have distinct patterns. The LAUV state has the lowest standard deviation of 3.7 and the highest accuracy, and the LAPV state and LANV state have relatively higher standard deviations of 7.09 and 7.17 than the other five states. This means that participants have different activation patterns in the LAPV and LANV states, while similar patterns of brain activity, such as feeling calm and relaxed in the LAUV state.

생리학적 특성: 본 발명은 심리학적 측정과 생리학적 증거 사이의 갭을 줄이기 위하여 4개의 주파수 대역에서의 EEG 스펙트럼 파워와 정서적 라벨 간의 통계적인 관계를 조사한다. 아래 표 1을 통해, 알파 주수파 성분은 두 등급에 대해 더 높은 상관 관계를 가지는 것을 알 수 있다. Physiological characteristics : The present invention investigates the statistical relationship between EEG spectral power and emotional labels in four frequency bands to reduce the gap between psychological measurements and physiological evidence. Through Table 1 below, it can be seen that the alpha frequency component has a higher correlation for the two classes.

Figure 112018042716250-pat00096
Figure 112018042716250-pat00096

여기서, F3과 F4는 EEG 신호를 감지하기 위한 두 전극을 의미할 수 있다.Here, F3 and F4 may mean two electrodes for detecting the EEG signal.

본 발명의 정서적 데이터셋은 참자자들의 손 움직임을 포함하고 있으며, 운동 피질 영역에서 움직임에 의해 활성화되는 Mu 리듬(8~11Hz)는 알파 주파수 성분과 강한 관련성이 있기 때문에 움직임과 관련된 운동 피질 활성화는 밸런스 등급 또는 어라우절 등급과 상관 관계가 있다.The emotional data set of the present invention includes the hand movements of the participants, and since the Mu rhythm (8-11 Hz) activated by movement in the motor cortex region has a strong relationship with the alpha frequency component, the movement cortex activation related to movement is It is correlated with the balance level or aura level.

그러나, 이것은 손 움직임의 심리학적 측정이 생물학적 변화와 관련이 없다는 것을 의미하지는 않는다. 알파 주파수 대역이 손 움직임에 의해 오염되었는지 심리적 측정과 관련 있는지 확인하기 위해, 본 발명은 네 개의 주차수 대역의 파워와 세 개의 구성 요소 간의 상관 계수를 계산한다. 아래 표 2는 생리학적 뇌 활동과 정서적 상태 사이의 각 구성 요소에 대한 상관 관계를 보여준다.However, this does not mean that the psychological measurement of hand movements is not related to biological changes. To determine if the alpha frequency band is contaminated by hand movements or related to psychological measurements, the present invention calculates a correlation coefficient between the powers of the four parking bands and the three components. Table 2 below shows the correlation for each component between physiological brain activity and emotional state.

Figure 112018042716250-pat00097
Figure 112018042716250-pat00097

상술한 바와 같이 모션 구성 요소와 동기 구성 요소는 움직임에 의해 영향을 받지만, 동기 구성 요소만이 심리학에서 사용자의 접근 행동을 반영하고 밸런스 등급에서 이를 정량화한다. 모션 구성 요소 및 동기 구성 요소와 연관된 알파 주파수 대역에서의 계수 값과 함께, 알파 주파수 대역에서의 생리학적 변화와 움직임의 심리학적 측정 간의 연관성은 운동 피질 활성화의 결과일 수 없다. 이는 Mu 리듬이 활성화와 관련 있고 모션 구성 요소가 아니라 동기 구성 요소에만 긍정적으로 관련이 있기 때문이다.As described above, the motion component and the synchronous component are affected by movement, but only the synchronous component reflects the user's approach behavior in psychology and quantifies it in the balance class. The association between the physiological change in the alpha frequency band and the psychological measurement of motion along with the coefficient values in the alpha frequency band associated with the motion component and the synchronous component cannot be the result of motor cortex activation. This is because Mu Rhythm is related to activation and positively related only to the synchronous component, not the motion component.

게다가, 본 발명은 정서적 라벨이 심리학적 현상에 기인한 생리학적 특징을 포함하는지를 명확하게 한다. EEG 스펙트럼 파워와 세 구성 요소간의 관계를 조사하기 위하여, 본 발명은 Granger 인과성 테스트를 사용한다. 여기서, Granger 인과성 테스트는 두 시리즈 간의 정보의 흐름을 분석할 수 있다. x1에서의 패턴이 어떤 시간 기간 내에 x2에서 반복된다면 x2 Granger가 x1을 야기한다고 할 수 있다. 이 때, 본 발명은 벡터 자기 회귀 시계열(vector autoregressive time series)에 의해 적합화된 다변수 Granger 인과성 테스트를 사용할 수 있다.Moreover, the present invention makes it clear whether the emotional label includes physiological features due to psychological phenomena. To investigate the relationship between EEG spectral power and the three components, the present invention uses the Granger causality test. Here, the Granger causality test can analyze the flow of information between the two series. It can be said that if the pattern at x1 is repeated at x2 within a certain period of time, the x2 granger causes x1. At this time, the present invention can use a multivariate Granger causality test that is fit by a vector autoregressive time series.

본 발명은 모든 참가자에 대하여 세 가지 구성 요소로부터 네 개의 주파수 대역에서 EEG 스펙트럼 파워로 Granger 인과성을 계산한다. 인과성 테스트의 평균 0.29, 0.36 및 0.08은 각각 세 가지 구성 요소의 영향 하에 있는 EEG 스펙트럼 파워에 대하여 양의 값을 갖는 것을 알 수 있다. 알파 주파수 대역과 쎄타 주파수 대역은 상대적으로 높은 인과성을 가지며, 다른 구성 요소와 비교해서 모든 구성 요소로부터 영향을 받는다. 반대로, 베타 주파수 대역은 세 가지 구성 요소의 양항 하에서 낮은 인과성을 가진다.The present invention calculates Granger causality with EEG spectral power in four frequency bands from three components for all participants. It can be seen that the mean 0.29, 0.36 and 0.08 of the causality test have positive values for the EEG spectral power under the influence of the three components, respectively. The alpha frequency band and theta frequency band have a relatively high causality and are influenced by all components compared to other components. Conversely, the beta frequency band has a low causality under both components.

다른 정서적 라벨에서 뇌 신호의 특성은 상관 관계와 인과성 테스트에 의해 분석되며, EEG 기반 통계 분석을 통해 생리학적 응답은 연속적인 정서적 라벨과 상관 관계가 있다는 것을 알 수 있다.In other emotional labels, the characteristics of brain signals are analyzed by correlation and causality tests, and EEG-based statistical analysis shows that physiological responses correlate with successive emotional labels.

이와 같이, 본 발명에 따른 프레임워크는 정서적인 상황 표현과 모델링을 수행하며, 다음과 같은 기여도를 제공할 수 있다.As such, the framework according to the present invention performs emotional context expression and modeling, and can provide the following contributions.

(1) 정서적 상황 표현 : 본 발명은 정서 커브를 제시한다. 정서 커브는 시간이 지남에 따라 밸런스와 어라우절 감정 공간에 대한 누적된 포인트 집합으로, 실제 환경에서의 감정적 역동성을 나타낸다.(1) Emotional situation expression: The present invention proposes an emotional curve. The emotional curve is a set of accumulated points for the balance and the emotion space over time, and represents the emotional dynamics in the real environment.

(2) 정서적 상황 모델링 : 본 발명은 이미지 시퀀스가 *?*주어지면, 예상된 느낌을 감지하고 상황의 변화를 추적한다. 본 발명은 상황의 변화를 모델링하기 위해 동기, 모션 및 적응이라는 세 가지 구성 요소를 제시하는데, 구성 요소들은 상황에 대한 감정적인 반응을 반영하기 위해 추출된 낮은 레벨의 시각적 특징으로 계산될 수 있다. 특히, 동기 구성 요소는 접근 회피 경향을 기초로 하고, 상황에서의 정서적 내용에 응답하여 발생하는 감정적인 행동으로부터의 행동 경향의 *?*느낌을 정량화한다.(2) Emotional situation modeling: In the present invention, when an image sequence is given *?*, an expected feeling is sensed and a change in the situation is tracked. The present invention proposes three components to model changes in the situation: motivation, motion and adaptation, which can be calculated with low-level visual features extracted to reflect the emotional response to the situation. In particular, motivational components are based on tendency to avoid access and quantify *?* feelings of behavioral tendencies from emotional behaviors that arise in response to emotional content in context.

(3) 정서적 라벨의 효과를 검증하기 위한 생리학적 실험 : 본 발명은 실제 시나리오에서 여러 날 동안의 장기간의 일련의 생활 기록을 이용하여 평가하며, 서로 다른 감정 라벨에 대한 뇌 신호의 특성을 조사하고 분석한다. 뇌파 측정(Electroencephalography, EEG) 기반의 통계 분석은 생리적인 반응이 지속적으로 정서적 라벨과 관련이 있음을 보여준다.(3) Physiological experiments to verify the effects of emotional labels: The present invention is evaluated using a series of long-term life records for several days in real scenarios, and investigates the characteristics of brain signals for different emotional labels, Analyze. Statistical analysis based on electroencephalography (EEG) shows that physiological responses are consistently related to emotional labeling.

이러한 본 발명에 따른 프레임워크는 감정 추정 시스템으로 구현될 수 있다. 예컨대, 본 발명의 일 실시예에 따른 감정 추정 시스템은 계산부, 모델링부, 생성부 및 추정부를 포함할 수 있다. 물론, 여기서의 구성 수단들은 상황에 따라 달라질 수 있다.The framework according to the present invention may be implemented as an emotion estimation system. For example, the emotion estimation system according to an embodiment of the present invention may include a calculation unit, a modeling unit, a generation unit, and an estimation unit. Of course, the configuration means here may vary depending on the situation.

계산부는 이미지 시퀀스를 이용한 사용자의 정서적 상황(affecttive situation)의 학습을 통해 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산한다.The calculator calculates a motion component, a motivation component, and an adaptation component through learning the user's affective situation using an image sequence.

이 때, 계산부는 이미지 시퀀스에 대하여, 옵티컬 플로우(optical flow) 추정을 사용하여 인접한 프레임 사이의 정서적 대상의 모션을 특성화하고 정량화함으로써, 상기 모션 구성 요소를 계산할 수 있다.At this time, the calculation unit may calculate the motion component by characterizing and quantifying motion of an emotional object between adjacent frames using an optical flow estimation for an image sequence.

나아가, 계산부는 이미지 시퀀스의 각 이미지 프레임에서 추정된 모션 활동성과 상기 사용자의 몸에 부착된 가속도계에 의해 수집된 가속도계 데이터를 이용하여 모션 잡음을 제거함으로써, 모션 구성 요소를 계산할 수 있다.Furthermore, the calculator may calculate motion components by removing motion noise using motion activity estimated in each image frame of the image sequence and accelerometer data collected by the accelerometer attached to the user's body.

더 나아가, 계산부는 이미지 시퀀스의 이미지 프레임에서 사용자의 관심 대상에 대응하는 돌출 영역을 획득하고, 상기 획득된 돌출 영역에 기초하여 상기 동기 구성 요소를 계산할 수 있다.Furthermore, the calculator may acquire a protruding area corresponding to a user's interest in an image frame of an image sequence, and calculate the synchronous component based on the obtained protruding area.

더 나아가, 계산부는 이미지 시퀀스의 이미지 프레임에서 상기 관심 대상에 대한 주변 일정 영역의 옵티컬 플로우를 이용한 발산 및 회전을 계산함으로써, 상기 동기 구성 요소를 계산할 수 있다.Furthermore, the calculation unit may calculate the synchronous component by calculating divergence and rotation using an optical flow of a predetermined region around the target of interest in the image frame of the image sequence.

더 나아가, 계산부는 시간에 따라 변하는 상기 이미지 시퀀스의 현재 프레임까지 누적된 정서적 상황 길이에 기초하여 상기 적응 구성 요소를 계산할 수 있다.Furthermore, the calculation unit may calculate the adaptive component based on the emotional situation length accumulated up to the current frame of the image sequence that changes over time.

모델링부는 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링한다.The modeling unit models a balance model and an arousal model based on the calculated motion component, synchronous component, and adaptive component.

이 때, 모델링부는 계산된 모션 구성 요소와 적응 구성 요소를 이용하여 상기 어라우절 모델을 모델링할 수 있으며, 어라우절 모델과 동기 구성 요소를 이용하여 밸런스 모델을 모델링할 수 있다.At this time, the modeling unit may model the aurajeol model using the calculated motion component and the adaptive component, and may model the balance model using the aurajeol model and the synchronous component.

생성부는 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성한다.The generation unit generates an emotional curve based on the emotional situation expressed on the emotional space by the modeled balance model and the aurael model.

추정부는 정서 커브를 이용하여 사용자의 감정 값을 추정한다.The estimation unit estimates the emotion value of the user using the emotion curve.

또한, 본 발명의 다른 일 실시예에 따른 시스템은 이미지 시퀀스를 이용한 사용자의 행동에 기반하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하고, 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성함으로써, 생성된 정서 커브를 이용하여 사용자의 감정 값을 추정할 수도 있다.In addition, the system according to another embodiment of the present invention models a balance model and an arousal model based on a user's behavior using an image sequence, and is evaluated by the modeled balance model and the aurael model By generating an emotional curve based on an emotional situation expressed in space, the emotional value of the user may be estimated using the generated emotional curve.

여기서, 시스템은 이미지 시퀀스로부터 상기 사용자의 관심 대상을 감지하고, 감지된 관심 대상과의 상호 작용을 기반으로 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링할 수 있다.Here, the system can detect the user's interest from the image sequence, and model a balance model and an arousal model based on the interaction with the detected interest.

비록, 본 발명의 시스템에서 그 설명이 생략되었더라도, 본 발명에 따른 시스템은 상기 도 3 내지 도 7에서 설명한 모든 내용을 포함할 수 있다는 것은 이 기술 분야에 종사하는 당업자에게 있어서 자명하다.Although the description of the system of the present invention is omitted, it is apparent to those skilled in the art that the system according to the present invention can include all the contents described in FIGS. 3 to 7 above.

이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 시스템, 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or device described above may be implemented with hardware components, software components, and/or combinations of hardware components and software components. For example, the systems, devices, and components described in embodiments include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors (micro signal processors), microcomputers, and field programmable arrays (FPAs). ), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose computers or special purpose computers. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed on networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예들에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiments may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the medium may be specially designed and constructed for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specifically configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language code that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by a limited embodiment and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques are performed in a different order than the described method, and/or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (22)

계산부에서 이미지 시퀀스를 이용한 사용자의 정서적 상황(affecttive situation)의 학습을 통해 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하는 단계;
모델링부에서 상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 단계; 및
생성부에서 상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 단계
를 포함하는 감정 추정 방법.
Calculating a motion component, a motivation component, and an adaptation component through learning of the user's affective situation using an image sequence in the calculator;
Modeling a balance model and an arousal model based on the calculated motion component, synchronous component and adaptive component in the modeling unit; And
Generating an emotional curve based on the emotional situation expressed on the emotional space by the modeled balance model and the aurael model in the generation unit
Emotion estimation method comprising a.
제1항에 있어서,
상기 계산하는 단계는
상기 이미지 시퀀스에 대하여, 옵티컬 플로우(optical flow) 추정을 사용하여 인접한 프레임 사이의 정서적 대상의 모션을 특성화하고 정량화함으로써, 상기 모션 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 방법.
According to claim 1,
The calculating step
Emotion estimation method characterized by calculating the motion component by characterizing and quantifying the motion of an emotional object between adjacent frames using optical flow estimation for the image sequence.
제1항에 있어서,
상기 계산하는 단계는
상기 이미지 시퀀스의 각 이미지 프레임에서 추정된 모션 활동성과 상기 사용자의 몸에 부착된 가속도계에 의해 수집된 가속도계 데이터를 이용하여 모션 잡음을 제거함으로써, 상기 모션 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 방법.
According to claim 1,
The calculating step
Emotion estimation method comprising calculating motion components by removing motion noise using motion activity estimated in each image frame of the image sequence and accelerometer data collected by accelerometer attached to the user's body. .
제1항에 있어서,
상기 계산하는 단계는
상기 이미지 시퀀스의 이미지 프레임에서 사용자의 관심 대상에 대응하는 돌출 영역을 획득하고, 상기 획득된 돌출 영역에 기초하여 상기 동기 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 방법.
According to claim 1,
The calculating step
A method for estimating emotions, wherein a protruding area corresponding to a user's interest is obtained from an image frame of the image sequence, and the synchronous component is calculated based on the obtained protruding area.
제4항에 있어서,
상기 계산하는 단계는
상기 이미지 시퀀스의 이미지 프레임에서 상기 관심 대상에 대한 주변 일정 영역의 옵티컬 플로우를 이용한 발산 및 회전을 계산함으로써, 상기 동기 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 방법.
According to claim 4,
The calculating step
Emotion estimation method, characterized in that for calculating the synchronous component, by calculating the divergence and rotation using the optical flow of a certain area around the object of interest in the image frame of the image sequence.
제1항에 있어서,
상기 계산하는 단계는
시간에 따라 변하는 상기 이미지 시퀀스의 현재 프레임까지 누적된 정서적 상황의 누적 합계인 정서적 상황 길이에 기초하여 상기 적응 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 방법.
According to claim 1,
The calculating step
A method for estimating emotions, wherein the adaptive component is calculated based on an emotional situation length that is a cumulative sum of emotional situations accumulated up to the current frame of the image sequence that changes over time.
제1항에 있어서,
상기 모델링하는 단계는
상기 계산된 모션 구성 요소와 적응 구성 요소를 이용하여 상기 어라우절 모델을 모델링하는 것을 특징으로 하는 감정 추정 방법.
According to claim 1,
The modeling step
Emotion estimation method, characterized in that for modeling the aurajeol model using the calculated motion component and the adaptive component.
제1항에 있어서,
상기 모델링하는 단계는
상기 어라우절 모델과 상기 동기 구성 요소를 이용하여 상기 밸런스 모델을 모델링하는 것을 특징으로 하는 감정 추정 방법.
According to claim 1,
The modeling step
Emotion estimation method, characterized in that for modeling the balance model using the aurajeol model and the synchronous component.
모델링부에서 이미지 시퀀스를 이용한 사용자의 행동에 기반하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 단계;
생성부에서 상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 단계; 및
추정부에서 상기 정서 커브를 이용하여 상기 사용자의 감정 값을 추정하는 단계
를 포함하고,
상기 모델링하는 단계는
상기 사용자의 행동에 기반하여 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하는 단계; 및
상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 상기 밸런스(valence) 모델과 상기 어라우절(arousal) 모델을 모델링하는 단계
를 포함하는 감정 추정 방법.
Modeling a balance model and an arousal model based on the user's behavior using the image sequence in the modeling unit;
Generating an emotion curve based on the emotional situation expressed on the emotional space by the modeled balance model and the aurael model in the generation unit; And
Estimating the emotion value of the user using the emotional curve in the estimation unit
Including,
The modeling step
Calculating a motion component, a motivation component, and an adaptation component based on the user's behavior; And
Modeling the balance model and the arousal model based on the calculated motion component, synchronous component and adaptive component
Emotion estimation method comprising a.
삭제delete 삭제delete 이미지 시퀀스를 이용한 사용자의 정서적 상황(affecttive situation)의 학습을 통해 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하는 계산부;
상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 모델링부; 및
상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 생성부
를 포함하는 감정 추정 시스템.
A calculation unit that calculates a motion component, a motivation component, and an adaptation component through learning the user's emotional situation using an image sequence;
A modeling unit that models a balance model and an arousal model based on the calculated motion component, synchronous component, and adaptive component; And
Generating unit for generating emotional curves based on the emotional situation expressed on the emotional space by the modeled balance model and auraun model
Emotion estimation system comprising a.
제12항에 있어서,
상기 계산부는
상기 이미지 시퀀스에 대하여, 옵티컬 플로우(optical flow) 추정을 사용하여 인접한 프레임 사이의 정서적 대상의 모션을 특성화하고 정량화함으로써, 상기 모션 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 12,
The calculation unit
Emotion estimation system characterized by calculating the motion component by characterizing and quantifying motion of an emotional object between adjacent frames using optical flow estimation for the image sequence.
제12항에 있어서,
상기 계산부는
상기 이미지 시퀀스의 각 이미지 프레임에서 추정된 모션 활동성과 상기 사용자의 몸에 부착된 가속도계에 의해 수집된 가속도계 데이터를 이용하여 모션 잡음을 제거함으로써, 상기 모션 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 12,
The calculation unit
Emotion estimation system characterized by calculating motion components by removing motion noise using motion activity estimated in each image frame of the image sequence and accelerometer data collected by accelerometer attached to the user's body .
제12항에 있어서,
상기 계산부는
상기 이미지 시퀀스의 이미지 프레임에서 사용자의 관심 대상에 대응하는 돌출 영역을 획득하고, 상기 획득된 돌출 영역에 기초하여 상기 동기 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 12,
The calculation unit
Emotion estimation system, characterized in that for acquiring a protruding area corresponding to a user's interest in an image frame of the image sequence, and calculating the synchronous component based on the obtained protruding area.
제15항에 있어서,
상기 계산부는
상기 이미지 시퀀스의 이미지 프레임에서 상기 관심 대상에 대한 주변 일정 영역의 옵티컬 플로우를 이용한 발산 및 회전을 계산함으로써, 상기 동기 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 15,
The calculation unit
Emotion estimation system, characterized in that for calculating the synchronous component by calculating the divergence and rotation using the optical flow of a predetermined area around the object of interest in the image frame of the image sequence.
제12항에 있어서,
상기 계산부는
시간에 따라 변하는 상기 이미지 시퀀스의 현재 프레임까지 누적된 정서적 상황의 누적 합계인 정서적 상황 길이에 기초하여 상기 적응 구성 요소를 계산하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 12,
The calculation unit
Emotion estimation system characterized by calculating the adaptive component based on the emotional situation length, which is the cumulative sum of emotional situations accumulated up to the current frame of the image sequence that changes over time.
제12항에 있어서,
상기 모델링부는
상기 계산된 모션 구성 요소와 적응 구성 요소를 이용하여 상기 어라우절 모델을 모델링하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 12,
The modeling unit
Emotion estimation system, characterized in that for modeling the aurajeol model using the calculated motion component and the adaptive component.
제12항에 있어서,
상기 모델링부는
상기 어라우절 모델과 상기 동기 구성 요소를 이용하여 상기 밸런스 모델을 모델링하는 것을 특징으로 하는 감정 추정 시스템.
The method of claim 12,
The modeling unit
Emotion estimation system, characterized in that for modeling the balance model using the aurajeol model and the synchronous component.
이미지 시퀀스를 이용한 사용자의 행동에 기반하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 모델링부;
상기 모델링된 밸런스 모델과 어라우절 모델에 의해 감정 공간 상에 표현되는 정서적 상황에 기초하여 정서 커브를 생성하는 생성부; 및
상기 정서 커브를 이용하여 상기 사용자의 감정 값을 추정하는 추정부
를 포함하고,
상기 모델링부는
상기 사용자의 행동에 기반하여 모션 구성 요소(motion component), 동기 구성 요소(motivation component) 및 적응 구성 요소(adaptation component)를 계산하고, 상기 계산된 모션 구성 요소, 동기 구성 요소 및 적응 구성 요소에 기초하여 밸런스(valence) 모델과 어라우절(arousal) 모델을 모델링하는 감정 추정 시스템.
A modeling unit that models a balance model and an arousal model based on a user's behavior using an image sequence;
A generation unit generating an emotion curve based on the emotional situation expressed on the emotional space by the modeled balance model and the auraun model; And
Estimator for estimating the emotion value of the user using the emotional curve
Including,
The modeling unit
Calculate a motion component, a motivation component and an adaptation component based on the user's behavior, and based on the calculated motion component, synchronous component and adaptation component Emotion estimation system that models the balance model and the arousal model.
삭제delete 삭제delete
KR1020180049845A 2018-04-30 2018-04-30 Method for estimating emotion based on psychological activity and biosignal of user and system therefor KR102142183B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180049845A KR102142183B1 (en) 2018-04-30 2018-04-30 Method for estimating emotion based on psychological activity and biosignal of user and system therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180049845A KR102142183B1 (en) 2018-04-30 2018-04-30 Method for estimating emotion based on psychological activity and biosignal of user and system therefor

Publications (2)

Publication Number Publication Date
KR20190125707A KR20190125707A (en) 2019-11-07
KR102142183B1 true KR102142183B1 (en) 2020-08-06

Family

ID=68578896

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180049845A KR102142183B1 (en) 2018-04-30 2018-04-30 Method for estimating emotion based on psychological activity and biosignal of user and system therefor

Country Status (1)

Country Link
KR (1) KR102142183B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102341937B1 (en) * 2020-05-04 2021-12-23 한국과학기술원 Method for understanding emotion dynamics in daily life and system therefore
CN112597967A (en) * 2021-01-05 2021-04-02 沈阳工业大学 Emotion recognition method and device for immersive virtual environment and multi-modal physiological signals

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101738278B1 (en) 2015-12-31 2017-05-22 성균관대학교산학협력단 Emotion recognition method based on image
US20170238860A1 (en) 2010-06-07 2017-08-24 Affectiva, Inc. Mental state mood analysis using heart rate collection based on video imagery
KR101795723B1 (en) 2017-02-08 2017-12-01 상명대학교산학협력단 Recognition of basic emotion in facial expression using implicit synchronization of facial micro-movements

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100903348B1 (en) * 2007-11-28 2009-06-23 중앙대학교 산학협력단 Emotion recognition mothod and system based on feature fusion
CN107427267B (en) * 2014-12-30 2021-07-23 日东电工株式会社 Method and apparatus for deriving mental state of subject

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170238860A1 (en) 2010-06-07 2017-08-24 Affectiva, Inc. Mental state mood analysis using heart rate collection based on video imagery
KR101738278B1 (en) 2015-12-31 2017-05-22 성균관대학교산학협력단 Emotion recognition method based on image
KR101795723B1 (en) 2017-02-08 2017-12-01 상명대학교산학협력단 Recognition of basic emotion in facial expression using implicit synchronization of facial micro-movements

Also Published As

Publication number Publication date
KR20190125707A (en) 2019-11-07

Similar Documents

Publication Publication Date Title
Yang et al. A driver fatigue recognition model based on information fusion and dynamic Bayesian network
Ko et al. Emotion recognition using EEG signals with relative power values and Bayesian network
Giakoumis et al. Using activity-related behavioural features towards more effective automatic stress detection
Pediaditis et al. Vision-based motion detection, analysis and recognition of epileptic seizures—a systematic review
US20100214318A1 (en) Neurologically informed morphing
KR20190128978A (en) Method for estimating human emotions using deep psychological affect network and system therefor
Hsu Fuzzy Hopfield neural network clustering for single-trial motor imagery EEG classification
EP3364868B1 (en) Generating natural language representations of mental content from functional brain images
Lin An Assistive Handwashing System with Emotional Intelligence
US20190015052A1 (en) Machine-learning-based denoising of doppler ultrasound blood flow and intracranial pressure signal
US20210386343A1 (en) Remote prediction of human neuropsychological state
KR102142183B1 (en) Method for estimating emotion based on psychological activity and biosignal of user and system therefor
McMahon et al. Hierarchical organization of social action features along the lateral visual pathway
Sadek et al. Computer Vision Techniques for Autism Symptoms Detection and Recognition: A Survey.
CN111448589B (en) Device, system and method for detecting body movement of a patient
JP4876988B2 (en) Brain computer interface device
Turaev et al. Review and analysis of patients’ body language from an artificial intelligence perspective
Mazher et al. Beyond traditional approaches: A partial directed coherence with graph theory-based mental load assessment using EEG modality
Chiarugi et al. Facial Signs and Psycho-physical Status Estimation for Well-being Assessment.
Pediaditis et al. Vision-based absence seizure detection
Nagasawa et al. Continuous estimation of emotional change using multimodal responses from remotely measured biological information
Ahmedt-Aristizabal et al. Motion signatures for the analysis of seizure evolution in epilepsy
Sherbakov Computational principles for an autonomous active vision system
KR102341937B1 (en) Method for understanding emotion dynamics in daily life and system therefore
Mustafa et al. Heart rate estimation from facial videos for depression analysis

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right