KR20230110999A - Apparatus and method for emotion recognition based on physiological signal and lifelog - Google Patents

Apparatus and method for emotion recognition based on physiological signal and lifelog Download PDF

Info

Publication number
KR20230110999A
KR20230110999A KR1020220006657A KR20220006657A KR20230110999A KR 20230110999 A KR20230110999 A KR 20230110999A KR 1020220006657 A KR1020220006657 A KR 1020220006657A KR 20220006657 A KR20220006657 A KR 20220006657A KR 20230110999 A KR20230110999 A KR 20230110999A
Authority
KR
South Korea
Prior art keywords
emotion
data
emotion recognition
lifelog
bio
Prior art date
Application number
KR1020220006657A
Other languages
Korean (ko)
Inventor
김가규
노경주
임정묵
임지연
정승은
정현태
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020220006657A priority Critical patent/KR20230110999A/en
Publication of KR20230110999A publication Critical patent/KR20230110999A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • A61B5/0533Measuring galvanic skin response
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/346Analysis of electrocardiograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4857Indicating the phase of biorhythm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Cardiology (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Psychology (AREA)
  • Dermatology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Dentistry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Pulmonology (AREA)
  • Hospice & Palliative Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Social Psychology (AREA)
  • Educational Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Developmental Disabilities (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

The present invention relates to an emotion recognition device based on a biological signal and a life log and a method thereof. According to the present invention, the emotion recognition device comprises: a biological signal and life log data collector that collects a biological signal and life log data and extracts feature values from the biological signal and the life log data to generate learning data and inference data; an emotion recognition model generator that generates an emotion recognition model through machine learning based on the learning data; and an emotion recognition and cause analyzer that recognizes an emotion through inference by inputting the inference data into an emotion recognition model.

Description

생체신호 및 라이프로그 기반의 감성 인식 장치 및 방법{APPARATUS AND METHOD FOR EMOTION RECOGNITION BASED ON PHYSIOLOGICAL SIGNAL AND LIFELOG}Emotion recognition device and method based on biosignal and lifelog

본 발명은 개인의 감성 또는 무드를 인식하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for recognizing an individual's emotion or mood.

최근 들어 사회가 발전하고 고도화됨에 따라 사회관계 속에서 정서적, 심리적 불안감을 느끼는 사람들이 늘어나고 있다. 이에 따라 개인의 감성 또는 무드를 읽고 부정적 감성이 나타나면 이를 개선되도록 지원하는 기술에 대한 수요가 늘어날 것으로 전망된다.BACKGROUND OF THE INVENTION Recently, as society develops and becomes more sophisticated, more and more people feel emotional and psychological anxiety in social relationships. As a result, it is expected that the demand for technology that helps to read individual emotions or moods and improve them when negative emotions appear will increase.

그런데 많은 사람들이 이러한 정서적, 심리적 불안감을 대수롭지 않게 여기거나 스트레스에 따른 감정 경험을 표현하지 않고 내적으로 억누르는 경향이 있다. 이렇게 사회, 문화적으로 감정 표현에 어려움을 겪는 상황에서는 외부로 드러나는 얼굴 표정이나 음성 등으로 감성을 인식하는 것을 어렵게 만든다. 그래서 최근 감정, 정서 인식 분야에서 활발히 연구되고 있는 방법은 다양한 생체신호를 통해 감성을 인식하는 것이다. 생리심리학적 연구에서 인간의 감성과 생체반응은 강한 상관이 있다고 알려져 있으며, 생체신호는 센서 등으로 비교적 간단하게 획득할 수 있고, 이를 이용한 감성 인식은 사회적, 문화적인 차이에 덜 민감하므로 최근에 많은 주목을 받고 있다. 특히, IT 기술의 발달과 함께 스마트 워치, 피트니스 밴드 등과 같은 웨어러블 장치의 성능이 향상됨에 따라 생체신호를 손쉽고 정확하게 취득할 수 있게 되었을 뿐만 아니라, AI 기술의 발달로 인식 성능이 향상됨에 따라 생체신호를 기반으로 사용자의 감성을 인식하는 기술의 활용 가능성이 높아지고 있다.However, many people tend to ignore these emotional and psychological insecurities or suppress them internally without expressing their emotional experiences under stress. In such a situation where people have difficulties in expressing emotions socially and culturally, it makes it difficult to recognize emotions through facial expressions or voices that are revealed to the outside. Therefore, a method that has been actively researched in the field of emotion and emotion recognition in recent years is to recognize emotions through various bio-signals. In physiological psychological research, it is known that there is a strong correlation between human emotions and biological responses, and biosignals can be obtained relatively easily with sensors, etc., and emotional recognition using them is less sensitive to social and cultural differences, so it has recently received a lot of attention. In particular, as the performance of wearable devices such as smart watches and fitness bands has improved along with the development of IT technology, it has become possible to acquire biosignals easily and accurately, and as recognition performance has improved with the development of AI technology, the possibility of using technology for recognizing user's emotions based on biosignals is increasing.

그런데, 그동안 생체신호를 이용한 감성 인식 기술은 주로 짧은 시간(10초 ~ 10분) 동안 지속되는 감성만을 다루어 왔다. 일반적으로 사람들은 감성 자극을 받게 되면 자율신경계에 의해 생체신호의 변화가 나타난다. 예를 들어, 사람들이 당황하거나 긴장을 하게 되면 심장박동이 빨라지고, 온 몸에 땀이 나거나 체온이 높아지는 등의 경험을 한다. 이러한 생체신호는 교감 신경과 부교감 신경으로 구성되고 심장박동이나 신체의 외분비선을 조절하는 자율신경계에 의해 발생한다. 자율 신경계는 다양한 감정 자극에 따라 신체가 안정된 상황을 유지할 수 있도록 교감 신경과 부교감 신경의 균형을 조절하고 있다. 교감 신경계는 주로 흥분/긴장된 상태에서 크게 작용하고, 부교감 신경계는 주로 심적인 안정 상태에서 반응을 한다. 그리고 이러한 생체신호의 반응은 일반적으로 오랫동안 나타나지 않고 비교적 짧은 시간 동안 지속되었다가 종료된다. 예를 들어 사람들이 순간적으로 감정 자극을 받게 되면서 나타나는 심장박동, 땀, 체온 등의 생체신호의 변화는 짧은 시간동안 나타났다가 이내 안정 상태로 돌아간다. However, emotion recognition technology using bio-signals has dealt mainly with emotions lasting for a short time (10 seconds to 10 minutes). In general, when people receive emotional stimuli, changes in biosignals appear by the autonomic nervous system. For example, when people are embarrassed or nervous, their heart beats faster, sweat all over their body, or their body temperature rises. These bio-signals are composed of sympathetic and parasympathetic nerves and are generated by the autonomic nervous system, which regulates the heartbeat or the body's exocrine glands. The autonomic nervous system regulates the balance of the sympathetic and parasympathetic nerves so that the body can maintain a stable situation according to various emotional stimuli. The sympathetic nervous system mainly works in a state of excitement/tension, and the parasympathetic nervous system mainly responds in a state of mental stability. In addition, these bio-signal responses generally do not appear for a long time and end after a relatively short period of time. For example, when people are momentarily emotionally stimulated, changes in biosignals such as heartbeat, sweat, and body temperature appear for a short period of time and then return to a stable state.

반면에 정서적, 심리적 불안감을 확인하고 이에 적절히 대응하기 위해서는 비교적 긴 시간(1시간 ~ 1일)의 감성을 인식할 필요가 있는데, 이렇게 긴 시간 동안 지속되는 감성을 인식하기 위해서는 생체신호의 반응만을 추적하는 것으로 부족하다는 문제점이 있다.On the other hand, in order to identify emotional and psychological anxiety and respond appropriately to it, it is necessary to recognize emotions for a relatively long time (1 hour to 1 day).

본 발명에서는 무드와 연관성이 높은 생체신호 뿐만 아니라 행동, 상황, 수면 등과 같은 라이프로그 데이터를 바탕으로 긴 시간 동안 나타나는 감성인 무드를 인식하는 장치 및 방법을 제공하는 것을 그 목적으로 한다. 이를 위해 본 발명에서는 먼저 사용자로부터 생체신호와 라이프로그 데이터를 수집하고, 이로부터 다양한 특징들을 추출한다. 이때 비교적 긴 시간의 감성을 효과적으로 인식할 수 있도록 행동 및 상황 별 생체신호 특징을 조합하는 방식으로 특징을 추출한다. 이렇게 추출한 특징을 가지고 기계학습을 통해 감성(무드) 인식 모델을 생성한다. 이후 본 발명에 따른 장치 및 방법은 상기 감성 인식 모델을 바탕으로 무드를 인식할 수 있으며 특히, 정서적, 심리적 불안감을 야기하는 부정적 감성을 인식할 수 있다. An object of the present invention is to provide a device and method for recognizing a mood, which is an emotion that appears for a long time, based on lifelog data such as behavior, situation, sleep, and the like, as well as biological signals highly correlated with the mood. To this end, the present invention first collects bio-signals and lifelog data from the user, and extracts various features from them. At this time, features are extracted by combining biosignal characteristics for each behavior and situation so that emotions of a relatively long time can be effectively recognized. With the features extracted in this way, an emotion (mood) recognition model is created through machine learning. Thereafter, the apparatus and method according to the present invention can recognize a mood based on the emotion recognition model, and in particular, can recognize negative emotions that cause emotional and psychological anxiety.

또한, 본 발명에 따른 장치 및 방법은, 부정적인 무드가 인식된 경우 개인 감성 모델을 바탕으로 그 원인이 되는 행동이나 상황 등을 분석함으로써 부정적 감성을 유발하는 생활습관이나 행동 패턴을 찾아내어, 분석 결과를 사용자에게 제공하는 것을 목적으로 한다.In addition, the apparatus and method according to the present invention, when a negative mood is recognized, by analyzing the behavior or situation that causes it based on a personal emotion model, to find a lifestyle or behavior pattern that causes negative emotion, and to provide the analysis result to the user.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the object mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the description below.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 감성 인식 장치는, 생체신호와 라이프로그 데이터를 수집하고, 상기 생체신호 및 상기 라이프로그 데이터에서 특징값을 추출하여 학습용 데이터 및 추론용 데이터를 생성하는 생체신호 및 라이프로그 데이터 수집기; 상기 학습용 데이터를 기초로 기계학습을 통해 감성 인식 모델을 생성하는 감성 인식 모델 생성기; 및 상기 추론용 데이터를 상기 감성 인식 모델에 입력하여 추론을 통해 감성을 인식하는 감성 인식 및 원인 분석기;를 포함한다.An emotion recognition device according to an embodiment of the present invention for achieving the above object is a biosignal and lifelog data collector that collects biosignals and lifelog data, extracts feature values from the biosignals and lifelog data, and generates learning data and inference data; an emotion recognition model generator generating an emotion recognition model through machine learning based on the learning data; and an emotion recognition and cause analyzer for recognizing emotion through reasoning by inputting the reasoning data to the emotion recognition model.

본 발명의 일 실시예에서, 상기 생체신호 및 라이프로그 데이터 수집기는, 측정을 통해 상기 생체신호를 수집하는 생체신호 측정부; 상기 라이프로그 데이터를 수집하는 라이프로그 데이터 수집부; 상기 생체신호 및 상기 라이프로그 데이터를 시간에 대해 동기화하여 취합하는 데이터 로거; 상기 동기화된 생체신호를 상황 및 행동 중 적어도 어느 하나의 기준에 따라 분할하는 신호 전처리부; 및 상기 분할된 생체신호 및 상기 라이프로그 데이터에서 상기 특징값을 추출하는 특징 추출부;를 포함할 수 있다.In one embodiment of the present invention, the bio-signal and lifelog data collector may include: a bio-signal measuring unit that collects the bio-signal through measurement; a lifelog data collection unit that collects the lifelog data; a data logger that collects the bio-signals and the lifelog data in synchronization with time; a signal pre-processing unit dividing the synchronized biosignal according to at least one criterion of situation and behavior; and a feature extraction unit extracting the feature value from the divided bio-signals and the lifelog data.

본 발명의 일 실시예에서, 상기 생체신호 및 라이프로그 데이터 수집기는, 상기 특징값을 정규화하는 정규화부;를 포함할 수 있다.In one embodiment of the present invention, the bio-signal and lifelog data collector may include a normalization unit normalizing the characteristic values.

본 발명의 일 실시예에서, 상기 신호 전처리부는, 상기 동기화된 생체신호에 포함된 잡음을 제거한 후에 상기 동기화된 생체신호를 분할할 수 있다.In one embodiment of the present invention, the signal pre-processing unit may divide the synchronized bio-signal after removing noise included in the synchronized bio-signal.

본 발명의 일 실시예에서, 상기 감성 인식 및 원인 분석기는, 상기 추론용 데이터를 상기 감성 인식 모델에 입력하여 추론을 통해 감성을 인식하는 감성 인식부; 상기 인식된 감성이 부정적 감성인지 여부를 판단하는 부정적 감성 감지부;및 상기 인식된 감성이 부정적 감성인 경우, 상기 추론용 데이터를 기초로 상기 인식된 감성의 원인을 분석하는 감성 원인 분석부;를 포함할 수 있다.In one embodiment of the present invention, the emotion recognition and cause analyzer may include an emotion recognition unit inputting the reasoning data to the emotion recognition model and recognizing emotion through reasoning; A negative emotion detecting unit that determines whether the recognized emotion is a negative emotion; and an emotion cause analyzer that analyzes a cause of the recognized emotion based on the reasoning data when the recognized emotion is a negative emotion.

본 발명의 일 실시예에서, 상기 감성 원인 분석부는, 상기 추론용 데이터를 구성하는 변수와 상기 인식된 감성 간의 상관관계 분석을 통하여 상기 인식된 감성의 원인을 분석할 수 있다.In one embodiment of the present invention, the emotion cause analysis unit may analyze the cause of the recognized emotion through a correlation analysis between variables constituting the reasoning data and the recognized emotion.

본 발명의 일 실시예에서, 상기 감성 인식 장치는 라이프 스타일 코칭기를 더 포함할 수 있다. 이 경우 상기 감성 인식 및 원인 분석기는, 상기 추론용 데이터를 기초로 상기 인식된 감성의 원인을 분석하고, 상기 라이프 스타일 코칭기는, 상기 감성 인식 및 원인 분석기의 분석 결과를 기초로 상기 인식된 감성과 관련된 생활 습관 및 행동 패턴 중 적어도 어느 하나에 대한 정보를 제공할 수 있다.In one embodiment of the present invention, the emotion recognition device may further include a lifestyle coach. In this case, the emotion recognition and cause analyzer analyzes the cause of the recognized emotion based on the reasoning data, and the lifestyle coaching device is associated with the recognized emotion based on the analysis result of the emotion recognition and cause analyzer. It may provide information about at least one of lifestyle habits and behavioral patterns.

그리고, 본 발명의 일 실시예에 따른 감성 인식 방법은, 수집한 제1 생체신호와 제1 라이프로그 데이터를 기초로 학습용 데이터를 생성하는 학습용 데이터 생성 단계; 상기 학습용 데이터를 기초로 기계학습을 통해 감성 인식 모델을 생성하는 감성 인식 모델 생성 단계; 수집한 제2 생체신호와 제2 라이프로그 데이터를 기초로 추론용 데이터를 생성하는 추론용 데이터 생성 단계; 및 상기 추론용 데이터를 상기 감성 인식 모델에 입력하여 추론을 통해 감성을 인식하는 감성 인식 및 원인 분석 단계;를 포함한다.Further, the emotion recognition method according to an embodiment of the present invention includes a learning data generation step of generating learning data based on the collected first bio-signals and first lifelog data; An emotion recognition model generating step of generating an emotion recognition model through machine learning based on the learning data; a data generation step of generating inference data based on the collected second bio-signals and second lifelog data; and an emotion recognition and cause analysis step of inputting the reasoning data into the emotion recognition model and recognizing the emotion through reasoning.

본 발명의 일 실시예에서, 상기 감성 인식 방법은 라이프 스타일 코칭 단계를 더 포함할 수 있다. 이 경우, 상기 감성 인식 및 원인 분석 단계는, 상기 추론용 데이터를 기초로 상기 인식된 감성의 원인을 분석하는 것일 수 있고, 상기 라이프 스타일 코칭 단계는, 상기 감성 인식 및 원인 분석 단계의 분석 결과를 기초로 상기 인식된 감성과 관련된 생활 습관 및 행동 패턴 중 적어도 어느 하나에 대한 정보를 제공하는 것일 수 있다.In one embodiment of the present invention, the emotion recognition method may further include a lifestyle coaching step. In this case, the emotion recognition and cause analysis step may be to analyze the cause of the recognized emotion based on the reasoning data, and the lifestyle coaching step may be to provide information on at least one of lifestyle habits and behavioral patterns related to the recognized emotion based on the analysis result of the emotion recognition and cause analysis step.

본 발명의 일 실시예에서, 상기 학습용 데이터 생성 단계는, 상기 제1 생체신호를 상황 및 행동 중 적어도 어느 하나의 기준에 따라 분할한 후, 상기 분할된 제1 생체신호 및 상기 제1 라이프로그 데이터에서 특징값을 추출하여 상기 학습용 데이터를 생성하는 것일 수 있고, 상기 추론용 데이터 생성 단계는, 상기 제2 생체신호를 상황 및 행동 중 적어도 어느 하나의 기준에 따라 분할한 후, 상기 분할된 제2 생체신호 및 상기 제2 라이프로그 데이터에서 특징값을 추출하여 상기 추론용 데이터를 생성하는 것일 수 있다.In an embodiment of the present invention, the generating data for learning may include generating data for learning by dividing the first bio-signal according to at least one criterion of situation and behavior, and then extracting feature values from the divided first bio-signal and the first lifelog data, and generating data for inference may include dividing the second bio-signal according to at least one criterion of situation and action, and then extracting feature values from the divided second bio-signal and the second lifelog data to extract feature values from the divided second bio-signal and the second lifelog data. may be to generate

본 발명의 일 실시예에 따르면, 비교적 긴 시간 동안 나타나는 감성 즉, 무드와 연관성이 높은 행동, 상황, 수면 등과 같은 라이프로그 데이터를 비롯하여 각 행동, 상황 별 생체신호의 특징을 조합하여 새로운 특징 변수로 사용함으로써 무드 인식이 가능하다는 효과가 있다.According to an embodiment of the present invention, mood recognition is possible by combining lifelog data such as behavior, situation, sleep, etc., which appear over a relatively long period of time, that is, behavior, situation, and sleep that are highly related to mood, as well as characteristics of biological signals for each behavior and situation, and using them as new feature variables.

또한 본 발명의 일 실시예에 따르면, 사용자의 무드를 예측하여 부정적 감성이 예측될 경우 그 원인이 되는 행동이나 상황 등을 분석하도록 해줌으로써 부정적 감성을 유발하는 생활습관이나 행동 패턴을 찾아내고 이를 개선할 수 있도록 지원할 수 있다는 효과가 있다.In addition, according to one embodiment of the present invention, by predicting the user's mood and analyzing the behavior or situation that causes it when negative emotion is predicted, it is possible to find and improve lifestyle habits or behavior patterns that cause negative emotion. There is an effect that it can be supported.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 일 실시예에 따른 감성 인식 장치의 구성을 나타낸 블록도.
도 2는 본 발명의 일 실시예에 따른 생체신호 및 라이프로그 데이터 수집기의 구성을 나타낸 블록도.
도 3은 본 발명의 일 실시예에 따른 감성 인식 및 원인 분석기의 구성을 나타낸 블록도.
도 4는 본 발명의 일 실시예에 따른 감성 인식 방법을 설명하기 위한 흐름도.
1 is a block diagram showing the configuration of an emotion recognition device according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a bio-signal and lifelog data collector according to an embodiment of the present invention;
3 is a block diagram showing the configuration of an emotion recognition and cause analyzer according to an embodiment of the present invention.
4 is a flowchart illustrating a method for recognizing emotion according to an embodiment of the present invention.

본 명세서에서는 긴 시간의 감성을 '무드'라는 용어로 표현한다. 본 발명은 긴 시간의 감성, 즉 '무드'를 인식하는 장치와 방법에 관한 것이다. '무드'를 인식하기 위해서는 기쁨, 슬픔, 분노 등과 같이 짧은 시간 동안 지속되는 감성을 인식할 때와는 다르게 접근할 필요가 있다. 무드는 직전 시간동안 복잡한 감정으로 인해 나타나는 생체신호 반응뿐만 아니라 행동, 상황, 수면 등과 같은 라이프로그와도 밀접한 관련성을 가진다. 따라서 무드를 인식하기 위해서는 장시간 동안 수집한 생체신호 뿐만 아니라 무드와 깊은 연관을 가지는 행동, 상황, 수면 등과 같은 라이프로그 데이터도 함께 다룰 필요가 있다. 특히 행동 또는 상황 별로 구분하여 추적한 생체신호는 무드를 찾아내는데 효과적일 것으로 보인다. 예를 들어, 사용자의 기상 직후 기분을 예측해보고, 만약 기분이 좋지 않다면 어떤 생활습관 또는 행동패턴을 고쳐야 하는지에 대해 알려주는 응용이 필요하다고 가정한다. 먼저 사용자의 기상 직후 기분은 단순히 기상 후 짧은 시간 동안 수집한 생체신호 데이터만으로 예측하는 것은 현실적이지 못하다. 왜냐하면 사용자의 기상 직후 기분은 그 순간의 감정이라고 하기 보다는 비교적 긴 시간동안 유지되는 감성 즉, 무드에 해당되기 때문이다. 또한 기상 직후의 기분은 전날 행동, 상황, 수면 등 라이프로그 자체뿐만 아니라 개별적인 행동, 상황에서 나타나는 감정이 직접적, 간접적으로 영향을 미친다고 볼 수 있다. 그래서 이러한 무드를 인식하기 위해서는 개별적인 행동 또는 상황 별 생체신호로부터 특징을 추출하여 활용하는 것이 유리하다고 할 수 있다.In this specification, the emotion of a long time is expressed with the term 'mood'. The present invention relates to a device and method for recognizing a long-time emotion, that is, a 'mood'. In order to recognize 'mood', it is necessary to approach differently from when recognizing emotions that last for a short time, such as joy, sadness, and anger. Mood has a close relationship with lifelogs such as behavior, situation, and sleep, as well as biosignal responses caused by complex emotions during the previous time. Therefore, in order to recognize the mood, it is necessary to deal with not only biosignals collected over a long period of time, but also lifelog data such as behavior, situation, and sleep that are deeply related to the mood. In particular, biological signals tracked by behavior or situation are expected to be effective in finding moods. For example, it is assumed that an application that predicts the user's mood immediately after waking up and informs him or her of what lifestyle habits or behavioral patterns should be corrected if the user is not in a good mood. First, it is not realistic to predict the user's mood immediately after waking up with biosignal data collected for a short time after waking up. This is because the mood immediately after waking up of the user corresponds to the emotion that is maintained for a relatively long time, that is, the mood, rather than the emotion at that moment. In addition, it can be seen that the mood immediately after waking up is directly or indirectly influenced by not only the lifelog itself, such as the previous day's actions, situations, and sleep, but also individual actions and emotions in the situation. Therefore, in order to recognize these moods, it can be said that it is advantageous to extract and utilize features from individual behaviors or biosignals for each situation.

본 발명에서는 생체신호 뿐만 아니라 라이프로그 데이터를 함께 사용하여 유의미한 특징들을 추출하고, 이 특징들을 학습하는 방식으로 감성 인식 모델(무드 인식 모델)을 구성한다. 그리고 감성 인식 모델을 통해 부정적 감성이 인식될 경우 감성에 어떤 행동, 상황이 큰 영향을 주고 있는지를 분석하는 과정을 통해 부정적 감성을 개선할 수 있는 라이프 스타일을 제공한다.In the present invention, an emotion recognition model (mood recognition model) is constructed by extracting meaningful features by using lifelog data as well as biological signals and learning these features. In addition, when negative emotions are recognized through the emotion recognition model, it provides a lifestyle that can improve negative emotions through the process of analyzing which actions and situations have a great impact on emotions.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, and only these embodiments make the disclosure of the present invention complete, and those skilled in the art It is provided to completely inform the scope of the invention, and the present invention is only defined by the scope of the claims. Meanwhile, terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not preclude the presence or addition of one or more other components, steps, operations, and/or elements in which a stated element, step, operation, and/or element is present.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면 번호에 상관없이 동일한 수단에 대해서는 동일한 참조 번호를 사용하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate overall understanding in describing the present invention, the same reference numerals will be used for the same means regardless of the drawing numbers.

도 1은 본 발명의 일 실시예에 따른 감성 인식 장치(10, '무드 인식 장치'라고도 칭함)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of an emotion recognition device (10, also referred to as a 'mood recognition device') according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 감성 인식 장치(10)는 생체신호와 라이프로그 데이터를 수집하는 생체신호 및 라이프로그 데이터 수집기(100), 생체신호와 라이프로그 데이터를 이용하여 기계학습을 통해 감성 인식 모델을 생성하는 감성 인식 모델 생성기(200) 및 생체신호와 라이프로그 데이터를 감성 인식 모델에 입력해서 감성을 인식하고, 인식된 감성의 원인을 분석하는 감성 인식 및 원인 분석기(300)를 포함한다.The emotion recognition device 10 according to an embodiment of the present invention includes a biosignal and lifelog data collector 100 that collects biosignals and lifelog data, an emotion recognition model generator 200 that generates an emotion recognition model through machine learning using the biosignals and lifelog data, and an emotion recognition and cause analyzer 300 that recognizes emotions by inputting biosignals and lifelog data into an emotion recognition model and analyzes the cause of the recognized emotions.

또한, 본 발명의 일 실시예에 따른 감성 인식 장치(10)는 감성 인식 및 원인 분석기(300)에서 얻어진 분석 결과와 도메인 지식을 바탕으로 맞춤형 라이프 스타일을 추천해주는 라이프 스타일 코칭기(400)를 더 포함할 수 있다.In addition, the emotion recognition device 10 according to an embodiment of the present invention may further include a lifestyle coach 400 that recommends a customized lifestyle based on the analysis result obtained from the emotion recognition and cause analyzer 300 and domain knowledge.

생체신호 및 라이프로그 데이터 수집기(100)는 생체신호와 라이프로그 데이터를 수집하고, 생체신호 및 라이프로그 데이터에서 특징값을 추출하여 학습용 데이터나 추론용 데이터를 생성한다.The bio-signal and lifelog data collector 100 collects the bio-signal and lifelog data, extracts feature values from the bio-signal and lifelog data, and generates learning data or inference data.

감성 인식 모델 생성기(200)는 학습용 데이터를 기초로 기계학습을 통해 감성 인식 모델을 생성한다.The emotion recognition model generator 200 generates an emotion recognition model through machine learning based on training data.

감성 인식 및 원인 분석기(300)는 추론용 데이터를 감성 인식 모델에 입력하여 추론을 통해 감성을 인식한다. 또한 감성 인식 및 원인 분석기(300)는 추론용 데이터를 기초로 인식된 감성의 원인을 분석할 수 있다. 감성 인식 및 원인 분석기(300)는 부정적 감성뿐만 아니라 긍정적 감성에 대한 원인을 분석할 수 있는데, 경우에 따라 인식된 감성이 부정적 감성인지 판단하여 부정적 감성인 경우에만 감성의 원인을 분석할 수도 있다.The emotion recognition and cause analyzer 300 recognizes emotion through inference by inputting reasoning data to an emotion recognition model. In addition, the emotion recognition and cause analyzer 300 may analyze the cause of the recognized emotion based on the reasoning data. The emotion recognition and cause analyzer 300 may analyze the cause of positive emotion as well as negative emotion. In some cases, it may be determined whether the recognized emotion is negative emotion and the cause of the emotion may be analyzed only when the emotion is negative.

라이프 스타일 코칭기(400)는 감성 인식 및 원인 분석기(300)의 감성 인식 및 분석 결과를 기초로 도메인 지식 DB 검색을 통하여 감성 인식 및 원인 분석기(300)에서 인식된 감성과 관련된 생활 습관 및 행동 패턴 중 적어도 어느 하나에 대한 정보를 제공할 수 있다. 예를 들어, 라이프 스타일 코칭기(400)는 부정적 감성을 개선할 수 있는 맞춤형 라이프 스타일을 추천할 수 있다.The lifestyle coach 400 is related to the emotion recognized by the emotion recognition and cause analyzer 300 through a domain knowledge DB search based on the emotion recognition and analysis results of the emotion recognition and cause analyzer 300. Information on at least one of lifestyle and behavioral patterns may be provided. For example, the lifestyle coach 400 may recommend a customized lifestyle capable of improving negative emotions.

도 2는 본 발명의 일 실시예에 따른 생체신호 및 라이프로그 데이터 수집기(100)의 구성을 나타낸 블록도이다.2 is a block diagram showing the configuration of a biosignal and lifelog data collector 100 according to an embodiment of the present invention.

생체신호 및 라이프로그 데이터 수집기(100)는 생체신호 측정부(110), 라이프로그 데이터 수집부(120), 데이터 로거(130), 신호 전처리부(140), 특징 추출부(150) 및 정규화부(160)를 포함하여 구성될 수 있다. 도 2에 도시된 생체신호 및 라이프로그 데이터 수집기(100)는 일 실시예에 따른 것이고, 생체신호 및 라이프로그 데이터 수집기(100)의 구성요소들이 도 2에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경 또는 삭제될 수 있다.The biosignal and lifelog data collector 100 may include a biosignal measurer 110, a lifelog data collector 120, a data logger 130, a signal preprocessor 140, a feature extractor 150, and a normalizer 160. The bio-signal and lifelog data collector 100 shown in FIG. 2 is according to an embodiment, and components of the bio-signal and lifelog data collector 100 are not limited to the embodiment shown in FIG. 2, and can be added, changed, or deleted as needed.

생체신호 측정부(110)는 측정을 통해 생체신호를 수집한다. 즉, 생체신호 측정부(110)는 사용자로부터 다양한 생체신호를 측정할 수 있다. 생체신호 측정부(110)는 사용자의 신체에 부착된 센서를 통해 무드 인식에 필요한 다양한 생체신호를 측정하는데, 대표적으로 심전도(Electrocardiogram, ECG), 피부저항(Galvanic skin response, GSR), 피부온도(Skin temperature, SKT), 맥파(Photo-plethysmography, PPG), 호흡(Respiration rates), 뇌파(Electroencephalogram, EEG) 신호 등을 측정한다. 이외에도 감성 또는 무드를 인식하는데 유용한 생체신호들이 추가될 수 있다. 생체신호 측정부(110)는 사용자의 신체로부터 측정한 생체신호를 와이파이(Wi-Fi) 또는 이동통신과 같은 무선 인터페이스를 거쳐 인터넷망에 접속되어 있는 데이터 로거(130)에 전송한다.The biosignal measurer 110 collects biosignals through measurement. That is, the bio-signal measurer 110 may measure various bio-signals from the user. The bio-signal measuring unit 110 measures various bio-signals necessary for mood recognition through sensors attached to the user's body, and typically measures electrocardiogram (ECG), galvanic skin response (GSR), skin temperature (SKT), photo-plethysmography (PPG), respiration rates, and electroencephalogram (EEG) signals. In addition, biosignals useful for recognizing emotion or mood may be added. The biosignal measurer 110 transmits the biosignal measured from the user's body to the data logger 130 connected to the Internet via a wireless interface such as Wi-Fi or mobile communication.

라이프로그 데이터 수집부(120)는 라이프로그 데이터를 수집한다. 라이프로그 데이터 수집부(120)는 라이프로그 데이터로서 개인이 일상생활에서 경험하는 정보를 수집할 수 있다. 예를 들어 라이프로그 데이터 수집부(120)는 행동, 상황, 수면에 대한 정보(라이프로그 데이터)를 수집할 수 있다. 라이프로그 데이터 수집부(120)는 사용자가 직접 스마트폰 앱을 통해 기록하거나 웨어러블 기기를 통해 수집된 정보를 스마트폰과 연동되어 자동으로 기록되게 하는 방식을 통해 라이프로그 데이터를 수집할 수 있다. 라이프로그 수집을 위한 웨어러블 기기로는 영상 입력을 위한 안경, 소리 입력을 위한 목걸이, 위치 및 행동 입력을 위한 팔찌 또는 허리띠 등이 활용될 수 있다. [표 1] 및 [표 2]는 라이프로그 데이터 수집부(120)가 수집하는 행동 관련 라이프로그 데이터의 일례를 나타낸 것이다. [표 1] 및 [표 2]의 예시 외에도 감성 또는 무드를 인식하는데 유용한 행동 정보들이 행동과 관련된 라이프로그 데이터에 추가로 포함될 수 있다.The lifelog data collection unit 120 collects lifelog data. The lifelog data collection unit 120 may collect information experienced by individuals in daily life as lifelog data. For example, the lifelog data collection unit 120 may collect information (lifelog data) on behavior, situations, and sleep. The lifelog data collection unit 120 may collect lifelog data through a method in which a user records information directly through a smartphone app or automatically records information collected through a wearable device in association with a smartphone. As wearable devices for lifelog collection, glasses for image input, necklaces for sound input, and bracelets or belts for position and behavior input can be used. [Table 1] and [Table 2] show examples of behavior-related lifelog data collected by the lifelog data collection unit 120. In addition to the examples of [Table 1] and [Table 2], behavioral information useful for recognizing emotion or mood may be additionally included in lifelog data related to behavior.

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

한편, [표 3]은 라이프로그 데이터 수집부(120)가 수집하는 상황 관련 라이프로그 데이터의 일례를 나타낸 것이다.Meanwhile, [Table 3] shows an example of situation-related lifelog data collected by the lifelog data collection unit 120.

[표 3]의 예시 외에도 지리적 데이터, 날씨, 소음, 조도 등이 상황 관련 라이프로그 데이터에 포함될 수 있으며 그 외에도 감성 또는 무드를 인식하는데 유용한 상황 정보들이 상황 관련 라이프로그 데이터에 추가로 포함될 수 있다.In addition to the examples in [Table 3], geographical data, weather, noise, illumination, etc. may be included in context-related lifelog data, and other context information useful for recognizing emotion or mood may be additionally included in context-related lifelog data.

라이프로그 데이터 수집부(120)는 스마트 워치, 스마트 밴드, 스마트 반지, 침대 밑 센서 등 다양한 웨어러블 기기를 활용하여 수면 관련 라이프로그 데이터를 수집할 수 있다. 수면 관련 라이프로그 데이터는 실제 수면 시간, 수면 효율, 수면 패턴 등이 있으며 이외에도 감성 또는 무드를 인식하는데 유용한 수면 정보들이 추가로 포함될 수 있다.The lifelog data collection unit 120 may collect sleep-related lifelog data using various wearable devices such as a smart watch, a smart band, a smart ring, and a sensor under the bed. The sleep-related lifelog data includes actual sleep time, sleep efficiency, and sleep pattern, and may additionally include sleep information useful for recognizing emotion or mood.

라이프로그 데이터 수집부(120)는 지도용 학습을 위해 감성 또는 무드 레이블을 수집한다. 감성 또는 무드 레이블은 감성 또는 무드를 인식하여 활용하고자 하는 서비스에 따라 다양한 형태로 수집될 수 있으며, 대표적으로 스마트폰 앱을 통해 취침 전과 기상 직후의 기분을 다음과 같이 5단계 리커트 척도로 선택하도록 함으로써 수집할 수 있다.The lifelog data collection unit 120 collects emotion or mood labels for instructional learning. Emotion or mood labels can be collected in various forms depending on the service to be used by recognizing emotions or moods. Representatively, through a smartphone app, the mood before going to bed and immediately after waking up can be collected by selecting the following 5-step Likert scale.

1. 매우 불쾌1. very unpleasant

2. 불쾌2. unpleasant

3. 보통3. Moderate

4. 좋음4. Good

5. 매우 좋음5. Very good

이외에도 라이프로그 데이터 수집부(120)는 서비스의 필요에 따라 다양한 방법으로 감성 또는 무드 레이블을 수집할 수 있다.In addition, the lifelog data collection unit 120 may collect emotion or mood labels in various ways according to service needs.

라이프로그 데이터 수집부(120)는 수집한 라이프로그 데이터를 와이파이(Wi-Fi) 또는 이동통신과 같은 무선 인터페이스를 거쳐 인터넷망에 접속되어 있는 데이터 로거(130)에 전송한다.The lifelog data collection unit 120 transmits the collected lifelog data to the data logger 130 connected to the Internet via a wireless interface such as Wi-Fi or mobile communication.

데이터 로거(130)는 생체신호 측정부(110) 및 라이프로그 데이터 수집부(120)가 수집한 생체신호 및 라이프로그 데이터를 시간에 대해 동기화시켜 취합한다. 데이터 로거(130)는 일반적으로 대용량의 데이터 수집 서버일 수 있으며, 사용자별로 관리될 수 있도록 개인 인증 관리를 포함한 다양한 기능을 갖출 수 있다. 스마트폰을 비롯한 웨어러블 기기들이 데이터 로거(130)와 연동되어 주기적으로 또는 설정한 전송 조건에 따라 데이터 로거(130)에 데이터를 전송할 수 있다.The data logger 130 synchronizes and collects the biosignals and lifelog data collected by the biosignal measurement unit 110 and the lifelog data collection unit 120 with respect to time. The data logger 130 may generally be a large-capacity data collection server, and may have various functions including personal authentication management so that it can be managed for each user. Wearable devices, including smart phones, can transmit data to the data logger 130 periodically or according to set transmission conditions in conjunction with the data logger 130 .

신호 전처리부(140)는 데이터 로거(130)에 의해 동기화된 생체신호에 포함된 잡음을 제거한 후에 상기 동기화된 생체신호를 상황, 행동 및 수면 중 적어도 어느 하나의 기준에 따라 분할한다. 신호 전처리부(140)는 각 행동, 상황 또는 수면의 진행 단위 별로 생체신호를 분할한다. 예를 들어, 신호 전처리부(140)는 [표 1] 및 [표 2]에 나열된 행동 중 이동(travel)의 시작 시점과 종료 시점에 따라 생체신호들을 분할하여 이동 관련 생체신호로 데이터화한다. 그리고 신호 전처리부(140)는 감성 인식 장치(10)의 필요에 따라서 '이동'의 세부항목(예를 들어 '출퇴근 및 일 관련 이동')에 대해서도 동일한 방법으로 생체신호를 분할하여 데이터화할 수 있다. 즉, 신호 전처리부(140)는 출근 시작 시점과 출근 종료 시점으로 특정되는 하나의 이동(출퇴근 및 일 관련 이동)에 대하여 출근 시작 시점에서 출근 종료 시점까지의 생체신호를 분할하여 해당 이동에 할당한다. 신호 전처리부(140)는 [표 3]에 나열된 각각의 상황에 대하여 동일한 방법으로 생체신호를 분할할 수 있다. 또한 신호 전처리부(140)는 수면의 시작 시점과 종료 시점을 기준으로 각 수면별로 생체신호를 분할할 수 있다.The signal pre-processor 140 removes noise included in the bio-signal synchronized by the data logger 130 and then divides the synchronized bio-signal according to at least one criterion of situation, behavior, and sleep. The signal pre-processing unit 140 divides the biosignal for each action, situation, or progress unit of sleep. For example, the signal pre-processing unit 140 divides the biosignals according to the start and end times of travel among the behaviors listed in [Table 1] and [Table 2] and converts them into travel-related biosignals. In addition, the signal pre-processing unit 140 may divide the biosignal into data in the same way for detailed items of 'movement' (for example, 'commuting to and from work and work-related movement') according to the needs of the emotion recognition device 10. That is, the signal pre-processing unit 140 divides the bio signal from the start of attendance to the end of attendance for one movement (commuting and work-related movement) specified by the start and end of attendance, and allocates it to the corresponding movement. The signal preprocessing unit 140 may divide the biosignal in the same way for each situation listed in Table 3. In addition, the signal pre-processing unit 140 may divide bio signals for each sleep based on the start time and end time of sleep.

특징 추출부(150)는 각 분할된 생체신호에서 특징(특징값)을 추출한다. 특징 추출부(150)는 행동, 상황 및 수면 단위 별로 분할된 생체신호에서 다양한 특징값들을 추출한다. 예를 들어, 특징 추출부(150)는 심전도(ECG) 신호에 대하여 심박변이도(HRV: Heart Rate Variability)와 그 파생지표를 추출할 수 있다. 심박변이도(HRV)는 자율신경계의 활동을 반영하는 지표로서 심전도(ECG) 신호에서 인접한 QRS 컴플렉스(complex) 내 R과 연속된 다음 R 사이의 간격을 의미하는 R-R 간격의 변동 특징을 수치화한 것이다. 심박변이도(HRV)는 교감 신경과 부교감 신경의 활성 정도나 균형 정도를 파악하는데 유용한 특징으로서 감정 또는 정서를 파악하는 데에도 널리 활용되고 있다. 심박변이도(HRV)와 관련된 특징은 크게 시간영역 특징과 주파수 영역 특징으로 나눌 수 있다. The feature extraction unit 150 extracts features (feature values) from each divided bio-signal. The feature extractor 150 extracts various feature values from biosignals divided by action, situation, and sleep units. For example, the feature extractor 150 may extract heart rate variability (HRV) and its derived index with respect to an electrocardiogram (ECG) signal. Heart rate variability (HRV) is an index that reflects the activity of the autonomic nervous system. It quantifies the fluctuation characteristics of the R-R interval, which means the interval between the R in the adjacent QRS complex and the next R in the electrocardiogram (ECG) signal. Heart rate variability (HRV) is a useful feature for determining the level of activity or balance of sympathetic and parasympathetic nerves, and is widely used to identify emotions or emotions. Features related to heart rate variability (HRV) can be largely divided into time domain features and frequency domain features.

먼저 심박변이도(HRV)의 시간영역 특징은 R-R 간격에서 정상적인 R-R 간격을 의미하는 NN(Normal to Normal) 간격을 가지고 통계적 계산을 통해 구해진다. 대표적으로 NN 간격들의 평균을 의미하는 MeanNN, NN 간격들의 표준편차를 의미하는 SDNN(standard deviation of the NN interval), 인접하는 NN 간격 간의 차이를 제곱한 값들을 합한 것의 RMS(root-mean-square)를 의미하는 RMSSD(root-mean-square of successive differences), 모든 NN 간격들의 수에 대한 NN50 카운트(연속적인 NN 간격의 차이가 50 ms를 초과하는 NN 간격의 개수) 비를 의미하는 pNN50 등이 있다.First, the time domain feature of heart rate variability (HRV) is obtained through statistical calculation with a Normal to Normal (NN) interval, which means a normal R-R interval in the R-R interval. Typically, MeanNN, which means the average of NN intervals, SDNN (standard deviation of the NN interval), which means the standard deviation of NN intervals, root-mean-square of successive differences (RMSSD), which means the root-mean-square (RMS) of the sum of the squared differences between adjacent NN intervals, NN50 count to the number of all NN intervals (the number of NN intervals in which the difference between consecutive NN intervals exceeds 50 ms). pNN50 and the like.

그리고 심박변이도(HRV)의 주파수 영역 특징은 부교감신경계와 교감신경계를 포함한 자율신경계와 밀접한 연관이 있어서 심혈관계의 교감-부교감 신경계의 균형을 평가하는데 유용하게 쓰이고 있다. 주파수 영역 특징을 추출하기 위해서는 R 피크 간격의 시계열 자료를 FFT(Fast Fourier Transform)를 통해 주파수 영역으로 변환하는 과정이 필요하다. 이 과정을 스펙트럼 분석이라고 부르는데 심박변이도(HRV)의 스펙트럼 분석을 통해 구해지는 대표적인 주파수 영역 특징들은 [표 4]와 같다.In addition, the frequency domain characteristics of heart rate variability (HRV) are closely related to the autonomic nervous system including the parasympathetic nervous system and the sympathetic nervous system, so it is useful for evaluating the balance of the sympathetic-parasympathetic nervous system in the cardiovascular system. In order to extract the frequency domain features, a process of converting the time series data of the R peak interval into the frequency domain through FFT (Fast Fourier Transform) is required. This process is called spectrum analysis, and representative frequency domain features obtained through spectrum analysis of heart rate variability (HRV) are shown in [Table 4].

심박변이도(HRV)의 주파수 영역 특징Frequency domain characteristics of heart rate variability (HRV) 의미meaning Total powerTotal power NN 간격들의 분산Variance of NN intervals ULFULF 0.003 Hz 이하의 극초저주파수 대역 내 파워Power in the ultra-low frequency band below 0.003 Hz VLFVLF 0.003-0.4 Hz 사이의 초저주파수 대역 내 파워Power in the ultra-low frequency band between 0.003-0.4 Hz LFLF 0.04-0.15 Hz 사이의 저주파수 대역 내 파워Power in the low frequency band between 0.04-0.15 Hz HFHF 0.15-0.4 Hz 사이의 고주파수 대역 내 파워Power in the high frequency band between 0.15-0.4 Hz LF/HFLF/HF HF 파워에 대한 LF 파워의 비율Ratio of LF power to HF power

특징 추출부(150)는 상술한 특징 이외에도 GSR, SKT, PPG, EEG 등과 같은 생체신호에 대해서도 특징을 추출할 수 있다. 특징 추출부(150)의 추출 대상이 되는 대부분의 생체신호 관련 특징에는 기본적으로 평균값과 표준편차 등이 포함되고, 그 외에도 감정 인식에서 널리 사용되는 특징들이 포함될 수 있다. 물론 기존의 감정 인식에서도 생체신호로부터 추출한 특징들을 널리 사용해왔다. 다만, 본 발명은 단순히 짧은 시간 동안의 생체신호로부터 특징을 추출하는 것이 아니라 [표 1], [표 2] 및 [표 3]에 열거된 행동과 상황 별로 생체신호의 특징을 추출하는 것이 가장 큰 차이점이라 할 수 있다. 이렇게 행동과 상황 별로 나누어 특징을 추출하는 이유는 비교적 긴 시간의 감성을 의미하는 무드가 일상생활 패턴과 무관하지 않기 때문이다. 예를 들어, 가족과의 대화 중 측정되는 생체신호의 패턴과 다음날 아침 기상 후의 무드가 서로 강한 연관성을 가지고 있는 것으로 나타난다면 가족과의 대화 동안의 감정이 무드에 영향을 미치는 중요한 특징이라고 볼 수 있다. 이와 같은 개념을 다른 행동과 상황에 대해서도 확장해보면 행동과 상황 별로 생체신호의 특징들을 추출하여 감성 인식 장치(10)에 내장된 감성 인식 모델을 학습할 필요가 있다.The feature extractor 150 may extract features for biosignals such as GSR, SKT, PPG, and EEG in addition to the features described above. Most of the biosignal-related features to be extracted by the feature extractor 150 basically include average values and standard deviations, and other features widely used in emotion recognition may be included. Of course, features extracted from biosignals have been widely used in conventional emotion recognition. However, the present invention does not simply extract features from biosignals for a short period of time, but extracts features of biosignals for each behavior and situation listed in [Table 1], [Table 2], and [Table 3]. It can be said that the biggest difference is. The reason why characteristics are extracted by dividing them into actions and situations is that mood, which means a relatively long period of time, is not irrelevant to daily life patterns. For example, if the patterns of vital signals measured during conversations with family members and the mood after waking up the next morning appear to have a strong correlation with each other, emotions during conversations with family members can be seen as an important feature influencing moods. If this concept is extended to other behaviors and situations, it is necessary to learn the emotion recognition model built in the emotion recognition device 10 by extracting characteristics of biosignals for each behavior and situation.

또한, 특징 추출부(150)는 생체신호에 기반한 특징값 외에도 라이프로그 데이터에서 특징값을 추출할 수 있다. 예를 들어, 특징 추출부(150)는 라이프로그 데이터에서 칼로리, 운동시간, 스마트폰 활동 이력(또는 스마트폰 앱별 사용시간), 스마트폰 사용 시간 등 다양한 라이프로그 데이터 특징값을 추출할 수 있다.In addition, the feature extractor 150 may extract feature values from lifelog data in addition to feature values based on bio-signals. For example, the feature extractor 150 may extract various lifelog data feature values, such as calories, exercise time, smartphone activity history (or usage time for each smartphone app), and smartphone usage time, from lifelog data.

정규화부(160)는 특징 추출부(150)가 추출한 특징값을 정규화한다. 다양한 특징(특징값)들이 동등한 비중을 가지고 감성 인식 모델에 입력되기 위해서는 특징값을 정규화할 필요가 있다. 예를 들어, 정규화부(160)는 모든 특징 변수에 대한 특징값을 -1과 1사이의 값으로 정규화할 수 있다. 이러한 정규화 방법은 일반적으로 특징값들이 정규분포를 하고 있을 경우 유용하게 활용될 수 있다. [수학식 1]은 특징값들의 평균과 표준편차를 이용하여 특징 변수의 특징값을 정규화하는 데 사용될 수 있는 식이다.The normalization unit 160 normalizes the feature values extracted by the feature extraction unit 150 . In order for various features (feature values) to be input into the emotion recognition model with equal weight, it is necessary to normalize the feature values. For example, the normalizer 160 may normalize feature values of all feature variables to values between -1 and 1. This normalization method can be usefully utilized when generally feature values have a normal distribution. [Equation 1] is an equation that can be used to normalize feature values of feature variables using the mean and standard deviation of feature values.

Figure pat00004
Figure pat00004

[수학식 1]에서 Xnorm은 정규화된 특징을 의미하고 X는 원래의 특징값을 의미한다. μ는 특징값 전체의 평균을 의미하며, σ는 특징값 전체의 표준편차를 의미한다. In [Equation 1], X norm means a normalized feature and X means an original feature value. μ means the average of all feature values, and σ means the standard deviation of all feature values.

한편, 정규화부(160)는 특징값들이 정규분포에 가깝지 않다면 다른 정규화 방법을 사용할 수 있다. [수학식 2]는 특징값들의 최소값과 최대값을 이용하여 특징 변수의 특징값을 0과 1 사이의 범위로 정규화하는 데 사용될 수 있는 식이다.Meanwhile, the normalization unit 160 may use another normalization method if the feature values are not close to a normal distribution. [Equation 2] is an equation that can be used to normalize a feature value of a feature variable to a range between 0 and 1 using the minimum and maximum values of the feature values.

Figure pat00005
Figure pat00005

[수학식 2]에서 Xnorm은 정규화된 특징을 의미하고 X는 원래의 특징값을 의미한다. Xmin과 Xmax는 각 특징값들의 최소값과 최대값을 의미한다.In [Equation 2], X norm means a normalized feature and X means an original feature value. X min and X max mean the minimum and maximum values of each feature value.

정규화부(160)는 생체신호에서 추출된 특징값뿐만 아니라, 칼로리, 운동시간, 스마트폰 사용시간, 스마트폰 활동 이력, 수면시간, 수면효율 등 라이프로그 데이터에서 추출된 특징값도 정규화한다. 본 명세서에서는 감성 인식 모델의 학습을 위해 제공되는 (정규화된) 특징값을 '학습용 데이터'라고 칭하고, 감성 인식 모델을 이용한 추론을 위해 제공되는 (정규화된) 특징값을 '추론용 데이터'라고 칭한다.The normalization unit 160 normalizes feature values extracted from lifelog data, such as calories, exercise time, smartphone use time, smartphone activity history, sleep time, and sleep efficiency, as well as feature values extracted from biosignals. In this specification, the (normalized) feature values provided for learning the emotion recognition model are referred to as 'learning data', and the (normalized) feature values provided for reasoning using the emotion recognition model are referred to as 'inference data'.

도 1에 도시된 감성 인식 모델 생성기(200)는 학습용 데이터를 기초로 기계학습을 통해 감성 인식 모델을 생성한다. 즉, 감성 인식 모델 생성기(200)는 생체신호 및 라이프로그 데이터 수집기(100)에서 학습용 데이터를 입력받는다. 감성 인식 모델 생성부(200)는 통상적인 기계학습 방법을 사용하므로 본 명세서에서는 감성 인식 모델 생성기(200)가 사용하는 기계학습 방법에 대한 상세한 언급을 생략한다. 감성 인식 모델 생성기(200)는 감정 인식 분야에서 많이 사용되는 대표적인 기계학습 알고리즘인 KNN(K-Nearest Neighbor), SVC(Support Vector Classification), 랜덤 포레스트(random forest), 에이다부스트(AdaBoost) 등이 될 수 있으며, 그 외에도 감성 또는 무드를 인식하는데 유용한 기계학습 알고리즘들이 추가로 포함될 수 있다. 또한 생체신호 및 라이프로그 데이터에서 특징을 추출하지 않고 학습할 경우 DNN(Deep Neural Network), CNN(Convolutional Neural Network), RNN(Recurrent Neural Network)과 같은 딥러닝 알고리즘을 활용하여 감성 인식 모델을 생성할 수 있다.The emotion recognition model generator 200 shown in FIG. 1 generates an emotion recognition model through machine learning based on learning data. That is, the emotion recognition model generator 200 receives learning data from the biosignal and lifelog data collector 100 . Since the emotion recognition model generator 200 uses a conventional machine learning method, detailed description of the machine learning method used by the emotion recognition model generator 200 is omitted in this specification. The emotion recognition model generator 200 may be representative machine learning algorithms such as KNN (K-Nearest Neighbor), SVC (Support Vector Classification), random forest, and AdaBoost, which are representative machine learning algorithms widely used in the field of emotion recognition. In addition, machine learning algorithms useful for recognizing emotions or moods may be additionally included. In addition, when learning without extracting features from bio-signal and lifelog data, deep learning algorithms such as Deep Neural Network (DNN), Convolutional Neural Network (CNN), and Recurrent Neural Network (RNN) can be used to create emotion recognition models.

도 3은 본 발명의 일 실시예에 따른 감성 인식 및 원인 분석기(300)의 구성을 나타낸 블록도이다.3 is a block diagram showing the configuration of an emotion recognition and cause analyzer 300 according to an embodiment of the present invention.

감성 인식 및 원인 분석기(300)는 감성 인식부(310), 부정적 감성 감지부(320) 및 감성 원인 분석부(330)를 포함하여 구성될 수 있다. 도 3에 도시된 감성 인식 및 원인 분석기(300)는 일 실시예에 따른 것이고, 감성 인식 및 원인 분석기(300)의 구성요소들이 도 3에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경 또는 삭제될 수 있다.The emotion recognition and cause analyzer 300 may include an emotion recognition unit 310 , a negative emotion detection unit 320 and an emotion cause analysis unit 330 . The emotion recognition and cause analyzer 300 shown in FIG. 3 is according to an embodiment, and the components of the emotion recognition and cause analyzer 300 are not limited to the embodiment shown in FIG. 3, and can be added, changed or deleted as needed.

감성 인식 모델 생성부(200)에서 학습을 통해 얻은 감성 인식 모델은 감성 인식 및 원인 분석기(300)가 추론용 데이터를 기초로 사용자의 감성을 인식하는데 사용된다. 사용자로부터 수집한 생체신호와 라이프로그 데이터는 생체신호 및 라이프로그 수집부(100)를 거쳐 감성 인식부(310)에 입력된다.The emotion recognition model obtained through learning in the emotion recognition model generation unit 200 is used by the emotion recognition and cause analyzer 300 to recognize the user's emotion based on the data for reasoning. The biosignal and lifelog data collected from the user are input to the emotion recognition unit 310 via the biosignal and lifelog collection unit 100 .

감성 인식부(310)는 생체신호 및 라이프로그 데이터 수집기(100)가 생성한 추론용 데이터를 감성 인식 모델에 입력하여 추론을 통해 감성을 인식한다. 감성 인식부(310)가 인식한 사용자의 감성은 부정적 감성 감지부(320)에 입력된다.The emotion recognition unit 310 recognizes emotion through reasoning by inputting inference data generated by the bio-signal and lifelog data collector 100 into an emotion recognition model. The user's emotion recognized by the emotion recognition unit 310 is input to the negative emotion detection unit 320 .

부정적 감성 감지부(320)는 감성 인식부(310)가 인식한 감성이 부정적 감성인지 여부를 판단한다.The negative emotion detecting unit 320 determines whether the emotion recognized by the emotion recognizing unit 310 is a negative emotion.

감성 원인 분석부(330)는 추론용 데이터를 기초로 감성 인식부(310)에서 인식된 감성의 원인을 분석한다. 부정적 감성 감지부(320)가 감성 인식부(310)에서 인식된 감성이 부정적 감성이라고 판단하는 경우 감성 원인 분석부(330)는 추론용 데이터를 기초로 해당 부정적 감성의 원인을 분석하게 된다.The emotion cause analysis unit 330 analyzes the cause of the emotion recognized by the emotion recognition unit 310 based on the data for reasoning. When the negative emotion detecting unit 320 determines that the emotion recognized by the emotion recognizing unit 310 is negative emotion, the emotion cause analysis unit 330 analyzes the cause of the corresponding negative emotion based on the reasoning data.

감성 원인 분석부(330)는 추론용 데이터에 포함되어 있는 특징 (특징값)들을 바탕으로 부정적 감성에 큰 영향을 미치는 행동, 상황, 수면에 관한 특징이 무엇인지를 분석할 수 있다. 감성 원인 분석부(330)는 부정적 감성뿐만 아니라 긍정적 감성에 큰 영향을 미치는 행동, 상황 또는 수면에 관한 특징이 무엇인지를 분석할 수도 있다. 감성 원인 분석부(330)가 사용하는 분석도구는 특징 변수(추론용 데이터를 구성하는 변수)와 감성 인식부(310)가 인식한 감성 간의 상관관계를 분석할 수 있는 도구이다. 즉, 감성 원인 분석부(330)는 추론용 데이터를 구성하는 특징 변수와 감성 인식부(310)에 의해 인식된 감성 간의 상관관계 분석을 통하여 감성 인식부(310)에 의해 인식된 감성의 원인을 분석할 수 있다. 감성 원인 분석부(330)가 사용할 수 있는 대표적인 분석 도구는 피어슨(Pearson) 상관계수, 스피어만(Spearman) 상관계수, 켄달(Kendall)의 타우(tau) 등이 있을 수 있으며, 그 외에도 두 변수 간의 상관관계를 측정할 수 있는 다양한 도구들이 활용될 수 있다.The emotion cause analysis unit 330 may analyze characteristics related to behaviors, situations, and sleep that greatly affect negative emotions based on features (feature values) included in inference data. The emotion cause analysis unit 330 may analyze characteristics related to behaviors, situations, or sleep that greatly affect not only negative emotions but also positive emotions. The analysis tool used by the emotion cause analysis unit 330 is a tool capable of analyzing a correlation between feature variables (variables constituting inference data) and emotions recognized by the emotion recognition unit 310 . That is, the emotion cause analysis unit 330 may analyze the cause of the emotion recognized by the emotion recognition unit 310 through correlation analysis between feature variables constituting inference data and emotions recognized by the emotion recognition unit 310. Representative analysis tools that can be used by the emotion cause analysis unit 330 include Pearson's correlation coefficient, Spearman's correlation coefficient, Kendall's tau, and the like. In addition, various tools capable of measuring the correlation between two variables can be utilized.

도 1에 도시된 라이프 스타일 코칭기(400)는 감성 인식 및 원인 분석기(300)의 분석 결과를 기초로 감성 인식 및 원인 분석기(300)가 인식한 감성과 관련된 사용자의 생활 습관 및 행동 패턴 중 적어도 어느 하나에 대한 정보를 제공한다. 또한, 라이프 스타일 코칭기(400)는 감성 원인 분석부(330)의 분석 결과를 이용하여 도메인 지식 DB를 검색하여 관련된 도메인 지식(정보)를 추출하고, 추출한 도메인 지식(정보)를 통해 사용자에게 맞춤형 서비스를 제공한다. 예를 들어, 도메인 지식 DB는 부정적 감성을 일으키는 생활 습관이나 행동 패턴과 함께 그러한 생활 습관이나 행동 패턴에 대한 개선에 대한 정보가 저장될 수 있다. 라이프 스타일 코칭기(400)는 도메인 지식 DB 검색을 통하여 사용자에게 부정적 감성을 일으키는 생활 습관이나 행동 패턴에 대한 맞춤형 개선 서비스를 제공할 수 있다. 상기 맞춤형 개선 서비스의 예를 들면, 어제의 회사 업무로 인한 스트레스가 크게 작용하여 사용자에게 부정적 감성이 나타난 것으로 분석된 경우, 업무에서 잠시 벗어나 심리적 안정을 취할 수 있도록 명상이나 산책을 권하는 것 등이 될 수 있다.The lifestyle coach 400 shown in FIG. 1 provides information on at least one of a user's lifestyle and behavioral pattern related to the emotion recognized by the emotion recognition and cause analyzer 300 based on the analysis result of the emotion recognition and cause analyzer 300. In addition, the lifestyle coach 400 searches the domain knowledge DB using the analysis result of the emotional cause analysis unit 330, extracts related domain knowledge (information), and provides customized services to users through the extracted domain knowledge (information). For example, the domain knowledge DB may store lifestyle habits or behavior patterns that cause negative emotions, along with information on improvement of those lifestyle habits or behavior patterns. The lifestyle coach 400 may provide customized improvement services for lifestyle habits or behavior patterns that cause negative emotions to users through domain knowledge DB searches. As an example of the customized improvement service, if it is analyzed that the user has negative emotions due to the stress caused by yesterday's company work, it may be recommended to meditate or take a walk so that the user can get away from work for a while and take psychological stability.

도 4는 본 발명의 일 실시예에 따른 감성 인식 방법(무드 인식 방법)을 설명하기 위한 흐름도이다.4 is a flowchart illustrating an emotion recognition method (mood recognition method) according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 감성 인식 방법은 S510 단계 내지 S540 단계를 포함하며, S550 단계를 더 포함할 수 있다.The emotion recognition method according to an embodiment of the present invention includes steps S510 to S540, and may further include step S550.

S510 단계는 학습용 데이터 생성 단계이다. 생체신호 및 라이프로그 데이터 수집기(100)는 생체신호(S530 단계의 생체신호와 구별하기 위해 '제1 생체신호'로 칭함)와 라이프로그 데이터(S530 단계의 라이프로그 데이터와 구별하기 위해 '제1 라이프로그 데이터'로 칭함)를 수집하고, 제1 생체신호와 제1 라이프로그 데이터를 기초로 학습용 데이터를 생성한다. 생체신호 및 라이프로그 데이터 수집기(100)는 제1 생체신호와 제1 라이프로그 데이터를 시간에 대해 동기화하고, 동기화된 제1 생체신호에 포함된 잡음을 제거하고, 동기화된 제1 생체신호를 상황, 행동 및 수면 중 적어도 어느 하나의 기준에 따라 분할하며, 분할된 제1 생체신호와 제1 라이프로그 데이터에서 특징(특징값)을 추출하여 학습용 데이터를 생성할 수 있다. 생체신호 및 라이프로그 데이터 수집기(100)는 특징(특징값)을 정규화하여 학습용 데이터를 생성할 수도 있다. S510 단계에 관한 상세한 내용은 생체신호 및 라이프로그 데이터 수집기(100) 및 그 구성요소에 대하여 전술한 내용을 참조할 수 있다.Step S510 is a step of generating data for learning. The biosignal and lifelog data collector 100 collects biosignals (referred to as 'first biosignal' to distinguish them from the biosignals of step S530) and lifelog data (referred to as 'first lifelog data' to distinguish them from the lifelog data of step S530), and generates learning data based on the first biosignals and the first lifelog data. The bio-signal and lifelog data collector 100 synchronizes the first bio-signal and the first lifelog data with respect to time, removes noise included in the synchronized first bio-signal, divides the synchronized first bio-signal according to at least one criterion of situation, behavior, and sleep, and extracts features (feature values) from the divided first bio-signal and the first lifelog data to generate learning data. The biosignal and lifelog data collector 100 may normalize features (feature values) to generate training data. For details of step S510, reference may be made to the above description of the bio-signal and lifelog data collector 100 and its components.

S520 단계는 감성 인식 모델 생성 단계이다. 감성 인식 모델 생성기(200)는 학습용 데이터를 기초로 기계학습을 통해 감성 인식 모델을 생성한다. S520 단계에 관한 상세한 내용은 감성 인식 모델 생성기(200)에 대하여 전술한 내용을 참조할 수 있다.Step S520 is a step of generating an emotion recognition model. The emotion recognition model generator 200 generates an emotion recognition model through machine learning based on training data. For details of step S520 , reference may be made to the above description of the emotion recognition model generator 200 .

S530 단계는 추론용 데이터 생성 단계이다. 생체신호 및 라이프로그 데이터 수집기(100)는 생체신호(S510 단계의 생체신호와 구별하기 위해 '제2 생체신호'로 칭함)와 라이프로그 데이터(S510 단계의 라이프로그 데이터와 구별하기 위해 '제2 라이프로그 데이터'로 칭함)를 수집하고, 제2 생체신호와 제2 라이프로그 데이터를 기초로 추론용 데이터를 생성한다. 생체신호 및 라이프로그 데이터 수집기(100)는 제2 생체신호와 제2 라이프로그 데이터를 시간에 대해 동기화하고, 동기화된 제2 생체신호에 포함된 잡음을 제거하고, 동기화된 제2 생체신호를 상황, 행동 및 수면 중 적어도 어느 하나의 기준에 따라 분할하며, 분할된 제2 생체신호와 제2 라이프로그 데이터에서 특징(특징값)을 추출하여 추론용 데이터를 생성할 수 있다. S530 단계에 관한 상세한 내용은 생체신호 및 라이프로그 데이터 수집기(100) 및 그 구성요소에 대하여 전술한 내용을 참조할 수 있다.Step S530 is a step of generating data for inference. The biosignal and lifelog data collector 100 collects biosignals (referred to as 'second biosignal' to distinguish them from the biosignals of step S510) and lifelog data (referred to as 'second lifelog data' to distinguish them from the lifelog data of step S510), and generates inference data based on the second biosignals and the second lifelog data. The bio-signal and lifelog data collector 100 synchronizes the second bio-signal and the second lifelog data with respect to time, removes noise included in the synchronized second bio-signal, divides the synchronized second bio-signal according to at least one criterion of situation, behavior, and sleep, and extracts features (feature values) from the divided second bio-signal and the second lifelog data to generate data for inference. For details of step S530, reference may be made to the above description of the bio-signal and lifelog data collector 100 and its components.

S540 단계는 감성 인식 및 원인 분석 단계이다. 감성 인식 및 원인 분석기(300)는 추론용 데이터를 감성 인식 모델에 입력하여 추론을 통해 감성을 인식한다. 또한, 감성 인식 및 원인 분석기(300)는 추론용 데이터를 기초로 인식된 감성의 원인을 분석할 수 있다. 감성 인식 및 원인 분석기(300)는 인식된 감성이 부정적인 감성인지 여부를 판단하여, 부정적인 감성으로 판단되는 경우에 한해 해당 감성의 원인을 분석할 수도 있다. S540 단계에 관한 상세한 내용은 감성 인식 및 원인 분석기(300) 및 그 구성요소에 대하여 전술한 내용을 참조할 수 있다.Step S540 is an emotion recognition and cause analysis step. The emotion recognition and cause analyzer 300 recognizes emotion through inference by inputting reasoning data to an emotion recognition model. In addition, the emotion recognition and cause analyzer 300 may analyze the cause of the recognized emotion based on the reasoning data. The emotion recognition and cause analyzer 300 may determine whether the recognized emotion is negative emotion, and analyze the cause of the emotion only when it is determined to be negative emotion. For details on step S540 , reference may be made to the above description of the emotion recognition and cause analyzer 300 and its components.

S550 단계는 라이프 스타일 코칭 단계이다. 라이프 스타일 코칭기(400)는 S540 단계의 분석 결과를 기초로 S540 단계에서 인식된 감성과 관련된 생활 습관 및 행동 패턴 중 적어도 어느 하나에 대한 정보를 제공할 수 있다. 또한, 라이프 스타일 코칭기(400)는 S540 단계의 분석 결과를 이용하여 도메인 지식 DB를 검색하여 관련된 도메인 지식(정보)를 추출하고, 추출한 도메인 지식(정보)를 활용하여 사용자에게 맞춤형 서비스를 제공할 수 있다. 예를 들어, S540 단계에서 인식된 감성이 '무기력함'이고, S540 단계의 분석 결과 사용자의 행동 패턴 중에서 '일'과 관련된 라이프로그 데이터 특징값인 '근무 시간'이 '무기력함'과 가장 상관관계가 높은 특징값으로 나타난 경우, 라이프 스타일 코칭기(400)는 '무기력함'의 원인 중 하나가 '근무 시간'이라는 정보(구체적인 수치를 표시할 수 있음)와 함께, 도메인 지식 DB 검색 결과를 활용하여 업무에서 잠시 벗어나 심리적 안정을 취할 수 있도록 명상이나 산책을 권하는 맞춤형 개선 서비스를 제공할 수 있다. S550 단계에 관한 상세한 내용은 라이프 스타일 코칭기(400)에 대하여 전술한 내용을 참조할 수 있다.Step S550 is a lifestyle coaching step. The lifestyle coach 400 may provide information on at least one of lifestyle habits and behavior patterns related to emotions recognized in step S540 based on the analysis result in step S540. In addition, the lifestyle coach 400 searches the domain knowledge DB using the analysis result of step S540, extracts related domain knowledge (information), and utilizes the extracted domain knowledge (information) to provide customized services to users. For example, if the emotion recognized in step S540 is 'lethargic', and as a result of the analysis in step S540, 'working hours', which is a characteristic value of lifelog data related to 'work', appears to be the feature value with the highest correlation with 'lethargic' among user behavior patterns, the lifestyle coach 400 uses the domain knowledge DB search result along with information that one of the causes of 'lethargy' is 'working hours' (specific values can be displayed). We can provide a customized improvement service that recommends meditation or a walk so that you can take a break from stress and get psychological stability. For details of step S550 , reference may be made to the above description of the lifestyle coach 400 .

도 4를 참조한 설명에서, 각 단계는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 예를 들어, 감성 인식 모델 생성 후, S510 단계 및 S520 단계가 생략될 수 있다. 즉, 감성 인식 및 라이프 스타일 코칭을 위해 S530 단계 내지 S550 단계만 수행될 수 있다. 또한, 감성 인식만을 위해 S530 단계 및 S540 단계만 수행될 수도 있다.In the description with reference to FIG. 4 , each step may be further divided into additional steps or combined into fewer steps, depending on an embodiment of the invention. Also, some steps may be omitted if necessary, and the order of steps may be changed. For example, after generating the emotion recognition model, steps S510 and S520 may be omitted. That is, only steps S530 to S550 may be performed for emotion recognition and lifestyle coaching. Also, only steps S530 and S540 may be performed for emotion recognition only.

한편, 기타 생략된 내용이라 하더라도 도 1 내지 도 3의 내용은 도 4의 내용에 적용될 수 있다. 또한, 도 4의 내용은 도 1 내지 도 3의 내용에 적용될 수 있다.Meanwhile, even if other omitted contents, the contents of FIGS. 1 to 3 may be applied to the contents of FIG. 4 . Also, the contents of FIG. 4 may be applied to the contents of FIGS. 1 to 3 .

참고로, 본 발명의 실시예에 따른 구성 요소들은 소프트웨어 또는 DSP(digital signal processor), FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.For reference, components according to an embodiment of the present invention may be implemented in software or hardware form such as a digital signal processor (DSP), a field programmable gate array (FPGA), or an application specific integrated circuit (ASIC), and may perform predetermined roles.

그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, 'components' are not meant to be limited to software or hardware, and each component may be configured to be in an addressable storage medium or configured to reproduce one or more processors.

따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, as an example, a component includes components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables.

구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.Components and the functionality provided within them may be combined into fewer components or further separated into additional components.

한편, 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Meanwhile, it will be understood that each block of the flowchart drawings and combinations of the flowchart drawings can be performed by computer program instructions. These computer program instructions may be embodied in a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions executed by the processor of the computer or other programmable data processing equipment create means for performing the functions described in the flowchart block(s). Since computer program instructions can also be loaded on a computer or other programmable data processing equipment, it is also possible that a series of operating steps are performed on a computer or other programmable data processing equipment to create a computer-executed process so that the computer or other programmable data processing equipment performing instructions provides steps for executing the functions described in the flowchart block(s).

또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Additionally, each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s). It should also be noted that in some alternative implementations it is possible for the functions mentioned in the blocks to occur out of order. For example, two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in reverse order depending on their function.

본 발명의 실시예에서 사용되는 '~기' 또는 '~부'라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~기' 또는 '~부'는 어떤 역할들을 수행한다. 그렇지만 '~기' 또는 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~기' 또는 '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~기' 또는 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~기' 또는 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~기' 또는 '~부'들로 결합되거나 추가적인 구성요소들과 '~기' 또는 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~기' 또는 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~group' or '~unit' used in the embodiments of the present invention means software or a hardware component such as FPGA or ASIC, and '~group' or '~unit' performs certain roles. However, '~ group' or '~ part' is not limited to software or hardware. '~ group' or '~ unit' may be configured to be in an addressable storage medium and may be configured to reproduce one or more processors. Thus, as an example, '~group' or '~unit' includes components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. Functions provided within the components and '~ group' or '~ unit' may be combined into a smaller number of components and '~ group' or '~ unit' or further separated into additional components and '~ group' or '~ unit'. In addition, the components and '~ group' or '~ unit' may be implemented to play one or more CPUs in a device or a secure multimedia card.

전술한 감성 인식 방법(무드 인식 방법)은 도면에 제시된 흐름도를 참조로 하여 설명되었다. 간단히 설명하기 위하여 상기 방법은 일련의 블록들로 도시되고 설명되었으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 다른 블록들과 본 명세서에서 도시되고 기술된 것과 상이한 순서로 또는 동시에 일어날 수도 있으며, 동일한 또는 유사한 결과를 달성하는 다양한 다른 분기, 흐름 경로, 및 블록의 순서들이 구현될 수 있다. 또한, 본 명세서에서 기술되는 방법의 구현을 위하여 도시된 모든 블록들이 요구되지 않을 수도 있다.The above-described emotion recognition method (mood recognition method) has been described with reference to flowcharts presented in the drawings. Although the method is shown and described as a series of blocks for simplicity, the invention is not limited to the order of the blocks, and some blocks may occur in a different order or concurrently with other blocks than shown and described herein, and various other branches, flow paths, and sequences of blocks may be implemented that achieve the same or similar results. Also, not all blocks shown may be required for implementation of the methods described herein.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention described in the claims below. It will be understood that it can be changed.

10: 감성 인식 장치(무드 인식 장치)
100: 생체신호 및 라이프로그 데이터 수집기
110: 생체신호 측정부
120: 라이프로그 데이터 수집부
130: 데이터 로거
140: 신호 전처리부
150: 특징 추출부
160: 정규화부
200: 감성 인식 모델 생성기
300: 감성 인식 및 원인 분석기
310: 감성 인식부
320: 부정적 감성 감지부
330: 감성 원인 분석부
400: 라이프 스타일 코칭기
10: emotion recognition device (mood recognition device)
100: biosignal and lifelog data collector
110: biosignal measuring unit
120: lifelog data collection unit
130: data logger
140: signal pre-processor
150: feature extraction unit
160: normalization unit
200: emotion recognition model generator
300: emotion recognition and cause analyzer
310: emotion recognition unit
320: negative emotion detection unit
330: emotional cause analysis unit
400: Lifestyle Coach

Claims (1)

생체신호와 라이프로그 데이터를 수집하고, 상기 생체신호 및 상기 라이프로그 데이터에서 특징값을 추출하여 학습용 데이터 및 추론용 데이터를 생성하는 생체신호 및 라이프로그 데이터 수집기;
상기 학습용 데이터를 기초로 기계학습을 통해 감성 인식 모델을 생성하는 감성 인식 모델 생성기; 및
상기 추론용 데이터를 상기 감성 인식 모델에 입력하여 추론을 통해 감성을 인식하는 감성 인식 및 원인 분석기;
를 포함하는 감성 인식 장치.
a bio-signal and life-log data collector that collects bio-signals and lifelog data, extracts feature values from the bio-signals and lifelog data, and generates data for learning and reasoning;
an emotion recognition model generator generating an emotion recognition model through machine learning based on the learning data; and
an emotion recognition and cause analyzer inputting the data for inference into the emotion recognition model and recognizing emotion through inference;
Emotion recognition device comprising a.
KR1020220006657A 2022-01-17 2022-01-17 Apparatus and method for emotion recognition based on physiological signal and lifelog KR20230110999A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220006657A KR20230110999A (en) 2022-01-17 2022-01-17 Apparatus and method for emotion recognition based on physiological signal and lifelog

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220006657A KR20230110999A (en) 2022-01-17 2022-01-17 Apparatus and method for emotion recognition based on physiological signal and lifelog

Publications (1)

Publication Number Publication Date
KR20230110999A true KR20230110999A (en) 2023-07-25

Family

ID=87428781

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220006657A KR20230110999A (en) 2022-01-17 2022-01-17 Apparatus and method for emotion recognition based on physiological signal and lifelog

Country Status (1)

Country Link
KR (1) KR20230110999A (en)

Similar Documents

Publication Publication Date Title
Bobade et al. Stress detection with machine learning and deep learning using multimodal physiological data
Panicker et al. A survey of machine learning techniques in physiology based mental stress detection systems
US11696714B2 (en) System and method for brain modelling
Zenonos et al. HealthyOffice: Mood recognition at work using smartphones and wearable sensors
CN109843163B (en) Method and system for marking sleep state
Zhao et al. EmotionSense: Emotion recognition based on wearable wristband
WO2020119245A1 (en) Wearable bracelet-based emotion recognition system and method
Khowaja et al. Toward soft real-time stress detection using wrist-worn devices for human workspaces
Luque et al. End-to-end photopleth YsmographY (PPG) based biometric authentication by using convolutional neural networks
Seo et al. Deep learning approach for detecting work-related stress using multimodal signals
Yan et al. Emotion classification with multichannel physiological signals using hybrid feature and adaptive decision fusion
Ramos et al. Stress recognition-a step outside the lab
Rosales et al. Physiological-based smart stress detector using machine learning algorithms
Chandra et al. Comparative study of physiological signals from empatica e4 wristband for stress classification
Ladakis et al. Overview of biosignal analysis methods for the assessment of stress
Wang et al. Emotionsense: An adaptive emotion recognition system based on wearable smart devices
Bonotis et al. Automated assessment of pain intensity based on EEG signal analysis
Li et al. Multi-modal emotion recognition based on deep learning of EEG and audio signals
Mustafa et al. Stress detector system using iot and artificial intelligence
Fan et al. An electrocardiogram acquisition and analysis system for detection of human stress
Jegan et al. Mental Stress Detection and Classification using SVM Classifier: A Pilot Study
Saha et al. Towards incorporating affective feedback into context-aware intelligent environments
KR20230110999A (en) Apparatus and method for emotion recognition based on physiological signal and lifelog
Wen et al. Wearable integrated online fusion learning filter for heart PPG sensing tracking
Zheng et al. Study of stress rules based on HRV features