KR20230110999A - Apparatus and method for emotion recognition based on physiological signal and lifelog - Google Patents
Apparatus and method for emotion recognition based on physiological signal and lifelog Download PDFInfo
- Publication number
- KR20230110999A KR20230110999A KR1020220006657A KR20220006657A KR20230110999A KR 20230110999 A KR20230110999 A KR 20230110999A KR 1020220006657 A KR1020220006657 A KR 1020220006657A KR 20220006657 A KR20220006657 A KR 20220006657A KR 20230110999 A KR20230110999 A KR 20230110999A
- Authority
- KR
- South Korea
- Prior art keywords
- emotion
- data
- emotion recognition
- lifelog
- bio
- Prior art date
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 110
- 238000000034 method Methods 0.000 title abstract description 28
- 230000008451 emotion Effects 0.000 claims abstract description 115
- 239000000284 extract Substances 0.000 claims abstract description 17
- 238000010801 machine learning Methods 0.000 claims abstract description 14
- 230000036651 mood Effects 0.000 description 43
- 230000006399 behavior Effects 0.000 description 33
- 238000004458 analytical method Methods 0.000 description 27
- 230000007958 sleep Effects 0.000 description 22
- 238000013480 data collection Methods 0.000 description 14
- 230000002996 emotional effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000001360 synchronised effect Effects 0.000 description 9
- 238000007781 pre-processing Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000010606 normalization Methods 0.000 description 7
- 230000002618 waking effect Effects 0.000 description 7
- 230000003542 behavioural effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 210000003403 autonomic nervous system Anatomy 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 208000019901 Anxiety disease Diseases 0.000 description 3
- 206010024264 Lethargy Diseases 0.000 description 3
- 230000036506 anxiety Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 210000005037 parasympathetic nerve Anatomy 0.000 description 3
- 238000013186 photoplethysmography Methods 0.000 description 3
- 230000002889 sympathetic effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010219 correlation analysis Methods 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 210000001002 parasympathetic nervous system Anatomy 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000004622 sleep time Effects 0.000 description 2
- 238000010183 spectrum analysis Methods 0.000 description 2
- 210000004243 sweat Anatomy 0.000 description 2
- 210000002820 sympathetic nervous system Anatomy 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008512 biological response Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000000748 cardiovascular system Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 210000003499 exocrine gland Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000000718 qrs complex Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 231100000430 skin reaction Toxicity 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/0205—Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
- A61B5/02055—Simultaneously evaluating both cardiovascular condition and temperature
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/053—Measuring electrical impedance or conductance of a portion of the body
- A61B5/0531—Measuring skin impedance
- A61B5/0533—Measuring galvanic skin response
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1123—Discriminating type of movement, e.g. walking or running
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/318—Heart-related electrical modalities, e.g. electrocardiography [ECG]
- A61B5/346—Analysis of electrocardiograms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/372—Analysis of electroencephalograms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4806—Sleep evaluation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4857—Indicating the phase of biorhythm
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Cardiology (AREA)
- Psychiatry (AREA)
- Physiology (AREA)
- Artificial Intelligence (AREA)
- Psychology (AREA)
- Dermatology (AREA)
- Radiology & Medical Imaging (AREA)
- Dentistry (AREA)
- Child & Adolescent Psychology (AREA)
- Pulmonology (AREA)
- Hospice & Palliative Care (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Social Psychology (AREA)
- Educational Technology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Developmental Disabilities (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
본 발명은 개인의 감성 또는 무드를 인식하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for recognizing an individual's emotion or mood.
최근 들어 사회가 발전하고 고도화됨에 따라 사회관계 속에서 정서적, 심리적 불안감을 느끼는 사람들이 늘어나고 있다. 이에 따라 개인의 감성 또는 무드를 읽고 부정적 감성이 나타나면 이를 개선되도록 지원하는 기술에 대한 수요가 늘어날 것으로 전망된다.BACKGROUND OF THE INVENTION Recently, as society develops and becomes more sophisticated, more and more people feel emotional and psychological anxiety in social relationships. As a result, it is expected that the demand for technology that helps to read individual emotions or moods and improve them when negative emotions appear will increase.
그런데 많은 사람들이 이러한 정서적, 심리적 불안감을 대수롭지 않게 여기거나 스트레스에 따른 감정 경험을 표현하지 않고 내적으로 억누르는 경향이 있다. 이렇게 사회, 문화적으로 감정 표현에 어려움을 겪는 상황에서는 외부로 드러나는 얼굴 표정이나 음성 등으로 감성을 인식하는 것을 어렵게 만든다. 그래서 최근 감정, 정서 인식 분야에서 활발히 연구되고 있는 방법은 다양한 생체신호를 통해 감성을 인식하는 것이다. 생리심리학적 연구에서 인간의 감성과 생체반응은 강한 상관이 있다고 알려져 있으며, 생체신호는 센서 등으로 비교적 간단하게 획득할 수 있고, 이를 이용한 감성 인식은 사회적, 문화적인 차이에 덜 민감하므로 최근에 많은 주목을 받고 있다. 특히, IT 기술의 발달과 함께 스마트 워치, 피트니스 밴드 등과 같은 웨어러블 장치의 성능이 향상됨에 따라 생체신호를 손쉽고 정확하게 취득할 수 있게 되었을 뿐만 아니라, AI 기술의 발달로 인식 성능이 향상됨에 따라 생체신호를 기반으로 사용자의 감성을 인식하는 기술의 활용 가능성이 높아지고 있다.However, many people tend to ignore these emotional and psychological insecurities or suppress them internally without expressing their emotional experiences under stress. In such a situation where people have difficulties in expressing emotions socially and culturally, it makes it difficult to recognize emotions through facial expressions or voices that are revealed to the outside. Therefore, a method that has been actively researched in the field of emotion and emotion recognition in recent years is to recognize emotions through various bio-signals. In physiological psychological research, it is known that there is a strong correlation between human emotions and biological responses, and biosignals can be obtained relatively easily with sensors, etc., and emotional recognition using them is less sensitive to social and cultural differences, so it has recently received a lot of attention. In particular, as the performance of wearable devices such as smart watches and fitness bands has improved along with the development of IT technology, it has become possible to acquire biosignals easily and accurately, and as recognition performance has improved with the development of AI technology, the possibility of using technology for recognizing user's emotions based on biosignals is increasing.
그런데, 그동안 생체신호를 이용한 감성 인식 기술은 주로 짧은 시간(10초 ~ 10분) 동안 지속되는 감성만을 다루어 왔다. 일반적으로 사람들은 감성 자극을 받게 되면 자율신경계에 의해 생체신호의 변화가 나타난다. 예를 들어, 사람들이 당황하거나 긴장을 하게 되면 심장박동이 빨라지고, 온 몸에 땀이 나거나 체온이 높아지는 등의 경험을 한다. 이러한 생체신호는 교감 신경과 부교감 신경으로 구성되고 심장박동이나 신체의 외분비선을 조절하는 자율신경계에 의해 발생한다. 자율 신경계는 다양한 감정 자극에 따라 신체가 안정된 상황을 유지할 수 있도록 교감 신경과 부교감 신경의 균형을 조절하고 있다. 교감 신경계는 주로 흥분/긴장된 상태에서 크게 작용하고, 부교감 신경계는 주로 심적인 안정 상태에서 반응을 한다. 그리고 이러한 생체신호의 반응은 일반적으로 오랫동안 나타나지 않고 비교적 짧은 시간 동안 지속되었다가 종료된다. 예를 들어 사람들이 순간적으로 감정 자극을 받게 되면서 나타나는 심장박동, 땀, 체온 등의 생체신호의 변화는 짧은 시간동안 나타났다가 이내 안정 상태로 돌아간다. However, emotion recognition technology using bio-signals has dealt mainly with emotions lasting for a short time (10 seconds to 10 minutes). In general, when people receive emotional stimuli, changes in biosignals appear by the autonomic nervous system. For example, when people are embarrassed or nervous, their heart beats faster, sweat all over their body, or their body temperature rises. These bio-signals are composed of sympathetic and parasympathetic nerves and are generated by the autonomic nervous system, which regulates the heartbeat or the body's exocrine glands. The autonomic nervous system regulates the balance of the sympathetic and parasympathetic nerves so that the body can maintain a stable situation according to various emotional stimuli. The sympathetic nervous system mainly works in a state of excitement/tension, and the parasympathetic nervous system mainly responds in a state of mental stability. In addition, these bio-signal responses generally do not appear for a long time and end after a relatively short period of time. For example, when people are momentarily emotionally stimulated, changes in biosignals such as heartbeat, sweat, and body temperature appear for a short period of time and then return to a stable state.
반면에 정서적, 심리적 불안감을 확인하고 이에 적절히 대응하기 위해서는 비교적 긴 시간(1시간 ~ 1일)의 감성을 인식할 필요가 있는데, 이렇게 긴 시간 동안 지속되는 감성을 인식하기 위해서는 생체신호의 반응만을 추적하는 것으로 부족하다는 문제점이 있다.On the other hand, in order to identify emotional and psychological anxiety and respond appropriately to it, it is necessary to recognize emotions for a relatively long time (1 hour to 1 day).
본 발명에서는 무드와 연관성이 높은 생체신호 뿐만 아니라 행동, 상황, 수면 등과 같은 라이프로그 데이터를 바탕으로 긴 시간 동안 나타나는 감성인 무드를 인식하는 장치 및 방법을 제공하는 것을 그 목적으로 한다. 이를 위해 본 발명에서는 먼저 사용자로부터 생체신호와 라이프로그 데이터를 수집하고, 이로부터 다양한 특징들을 추출한다. 이때 비교적 긴 시간의 감성을 효과적으로 인식할 수 있도록 행동 및 상황 별 생체신호 특징을 조합하는 방식으로 특징을 추출한다. 이렇게 추출한 특징을 가지고 기계학습을 통해 감성(무드) 인식 모델을 생성한다. 이후 본 발명에 따른 장치 및 방법은 상기 감성 인식 모델을 바탕으로 무드를 인식할 수 있으며 특히, 정서적, 심리적 불안감을 야기하는 부정적 감성을 인식할 수 있다. An object of the present invention is to provide a device and method for recognizing a mood, which is an emotion that appears for a long time, based on lifelog data such as behavior, situation, sleep, and the like, as well as biological signals highly correlated with the mood. To this end, the present invention first collects bio-signals and lifelog data from the user, and extracts various features from them. At this time, features are extracted by combining biosignal characteristics for each behavior and situation so that emotions of a relatively long time can be effectively recognized. With the features extracted in this way, an emotion (mood) recognition model is created through machine learning. Thereafter, the apparatus and method according to the present invention can recognize a mood based on the emotion recognition model, and in particular, can recognize negative emotions that cause emotional and psychological anxiety.
또한, 본 발명에 따른 장치 및 방법은, 부정적인 무드가 인식된 경우 개인 감성 모델을 바탕으로 그 원인이 되는 행동이나 상황 등을 분석함으로써 부정적 감성을 유발하는 생활습관이나 행동 패턴을 찾아내어, 분석 결과를 사용자에게 제공하는 것을 목적으로 한다.In addition, the apparatus and method according to the present invention, when a negative mood is recognized, by analyzing the behavior or situation that causes it based on a personal emotion model, to find a lifestyle or behavior pattern that causes negative emotion, and to provide the analysis result to the user.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the object mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the description below.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 감성 인식 장치는, 생체신호와 라이프로그 데이터를 수집하고, 상기 생체신호 및 상기 라이프로그 데이터에서 특징값을 추출하여 학습용 데이터 및 추론용 데이터를 생성하는 생체신호 및 라이프로그 데이터 수집기; 상기 학습용 데이터를 기초로 기계학습을 통해 감성 인식 모델을 생성하는 감성 인식 모델 생성기; 및 상기 추론용 데이터를 상기 감성 인식 모델에 입력하여 추론을 통해 감성을 인식하는 감성 인식 및 원인 분석기;를 포함한다.An emotion recognition device according to an embodiment of the present invention for achieving the above object is a biosignal and lifelog data collector that collects biosignals and lifelog data, extracts feature values from the biosignals and lifelog data, and generates learning data and inference data; an emotion recognition model generator generating an emotion recognition model through machine learning based on the learning data; and an emotion recognition and cause analyzer for recognizing emotion through reasoning by inputting the reasoning data to the emotion recognition model.
본 발명의 일 실시예에서, 상기 생체신호 및 라이프로그 데이터 수집기는, 측정을 통해 상기 생체신호를 수집하는 생체신호 측정부; 상기 라이프로그 데이터를 수집하는 라이프로그 데이터 수집부; 상기 생체신호 및 상기 라이프로그 데이터를 시간에 대해 동기화하여 취합하는 데이터 로거; 상기 동기화된 생체신호를 상황 및 행동 중 적어도 어느 하나의 기준에 따라 분할하는 신호 전처리부; 및 상기 분할된 생체신호 및 상기 라이프로그 데이터에서 상기 특징값을 추출하는 특징 추출부;를 포함할 수 있다.In one embodiment of the present invention, the bio-signal and lifelog data collector may include: a bio-signal measuring unit that collects the bio-signal through measurement; a lifelog data collection unit that collects the lifelog data; a data logger that collects the bio-signals and the lifelog data in synchronization with time; a signal pre-processing unit dividing the synchronized biosignal according to at least one criterion of situation and behavior; and a feature extraction unit extracting the feature value from the divided bio-signals and the lifelog data.
본 발명의 일 실시예에서, 상기 생체신호 및 라이프로그 데이터 수집기는, 상기 특징값을 정규화하는 정규화부;를 포함할 수 있다.In one embodiment of the present invention, the bio-signal and lifelog data collector may include a normalization unit normalizing the characteristic values.
본 발명의 일 실시예에서, 상기 신호 전처리부는, 상기 동기화된 생체신호에 포함된 잡음을 제거한 후에 상기 동기화된 생체신호를 분할할 수 있다.In one embodiment of the present invention, the signal pre-processing unit may divide the synchronized bio-signal after removing noise included in the synchronized bio-signal.
본 발명의 일 실시예에서, 상기 감성 인식 및 원인 분석기는, 상기 추론용 데이터를 상기 감성 인식 모델에 입력하여 추론을 통해 감성을 인식하는 감성 인식부; 상기 인식된 감성이 부정적 감성인지 여부를 판단하는 부정적 감성 감지부;및 상기 인식된 감성이 부정적 감성인 경우, 상기 추론용 데이터를 기초로 상기 인식된 감성의 원인을 분석하는 감성 원인 분석부;를 포함할 수 있다.In one embodiment of the present invention, the emotion recognition and cause analyzer may include an emotion recognition unit inputting the reasoning data to the emotion recognition model and recognizing emotion through reasoning; A negative emotion detecting unit that determines whether the recognized emotion is a negative emotion; and an emotion cause analyzer that analyzes a cause of the recognized emotion based on the reasoning data when the recognized emotion is a negative emotion.
본 발명의 일 실시예에서, 상기 감성 원인 분석부는, 상기 추론용 데이터를 구성하는 변수와 상기 인식된 감성 간의 상관관계 분석을 통하여 상기 인식된 감성의 원인을 분석할 수 있다.In one embodiment of the present invention, the emotion cause analysis unit may analyze the cause of the recognized emotion through a correlation analysis between variables constituting the reasoning data and the recognized emotion.
본 발명의 일 실시예에서, 상기 감성 인식 장치는 라이프 스타일 코칭기를 더 포함할 수 있다. 이 경우 상기 감성 인식 및 원인 분석기는, 상기 추론용 데이터를 기초로 상기 인식된 감성의 원인을 분석하고, 상기 라이프 스타일 코칭기는, 상기 감성 인식 및 원인 분석기의 분석 결과를 기초로 상기 인식된 감성과 관련된 생활 습관 및 행동 패턴 중 적어도 어느 하나에 대한 정보를 제공할 수 있다.In one embodiment of the present invention, the emotion recognition device may further include a lifestyle coach. In this case, the emotion recognition and cause analyzer analyzes the cause of the recognized emotion based on the reasoning data, and the lifestyle coaching device is associated with the recognized emotion based on the analysis result of the emotion recognition and cause analyzer. It may provide information about at least one of lifestyle habits and behavioral patterns.
그리고, 본 발명의 일 실시예에 따른 감성 인식 방법은, 수집한 제1 생체신호와 제1 라이프로그 데이터를 기초로 학습용 데이터를 생성하는 학습용 데이터 생성 단계; 상기 학습용 데이터를 기초로 기계학습을 통해 감성 인식 모델을 생성하는 감성 인식 모델 생성 단계; 수집한 제2 생체신호와 제2 라이프로그 데이터를 기초로 추론용 데이터를 생성하는 추론용 데이터 생성 단계; 및 상기 추론용 데이터를 상기 감성 인식 모델에 입력하여 추론을 통해 감성을 인식하는 감성 인식 및 원인 분석 단계;를 포함한다.Further, the emotion recognition method according to an embodiment of the present invention includes a learning data generation step of generating learning data based on the collected first bio-signals and first lifelog data; An emotion recognition model generating step of generating an emotion recognition model through machine learning based on the learning data; a data generation step of generating inference data based on the collected second bio-signals and second lifelog data; and an emotion recognition and cause analysis step of inputting the reasoning data into the emotion recognition model and recognizing the emotion through reasoning.
본 발명의 일 실시예에서, 상기 감성 인식 방법은 라이프 스타일 코칭 단계를 더 포함할 수 있다. 이 경우, 상기 감성 인식 및 원인 분석 단계는, 상기 추론용 데이터를 기초로 상기 인식된 감성의 원인을 분석하는 것일 수 있고, 상기 라이프 스타일 코칭 단계는, 상기 감성 인식 및 원인 분석 단계의 분석 결과를 기초로 상기 인식된 감성과 관련된 생활 습관 및 행동 패턴 중 적어도 어느 하나에 대한 정보를 제공하는 것일 수 있다.In one embodiment of the present invention, the emotion recognition method may further include a lifestyle coaching step. In this case, the emotion recognition and cause analysis step may be to analyze the cause of the recognized emotion based on the reasoning data, and the lifestyle coaching step may be to provide information on at least one of lifestyle habits and behavioral patterns related to the recognized emotion based on the analysis result of the emotion recognition and cause analysis step.
본 발명의 일 실시예에서, 상기 학습용 데이터 생성 단계는, 상기 제1 생체신호를 상황 및 행동 중 적어도 어느 하나의 기준에 따라 분할한 후, 상기 분할된 제1 생체신호 및 상기 제1 라이프로그 데이터에서 특징값을 추출하여 상기 학습용 데이터를 생성하는 것일 수 있고, 상기 추론용 데이터 생성 단계는, 상기 제2 생체신호를 상황 및 행동 중 적어도 어느 하나의 기준에 따라 분할한 후, 상기 분할된 제2 생체신호 및 상기 제2 라이프로그 데이터에서 특징값을 추출하여 상기 추론용 데이터를 생성하는 것일 수 있다.In an embodiment of the present invention, the generating data for learning may include generating data for learning by dividing the first bio-signal according to at least one criterion of situation and behavior, and then extracting feature values from the divided first bio-signal and the first lifelog data, and generating data for inference may include dividing the second bio-signal according to at least one criterion of situation and action, and then extracting feature values from the divided second bio-signal and the second lifelog data to extract feature values from the divided second bio-signal and the second lifelog data. may be to generate
본 발명의 일 실시예에 따르면, 비교적 긴 시간 동안 나타나는 감성 즉, 무드와 연관성이 높은 행동, 상황, 수면 등과 같은 라이프로그 데이터를 비롯하여 각 행동, 상황 별 생체신호의 특징을 조합하여 새로운 특징 변수로 사용함으로써 무드 인식이 가능하다는 효과가 있다.According to an embodiment of the present invention, mood recognition is possible by combining lifelog data such as behavior, situation, sleep, etc., which appear over a relatively long period of time, that is, behavior, situation, and sleep that are highly related to mood, as well as characteristics of biological signals for each behavior and situation, and using them as new feature variables.
또한 본 발명의 일 실시예에 따르면, 사용자의 무드를 예측하여 부정적 감성이 예측될 경우 그 원인이 되는 행동이나 상황 등을 분석하도록 해줌으로써 부정적 감성을 유발하는 생활습관이나 행동 패턴을 찾아내고 이를 개선할 수 있도록 지원할 수 있다는 효과가 있다.In addition, according to one embodiment of the present invention, by predicting the user's mood and analyzing the behavior or situation that causes it when negative emotion is predicted, it is possible to find and improve lifestyle habits or behavior patterns that cause negative emotion. There is an effect that it can be supported.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
도 1은 본 발명의 일 실시예에 따른 감성 인식 장치의 구성을 나타낸 블록도.
도 2는 본 발명의 일 실시예에 따른 생체신호 및 라이프로그 데이터 수집기의 구성을 나타낸 블록도.
도 3은 본 발명의 일 실시예에 따른 감성 인식 및 원인 분석기의 구성을 나타낸 블록도.
도 4는 본 발명의 일 실시예에 따른 감성 인식 방법을 설명하기 위한 흐름도.1 is a block diagram showing the configuration of an emotion recognition device according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a bio-signal and lifelog data collector according to an embodiment of the present invention;
3 is a block diagram showing the configuration of an emotion recognition and cause analyzer according to an embodiment of the present invention.
4 is a flowchart illustrating a method for recognizing emotion according to an embodiment of the present invention.
본 명세서에서는 긴 시간의 감성을 '무드'라는 용어로 표현한다. 본 발명은 긴 시간의 감성, 즉 '무드'를 인식하는 장치와 방법에 관한 것이다. '무드'를 인식하기 위해서는 기쁨, 슬픔, 분노 등과 같이 짧은 시간 동안 지속되는 감성을 인식할 때와는 다르게 접근할 필요가 있다. 무드는 직전 시간동안 복잡한 감정으로 인해 나타나는 생체신호 반응뿐만 아니라 행동, 상황, 수면 등과 같은 라이프로그와도 밀접한 관련성을 가진다. 따라서 무드를 인식하기 위해서는 장시간 동안 수집한 생체신호 뿐만 아니라 무드와 깊은 연관을 가지는 행동, 상황, 수면 등과 같은 라이프로그 데이터도 함께 다룰 필요가 있다. 특히 행동 또는 상황 별로 구분하여 추적한 생체신호는 무드를 찾아내는데 효과적일 것으로 보인다. 예를 들어, 사용자의 기상 직후 기분을 예측해보고, 만약 기분이 좋지 않다면 어떤 생활습관 또는 행동패턴을 고쳐야 하는지에 대해 알려주는 응용이 필요하다고 가정한다. 먼저 사용자의 기상 직후 기분은 단순히 기상 후 짧은 시간 동안 수집한 생체신호 데이터만으로 예측하는 것은 현실적이지 못하다. 왜냐하면 사용자의 기상 직후 기분은 그 순간의 감정이라고 하기 보다는 비교적 긴 시간동안 유지되는 감성 즉, 무드에 해당되기 때문이다. 또한 기상 직후의 기분은 전날 행동, 상황, 수면 등 라이프로그 자체뿐만 아니라 개별적인 행동, 상황에서 나타나는 감정이 직접적, 간접적으로 영향을 미친다고 볼 수 있다. 그래서 이러한 무드를 인식하기 위해서는 개별적인 행동 또는 상황 별 생체신호로부터 특징을 추출하여 활용하는 것이 유리하다고 할 수 있다.In this specification, the emotion of a long time is expressed with the term 'mood'. The present invention relates to a device and method for recognizing a long-time emotion, that is, a 'mood'. In order to recognize 'mood', it is necessary to approach differently from when recognizing emotions that last for a short time, such as joy, sadness, and anger. Mood has a close relationship with lifelogs such as behavior, situation, and sleep, as well as biosignal responses caused by complex emotions during the previous time. Therefore, in order to recognize the mood, it is necessary to deal with not only biosignals collected over a long period of time, but also lifelog data such as behavior, situation, and sleep that are deeply related to the mood. In particular, biological signals tracked by behavior or situation are expected to be effective in finding moods. For example, it is assumed that an application that predicts the user's mood immediately after waking up and informs him or her of what lifestyle habits or behavioral patterns should be corrected if the user is not in a good mood. First, it is not realistic to predict the user's mood immediately after waking up with biosignal data collected for a short time after waking up. This is because the mood immediately after waking up of the user corresponds to the emotion that is maintained for a relatively long time, that is, the mood, rather than the emotion at that moment. In addition, it can be seen that the mood immediately after waking up is directly or indirectly influenced by not only the lifelog itself, such as the previous day's actions, situations, and sleep, but also individual actions and emotions in the situation. Therefore, in order to recognize these moods, it can be said that it is advantageous to extract and utilize features from individual behaviors or biosignals for each situation.
본 발명에서는 생체신호 뿐만 아니라 라이프로그 데이터를 함께 사용하여 유의미한 특징들을 추출하고, 이 특징들을 학습하는 방식으로 감성 인식 모델(무드 인식 모델)을 구성한다. 그리고 감성 인식 모델을 통해 부정적 감성이 인식될 경우 감성에 어떤 행동, 상황이 큰 영향을 주고 있는지를 분석하는 과정을 통해 부정적 감성을 개선할 수 있는 라이프 스타일을 제공한다.In the present invention, an emotion recognition model (mood recognition model) is constructed by extracting meaningful features by using lifelog data as well as biological signals and learning these features. In addition, when negative emotions are recognized through the emotion recognition model, it provides a lifestyle that can improve negative emotions through the process of analyzing which actions and situations have a great impact on emotions.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, and only these embodiments make the disclosure of the present invention complete, and those skilled in the art It is provided to completely inform the scope of the invention, and the present invention is only defined by the scope of the claims. Meanwhile, terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not preclude the presence or addition of one or more other components, steps, operations, and/or elements in which a stated element, step, operation, and/or element is present.
본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In describing the present invention, if it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.
이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면 번호에 상관없이 동일한 수단에 대해서는 동일한 참조 번호를 사용하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate overall understanding in describing the present invention, the same reference numerals will be used for the same means regardless of the drawing numbers.
도 1은 본 발명의 일 실시예에 따른 감성 인식 장치(10, '무드 인식 장치'라고도 칭함)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of an emotion recognition device (10, also referred to as a 'mood recognition device') according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 감성 인식 장치(10)는 생체신호와 라이프로그 데이터를 수집하는 생체신호 및 라이프로그 데이터 수집기(100), 생체신호와 라이프로그 데이터를 이용하여 기계학습을 통해 감성 인식 모델을 생성하는 감성 인식 모델 생성기(200) 및 생체신호와 라이프로그 데이터를 감성 인식 모델에 입력해서 감성을 인식하고, 인식된 감성의 원인을 분석하는 감성 인식 및 원인 분석기(300)를 포함한다.The
또한, 본 발명의 일 실시예에 따른 감성 인식 장치(10)는 감성 인식 및 원인 분석기(300)에서 얻어진 분석 결과와 도메인 지식을 바탕으로 맞춤형 라이프 스타일을 추천해주는 라이프 스타일 코칭기(400)를 더 포함할 수 있다.In addition, the
생체신호 및 라이프로그 데이터 수집기(100)는 생체신호와 라이프로그 데이터를 수집하고, 생체신호 및 라이프로그 데이터에서 특징값을 추출하여 학습용 데이터나 추론용 데이터를 생성한다.The bio-signal and
감성 인식 모델 생성기(200)는 학습용 데이터를 기초로 기계학습을 통해 감성 인식 모델을 생성한다.The emotion
감성 인식 및 원인 분석기(300)는 추론용 데이터를 감성 인식 모델에 입력하여 추론을 통해 감성을 인식한다. 또한 감성 인식 및 원인 분석기(300)는 추론용 데이터를 기초로 인식된 감성의 원인을 분석할 수 있다. 감성 인식 및 원인 분석기(300)는 부정적 감성뿐만 아니라 긍정적 감성에 대한 원인을 분석할 수 있는데, 경우에 따라 인식된 감성이 부정적 감성인지 판단하여 부정적 감성인 경우에만 감성의 원인을 분석할 수도 있다.The emotion recognition and
라이프 스타일 코칭기(400)는 감성 인식 및 원인 분석기(300)의 감성 인식 및 분석 결과를 기초로 도메인 지식 DB 검색을 통하여 감성 인식 및 원인 분석기(300)에서 인식된 감성과 관련된 생활 습관 및 행동 패턴 중 적어도 어느 하나에 대한 정보를 제공할 수 있다. 예를 들어, 라이프 스타일 코칭기(400)는 부정적 감성을 개선할 수 있는 맞춤형 라이프 스타일을 추천할 수 있다.The
도 2는 본 발명의 일 실시예에 따른 생체신호 및 라이프로그 데이터 수집기(100)의 구성을 나타낸 블록도이다.2 is a block diagram showing the configuration of a biosignal and
생체신호 및 라이프로그 데이터 수집기(100)는 생체신호 측정부(110), 라이프로그 데이터 수집부(120), 데이터 로거(130), 신호 전처리부(140), 특징 추출부(150) 및 정규화부(160)를 포함하여 구성될 수 있다. 도 2에 도시된 생체신호 및 라이프로그 데이터 수집기(100)는 일 실시예에 따른 것이고, 생체신호 및 라이프로그 데이터 수집기(100)의 구성요소들이 도 2에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경 또는 삭제될 수 있다.The biosignal and
생체신호 측정부(110)는 측정을 통해 생체신호를 수집한다. 즉, 생체신호 측정부(110)는 사용자로부터 다양한 생체신호를 측정할 수 있다. 생체신호 측정부(110)는 사용자의 신체에 부착된 센서를 통해 무드 인식에 필요한 다양한 생체신호를 측정하는데, 대표적으로 심전도(Electrocardiogram, ECG), 피부저항(Galvanic skin response, GSR), 피부온도(Skin temperature, SKT), 맥파(Photo-plethysmography, PPG), 호흡(Respiration rates), 뇌파(Electroencephalogram, EEG) 신호 등을 측정한다. 이외에도 감성 또는 무드를 인식하는데 유용한 생체신호들이 추가될 수 있다. 생체신호 측정부(110)는 사용자의 신체로부터 측정한 생체신호를 와이파이(Wi-Fi) 또는 이동통신과 같은 무선 인터페이스를 거쳐 인터넷망에 접속되어 있는 데이터 로거(130)에 전송한다.The
라이프로그 데이터 수집부(120)는 라이프로그 데이터를 수집한다. 라이프로그 데이터 수집부(120)는 라이프로그 데이터로서 개인이 일상생활에서 경험하는 정보를 수집할 수 있다. 예를 들어 라이프로그 데이터 수집부(120)는 행동, 상황, 수면에 대한 정보(라이프로그 데이터)를 수집할 수 있다. 라이프로그 데이터 수집부(120)는 사용자가 직접 스마트폰 앱을 통해 기록하거나 웨어러블 기기를 통해 수집된 정보를 스마트폰과 연동되어 자동으로 기록되게 하는 방식을 통해 라이프로그 데이터를 수집할 수 있다. 라이프로그 수집을 위한 웨어러블 기기로는 영상 입력을 위한 안경, 소리 입력을 위한 목걸이, 위치 및 행동 입력을 위한 팔찌 또는 허리띠 등이 활용될 수 있다. [표 1] 및 [표 2]는 라이프로그 데이터 수집부(120)가 수집하는 행동 관련 라이프로그 데이터의 일례를 나타낸 것이다. [표 1] 및 [표 2]의 예시 외에도 감성 또는 무드를 인식하는데 유용한 행동 정보들이 행동과 관련된 라이프로그 데이터에 추가로 포함될 수 있다.The lifelog
한편, [표 3]은 라이프로그 데이터 수집부(120)가 수집하는 상황 관련 라이프로그 데이터의 일례를 나타낸 것이다.Meanwhile, [Table 3] shows an example of situation-related lifelog data collected by the lifelog
[표 3]의 예시 외에도 지리적 데이터, 날씨, 소음, 조도 등이 상황 관련 라이프로그 데이터에 포함될 수 있으며 그 외에도 감성 또는 무드를 인식하는데 유용한 상황 정보들이 상황 관련 라이프로그 데이터에 추가로 포함될 수 있다.In addition to the examples in [Table 3], geographical data, weather, noise, illumination, etc. may be included in context-related lifelog data, and other context information useful for recognizing emotion or mood may be additionally included in context-related lifelog data.
라이프로그 데이터 수집부(120)는 스마트 워치, 스마트 밴드, 스마트 반지, 침대 밑 센서 등 다양한 웨어러블 기기를 활용하여 수면 관련 라이프로그 데이터를 수집할 수 있다. 수면 관련 라이프로그 데이터는 실제 수면 시간, 수면 효율, 수면 패턴 등이 있으며 이외에도 감성 또는 무드를 인식하는데 유용한 수면 정보들이 추가로 포함될 수 있다.The lifelog
라이프로그 데이터 수집부(120)는 지도용 학습을 위해 감성 또는 무드 레이블을 수집한다. 감성 또는 무드 레이블은 감성 또는 무드를 인식하여 활용하고자 하는 서비스에 따라 다양한 형태로 수집될 수 있으며, 대표적으로 스마트폰 앱을 통해 취침 전과 기상 직후의 기분을 다음과 같이 5단계 리커트 척도로 선택하도록 함으로써 수집할 수 있다.The lifelog
1. 매우 불쾌1. very unpleasant
2. 불쾌2. unpleasant
3. 보통3. Moderate
4. 좋음4. Good
5. 매우 좋음5. Very good
이외에도 라이프로그 데이터 수집부(120)는 서비스의 필요에 따라 다양한 방법으로 감성 또는 무드 레이블을 수집할 수 있다.In addition, the lifelog
라이프로그 데이터 수집부(120)는 수집한 라이프로그 데이터를 와이파이(Wi-Fi) 또는 이동통신과 같은 무선 인터페이스를 거쳐 인터넷망에 접속되어 있는 데이터 로거(130)에 전송한다.The lifelog
데이터 로거(130)는 생체신호 측정부(110) 및 라이프로그 데이터 수집부(120)가 수집한 생체신호 및 라이프로그 데이터를 시간에 대해 동기화시켜 취합한다. 데이터 로거(130)는 일반적으로 대용량의 데이터 수집 서버일 수 있으며, 사용자별로 관리될 수 있도록 개인 인증 관리를 포함한 다양한 기능을 갖출 수 있다. 스마트폰을 비롯한 웨어러블 기기들이 데이터 로거(130)와 연동되어 주기적으로 또는 설정한 전송 조건에 따라 데이터 로거(130)에 데이터를 전송할 수 있다.The
신호 전처리부(140)는 데이터 로거(130)에 의해 동기화된 생체신호에 포함된 잡음을 제거한 후에 상기 동기화된 생체신호를 상황, 행동 및 수면 중 적어도 어느 하나의 기준에 따라 분할한다. 신호 전처리부(140)는 각 행동, 상황 또는 수면의 진행 단위 별로 생체신호를 분할한다. 예를 들어, 신호 전처리부(140)는 [표 1] 및 [표 2]에 나열된 행동 중 이동(travel)의 시작 시점과 종료 시점에 따라 생체신호들을 분할하여 이동 관련 생체신호로 데이터화한다. 그리고 신호 전처리부(140)는 감성 인식 장치(10)의 필요에 따라서 '이동'의 세부항목(예를 들어 '출퇴근 및 일 관련 이동')에 대해서도 동일한 방법으로 생체신호를 분할하여 데이터화할 수 있다. 즉, 신호 전처리부(140)는 출근 시작 시점과 출근 종료 시점으로 특정되는 하나의 이동(출퇴근 및 일 관련 이동)에 대하여 출근 시작 시점에서 출근 종료 시점까지의 생체신호를 분할하여 해당 이동에 할당한다. 신호 전처리부(140)는 [표 3]에 나열된 각각의 상황에 대하여 동일한 방법으로 생체신호를 분할할 수 있다. 또한 신호 전처리부(140)는 수면의 시작 시점과 종료 시점을 기준으로 각 수면별로 생체신호를 분할할 수 있다.The
특징 추출부(150)는 각 분할된 생체신호에서 특징(특징값)을 추출한다. 특징 추출부(150)는 행동, 상황 및 수면 단위 별로 분할된 생체신호에서 다양한 특징값들을 추출한다. 예를 들어, 특징 추출부(150)는 심전도(ECG) 신호에 대하여 심박변이도(HRV: Heart Rate Variability)와 그 파생지표를 추출할 수 있다. 심박변이도(HRV)는 자율신경계의 활동을 반영하는 지표로서 심전도(ECG) 신호에서 인접한 QRS 컴플렉스(complex) 내 R과 연속된 다음 R 사이의 간격을 의미하는 R-R 간격의 변동 특징을 수치화한 것이다. 심박변이도(HRV)는 교감 신경과 부교감 신경의 활성 정도나 균형 정도를 파악하는데 유용한 특징으로서 감정 또는 정서를 파악하는 데에도 널리 활용되고 있다. 심박변이도(HRV)와 관련된 특징은 크게 시간영역 특징과 주파수 영역 특징으로 나눌 수 있다. The
먼저 심박변이도(HRV)의 시간영역 특징은 R-R 간격에서 정상적인 R-R 간격을 의미하는 NN(Normal to Normal) 간격을 가지고 통계적 계산을 통해 구해진다. 대표적으로 NN 간격들의 평균을 의미하는 MeanNN, NN 간격들의 표준편차를 의미하는 SDNN(standard deviation of the NN interval), 인접하는 NN 간격 간의 차이를 제곱한 값들을 합한 것의 RMS(root-mean-square)를 의미하는 RMSSD(root-mean-square of successive differences), 모든 NN 간격들의 수에 대한 NN50 카운트(연속적인 NN 간격의 차이가 50 ms를 초과하는 NN 간격의 개수) 비를 의미하는 pNN50 등이 있다.First, the time domain feature of heart rate variability (HRV) is obtained through statistical calculation with a Normal to Normal (NN) interval, which means a normal R-R interval in the R-R interval. Typically, MeanNN, which means the average of NN intervals, SDNN (standard deviation of the NN interval), which means the standard deviation of NN intervals, root-mean-square of successive differences (RMSSD), which means the root-mean-square (RMS) of the sum of the squared differences between adjacent NN intervals, NN50 count to the number of all NN intervals (the number of NN intervals in which the difference between consecutive NN intervals exceeds 50 ms). pNN50 and the like.
그리고 심박변이도(HRV)의 주파수 영역 특징은 부교감신경계와 교감신경계를 포함한 자율신경계와 밀접한 연관이 있어서 심혈관계의 교감-부교감 신경계의 균형을 평가하는데 유용하게 쓰이고 있다. 주파수 영역 특징을 추출하기 위해서는 R 피크 간격의 시계열 자료를 FFT(Fast Fourier Transform)를 통해 주파수 영역으로 변환하는 과정이 필요하다. 이 과정을 스펙트럼 분석이라고 부르는데 심박변이도(HRV)의 스펙트럼 분석을 통해 구해지는 대표적인 주파수 영역 특징들은 [표 4]와 같다.In addition, the frequency domain characteristics of heart rate variability (HRV) are closely related to the autonomic nervous system including the parasympathetic nervous system and the sympathetic nervous system, so it is useful for evaluating the balance of the sympathetic-parasympathetic nervous system in the cardiovascular system. In order to extract the frequency domain features, a process of converting the time series data of the R peak interval into the frequency domain through FFT (Fast Fourier Transform) is required. This process is called spectrum analysis, and representative frequency domain features obtained through spectrum analysis of heart rate variability (HRV) are shown in [Table 4].
특징 추출부(150)는 상술한 특징 이외에도 GSR, SKT, PPG, EEG 등과 같은 생체신호에 대해서도 특징을 추출할 수 있다. 특징 추출부(150)의 추출 대상이 되는 대부분의 생체신호 관련 특징에는 기본적으로 평균값과 표준편차 등이 포함되고, 그 외에도 감정 인식에서 널리 사용되는 특징들이 포함될 수 있다. 물론 기존의 감정 인식에서도 생체신호로부터 추출한 특징들을 널리 사용해왔다. 다만, 본 발명은 단순히 짧은 시간 동안의 생체신호로부터 특징을 추출하는 것이 아니라 [표 1], [표 2] 및 [표 3]에 열거된 행동과 상황 별로 생체신호의 특징을 추출하는 것이 가장 큰 차이점이라 할 수 있다. 이렇게 행동과 상황 별로 나누어 특징을 추출하는 이유는 비교적 긴 시간의 감성을 의미하는 무드가 일상생활 패턴과 무관하지 않기 때문이다. 예를 들어, 가족과의 대화 중 측정되는 생체신호의 패턴과 다음날 아침 기상 후의 무드가 서로 강한 연관성을 가지고 있는 것으로 나타난다면 가족과의 대화 동안의 감정이 무드에 영향을 미치는 중요한 특징이라고 볼 수 있다. 이와 같은 개념을 다른 행동과 상황에 대해서도 확장해보면 행동과 상황 별로 생체신호의 특징들을 추출하여 감성 인식 장치(10)에 내장된 감성 인식 모델을 학습할 필요가 있다.The
또한, 특징 추출부(150)는 생체신호에 기반한 특징값 외에도 라이프로그 데이터에서 특징값을 추출할 수 있다. 예를 들어, 특징 추출부(150)는 라이프로그 데이터에서 칼로리, 운동시간, 스마트폰 활동 이력(또는 스마트폰 앱별 사용시간), 스마트폰 사용 시간 등 다양한 라이프로그 데이터 특징값을 추출할 수 있다.In addition, the
정규화부(160)는 특징 추출부(150)가 추출한 특징값을 정규화한다. 다양한 특징(특징값)들이 동등한 비중을 가지고 감성 인식 모델에 입력되기 위해서는 특징값을 정규화할 필요가 있다. 예를 들어, 정규화부(160)는 모든 특징 변수에 대한 특징값을 -1과 1사이의 값으로 정규화할 수 있다. 이러한 정규화 방법은 일반적으로 특징값들이 정규분포를 하고 있을 경우 유용하게 활용될 수 있다. [수학식 1]은 특징값들의 평균과 표준편차를 이용하여 특징 변수의 특징값을 정규화하는 데 사용될 수 있는 식이다.The
[수학식 1]에서 Xnorm은 정규화된 특징을 의미하고 X는 원래의 특징값을 의미한다. μ는 특징값 전체의 평균을 의미하며, σ는 특징값 전체의 표준편차를 의미한다. In [Equation 1], X norm means a normalized feature and X means an original feature value. μ means the average of all feature values, and σ means the standard deviation of all feature values.
한편, 정규화부(160)는 특징값들이 정규분포에 가깝지 않다면 다른 정규화 방법을 사용할 수 있다. [수학식 2]는 특징값들의 최소값과 최대값을 이용하여 특징 변수의 특징값을 0과 1 사이의 범위로 정규화하는 데 사용될 수 있는 식이다.Meanwhile, the
[수학식 2]에서 Xnorm은 정규화된 특징을 의미하고 X는 원래의 특징값을 의미한다. Xmin과 Xmax는 각 특징값들의 최소값과 최대값을 의미한다.In [Equation 2], X norm means a normalized feature and X means an original feature value. X min and X max mean the minimum and maximum values of each feature value.
정규화부(160)는 생체신호에서 추출된 특징값뿐만 아니라, 칼로리, 운동시간, 스마트폰 사용시간, 스마트폰 활동 이력, 수면시간, 수면효율 등 라이프로그 데이터에서 추출된 특징값도 정규화한다. 본 명세서에서는 감성 인식 모델의 학습을 위해 제공되는 (정규화된) 특징값을 '학습용 데이터'라고 칭하고, 감성 인식 모델을 이용한 추론을 위해 제공되는 (정규화된) 특징값을 '추론용 데이터'라고 칭한다.The
도 1에 도시된 감성 인식 모델 생성기(200)는 학습용 데이터를 기초로 기계학습을 통해 감성 인식 모델을 생성한다. 즉, 감성 인식 모델 생성기(200)는 생체신호 및 라이프로그 데이터 수집기(100)에서 학습용 데이터를 입력받는다. 감성 인식 모델 생성부(200)는 통상적인 기계학습 방법을 사용하므로 본 명세서에서는 감성 인식 모델 생성기(200)가 사용하는 기계학습 방법에 대한 상세한 언급을 생략한다. 감성 인식 모델 생성기(200)는 감정 인식 분야에서 많이 사용되는 대표적인 기계학습 알고리즘인 KNN(K-Nearest Neighbor), SVC(Support Vector Classification), 랜덤 포레스트(random forest), 에이다부스트(AdaBoost) 등이 될 수 있으며, 그 외에도 감성 또는 무드를 인식하는데 유용한 기계학습 알고리즘들이 추가로 포함될 수 있다. 또한 생체신호 및 라이프로그 데이터에서 특징을 추출하지 않고 학습할 경우 DNN(Deep Neural Network), CNN(Convolutional Neural Network), RNN(Recurrent Neural Network)과 같은 딥러닝 알고리즘을 활용하여 감성 인식 모델을 생성할 수 있다.The emotion
도 3은 본 발명의 일 실시예에 따른 감성 인식 및 원인 분석기(300)의 구성을 나타낸 블록도이다.3 is a block diagram showing the configuration of an emotion recognition and
감성 인식 및 원인 분석기(300)는 감성 인식부(310), 부정적 감성 감지부(320) 및 감성 원인 분석부(330)를 포함하여 구성될 수 있다. 도 3에 도시된 감성 인식 및 원인 분석기(300)는 일 실시예에 따른 것이고, 감성 인식 및 원인 분석기(300)의 구성요소들이 도 3에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경 또는 삭제될 수 있다.The emotion recognition and
감성 인식 모델 생성부(200)에서 학습을 통해 얻은 감성 인식 모델은 감성 인식 및 원인 분석기(300)가 추론용 데이터를 기초로 사용자의 감성을 인식하는데 사용된다. 사용자로부터 수집한 생체신호와 라이프로그 데이터는 생체신호 및 라이프로그 수집부(100)를 거쳐 감성 인식부(310)에 입력된다.The emotion recognition model obtained through learning in the emotion recognition
감성 인식부(310)는 생체신호 및 라이프로그 데이터 수집기(100)가 생성한 추론용 데이터를 감성 인식 모델에 입력하여 추론을 통해 감성을 인식한다. 감성 인식부(310)가 인식한 사용자의 감성은 부정적 감성 감지부(320)에 입력된다.The
부정적 감성 감지부(320)는 감성 인식부(310)가 인식한 감성이 부정적 감성인지 여부를 판단한다.The negative
감성 원인 분석부(330)는 추론용 데이터를 기초로 감성 인식부(310)에서 인식된 감성의 원인을 분석한다. 부정적 감성 감지부(320)가 감성 인식부(310)에서 인식된 감성이 부정적 감성이라고 판단하는 경우 감성 원인 분석부(330)는 추론용 데이터를 기초로 해당 부정적 감성의 원인을 분석하게 된다.The emotion
감성 원인 분석부(330)는 추론용 데이터에 포함되어 있는 특징 (특징값)들을 바탕으로 부정적 감성에 큰 영향을 미치는 행동, 상황, 수면에 관한 특징이 무엇인지를 분석할 수 있다. 감성 원인 분석부(330)는 부정적 감성뿐만 아니라 긍정적 감성에 큰 영향을 미치는 행동, 상황 또는 수면에 관한 특징이 무엇인지를 분석할 수도 있다. 감성 원인 분석부(330)가 사용하는 분석도구는 특징 변수(추론용 데이터를 구성하는 변수)와 감성 인식부(310)가 인식한 감성 간의 상관관계를 분석할 수 있는 도구이다. 즉, 감성 원인 분석부(330)는 추론용 데이터를 구성하는 특징 변수와 감성 인식부(310)에 의해 인식된 감성 간의 상관관계 분석을 통하여 감성 인식부(310)에 의해 인식된 감성의 원인을 분석할 수 있다. 감성 원인 분석부(330)가 사용할 수 있는 대표적인 분석 도구는 피어슨(Pearson) 상관계수, 스피어만(Spearman) 상관계수, 켄달(Kendall)의 타우(tau) 등이 있을 수 있으며, 그 외에도 두 변수 간의 상관관계를 측정할 수 있는 다양한 도구들이 활용될 수 있다.The emotion
도 1에 도시된 라이프 스타일 코칭기(400)는 감성 인식 및 원인 분석기(300)의 분석 결과를 기초로 감성 인식 및 원인 분석기(300)가 인식한 감성과 관련된 사용자의 생활 습관 및 행동 패턴 중 적어도 어느 하나에 대한 정보를 제공한다. 또한, 라이프 스타일 코칭기(400)는 감성 원인 분석부(330)의 분석 결과를 이용하여 도메인 지식 DB를 검색하여 관련된 도메인 지식(정보)를 추출하고, 추출한 도메인 지식(정보)를 통해 사용자에게 맞춤형 서비스를 제공한다. 예를 들어, 도메인 지식 DB는 부정적 감성을 일으키는 생활 습관이나 행동 패턴과 함께 그러한 생활 습관이나 행동 패턴에 대한 개선에 대한 정보가 저장될 수 있다. 라이프 스타일 코칭기(400)는 도메인 지식 DB 검색을 통하여 사용자에게 부정적 감성을 일으키는 생활 습관이나 행동 패턴에 대한 맞춤형 개선 서비스를 제공할 수 있다. 상기 맞춤형 개선 서비스의 예를 들면, 어제의 회사 업무로 인한 스트레스가 크게 작용하여 사용자에게 부정적 감성이 나타난 것으로 분석된 경우, 업무에서 잠시 벗어나 심리적 안정을 취할 수 있도록 명상이나 산책을 권하는 것 등이 될 수 있다.The
도 4는 본 발명의 일 실시예에 따른 감성 인식 방법(무드 인식 방법)을 설명하기 위한 흐름도이다.4 is a flowchart illustrating an emotion recognition method (mood recognition method) according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 감성 인식 방법은 S510 단계 내지 S540 단계를 포함하며, S550 단계를 더 포함할 수 있다.The emotion recognition method according to an embodiment of the present invention includes steps S510 to S540, and may further include step S550.
S510 단계는 학습용 데이터 생성 단계이다. 생체신호 및 라이프로그 데이터 수집기(100)는 생체신호(S530 단계의 생체신호와 구별하기 위해 '제1 생체신호'로 칭함)와 라이프로그 데이터(S530 단계의 라이프로그 데이터와 구별하기 위해 '제1 라이프로그 데이터'로 칭함)를 수집하고, 제1 생체신호와 제1 라이프로그 데이터를 기초로 학습용 데이터를 생성한다. 생체신호 및 라이프로그 데이터 수집기(100)는 제1 생체신호와 제1 라이프로그 데이터를 시간에 대해 동기화하고, 동기화된 제1 생체신호에 포함된 잡음을 제거하고, 동기화된 제1 생체신호를 상황, 행동 및 수면 중 적어도 어느 하나의 기준에 따라 분할하며, 분할된 제1 생체신호와 제1 라이프로그 데이터에서 특징(특징값)을 추출하여 학습용 데이터를 생성할 수 있다. 생체신호 및 라이프로그 데이터 수집기(100)는 특징(특징값)을 정규화하여 학습용 데이터를 생성할 수도 있다. S510 단계에 관한 상세한 내용은 생체신호 및 라이프로그 데이터 수집기(100) 및 그 구성요소에 대하여 전술한 내용을 참조할 수 있다.Step S510 is a step of generating data for learning. The biosignal and
S520 단계는 감성 인식 모델 생성 단계이다. 감성 인식 모델 생성기(200)는 학습용 데이터를 기초로 기계학습을 통해 감성 인식 모델을 생성한다. S520 단계에 관한 상세한 내용은 감성 인식 모델 생성기(200)에 대하여 전술한 내용을 참조할 수 있다.Step S520 is a step of generating an emotion recognition model. The emotion
S530 단계는 추론용 데이터 생성 단계이다. 생체신호 및 라이프로그 데이터 수집기(100)는 생체신호(S510 단계의 생체신호와 구별하기 위해 '제2 생체신호'로 칭함)와 라이프로그 데이터(S510 단계의 라이프로그 데이터와 구별하기 위해 '제2 라이프로그 데이터'로 칭함)를 수집하고, 제2 생체신호와 제2 라이프로그 데이터를 기초로 추론용 데이터를 생성한다. 생체신호 및 라이프로그 데이터 수집기(100)는 제2 생체신호와 제2 라이프로그 데이터를 시간에 대해 동기화하고, 동기화된 제2 생체신호에 포함된 잡음을 제거하고, 동기화된 제2 생체신호를 상황, 행동 및 수면 중 적어도 어느 하나의 기준에 따라 분할하며, 분할된 제2 생체신호와 제2 라이프로그 데이터에서 특징(특징값)을 추출하여 추론용 데이터를 생성할 수 있다. S530 단계에 관한 상세한 내용은 생체신호 및 라이프로그 데이터 수집기(100) 및 그 구성요소에 대하여 전술한 내용을 참조할 수 있다.Step S530 is a step of generating data for inference. The biosignal and
S540 단계는 감성 인식 및 원인 분석 단계이다. 감성 인식 및 원인 분석기(300)는 추론용 데이터를 감성 인식 모델에 입력하여 추론을 통해 감성을 인식한다. 또한, 감성 인식 및 원인 분석기(300)는 추론용 데이터를 기초로 인식된 감성의 원인을 분석할 수 있다. 감성 인식 및 원인 분석기(300)는 인식된 감성이 부정적인 감성인지 여부를 판단하여, 부정적인 감성으로 판단되는 경우에 한해 해당 감성의 원인을 분석할 수도 있다. S540 단계에 관한 상세한 내용은 감성 인식 및 원인 분석기(300) 및 그 구성요소에 대하여 전술한 내용을 참조할 수 있다.Step S540 is an emotion recognition and cause analysis step. The emotion recognition and
S550 단계는 라이프 스타일 코칭 단계이다. 라이프 스타일 코칭기(400)는 S540 단계의 분석 결과를 기초로 S540 단계에서 인식된 감성과 관련된 생활 습관 및 행동 패턴 중 적어도 어느 하나에 대한 정보를 제공할 수 있다. 또한, 라이프 스타일 코칭기(400)는 S540 단계의 분석 결과를 이용하여 도메인 지식 DB를 검색하여 관련된 도메인 지식(정보)를 추출하고, 추출한 도메인 지식(정보)를 활용하여 사용자에게 맞춤형 서비스를 제공할 수 있다. 예를 들어, S540 단계에서 인식된 감성이 '무기력함'이고, S540 단계의 분석 결과 사용자의 행동 패턴 중에서 '일'과 관련된 라이프로그 데이터 특징값인 '근무 시간'이 '무기력함'과 가장 상관관계가 높은 특징값으로 나타난 경우, 라이프 스타일 코칭기(400)는 '무기력함'의 원인 중 하나가 '근무 시간'이라는 정보(구체적인 수치를 표시할 수 있음)와 함께, 도메인 지식 DB 검색 결과를 활용하여 업무에서 잠시 벗어나 심리적 안정을 취할 수 있도록 명상이나 산책을 권하는 맞춤형 개선 서비스를 제공할 수 있다. S550 단계에 관한 상세한 내용은 라이프 스타일 코칭기(400)에 대하여 전술한 내용을 참조할 수 있다.Step S550 is a lifestyle coaching step. The
도 4를 참조한 설명에서, 각 단계는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 예를 들어, 감성 인식 모델 생성 후, S510 단계 및 S520 단계가 생략될 수 있다. 즉, 감성 인식 및 라이프 스타일 코칭을 위해 S530 단계 내지 S550 단계만 수행될 수 있다. 또한, 감성 인식만을 위해 S530 단계 및 S540 단계만 수행될 수도 있다.In the description with reference to FIG. 4 , each step may be further divided into additional steps or combined into fewer steps, depending on an embodiment of the invention. Also, some steps may be omitted if necessary, and the order of steps may be changed. For example, after generating the emotion recognition model, steps S510 and S520 may be omitted. That is, only steps S530 to S550 may be performed for emotion recognition and lifestyle coaching. Also, only steps S530 and S540 may be performed for emotion recognition only.
한편, 기타 생략된 내용이라 하더라도 도 1 내지 도 3의 내용은 도 4의 내용에 적용될 수 있다. 또한, 도 4의 내용은 도 1 내지 도 3의 내용에 적용될 수 있다.Meanwhile, even if other omitted contents, the contents of FIGS. 1 to 3 may be applied to the contents of FIG. 4 . Also, the contents of FIG. 4 may be applied to the contents of FIGS. 1 to 3 .
참고로, 본 발명의 실시예에 따른 구성 요소들은 소프트웨어 또는 DSP(digital signal processor), FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.For reference, components according to an embodiment of the present invention may be implemented in software or hardware form such as a digital signal processor (DSP), a field programmable gate array (FPGA), or an application specific integrated circuit (ASIC), and may perform predetermined roles.
그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, 'components' are not meant to be limited to software or hardware, and each component may be configured to be in an addressable storage medium or configured to reproduce one or more processors.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, as an example, a component includes components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.Components and the functionality provided within them may be combined into fewer components or further separated into additional components.
한편, 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Meanwhile, it will be understood that each block of the flowchart drawings and combinations of the flowchart drawings can be performed by computer program instructions. These computer program instructions may be embodied in a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions executed by the processor of the computer or other programmable data processing equipment create means for performing the functions described in the flowchart block(s). Since computer program instructions can also be loaded on a computer or other programmable data processing equipment, it is also possible that a series of operating steps are performed on a computer or other programmable data processing equipment to create a computer-executed process so that the computer or other programmable data processing equipment performing instructions provides steps for executing the functions described in the flowchart block(s).
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Additionally, each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical function(s). It should also be noted that in some alternative implementations it is possible for the functions mentioned in the blocks to occur out of order. For example, two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in reverse order depending on their function.
본 발명의 실시예에서 사용되는 '~기' 또는 '~부'라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~기' 또는 '~부'는 어떤 역할들을 수행한다. 그렇지만 '~기' 또는 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~기' 또는 '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~기' 또는 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~기' 또는 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~기' 또는 '~부'들로 결합되거나 추가적인 구성요소들과 '~기' 또는 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~기' 또는 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~group' or '~unit' used in the embodiments of the present invention means software or a hardware component such as FPGA or ASIC, and '~group' or '~unit' performs certain roles. However, '~ group' or '~ part' is not limited to software or hardware. '~ group' or '~ unit' may be configured to be in an addressable storage medium and may be configured to reproduce one or more processors. Thus, as an example, '~group' or '~unit' includes components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. Functions provided within the components and '~ group' or '~ unit' may be combined into a smaller number of components and '~ group' or '~ unit' or further separated into additional components and '~ group' or '~ unit'. In addition, the components and '~ group' or '~ unit' may be implemented to play one or more CPUs in a device or a secure multimedia card.
전술한 감성 인식 방법(무드 인식 방법)은 도면에 제시된 흐름도를 참조로 하여 설명되었다. 간단히 설명하기 위하여 상기 방법은 일련의 블록들로 도시되고 설명되었으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 다른 블록들과 본 명세서에서 도시되고 기술된 것과 상이한 순서로 또는 동시에 일어날 수도 있으며, 동일한 또는 유사한 결과를 달성하는 다양한 다른 분기, 흐름 경로, 및 블록의 순서들이 구현될 수 있다. 또한, 본 명세서에서 기술되는 방법의 구현을 위하여 도시된 모든 블록들이 요구되지 않을 수도 있다.The above-described emotion recognition method (mood recognition method) has been described with reference to flowcharts presented in the drawings. Although the method is shown and described as a series of blocks for simplicity, the invention is not limited to the order of the blocks, and some blocks may occur in a different order or concurrently with other blocks than shown and described herein, and various other branches, flow paths, and sequences of blocks may be implemented that achieve the same or similar results. Also, not all blocks shown may be required for implementation of the methods described herein.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention described in the claims below. It will be understood that it can be changed.
10: 감성 인식 장치(무드 인식 장치)
100: 생체신호 및 라이프로그 데이터 수집기
110: 생체신호 측정부
120: 라이프로그 데이터 수집부
130: 데이터 로거
140: 신호 전처리부
150: 특징 추출부
160: 정규화부
200: 감성 인식 모델 생성기
300: 감성 인식 및 원인 분석기
310: 감성 인식부
320: 부정적 감성 감지부
330: 감성 원인 분석부
400: 라이프 스타일 코칭기10: emotion recognition device (mood recognition device)
100: biosignal and lifelog data collector
110: biosignal measuring unit
120: lifelog data collection unit
130: data logger
140: signal pre-processor
150: feature extraction unit
160: normalization unit
200: emotion recognition model generator
300: emotion recognition and cause analyzer
310: emotion recognition unit
320: negative emotion detection unit
330: emotional cause analysis unit
400: Lifestyle Coach
Claims (1)
상기 학습용 데이터를 기초로 기계학습을 통해 감성 인식 모델을 생성하는 감성 인식 모델 생성기; 및
상기 추론용 데이터를 상기 감성 인식 모델에 입력하여 추론을 통해 감성을 인식하는 감성 인식 및 원인 분석기;
를 포함하는 감성 인식 장치.a bio-signal and life-log data collector that collects bio-signals and lifelog data, extracts feature values from the bio-signals and lifelog data, and generates data for learning and reasoning;
an emotion recognition model generator generating an emotion recognition model through machine learning based on the learning data; and
an emotion recognition and cause analyzer inputting the data for inference into the emotion recognition model and recognizing emotion through inference;
Emotion recognition device comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220006657A KR20230110999A (en) | 2022-01-17 | 2022-01-17 | Apparatus and method for emotion recognition based on physiological signal and lifelog |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220006657A KR20230110999A (en) | 2022-01-17 | 2022-01-17 | Apparatus and method for emotion recognition based on physiological signal and lifelog |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230110999A true KR20230110999A (en) | 2023-07-25 |
Family
ID=87428781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220006657A KR20230110999A (en) | 2022-01-17 | 2022-01-17 | Apparatus and method for emotion recognition based on physiological signal and lifelog |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230110999A (en) |
-
2022
- 2022-01-17 KR KR1020220006657A patent/KR20230110999A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bobade et al. | Stress detection with machine learning and deep learning using multimodal physiological data | |
Panicker et al. | A survey of machine learning techniques in physiology based mental stress detection systems | |
US11696714B2 (en) | System and method for brain modelling | |
Zenonos et al. | HealthyOffice: Mood recognition at work using smartphones and wearable sensors | |
CN109843163B (en) | Method and system for marking sleep state | |
Zhao et al. | EmotionSense: Emotion recognition based on wearable wristband | |
WO2020119245A1 (en) | Wearable bracelet-based emotion recognition system and method | |
Khowaja et al. | Toward soft real-time stress detection using wrist-worn devices for human workspaces | |
Luque et al. | End-to-end photopleth YsmographY (PPG) based biometric authentication by using convolutional neural networks | |
Seo et al. | Deep learning approach for detecting work-related stress using multimodal signals | |
Yan et al. | Emotion classification with multichannel physiological signals using hybrid feature and adaptive decision fusion | |
Ramos et al. | Stress recognition-a step outside the lab | |
Rosales et al. | Physiological-based smart stress detector using machine learning algorithms | |
Chandra et al. | Comparative study of physiological signals from empatica e4 wristband for stress classification | |
Ladakis et al. | Overview of biosignal analysis methods for the assessment of stress | |
Wang et al. | Emotionsense: An adaptive emotion recognition system based on wearable smart devices | |
Bonotis et al. | Automated assessment of pain intensity based on EEG signal analysis | |
Li et al. | Multi-modal emotion recognition based on deep learning of EEG and audio signals | |
Mustafa et al. | Stress detector system using iot and artificial intelligence | |
Fan et al. | An electrocardiogram acquisition and analysis system for detection of human stress | |
Jegan et al. | Mental Stress Detection and Classification using SVM Classifier: A Pilot Study | |
Saha et al. | Towards incorporating affective feedback into context-aware intelligent environments | |
KR20230110999A (en) | Apparatus and method for emotion recognition based on physiological signal and lifelog | |
Wen et al. | Wearable integrated online fusion learning filter for heart PPG sensing tracking | |
Zheng et al. | Study of stress rules based on HRV features |