KR20180119913A - Apparatus and computer readable recorder medium stored program for recognizing emotion using biometric data - Google Patents
Apparatus and computer readable recorder medium stored program for recognizing emotion using biometric data Download PDFInfo
- Publication number
- KR20180119913A KR20180119913A KR1020170053626A KR20170053626A KR20180119913A KR 20180119913 A KR20180119913 A KR 20180119913A KR 1020170053626 A KR1020170053626 A KR 1020170053626A KR 20170053626 A KR20170053626 A KR 20170053626A KR 20180119913 A KR20180119913 A KR 20180119913A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- emotion
- biometric information
- neural network
- network model
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/01—Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/053—Measuring electrical impedance or conductance of a portion of the body
- A61B5/0531—Measuring skin impedance
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/683—Means for maintaining contact with the body
- A61B5/6831—Straps, bands or harnesses
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Psychiatry (AREA)
- Physiology (AREA)
- Artificial Intelligence (AREA)
- Cardiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Dermatology (AREA)
- Radiology & Medical Imaging (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
본 발명은 생체정보를 이용한 감성 검출 장치 및 감성 검출 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체에 관한 것이다.The present invention relates to an emotion detecting apparatus using biometric information and a computer-readable recording medium storing a program for executing the emotion detecting method.
감성 ICT(Information Communication Technologies) 기술은 사용자가 자신이 원하는 감성을 직접 입력하여 관련 제품 및 서비스를 이용하는 형태에서 사용자 주변의 카메라 또는 사용자가 착용하고 있는 센서를 통해 사용자의 표정, 말투, 뇌파, 심전도 등의 신체 감성 정보를 자동으로 수집 및 분석하여 사용자의 감성을 인지한 결과에 따라 사용자 감성맞춤형 제품 및 서비스를 제공하는 형태로 변화하여 급성장하고 있다.Emotional ICT (Information Communication Technologies) is a technology in which a user directly inputs desired emotions and uses the related products and services in the form of a camera or a sensor worn by a user in the form of using the user's facial expressions, speech, The system automatically collects and analyzes the body emotion information of the user, and the emotion of the user is changed according to the result of recognizing the emotion of the user.
이에 따라 제품 및 서비스에 대한 사용자 만족도를 향상시키기 위해서는 사용자의 신체 감성 정보를 각각의 사용자에게 최적화되어 있는 생리학적 패턴을 통해 분석하는 방법이 필요하나, 종래의 감성인식은 다수의 사용자에게 일반적인 생리학적 패턴을 공통으로 적용하는 점에서 감성인식 정확도 및 사용자 만족도가 저하될 수 있다.Accordingly, in order to improve user satisfaction with products and services, it is necessary to analyze the user's body emotion information through physiological patterns optimized for each user. However, conventional emotion recognition requires a general physiological The accuracy of the sensitivity recognition and the user satisfaction may be lowered in terms of applying the pattern in common.
본 발명의 일 실시예가 해결하려는 과제는 사용자의 생체신호에 기초하여 스트레스, 피로도 및 기분상태 등의 감성을 검출하는 장치 및 검출 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체를 제공하는 것이다.An object to be solved by one embodiment of the present invention is to provide a device for detecting emotion such as stress, fatigue and mood state based on a user's biological signal, and a computer readable recording medium recording a program for executing the detection method .
상기 과제 이외에도 구체적으로 언급되지 않은 다른 과제를 달성하는 데 본 발명에 따른 실시예가 사용될 수 있다.Embodiments according to the present invention can be used to accomplish other tasks not specifically mentioned other than the above-described tasks.
상기 과제를 해결하기 위해 본 발명의 일 실시예는, 사용자에게 자극정보를 제공하는 자극 제공부, 사용자의 단말로부터 전송되는 생체정보를 수신하는 생체정보 수신부, 자극정보에 대응하여 사용자의 단말로부터 전송되는 생체정보를 학습하여 인공신경망 모델을 생성하는 감성모델 생성부, 생성된 인공신경망 모델을 저장하는 감성모델 데이터베이스, 그리고 수신된 생체정보의 특징점을 추출하고, 저장되어 있는 인공신경망 모델을 이용하여 추출된 특징점을 분류하여 사용자의 감성을 검출하는 감성 검출부를 포함하는 감성 검출 장치를 제안한다.According to an aspect of the present invention, there is provided an apparatus for transmitting biometric information, the apparatus comprising: a stimulus providing unit for providing stimulus information to a user; a biometric information receiving unit for receiving biometric information transmitted from a user terminal; A sensory model database for storing the generated neural network model, and a feature point extracting unit for extracting the feature points of the received biometric information and extracting the extracted neural network models using the stored neural network model And a sentence detection unit which detects the sentiment of the user by classifying the extracted feature points.
여기서, 생체정보 수신부는 사용자의 피부전도도(EDA), 맥파(PPG), 또는 피부 온도(SKT) 중 적어도 하나의 데이터를 수신할 수 있다.Here, the bio-information receiving unit may receive at least one of the user's skin conductivity (EDA), pulse wave (PPG), or skin temperature (SKT).
또한, 감성 검출부는 사용자의 스트레스 지수, 피로도 지수, 또는 감정상태 중 적어도 하나를 검출할 수 있다.Further, the emotion detecting unit may detect at least one of the user's stress index, fatigue index, or emotion state.
또한, 사용자의 단말은 스트레처블(stretchable) 스마트 밴드일 수 있다.Also, the user's terminal may be a stretchable smart band.
상기 과제를 해결하기 위해 본 발명의 일 실시예는, 감성 검출 장치를 통해 감성 검출 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체에 있어서, 사용자에게 자극정보를 제공하는 기능, 사용자의 생체정보를 수신하는 기능, 자극정보에 대응하는 생체정보를 학습하여 사용자의 인공신경망 모델을 생성하는 기능, 생성된 사용자의 인공신경망 모델을 저장하는 기능, 그리고 수신된 생체정보의 특징점을 추출하고, 사용자의 인공신경망 모델을 이용하여 추출된 특징점을 분류하여 사용자의 감성을 검출하는 기능을 포함하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체를 제안한다.According to an embodiment of the present invention, there is provided a computer-readable recording medium having recorded thereon a program for executing an emotion detection method through an emotion detection apparatus, the computer readable recording medium having a function of providing stimulus information to a user, A function of generating an artificial neural network model of the user by learning biometric information corresponding to the stimulation information, a function of storing the generated artificial neural network model, extracting the feature points of the received biometric information, And a function of detecting the emotion of the user by classifying the extracted feature points by using the artificial neural network model of the artificial neural network model.
여기서, 생체정보는 피부전도도(EDA), 맥파(PPG) 및 피부 온도(SKT)를 포함할 수 있다.Here, the biometric information may include skin conductivity (EDA), pulse wave (PPG), and skin temperature (SKT).
또한, 사용자의 감성을 검출하는 기능은, 피부전도도(EDA)에 대응하는 제1 인공신경망 모델을 이용하여 제1 스트레스 지수를 산출하고 맥파(PPG)에 대응하는 제2 인공신경망 모델을 이용하여 제2 스트레스 지수를 산출하고 피부 온도(SKT)에 대응하는 제3 인공신경망 모델을 이용하여 제3 스트레스 지수를 산출하는 기능, 그리고 제1 스트레스 지수, 제2 스트레스 지수 및 제3 스트레스 지수에 가중치를 적용하여 사용자의 종합 스트레스 지수를 산출하는 기능을 포함할 수 있다.In addition, the function of detecting the emotion of the user is to calculate the first stress index using the first artificial neural network model corresponding to the skin conductivity (EDA) and to calculate the second stress index using the second artificial neural network model corresponding to the pulse wave (PPG) 2 stress index, calculating a third stress index using a third artificial neural network model corresponding to skin temperature (SKT), and applying a weight to the first stress index, the second stress index, and the third stress index And calculating the total stress index of the user.
본 발명의 실시예에 따르면 사용자의 생체정보를 이용하는 감성 인식 정확도를 향상시킬 수 있다. 또한, 감성 인식 결과에 따라 사용자별 맞춤 서비스를 제공하여 사용자의 만족도를 향상시킬 수 있다.According to the embodiment of the present invention, the accuracy of emotion recognition using the user's biometric information can be improved. In addition, according to the emotion recognition result, a user-specific service can be provided to improve the satisfaction of the user.
도 1은 본 발명의 일 실시예에 따른 감성 검출 장치의 구성을 나타낸다.
도 2는 도 1의 감성 검출 장치를 이용한 감성 검출 방법을 나타낸다.
도 3은 도 2에서 특징데이터를 추출하는 방법 및 스트레스 단계를 검출하는 방법을 나타낸다.
도 4는 본 발명의 일 실시예에 따른 스트레스 레벨을 산출하는 방법을 나타낸다.1 shows a configuration of an emotion detecting apparatus according to an embodiment of the present invention.
Fig. 2 shows the emotion detection method using the emotion detecting apparatus of Fig.
FIG. 3 shows a method for extracting feature data and a method for detecting a stress step in FIG.
4 shows a method for calculating a stress level according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대해 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으므로 여기에서 설명하는 실시예에 한정되지 않는다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며 명세서 전체에서 동일 또는 유사한 구성요소에 대해서는 동일한 도면부호가 사용되었다. 또한, 널리 알려진 공지기술의 경우 그 구체적인 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art to which the present invention pertains. The present invention may be embodied in many different forms and is therefore not limited to the embodiments described herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and the same reference numerals are used for the same or similar components throughout the specification. In the case of publicly known technologies, detailed description thereof will be omitted.
본 명세서에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In this specification, when a part is referred to as "including " an element, it is to be understood that it may include other elements as well, without departing from the other elements unless specifically stated otherwise.
본 명세서에 기재된 "…부","…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.The terms " part, "" module," and the like, as used herein, refer to a unit that processes at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software.
도 1은 본 발명의 일 실시예에 따른 감성 검출 장치의 구성을 나타낸다.1 shows a configuration of an emotion detecting apparatus according to an embodiment of the present invention.
도 1의 감성 검출 장치(100)는 사용자 단말(200)로부터 전송되는 생체정보를 분석하여 사용자의 감성을 검출하며, 생체정보 수신부(110), 감성 학습부(120), 감성모델 데이터베이스(130), 감성 검출부(140), 그리고 감성 출력부(150)를 포함한다. 감성 검출 장치(100)를 통해 검출되는 감성은 스트레스, 피로도, 또는 감정(기쁨, 우울, 슬픔, 화남) 중 적어도 하나를 포함한다.The
생체정보 수신부(110)는 사용자 단말(200)로부터 전송되는 생체정보 및 식별정보를 수신한다. 이때, 생체정보는 사용자의 피부 전도도 정보, 맥파 정보 및 피부 온도 정보를 포함하며, 식별정보는 사용자 식별을 위한 사용자 단말(200)의 고유번호 또는 사용자 개인정보를 포함한다.The biometric
감성 학습부(120)는 사용자에게 자극정보를 제공하고 제공된 자극정보에 대응하는 사용자의 생체정보를 학습한 결과로 감성모델을 생성하며, 자극 제공부(121)와 감성모델 생성부(122)를 포함한다. 여기서, 감성모델은 인공 신경망 모델을 의미한다.The
자극 제공부(121)는 감성 도출을 위한 자극정보를 출력한다. 여기서, 자극정보는 사용자의 감성 도출이 가능한 연산, 연속 수행 과제(CPT, continuous performance task), 또는 미디어 중 적어도 하나를 포함한다. 이때, 미디어는 사용자의 기쁨, 우울, 슬픔, 또는 화남의 감성을 도출할 수 있는 영상, 사진 및 텍스트를 포함한다.The
자극 제공부(121)는 사용자 단말(200)로 자극정보를 전송한다. 이때, 사용자 단말(200)은 자극 제공부(121)로부터 전송되는 자극정보를 수신하여 사용자에게 자극정보를 제공할 수 있다. The
감성모델 생성부(122)는 자극 제공부(121)를 통해 제공되는 자극정보에 대응하는 생체정보를 분석하여 사용자의 감성모델을 생성한다. 이때, 생체정보는 자극정보에 대응하여 사용자 단말(200)로부터 전송되는 피부 전도도, 맥파 및 피부온도를 포함한다. The emotion
구체적으로, 감성모델 생성부(122)는 자극정보별 사용자의 피부 전도도 정보, 맥파 정보 및 피부 온도 정보에 대응하는 특징데이터을 추출하고, 사용자의 감성상태별 특징데이터 범위를 설정하여 감성 특징 베이스 셋(Emotion Feature Base Set, EFBS)를 생성할 수 있다. 예를 들어, 감성 특징 베이스 셋은 아래의 표 1과 같이 감성 상태(평상시, 스트레스, 피로, 감정)와 이에 대응하는 생체정보에 기초하여 생성할 수 있다.Specifically, the emotion
STRESS
STRESS
TIREDNESS
TIREDNESS
FELLING
FELLING
감성모델 데이터베이스(130)는 감성모델 생성부(122)에서 생성된 감성모델을 저장한다. 여기서, 감성모델은 사용자 식별정보와 함께 저장되며, 사용자의 생체정보에 대응하는 복수개의 감성모델을 포함한다. 예를 들어, 피부 전도도, 맥파 및 피부 온도에 각각 대응하는 복수개의 감성모델을 저장할 수 있다.The
이때, 감성모델 데이터베이스(130)에 저장되어 있는 감성모델은 자극 제공부(121)를 통해 제공되는 자극정보에 대응하여 사용자 단말(200)로부터 전송되는 생체정보의 학습을 통해 검증되며, 학습결과에 따라 업데이트될 수 있다.At this time, the emotion model stored in the
감성 검출부(140)는 생체정보 수신부(110)에서 수신된 식별정보에 기초하여 감성모델 데이터베이스에서 사용자의 감성모델을 검색하고, 검색된 감성모델을 이용하여 생체정보 수신부(110)에서 수신된 생체정보에서 추출된 특징데이터에 기초하여 감성상태 점수를 산출하여 사용자의 감성을 검출한다.The
감성 출력부(150)는 감성 검출부(140)의 감성 검출 결과를 출력한다. 또한, 감성 검출 결과를 사용자 단말(200)로 전송하여 사용자 단말(200)을 통해 출력할 수 있다.The
도 1의 사용자 단말(200)은 사용자의 생체정보를 수집하는 웨어러블 단말을 의미하며, 감성 검출 장치(100)와 무선통신망을 통해 연결된다. 본 발명의 실시예에서 사용자 단말(200)은 스트레처블(stretchable) 스마트 밴드로 구현되나, 이에 한정되는 것은 아니며, 사용자의 신체 일부에 부착 또는 착용 가능한 어떠한 형태로도 구현될 수 있다. 예를 들어, 스마트폰, 시계, 안경, 모자, 의류, 신발, 또는 기타 액세서리 중 하나의 형태로 구현될 수 있다.The
도 1의 사용자 단말(200)은 다수의 센서를 이용하여 실시간으로 사용자의 생체정보를 수집하여 감성 검출 장치(100)로 전송하고, 감성 검출 장치(100)로부터 전송되는 자극정보 및 감성 검출 결과 등을 수신하여 출력한다.The
도 1의 사용자 단말(200)은 입출력부(210), EDA(electrodermal activity) 수집부(220), PPG(photoplethysmography) 수집부(230), SKT(skin temperature) 수집부(240), 그리고 생체정보 전송부(250)를 포함한다.The
입출력부(210)는 사용자로부터 식별정보 및 제어신호(예를 들어, 사용자 단말 ON/OFF, 초기화 등을 위한 제어신호)를 입력받거나, 감성 검출 장치(100)로부터 전송되는 자극정보를 출력하거나, 또는 감성 검출 장치(100)로부터 전송되는 감성 검출 결과를 출력한다.The input /
EDA 수집부(220)는 사용자의 피부 전도도를 수집한다. 예를 들어, EDA 센서를 통해 사용자의 피부전도도(electrodermal activity)를 측정 및 수집한다.The
PPG 수집부(230)는 PPG 센서를 이용하여 사용자의 맥파(pulse wave)를 측정 및 수집한다.The
SKT 수집부(240)는 사용자의 피부 온도를 측정 및 수집한다. 구체적으로, NTC 서미스터(negative temperature coefficient thermistor)를 포함하는 온도센서를 이용하여 사용자의 피부 표면 온도를 측정하고 측정값을 수집한다.The
생체정보 전송부(250)는 사용자 단말(200)을 통해 수집된 사용자의 생체정보와 사용자 단말(200)을 통해 입력된 식별정보를 감성 검출 장치(100)로 전송한다. 구체적으로, EDA 수집부(220)에서 수집된 피부 전도도 정보, PPG 수집부(230)에서 수집된 맥파 정보 및 SKT 수집부(240)에서 수집된 피부 온도 정보를 전송한다. 또한, 사용자 단말(200)의 고유번호 또는 입출력부(210)를 통해 사용자로부터 입력된 사용자 개인정보를 전송한다.The biometric
도 1에는 도시되어 있지 않으나, 사용자 단말(200)은 EDA 센서, PPG 센서, 또는 온도센서 중 적어도 하나의 센서와 사용자 피부 사이의 접촉 불량 또는 이물질을 감지하는 센서를 더 포함할 수 있다.Although not shown in FIG. 1, the
도 1에는 도시되어 있지 않으나, 사용자 단말(200)은 각 구성에 전원을 공급하는 배터리를 포함하며, 배터리는 사용자 단말(200)과 일체형으로 구현되거나 사용자 단말(200)과 결합 및 분리 가능한 형태로 구현될 수 있다.Although not shown in FIG. 1, the
도 2는 도 1의 감성 검출 장치를 이용한 감성 검출 방법을 나타낸다.Fig. 2 shows the emotion detection method using the emotion detecting apparatus of Fig.
도 2에서는 제1 사용자의 감성모델이 감성모델 데이터베이스(130)에 미리 저장되어 있는 것으로 가정하여 제1 사용자의 감성 검출 방법에 대해 설명한다.In FIG. 2, the emotion detection method of the first user will be described on the assumption that the emotion model of the first user is stored in the
먼저, 생체정보 수신부(110)를 통해 사용자 단말(200)로부터 전송되는 제1 사용자의 생체정보와 식별정보를 수신한다(S10).First, biometric information and identification information of a first user transmitted from the
이후, 감성 검출부(140)를 통해 S10 단계에서 수신된 식별정보에 기초하여 제1 사용자의 감성모델을 검색하고(S20), S10 단계에서 수신된 생체정보의 특징데이터를 추출한다(S30).Then, the emotion model of the first user is searched based on the identification information received in step S10 through the emotion detecting unit 140 (S20), and the feature data of the biometric information received in step S10 is extracted (S30).
이후, 감성 검출부(140)를 통해 S20 단계에서 검색된 감성모델을 이용하여 S30 단계에서 추출된 특징데이터에 대응하는 감성상태 지수를 산출한다(S40). 이때, 감성상태 지수에 따라 스트레스 단계, 피로도 단계, 및 감성상태(기쁨, 우울, 슬픔, 화남 등) 등을 판단할 수 있다. 예를 들어, 스트레스 단계는 스트레스가 없는 휴식상황에 대응하는 1 단계, 감성상태 지수가 0 초과 2 이하인 약한 스트레스에 대응하는 2 단계, 감성상태 지수가 2 초과 5 이하인 중간 스트레스에 대응하는 3 단계 및 감성상태 지수가 5 초과 9 이하인 강한 스트레스에 대응하는 4 단계로 구분할 수 있다.In step S40, the emotion state index corresponding to the feature data extracted in step S30 is calculated using the emotion model retrieved in step S20 through the
이후, 감성 출력부(150)를 통해 S40 단계의 감성상태 지수에 대응하는 감성 검출 결과를 출력한다.Then, the
아래에서는 도 3과 도 4를 이용하여 도 2의 S30 내지 S40 단계에서 스트레스 지수 및 스트레스 단계를 산출하는 방법에 대해 상세히 설명한다.Hereinafter, the method of calculating the stress index and the stress level in steps S30 to S40 of FIG. 2 will be described in detail with reference to FIGS. 3 and 4. FIG.
도 3은 도 2에서 특징데이터를 추출하는 방법 및 스트레스 단계를 검출하는 방법을 나타낸다.FIG. 3 shows a method for extracting feature data and a method for detecting a stress step in FIG.
도 3에서 보면, 도 2의 S10 단계에서 수신되는 피부전도도(EDA), 맥파(PPG) 및 피부 온도(SKT) 데이터에 대하여 각각 전처리과정을 거친 후 특징데이터를 추출하고, 도 2의 S20 단계에서 검색되는 감성모델을 이용하여 스트레스 지수를 산출한다. Referring to FIG. 3, after the preprocessing process is performed on the skin conductivity (EDA), the pulse wave (PPG), and the skin temperature (SKT) data received in step S10 of FIG. 2, The stress index is calculated using the sensibility model that is searched.
구체적으로, 버터워스 필터(butterworth filter)를 이용하여 피부전도도(EDA) 데이터, 맥파(PPG) 데이터, 및 피부 온도(SKT) 데이터의 노이즈를 제거한 후, 각각의 데이터에 대응하는 특징데이터를 추출한다.Specifically, after removing noise of skin conductivity (EDA) data, pulse wave (PPG) data, and skin temperature (SKT) data using a butterworth filter, feature data corresponding to each data is extracted .
예를 들어, 피부전도도(EDA) 데이터에서 제1 특징데이터를 추출하며, 추출된 제1 특징데이터는 EDA 신호의 평균, 표준편차, 미분 평균, 미분 표준편차, 양미분 평균 및 음미분 평균을 포함할 수 있다.For example, first feature data is extracted from the skin conductance (EDA) data, and the extracted first feature data includes mean, standard deviation, differential mean, differential standard deviation, positive differential mean, and negative mean of the EDA signal can do.
예를 들어, 맥파(PPG) 데이터에서 제2 특징데이터를 추출하며, 추출된 제2 특징데이터는 PPG 신호의 높이 평균, 표준편차, PPI(peak to peak interval) 평균 및 표준편차, PPI 변화 크기 및 표준편차를 포함할 수 있다.For example, the second feature data is extracted from the pulse wave (PPG) data, and the extracted second feature data includes height average, standard deviation, mean and standard deviation of the PPI signal, PPI change size, Standard deviation may be included.
예를 들어, 피부 온도(SKT) 데이터에서 제3 특징데이터를 추출하며, 추출된 제3 특징데이터는 SKT 신호의 평균, 표준편차, 미분 평균, 미분 표준편차 및 기준(ref) 신호 대비 현재 신호의 증감률을 포함할 수 있다.For example, the third feature data is extracted from the skin temperature (SKT) data, and the extracted third feature data includes a mean value, a standard deviation, a differential mean, a derivative standard deviation, and a reference (ref) Increase / decrease rate.
이후, EDA 인공 신경망을 이용하여 제1 특징데이터를 분류하여 EDA 스트레스 지수를 산출하고, PPG 인공 신경망을 이용하여 제2 특징데이터를 분류하여 PPG 스트레스 지수를 산출하고, SKT 인공 신경망을 이용하여 제3 특징데이터를 분류하여 SKT 스트레스 지수를 산출한다.Thereafter, the EDA stress index is calculated by classifying the first feature data using the EDA artificial neural network, the PPG stress index is calculated by classifying the second feature data using the PPG artificial neural network, and the third feature data is classified using the SKT artificial neural network The feature data is classified to calculate the SKT stress index.
이후, EDA 스트레스 지수, PPG 스트레스 지수 및 SKT 스트레스 지수에 기초하여 종합 스트레스 지수를 산출한다.The composite stress index is then calculated based on the EDA Stress Index, the PPG Stress Index, and the SKT Stress Index.
도 4는 본 발명의 일 실시예에 따른 스트레스 레벨을 산출하는 방법을 나타낸다.4 shows a method for calculating a stress level according to an embodiment of the present invention.
도 4에서 보면, 추출된 각각의 특징데이터를 이용하여 피부전도도(EDA) 데이터에 대응하는 제1 스트레스 레벨(EDA_Stress_Score), 심박수변이도(HRV, heat rate variability) 데이터에 대응하는 제2 스트레스 레벨(HRV_Stress_Score) 및 피부 온도(SKT) 데이터에 대응하는 제3 스트레스 레벨(SKT_Stress_Score)을 산출하고, 생체신호별 가중치(w1, w2, w3)를 적용하여 종합 스트레스 레벨(Stress_Score)을 산출한다. 이때, 심박수변이도(HRV)는 PPG 측정 데이터에 의해 검출되는 심박피크 및 심박시간격 등을 포함한다.4, a first stress level (EDA_Stress_Score) corresponding to skin conductivity (EDA) data, a second stress level (HRV_Stress_Score) corresponding to HRV (heat rate variability) data ) And a third stress level (SKT_Stress_Score) corresponding to the skin temperature (SKT) data, and calculates a total stress level (Stress_Score) by applying weights w 1 , w 2 and w 3 for each of the biological signals. At this time, the heart rate variability (HRV) includes the heart rate peak and the heart rate interval detected by the PPG measurement data.
본 발명의 실시예에 따른 감성 검출 방법은 감성 검출 장치에 기본적으로 설치되거나 사용자에 의해 직접 설치된 프로그램으로 구현되어 컴퓨터에 의해 읽힐 수 있는 기록매체에 기록될 수 있다. 여기서, 컴퓨터는 데스크탑, 노트북, 스마트폰, 태블릿 PC, PDA(개인정보 단말기) 및 이동통신장치를 포함할 수 있다. 또한, 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크 및 광 미디어 저장장치 등을 포함할 수 있다.The emotion detection method according to an embodiment of the present invention may be recorded in a recording medium that is basically installed in the emotion detection apparatus or implemented by a program directly installed by a user and can be read by a computer. Here, the computer may include a desktop, a notebook, a smart phone, a tablet PC, a personal digital assistant (PDA), and a mobile communication device. The recording medium may also include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical media storage, and the like.
본 발명의 실시예에 따르면 사용자의 생체신호에 대응하는 감성모델을 학습하여 저장하고 이를 이용하여 사용자의 감성을 검출하여 감성 검출 결과의 정확도 및 사용자의 만족도를 향상시킬 수 있다. 또한, 사용자의 감성 검출 결과에 대응하는 알람, 컨텐츠, 또는 헬스테인먼트(healthtainment) 기반의 서비스를 제공할 수 있다.According to the embodiment of the present invention, the emotion model corresponding to the user's bio signal can be learned and stored, and the sensibility of the user can be detected using the sensed model, thereby improving the accuracy of the emotion detection result and the satisfaction of the user. Further, it is possible to provide an alarm, a content, or a service based on a health satisfaction corresponding to a user's sensibility detection result.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였으나, 본 발명의 권리범위가 이에 한정되는 것은 아니며 본 발명이 속하는 분야에서 통상의 지식을 가진 자가 여러 가지로 변형 및 개량한 형태 또한 본 발명의 권리범위에 속한다.While the present invention has been particularly shown and described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It belongs to the scope.
100 : 감성 검출 장치
110 : 생체정보 수신부
120 : 감성 학습부
121 : 자극 제공부
122 : 감성모델 생성부
130 : 감성모델 데이터베이스
140 : 감성 검출부
150 : 감성 출력부
200 : 사용자 단말
210 : 입출력부
220 : EDA 수집부
230 : PPG 수집부
240 : SKT 수집부
250 : 생체정보 전송부100: Emotion detection device
110: Biometric information receiver
120: Sensibility learning section
121: stimulant study
122: Emotion model generation unit
130: Emotion model database
140: Emotion detection unit
150: Emotion output unit
200: user terminal
210: Input /
220: EDA collector
230: PPG collecting unit
240: SKT collecting section
250: Biometric information transmission unit
Claims (7)
상기 사용자의 단말로부터 전송되는 생체정보를 수신하는 생체정보 수신부,
상기 자극정보에 대응하여 상기 사용자의 단말로부터 전송되는 생체정보를 학습하여 인공신경망 모델을 생성하는 감성모델 생성부,
생성된 상기 인공신경망 모델을 저장하는 감성모델 데이터베이스, 그리고
수신된 상기 생체정보의 특징점을 추출하고, 저장되어 있는 상기 인공신경망 모델을 이용하여 추출된 상기 특징점을 분류하여 상기 사용자의 감성을 검출하는 감성 검출부
를 포함하는 감성 검출 장치.A stimulant for providing stimulus information to the user,
A biometric information receiving unit for receiving biometric information transmitted from the user terminal,
An emotion model generation unit that learns biometric information transmitted from the user terminal in response to the stimulation information and generates an artificial neural network model,
An emotion model database storing the generated artificial neural network model, and
Extracting feature points of the received biometric information, classifying the extracted feature points using the stored neural network model, and detecting the emotion of the user,
And the emotion detecting device.
상기 생체정보 수신부는 상기 사용자의 피부전도도(EDA), 맥파(PPG), 또는 피부 온도(SKT) 중 적어도 하나의 데이터를 수신하는 감성 검출 장치.The method of claim 1,
Wherein the biometric information receiving unit receives at least one of data of the user's EDA, PPG, or skin temperature (SKT).
상기 감성 검출부는 상기 사용자의 스트레스 지수, 피로도 지수, 또는 감정상태 중 적어도 하나를 검출하는 감성 검출 장치.The method of claim 1,
Wherein the emotion detecting unit detects at least one of the stress index, fatigue index, or emotion state of the user.
상기 사용자의 단말은 스트레처블(stretchable) 스마트 밴드인 감성 검출 장치.The method of claim 1,
Wherein the terminal of the user is a stretchable smart band.
사용자에게 자극정보를 제공하는 기능,
상기 사용자의 생체정보를 수신하는 기능,
상기 자극정보에 대응하는 생체정보를 학습하여 상기 사용자의 인공신경망 모델을 생성하는 기능,
생성된 상기 사용자의 인공신경망 모델을 저장하는 기능, 그리고
수신된 상기 생체정보의 특징점을 추출하고, 상기 사용자의 인공신경망 모델을 이용하여 추출된 상기 특징점을 분류하여 상기 사용자의 감성을 검출하는 기능
을 포함하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체.A computer-readable recording medium storing a program for executing an emotion detection method through an emotion detecting apparatus,
A function of providing stimulus information to the user,
A function of receiving biometric information of the user,
A function of generating an artificial neural network model of the user by learning biometric information corresponding to the stimulation information,
A function of storing the generated artificial neural network model of the user, and
Extracting feature points of the received biometric information, classifying the extracted feature points using the user's neural network model, and detecting the emotion of the user
Readable recording medium having recorded thereon a program.
상기 생체정보는 피부전도도(EDA), 맥파(PPG) 및 피부 온도(SKT)를 포함하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체.The method of claim 5,
Wherein the bio-information includes a skin conductivity (EDA), a pulse wave (PPG), and a skin temperature (SKT).
상기 사용자의 감성을 검출하는 기능은,
상기 피부전도도(EDA)에 대응하는 제1 인공신경망 모델을 이용하여 제1 스트레스 지수를 산출하고 상기 맥파(PPG)에 대응하는 제2 인공신경망 모델을 이용하여 제2 스트레스 지수를 산출하고 상기 피부 온도(SKT)에 대응하는 제3 인공신경망 모델을 이용하여 제3 스트레스 지수를 산출하는 기능, 그리고
상기 제1 스트레스 지수, 상기 제2 스트레스 지수 및 제3 스트레스 지수에 가중치를 적용하여 상기 사용자의 종합 스트레스 지수를 산출하는 기능
을 포함하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체.The method of claim 6,
The function of detecting the emotion of the user includes:
Calculating a first stress index using a first artificial neural network model corresponding to the skin conductivity (EDA), calculating a second stress index using a second artificial neural network model corresponding to the pulse wave (PPG) A function of calculating the third stress index using the third artificial neural network model corresponding to the SKT, and
Calculating a total stress index of the user by applying a weight to the first stress index, the second stress index and the third stress index;
Readable recording medium having recorded thereon a program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170053626A KR102015097B1 (en) | 2017-04-26 | 2017-04-26 | Apparatus and computer readable recorder medium stored program for recognizing emotion using biometric data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170053626A KR102015097B1 (en) | 2017-04-26 | 2017-04-26 | Apparatus and computer readable recorder medium stored program for recognizing emotion using biometric data |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180119913A true KR20180119913A (en) | 2018-11-05 |
KR102015097B1 KR102015097B1 (en) | 2019-10-21 |
Family
ID=64329234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170053626A KR102015097B1 (en) | 2017-04-26 | 2017-04-26 | Apparatus and computer readable recorder medium stored program for recognizing emotion using biometric data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102015097B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200071807A (en) * | 2018-11-30 | 2020-06-22 | 인하대학교 산학협력단 | Human emotion state recognition method and system using fusion of image and eeg signals |
WO2020175759A1 (en) * | 2019-02-25 | 2020-09-03 | 주식회사 룩시드랩스 | System and method for analyzing stress of user and managing individual mental health, using hmd device having biosignal sensors mounted therein |
CN112043252A (en) * | 2020-10-10 | 2020-12-08 | 山东大学 | Emotion recognition system and method based on respiratory component in pulse signal |
KR20220144983A (en) * | 2021-04-21 | 2022-10-28 | 조선대학교산학협력단 | Emotion recognition system using image and electrocardiogram |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102300194B1 (en) * | 2020-12-24 | 2021-09-10 | 주식회사 후원 | Method and device for neuro/biofeedback serious game to reduce mental stress based on biomedcal signals |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101284561B1 (en) * | 2011-02-14 | 2013-07-11 | 충남대학교산학협력단 | System and method for multi-modality emotion recognition and recording medium thereof |
-
2017
- 2017-04-26 KR KR1020170053626A patent/KR102015097B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101284561B1 (en) * | 2011-02-14 | 2013-07-11 | 충남대학교산학협력단 | System and method for multi-modality emotion recognition and recording medium thereof |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200071807A (en) * | 2018-11-30 | 2020-06-22 | 인하대학교 산학협력단 | Human emotion state recognition method and system using fusion of image and eeg signals |
WO2020175759A1 (en) * | 2019-02-25 | 2020-09-03 | 주식회사 룩시드랩스 | System and method for analyzing stress of user and managing individual mental health, using hmd device having biosignal sensors mounted therein |
CN112043252A (en) * | 2020-10-10 | 2020-12-08 | 山东大学 | Emotion recognition system and method based on respiratory component in pulse signal |
CN112043252B (en) * | 2020-10-10 | 2021-09-28 | 山东大学 | Emotion recognition system and method based on respiratory component in pulse signal |
KR20220144983A (en) * | 2021-04-21 | 2022-10-28 | 조선대학교산학협력단 | Emotion recognition system using image and electrocardiogram |
Also Published As
Publication number | Publication date |
---|---|
KR102015097B1 (en) | 2019-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20180119913A (en) | Apparatus and computer readable recorder medium stored program for recognizing emotion using biometric data | |
JP5322179B2 (en) | KANSEI evaluation device, KANSEI evaluation method, and KANSEI evaluation program | |
CN108888277B (en) | Psychological test method, psychological test system and terminal equipment | |
JP2004130142A (en) | Mobile apparatus having health management functions based on biomedical signal, and health management method using the same | |
US20190261863A1 (en) | System and method for providing an indication of the well-being of an individual | |
EP3238611B1 (en) | A method and device for estimating a condition of a person | |
CN109949438B (en) | Abnormal driving monitoring model establishing method and device and storage medium | |
Park et al. | Individual emotion classification between happiness and sadness by analyzing photoplethysmography and skin temperature | |
JPWO2011158965A1 (en) | KANSEI evaluation system, KANSEI evaluation method, and program | |
CN112057066A (en) | Heart rate detection method, wearable device and computer storage medium | |
US20200303058A1 (en) | Lifestyle habit management device, method, and non-transitory recording medium in which program is stored | |
KR20210067827A (en) | Operation method of stress management apparatus for the emotional worker | |
CN115089179A (en) | Psychological emotion insights analysis method and system | |
KR20200080494A (en) | Stress management apparatus for the emotional worker and operation method thereof | |
CN113764099A (en) | Psychological state analysis method, device, equipment and medium based on artificial intelligence | |
KR101148164B1 (en) | Method for estimating degree of subjective well-being based on language of user | |
KR20190080598A (en) | System for recognizing emotion using biometric data and method thereof | |
KR102576126B1 (en) | Apparatus and method for estimating bio-information | |
KR102243017B1 (en) | Depression Index Estimation Method Using Skin Image | |
TW202133117A (en) | Avatar facial expression generating system and method of avatar facial expression generation | |
KR20170123133A (en) | System and method for recognizing emotion using biometric data | |
CN116548970A (en) | State studying and judging method and device for deep-open sea operators | |
CN109820523A (en) | Psychological tester control method, device and computer readable storage medium | |
KR102373496B1 (en) | System and Method for Generating Depression Prediction Model based on Smart Band Biometric Information | |
CN115120236A (en) | Emotion recognition method and device, wearable device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |