KR20180119913A - Apparatus and computer readable recorder medium stored program for recognizing emotion using biometric data - Google Patents

Apparatus and computer readable recorder medium stored program for recognizing emotion using biometric data Download PDF

Info

Publication number
KR20180119913A
KR20180119913A KR1020170053626A KR20170053626A KR20180119913A KR 20180119913 A KR20180119913 A KR 20180119913A KR 1020170053626 A KR1020170053626 A KR 1020170053626A KR 20170053626 A KR20170053626 A KR 20170053626A KR 20180119913 A KR20180119913 A KR 20180119913A
Authority
KR
South Korea
Prior art keywords
user
emotion
biometric information
neural network
network model
Prior art date
Application number
KR1020170053626A
Other languages
Korean (ko)
Other versions
KR102015097B1 (en
Inventor
배유석
최종필
이현숙
이원곡
Original Assignee
클라트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 클라트 주식회사 filed Critical 클라트 주식회사
Priority to KR1020170053626A priority Critical patent/KR102015097B1/en
Publication of KR20180119913A publication Critical patent/KR20180119913A/en
Application granted granted Critical
Publication of KR102015097B1 publication Critical patent/KR102015097B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/683Means for maintaining contact with the body
    • A61B5/6831Straps, bands or harnesses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Cardiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Dermatology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

The present invention relates to an emotion detection apparatus using biometric information and a recording medium which can be read by a computer recording a program to execute an emotion detection method. According to an embodiment of the present invention, the emotion detection apparatus comprises: a stimulus providing unit for providing stimulus information to a user; a biometric information receiving unit for receiving biometric information transmitted from a terminal of a user; an emotion model generating unit for learning the biometric information transmitted from the terminal of the user in response to the stimulus information to generate an artificial neural network model; an emotion model database storing the generated artificial neural network model; and an emotion detecting unit for extracting a feature point of the received biometric information and classifying the extracted feature point using the stored artificial neural network model to detect an emotion of the user. According to an embodiment of the present invention, the accuracy in emotion recognition using the biometric information of the user can be increased.

Description

생체정보를 이용한 감성 검출 장치 및 감성 검출 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체{APPARATUS AND COMPUTER READABLE RECORDER MEDIUM STORED PROGRAM FOR RECOGNIZING EMOTION USING BIOMETRIC DATA}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a biometric information detection apparatus and a computer-readable recording medium storing a program for executing the biometric information detection method.

본 발명은 생체정보를 이용한 감성 검출 장치 및 감성 검출 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체에 관한 것이다.The present invention relates to an emotion detecting apparatus using biometric information and a computer-readable recording medium storing a program for executing the emotion detecting method.

감성 ICT(Information Communication Technologies) 기술은 사용자가 자신이 원하는 감성을 직접 입력하여 관련 제품 및 서비스를 이용하는 형태에서 사용자 주변의 카메라 또는 사용자가 착용하고 있는 센서를 통해 사용자의 표정, 말투, 뇌파, 심전도 등의 신체 감성 정보를 자동으로 수집 및 분석하여 사용자의 감성을 인지한 결과에 따라 사용자 감성맞춤형 제품 및 서비스를 제공하는 형태로 변화하여 급성장하고 있다.Emotional ICT (Information Communication Technologies) is a technology in which a user directly inputs desired emotions and uses the related products and services in the form of a camera or a sensor worn by a user in the form of using the user's facial expressions, speech, The system automatically collects and analyzes the body emotion information of the user, and the emotion of the user is changed according to the result of recognizing the emotion of the user.

이에 따라 제품 및 서비스에 대한 사용자 만족도를 향상시키기 위해서는 사용자의 신체 감성 정보를 각각의 사용자에게 최적화되어 있는 생리학적 패턴을 통해 분석하는 방법이 필요하나, 종래의 감성인식은 다수의 사용자에게 일반적인 생리학적 패턴을 공통으로 적용하는 점에서 감성인식 정확도 및 사용자 만족도가 저하될 수 있다.Accordingly, in order to improve user satisfaction with products and services, it is necessary to analyze the user's body emotion information through physiological patterns optimized for each user. However, conventional emotion recognition requires a general physiological The accuracy of the sensitivity recognition and the user satisfaction may be lowered in terms of applying the pattern in common.

본 발명의 일 실시예가 해결하려는 과제는 사용자의 생체신호에 기초하여 스트레스, 피로도 및 기분상태 등의 감성을 검출하는 장치 및 검출 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체를 제공하는 것이다.An object to be solved by one embodiment of the present invention is to provide a device for detecting emotion such as stress, fatigue and mood state based on a user's biological signal, and a computer readable recording medium recording a program for executing the detection method .

상기 과제 이외에도 구체적으로 언급되지 않은 다른 과제를 달성하는 데 본 발명에 따른 실시예가 사용될 수 있다.Embodiments according to the present invention can be used to accomplish other tasks not specifically mentioned other than the above-described tasks.

상기 과제를 해결하기 위해 본 발명의 일 실시예는, 사용자에게 자극정보를 제공하는 자극 제공부, 사용자의 단말로부터 전송되는 생체정보를 수신하는 생체정보 수신부, 자극정보에 대응하여 사용자의 단말로부터 전송되는 생체정보를 학습하여 인공신경망 모델을 생성하는 감성모델 생성부, 생성된 인공신경망 모델을 저장하는 감성모델 데이터베이스, 그리고 수신된 생체정보의 특징점을 추출하고, 저장되어 있는 인공신경망 모델을 이용하여 추출된 특징점을 분류하여 사용자의 감성을 검출하는 감성 검출부를 포함하는 감성 검출 장치를 제안한다.According to an aspect of the present invention, there is provided an apparatus for transmitting biometric information, the apparatus comprising: a stimulus providing unit for providing stimulus information to a user; a biometric information receiving unit for receiving biometric information transmitted from a user terminal; A sensory model database for storing the generated neural network model, and a feature point extracting unit for extracting the feature points of the received biometric information and extracting the extracted neural network models using the stored neural network model And a sentence detection unit which detects the sentiment of the user by classifying the extracted feature points.

여기서, 생체정보 수신부는 사용자의 피부전도도(EDA), 맥파(PPG), 또는 피부 온도(SKT) 중 적어도 하나의 데이터를 수신할 수 있다.Here, the bio-information receiving unit may receive at least one of the user's skin conductivity (EDA), pulse wave (PPG), or skin temperature (SKT).

또한, 감성 검출부는 사용자의 스트레스 지수, 피로도 지수, 또는 감정상태 중 적어도 하나를 검출할 수 있다.Further, the emotion detecting unit may detect at least one of the user's stress index, fatigue index, or emotion state.

또한, 사용자의 단말은 스트레처블(stretchable) 스마트 밴드일 수 있다.Also, the user's terminal may be a stretchable smart band.

상기 과제를 해결하기 위해 본 발명의 일 실시예는, 감성 검출 장치를 통해 감성 검출 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체에 있어서, 사용자에게 자극정보를 제공하는 기능, 사용자의 생체정보를 수신하는 기능, 자극정보에 대응하는 생체정보를 학습하여 사용자의 인공신경망 모델을 생성하는 기능, 생성된 사용자의 인공신경망 모델을 저장하는 기능, 그리고 수신된 생체정보의 특징점을 추출하고, 사용자의 인공신경망 모델을 이용하여 추출된 특징점을 분류하여 사용자의 감성을 검출하는 기능을 포함하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체를 제안한다.According to an embodiment of the present invention, there is provided a computer-readable recording medium having recorded thereon a program for executing an emotion detection method through an emotion detection apparatus, the computer readable recording medium having a function of providing stimulus information to a user, A function of generating an artificial neural network model of the user by learning biometric information corresponding to the stimulation information, a function of storing the generated artificial neural network model, extracting the feature points of the received biometric information, And a function of detecting the emotion of the user by classifying the extracted feature points by using the artificial neural network model of the artificial neural network model.

여기서, 생체정보는 피부전도도(EDA), 맥파(PPG) 및 피부 온도(SKT)를 포함할 수 있다.Here, the biometric information may include skin conductivity (EDA), pulse wave (PPG), and skin temperature (SKT).

또한, 사용자의 감성을 검출하는 기능은, 피부전도도(EDA)에 대응하는 제1 인공신경망 모델을 이용하여 제1 스트레스 지수를 산출하고 맥파(PPG)에 대응하는 제2 인공신경망 모델을 이용하여 제2 스트레스 지수를 산출하고 피부 온도(SKT)에 대응하는 제3 인공신경망 모델을 이용하여 제3 스트레스 지수를 산출하는 기능, 그리고 제1 스트레스 지수, 제2 스트레스 지수 및 제3 스트레스 지수에 가중치를 적용하여 사용자의 종합 스트레스 지수를 산출하는 기능을 포함할 수 있다.In addition, the function of detecting the emotion of the user is to calculate the first stress index using the first artificial neural network model corresponding to the skin conductivity (EDA) and to calculate the second stress index using the second artificial neural network model corresponding to the pulse wave (PPG) 2 stress index, calculating a third stress index using a third artificial neural network model corresponding to skin temperature (SKT), and applying a weight to the first stress index, the second stress index, and the third stress index And calculating the total stress index of the user.

본 발명의 실시예에 따르면 사용자의 생체정보를 이용하는 감성 인식 정확도를 향상시킬 수 있다. 또한, 감성 인식 결과에 따라 사용자별 맞춤 서비스를 제공하여 사용자의 만족도를 향상시킬 수 있다.According to the embodiment of the present invention, the accuracy of emotion recognition using the user's biometric information can be improved. In addition, according to the emotion recognition result, a user-specific service can be provided to improve the satisfaction of the user.

도 1은 본 발명의 일 실시예에 따른 감성 검출 장치의 구성을 나타낸다.
도 2는 도 1의 감성 검출 장치를 이용한 감성 검출 방법을 나타낸다.
도 3은 도 2에서 특징데이터를 추출하는 방법 및 스트레스 단계를 검출하는 방법을 나타낸다.
도 4는 본 발명의 일 실시예에 따른 스트레스 레벨을 산출하는 방법을 나타낸다.
1 shows a configuration of an emotion detecting apparatus according to an embodiment of the present invention.
Fig. 2 shows the emotion detection method using the emotion detecting apparatus of Fig.
FIG. 3 shows a method for extracting feature data and a method for detecting a stress step in FIG.
4 shows a method for calculating a stress level according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대해 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으므로 여기에서 설명하는 실시예에 한정되지 않는다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며 명세서 전체에서 동일 또는 유사한 구성요소에 대해서는 동일한 도면부호가 사용되었다. 또한, 널리 알려진 공지기술의 경우 그 구체적인 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art to which the present invention pertains. The present invention may be embodied in many different forms and is therefore not limited to the embodiments described herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and the same reference numerals are used for the same or similar components throughout the specification. In the case of publicly known technologies, detailed description thereof will be omitted.

본 명세서에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In this specification, when a part is referred to as "including " an element, it is to be understood that it may include other elements as well, without departing from the other elements unless specifically stated otherwise.

본 명세서에 기재된 "…부","…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.The terms " part, "" module," and the like, as used herein, refer to a unit that processes at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software.

도 1은 본 발명의 일 실시예에 따른 감성 검출 장치의 구성을 나타낸다.1 shows a configuration of an emotion detecting apparatus according to an embodiment of the present invention.

도 1의 감성 검출 장치(100)는 사용자 단말(200)로부터 전송되는 생체정보를 분석하여 사용자의 감성을 검출하며, 생체정보 수신부(110), 감성 학습부(120), 감성모델 데이터베이스(130), 감성 검출부(140), 그리고 감성 출력부(150)를 포함한다. 감성 검출 장치(100)를 통해 검출되는 감성은 스트레스, 피로도, 또는 감정(기쁨, 우울, 슬픔, 화남) 중 적어도 하나를 포함한다.The emotion detecting apparatus 100 of FIG. 1 detects the emotion of the user by analyzing the biometric information transmitted from the user terminal 200 and includes a body information receiving unit 110, a emotion learning unit 120, an emotion model database 130, A sensibility detection unit 140, and a sensibility output unit 150. [ The emotion detected through the emotion detecting apparatus 100 includes at least one of stress, fatigue, or emotion (joy, depression, sadness, anger).

생체정보 수신부(110)는 사용자 단말(200)로부터 전송되는 생체정보 및 식별정보를 수신한다. 이때, 생체정보는 사용자의 피부 전도도 정보, 맥파 정보 및 피부 온도 정보를 포함하며, 식별정보는 사용자 식별을 위한 사용자 단말(200)의 고유번호 또는 사용자 개인정보를 포함한다.The biometric information receiving unit 110 receives biometric information and identification information transmitted from the user terminal 200. At this time, the biometric information includes the user's skin conductivity information, pulse wave information, and skin temperature information, and the identification information includes a unique number of the user terminal 200 for user identification or user personal information.

감성 학습부(120)는 사용자에게 자극정보를 제공하고 제공된 자극정보에 대응하는 사용자의 생체정보를 학습한 결과로 감성모델을 생성하며, 자극 제공부(121)와 감성모델 생성부(122)를 포함한다. 여기서, 감성모델은 인공 신경망 모델을 의미한다.The emotional learning unit 120 generates a sensory model as a result of providing stimulation information to a user and learning user's biometric information corresponding to the provided stimulation information and transmits the stimulus providing unit 121 and the sensibility model generating unit 122 . Here, the emotion model refers to an artificial neural network model.

자극 제공부(121)는 감성 도출을 위한 자극정보를 출력한다. 여기서, 자극정보는 사용자의 감성 도출이 가능한 연산, 연속 수행 과제(CPT, continuous performance task), 또는 미디어 중 적어도 하나를 포함한다. 이때, 미디어는 사용자의 기쁨, 우울, 슬픔, 또는 화남의 감성을 도출할 수 있는 영상, 사진 및 텍스트를 포함한다.The stimulus generator 121 outputs stimulus information for deriving emotion. Here, the stimulation information includes at least one of a calculation capable of deriving a user's emotion, a continuous performance task (CPT), or a medium. At this time, the media includes images, photographs, and texts that can lead to a user's joy, depression, sadness, or anger.

자극 제공부(121)는 사용자 단말(200)로 자극정보를 전송한다. 이때, 사용자 단말(200)은 자극 제공부(121)로부터 전송되는 자극정보를 수신하여 사용자에게 자극정보를 제공할 수 있다. The stimulus provider 121 transmits the stimulus information to the user terminal 200. At this time, the user terminal 200 may receive the stimulation information transmitted from the stimulus providing unit 121 and provide stimulation information to the user.

감성모델 생성부(122)는 자극 제공부(121)를 통해 제공되는 자극정보에 대응하는 생체정보를 분석하여 사용자의 감성모델을 생성한다. 이때, 생체정보는 자극정보에 대응하여 사용자 단말(200)로부터 전송되는 피부 전도도, 맥파 및 피부온도를 포함한다. The emotion model generating unit 122 analyzes the biometric information corresponding to the stimulation information provided through the stimulus providing unit 121 to generate a user's emotional model. At this time, the biometric information includes skin conductivity, pulse waves and skin temperature transmitted from the user terminal 200 in response to the stimulation information.

구체적으로, 감성모델 생성부(122)는 자극정보별 사용자의 피부 전도도 정보, 맥파 정보 및 피부 온도 정보에 대응하는 특징데이터을 추출하고, 사용자의 감성상태별 특징데이터 범위를 설정하여 감성 특징 베이스 셋(Emotion Feature Base Set, EFBS)를 생성할 수 있다. 예를 들어, 감성 특징 베이스 셋은 아래의 표 1과 같이 감성 상태(평상시, 스트레스, 피로, 감정)와 이에 대응하는 생체정보에 기초하여 생성할 수 있다.Specifically, the emotion model generation unit 122 extracts feature data corresponding to the user's skin conductance information, pulse wave information, and skin temperature information for each stimulus information, sets a feature data range for each emotion state of the user, Emotion Feature Base Set, EFBS). For example, the emotion feature base set can be generated based on emotion states (normal, stress, fatigue, emotion) and corresponding biometric information as shown in Table 1 below.

EDAEDA PPGPPG SKTSKT EMOTIONEMOTION STEPSTEP F1, … , Fn1 F 1 , ... , F n1 F1, … , Fn2 F 1 , ... , F n2 F1, … , Fn3 F 1 , ... , F n3 NORMALNORMAL 0000
STRESS

STRESS
0101
0202 0303
TIREDNESS

TIREDNESS
0101
0202 0303
FELLING

FELLING
HAPPYHAPPY
SADSAD ANGRYANGRY

감성모델 데이터베이스(130)는 감성모델 생성부(122)에서 생성된 감성모델을 저장한다. 여기서, 감성모델은 사용자 식별정보와 함께 저장되며, 사용자의 생체정보에 대응하는 복수개의 감성모델을 포함한다. 예를 들어, 피부 전도도, 맥파 및 피부 온도에 각각 대응하는 복수개의 감성모델을 저장할 수 있다.The emotion model database 130 stores the emotion model generated by the emotion model generation unit 122. [ Here, the emotion model is stored together with the user identification information, and includes a plurality of emotion models corresponding to the user's biometric information. For example, a plurality of emotion models corresponding to skin conductivity, pulse wave and skin temperature, respectively, can be stored.

이때, 감성모델 데이터베이스(130)에 저장되어 있는 감성모델은 자극 제공부(121)를 통해 제공되는 자극정보에 대응하여 사용자 단말(200)로부터 전송되는 생체정보의 학습을 통해 검증되며, 학습결과에 따라 업데이트될 수 있다.At this time, the emotion model stored in the emotion model database 130 is verified through learning of the biometric information transmitted from the user terminal 200 in response to the stimulation information provided through the stimulus providing unit 121, Can be updated accordingly.

감성 검출부(140)는 생체정보 수신부(110)에서 수신된 식별정보에 기초하여 감성모델 데이터베이스에서 사용자의 감성모델을 검색하고, 검색된 감성모델을 이용하여 생체정보 수신부(110)에서 수신된 생체정보에서 추출된 특징데이터에 기초하여 감성상태 점수를 산출하여 사용자의 감성을 검출한다.The emotion detecting unit 140 searches the emotion model of the user in the emotion model database based on the identification information received from the biometric information receiving unit 110 and extracts the biometric information received from the biometric information receiving unit 110 using the sensed emotion model The emotion state score is calculated based on the extracted feature data to detect emotion of the user.

감성 출력부(150)는 감성 검출부(140)의 감성 검출 결과를 출력한다. 또한, 감성 검출 결과를 사용자 단말(200)로 전송하여 사용자 단말(200)을 통해 출력할 수 있다.The emotion output unit 150 outputs the emotion detection result of the emotion detection unit 140. [ In addition, the emotion detection result may be transmitted to the user terminal 200 and output through the user terminal 200.

도 1의 사용자 단말(200)은 사용자의 생체정보를 수집하는 웨어러블 단말을 의미하며, 감성 검출 장치(100)와 무선통신망을 통해 연결된다. 본 발명의 실시예에서 사용자 단말(200)은 스트레처블(stretchable) 스마트 밴드로 구현되나, 이에 한정되는 것은 아니며, 사용자의 신체 일부에 부착 또는 착용 가능한 어떠한 형태로도 구현될 수 있다. 예를 들어, 스마트폰, 시계, 안경, 모자, 의류, 신발, 또는 기타 액세서리 중 하나의 형태로 구현될 수 있다.The user terminal 200 of FIG. 1 refers to a wearable terminal that collects biometric information of a user, and is connected to the emotion detecting apparatus 100 through a wireless communication network. In an embodiment of the present invention, the user terminal 200 is implemented as a stretchable smart band, but is not limited thereto and may be implemented in any form attached to or worn on a part of the user's body. For example, in the form of a smartphone, a watch, a pair of glasses, a hat, a garment, a shoe, or other accessory.

도 1의 사용자 단말(200)은 다수의 센서를 이용하여 실시간으로 사용자의 생체정보를 수집하여 감성 검출 장치(100)로 전송하고, 감성 검출 장치(100)로부터 전송되는 자극정보 및 감성 검출 결과 등을 수신하여 출력한다.The user terminal 200 of FIG. 1 collects the user's biometric information in real time using a plurality of sensors and transmits the same to the emotion detecting apparatus 100. The user terminal 200 of the user terminal 200 transmits the stimulus information and the emotion detection result And outputs it.

도 1의 사용자 단말(200)은 입출력부(210), EDA(electrodermal activity) 수집부(220), PPG(photoplethysmography) 수집부(230), SKT(skin temperature) 수집부(240), 그리고 생체정보 전송부(250)를 포함한다.The user terminal 200 of FIG. 1 includes an input / output unit 210, an electrodermal activity (EDA) collector 220, a photoplethysmography (PPG) collector 230, a skin temperature (SKT) collector 240, And a transmission unit 250.

입출력부(210)는 사용자로부터 식별정보 및 제어신호(예를 들어, 사용자 단말 ON/OFF, 초기화 등을 위한 제어신호)를 입력받거나, 감성 검출 장치(100)로부터 전송되는 자극정보를 출력하거나, 또는 감성 검출 장치(100)로부터 전송되는 감성 검출 결과를 출력한다.The input / output unit 210 receives identification information and a control signal from the user (for example, a control signal for ON / OFF and initialization of the user terminal), outputs the stimulation information transmitted from the emotion detecting apparatus 100, Or the emotion detection result transmitted from the emotion detecting apparatus 100 is output.

EDA 수집부(220)는 사용자의 피부 전도도를 수집한다. 예를 들어, EDA 센서를 통해 사용자의 피부전도도(electrodermal activity)를 측정 및 수집한다.The EDA collector 220 collects the skin conductivity of the user. For example, an EDA sensor measures and collects a user's electrodermal activity.

PPG 수집부(230)는 PPG 센서를 이용하여 사용자의 맥파(pulse wave)를 측정 및 수집한다.The PPG collecting unit 230 measures and collects the user's pulse wave using the PPG sensor.

SKT 수집부(240)는 사용자의 피부 온도를 측정 및 수집한다. 구체적으로, NTC 서미스터(negative temperature coefficient thermistor)를 포함하는 온도센서를 이용하여 사용자의 피부 표면 온도를 측정하고 측정값을 수집한다.The SKT collecting unit 240 measures and collects the user's skin temperature. Specifically, a temperature sensor including a negative temperature coefficient thermistor is used to measure the skin surface temperature of the user and collects the measured values.

생체정보 전송부(250)는 사용자 단말(200)을 통해 수집된 사용자의 생체정보와 사용자 단말(200)을 통해 입력된 식별정보를 감성 검출 장치(100)로 전송한다. 구체적으로, EDA 수집부(220)에서 수집된 피부 전도도 정보, PPG 수집부(230)에서 수집된 맥파 정보 및 SKT 수집부(240)에서 수집된 피부 온도 정보를 전송한다. 또한, 사용자 단말(200)의 고유번호 또는 입출력부(210)를 통해 사용자로부터 입력된 사용자 개인정보를 전송한다.The biometric information transmission unit 250 transmits the biometric information of the user collected through the user terminal 200 and the identification information inputted through the user terminal 200 to the emotion detecting apparatus 100. Specifically, the skin conduction information collected by the EDA collecting unit 220, the pulse wave information collected by the PPG collecting unit 230, and the skin temperature information collected by the SKT collecting unit 240 are transmitted. Also, the personal information of the user terminal 200 or user personal information inputted from the user through the input / output unit 210 is transmitted.

도 1에는 도시되어 있지 않으나, 사용자 단말(200)은 EDA 센서, PPG 센서, 또는 온도센서 중 적어도 하나의 센서와 사용자 피부 사이의 접촉 불량 또는 이물질을 감지하는 센서를 더 포함할 수 있다.Although not shown in FIG. 1, the user terminal 200 may further include a sensor for detecting a contact failure or foreign matter between at least one of the EDA sensor, the PPG sensor, and the temperature sensor and the user's skin.

도 1에는 도시되어 있지 않으나, 사용자 단말(200)은 각 구성에 전원을 공급하는 배터리를 포함하며, 배터리는 사용자 단말(200)과 일체형으로 구현되거나 사용자 단말(200)과 결합 및 분리 가능한 형태로 구현될 수 있다.Although not shown in FIG. 1, the user terminal 200 includes a battery that supplies power to each configuration, and the battery may be implemented integrally with the user terminal 200 or in a form that can be combined with and detached from the user terminal 200 Can be implemented.

도 2는 도 1의 감성 검출 장치를 이용한 감성 검출 방법을 나타낸다.Fig. 2 shows the emotion detection method using the emotion detecting apparatus of Fig.

도 2에서는 제1 사용자의 감성모델이 감성모델 데이터베이스(130)에 미리 저장되어 있는 것으로 가정하여 제1 사용자의 감성 검출 방법에 대해 설명한다.In FIG. 2, the emotion detection method of the first user will be described on the assumption that the emotion model of the first user is stored in the emotion model database 130 in advance.

먼저, 생체정보 수신부(110)를 통해 사용자 단말(200)로부터 전송되는 제1 사용자의 생체정보와 식별정보를 수신한다(S10).First, biometric information and identification information of a first user transmitted from the user terminal 200 through the biometric information receiving unit 110 are received (S10).

이후, 감성 검출부(140)를 통해 S10 단계에서 수신된 식별정보에 기초하여 제1 사용자의 감성모델을 검색하고(S20), S10 단계에서 수신된 생체정보의 특징데이터를 추출한다(S30).Then, the emotion model of the first user is searched based on the identification information received in step S10 through the emotion detecting unit 140 (S20), and the feature data of the biometric information received in step S10 is extracted (S30).

이후, 감성 검출부(140)를 통해 S20 단계에서 검색된 감성모델을 이용하여 S30 단계에서 추출된 특징데이터에 대응하는 감성상태 지수를 산출한다(S40). 이때, 감성상태 지수에 따라 스트레스 단계, 피로도 단계, 및 감성상태(기쁨, 우울, 슬픔, 화남 등) 등을 판단할 수 있다. 예를 들어, 스트레스 단계는 스트레스가 없는 휴식상황에 대응하는 1 단계, 감성상태 지수가 0 초과 2 이하인 약한 스트레스에 대응하는 2 단계, 감성상태 지수가 2 초과 5 이하인 중간 스트레스에 대응하는 3 단계 및 감성상태 지수가 5 초과 9 이하인 강한 스트레스에 대응하는 4 단계로 구분할 수 있다.In step S40, the emotion state index corresponding to the feature data extracted in step S30 is calculated using the emotion model retrieved in step S20 through the emotion detecting unit 140. [ At this time, stress level, fatigue level, and emotional state (joy, depression, sadness, anger, etc.) can be judged according to the emotional state index. For example, the stress stage may be one stage corresponding to a stress-free rest condition, two stages corresponding to a weak stress with an emotional state index of more than 0 and less than 2, three stages corresponding to an intermediate stress with an emotional state index of more than 2 and less than 5, And four stages corresponding to the strong stress that the emotional state index is more than 5 and 9 or less.

이후, 감성 출력부(150)를 통해 S40 단계의 감성상태 지수에 대응하는 감성 검출 결과를 출력한다.Then, the emotion output unit 150 outputs emotion detection result corresponding to the emotion state index in step S40.

아래에서는 도 3과 도 4를 이용하여 도 2의 S30 내지 S40 단계에서 스트레스 지수 및 스트레스 단계를 산출하는 방법에 대해 상세히 설명한다.Hereinafter, the method of calculating the stress index and the stress level in steps S30 to S40 of FIG. 2 will be described in detail with reference to FIGS. 3 and 4. FIG.

도 3은 도 2에서 특징데이터를 추출하는 방법 및 스트레스 단계를 검출하는 방법을 나타낸다.FIG. 3 shows a method for extracting feature data and a method for detecting a stress step in FIG.

도 3에서 보면, 도 2의 S10 단계에서 수신되는 피부전도도(EDA), 맥파(PPG) 및 피부 온도(SKT) 데이터에 대하여 각각 전처리과정을 거친 후 특징데이터를 추출하고, 도 2의 S20 단계에서 검색되는 감성모델을 이용하여 스트레스 지수를 산출한다. Referring to FIG. 3, after the preprocessing process is performed on the skin conductivity (EDA), the pulse wave (PPG), and the skin temperature (SKT) data received in step S10 of FIG. 2, The stress index is calculated using the sensibility model that is searched.

구체적으로, 버터워스 필터(butterworth filter)를 이용하여 피부전도도(EDA) 데이터, 맥파(PPG) 데이터, 및 피부 온도(SKT) 데이터의 노이즈를 제거한 후, 각각의 데이터에 대응하는 특징데이터를 추출한다.Specifically, after removing noise of skin conductivity (EDA) data, pulse wave (PPG) data, and skin temperature (SKT) data using a butterworth filter, feature data corresponding to each data is extracted .

예를 들어, 피부전도도(EDA) 데이터에서 제1 특징데이터를 추출하며, 추출된 제1 특징데이터는 EDA 신호의 평균, 표준편차, 미분 평균, 미분 표준편차, 양미분 평균 및 음미분 평균을 포함할 수 있다.For example, first feature data is extracted from the skin conductance (EDA) data, and the extracted first feature data includes mean, standard deviation, differential mean, differential standard deviation, positive differential mean, and negative mean of the EDA signal can do.

예를 들어, 맥파(PPG) 데이터에서 제2 특징데이터를 추출하며, 추출된 제2 특징데이터는 PPG 신호의 높이 평균, 표준편차, PPI(peak to peak interval) 평균 및 표준편차, PPI 변화 크기 및 표준편차를 포함할 수 있다.For example, the second feature data is extracted from the pulse wave (PPG) data, and the extracted second feature data includes height average, standard deviation, mean and standard deviation of the PPI signal, PPI change size, Standard deviation may be included.

예를 들어, 피부 온도(SKT) 데이터에서 제3 특징데이터를 추출하며, 추출된 제3 특징데이터는 SKT 신호의 평균, 표준편차, 미분 평균, 미분 표준편차 및 기준(ref) 신호 대비 현재 신호의 증감률을 포함할 수 있다.For example, the third feature data is extracted from the skin temperature (SKT) data, and the extracted third feature data includes a mean value, a standard deviation, a differential mean, a derivative standard deviation, and a reference (ref) Increase / decrease rate.

이후, EDA 인공 신경망을 이용하여 제1 특징데이터를 분류하여 EDA 스트레스 지수를 산출하고, PPG 인공 신경망을 이용하여 제2 특징데이터를 분류하여 PPG 스트레스 지수를 산출하고, SKT 인공 신경망을 이용하여 제3 특징데이터를 분류하여 SKT 스트레스 지수를 산출한다.Thereafter, the EDA stress index is calculated by classifying the first feature data using the EDA artificial neural network, the PPG stress index is calculated by classifying the second feature data using the PPG artificial neural network, and the third feature data is classified using the SKT artificial neural network The feature data is classified to calculate the SKT stress index.

이후, EDA 스트레스 지수, PPG 스트레스 지수 및 SKT 스트레스 지수에 기초하여 종합 스트레스 지수를 산출한다.The composite stress index is then calculated based on the EDA Stress Index, the PPG Stress Index, and the SKT Stress Index.

도 4는 본 발명의 일 실시예에 따른 스트레스 레벨을 산출하는 방법을 나타낸다.4 shows a method for calculating a stress level according to an embodiment of the present invention.

도 4에서 보면, 추출된 각각의 특징데이터를 이용하여 피부전도도(EDA) 데이터에 대응하는 제1 스트레스 레벨(EDA_Stress_Score), 심박수변이도(HRV, heat rate variability) 데이터에 대응하는 제2 스트레스 레벨(HRV_Stress_Score) 및 피부 온도(SKT) 데이터에 대응하는 제3 스트레스 레벨(SKT_Stress_Score)을 산출하고, 생체신호별 가중치(w1, w2, w3)를 적용하여 종합 스트레스 레벨(Stress_Score)을 산출한다. 이때, 심박수변이도(HRV)는 PPG 측정 데이터에 의해 검출되는 심박피크 및 심박시간격 등을 포함한다.4, a first stress level (EDA_Stress_Score) corresponding to skin conductivity (EDA) data, a second stress level (HRV_Stress_Score) corresponding to HRV (heat rate variability) data ) And a third stress level (SKT_Stress_Score) corresponding to the skin temperature (SKT) data, and calculates a total stress level (Stress_Score) by applying weights w 1 , w 2 and w 3 for each of the biological signals. At this time, the heart rate variability (HRV) includes the heart rate peak and the heart rate interval detected by the PPG measurement data.

본 발명의 실시예에 따른 감성 검출 방법은 감성 검출 장치에 기본적으로 설치되거나 사용자에 의해 직접 설치된 프로그램으로 구현되어 컴퓨터에 의해 읽힐 수 있는 기록매체에 기록될 수 있다. 여기서, 컴퓨터는 데스크탑, 노트북, 스마트폰, 태블릿 PC, PDA(개인정보 단말기) 및 이동통신장치를 포함할 수 있다. 또한, 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크 및 광 미디어 저장장치 등을 포함할 수 있다.The emotion detection method according to an embodiment of the present invention may be recorded in a recording medium that is basically installed in the emotion detection apparatus or implemented by a program directly installed by a user and can be read by a computer. Here, the computer may include a desktop, a notebook, a smart phone, a tablet PC, a personal digital assistant (PDA), and a mobile communication device. The recording medium may also include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical media storage, and the like.

본 발명의 실시예에 따르면 사용자의 생체신호에 대응하는 감성모델을 학습하여 저장하고 이를 이용하여 사용자의 감성을 검출하여 감성 검출 결과의 정확도 및 사용자의 만족도를 향상시킬 수 있다. 또한, 사용자의 감성 검출 결과에 대응하는 알람, 컨텐츠, 또는 헬스테인먼트(healthtainment) 기반의 서비스를 제공할 수 있다.According to the embodiment of the present invention, the emotion model corresponding to the user's bio signal can be learned and stored, and the sensibility of the user can be detected using the sensed model, thereby improving the accuracy of the emotion detection result and the satisfaction of the user. Further, it is possible to provide an alarm, a content, or a service based on a health satisfaction corresponding to a user's sensibility detection result.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였으나, 본 발명의 권리범위가 이에 한정되는 것은 아니며 본 발명이 속하는 분야에서 통상의 지식을 가진 자가 여러 가지로 변형 및 개량한 형태 또한 본 발명의 권리범위에 속한다.While the present invention has been particularly shown and described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It belongs to the scope.

100 : 감성 검출 장치
110 : 생체정보 수신부
120 : 감성 학습부
121 : 자극 제공부
122 : 감성모델 생성부
130 : 감성모델 데이터베이스
140 : 감성 검출부
150 : 감성 출력부
200 : 사용자 단말
210 : 입출력부
220 : EDA 수집부
230 : PPG 수집부
240 : SKT 수집부
250 : 생체정보 전송부
100: Emotion detection device
110: Biometric information receiver
120: Sensibility learning section
121: stimulant study
122: Emotion model generation unit
130: Emotion model database
140: Emotion detection unit
150: Emotion output unit
200: user terminal
210: Input /
220: EDA collector
230: PPG collecting unit
240: SKT collecting section
250: Biometric information transmission unit

Claims (7)

사용자에게 자극정보를 제공하는 자극 제공부,
상기 사용자의 단말로부터 전송되는 생체정보를 수신하는 생체정보 수신부,
상기 자극정보에 대응하여 상기 사용자의 단말로부터 전송되는 생체정보를 학습하여 인공신경망 모델을 생성하는 감성모델 생성부,
생성된 상기 인공신경망 모델을 저장하는 감성모델 데이터베이스, 그리고
수신된 상기 생체정보의 특징점을 추출하고, 저장되어 있는 상기 인공신경망 모델을 이용하여 추출된 상기 특징점을 분류하여 상기 사용자의 감성을 검출하는 감성 검출부
를 포함하는 감성 검출 장치.
A stimulant for providing stimulus information to the user,
A biometric information receiving unit for receiving biometric information transmitted from the user terminal,
An emotion model generation unit that learns biometric information transmitted from the user terminal in response to the stimulation information and generates an artificial neural network model,
An emotion model database storing the generated artificial neural network model, and
Extracting feature points of the received biometric information, classifying the extracted feature points using the stored neural network model, and detecting the emotion of the user,
And the emotion detecting device.
제1항에서,
상기 생체정보 수신부는 상기 사용자의 피부전도도(EDA), 맥파(PPG), 또는 피부 온도(SKT) 중 적어도 하나의 데이터를 수신하는 감성 검출 장치.
The method of claim 1,
Wherein the biometric information receiving unit receives at least one of data of the user's EDA, PPG, or skin temperature (SKT).
제1항에서,
상기 감성 검출부는 상기 사용자의 스트레스 지수, 피로도 지수, 또는 감정상태 중 적어도 하나를 검출하는 감성 검출 장치.
The method of claim 1,
Wherein the emotion detecting unit detects at least one of the stress index, fatigue index, or emotion state of the user.
제1항에서,
상기 사용자의 단말은 스트레처블(stretchable) 스마트 밴드인 감성 검출 장치.
The method of claim 1,
Wherein the terminal of the user is a stretchable smart band.
감성 검출 장치를 통해 감성 검출 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체에 있어서,
사용자에게 자극정보를 제공하는 기능,
상기 사용자의 생체정보를 수신하는 기능,
상기 자극정보에 대응하는 생체정보를 학습하여 상기 사용자의 인공신경망 모델을 생성하는 기능,
생성된 상기 사용자의 인공신경망 모델을 저장하는 기능, 그리고
수신된 상기 생체정보의 특징점을 추출하고, 상기 사용자의 인공신경망 모델을 이용하여 추출된 상기 특징점을 분류하여 상기 사용자의 감성을 검출하는 기능
을 포함하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체.
A computer-readable recording medium storing a program for executing an emotion detection method through an emotion detecting apparatus,
A function of providing stimulus information to the user,
A function of receiving biometric information of the user,
A function of generating an artificial neural network model of the user by learning biometric information corresponding to the stimulation information,
A function of storing the generated artificial neural network model of the user, and
Extracting feature points of the received biometric information, classifying the extracted feature points using the user's neural network model, and detecting the emotion of the user
Readable recording medium having recorded thereon a program.
제5항에서,
상기 생체정보는 피부전도도(EDA), 맥파(PPG) 및 피부 온도(SKT)를 포함하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체.
The method of claim 5,
Wherein the bio-information includes a skin conductivity (EDA), a pulse wave (PPG), and a skin temperature (SKT).
제6항에서,
상기 사용자의 감성을 검출하는 기능은,
상기 피부전도도(EDA)에 대응하는 제1 인공신경망 모델을 이용하여 제1 스트레스 지수를 산출하고 상기 맥파(PPG)에 대응하는 제2 인공신경망 모델을 이용하여 제2 스트레스 지수를 산출하고 상기 피부 온도(SKT)에 대응하는 제3 인공신경망 모델을 이용하여 제3 스트레스 지수를 산출하는 기능, 그리고
상기 제1 스트레스 지수, 상기 제2 스트레스 지수 및 제3 스트레스 지수에 가중치를 적용하여 상기 사용자의 종합 스트레스 지수를 산출하는 기능
을 포함하는 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체.
The method of claim 6,
The function of detecting the emotion of the user includes:
Calculating a first stress index using a first artificial neural network model corresponding to the skin conductivity (EDA), calculating a second stress index using a second artificial neural network model corresponding to the pulse wave (PPG) A function of calculating the third stress index using the third artificial neural network model corresponding to the SKT, and
Calculating a total stress index of the user by applying a weight to the first stress index, the second stress index and the third stress index;
Readable recording medium having recorded thereon a program.
KR1020170053626A 2017-04-26 2017-04-26 Apparatus and computer readable recorder medium stored program for recognizing emotion using biometric data KR102015097B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170053626A KR102015097B1 (en) 2017-04-26 2017-04-26 Apparatus and computer readable recorder medium stored program for recognizing emotion using biometric data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170053626A KR102015097B1 (en) 2017-04-26 2017-04-26 Apparatus and computer readable recorder medium stored program for recognizing emotion using biometric data

Publications (2)

Publication Number Publication Date
KR20180119913A true KR20180119913A (en) 2018-11-05
KR102015097B1 KR102015097B1 (en) 2019-10-21

Family

ID=64329234

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170053626A KR102015097B1 (en) 2017-04-26 2017-04-26 Apparatus and computer readable recorder medium stored program for recognizing emotion using biometric data

Country Status (1)

Country Link
KR (1) KR102015097B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200071807A (en) * 2018-11-30 2020-06-22 인하대학교 산학협력단 Human emotion state recognition method and system using fusion of image and eeg signals
WO2020175759A1 (en) * 2019-02-25 2020-09-03 주식회사 룩시드랩스 System and method for analyzing stress of user and managing individual mental health, using hmd device having biosignal sensors mounted therein
CN112043252A (en) * 2020-10-10 2020-12-08 山东大学 Emotion recognition system and method based on respiratory component in pulse signal
KR20220144983A (en) * 2021-04-21 2022-10-28 조선대학교산학협력단 Emotion recognition system using image and electrocardiogram

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102300194B1 (en) * 2020-12-24 2021-09-10 주식회사 후원 Method and device for neuro/biofeedback serious game to reduce mental stress based on biomedcal signals

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101284561B1 (en) * 2011-02-14 2013-07-11 충남대학교산학협력단 System and method for multi-modality emotion recognition and recording medium thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101284561B1 (en) * 2011-02-14 2013-07-11 충남대학교산학협력단 System and method for multi-modality emotion recognition and recording medium thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200071807A (en) * 2018-11-30 2020-06-22 인하대학교 산학협력단 Human emotion state recognition method and system using fusion of image and eeg signals
WO2020175759A1 (en) * 2019-02-25 2020-09-03 주식회사 룩시드랩스 System and method for analyzing stress of user and managing individual mental health, using hmd device having biosignal sensors mounted therein
CN112043252A (en) * 2020-10-10 2020-12-08 山东大学 Emotion recognition system and method based on respiratory component in pulse signal
CN112043252B (en) * 2020-10-10 2021-09-28 山东大学 Emotion recognition system and method based on respiratory component in pulse signal
KR20220144983A (en) * 2021-04-21 2022-10-28 조선대학교산학협력단 Emotion recognition system using image and electrocardiogram

Also Published As

Publication number Publication date
KR102015097B1 (en) 2019-10-21

Similar Documents

Publication Publication Date Title
KR20180119913A (en) Apparatus and computer readable recorder medium stored program for recognizing emotion using biometric data
JP5322179B2 (en) KANSEI evaluation device, KANSEI evaluation method, and KANSEI evaluation program
CN108888277B (en) Psychological test method, psychological test system and terminal equipment
JP2004130142A (en) Mobile apparatus having health management functions based on biomedical signal, and health management method using the same
US20190261863A1 (en) System and method for providing an indication of the well-being of an individual
EP3238611B1 (en) A method and device for estimating a condition of a person
CN109949438B (en) Abnormal driving monitoring model establishing method and device and storage medium
Park et al. Individual emotion classification between happiness and sadness by analyzing photoplethysmography and skin temperature
JPWO2011158965A1 (en) KANSEI evaluation system, KANSEI evaluation method, and program
CN112057066A (en) Heart rate detection method, wearable device and computer storage medium
US20200303058A1 (en) Lifestyle habit management device, method, and non-transitory recording medium in which program is stored
KR20210067827A (en) Operation method of stress management apparatus for the emotional worker
CN115089179A (en) Psychological emotion insights analysis method and system
KR20200080494A (en) Stress management apparatus for the emotional worker and operation method thereof
CN113764099A (en) Psychological state analysis method, device, equipment and medium based on artificial intelligence
KR101148164B1 (en) Method for estimating degree of subjective well-being based on language of user
KR20190080598A (en) System for recognizing emotion using biometric data and method thereof
KR102576126B1 (en) Apparatus and method for estimating bio-information
KR102243017B1 (en) Depression Index Estimation Method Using Skin Image
TW202133117A (en) Avatar facial expression generating system and method of avatar facial expression generation
KR20170123133A (en) System and method for recognizing emotion using biometric data
CN116548970A (en) State studying and judging method and device for deep-open sea operators
CN109820523A (en) Psychological tester control method, device and computer readable storage medium
KR102373496B1 (en) System and Method for Generating Depression Prediction Model based on Smart Band Biometric Information
CN115120236A (en) Emotion recognition method and device, wearable device and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant