KR101307248B1 - Apparatus and Method for Decision of Emotional state through analysis of Bio information - Google Patents

Apparatus and Method for Decision of Emotional state through analysis of Bio information Download PDF

Info

Publication number
KR101307248B1
KR101307248B1 KR1020100101844A KR20100101844A KR101307248B1 KR 101307248 B1 KR101307248 B1 KR 101307248B1 KR 1020100101844 A KR1020100101844 A KR 1020100101844A KR 20100101844 A KR20100101844 A KR 20100101844A KR 101307248 B1 KR101307248 B1 KR 101307248B1
Authority
KR
South Korea
Prior art keywords
user
emotional state
gsr
calculated
skt
Prior art date
Application number
KR1020100101844A
Other languages
Korean (ko)
Other versions
KR20120040429A (en
Inventor
김정환
최민준
Original Assignee
주식회사 라이프사이언스테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 라이프사이언스테크놀로지 filed Critical 주식회사 라이프사이언스테크놀로지
Priority to KR1020100101844A priority Critical patent/KR101307248B1/en
Publication of KR20120040429A publication Critical patent/KR20120040429A/en
Application granted granted Critical
Publication of KR101307248B1 publication Critical patent/KR101307248B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02438Detecting, measuring or recording pulse rate or heart rate with portable devices, e.g. worn by the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7239Details of waveform analysis using differentiation including higher order derivatives
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms

Abstract

본 발명은 사용자의 생체정보 분석을 통한 감정상태 분석장치 및 방법에 관한 것으로, 사용자의 신체로부터 수집한 맥파(PPG), 피부전기저항(GSR), 피부온도(SKT) 및 외부온도 등의 생체신호를 추출하고, 생체신호를 연산하여 사용자의 감정상태를 분석 및 판단하도록 하는데 그 목적이 있다.
본 발명의 목적은 사용자의 생체정보 분석을 통한 감정상태 분석장치는 사용자의 신체에 접촉되어 생체정보를 추출하는 맥파센서, 피부온도센서 및 피부전기저항센서를 포함한 바이오센서부; 바이오센서부로부터 추출된 각 생체정보를 디지털신호로 변환하는 아날로그/디지털변환부; 아날로그/디지털변환부를 통해 입력된 바이오센서부의 맥파(PPG), 피부온도(SKT), 피부전기저항(GSR)값을 입력받아 연산과정을 통해 분당평균심박수(HR)의 비(GSR/HR), 자율신경균형도(LF/HF) 파라미터를 산출하고, 산출된 각 파라미터(PPG, SKT, GSR/HR, LF/HF)로부터 해당 표준지표(TSKT, TSDNN, TLF/HF, TGSR/HR)를 산출하고, 산출된 표준지표 값에 의해 사용자의 감정상태를 판단하는 메인프로세서; 메인프로세서에 의해 판단된 감정상태를 저장하는 메모리; 및 메인프로세서에 의해 판단된 감정상태를 표시하는 LCD표시부;를 포함하여 구성된 것을 특징으로 한다.
The present invention relates to an apparatus and method for analyzing emotional state through analysis of user's biometric information. The present invention relates to biological signals such as pulse wave (PPG), skin electrical resistance (GSR), skin temperature (SKT), and external temperature collected from a user's body. The purpose is to extract and calculate the bio-signals to analyze and determine the emotional state of the user.
An object of the present invention is an apparatus for analyzing emotional state through analysis of biometric information of a user, comprising: a biosensor unit including a pulse wave sensor, a skin temperature sensor, and a skin electrical resistance sensor that are in contact with a user's body to extract biometric information; An analog / digital conversion unit for converting each biometric information extracted from the biosensor unit into a digital signal; The pulse wave ratio (PPG), skin temperature (SKT) and skin electrical resistance (GSR) values of the biosensor unit inputted through the analog / digital conversion unit are input, and the ratio of average heart rate (HR) per minute (GSR / HR), Calculate autonomic balance (LF / HF) parameters, and use the corresponding standard indicators (T SKT , T SDNN , T LF / HF , T GSR / ) from each calculated parameter (PPG, SKT, GSR / HR, LF / HF). HR ) and a main processor for determining the emotional state of the user based on the calculated standard indicator value; A memory for storing an emotional state determined by the main processor; And an LCD display for displaying the emotional state determined by the main processor.

Figure R1020100101844
Figure R1020100101844

Description

사용자의 생체정보 분석을 통한 감정상태 분석장치 및 방법 {Apparatus and Method for Decision of Emotional state through analysis of Bio information} Apparatus and Method for Decision of Emotional state through analysis of Bio information}

본 발명은 인간의 생체정보를 이용한 감정상태 분석 및 판단 시스템에 관한 것으로서, 특히 사용자로부터 생체신호를 수집하고, 수집된 생체신호에서 필요한 파라미터를 산출하고, 산출된 파라미터를 분석하여 사용자의 현재 감정상태를 판단하도록 하는 사용자의 생체정보 분석을 통한 감정상태 분석장치 및 방법에 관한 것이다.
The present invention relates to an emotional state analysis and determination system using human biometric information, and more particularly, to collect biological signals from a user, calculate necessary parameters from the collected biological signals, and analyze the calculated parameters. An apparatus and method for analyzing emotional state through analysis of biometric information of a user to determine a condition of the present invention.

로봇기술은 최근 기계, 전자, 정보, 생물, 의공학 등 다양한 분야에서 융합기술로 발전되고 있다. 이와 같은 융합기술이 축적된 로봇기술은 센서기술, 제어기술, 인공지능, 사용자 인터페이스, IT기술 등의 첨단기술들이 복합적으로 응용되어 제조업 등의 산업용 로봇뿐만 아니라, 청소, 심부름, 경비, 조리, 육아보조 등의 가사보조용 로봇, 교육, 오락, 완구, 게임, 정보지원 등의 여가지원로봇, 간병, 노약자/장애인 재활보조, 재활훈련, 원격의료지원 등의 생활지원용 서비스용 로봇으로 활성화되고 있다. Robot technology has recently been developed as a convergence technology in various fields such as mechanical, electronic, information, biological, and medical engineering. Robot technology that has accumulated such convergence technology is applied with cutting-edge technology such as sensor technology, control technology, artificial intelligence, user interface, IT technology, and cleaning, errand, security, cooking, and childcare as well as industrial robots in manufacturing industry. It is being activated as a home support service robot such as housekeeping aids such as assistants, leisure support robots such as education, entertainment, toys, games, and information support, caring, rehabilitation assistance for the elderly and the disabled, rehabilitation training, and remote medical support.

또한, 최근 IT기술과 의료정보기술의 발달로 이를 융합한 유비쿼터스 헬스케어(U-Healthcare) 서비스는 생활주변의 다양한 디바이스를 활용하므로, 병원에서의 단발성 또는 치료에 국한되는 것이 아니라, 가정이나 학교 등 시,공간의 제한 없이 실생활 중 언제, 어디서나 원격으로 환자의 모니터링이 가능하게 되었다.In addition, U-Healthcare service, which has been converged with the recent development of IT technology and medical information technology, utilizes various devices around the life, so it is not limited to one-off or treatment at the hospital, It is possible to monitor patients remotely anytime, anywhere in real life without limitation of time and space.

더 나아가, 로봇과 상호작용이 가능한 유비쿼터스 헬스케어와 로봇기술의 융합기술의 발달은 인간의 음성, 영상, 생체신호 또는 몸짓등의 정보를 이용하여 감성을 인식하고, 이에 대하여 로봇과 커뮤니케이션을 구현할 수 있도록 하는 로봇기반의 인간 감성교감 모듈의 개발이 진행되고 있다. Furthermore, the development of the convergence technology of ubiquitous healthcare and robot technology that can interact with robots can recognize emotions using information such as human voice, video, bio signals or gestures, and realize communication with robots. The development of a robot-based human emotional sympathy module is in progress.

종래기술로 인간의 감정인식을 인식하고, 이에 반응하는 로봇의 서비스 장치 및 방법은 국내특허공개 제10-2010-0001928호에 개시되어 있다.A service apparatus and method for a robot that recognizes and responds to human emotion recognition in the prior art are disclosed in Korean Patent Publication No. 10-2010-0001928.

도 1은 종래기술에 따른 감정인식에 기반한 서비스장치의 블록 구성도로서, 음성 및 영상 장치로부터 음성 및 영상 데이터를 입력받는 데이터 입력부(10)와, 입력받은 음성 및 영상 신호로부터 사용자의 감정을 인식하는 감정 인식부(20)와, 인식된 사용자의 감정에 기초하여 사용자에게 제공할 서비스를 결정하는 서비스 결정부(30)와, 결정된 서비스에 기초하여 사용자에게 서비스를 제공하도록 하는 출력부(40)로 구성된다.1 is a block diagram of a service apparatus based on emotion recognition according to the related art, and includes a data input unit 10 that receives voice and video data from a voice and video device, and recognizes a user's emotion from a received voice and video signal. An emotion recognition unit 20 to determine the service to be provided to the user based on the recognized user's emotion, and an output unit 40 to provide the service to the user based on the determined service. It consists of.

여기서, 데이터 입력부(10)는 음성 및 영상 장치로부터 음성 및 영상 데이터를 입력받는다. 데이터 입력부(110)는 마이크 또는 카메라와 같은 음성 및 영상 입력 장치로 구성된다.Here, the data input unit 10 receives audio and video data from the audio and video device. The data input unit 110 is composed of a voice and video input device such as a microphone or a camera.

상기 감정 인식부(20)는 입력받은 음성 및 영상 데이터로부터 사용자의 감정을 인식한다. 이를 위해 감정 인식부(20)는 음성 인식부(22), 표정 인식부(24) 및 감정 결정부(26)를 구비한다.The emotion recognition unit 20 recognizes a user's emotion from the received voice and image data. To this end, the emotion recognizer 20 includes a voice recognizer 22, an expression recognizer 24, and an emotion determiner 26.

상기 음성 인식부(22)는 음성 신호로부터 피치의 통계치, 크기예측법에 의해 구해진 소리의 크기, 섹션 개수, 교차율(crossing rate), 증가율(increasing rate) 등의 특징들을 추출한다. 음성 인식부(22)는 이러한 추출된 특징들을 인공 신경망 중 Backpropagation(BP)으로 학습하는 다중 계층 인식(Multi Layer Perception: MLP)을 사용하여 감정별 패턴을 분류한다. The speech recognition unit 22 extracts features such as pitch statistic, loudness, number of sections, crossing rate, increasing rate, etc. from the speech signal. The speech recognizer 22 classifies emotion-specific patterns using Multi Layer Perception (MLP), which learns these extracted features by Backpropagation (BP) of artificial neural networks.

상기 표정 인식부(24)는 입력된 얼굴 영상에 대해 피부톤 축적 알고리즘 등과 같은 영상처리를 수행하여 특징을 추출한다. 이 과정에서 배경 영상으로부터 움직이는 사용자의 얼굴 영역을 검출해야 하는데, 표정 인식부(24)는 촬영시점의 배경을 측정해 입력되는 영상과의 영상차이에 따라 검출된 배경 영상을 획득한 후 촬영 시점의 배경 영상에서 검출된 배경 영상을 빼줌으로써 새롭게 입력된 사용자의 영상만을 획득한다. 이때 입력되는 영상은 영상의 획득 시점의 외부 빛에 의해 입력 영상이 달라질 수 있다는 점에 주의하여야 한다. 이 문제는 영상을 촬영시 수 초 이내로 재촬영을 하여 연속적인 영상을 입력받아 배경 영상과 새로 획득한 영상의 촬영 시점을 거의 동일하게 함으로써 해결할 수 있다.The facial expression recognition unit 24 performs image processing such as a skin tone accumulation algorithm on the input face image to extract a feature. In this process, the face region of the user moving from the background image should be detected. The facial expression recognition unit 24 measures the background at the time of capturing and acquires the detected background image according to the image difference from the input image. By subtracting the detected background image from the background image, only the newly input user's image is obtained. In this case, it should be noted that the input image may be changed by external light at the time of obtaining the image. This problem can be solved by re-shooting the image within a few seconds when the image is taken and receiving a continuous image to make the background image and the newly acquired image almost the same.

상기 감정 결정부(26)는 음성 인식부(22) 및/또는 표정 인식부(24)에 의해 얻어진 인식 결과를 기초로 최종적인 사용자의 감정을 결정한다. 감정 결정에는 결정융합 방법이나 특징융합 방법 등이 활용되어 사용자의 최종 감정상태를 결정한다.The emotion determination unit 26 determines the final user's emotion based on the recognition result obtained by the voice recognition unit 22 and / or the facial expression recognition unit 24. In determining emotion, a decision fusion method or a feature fusion method is used to determine a user's final emotional state.

상기 서비스 결정부(30)는 인식된 사용자의 감정에 기초하여 사용자에게 제공할 서비스를 결정한다. 먼저 서비스 결정부(30)는 음성 및 영상 데이터에 기초하여 데이터베이스 내에 있는 특정인에 해당하는지 확인하는 서비스 제공 상대를 먼저 확인한다. The service determiner 30 determines a service to be provided to the user based on the recognized emotion of the user. First, the service determiner 30 first checks a service providing partner for confirming whether a person corresponds to a specific person in a database based on voice and video data.

만약 서비스 제공 상대가 데이터베이스 내에 있는 특정인에 해당 되면 서비스 결정부(30)는 제공할 서비스 종류를 결정한다. 이때 서비스 결정부(30)는 감정 인식부(20)가 분류한 각 감정에 따라 사용자에게 제공할 서비스를 판단한다. 이와 달리 서비스 제공 상대가 데이터베이스 내에 있는 특정인이 아니라면 서비스 결정부(30) 서비스를 제공하지 않는 것으로 결정한다.If the service providing partner corresponds to a specific person in the database, the service determination unit 30 determines the type of service to be provided. In this case, the service determination unit 30 determines a service to be provided to the user according to each emotion classified by the emotion recognition unit 20. In contrast, if the service providing partner is not a specific person in the database, the service determination unit 30 determines not to provide the service.

상기 출력부(40)는 결정된 서비스 종류에 기초하여 사용자에게 서비스를 제공한다. 예를 들어, 사용자의 감정이 슬픔일 때는 사용자에게 위로의 말이나 행동을 하고, 사용자의 감정이 기쁨일 때는 축하의 말이나 같이 기뻐해 주는 행동을 취하여 사용자에게 서비스를 제공한다. 즉 사용자의 감정 상태에 따라 출력부(40)는 사용자에게 다양한 서비스를 제공한다.The output unit 40 provides a service to a user based on the determined service type. For example, when the user's feelings are sad, the user speaks comforting words or actions, and when the user's feelings are joy, the user acts as a word of congratulations to make the user happy. That is, the output unit 40 provides various services to the user according to the emotional state of the user.

이와 같은 종래기술에 따른 감정인식에 기반한 서비스 장치에 의하면, 음성 및 영상 혹은 복합적인 데이터를 통하여 사용자의 감정을 인식하고, 이에 따라 서비스 로봇과 서비스 장치에 의하여 사용자의 감정에 대응하는 서비스 제공이 가능게 된다.
According to such a service apparatus based on emotion recognition according to the related art, it is possible to recognize a user's emotion through voice and video or complex data, and thereby provide a service corresponding to the user's emotion by the service robot and the service device. It becomes.

그러나, 종래기술에 따른 감정인식에 기반한 서비스 장치 및 방법은 사용자의 음성 및 얼굴 표정 정보만을 추출하여 감정을 인식 및 판단할 경우, 사용자의 음성특징 및 얼굴특징을 추출 및 학습한 데이터를 데이터베이스화하여 추출된 사용자의 얼굴 영상과 음성의 특징벡터를 통해 감정을 결정하는데, 이와 같은 얼굴 영상 및 음성은 마이크와 카메라를 통해 정보를 추출하므로, 주변 환경에 따라 노이즈에 민감하여 정확한 데이터를 추출하지 못하는 문제점이 있었다.However, the service apparatus and method based on emotion recognition according to the prior art extracts only the voice and facial expression information of the user and recognizes and judges the emotion, and extracts and learns the voice feature and facial feature of the user from a database. The emotion is determined through the extracted user's face image and voice feature vectors. Since the face image and voice extract information through microphones and cameras, it is sensitive to noise depending on the surrounding environment, and thus cannot extract accurate data. There was this.

따라서, 본 발명은 종래기술의 문제점을 개선하기 위하여 사용자의 신체로부터 수집한 맥파(Photo Plethysmogram, 이하 "PPG"라 약칭함), 피부전기저항(Galvanic Skin Resistance, 이하, "GSR"라 약칭함), 피부온도(Skin Temperature, 이하, "SKT"라 약칭함) 및 외부온도 등의 생체신호를 추출하고, 생체신호를 연산하여 사용자의 감정상태를 분석 및 판단하도록 하는 사용자의 생체정보 분석을 통한 감정상태 분석장치 및 방법을 제공하는데 그 목적이 있다.Therefore, the present invention is to collect the pulse wave (Photo Plethysmogram, abbreviated as "PPG"), skin electrical resistance (GSR) abbreviated as "GSR" collected from the user's body in order to improve the problems of the prior art Extraction of biosignals such as skin temperature (hereinafter abbreviated as "SKT") and external temperature, and calculating the biosignal to analyze and determine the emotional state of the user so as to analyze the biometric information of the user It is an object of the present invention to provide a condition analysis apparatus and method.

본 발명의 다른 목적은 사용자로부터 수집된 생체정보(PPG, GSR, SKT)로부터 자율신경균형도(이하, "LF/HF"이라 약칭함), PPG의 포락선 피크시간간격(이하, "RRI"라 약칭함)으로부터 산출된 표준편차(이하, "SDNN"이라 약칭함), GSR과 분당평균심박수(HR)의 비(이하, "GSR/HR"라 약칭)를 산출한 후, 각 산출된 값을 표준지표로 변환하여 감정판단 요소로 활용하므로 보다 정확히 사용자의 감정을 인식 및 판단하도록 하는데 그 목적이 있다.Another object of the present invention is an autonomic nerve balance (hereinafter abbreviated as "LF / HF") from the biometric information collected from the user (PPG, GSR, SKT), the envelope peak time interval of the PPG (hereinafter referred to as "RRI" After calculating the standard deviation (hereinafter abbreviated as "SDNN") calculated from the abbreviation) and the ratio of GSR and average heart rate per minute (hereinafter abbreviated as "GSR / HR"), each calculated value is calculated. The purpose is to recognize and judge users' emotions more accurately since it is converted into standard indicators and used as an emotion judgment element.

본 발명의 목적을 달성하기 위한 사용자의 생체정보 분석을 통한 감정상태 분석장치는 사용자의 신체에 접촉되어 생체정보를 추출하는 맥파센서, 피부온도센서 및 피부전기저항센서를 포함한 바이오센서부; 상기 바이오센서부로부터 추출된 각 생체정보를 디지털신호로 변환하는 아날로그/디지털변환부; 상기 아날로그/디지털변환부를 통해 입력된 바이오센서부의 맥파(PPG), 피부온도(SKT), 피부전기저항(GSR)값을 입력받아 연산과정을 통해 분당평균심박수(HR)의 비(GSR/HR), 자율신경균형도(LF/HF) 파라미터를 산출하고, 상기 산출된 각 파라미터(PPG, SKT, GSR/HR, LF/HF)로부터 해당 표준지표(TSKT, TSDNN, TLF/HF, TGSR/HR)를 산출하고, 산출된 표준지표 값에 의해 사용자의 감정상태를 판단하는 메인프로세서; 상기 메인프로세서에 의해 판단된 감정상태를 저장하는 메모리; 및 상기 메인프로세서에 의해 판단된 감정상태를 표시하는 LCD표시부;를 포함하여 이루어진 것을 특징으로 한다.
여기서, 상기 산출된 표준지표(TSKT, TSDNN, TLF/HF, TGSR/HR)에서 표준지표(TSKT, TSDNN,)값에 의해 사람의 긍정 또는 부정의 감정유형를 판단하고, 표준지표(TLF/HF, TGSR/HR)값에 의해 긴장 또는 이완의 각성정도를 판단하고, 상기 감정유형 및 각성정도에 따라 감정상태를 "활발, 편안, 불안, 나른"상태로 판별하는 것을 특징으로 한다.
Emotional state analysis device through the analysis of the user's biometric information to achieve the object of the present invention comprises a biosensor unit including a pulse wave sensor, a skin temperature sensor and a skin electrical resistance sensor to contact the user's body to extract the biometric information; An analog / digital conversion unit for converting each biometric information extracted from the biosensor unit into a digital signal; The pulse wave ratio (PPG), skin temperature (SKT) and skin electrical resistance (GSR) values of the biosensor unit input through the analog / digital conversion unit are input to calculate the ratio of average heart rate (HR) per minute (GSR / HR). And calculating autonomic balance (LF / HF) parameters, and from the calculated parameters (PPG, SKT, GSR / HR, LF / HF), the corresponding standard indicators (T SKT , T SDNN , T LF / HF , T). A main processor for calculating a GSR / HR and determining an emotional state of the user based on the calculated standard indicator value; A memory for storing an emotional state determined by the main processor; And an LCD display unit which displays the emotional state determined by the main processor.
Here, in the calculated standard indicators (T SKT , T SDNN , T LF / HF , T GSR / HR ), the emotion type of human positive or negative is determined based on the standard indicators (T SKT , T SDNN ,), and the standard Determining the arousal level of tension or relaxation based on the values of the indicators (T LF / HF , T GSR / HR ) and determining the emotional state as "active, relaxed, anxious, relaxed" according to the emotion type and arousal level. It features.

삭제delete

삭제delete

본 발명의 목적을 달성하기 위한 생체정보 분석을 통한 감정상태 분석과정은 맥파센서, 피부온도센서 및 피부전기저항센서를 포함한 바이오센서부에 의해 추출된 사용자의 생체정보(PPG, SKT, GSR)를 메인프로세서에서 입력받아 사용자의 감정분석과정을 통해 사용자의 현재 감정상태를 분석하는 방법에 있어서, 상기 바이오센서부를 통해 추출된 피부온도(SKT)와, 맥파(PPG)신호로부터 산출된 자율신경균형도(LF/HF)와, 맥파(PPG)의 피크시간간격(RRI)으로부터 산출된 표준편차(SDNN)와, 피부전기저항(GSR)과 분당평균심박수(HR)의 비(GSR/HR)를 연산과정을 통해 산출하는 파라미터획득과정; 상기 파라미터획득과정에서 산출된 각 파라미터(LF/HF, SDNN, GSR/HR, SKT)값을 표준지표(Ti, i= LF/HF, SDNN, GSR/HR, SKT)로 변환하는 표준화과정; 상기 각 표준지표(Ti)를 이용하여 감정상태 분석을 위한 좌표값(x,y)을 산출하는 좌표값산출과정; 상기 산출된 좌표값(x,y)과 분류된 감정상태 영역을 비교하여 상기 좌표값의 위치에 따라 사용자의 현재 감정상태를 판단하는 감정상태분석과정;을 포함하여 이루어지되, 상기 좌표값 x축은 감정유형(긍정 또는 부정), y축은 각성정도(긴장 또는 이완)인 것을 특징으로 한다.Emotional state analysis process through the analysis of biological information to achieve the object of the present invention is to extract the user's biometric information (PPG, SKT, GSR) extracted by the biosensor unit including the pulse wave sensor, skin temperature sensor and skin electrical resistance sensor In the method of analyzing the current emotional state of the user through the user's emotion analysis process received from the main processor, the autonomic nerve balance diagram calculated from the skin temperature (SKT) and the pulse wave (PPG) signal extracted through the biosensor Calculate standard deviation (SDNN) calculated from (LF / HF), peak time interval (RRI) of pulse wave (PPG), and ratio of skin electrical resistance (GSR) and average heart rate (HR) per minute (GSR / HR) A parameter acquisition process calculated through the process; A standardization process of converting each parameter (LF / HF, SDNN, GSR / HR, SKT) value calculated in the parameter acquisition process into standard indicators (T i , i = LF / HF, SDNN, GSR / HR, SKT); A coordinate value calculation process of calculating coordinate values (x, y) for analyzing an emotional state using the standard indicators (T i ); An emotional state analysis process of comparing the calculated coordinate values (x, y) with the classified emotional state regions to determine a current emotional state of the user according to the position of the coordinate values; Emotion type (positive or negative), y-axis is characterized by the degree of arousal (tension or relaxation).

여기서, 상기 파라미터획득과정은 상기 파라미터획득과정은 상기 측정된 맥파(PPG)의 고역,저역성분의 노이즈를 제거한 후 포락선을 산출하고, 상기 포락선으로부터 포락선의 각 피크 시간간격(RRI)을 검출하는 전처리단계; 상기 전처리단계에서 검출된 각 피크시간간격(RRI)에서 노이즈를 제거한 후 주파수계열분석(FFT)(PSD)을 통해 자율신경균형도(LF/HF)를 산출하는 주파수계열분석단계; 상기 주파수계열분석단계에서 산출된 피크시간간격(RRI)으로부터 표준편차(SDNN) 및 분당 평균 심박수(HR)를 산출하는 시계열분석단계; 및 상기 피부전기저항(GSR)과 상기 시계열분석단계에서 산출된 분당평균심박수(HR)의 비(GSR/HR)를 산출하는 GSR/HR산출단계;를 포함하여 이루어진 것을 특징으로 한다.Here, the parameter acquisition process is a pre-process for the parameter acquisition process to calculate the envelope after removing the high- and low-pass components of the measured pulse wave (PPG), and to detect each peak time interval (RRI) of the envelope from the envelope step; A frequency sequence analysis step of removing noise from each peak time interval (RRI) detected in the preprocessing step and then calculating autonomic nerve balance (LF / HF) through frequency sequence analysis (FFT) (PSD); A time series analysis step of calculating a standard deviation (SDNN) and an average heart rate (HR) from the peak time interval (RRI) calculated in the frequency series analysis step; And a GSR / HR calculation step of calculating a ratio (GSR / HR) of the skin electrical resistance (GSR) and the average heart rate per minute (HR) calculated in the time series analysis step.

또한, 상기 표준화과정은 상기 표준화과정은 상기 파라미터획득과정의 주파수계열분석단계에서 산출된 자율신경균형도(LF/HF)의 표준지표(TLF/HF)를 산출하는 1단계; 상기 파라미터획득과정의 시계열분석단계에서 산출된 표준편차(SDNN)의 표준지표(TSDNN)를 산출하는 2단계; 상기 파라미터획득과정의 GSR/HR산출단계에서 산출된 GSR/HR의 표준지표(TGSR/HR)를 산출하는 3단계; 및 상기 피부온도(SKT)의 표준지표(TSKT)를 산출하는 4단계;를 포함하여 이루어진 것을 특징으로 한다.In addition, the standardization process, the standardization process is a step of calculating the standard index (T LF / HF ) of the autonomic nerve balance (LF / HF) calculated in the frequency sequence analysis step of the parameter acquisition process; Calculating a standard index (T SDNN ) of the standard deviation (SDNN) calculated in the time series analysis step of the parameter acquisition process; Calculating a standard index (T GSR / HR ) of the GSR / HR calculated in the GSR / HR calculation step of the parameter acquisition process; And 4 steps of calculating the standard indicator (T SKT ) of the skin temperature (SKT).

또한, 상기 감정상태분석과정은 상기 산출된 좌표값(x,y)이 xref ≤ x < xmax, yref ≤ y < ymax이면, 사용자의 감정상태를 활발상태로 판단하고, 상기 산출된 좌표값(x,y)이 xref ≤ x < xmax , 0 < y < yref 이면, 사용자의 감정상태를 편안상태로 판단하고, 상기 산출된 좌표값(x,y)이 0 < x < xref, yref ≤ y < ymax이면, 사용자의 감정상태를 불안상태로 판단하고, 상기 산출된 좌표값(x,y)이 0 < x < xref, 0 < y < yref 이면, 사용자의 감정상태를 나른상태로 판단하되, 상기 감정상태 영역의 x, y축 영역의 기준좌표(xref, yref)는 각 파라미터의 평균(M)의 합(M+M)이고, 최대값(xmax, ymax)는 각 파라미터의 최대값의 합(2M+2M) 것을 특징으로 한다.
In addition, the emotional state analysis process, if the calculated coordinate value (x, y) is x ref ≤ x <x max , y ref ≤ y <y max , determine the emotional state of the user as the active state, the calculated If the coordinate value (x, y) is x ref ≤ x <x max , 0 <y <y ref , the user's emotional state is determined as a comfort state, and the calculated coordinate value (x, y) is 0 <x < If x ref , y ref ≤ y <y max , the user's emotional state is determined as anxiety state, and if the calculated coordinate value (x, y) is 0 <x <x ref , 0 <y <y ref , the user Determining the emotional state of the emotional state region, the reference coordinates (x ref , y ref ) of the x, y-axis region of the emotional state region is the sum (M + M) of the mean (M) of each parameter, the maximum value ( x max , y max ) is the sum of the maximum values of each parameter (2M + 2M).

본 발명에 따른 사용자의 감정상태 분석에 따른 감정반응 시스템 및 그 제어방법은 생체정보를 수집 및 연산과정을 통해 사용자의 활발, 편안, 불안, 나른 등의 감정상태를 판단한 후 이를 로봇으로 전송하여 로봇이 사용자의 감정상태에 맞는 음악을 재생하거나, 음악에 맞추어 춤을 추는 동작을 수행하도록 로봇을 제어하므로, 사용자와 로봇이 감정을 교감하는 느낌을 받을 수 있는 효과가 있다.Emotional reaction system and control method according to the analysis of the emotional state of the user according to the present invention by determining the emotional state of the user's activity, comfort, anxiety, carrying, etc. through the collection and operation of the biometric information and transmits it to the robot Since the robot is controlled to play music or dance to the music according to the emotional state of the user, there is an effect that the user and the robot can feel the feeling of sympathy.

또한, 본 발명은 사용자로부터 수집한 PPG, GSR, SKT 등의 생체신호를 이용하여 산출된 자율신경균형도(LF/HF), PPG의 RRI로부터 산출된 SDNN, GSR/HR, 및 SKT를 사용자의 감정상태를 인식 및 판단하는데 활용함으로, 사용자의 감정을 판단하는 정확도를 높일 수 있는 효과가 있다.In addition, the present invention is the autonomic neurological balance (LF / HF) calculated by using the biological signals such as PPG, GSR, SKT collected from the user, SDNN, GSR / HR, and SKT calculated from the RRI of the PPG user By using the emotion state to recognize and determine, there is an effect that can increase the accuracy of judging the emotion of the user.

또한, PPG정보 수집 중 사용자의 움직임으로 인해 발생된 노이즈를 제거해 줌으로 인해 보다 정확한 포락선을 검출할 수 있는 효과가 있다.In addition, since the noise generated by the user's movement during PPG information collection is removed, the envelope can be detected more accurately.

또한, 본 발명은 사용자로부터 수집한 PPG, GSR, SKT 등의 생체신호를 분석하여 설정된 위험수준의 값이 측정될 경우 이를 사용자에게 경보음 또는 진동모터를 이용하여 경보할 수 있는 효과가 있다.
In addition, the present invention has an effect that can be alerted to the user using an alarm sound or vibration motor when the value of the risk level is determined by analyzing the bio-signal, such as PPG, GSR, SKT collected from the user.

도 1은 종래기술에 따른 감정인식에 기반한 서비스장치의 블록 구성도이고,
도 2는 본 발명의 실시예에 따른 사용자의 생체정보 분석을 통한 감정상태 분석장치의 블록구성도이고,
도 3a, 3b는 본 발명의 실시예에 따른 사용자의 생체정보 분석을 통한 감정상태 분석과정의 흐름도이고,
도 4는 본 발명을 구현하기 위한 감정상태 분석 및 판단을 위한 각성 및 감정유형에 따른 그래프이고,
도 5는 본 발명의 실시예에 따른 좌표값에 따라 감정상태를 영역별로 분류하는 감정분류 그래프 표시도이다.
1 is a block diagram of a service apparatus based on emotion recognition according to the prior art,
2 is a block diagram of an apparatus for analyzing emotional state through analysis of biometric information of a user according to an embodiment of the present invention;
3A and 3B are flowcharts illustrating an emotional state analysis process through analyzing biometric information of a user according to an embodiment of the present invention.
4 is a graph according to arousal and emotion types for analyzing and determining an emotional state for implementing the present invention,
FIG. 5 is a diagram illustrating an emotion classification graph classifying emotional states into regions according to coordinate values according to an exemplary embodiment of the present invention. FIG.

본 발명의 실시예에 따른 사용자의 생체정보 분석을 통한 감정상태 분석장치 및 방법을 구체적인 구성 및 작용에 대하여 첨부된 도면을 참고하여 보다 상세히 설명하면 다음과 같다.The apparatus and method for analyzing emotional state through analysis of user's biometric information according to an embodiment of the present invention will be described in more detail with reference to the accompanying drawings.

도 2는 본 발명의 실시예에 따른 사용자의 생체정보 분석을 통한 감정상태 판단 및 그에 따른 로봇의 반응시스템의 블록 구성도로서, 사용자의 신체 일부에 착용하여 무구속상태에서 생체정보를 수집 및 연산하여 사용자의 감정상태를 분석 및 판단하는 감정분석장치(100)와, 상기 감정분석장치(100)로부터 전송된 감정상태정보에 따라 설정된 동작을 수행하도록 하는 감정반응장치(200)로 크게 구성된다.Figure 2 is a block diagram of the emotional state determination and analysis of the reaction system of the robot according to the analysis of the user's biometric information according to an embodiment of the present invention, wearing and calculating the biometric information in the unrestrained state worn on the body part of the user Emotion analysis device 100 for analyzing and determining the emotional state of the user, and emotional response device 200 to perform a set operation according to the emotional state information transmitted from the emotion analysis device 100.

여기서, 상기 감정분석장치(100)는 사용자의 광용적 맥파(PPG)를 측정하도록 적외선 발광부와 수광부로 구성된 맥파센서(111), 피부전기전도도(GSR)를 측정하여 전압값으로 표시하는 피부전기저항센서(112) 및 피부온도(SKT)를 측정하여 온도값으로 표시하는 피부온도센서(113)로 구성된 바이오센서부와, 초소형 MEMS형 3축 가속도계로 구성되어 사용자의 움직임 변화량을 측정하는 악셀러로미터(Accelerometer)(114)와, 상기 각 센서(111~114)로부터 측정된 아날로그 생체정보를 디지털신호로 변환하는 A/D변환부(120)와, 상기 A/D변환부(120)를 통해 입력된 생체정보를 연산하여 사용자의 감정상태를 판단하고, 감정상태정보를 상기 감정반응장치(200)로 전송하는 메인프로세서(130)와, 상기 메인프로세서(130)에 의한 입력 데이터 및 연산결과 등 처리 데이터를 저장하는 메모리(141)와, 상기 메인프로세서(130)에서 입출력 정보를 스위칭부(144)의 조작에 의해 화면 출력하는 LCD표시부(142)와, 상기 메인프로세서(130)의 제어에 의하여 감정분석장치(100)의 통신상태 또는 전원상태를 표시하는 LED표시부(143)와, 상기 측정된 PPG신호가 설정된 기준값 이상일 경우 상기 메인프로세서(130)에 의해 사용자가 응급상황임을 판단하고 경보음 또는 진동을 발생하여 사용자에게 자각하도록 하는 부저(151) 및 진동모터(152)와, 상기 메인프로세서(130)에 의해 판단된 사용자의 감정상태를 상기 감정반응장치(200)로 무선전송하는 지그비(Zigbee)송신부(153)와, 상기 각 부에 전원을 공급하기 위한 전원부(101)로 구성된다.Here, the emotion analysis apparatus 100 measures the pulse wave sensor 111 composed of an infrared light emitting unit and a light receiving unit, skin electroconductivity (GSR) to measure a user's optical volume pulse wave (PPG), and displays the voltage as a voltage value. Acceler to measure the user's movement change is composed of a biosensor unit consisting of a resistance sensor 112 and the skin temperature sensor 113 to measure the skin temperature (SKT) to display the temperature value, and a micro MEMS 3-axis accelerometer An accelerometer 114, an A / D converter 120 for converting analog biometric information measured from the sensors 111 to 114 into a digital signal, and the A / D converter 120 The main processor 130 for determining the emotional state of the user by calculating the bio-information input through the user, and transmits the emotional state information to the emotion reaction apparatus 200, the input data and the calculation result by the main processor 130 Memo to store processing data 141, an LCD display unit 142 for outputting the input / output information in the main processor 130 by the operation of the switching unit 144, and the emotion analysis apparatus 100 under the control of the main processor 130. LED display unit 143 indicating the communication state or power state of the, and when the measured PPG signal is more than the set reference value by the main processor 130 determines that the user is an emergency and generates an alarm sound or vibration to the user The buzzer 151 and the vibration motor 152 to be aware, and the Zigbee transmitter 153 for wirelessly transmitting the emotional state of the user determined by the main processor 130 to the emotion reaction device 200; And a power supply unit 101 for supplying power to the respective units.

상기 감정반응장치(200)는 상기 감정분석장치(100)의 지그비송신부(153)을 통해 전송된 사용자 감정상태 정보를 수신하는 지그비수신부(201)와, 상기 지그비수신부(201)로부터 입력된 사용자의 감정상태에 따라 설정된 감정반응을 구동하는 감정반응제어부(210)와, 상기 감정반응제어부(210)의 제어에 의하여 설정된 음악을 음원데이터베이스(224)에서 추출하여 스피커를 통해 재생하는 음악재생부(223)로 구성되며, 상기 감정반응장치(200)가 로봇일 경우에는 로봇의 동작을 제어하기 위한 동작구동부(221) 및 동작데이터베이스(222)를 더 포함한다.The emotion reaction apparatus 200 includes a Zigbee receiver 201 that receives user emotion state information transmitted through the Zigbee transmitter 153 of the emotion analysis apparatus 100, and a user input from the Zigbee receiver 201. Emotion response controller 210 for driving the emotional response set according to the emotional state, and music playback unit 223 for extracting the music set by the control of the emotional response controller 210 from the sound source database 224 to play through the speaker When the emotional reaction device 200 is a robot, the control unit further includes an operation driver 221 and an operation database 222 for controlling the operation of the robot.

이와 같이 구성된 본 발명의 작용을 첨부된 도 2 내지 5를 참조하여 보다 상세히 설명하면 다음과 같다.Referring to the operation of the present invention configured as described above in more detail with reference to Figures 2 to 5 as follows.

도 2는 본 발명의 실시예에 따른 감정분석장치와 감정반응장치의 상세블록 구성도이다.2 is a detailed block diagram of an emotion analysis device and an emotion reaction device according to an embodiment of the present invention.

먼저, 감정분석장치(100)는 사용자의 신체 일부에 착용가능하도록 하며, 본 발명에서는 손목에 착용가능하도록 시계타입으로 구성하며, 손목으로부터 맥파신호(PPG), 피부전기전도도(GSR), 피부온도(SKT) 및 움직임 변화량을 측정하고, 측정된 각 센서값을 입력받아 분석한 결과에 따라 사용자의 현재 감정상태를 활발, 편안, 나른, 불안상태로 분류 및 판단하여 상기 감정반응장치(200)로 무선 전송한다.First, the emotion analysis device 100 is to be worn on the user's body part, in the present invention is configured as a watch type to be worn on the wrist, pulse wave signal (PPG), skin electrical conductivity (GSR), skin temperature from the wrist (SKT) and the amount of change in movement, and according to the results of the analysis of the received sensor values, classify and determine the current emotional state of the user as active, relaxed, relaxed, anxiety state to the emotion reaction apparatus 200 Wireless transmission.

상기 맥파센서(111)는 사용자의 손목에 위치한 요골동맥에 적외선을 조사하고, 반사된 적외선에 의해 BVP(Blood Volume Plus) 변화량인 맥파신호(PPG)를 검출하여 메인프로세서(130)로 출력하게 된다.The pulse wave sensor 111 irradiates infrared rays to the radial artery located on the user's wrist, detects the pulse wave signal PPG which is a change amount of the BVP (Blood Volume Plus) by the reflected infrared rays, and outputs the pulse wave signal PPG to the main processor 130. .

상기 메인프로세서(130)에서 (PPG)부터 정확한 RRI를 추출하기 위해서는 사용자의 움직임에 따라 변동된 값을 보정해 주어야 하는데, 이를 위해 초소형 MEMS형 3축 가속도센서로 이루어진 악셀러로미터(114)에 의해 사용자의 움직임 변화량을 측정하고, 상기 메인프로세서(130)에서 움직임으로 인해 변동된 맥파신호(PPG)를 보정시켜 줌으로 보다 정확한 맥파신호를 추출할 수 있게 된다. In order to extract the correct RRI from the main processor 130 (PPG), the value changed according to the user's movement must be corrected. For this purpose, the accelerometer 114 composed of an ultra-small MEMS type 3-axis acceleration sensor is provided. By measuring the amount of change in the user's motion, and by correcting the pulse wave signal (PPG) changed due to the movement in the main processor 130 it is possible to extract a more accurate pulse wave signal.

상기 피부전기저항센서(112)는 손목에 접촉된 전극에 인가된 전원에 의해 측정된 전압값에 따라 피부의 전기전도도(GSR)를 측정하며, 측정된 값은 일정 레벨로 증폭한 전압(Voltage)값으로 표시된다.The skin electrical resistance sensor 112 measures the electrical conductivity (GSR) of the skin according to the voltage value measured by the power applied to the electrode in contact with the wrist, and the measured value is amplified to a predetermined level (Voltage) It is represented by a value.

상기 피부온도센서(113)는 손목에 접촉된 부위의 피부온도를 측정하며, 피부온도 측정값은 아날로그 온도값(℃)으로 표시된다.The skin temperature sensor 113 measures the skin temperature of the area in contact with the wrist, the skin temperature measurement value is displayed as an analog temperature value (° C).

상기 A/D변환부(120)는 상기 각 센서(111~114)로부터 측정된 아날로그값을 디지털신호로 변환하여 상기 메인프로세서(130)로 전송된다.The A / D converter 120 converts the analog values measured by the sensors 111 to 114 into digital signals and transmits them to the main processor 130.

상기 메인프로세서(130)는 입력된 각 센서값들을 메모리(141)에 저장하고, 감정상태 분석 및 판단 알고리즘에 따라 연산과정을 통해 사용자의 현재 감정상태를 설정된 4가지 감정상태(활발, 나른, 불안 또는 편안) 중 하나의 상태로 판단한다.The main processor 130 stores the input sensor values in the memory 141 and sets the four emotional states (active, relaxing, anxiety) of the user's current emotional state through a calculation process according to the emotional state analysis and determination algorithm. Or comfort).

한편, 메인프로세서(130)는 상기 맥파센서(111)로부터 획득된 PPG가 설정된 위험기준 설정값 이상일 경우 상기 부저(151) 또는 진동모터(152)를 구동시켜 경보음 또는 진동모드로 사용자가 자각하도록 경보함과 아울러, 상기 LCD표시부(142)를 통해 그 정상맥박 및 현재 맥박을 수치 또는 그래프를 표시해주어 그 위험정도를 알리도록 한다.On the other hand, the main processor 130 drives the buzzer 151 or the vibration motor 152 when the PPG obtained from the pulse wave sensor 111 is equal to or greater than the set threshold value, so that the user is aware of the alarm sound or vibration mode. In addition to the alarm box, the LCD display unit 142 displays the normal pulse and the current pulse value or graph to inform the degree of danger.

상기 LED표시부(143)는 상기 감정반응장치(200)와의 통신상태를 표시하고, 배터리 또는 전원상태를 확인할 수 있도록 각 2색발광 LED로 구성한다. The LED display unit 143 displays a communication state with the emotion reaction device 200, and is configured with each of two color light emitting LEDs to check the battery or power state.

상기 LCD표시부(142)는 상기 각 센서(111~114)를 통해 입력된 센서값 또는 산출된 사용자의 감정상태 등을 표시한다. The LCD display unit 142 displays the sensor value input through the sensors 111 to 114 or the calculated emotional state of the user.

상기 지그비송신부(153)는 상기 메인프로세서(130)에서 판단된 사용자의 감정상태 정보를 지그비 무선통신방식으로 상기 감정반응장치(200)로 전송한다.The Zigbee transmitter 153 transmits the emotion state information of the user determined by the main processor 130 to the emotion reaction apparatus 200 in a Zigbee wireless communication method.

상기 감정반응장치(200)는 지그비수신부(201)을 통해 상기 감정분석장치(100)로부터의 사용자 감정상태 정보를 수신하고, 감정반응제어부(210)로 전달한다.The emotion reaction apparatus 200 receives the user emotion state information from the emotion analysis apparatus 100 through the ZigBee receiving unit 201 and transmits it to the emotion reaction control unit 210.

상기 감정반응제어부(210)는 사용자의 감정상태에 따라 설정된 동작을 수행하도록 한다. 즉, 사용자의 감정상태가 활발, 편안, 불안 또는 나른상태 인지 여부에 따라 어떤 음악을 재생할 것인지를 판단하고, 상기 음악재생부(223)를 구동시킴으로, 상기 음악재생부(223)는 감정상태에 따라 음원데이터가 분류 저장된 음ㅇ원(224)로부터 설정된 음악을 추출하여 스피커를 통해 재생한다. The emotional response control unit 210 performs an operation set according to the emotional state of the user. That is, by determining whether music is to be played according to whether the emotional state of the user is active, relaxed, anxious or relaxing, and driving the music player 223, the music player 223 is in an emotional state. Accordingly, the set music is extracted from the stored sound source 224 and the sound source data is classified and reproduced through the speaker.

한편, 상기 감정반응장치(200)가 로봇에 탑재되어 있을 경우에는 상기 감정분석장치(100)로부터 활발상태 사용자 감정이 전송되면, 상기 음악재생과 더불어 로봇의 동작구동부(221)을 구동시켜 로봇으로 하여금 춤추는 동작을 수행하게 함으로, 사용자가 활발한 기분을 유지하도록 한다.
On the other hand, when the emotion reaction device 200 is mounted on the robot, when active user emotion is transmitted from the emotion analysis device 100, the robot moves and drives the operation driver 221 of the robot together with the music reproduction. By allowing the user to perform a dance movement, the user can be kept active.

도 3a, 3b는 본 발명의 실시예에 따른 로봇을 통한 사용자의 감정반응을 위한 감정상태 분석과정의 상세 흐름도로서, 맥파센서, 피부온도센서 및 피부전기저항센서를 장착한 감정분석장치를 통해 추출된 사용자의 생체정보(PPG, SKT, GSR)를 입력받아 메인프로세서에서 분석하여 사용자의 감정상태를 분석하는 감정분석과정과, 상기 감정분석과정에서 산출된 사용자의 감정상태에 따라 설정된 동작을 수행하는 감정반응과정으로 이루어진다.3A and 3B are detailed flowcharts of an emotional state analysis process for an emotional reaction of a user through a robot according to an embodiment of the present invention, and are extracted through an emotion analysis device equipped with a pulse wave sensor, a skin temperature sensor, and a skin electrical resistance sensor. An emotion analysis process of receiving the user's biometric information (PPG, SKT, GSR) from the main processor and analyzing the emotion state of the user, and performing a set operation according to the emotion state of the user calculated in the emotion analysis process It is an emotional reaction process.

상기 감정분석과정은 상기 각 센서를 통해 측정된 PPG, GSR, SKT, 움직임측정 신호를 획득하는 과정(S101)과, 상기 각 획득된 PPG로부터 산출된 자율신경균형도(LF/HF)와, PPG의 RRI로부터 산출된 표준편차(SDNN)와, GSR과 HR의 비(GSR/HR)와, SKT 데이터를 획득하는 파라미터획득과정(S111~S119)과, 상기 파라미터획득과정(S111~S119)에서 획득된 각 파라미터(LF/HF, SDNN, GSR/HR, SKT)값을 표준지표(Ti)로 변환하는 표준화과정(S121)과, 상기 각 표준지표(Ti)를 이용하여 감정상태 분석을 위한 좌표값(x,y)을 산출하는 좌표값산출과정(S123)과, 상기 산출된 좌표값(x,y)과 분류된 감정상태 영역을 비교하여 상기 좌표값의 위치에 따라 사용자의 현재 감정상태를 판단하는 감정상태판단과정(S130)으로 이루어진다.The emotion analysis process is a process of obtaining PPG, GSR, SKT, motion measurement signal measured by each sensor (S101), autonomic nerve balance (LF / HF) calculated from each of the obtained PPG, PPG The standard deviation (SDNN) calculated from the RRI of RRI, the ratio of GSR and HR (GSR / HR), the parameter acquisition process (S111-S119) for acquiring SKT data, and the parameter acquisition process (S111-S119). Standardization process (S121) for converting the values of each parameter (LF / HF, SDNN, GSR / HR, SKT) into standard indicators (T i ), and for each emotional state analysis using the standard indicators (T i ) Comparing the coordinate value calculation process (S123) for calculating a coordinate value (x, y) with the calculated coordinate value (x, y) and the classified emotional state region, the current emotional state of the user according to the position of the coordinate value Determination is made of the emotional state determination process (S130).

상기 감정반응과정은 상기 감정상태판단과정(S130)에서 판단된 사용자의 감정상태를 전송받은 감정반응장치에 의해 상기 감정상태에 따라 분류된 음악을 음원데이터베이스에서 추출하여 재생하는 과정으로 이루어진다.The emotional reaction process is a process of extracting and playing music classified according to the emotional state by the emotional reaction device receiving the emotional state of the user determined in the emotional state determination process (S130) from a sound source database.

상기 파라미터획득과정(S111~S119)은 상기 측정된 맥파(PPG)의 고역,저역성분의 노이즈를 제거한 후 포락선을 산출하고, 상기 포락선으로부터 포락선의 각 피크의 시간간격(RRI)을 검출하는 전처리단계(S111)(S113)와, 상기 전처리단계(S111)(S113)에서 검출된 각 피크시간간격(RRI)에서 노이즈를 제거한 후 주파수계열분석(FFT)(PSD)을 통해 자율신경균형도(LF/HF)를 산출하는 주파수계열분석단계(S115)와, 상기 주파수계열분석단계(S115)에서 산출된 피크시간간격(RRI)으로부터 표준편차(SDNN) 및 분당 평균 심박수(HR)를 산출하는 시계열분석단계(S117)와, 상기 피부전기저항(GSR)과 상기 시계열분석단계에서 산출된 분당평균심박수(HR)의 비(GSR/HR)를 산출하는 GSR/HR산출단계(S119)로 이루어진다.The parameter acquisition process (S111 ~ S119) is a pre-processing step of calculating the envelope after removing the noise of the high and low frequency components of the measured pulse wave (PPG), and detecting the time interval (RRI) of each peak of the envelope from the envelope (S111) (S113), and the noise is removed from each peak time interval (RRI) detected in the pre-processing step (S111) (S113), and then autonomic nerve balance (LF /) through frequency sequence analysis (FFT) (PSD) A time series analysis step of calculating a standard deviation SDNN and an average heart rate HR per minute from the frequency sequence analysis step S115 for calculating HF and the peak time interval RRI calculated in the frequency sequence analysis step S115. (S117), and the GSR / HR calculation step (S119) for calculating the ratio (GSR / HR) of the skin electrical resistance (GSR) and the average heart rate (HR) per minute calculated in the time series analysis step.

또한, 상기 감정상태판단과정(S130)은 상기 산출된 좌표값(x,y)을 기준값과 비교하여, xref ≤ x < xmax, yref ≤ y < ymax이면(S131)(S135), 사용자의 감정상태(S140)를 활발상태(S141)로 판단하고, 상기 산출된 좌표값(x,y)이 xref ≤ x < xmax , 0 < y < yref 이면(S131)(S135), 사용자의 감정상태를 편안상태(S142)로 판단하고, 상기 산출된 좌표값(x,y)이 0 < x < xref, yref ≤ y < ymax이면(S131)(S137), 사용자의 감정상태를 불안상태(S143)로 판단하고, 상기 산출된 좌표값(x,y)이 0 < x < xref, 0 < y < yref 이면(S131)(S137), 사용자의 감정상태를 나른상태(S144)로 판단한다.
In addition, the emotional state determination process (S130) by comparing the calculated coordinate values (x, y) with a reference value, if x ref ≤ x <x max , y ref ≤ y <y max (S131) (S135), If the user's emotional state (S140) is determined as the active state (S141), and the calculated coordinate values (x, y) is x ref ≤ x <x max , 0 <y <y ref (S131) (S135), If the user's emotional state is determined as the comfort state (S142), and the calculated coordinate values (x, y) are 0 <x <x ref , y ref ≤ y <y max (S131) (S137), the user's emotion The state is determined to be an unstable state (S143), and if the calculated coordinate values (x, y) are 0 <x <x ref , 0 <y <y ref (S131) (S137), the user's emotional state is carried out. It is determined at S144.

이와 같이 이루어진 본 발명의 실시예에 따른 로봇을 통한 사용자의 감정반응을 위한 감정상태 분석과정에 대하여 보다 상세히 설명하면 다음과 같다.Referring to the emotional state analysis process for the emotional reaction of the user through the robot according to an embodiment of the present invention as described above in detail as follows.

먼저, 사용자가 손목에 착용한 시계타입의 감정분석장치(100)는 구비된 각 센서(111~114)로부터 PPG, GSR, SKT 및 사용자의 움직임 변화량을 입력받아 디지털신호로 변환되어 상기 메인프로세서(130)로 입력된다.First, the watch-type emotion analysis device 100 worn by a user receives PPG, GSR, SKT, and a user's movement change amount from each of the sensors 111 to 114 provided therein, and converts the digital signal into the main signal. 130).

상기 메인프로세서(130)에서 상기 각 센서로부터 입력된 PPG, GSR, SKT 측정값을 파라미터로 하여 사용자의 감정상태를 분석 및 판단하는 과정에 대하여 상세히 설명하면 다음과 같다.The process of analyzing and determining the emotional state of the user using the PPG, GSR, and SKT measurement values input from each sensor in the main processor 130 will now be described in detail.

상기 메인프로세서(130)는 노이즈제거과정(S111)을 통해 PPG에 포함된 노이즈를 제거한 후 전처리과정을 통해 저역필터(Low-pass Filter), 고역필터(High-pass Filter)를 통해 고주파 및 저주파 성분을 제거한 후 제곱근(Square Root) 함수에 의해 포락선 파형을 생성한다.The main processor 130 removes the noise included in the PPG through the noise removing process (S111), and then, through the pre-processing process, the high-frequency and low-frequency components through the low-pass filter and the high-pass filter. After removing, we generate the envelope waveform by the Square Root function.

상기 노이즈제거과정(S111)은 사용자가 PPG 측정 중 움직일 경우 움직임에 따른 노이즈가 발생하게 된다. 이때 발생된 노이즈에 의하여 정확한 포락선을 획득하지 못하게 되어, 사용자의 움직임 변화량에 따라 노이즈가 포함된 PPG에서 검출된 노이즈를 제거해야 한다.In the noise removing process S111, when a user moves during the PPG measurement, noise due to the movement is generated. At this time, the accurate envelope cannot be obtained due to the generated noise, and the detected noise in the PPG containing the noise should be removed according to the amount of change in the user's movement.

여기서, 노이즈는 사용자의 움직임에 따라 PPG측정시 DC성분이 포함되게 되는데, 이때 포함된 DC값을 상기 측정된 PPG신호에 보상해 주어 정확한 PPG를 획득하도록 한다. In this case, the noise includes the DC component in the PPG measurement according to the user's movement. The DC value is compensated for the measured PPG signal to obtain the correct PPG.

사용자의 움직임은 상기 악셀러로미터(114)를 통해 획득된 신호에 따라 사용자가 정지상태인지 움직임 상태인지를 판단하고, 움직임의 변화량에 따른 PPG의 노이즈를 제거하므로 보다 정확한 포락선을 검출한다. The user's motion determines whether the user is stationary or in motion according to the signal obtained through the accelerometer 114, and removes noise of the PPG according to the change amount of the motion, thereby detecting more accurate envelopes.

상기 검출된 포락선은 포락선 검출알고리즘을 이용하여 상기 포락선으로부터 RRI을 산출하는데, 상기 시간간격이 R-peak와 R-peak사이의 데이터 포인트가 된다.The detected envelope calculates an RRI from the envelope using an envelope detection algorithm, wherein the time interval becomes a data point between R-peak and R-peak.

여기서, 상기 RRI는 주파수분석에서 사용되는 최소의 개수는 128개이므로, 이를 판별하여 RRI의 개수가 128개 미만(n<128)일 경우에는 RRI 데이터를 지속적으로 수집하고, 128개 이상(n≥128)이 되면, 먼저 획득된 RRI신호(HRV신호)에서 불필요하게 느리거나, 매우 낮은 저주파 진동신호를 제거한 후 주파수계열분석을 통해 자율신경균형도(LF/HF)를 산출한다.In this case, since the minimum number of RRIs used in the frequency analysis is 128, it is determined that if the number of RRIs is less than 128 (n <128), RRI data is continuously collected and 128 or more (n≥ 128), unnecessarily slow or very low frequency vibration signals are removed from the obtained RRI signal (HRV signal), and then autonomic nerve balance (LF / HF) is calculated through frequency sequence analysis.

즉, 상기 HRV신호는 주파수계열분석(FFT, PSD)과정(S115)을 통해 교감활성도(LF: Low Frequency), 부교감활성도(HF: High Frequency)의 비를 산출하게 되는데, 상기 교감활성도(LF)와 부교감활성도(HF)의 비는 자율신경균형도(LF/HF)로, 교감활성도(LF)는 0.05Hz에서 0.15Hz 사이의 주파수 영역의 면적을 의미하며, 부교감활성도(HF)는 0.15Hz에서 0.4Hz 사이의 주파수영역의 면적을 의미한다. That is, the HRV signal calculates a ratio of sympathetic activity (LF) and sympathetic activity (HF: High Frequency) through frequency sequence analysis (FFT, PSD) process (S115). The ratio of and sympathetic activity (HF) is autonomic balance (LF / HF), sympathetic activity (LF) means the area of the frequency domain between 0.05Hz and 0.15Hz, and parasympathetic activity (HF) at 0.15Hz It means the area of the frequency domain between 0.4Hz.

또한, 주파수계열분석과정(S115)은 FFT(Fast Fourier Transform)과정을 통해 주파수계열의 HRV신호로 변환하고, PSD(Power Spectral Density)을 통해 상기 HRV신호에서 해당 주파수의 절대전력값을 산출한다.In addition, the frequency sequence analysis process S115 converts the frequency sequence to an HRV signal through a fast fourier transform (FFT) process, and calculates an absolute power value of the corresponding frequency from the HRV signal through a power spectral density (PSD).

한편, 상기 전처리과정(S113)을 통해 산출된 RRI값은 시계열분석과정(S117)을 통해 SDNN 및 분당심박수(HR)를 산출하고, 상기 시계열분석과정(S117)을 통해 산출된 분당심박수(HR)과 피부전기저항센서(112)로부터 획득된 GSR의 비(GSR/HR)를 산출한다.(S119)On the other hand, the RRI value calculated through the preprocessing (S113) calculates the SDNN and heart rate (HR) through the time series analysis process (S117), and the HR per minute (HR) calculated through the time series analysis process (S117). The ratio (GSR / HR) of the GSR obtained from the skin electrical resistance sensor 112 is calculated.

상기 각 산출된 각 파라미터 LF/HF, SDNN, GSR과, GSR/HR, SKT값은 표준화과정을 통해 하나의 표준지표로 동일한 평균과 표준편차의 통계분포로 해석해야 한다.(S121)Each of the calculated parameters LF / HF, SDNN, GSR, GSR / HR, and SKT should be interpreted as a statistical distribution of the same mean and standard deviation as one standard indicator through the standardization process (S121).

즉, 다음 수학식 1에서와 같이 상기 각 파라미터(LF/HF, SDNN, GSR/HR, SKT)는 각각의 표준지표(TLF/HF,TSDNN,TGSR/HR,TSKT)를 산출하게 된다.That is, as shown in Equation 1, each parameter (LF / HF, SDNN, GSR / HR, SKT) calculates each standard indicator (T LF / HF , T SDNN , T GSR / HR , T SKT ). do.

Figure 112010067430331-pat00001
Figure 112010067430331-pat00001

여기서, Pi는 상기 산출된 각 LF/HF, SDNN, GSR/HR, SKT 파라미터 값이며, mi는 표준그룹의 평균에 대한 표준편차이고, M은 상기 각 파라미터의 기준이 되는 평균이며, SD는 상기 각 파라미터에 기준이 되는 표준편차이고, sdi는 표준그룹의 평균(mi)에 대한 표준편차이다. 본 발명의 실시예로 M값은 50으로 설정하며, 필요에 따라 가변 가능하다. Here, P i is the calculated LF / HF, SDNN, GSR / HR, SKT parameter values, m i is the standard deviation of the mean of the standard group, M is the mean that is the basis of each parameter, SD Is the standard deviation based on each parameter, and sd i is the standard deviation with respect to the mean (m i ) of the standard group. In an embodiment of the present invention, the M value is set to 50 and may be changed as necessary.

이와 같이 각 파라미터 값들을 표준지표로 환산한 후 감정을 판단하기 위한 좌표값을 산출하게 된다.(S123)
In this way, each parameter value is converted into a standard index, and then a coordinate value for determining emotion is calculated.

상기 수학식 1에 의한 표준지표 산출방법에 따른 표준화과정의 구체적인 설명은 등록특허공보 제10-0745972호(2007.07.28) 및 논문"Fingertip photoplethysmography and migraine"(저널명: Journal of the Neurological Sciences, Volume 216, Issue 1, Pages 17-21, 발표일 : 15 December 2003)에 개시되어 있어, 분석지표(Pi)의 연산방법 및 표준지표(Ti) 추출방법과 임상적 의미 등 상세한 설명은 생략한다.
Detailed description of the standardization process according to the standard index calculation method according to Equation 1 is published in Korean Patent Publication No. 10-0745972 (July 28, 2007) and the paper "Fingertip photoplethysmography and migraine" (Journal: Journal of the Neurological Sciences, Volume 216). , Issue 1, Pages 17-21, Publication Date: 15 December 2003), and detailed descriptions of the calculation method of the analysis index (Pi), the method of extracting the standard index (Ti), and the clinical significance are omitted.

도 4는 본 발명을 구현하기 위한 사람의 감정유형 및 각성정도에 따른 감정상태를 판단하는 감정상태 영역 표시 그래프로서, 사람의 감정을 감정유형(Valence, 긍정/부정) 및 각성정도(Arousal, 긴장/이완)를 각 x,y축으로 하여 활발, 불안, 나른, 편안상태를 포함한 4개 영역으로 나누어진다.(S130)4 is an emotional state area display graph for determining the emotional state according to the emotion type and arousal degree of a person for implementing the present invention, the emotion of the person (Valence, positive / negative) and arousal (Arousal, tension) / Relaxation) is divided into four areas including active, anxious, relaxed, and relaxed with each x, y axis. (S130)

즉, 각성정도 및 감정유형이 긴장 및 긍정이면 활발상태영역이고, 긴장 및 부정이면 불안상태영역이고, 이완 및 부정이면 나른상태영역이고, 이완 및 긍정이면 편안상태영역 등 각 4개의 영역으로 분할한다. In other words, the arousal and emotion types are divided into four areas: the active state area when tension and affirmation, the anxiety state area when tension and negative, and the relaxing state area when relaxation and negative. .

여기서, 활발상태영역의 감정은 활발뿐만 아니라, 기쁨, 흥분, 놀람(긍정적인) 등 활발과 유사한 감정상태를 포함하며, 불안상태영역은 불안뿐만 아니라, 긴장, 스트레스, 분노등과 유사한 감정상태를 포함하며, 나른상태영역은 나른뿐만 아니라, 우울, 디프레스(depressed) 등과 유사한 감정상태를 포함하며, 편안상태영역은 편안뿐만 아니라, 긴장이완(Deeply Relaxed), 행복(Blissful)등과 유사한 감정상태를 포함한다. Here, the emotion of the active state area includes not only active but also similar emotional states such as joy, excitement and surprise (positive), and the anxiety state area includes emotional states similar to tension, stress and anger as well as anxiety. The relaxing state area includes not only relaxing but also emotional state similar to depression, depressed, etc., and the relaxing state area includes not only comfort but also emotional state similar to Deeply Relaxed, Blissful, etc. Include.

보다 상세하게는, 각 센서(111~114)에서 획득된 각 센서값으로부터 산출된 파라미터 GSR/HR은 사람의 각성상태(arousal, 이완/긴장)와 관련이 있고, SDNN은 긍정 및 부정 감정유형(valence)과 관련이 있으므로, 사람의 감정상태를 파라미터 SDNN 및 GSR/HR 값을 각각 x,y축으로 하여 활발, 불안, 편안, 나른상태로 영역을 나누어 판단하게 된다.
More specifically, the parameter GSR / HR calculated from each sensor value obtained in each of the sensors 111 to 114 is related to the arousal state of the person, and SDNN has a positive and negative emotion type ( Since the emotional state of the human being is determined by dividing the domain into active, anxious, relaxed, and relaxed states using the parameters SDNN and GSR / HR values as the x and y axes, respectively.

도 5는 본 발명의 실시예에 따른 감정상태 판단을 위한 좌표 및 감정영역 표시도로서, 상기 감정상태를 판단하는 각성정도(Aprousal) 및 감정유형(Valence)에 영향을 주는 LF/HF 파라미터를 상기 각성(긴장/이완)상태인 y축의 파라미터 GSR/HR에 가산하고, 감정유형(긍정/부정)에 영향을 주는 피부온도(SKT) 파라미터를 상기 긍정/부정상태인 x축의 파라미터 SDNN에 가산하여 줌으로 보다 정확한 감정상태를 판단할 수 있게 된다.FIG. 5 is a view showing coordinates and an emotional region for determining an emotional state according to an embodiment of the present invention, wherein the LF / HF parameter affecting the aprousal and the emotional type for determining the emotional state is described. It is added to parameter GSR / HR of the awake (tension / relaxation) state and skin temperature (SKT) parameter affecting the emotion type (positive / negative) to the parameter SDNN of the positive / negative state x-axis. As a result, more accurate emotional state can be determined.

이와 같이 파라미터 GSR/HR 및 SDNN 만으로 사람의 감정상태를 판단할 때, 발생할 수 있는 판단하기 어려운 좌표상 경계선에 있는 감정상태에 대하여 보다 명확한 감정상태로 판단할 수 있을 뿐만 아니라, 각 감정상태의 심화정도를 판단할 수 있게 된다. As such, when the emotional state of a person is judged only by the parameters GSR / HR and SDNN, not only the emotional state at the boundary of the coordinates that is difficult to determine can be judged as a clearer emotional state, but also the deepening of each emotional state. You can judge the degree.

즉, 사람의 감정상태에 영향을 주는 다수의 파라미터들을 감정상태 판단 요소로 활용하므로 보다 정확히 사용자의 감정상태를 판단할 수 있게 된다. That is, since a plurality of parameters affecting a person's emotional state are used as an emotional state judgment element, the emotional state of the user can be determined more accurately.

사람의 감정상태를 판단하기 위한 감정상태 판단영역은 다음 수학식 2에서와 같이, 사람의 감정상태를 구분하는 좌표값(x,y)에서 x축은 파라미터 SDNN과 SKT의 표준지표의 합(TSDNN + TSKT)이고, y축은 파라미터 GSR/HR과 LF/HF의 표준지표의 합(TLF/HF + TGSR/HR)으로 설정한다. The emotional state judgment area for determining the emotional state of a person is as shown in Equation 2 below, where the x-axis is the sum of the parameters SDNN and standard indicators of SKT (T SDNN). + T SKT ), and the y-axis is set as the sum of the standard indicators of the parameters GSR / HR and LF / HF (T LF / HF + T GSR / HR ).

삭제delete

Figure 112010067430331-pat00002
Figure 112010067430331-pat00002

Figure 112011075732011-pat00003

이와 같이 설정된 좌표값(x,y)은 기준좌표값(xref, yref)에 의해 4개의 영역으로 나누어지며, 좌표값(x,y)이 "xref ≤ x < xmax, yref ≤ y < ymax"이면 제1영역, "xref ≤ x < xmax , 0 < y < yref"이면 제2영역, "0 < x < xref, yref ≤ y < ymax"이면 제3영역, "0 < x < xref, 0 < y < yref"이면 제4영역으로 분할한다.
상기 제1영역(①)은 활발(기쁨, 흥분, 놀람상태 등) 제2영역(②)은 평안(릴렉스 상태등), 제3영역(③)은 불안(긴장, 스트레스, 분노상태 등), 제4영역(④)은 나른(우울, 슬픔, 디프레스 상태 등)으로 감정상태를 설정한다.
Figure 112011075732011-pat00003

The coordinate values (x, y) set as described above are divided into four regions by the reference coordinate values (x ref , y ref ), and the coordinate values (x, y) are defined as "x ref ≤ x <x max , y ref ≤ the first region if y <y max ", the second region if" x ref ≤ x <x max , 0 <y <y ref ", and the third region if" 0 <x <x ref , y ref ≤ y <y max " If the area, "0 <x <x ref , 0 <y <y ref ", it is divided into a fourth area.
The first area (①) is active (joy, excitement, surprise state, etc.) The second area (②) is peace (relax state, etc.), and the third area (③) is anxiety (tension, stress, anger state, etc.), The fourth area ④ sets the emotional state in a relaxing manner (depressed, sadness, depressed state, etc.).

여기서, 상기 감정상태 영역의 x, y축 영역의 기준좌표(xref, yref)는 각 파라미터의 평균(M)의 합(M+M)이고, 최대값(xmax, ymax)는 각 파라미터의 최대값의 합(2M+2M)이다.
일 실시예로, 상기 기준좌표값(xref, yref)은 각 파라미터의 평균(M)이 50으로 설정되고, x축의 기준좌표값(xref)은 두 개의 표준지표의 합(TSDNN + TSKT)이므로 파라미터의 평균 합(M+M)인 100으로 설정한다. y축의 기준좌표값(yref)도 두개의 표준지표의 합(TLF/HF + TGSR/HR)이므로, 파라미터의 평균 합(M+M)인 100으로 설정한다. 따라서, 각 좌표값(x,y)의 최소값(xmin, ymin)은 '0,0', 최대값(xmax, ymax)은 '200,200'으로 설정한다.
Here, the reference coordinates (x ref , y ref ) of the x and y axis regions of the emotional state region are the sum (M + M) of the mean (M) of each parameter, and the maximum values (x max , y max ) are each The sum of the maximum values of the parameters (2M + 2M).
In an embodiment, the reference coordinate values (x ref , y ref ) are set to an average (M) of 50 for each parameter, and the reference coordinate value (x ref ) on the x-axis is the sum of two standard indicators (T SDNN + T SKT ), so set it to 100, which is the average sum of parameters (M + M). Since the reference coordinate value (y ref ) of the y-axis is also the sum of two standard indicators (T LF / HF + T GSR / HR ), it is set to 100, which is the average sum of the parameters (M + M). Therefore, the minimum value (x min , y min ) of each coordinate value (x, y) is set to '0,0' and the maximum value (x max , y max ) is set to '200,200'.

상기 사용자의 생체정보 획득과정과, 파라미터 및 표준지표 산출과정과, 좌표값 산출과정을 통해 산출된 좌표값(x,y)이 100 ≤ x < 200, 100 ≤ y < 200 이면, 제1영역에 해당되므로 사용자의 감정상태를 활발상태로 판단하고,(S131,S135,S141) 상기 산출된 좌표값(x,y)이 100 ≤ x <200, 0 < y < 100 이면, 제4영역에 해당되므로 사용자의 감정상태를 편안상태로 판단하고,(S131,S135,S142) 상기 산출된 좌표값(x,y)이 0 < x < 100, 100 ≤ y < 200 이면, 제3영역에 해당되므로 사용자의 감정상태를 불안상태로 판단하고,(S131,S137,S143) 상기 산출된 좌표값(x,y)이 0 < x < 100, 0 < y < 100 이면, 제4영역에 해당되므로 사용자의 감정상태를 나른상태로 판단한다.(S131,S137,S144)
여기서, 각 좌표값은 일 실시예이며, 평균(M)의 설정값에 따라 각, x,y의 최대,최소값은 다양하게 변형이 가능하다.
If the coordinate value (x, y) calculated by the user's biometric information acquisition process, the parameter and standard indicator calculation process, and the coordinate value calculation process is 100 ≦ x <200, 100 ≦ y <200, Therefore, it is determined that the emotional state of the user as the active state (S131, S135, S141) if the calculated coordinate values (x, y) is 100 ≤ x <200, 0 <y <100, it corresponds to the fourth region The user's emotional state is determined as a comfort state (S131, S135, S142) if the calculated coordinate values (x, y) is 0 <x <100, 100 ≤ y <200, the third area is the user's The emotional state is determined as an anxiety state (S131, S137, and S143). If the calculated coordinate values (x, y) are 0 <x <100, 0 <y <100, the fourth region corresponds to the fourth region. It is determined that the state is carried (S131, S137, S144).
Here, each coordinate value is an embodiment, and the maximum and minimum values of x and y may be variously modified according to the set value of the average M.

상기 각 과정을 통해 산출된 사용자의 감정상태는 상기 지그비송신부(153)를 통해 감정반응장치(200)로 무선전송하여, 감정반응제어부(210)에서 설정된 반응동작을 수행하게 된다.The emotional state of the user calculated through each process is wirelessly transmitted to the emotion reaction apparatus 200 through the Zigbee transmitter 153 to perform a reaction operation set by the emotion reaction controller 210.

상기 감정반응장치(200)는 로봇, 음악재생장치 등 사람의 감정에 반응할 수 있는 다양한 실시예가 가능하나, 여기서, 감정반응장치(200)의 실시예로 로봇에 상기 감정반응장치(200)가 탑재된 경우 상기 감정분석장치(100)에서 지그비 통신으로 전송된 사용자 감정상태 정보를 수신하면, 감정반응제어부(210)는 상기 감정분석장치(100)로부터 전송된 사용자의 감정에 따라 음악재생부(223)를 구동시켜 설정된 음악을 재생하며, 상기 사용자의 감정상태가 활발일 경우 설정된 음악을 재생함과 동시에 상기 로봇이 설정된 동작을 수행하도록 동작구동부(221)를 구동시킨다.The emotion reaction apparatus 200 may be various embodiments capable of responding to human emotions, such as a robot and a music playback apparatus. Here, the emotion reaction apparatus 200 may be applied to the robot as an embodiment of the emotion reaction apparatus 200. When mounted, when the emotion analysis apparatus 100 receives the user emotion state information transmitted through the Zigbee communication, the emotion reaction control unit 210 according to the user's emotion transmitted from the emotion analysis apparatus 100 according to the music playback unit ( 223 plays the set music, and when the emotional state of the user is active, plays the set music and drives the operation driver 221 to perform the set operation at the same time.

즉, 상기 동작구동부(221)의 동작은 사용자의 활발상태 감정을 유지하도록 상기 동작데이터베이스(222)에 저장된 다양한 형태의 춤 동작 데이터 및 알고리즘을 추출하여 해당 동작을 수행하도록 로봇을 구동한다.That is, the operation of the operation driver 221 extracts various types of dance motion data and algorithms stored in the motion database 222 to maintain the active state emotion of the user and drives the robot to perform the corresponding motion.

여기서, 감정반응장치(200)의 다른 실시예로 로봇 또는 음악재생장치뿐만 아니라, 사용자의 감정상태에 영향을 줄 수 있는 다양한 형태의 감정반응 수단이 가능하다.
Here, as another embodiment of the emotion reaction device 200, not only a robot or a music playback device, but also various types of emotion reaction means that may affect the emotional state of the user is possible.

이상에서 설명한 본 발명에 따른 사용자의 생체정보 분석을 통한 감정상태 분석장치 및 방법은 상기한 실시예에 한정되지 않고, 감정반응장치의 구성에 따라 다양하게 변경가능하며, 사용자의 감정을 활발, 편안, 나른, 불안상태 이외에 다른 감정상태에 따라 다양하게 변형이 가능하며, 이하의 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양하게 변경하여 실시할 수 있는 범위까지 그 기술적 정신이 있다. Emotional state analysis device and method through the analysis of the user's biometric information according to the present invention described above is not limited to the above embodiment, it can be variously changed according to the configuration of the emotional response device, active, comfortable user's emotion It is possible to be variously modified according to other emotional state in addition to, and anxiety state, any person having ordinary knowledge in the field to which the present invention belongs without departing from the gist of the present invention claimed in the claims below. The technical spirit is to the extent that it can be changed and implemented.

100 : 감정분석장치 101 : 전원부
111 : 맥파센서 112 : 피부전기저항센서
113 : 피부온도센서 114 : 악셀러로미터
120 : A/D변환부 130 : 메인프로세서
141 : 메모리 142 : LCD표시부
143 : LED표시부 144 : 스위칭부
151 : 부저 152 : 진동모터
153 : 지그비송신부
200 : 감정반응장치 201 : 지그비수신부
210 : 감정반응제어부 221 : 동작구동부
222 : 동작데이터베이스 223 : 음악재생부
224 : 음원데이터베이스
100: emotion analysis device 101: power supply
111: pulse wave sensor 112: skin electrical resistance sensor
113: skin temperature sensor 114: accelerometer
120: A / D conversion unit 130: main processor
141: memory 142: LCD display
143: LED display unit 144: switching unit
151: buzzer 152: vibration motor
153: Zigbee transmitter
200: Emotional response device 201: Zigbee receiving unit
210: emotional response control unit 221: operation driver
222: motion database 223: music player
224: sound source database

Claims (12)

사용자의 신체에 접촉되어 생체정보를 추출하는 맥파센서, 피부온도센서 및 피부전기저항센서를 포함한 바이오센서부;
상기 바이오센서부로부터 추출된 각 생체정보를 디지털신호로 변환하는 아날로그/디지털변환부; 및
상기 아날로그/디지털변환부를 통해 입력된 바이오센서부의 맥파(PPG), 피부온도(SKT), 피부전기저항(GSR)값을 입력받아 연산과정을 통해 분당평균심박수(HR)의 비(GSR/HR), 자율신경균형도(LF/HF) 파라미터를 산출하고, 상기 산출된 각 파라미터(PPG, SKT, GSR/HR, LF/HF)로부터 해당 표준지표(TSKT, TSDNN, TLF/HF, TGSR/HR)를 산출하고, 산출된 표준지표 값에 의해 사용자의 감정상태를 판단하는 메인프로세서;
상기 메인프로세서에 의해 판단된 감정상태를 저장하는 메모리; 및
상기 메인프로세서에 의해 판단된 감정상태를 표시하는 LCD표시부;를 포함하여 구성하되,
상기 메인프로세서는 상기 산출된 표준지표(TSKT, TSDNN, TLF/HF, TGSR/HR)에서 표준지표(TSKT, TSDNN,)값에 의해 사람의 긍정 또는 부정의 감정유형를 판단하고, 표준지표(TLF/HF, TGSR/HR)값에 의해 긴장 또는 이완의 각성정도를 판단하고, 상기 감정유형 및 각성정도에 따라 감정상태를 "활발, 편안, 불안, 나른"상태로 판별하는 것을 특징으로 하는 사용자의 생체정보 분석을 통한 감정상태 분석장치.
A biosensor unit including a pulse wave sensor, a skin temperature sensor, and a skin electrical resistance sensor that are in contact with a user's body to extract biometric information;
An analog / digital conversion unit for converting each biometric information extracted from the biosensor unit into a digital signal; And
The pulse wave ratio (PPG), skin temperature (SKT) and skin electrical resistance (GSR) values of the biosensor unit input through the analog / digital conversion unit are input to calculate the ratio of average heart rate (HR) per minute (GSR / HR). And calculating autonomic balance (LF / HF) parameters, and from the calculated parameters (PPG, SKT, GSR / HR, LF / HF), the corresponding standard indicators (T SKT , T SDNN , T LF / HF , T). A main processor for calculating a GSR / HR and determining an emotional state of the user based on the calculated standard indicator value;
A memory for storing an emotional state determined by the main processor; And
LCD display for displaying the emotional state determined by the main processor;
The main processor determines the emotion type of a person's positive or negative based on the standard indicator (T SKT , T SDNN ,) value from the calculated standard indicators (T SKT , T SDNN , T LF / HF , T GSR / HR ). , By determining the arousal level of tension or relaxation by the standard indicator (T LF / HF , T GSR / HR ) value, and determines the emotional state as "active, relaxed, anxious, relaxed" according to the emotion type and arousal level Emotional state analysis device through the analysis of the user's biometric information, characterized in that.
삭제delete 제 1 항에 있어서,
상기 메인프로세서에 의해 상기 맥파센서로부터 측정된 맥파가 설정된 기준값 이상일 경우 응급상황으로 판단하여 이를 사용자에게 경보음을 발생하는 부저와, 진동모드로 경보하는 진동모터를 더 포함하여 구성된 것을 특징으로 하는 사용자의 생체정보 분석을 통한 감정상태 분석장치.
The method of claim 1,
If the pulse wave measured from the pulse wave sensor by the main processor is more than the set reference value is determined as an emergency situation, the user characterized in that it further comprises a buzzer for generating an alarm sound to the user, and a vibration motor for alarm in the vibration mode Emotional state analysis device through the analysis of biometric information.
제 1 항에 있어서,
상기 바이오센서부에 부가하여 사용자의 움직임에 의해 변형된 맥파를 보정하도록, 사용자의 움직임 변화량을 측정하는 악셀러로미터(Accelerometer)를 더 포함하여 구성된 것을 특징으로 하는 사용자의 생체정보 분석을 통한 감정상태 분석장치.
The method of claim 1,
In addition to the biosensor unit to correct the pulse wave transformed by the user's movement, it further comprises an accelerometer (Accelerometer) for measuring the user's movement change emotions through analysis of the user's biometric information Condition analyzer.
제 1 항에 있어서,
상기 메인프로세서에 의해 판단된 감정상태를 외부 시스템으로 무선전송하기 위한 무선송신부를 더 포함하여 구성된 것을 특징으로 하는 사용자의 생체정보 분석을 통한 감정상태 분석장치.
The method of claim 1,
And a wireless transmitter for wirelessly transmitting the emotional state determined by the main processor to an external system.
맥파센서, 피부온도센서 및 피부전기저항센서를 포함한 바이오센서부에 의해 추출된 사용자의 생체정보(PPG, SKT, GSR)를 메인프로세서에서 입력받아 사용자의 감정분석과정을 통해 사용자의 현재 감정상태를 판단하는 방법에 있어서,
상기 바이오센서부를 통해 추출된 피부온도(SKT)와, 맥파(PPG)신호로부터 산출된 자율신경균형도(LF/HF)와, 맥파(PPG)의 피크시간간격(RRI)으로부터 산출된 표준편차(SDNN)와, 피부전기저항(GSR)과 분당평균심박수(HR)의 비(GSR/HR)를 연산과정을 통해 산출하는 파라미터획득과정;
상기 파라미터획득과정에서 산출된 각 파라미터(LF/HF, SDNN, GSR/HR, SKT)값을 표준지표(Ti, i= LF/HF, SDNN, GSR/HR, SKT)로 변환하는 표준화과정;
상기 각 표준지표(Ti)를 이용하여 감정상태 분석을 위한 좌표값(x,y)을 산출하는 좌표값산출과정;
상기 산출된 좌표값(x,y)에 따라 사용자의 현재 감정상태를 판단하는 감정상태판단과정;을 포함하여 이루어지되,
상기 좌표값 x축은 감정유형(긍정 또는 부정), y축은 각성정도(긴장 또는 이완)인 것을 특징으로 하는 사용자의 생체정보 분석을 통한 감정상태 분석방법.
The user's current emotional state is received through the user's emotion analysis process by receiving the user's biometric information (PPG, SKT, GSR) extracted by the biosensor unit including pulse wave sensor, skin temperature sensor and skin electrical resistance sensor. In the method of judging,
The standard deviation calculated from the skin temperature SKT extracted through the biosensor unit, the autonomic nerve balance calculated from the pulse wave (PPG) signal, and the peak time interval (RRI) of the pulse wave (PPG). A parameter acquisition process of calculating a SDNN, a ratio of skin electrical resistance (GSR) and average heart rate (HR) per minute (GSR / HR) through a calculation process;
A standardization process of converting each parameter (LF / HF, SDNN, GSR / HR, SKT) value calculated in the parameter acquisition process into standard indicators (T i , i = LF / HF, SDNN, GSR / HR, SKT);
A coordinate value calculation process of calculating coordinate values (x, y) for analyzing an emotional state using the standard indicators (T i );
Emotional state determination process for determining the current emotional state of the user according to the calculated coordinate values (x, y);
The x-axis of the coordinate value is an emotion type (positive or negative), the y-axis is a degree of arousal (tension or relaxation), the emotional state analysis method through the user's biometric information analysis.
제 6 항에 있어서,
상기 파라미터획득과정은 상기 추출된 맥파(PPG)의 고역,저역성분의 노이즈를 제거한 후 포락선을 산출하고, 상기 포락선으로부터 포락선의 각 피크 시간간격(RRI)을 검출하는 전처리단계;
상기 전처리단계에서 검출된 각 피크시간간격(RRI)에서 노이즈를 제거한 후 주파수계열분석(FFT)(PSD)을 통해 자율신경균형도(LF/HF)를 산출하는 주파수계열분석단계;
상기 주파수계열분석단계에서 산출된 피크시간간격(RRI)으로부터 표준편차(SDNN) 및 분당 평균 심박수(HR)를 산출하는 시계열분석단계; 및
상기 피부전기저항(GSR)과 상기 시계열분석단계에서 산출된 분당평균심박수(HR)의 비(GSR/HR)를 산출하는 GSR/HR산출단계;를 포함하여 이루어지며,
상기 각 단계에서 산출된 각 파라미터는 상기 표준화과정을 통해 표준지표를 산출하는 것을 특징으로 하는 사용자의 생체정보 분석을 통한 감정상태 분석방법.
The method according to claim 6,
The parameter acquisition process may include a preprocessing step of calculating envelopes after removing high and low frequency noise of the extracted pulse wave (PPG), and detecting each peak time interval (RRI) of the envelopes from the envelopes;
A frequency sequence analysis step of removing noise from each peak time interval (RRI) detected in the preprocessing step and then calculating autonomic nerve balance (LF / HF) through frequency sequence analysis (FFT) (PSD);
A time series analysis step of calculating a standard deviation (SDNN) and an average heart rate (HR) from the peak time interval (RRI) calculated in the frequency series analysis step; And
And a GSR / HR calculation step of calculating a ratio (GSR / HR) of the skin electrical resistance (GSR) and the average heart rate (HR) calculated in the time series analysis step.
Each parameter calculated in each step is an emotional state analysis method through the user's biometric information, characterized in that for calculating the standard indicator through the standardization process.
제 6 항 또는 제 7 항에 있어서,
상기 표준화과정은 상기 파라미터획득과정의 주파수계열분석단계에서 산출된 자율신경균형도(LF/HF)의 표준지표(TLF/HF)를 산출하는 1단계;
상기 파라미터획득과정의 시계열분석단계에서 산출된 표준편차(SDNN)의 표준지표(TSDNN)를 산출하는 2단계;
상기 파라미터획득과정의 GSR/HR산출단계에서 산출된 GSR/HR의 표준지표(TGSR/HR)를 산출하는 3단계;
상기 피부온도(SKT)의 표준지표(TSKT)를 산출하는 4단계;를 포함하여 이루어진 것을 특징으로 하는 사용자의 생체정보 분석을 통한 감정상태 분석방법.
The method according to claim 6 or 7,
The standardization process is a step of calculating a standard index (T LF / HF ) of the autonomic nervous system balance (LF / HF) calculated in the frequency sequence analysis step of the parameter acquisition process;
Calculating a standard index (T SDNN ) of the standard deviation (SDNN) calculated in the time series analysis step of the parameter acquisition process;
Calculating a standard index (T GSR / HR ) of the GSR / HR calculated in the GSR / HR calculation step of the parameter acquisition process;
And a four step of calculating the standard indicator T SKT of the skin temperature SKT.
제 8 항에 있어서,
상기 각 단계를 통해 산출되는 표준지표(Ti, i = LF/HF, SDNN, GSR/HR, SKT)는 다음 수학식 1에 의해 산출되는 것을 특징으로 하는 사용자의 생체정보 분석을 통한 감정상태 분석방법.
<수학식 1>
Figure 112011075732011-pat00012

여기서, Pi는 상기 산출된 각 LF/HF, SDNN, GSR/HR, SKT 파라미터 값이며, mi는 표준그룹의 평균에 대한 표준편차이고, M은 상기 각 파라미터의 기준이 되는 평균이고, SD는 상기 각 파라미터에 기준이 되는 표준편차이고, sdi는 표준그룹의 평균(mi)에 대한 표준편차임.
The method of claim 8,
Standard indicators (T i , i = LF / HF, SDNN, GSR / HR, SKT) calculated through the above steps are calculated by Equation 1 below. Way.
&Quot; (1) &quot;
Figure 112011075732011-pat00012

Where P i is the calculated LF / HF, SDNN, GSR / HR and SKT parameter values, m i is the standard deviation of the mean of the standard group, M is the mean that is the basis of each parameter, and SD Is the standard deviation based on each parameter, and sd i is the standard deviation of the mean (m i ) of the standard group.
제 7 항에 있어서,
상기 파라미터획득과정에서, 상기 전처리단계 전에 악셀러로미터로부터 사용자 움직임 변화량이 감지될 경우, 사용자의 움직임으로 인해 발생된 상기 맥파(PPG) 신호의 노이즈를 제거하는 노이즈제거단계;를 더 포함하여 이루어진 것을 특징으로 하는 사용자의 생체정보 분석을 통한 감정상태 분석방법.
The method of claim 7, wherein
And a noise removing step of removing noise of the pulse wave (PPG) signal generated by the user's movement when the amount of change in the user's movement is detected from the accelerometer before the preprocessing step. Emotional state analysis method through the analysis of the user's biometric information.
제 6 항에 있어서,
상기 좌표값산출과정에서 좌표값(x,y) 산출은 다음 수학식 2에 의해 산출되는 것을 포함하여 이루진 것을 특징으로 하는 사용자의 생체정보 분석을 통한 감정상태 분석방법.
<수학식 2>
Figure 112013010659919-pat00013

Figure 112013010659919-pat00014

여기서, TSKT, TSDNN, TLF/HF, TGSR/HR은 각 SKT, SDNN, LF/HF, GSR/HR의 표준지표임.
The method according to claim 6,
The calculation of the coordinate value (x, y) in the coordinate value calculation process is the emotional state analysis method through the user's biometric information, characterized in that it is made by including the following equation (2).
&Quot; (2) &quot;
Figure 112013010659919-pat00013

Figure 112013010659919-pat00014

Here, T SKT , T SDNN , T LF / HF and T GSR / HR are standard indicators of SKT, SDNN, LF / HF, and GSR / HR.
제 6 항에 있어서,
상기 감정상태판단과정은 상기 좌표값산출과정을 통해 산출된 좌표값(x,y)이 xref ≤ x < xmax, yref ≤ y < ymax이면, 사용자의 감정상태를 활발상태로 판단하고,
상기 산출된 좌표값(x,y)이 xref ≤ x < xmax , 0 < y < yref 이면, 사용자의 감정상태를 편안상태로 판단하고,
상기 산출된 좌표값(x,y)이 0 < x < xref, yref ≤ y < ymax이면, 사용자의 감정상태를 불안상태로 판단하고,
상기 산출된 좌표값(x,y)이 0 < x < xref, 0 < y < yref 이면, 사용자의 감정상태를 나른상태로 판단하되,
상기 감정상태 영역의 x, y축 영역의 기준좌표(xref, yref)는 각 파라미터의 평균(M)의 합(M+M)이고, 최대값(xmax, ymax)는 각 파라미터의 최대값의 합(2M+2M) 것을 특징으로 하는 사용자의 생체정보 분석을 통한 감정상태 분석방법.
The method according to claim 6,
In the emotional state determining process, if the coordinate values (x, y) calculated through the coordinate value calculation process are x ref ≤ x <x max and y ref ≤ y <y max , the emotional state of the user is determined as an active state. ,
If the calculated coordinate values (x, y) is x ref ≤ x <x max , 0 <y <y ref , the user's emotional state is determined as a comfort state,
If the calculated coordinate values (x, y) is 0 <x <x ref , y ref ≤ y <y max , the user's emotional state is determined as anxiety state,
If the calculated coordinate values (x, y) is 0 <x <x ref , 0 <y <y ref , the user's emotional state is determined as being separated,
The reference coordinates (x ref , y ref ) of the x and y axis regions of the emotional state region are the sum (M + M) of the mean (M) of each parameter, and the maximum value (x max , y max ) is the value of each parameter. Emotional state analysis method through the analysis of the user's biological information, characterized in that the sum of the maximum value (2M + 2M).
KR1020100101844A 2010-10-19 2010-10-19 Apparatus and Method for Decision of Emotional state through analysis of Bio information KR101307248B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100101844A KR101307248B1 (en) 2010-10-19 2010-10-19 Apparatus and Method for Decision of Emotional state through analysis of Bio information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100101844A KR101307248B1 (en) 2010-10-19 2010-10-19 Apparatus and Method for Decision of Emotional state through analysis of Bio information

Publications (2)

Publication Number Publication Date
KR20120040429A KR20120040429A (en) 2012-04-27
KR101307248B1 true KR101307248B1 (en) 2013-09-12

Family

ID=46140330

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100101844A KR101307248B1 (en) 2010-10-19 2010-10-19 Apparatus and Method for Decision of Emotional state through analysis of Bio information

Country Status (1)

Country Link
KR (1) KR101307248B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101727940B1 (en) * 2015-01-08 2017-04-18 한국과학기술연구원 Apparatus and method for decision of psychological state using bio signals
KR101789418B1 (en) * 2016-05-02 2017-10-26 송주희 Connected Learning System Using Recognition of Sensitivity
KR20170126192A (en) * 2016-05-09 2017-11-17 한국전자통신연구원 Method and apparatus for adjusting safty of collaborating robot by recognizing emotion status of worker
KR101921270B1 (en) 2017-10-27 2018-11-22 (주)루나유엑스 Disease management system
WO2020166756A1 (en) * 2019-02-14 2020-08-20 연세대학교 산학협력단 Device for recognizing presenter's mental stress and providing feedback

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101361578B1 (en) * 2012-05-30 2014-02-11 울산대학교 산학협력단 Apparatus for PPG signal processing
KR102302871B1 (en) 2014-09-05 2021-09-16 삼성전자주식회사 Method and device to monitor and analyzing bio signal of user
KR101706741B1 (en) * 2015-11-13 2017-02-14 상명대학교 서울산학협력단 Method and system for determining online social relationship based on Heart Rhythm Pattern by micro movement of body
KR20180108341A (en) 2017-03-24 2018-10-04 삼성전자주식회사 Electronic device and method for capturing contents
KR102608633B1 (en) * 2018-02-08 2023-12-04 삼성전자주식회사 Electronic device and control method thereof
CN108542363A (en) * 2018-04-09 2018-09-18 北京津发科技股份有限公司 A kind of skin physiology instrument for measuring index and method
KR102020641B1 (en) * 2018-04-10 2019-09-10 성균관대학교산학협력단 Method and apparatus for generating for pulse tuning using image
KR102054821B1 (en) * 2019-03-29 2019-12-12 엘아이지넥스원 주식회사 A self-powered monitoring method for the survival and emotion of users
KR20210061595A (en) 2019-11-20 2021-05-28 삼성전자주식회사 Apparatus and method for detecting characacteristic point of oscillometric envelope and, apparatus for estimating bio-information
CN113509154A (en) * 2020-04-10 2021-10-19 广东小天才科技有限公司 Human body temperature determination method and device, computer equipment and storage medium
KR102354136B1 (en) 2020-05-27 2022-01-20 전주대학교 산학협력단 Emotion estimation chair and emotion estimation method
KR102210250B1 (en) * 2020-10-13 2021-02-01 주식회사 웨이센 Method for visualizing result of prediction using AI(Artificial Intelligence) prediction model
KR102229381B1 (en) * 2020-10-26 2021-03-18 주식회사 웨이센 Method for adding training data using the prediction results of AI(Artificial Intelligence) prediction model
KR102445561B1 (en) * 2020-12-07 2022-09-20 한국해양대학교 산학협력단 Method and apparatus for data collection and heart rate estimation algorithm for heart rate estimation
CN114869284A (en) * 2022-05-11 2022-08-09 吉林大学 Monitoring system for driving emotion state and driving posture of driver
KR102654555B1 (en) * 2023-08-23 2024-04-03 장승원 System for proving personalized stimulation basded on ecg

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07136142A (en) * 1993-11-12 1995-05-30 Casio Comput Co Ltd Electrocardiographic wave detecting system
KR20020018541A (en) * 2000-09-02 2002-03-08 윤종용 Apparatus and method for perceiving physical and emotional state
KR100745972B1 (en) * 2007-04-09 2007-08-02 (주)락싸 Autonomic function analyzer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07136142A (en) * 1993-11-12 1995-05-30 Casio Comput Co Ltd Electrocardiographic wave detecting system
KR20020018541A (en) * 2000-09-02 2002-03-08 윤종용 Apparatus and method for perceiving physical and emotional state
KR100745972B1 (en) * 2007-04-09 2007-08-02 (주)락싸 Autonomic function analyzer

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101727940B1 (en) * 2015-01-08 2017-04-18 한국과학기술연구원 Apparatus and method for decision of psychological state using bio signals
KR101789418B1 (en) * 2016-05-02 2017-10-26 송주희 Connected Learning System Using Recognition of Sensitivity
KR20170126192A (en) * 2016-05-09 2017-11-17 한국전자통신연구원 Method and apparatus for adjusting safty of collaborating robot by recognizing emotion status of worker
KR102522898B1 (en) * 2016-05-09 2023-04-19 한국전자통신연구원 Method and apparatus for adjusting safty of collaborating robot by recognizing emotion status of worker
KR101921270B1 (en) 2017-10-27 2018-11-22 (주)루나유엑스 Disease management system
WO2020166756A1 (en) * 2019-02-14 2020-08-20 연세대학교 산학협력단 Device for recognizing presenter's mental stress and providing feedback

Also Published As

Publication number Publication date
KR20120040429A (en) 2012-04-27

Similar Documents

Publication Publication Date Title
KR101307248B1 (en) Apparatus and Method for Decision of Emotional state through analysis of Bio information
KR20130010207A (en) System for analyze the user&#39;s health and stress
US10291977B2 (en) Method and system for collecting and processing bioelectrical and audio signals
RU2734339C2 (en) Detecting the onset of somnolence
JP6659830B2 (en) Biological information analyzer, system, and program
KR102265934B1 (en) Method and apparatus for estimating ppg signal and stress index using a mobile terminal
US11032457B2 (en) Bio-sensing and eye-tracking system
WO2017193497A1 (en) Fusion model-based intellectualized health management server and system, and control method therefor
US20190247010A1 (en) Infrasound biosensor system and method
US20150282768A1 (en) Physiological signal determination of bioimpedance signals
JP6190466B2 (en) Biological signal measuring instrument and contact state estimation method
US20150216475A1 (en) Determining physiological state(s) of an organism based on data sensed with sensors in motion
US20240023892A1 (en) Method and system for collecting and processing bioelectrical signals
TW201734940A (en) Computer system for determining a state of mind and providing a sensory-type antidote to a subject
KR20160029375A (en) Method and device to monitor and analyzing bio signal of user
JP2008023127A (en) Biological information estimating apparatus and electronic appliance equipped with the same
CN105380655A (en) Emotion early-warning method and device of mobile terminal and mobile terminal
TWI542322B (en) Method and system for detecting sleep event
WO2014012839A1 (en) A method and system for determining the state of a person
KR20160108967A (en) Device and method for bio-signal measurement
Tian et al. Bioinspired dual-channel speech recognition using graphene-based electromyographic and mechanical sensors
CN113040773A (en) Data acquisition and processing method
Bone et al. Behavioral signal processing and autism: Learning from multimodal behavioral signals
TWI556188B (en) Automatic identification of state of mind and real - time control of embedded systems
WO2023199839A1 (en) Internal state estimation device, internal state estimation method, and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161005

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170928

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180927

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190905

Year of fee payment: 7