KR20130094555A - Emotion induction system regularited emotion intensity level and inducing emotion method thereof - Google Patents
Emotion induction system regularited emotion intensity level and inducing emotion method thereof Download PDFInfo
- Publication number
- KR20130094555A KR20130094555A KR1020120015903A KR20120015903A KR20130094555A KR 20130094555 A KR20130094555 A KR 20130094555A KR 1020120015903 A KR1020120015903 A KR 1020120015903A KR 20120015903 A KR20120015903 A KR 20120015903A KR 20130094555 A KR20130094555 A KR 20130094555A
- Authority
- KR
- South Korea
- Prior art keywords
- emotion
- user
- bio
- intensity
- signal
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
- A61M2021/0005—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
- A61M2021/0027—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
- A61M2021/0005—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
- A61M2021/0044—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2230/00—Measuring parameters of the user
- A61M2230/04—Heartbeat characteristics, e.g. ECG, blood pressure modulation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2230/00—Measuring parameters of the user
- A61M2230/08—Other bio-electrical signals
- A61M2230/10—Electroencephalographic signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2230/00—Measuring parameters of the user
- A61M2230/40—Respiratory characteristics
- A61M2230/42—Rate
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2230/00—Measuring parameters of the user
- A61M2230/65—Impedance, e.g. conductivity, capacity
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Psychology (AREA)
- Medical Informatics (AREA)
- Hematology (AREA)
- Molecular Biology (AREA)
- Psychiatry (AREA)
- Surgery (AREA)
- Pathology (AREA)
- Acoustics & Sound (AREA)
- Biophysics (AREA)
- Anesthesiology (AREA)
- Physiology (AREA)
- Cardiology (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Social Psychology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
본 발명은 사용자의 감정을 유발하는 시스템 및 방법에 관한 것으로, 보다 상세하게는 다수의 사용자에게 감정유발프로토콜을 제공하면서 상응하는 사용자의 생체신호, 표정변화 및 음성신호를 피드백하여 사용자의 감정을 강도별 단계로 정형화하고, 이 감정 강도별 단계에 대응하도록 감정유발프로토콜을 단계별로 제공하도록 된 감정이 강도별 단계로 정형화된 감정유발시스템 및 이를 이용한 감정유발방법에 관한 것이다.
The present invention relates to a system and a method for inducing emotions of a user, and more particularly, to a system and method for inducing emotions of a user by providing emotion induction protocols to a plurality of users and feeding back corresponding bio- The present invention relates to an emotion inducing system in which emotions that are stylized at different stages and provided with emotion inducing protocols step by step so as to correspond to the emotion intensity steps are formulated into intensity steps and emotion inducing methods using the same.
일반적으로, 감정이란 인간이 가질 수 있는 정신적 상태를 의미하고, 크게는 희(喜), 노(怒), 애(哀), 락(樂)으로 구분된다. 이러한 감정에 대해 인위적인 외부 자극을 통해 유발하거나 이를 토대로 심리적 안정을 도모하고자 하는 다양한 기술적 개발이 활발히 진행되고 있는 실정이다. In general, emotion means the mental state that a human being can have, and is largely divided into hei (喜), no (怒), child (哀), and rock (樂). Various technological developments have been actively pursued to induce psychological stability based on artificial external stimulation of such feelings.
이렇듯 감정 유도를 꾀하기 위해 종래의 감정유도장치(10)는 도 1에 도시된 바와 같이, 사용자의 생체신호를 검출하는 생체신호측정모듈(11); 생체신호로부터 생체파라미터를 추출하고 그 증감패턴에 따라 감정유도프로토콜을 변화시켜 정서를 유도하는 정서유도모듈(12); 및 정서유도프로토콜에 따라 물리적 신호를 출력하는 생체자극모듈(13);이 포함되어 이루어졌다. In order to induce emotion, the conventional
이들 구성에 의해 사용자에게 감정유도프로토콜에 따라 콘텐츠의 물리적 자극이 제공되고, 사용자에 대해 반복적으로 생체신호 및 생체파라미터를 추출하여 그 증감패턴에 따라 반복적으로 감정유도프로토콜의 콘텐츠를 변화시킴으로써, 사용자의 감정이 만족한 상태에 도달되었다. According to these configurations, the user is provided with the physical stimulation of the contents according to the emotion induction protocol, the user repeatedly extracts the bio-signals and the bio-parameters, and repeatedly changes the contents of the emotion inducing protocol according to the increase / The emotion reached a satisfactory state.
하지만, 종래의 감정유도장치(10)는 사용자의 감정을 느끼는 성향과는 무관하게 감정유도프로토콜이 항상 초기 레벨 값으로 시작되므로, 사용자별 다양한 성향에 대한 맞춤 제공이 이루어지지 못하였다. 또한, 검출되는 생체파라미터의 수가 너무 작고, 이들 생체파라미터의 증감패턴에 대한 편차(-1,0,1 등의 3가지)가 너무 좁기 때문에 사용자가 목표하는 감정상태에 도달되었는지에 대한 오차가 현저히 컸다. 이 때문에 목표 감정에 도달하지 못하면 사용자가 별도의 버튼을 누르는 등의 물리적 신호를 발생시켜 감정유도프로토콜을 인위적으로 변화시켜야 하였다. 이로 인해, 궁극적으로 감정을 유도하기 위한 객관적인 연구자료로서의 신빙성이 저하되는 문제점이 있었다.
However, since the conventional
상기된 문제점을 해소하기 위해 안출된 본 발명의 제1목적은 생체파라미터에 대해 폭넓게 다양화하면서 증감패턴 역시 다양화하고, 이를 기초로 하여 감정을 강도별로 정형화하여 단계별로 추출하며, 감정의 강도별 단계에 상응하도록 감정유도프로토콜을 단계별로 제공함으로써, 감정에 관련된 중추 및 말초 반응 연구에서 감정을 측정하는 연구자료로서 객관적으로 인정될 수 있도록 한 감정이 강도별 단계로 정형화된 감정유발시스템 및 이를 이용한 감정유발방법을 제공함에 있다. The first object of the present invention, which has been devised to solve the above-mentioned problems, is to diversify the variation patterns of the biological parameters and broaden the variation of the biological parameters. Based on this, The emotional induction system is characterized in that emotions that can be objectively recognized as research data to measure emotions in the central and peripheral reaction studies related to the emotions are formulated in stages according to intensity, Thereby providing an emotion inducing method.
또한, 본 발명의 제2목적은 객관적인 실험을 통해 감정유발프로토콜을 미리 정형화하여 강도별로 세분화함으로써, 객관적인 자료를 통해 사용자의 성향에 따라 해당 목표 감정에 해당하는 단계로 곧바로 도달할 수 있도록 된 감정이 강도별 단계로 정형화된 감정유발시스템 및 이를 이용한 감정유발방법을 제공함에 있다.
The second object of the present invention is to provide an emotion-based emotion generating apparatus and a method for emotion-based emotion-based emotion- And an emotion inducing method using the emotion inducing system.
상기의 목적을 달성하기 위해 본 발명에 따른 감정유발시스템은, 사용자로부터 감정을 유발하기 위한 감정유발시스템에 있어서, 생체신호를 검출하는 생체신호검출부; 생체신호로부터 추출된 생체파라미터의 증감패턴에 따라 해당하는 감정유발프로토콜의 신호를 출력하는 데이터베이스부; 감정유발프로토콜의 신호에 의해 신체를 자극하는 자극모듈부; 생체신호로부터 추출된 생체파라미터의 증감패턴을 비교 분석하여 감정의 강도 단계별로 정형화하도록 데이터를 추출하는 제어부; 및 제어부에서 졍형화된 감정의 강도 단계별 데이터를 저장하는 감정의 강도 단계별 데이터저장부;가 포함되어 이루어진다. In order to achieve the above object, an emotion inducing system according to the present invention is an emotion inducing system for inducing emotion from a user, comprising: a bio signal detector for detecting a bio signal; A database unit that outputs a signal of a corresponding emotion-inducing protocol according to a variation pattern of a biological parameter extracted from a biological signal; A stimulation module unit for stimulating the body by a signal of an emotion inducing protocol; A control unit for comparing and analyzing the increase / decrease patterns of the biological parameters extracted from the bio-signals and extracting data so as to formulate the bio-parameters according to the intensity intensity stages; And a step-by-step data storage unit for storing emotion intensity step-by-step data stored in the control unit.
여기서, 제어부는 감정의 강도 단계별로 정형화된 생체파라미터의 증감패턴과, 추출된 생체파라미터의 증감패턴을 비교 분석하여 원하는 감정 단계에 도달하였는지 판단한다. Here, the controller compares the increase / decrease patterns of the bio-parameters that have been formatted according to the intensity levels of the emotion and the increase / decrease patterns of the extracted bio-parameters to determine whether the desired emotion level has been reached.
또한, 제어부는 감정의 강도 단계별로 정형화된 생체파라미터의 증감패턴과, 추출된 생체파라미터의 증감패턴이 일치하지 않은 경우, 감정의 강도 단계를 조정하도록 감정의 강도 단계별 데이터 저장부의 출력신호를 제어한다. In addition, the control unit controls the output signal of the data storing unit according to the intensity level of the emotion so as to adjust the intensity level of the emotion when the increase / decrease pattern of the biometrics parameter shaped by the intensity intensity step and the increase / decrease pattern of the extracted bio- .
또한, 제어부는 사용자의 신체에 나타나는 생체파라미터들의 변화를 실시간으로 검출하도록 생체신호검출부를 제어하고, 생체파라미터들의 변화에 따라 감정유발프로토콜의 단계를 변화시키도록 감정유발프로토콜 데이터베이스를 제어한다. In addition, the control unit controls the bio-signal detection unit to detect a change of the bio-parameters appearing in the user's body in real time, and controls the emotion-inducing protocol database to change the step of the emotion-inducing protocol according to the change of the bio-parameters.
한편, 생체신호검출부는 감정 상태별 사용자의 심박, 호흡 및 피부의 변화 등을 포함한 생체신호를 검출하기 위한 생체신호감지부가 포함된다. On the other hand, the bio-signal detection unit includes a bio-signal detection unit for detecting a bio-signal including a heartbeat, respiration, skin change, etc. of the user for each emotion state.
여기서, 생체신호감지부는 심박을 검출하기 위한 심박검출센서, 호흡을 검출하기 위한 호흡검출센서 및, 피부 변화를 검출하기 위한 피부변화검출센서가 포함되어 이루어진다. Here, the biological signal sensing unit includes a heartbeat detection sensor for detecting heartbeat, a respiration detection sensor for detecting respiration, and a skin change detection sensor for detecting skin change.
또한, 생체신호검출부는 사용자의 얼굴 영상을 획득하기 위한 영상획득부; 및 사용자의 음성을 획득하기 위한 음성획득부;가 더 포함된다. The bio-signal detection unit may include an image acquisition unit for acquiring a user's face image; And a voice acquiring unit for acquiring a voice of the user.
여기서, 영상획득부는 사용자의 얼굴 영상을 촬영하기 위한 카메라가 포함되어 이루어지고, 그리고 획득된 사용자의 얼굴 영상과, 일상의 기준 얼굴 영상을 비교하여 현재 사용자의 감정을 판단하기 위한 생체파라미터를 검출한다. Here, the image acquiring unit includes a camera for capturing a face image of a user, and compares the obtained face image of the user with a daily reference face image to detect a biometric parameter for determining the emotion of the current user .
또한, 음성획득부는 사용자의 음성을 녹음하기 위한 마이크가 포함되어 이루어지고, 그리고 획득된 사용자의 음성과 일상의 기준 음성을 비교하여 현재 사용자의 감정을 판단하기 위한 생체파라미터를 검출한다. The voice acquiring unit includes a microphone for recording a voice of a user, and compares the voice of the user with the voice of the user, and detects a bio-parameter for determining the emotion of the current user.
한편, 데이터베이스부는 생체파라미터 및 생체파라미터 증감패턴이 저장되는 생체파라미터 데이터베이스; 및, 사용자의 감정을 유발할 수 있는 콘텐츠 및 이들 콘텐츠를 조합 또는 단독으로 감정의 정도 차이에 따라 단계별로 프로토콜화되어 저장되는 감정유발프로토콜 데이터베이스;가 포함되어 이루어진다. On the other hand, the database unit includes a biometric parameter database storing biometric parameters and biometric parameter increase / decrease patterns; And an emotion-inducing protocol database that is stored in a form of a protocol in stages according to the degree of emotion of a combination of the contents or a content capable of causing the user's emotions.
여기서, 감정유발프로토콜 데이터베이스는 사용자의 감정 상태에 대한 생체신호의 증감을 유발할 수 있는 감정유발프로토콜이 감정의 강도 단계에 부합되도록 단계별로 저장된다. Here, the emotion-inducing protocol database is stored step by step so that the emotion inducing protocol that can cause the increase / decrease of the biological signals with respect to the emotion state of the user matches the emotion intensity stage.
또한, 데이터베이스부는 사용자의 얼굴 영상에 관한 생체파라미터 및 얼굴 영상의 변화에 대한 생체파라미터의 증감패턴이 저장되는 영상저장 데이터베이스; 및, 사용자의 음성에 관한 생체파라미터 및 음성의 변화에 대한 생체파라미터의 증감패턴이 저장되는 음성저장 데이터베이스;가 더 포함되어 이루어진다. In addition, the database unit may include an image storage database in which a biometric parameter relating to a user's face image and a variation pattern of a biometric parameter with respect to a change in a facial image are stored; And a voice storage database for storing a change pattern of a biometric parameter related to a voice of a user and a change of a biometric parameter with respect to a change of voice.
또한, 자극모듈부는 사용자의 시각을 자극하는 시각자극모듈; 및 사용자의 청각을 자극하는 청각자극모듈;이 포함되어 이루어진다. The stimulus module may include a visual stimulus module for stimulating the user's vision; And an auditory stimulation module for stimulating the auditory sense of the user.
한편, 본 발명에 따른 감정유발시스템을 이용하여 감정을 유발하는 방법에 있어서, 원하는 감정을 선택하는 제1단계(S10); 감정의 목표로 하는 강도 단계를 선택하는 제2단계(S20); 사용자의 생체신호를 검출하는 제3단계(S30); 검출된 생체신호로부터 제1생체파라미터를 추출하는 제4단계(S40); 제2단계(S20)에서 선택된 단계의 강도에 부합되는 자극을 제공하는 신호를 출력하는 제5단계(S50); 사용자의 생체신호를 재검출하는 제6단계(S60); 재검출된 생체신호로부터 제2생체파라미터를 추출하는 제7단계(S70); 제1생체파라미터 및 제2생체파라미터를 분석하여 생체파라미터의 증감패턴을 추출하는 제8단계(80); 제1,2생체파라미터의 분석된 생체파라미터의 증감패턴과, 선택된 감정의 목표 강도 단계에 해당하는 생체파라미터의 증감패턴을 비교하여 차이를 계산하는 제9단계(S90); 및 제9단계(S90)에서의 생체파라미터의 증감패턴의 차이를 기초로 하여 사용자의 감정상태가 원하는 목표의 감정 단계와 부합되는지 판단하고, 부합되면 종료하는 제10단계(S100);가 포함되어 이루어진다. Meanwhile, in the method for inducing emotion using the emotion inducing system according to the present invention, a first step (SlO) for selecting a desired emotion; A second step S20 of selecting a strength level to be the target of emotion; A third step (S30) of detecting a user's biological signal; A fourth step (S40) of extracting a first biological parameter from the detected biological signal; A fifth step S50 of outputting a signal for providing a stimulus corresponding to the intensity of the selected step in the second step S20; A sixth step S60 of re-detecting the user's biological signal; A seventh step (S70) of extracting a second biological parameter from the re-detected biological signal; An eighth step (80) of analyzing the first biological parameter and the second biological parameter to extract a variation pattern of the biological parameter; A ninth step (S90) of calculating a difference by comparing the variation pattern of the analyzed biological parameters of the first and second biological parameters with the variation patterns of the biological parameters corresponding to the target intensity levels of the selected emotions; (S100) of judging whether the emotion state of the user matches the emotion step of the desired target on the basis of the difference of the increase / decrease pattern of the biological parameters in the ninth step (S90) .
여기서, 본 발명에 따른 감정을 유발하는 방법에는 제10단계(S100)에서 사용자가 원하는 목표의 감정의 강도 단계에 도달되지 않았으면 감정의 강도 단계를 변화시켜 사용자에게 자극 신호를 출력하는 제5단계(S50)로 회귀하는 제11단계(S110);가 더 포함되어 이루어진다. Here, the method for inducing emotion according to the present invention may include a fifth step (S100) of outputting a stimulus signal to the user by changing the intensity level of emotion if the user does not reach the intensity level of the desired emotion And returning to step S50 (S110).
여기서, 제9단계(S90)에서 감정의 강도 단계별 생체파라미터 증감패턴은 단계별로 미리 정형화되어 저장된다. Here, in the ninth step (S90), the biometric parameter increase / decrease pattern for each step of the emotion intensity is preformatted and stored in advance in stages.
또한, 감정의 정형화된 강도 단계별 생체파라미터 증감패턴은 피험자들로부터 추출된 생체파라미터 증감패턴을 평균화하여 산출된다. In addition, the regular intensity intensity stepwise biometric parameter increase / decrease pattern of emotion is calculated by averaging the biometric parameter increase / decrease patterns extracted from the subjects.
또한, 감정의 강도 단계별 생체파라미터 증감패턴은 반복적으로 획득되는 생체파라미터의 증감패턴이 지속적으로 누적된다. In addition, the biometric parameter increase / decrease pattern for each step of the intensity of emotion continuously accumulates the increase / decrease pattern of the biometric parameter obtained repeatedly.
또한, 제3단계(S30)에서 검출하는 생체신호는 심박, 호흡 및 피부의 변화 중 적어도 하나이다. In addition, the bio-signals detected in the third step S30 are at least one of heartbeat, respiration, and skin changes.
또한, 제3단계(S30)에서 검출하는 생체신호는 사용자의 얼굴 영상 및 음성 중 적어도 하나를 더 포함한다. In addition, the bio-signal detected in the third step S30 further includes at least one of a user's face image and voice.
또한, 제2단계(S20)에서 감정의 강도 단계는 사용자가 직접 선택하거나 또는 입력되어 있는 사용자의 정보에 따라 선택된다.
Also, in the second step S20, the intensity level of the emotion is selected according to the information of the user directly selected or input by the user.
상술된 바와 같이 본 발명에 따르면, 실험을 통해 감정에 대해 강도별로 정형화시켜 단계화하고, 감정의 각 강도에 따라 최적의 콘텐츠, 생체파라미터 및 감정유발프로토콜을 사전(事前) 반복 실험으로 객관화함으로써, 사용자의 주관적인 감정의 정도에 대해 객관적인 결과를 도출할 수 있는 효과가 있다. As described above, according to the present invention, the emotion is stereotyped and leveled by the experiment, and the optimal content, the biological parameter, and the emotion inducing protocol are objectified by a preliminary iterative experiment according to the intensity of the emotion, It is possible to obtain an objective result about the degree of the subjective feeling of the user.
또한, 감정을 유발하기 위한 콘텐츠, 생체파라미터 및 감정유발프로토콜을 실험에 의해 단계별로 세분화함으로써, 종래보다 더욱 세밀한 조건을 객관적인 자료에 의해 정확하게 제공할 수 있는 효과가 있다. Further, the contents for causing emotion, the biological parameters, and the emotion inducing protocol are subdivided in stages according to experiments, so that more detailed conditions can be accurately provided by objective data.
또한, 시각 및 청각 등의 자극을 단계별로 제공함으로써, 사용자가 원하는 감정에 정확하게 도달할 수 있고, 이때 사용된 자료가 객관적인 자료로 활용될 수 있는 효과가 있다. In addition, by providing stimulation such as visual and auditory steps in stages, the user can reach the desired emotion precisely, and the data used at this time can be utilized as objective data.
또한, 종래의 온도, 습도 및 조명 등을 배제하면서 동영상, 음악, 광고, 드라마, 이미지 등의 시각 및 청각으로 자극모듈을 단순화하고, 이 자극모듈을 통해 생체신호를 폭넓게 다양화하여 더욱 객관성, 효과성 및 신뢰도를 향상시켜 사용자가 원하는 감정을 정확하게 유발할 수 있는 효과가 있다. In addition, while excluding conventional temperature, humidity and illumination, the stimulation module is simplified by visual and auditory aspects such as video, music, advertisement, drama, image, etc., and the stimulation module broadens the bio- It is possible to improve the quality and reliability and accurately induce the user's desired emotion.
또한, 감정유발프로세스가 진행되는 동안 실시간으로 사용자의 생체신호를 피드백하고, 이 피드백에 따라 실시간으로 자극의 정도를 단계별로 가변시킴으로써, 원하는 감정에 더욱 빠르고, 정확하게 도달할 수 있는 효과가 있다. 이때, 사용자가 직접 목표 감정 신호를 입력하면 해당하는 감정 강도의 단계가 즉시 시행될 수 있다. In addition, the user's bio-signal is fed back in real time during the emotion inducing process, and the degree of stimulation is changed step by step in real time according to the feedback, thereby achieving the desired emotion more quickly and accurately. At this time, if the user directly inputs the target emotion signal, the step of the corresponding emotion intensity can be immediately executed.
또한, 감정와 관련된 중추 및 말초 반응 연구에서 감정의 정도를 피험자의 주관적 판단에 의한 감정의 정도에 의존하는 현상으로부터 탈피하고, 객관화된 단계별 강도의 자극이 제공됨에 따라 지극히 객관적인 자료로 활용이 가능하다는 효과가 있다. 이로 인해, 감정관련 신경 네트워크 및 생리 반응 규명에 활용될 수 있고, 감정에 따른 표준화된 뇌 및 말초 반응의 인덱스 개발이 가능해지는 효과가 있다. 또한 정상인보다 감정를 적게 경험하는 성격 장애자 또는 정신분열증 환자의 감정 치료 프로그램에서 감정유발의 정도를 객관적으로 측정할 수 있는 효과가 있다.
In addition, in the study of central and peripheral reactions related to emotions, the degree of emotion is removed from the phenomenon that depends on the degree of subjective emotions by subject, and it is possible to utilize it as an objective data as the stimulation of the objective stepwise intensity is provided . As a result, it can be utilized for identifying neural networks and physiological responses related to emotions, and it is possible to develop indexes of standardized brain and peripheral responses according to emotions. In addition, there is an effect that the degree of emotional induction can be objectively measured in an emotional therapy program of a person with a personality disorder or schizophrenia who experiences less emotion than a normal person.
도 1은 종래의 감정유발장치가 개략적으로 도시된 블럭도이다.
도 2는 본 발명의 바람직한 실시예에 따른 감정이 강도별 단계로 정형화된 감정유발시스템이 개략적으로 도시된 블럭도이다.
도 3은 도 2의 감정유발시스템을 이용하는 사용자의 생리신호를 실시간으로 피드백하는 장치의 사용예가 개략적으로 도시된 사용 상태도이다.
도 4는 도 2의 감정유발시스템을 이용한 감정유발방법의 흐름도이다. 1 is a block diagram schematically showing a conventional emotion inducing apparatus.
2 is a block diagram schematically illustrating an emotion inducing system in which emotion according to a preferred embodiment of the present invention is stereotyped in steps at intensity.
FIG. 3 is a use state diagram schematically showing an example of use of an apparatus for feeding back the physiological signal of a user using the emotion inducing system of FIG. 2 in real time.
4 is a flowchart of an emotion inducing method using the emotion inducing system of FIG.
이하에서는 본 발명의 바람직한 실시예에 따른 감정이 강도별 단계로 정형화된 감정유발시스템에 대해 첨부된 도면을 참조하여 상세히 설명한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an emotion inducing system according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.
<구성><Configuration>
도 2는 본 발명의 바람직한 실시예에 따른 감정이 강도별 단계로 정형화된 감정유발시스템이 개략적으로 도시된 블럭도이고, 도 3은 도 2의 감정유발시스템을 이용하는 사용자의 생리신호를 실시간으로 피드백하는 장치의 사용예가 개략적으로 도시된 사용 상태도이다.
FIG. 2 is a block diagram schematically showing an emotion inducing system in which emotion according to a preferred embodiment of the present invention is stereotyped according to intensity, FIG. 3 is a graph showing the physiological signal of a user using the emotion inducing system of FIG. Fig. 2 is a schematic view showing a use state of the apparatus shown in Fig.
본 발명에 따른 감정유발시스템(100)은 생체신호검출부(110), 데이터베이스부(120), 감정의 강도 단계별 데이터저장부(130), 자극모듈부(140) 및 제어부(150)가 포함되어 이루어진다. The
먼저, 생체신호검출부(110)는 사용자의 감정상태를 객관적으로 획득하기 위한 것으로, 생체신호감지부(111)를 통해 사용자의 생체신호를 얻게 된다. First, the
여기서, 생체신호감지부(111)는 사용자의 현재 감정상태를 검출하기 위해 심박, 호흡량, 혈류량, 피부전도, 피부온도 등을 검출할 수 있는 다양한 센서 및 장치가 이용된다. 여기서, 생체신호감지부(111)에서는 심박율(HR : Heart Rate), RR간격의 표준편차(SD_RRI : Standard Deviation of RR Interval), 심박의 저주파 성분(LF : Low Frequency), 심박의 고주파 성분(HF : High Frequency), 심박변산성(HRV : Heart Rate Variablilty), 혈류량(BVP : Blood Volume Pulse) 및, 맥파도달시간(PTT : Pulse Transit Time) 등을 검출한다. 또한, 생체신호감지부(111)에서는 심장근육의 수축 확장에 따른 활동 전류를 측정하는 심전도(ECG or Electrocardiogran)센서 및, 혈관 굵기의 변화에 따른 광혈류량의 변화를 측정하는 PPG(Photo-electric pluse PlethysmoGraph)센서 등이 더 이용될 수 있다. 또한, 생체신호감지부(111)에서는 호흡성 부정맥(RSA : Respiratory Sinus Arrhythmia), 호흡율(Resp_R : Respiratory Rate), 호흡진폭(Resp_A : Respiratory Amplitude) 및, 호흡율의 표준편차(Resp_Rsd : Standard deviation of Respiratory Amplitude) 등을 검출한다. 또한, 생체신호감지부(111)에서는 피부전도수준(SCL : Skin Conductance Level), 피부전도반응(SCR : Skin Conductance Response) 및, 최대피부온도(maxSKT : maximum Skin Temperature) 등을 검출한다. 이 생체신호감지부(111)에 사용되는 센서는 시계형태로 제작되어 손목에 착용할 수도 있고, 벨트 형태로 제작되어 팔, 목, 허리 또는 다리 등에 착용할 수도 있다. Here, the
또한, 생체신호감지부(111)는 영상획득부(112) 및 음성획득부(113)를 더 포함할 수 있다. 영상획득부(112)는 도 3에서와 같이 사용자의 얼굴을 카메라(112a)로 촬영하여 얼굴 정보를 검출할 수 있다. 이때, 얼굴 정보를 추출하는 알고리즘으로는 가버필터를 이용한 알고리즘, 사각 특징점(rectangle features)을 이용한 AdaBoost 알고리즘, 아이겐훼이스(Eigenface) 알고리즘, PCA(Pricipal Conponent Analysis), 템블리트 매칭방법 등이 사용될 수 있다. 여기서, 촬영된 얼굴 영상을 추출한 후 미리 저장된 기준 얼굴 영상과 비교하고, 이때 전체 모양을 비교하거나 복수개의 포인트에 대해 상호 간의 거리를 비교하여 감정 상태를 검출할 수 있다. 또한, 음성획득부(113)는 사용자의 음성을 마이크(113a)를 통해 녹음하여 미리 녹음된 기준 음성과 비교하여 음성의 피치, 세기 및 빠르기 등을 비교하여 감정 상태를 검출할 수 있다. 이때, 필터뱅크를 이용한 LFPC(Log Frequency Power Coefficient)를 사용할 수 있다. 이때, 현재 얼굴 영상과 기준 얼굴 영상 및 이들의 비교상태를 실시간으로 모니터(112b)에 활성화시키면서 현재의 감정 상태를 표시한다. 또한, 현재 음성과, 기준 음성 및 이들의 비교상태를 실시간으로 모니터(112b)에 활성화시키면서 현재의 감정 상태를 표시한다. 이때의 영상파라미터 및 음성파라미터, 영상파라미터의 증감패턴 및 음성파라미터의 증감패턴은 각각 영상저장 데이터베이스(123) 및 음성저장 데이터베이스(124)에 저장된다. The biological
한편, 데이터베이스부(120)는 생체파라미터 데이터베이스(121), 감정유발프로토콜 데이터베이스(122)가 포함되고, 이외에도 영상저장 데이터베이스(123), 음성저장 데이터베이스(124) 및 사용자정보 데이터베이스(125) 등이 더 포함된다. The
여기서, 생체파라미터 데이터베이스(121)는 생체신호검출부(110)에서 획득된 생체신호, 영상신호 및 음성신호가 실시간 및 콘텐츠별로 저장된다. 즉, 생체신호감지부(111)에서의 심박율(HR), RR간격의 표준편차(SD_RRI), 심박의 저주파 및 고주파 성분(LF,HF), 심박변산성(HRV), 호흡성 부정맥(RSA), 맥파도달시간(PTT), 호흡율(Resp_R), 호흡진폭(Resp_A), 호흡율의 표준편차(Resp_Rs), 호흡진폭의 표준편차(Resp_Asd), 혈류량(BVP), 피부전도수준(SCL), 피부전도반응(SCR) 및 최대피부온도(maxSKT) 등의 신호를 통해 신체에 가해지는 조건에 대한 생체파라미터를 구하여 저장한다. 또한, 영상 및 음성신호에 대한 생체파리미터도 구하여 저장한다. 또한, 각 생체파라미터들의 증감패턴들 역시 저장한다. Here, the
또한, 감정유발프로토콜 데이터베이스(122)는 사용자의 감정을 유발할 수 있는 콘텐츠를 저장하고, 이들 콘텐츠를 조합 또는 단독으로 감정의 강도 차이에 따라 프로토콜화하여 저장한다. 이 감정유발프로토콜에 의해 자극모듈부(140)로부터 물리적 신호가 출력된다. 여기서, 감정유발프로토콜은 시각 및 청각 등의 자극을 통해 사용자의 감정 상태에 대한 생리신호를 유발하기 위한 것으로, 원하는 감정을 유발할 수 있는 콘텐츠를 감정의 강도 차이에 따라 단독 또는 조합하여 이루어진 것이다. 이때의 감정유발프로토콜은 일예로 분노, 공포, 기쁨 및 슬픔의 감정을 유발하기 위한 시각자극 및, 놀람의 감정을 유발하기 위한 청각자극을 이용하고, 이 콘텐츠는 [표 1]에서와 같다. 여기서, [표 1]은 기재의 편의상 2페이지로 나누어 삽입되었다. In addition, the emotion inducing
[표 1][Table 1]
이들 콘텐츠를 다양한 피험자에게 실험하여 점수로 기재하고, 동일한 콘텐츠에 대해 감정 자극의 강도를 평균점수로 나타내면 [표 2]와 같다. These contents are experimented on various subjects and written as scores, and the strength of emotional stimulation for the same contents is shown by the average score as shown in [Table 2].
[표 2][Table 2]
또한, 영상저장 데이터베이스(123) 및 음성저장 데이터베이스(124)는 각각 생체신호검출부(110)의 영상획득부(112) 및 음성획득부(113)를 통해 입력된 데이터 및 데이터의 파라미터 등이 저장된다. 이들 영상저장 데이터베이스(123) 및 음성저장 데이터베이스(124)에 저장된 영상파라미터 및 음성파라미터는 생체파라미터와 더불어 사용자의 감정을 유발하여 나타난 반응을 분석하는데 중요한 요인이 된다. The
또한, 사용자정보 데이터베이스(125)는 사용자인터페이스부(160)를 통해 입력된 사용자의 정보를 저장하고, 생체신호검출부(110) 및 데이터베이스부(120)에 저장된 데이터가 해당 사용자별로 저장된다. 이때, 피험자 및 사용자의 정보가 저장되어 향후 재차 감정유발이 행하여질 때, 해당 피험자 및 사용자에 대한 이전 기록을 참조하기 위한 것이다. The
한편, 감정의 강도 단계별 데이터저장부(130)는 감정유발프로토콜 데이터베이스(122)에 저장된 감정유발프로토콜에 의해 나타난 감정 상태를 강도에 따라 정형화시켜 단계별로 저장한다. 이를 위해, 직업, 연령 및 성별 등의 다양한 피험자에 대해 미리 감정유발실험을 시행하고, 이를 통해 다양하고도 광범위한 생체신호를 검출하게 된다. 이들 생체신호를 분석하여 생체파라미터를 추출한 후 강도에 따른 단계별로 정형화되어 저장된다. 한편, 감정의 강도 단계별 데이터 저장부(130)에 저장된 감정의 강도 단계별로 정형화된 데이터에 대한 일예로 [표 3], [표 4] 및 [표 5]와 같이 제시된다. 여기서, [표 3]은 감정 강도 1단계이고, [표 4]는 감정 강도 2단계이며, [표 5]는 감정 강도 3단계이다. 물론, 평상심을 유지했을 때의 최초 감정 강도를 비롯하여 감정 강도 4단계 이상의 단계에 대해서도 정형화된 데이터를 제시할 수 있음은 물론이다. 이때, 감정의 강도를 정형화하기 위해 청소년과 성인으로 구분하여 각각 100명을 대상으로 실험하였다. 여기서, 감정의 강도를 정형화하기 위해 청소년과 성인으로 구분하여 각각 100명을 대상으로 실험하고, 각 피험자의 감정유발프로토콜의 자극 강도에 따라 측정된 생체파라미터들의 증감패턴을 평균화하였다. 이에 대한 결과로 [표 3], [표 4] 및 [표 5]와 같이 단계별로 감정 강도가 정형화되었다. On the other hand, the emotion intensity step-by-step
[표 3][Table 3]
[표 4][Table 4]
[표 5][Table 5]
또한, 생체파라미터의 증감패턴은 1∼5단계로 구분하고, 이에 대한 표식은 [표 6]과 같다. In addition, the increase / decrease patterns of the biological parameters are classified into 1 to 5 stages, and the markings thereof are shown in [Table 6].
[표 6]TABLE 6
따라서, [표 3], [표 4] 및 [표 5]에서 단계별로 제시된 감정 강도를 이용하여 정서 관련 신경 네트워크 및 생리 반응 규명은 물론 정서에 따른 표준화된 뇌 및 말초 반응의 인덱스 개발 등에 대해 객관화된 자료로 활용 가능하다. 또한, 자폐증, 성격 장애자 또는 정신분열증 환자 등의 정서치료 프로그램에서 감정유발 정도를 객관적으로 측정할 수 있다. 또한, 사용자의 요청 및 또는 기존 입력 자료에 의해 감정의 강도를 임의적으로 선택하고, 선택된 감정의 강도에 곧바로 도달할 수 있다. Therefore, using emotional strengths presented in step 3 in [Table 3], [Table 4], and [Table 5], the emotion related neural network and physiological response as well as the standardized brain and peripheral response index development according to emotion, It is possible to use as data. In addition, emotion induction can be objectively measured in emotional therapy programs such as autism, personality disorder, or schizophrenia. Also, the strength of emotion can be arbitrarily selected by the user's request and / or existing input data, and the strength of the selected emotion can be reached immediately.
한편, 자극모듈부(140)는 시각자극모듈(141) 및 청각자극모듈(142)이 포함되어 이루어진다. 물론, 압박, 전기적 자극 등의 촉각을 자극하기 위한 촉각자극모듈 등을 포함하여 사용자의 감각에 자극을 줄 수 있는 어떠한 자극모듈도 포함될 수 있다. 또한, 자극모듈부(140)는 사용자에 대해 기쁨, 슬픔, 분노, 공포, 혐오 및 놀람 등을 포함한 다양한 감정에 대해 [표 1]에 기재된 영화 이외에도 인터넷 동영상, TV 광고 및 드라마, 이미지, 음악, 피부 자극, 신체 압박, 게임 등이 단계별로 구분되어 이용될 수 있다. 일예로 기쁨을 유발하기 위해 영화 날아라 허동구 중 주인공에 의해 경기에서 승리하고 기뻐하는 장면을 보여줌으로써 기쁨의 감정에서 해당하는 단계의 감정을 유발할 수 있다. 이 자극모듈부(140)는 시각자극모듈(141) 및 청각자극모듈(142)을 출력하기 위해 오디오/비디오 장치 및 게임기를 비롯하여 촉각자극을 위한 압박기 및 전기발생기 등이 포함될 수 있고, 이외의 자극모듈을 출력하기 위한 센서 및 장치 등이 포함된다. Meanwhile, the
또한, 제어부(150)는 감정유발실험에서 검출된 생체신호를 분석하고, 분석된 생체신호로부터 생체파라미터를 추출하며, 추출된 생체파라미터들의 증감패턴에 따라 감정의 강도별 단계로 정형화한다. 이렇게 강도별 단계의 데이터를 정형화시켜 획득한 데이터를 감정의 강도 단계별 데이터저장부(130)로 전송한다. 또한, 제어부(150)는 생체신호검출부(110)에서 전송된 생체신호가 아날로그인 경우 디지털로 변환할 수 있는 아날로그/디지털 변환부(미도시)가 더 포함된다. 또한, 제어부(150)는 사용자가 선호 강도의 단계를 설정하면 해당 단계에 해당하는 감정유발 자극을 제공한다. 이때, 해당 단계의 감정유발프로토콜이 선정된 후 해당 단계의 자극모듈이 신호를 출력하게 된다. In addition, the
또한, 사용자인터페이스부(160)는 사용자 및 피험자의 신상정보를 입력하도록 제공되고, 해당 사용자에게 시행된 감정유발에 관련된 자료가 저장된다. 이 사용자인터페이스부(160)는 제어부(150)에 연결되고, 입력된 신상정보는 데이터베이스부(120)의 사용자정보 데이터베이스(125)에 저장된다. 향후 사용자정보 데이터베이스(125)에 저장된 사용자정보에 따라 이전 시행된 감정유발 자료를 토대로 해당 사용자에 대해 맞춤 데이터를 제공할 수 있다.
Also, the
<방법><Method>
도 4는 도 2의 감정유발시스템을 이용한 감정유발방법의 흐름도이다. 4 is a flowchart of an emotion inducing method using the emotion inducing system of FIG.
도 4에 도시된 바와 같이 본 발명에 따른 감정유발시스템을 이용한 감정유발방법은, 먼저 원하는 감정을 선택(S10)한다. 사용자는 생체신호감지센서를 신체에 부착하고, 카메라(112a) 및 마이크(113a)와 근접하게 위치한 다음 기쁨, 공포, 분노, 슬픔 및 놀람 등을 포함한 다양한 감정 중 어느 하나의 감정을 선택한다. As shown in FIG. 4, the emotion inducing method using the emotion inducing system according to the present invention first selects a desired emotion (S10). The user attaches the bio-signal detection sensor to the body and is positioned close to the
다음으로, 선택한 감정에서 목표로 하는 단계의 강도를 선택(S20)한다. 사용자는 선택한 검정에 대해 원하는 단계의 강도를 선택하여 그 이전 단계의 강도를 배제할 수 있다. 또한, 사용자인터페이스부(160)를 통해 입력된 사용자정보에 대해 사용자정보 데이터베이스(125)에 저장된 기록을 비교한 제어부(150)가 해당 단계의 강도를 선택할 수도 있다. Next, the intensity of the target step is selected from the selected emotion (S20). The user can select the intensity of the desired step for the selected test to eliminate the intensity of the previous step. In addition, the
다음으로, 사용자의 생체신호를 검출(S30)한다. 이때, 생체신호감지부(111), 영상획득부(112) 및 음성획득부(113)를 포함하는 생체신호검출부(110)로부터 생체신호를 검출한다. Next, the user's biological signal is detected (S30). At this time, the living body
다음으로, 검출된 생체신호를 기초로 하여 제1생체파라미터를 추출(S40)한다. 여기서, 생체신호검출부(110)로부터 획득된 생체신호를 제어부(150)에서 분석하여 제1생체파라미터로 추출하고, 추출된 제1생체파라미터는 생체파라미터 데이터베이스(121)에 저장한다. Next, the first biometric parameter is extracted based on the detected biometric signal (S40). Here, the
다음으로, 감정유발을 위한 자극을 제공(S50)한다. 선택한 감정의 목표 단계에 해당하는 감정유발프로토콜의 신호에 의해 시각자극모듈(141) 및 청각자극모듈(142)을 포함하는 자극모듈부(140)로부터 물리적 신호를 출력하여 신체를 자극하게 된다. Next, a stimulus for emotion induction is provided (S50). A physical signal is output from the
다음으로, 사용자의 생체신호를 재검출(S60)한다. 자극모듈부(140)에 의해 자극된 신체에 대해 변화된 생체신호를 재검출한다. 이때, 생체신호감지부(111), 영상획득부(112) 및 음성획득부(113)를 포함하는 생체신호검출부(110)가 이용된다. Next, the user's biological signal is detected again (S60). And detects the changed biological signal with respect to the body stimulated by the
다음으로, 재검출된 생체신호를 기초로 하여 제2생체파라미터를 추출(S70)한다. 여기서, 제1생체파라미터를 추출할 때와 동일하게 제어부(150)에서 재검출된 생체신호를 분석하여 제2생체파라미터로 추출하고, 추출된 제2생체파라미터는 생체파라미터 데이터베이스(121)에 저장한다. Next, based on the re-detected biomedical signal, the second biometrics parameter is extracted (S70). Here, in the same manner as in extracting the first biometric parameter, the
다음으로, 각 생체파라미터들의 변화 차이를 분석하여 증감패턴을 추출(S80)한다. 자세하게는 제1생체파라미터와 제2생체파라미터를 제어부(150)에서 비교 및 분석하여 생체파라미터의 증감패턴을 추출한 후 생체파라미터 데이터베이스(121)에 저장한다. 이 생체파라미터의 증감패턴은 상술된 바와 같이 1∼5단계로 세분화되고, 각 단계별로 대표하는 표식을 두어 인지하기 쉽게 한다. Next, the variation of each of the biological parameters is analyzed to extract an increase / decrease pattern (S80). In detail, the first biometric parameter and the second biometric parameter are compared and analyzed by the
다음으로, 제1,2생체파라미터의 증감패턴 및 목표 강도 단계에서의 패턴을 비교하여 차이를 계산(S90)한다. 이때, 사용자가 설정한 해당 목표의 강도 단계에서의 생체파라미터의 패턴과 신규 추출된 생체파라미터의 증감패턴을 제어부(150)에서 비교하고, 각 생체파라미터별로 그 차이를 계산한다. Next, the difference between the patterns of the first and second biological parameter increase / decrease patterns and the target intensity step is calculated (S90). At this time, the
다음으로, 원하는 감정의 강도 단계에 도달하였는지 판단(S100)한다. 해당 목표의 강도 단계에서의 생체파라미터의 패턴과 신규 추출된 생체파라미터의 증감패턴을 비교하여 각 생체파라미터들이 완전 동일하거나 대부분이 동일하면 최적의 수준에 도달된 것으로 판단하여 종료하게 된다. 또한 각 생체파라미터들이 완전 다르거나 대부분이 다르면 원하는 수준에 도달하지 못한 것으로 판단하여 다음 단계로 이동한다. Next, it is determined whether the intensity step of the desired emotion has been reached (S100). The pattern of the bio-parameters in the intensity step of the target is compared with the increase / decrease pattern of the newly extracted bio-parameters, and when the bio-parameters are completely equal or almost identical, it is determined that the optimal level has been reached. In addition, if each of the biological parameters is completely different or most of them are different, it is determined that the desired level has not been reached, and the procedure moves to the next step.
다음으로, 원하는 감정의 강도 단계에 도달하지 못한 경우 감정의 강도 단계를 변화시켜 자극 신호를 출력(S110)한다. 이때, 사용자가 원하는 목표의 감정 단계에 도달되지 못하면 감정 강도를 1단계 상승시켜 자극 신호를 출력하게 된다. 물론, 사용자의 감정이 과도하면 감정 단계를 1단계 하락시켜 자극 신호를 출력하게 된다. 이 단계(S110)는 감정유발 단계(S50)로 회귀하고, 그 이후로 사용자가 만족할 만한 감정의 강도에 도달하여 종료될 때까지 반복하게 된다.
Next, if the intensity stage of the desired emotion is not reached, the stimulus signal is output (S110) by changing the intensity stage of the emotion. At this time, if the user can not reach the desired emotion stage, the emotion intensity is increased by one step to output the stimulation signal. Of course, if the emotion of the user is excessive, the emotion signal is output by decreasing the emotion step by one step. This step S110 returns to the emotion inducing step S50, and thereafter repeats until the user reaches a satisfactory emotional intensity and is finished.
이상에서 설명한 바와 같이, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 상술한 실시예들은 모든 면에 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
As described above, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included within the scope of the present invention.
100...감정유발시스템 110...생체신호검출부,
111...생체신호감지부 112...영상획득부,
113...음성획득부 120...감정유발모듈,
121...생체파라미터 데이터베이스,
122...감정유발프로토콜 데이터베이스,
123...영상저장 데이터베이스,
124...음성저장 데이터베이스,
130...감정의 강도 단계별 데이터저장부,
140...자극모듈부 141...시각자극모듈,
142...청각자극모듈 150...제어부.100 ...
111 ... biological
113 ...
121 ... biological parameter database,
122 ... emotion inducing protocol database,
123 ... image storage database,
124 ... voice storage database,
130 ... Strength of emotion Stage-based data storage,
140 ...
142 ...
Claims (21)
생체신호를 검출하는 생체신호검출부(110);
상기 생체신호로부터 추출된 생체파라미터의 증감패턴에 따라 해당하는 감정유발프로토콜의 신호를 출력하는 데이터베이스부(120);
상기 감정유발프로토콜의 신호에 의해 신체를 자극하는 자극모듈부(140);
상기 생체신호로부터 추출된 상기 생체파라미터의 증감패턴을 비교 분석하여 상기 감정의 강도 단계별로 정형화하도록 데이터를 추출하는 제어부(150); 및
상기 제어부(150)에서 졍형화된 상기 감정의 강도 단계별 데이터를 저장하는 감정의 강도 단계별 데이터저장부(130);가 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템. 1. An emotion inducing system for inducing an emotion from a user,
A bio-signal detector 110 for detecting bio-signals;
A database unit (120) for outputting a signal of a corresponding emotion inducing protocol according to a variation pattern of a biological parameter extracted from the biological signal;
A stimulation module unit 140 for stimulating a body by a signal of the emotion inducing protocol;
A control unit (150) for comparing and analyzing the increase / decrease patterns of the bio-parameters extracted from the bio-signal and extracting data so as to formulate the bio-signals according to the strength levels of the emotion; And
Emotion-induced system in which the emotion is formalized by the intensity-specific step, characterized in that it comprises a ;;
상기 제어부(150)는 상기 감정의 강도 단계별로 정형화된 생체파라미터의 증감패턴과, 추출된 생체파라미터의 증감패턴을 비교 분석하여 원하는 감정 단계에 도달하였는지 판단하는 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템. The method of claim 1,
The controller 150 compares the increase / decrease pattern of the bioparameters and the extracted increase / decrease patterns of the bioparameters, which are formalized by the intensity of the emotions, and determines whether the emotions have reached the desired emotion level. Formal Emotion Induction System.
상기 제어부(150)는 상기 감정의 강도 단계별로 정형화된 생체파라미터의 증감패턴과, 추출된 생체파라미터의 증감패턴이 일치하지 않은 경우, 감정의 강도 단계를 조정하도록 상기 감정의 강도 단계별 데이터저장부(130)의 출력신호를 제어하는 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템. The method of claim 1,
The controller 150 controls the emotion intensity step data storage unit to adjust the emotion intensity step when the increase and decrease patterns of the bioparameters, which are standardized by the intensity step of the emotion, and the increase and decrease patterns of the extracted bioparameters, are not matched. Emotion induction system is characterized in that the emotion is characterized by controlling the output signal of 130) by intensity level.
상기 제어부(150)는 사용자의 신체에 나타나는 상기 생체파라미터들의 변화를 실시간으로 검출하도록 상기 생체신호검출부(110)를 제어하고, 상기 생체파라미터들의 변화에 따라 상기 감정유발프로토콜의 단계를 변화시키도록 상기 감정유발프로토콜 데이터베이스(122)를 제어하는 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템. The method of claim 1,
The controller 150 controls the biosignal detection unit 110 to detect the change of the bioparameters appearing on the user's body in real time, and to change the step of the emotion-inducing protocol according to the change of the bioparameters. Emotion induction system characterized in that the emotion is characterized by controlling the emotion-producing protocol database (122) by intensity level.
상기 생체신호검출부(110)는 감정 상태별 상기 사용자의 심박, 호흡 및 피부의 변화 등을 포함한 상기 생체신호를 검출하기 위한 생체신호감지부(111)가 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템. The method of claim 1,
The biosignal detection unit 110 includes a biosignal detection unit 111 for detecting the biosignal including the heartbeat, respiration, and skin changes of the user for each emotional state. Emotional induction system formalized in stages.
상기 생체신호감지부(111)는 심박을 검출하기 위한 심박검출센서, 호흡을 검출하기 위한 호흡검출센서 및, 피부 변화를 검출하기 위한 피부변화검출센서가 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템. The method of claim 5,
The bio-signal detecting unit 111 includes a heartbeat detecting sensor for detecting a heartbeat, a respiration detecting sensor for detecting respiration, and a skin change detecting sensor for detecting a skin change. The emotion inducing system formulated in stages.
상기 생체신호검출부(110)는,
상기 사용자의 얼굴 영상을 획득하기 위한 영상획득부(112); 및
상기 사용자의 음성을 획득하기 위한 음성획득부(113);가 더 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템. The method of claim 5,
The bio-signal detector 110 detects the bio-
An image obtaining unit (112) for obtaining a face image of the user; And
And a voice acquiring unit (113) for acquiring the voice of the user. The emotion generating system according to claim 1, further comprising:
상기 영상획득부(112)는 상기 사용자의 얼굴 영상을 촬영하기 위한 카메라(112a) 및 활성화시키기 위한 모니터(112b)가 포함되어 이루어지고, 그리고
획득된 상기 사용자의 얼굴 영상과, 일상의 기준 얼굴 영상을 비교하여 현재 상기 사용자의 감정을 판단하기 위한 생체파라미터를 검출하는 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템.The method of claim 7, wherein
The image acquiring unit 112 includes a camera 112a for photographing the face image of the user and a monitor 112b for activating the face image of the user,
And comparing the acquired face image of the user with a reference face image of a daily life to detect a biometrics parameter for judging an emotion of the user at present.
상기 음성획득부(113)는 상기 사용자의 음성을 녹음하기 위한 마이크(113a)가 포함되어 이루어지고, 그리고
획득된 상기 사용자의 음성과 일상의 기준 음성을 비교하여 현재 상기 사용자의 감정을 판단하기 위한 생체파라미터를 검출하는 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템. The method of claim 7, wherein
The voice acquiring unit 113 includes a microphone 113a for recording the voice of the user,
And comparing the acquired voice of the user with a daily reference voice to detect a biometric parameter for determining the emotional state of the user at present.
상기 데이터베이스부(120)는,
상기 생체파라미터 및 상기 생체파라미터 증감패턴이 저장되는 생체파라미터 데이터베이스(121); 및
상기 사용자의 감정을 유발할 수 있는 콘텐츠 및, 이들 콘텐츠를 조합 또는 단독으로 감정의 정도 차이에 따라 단계별로 프로토콜화되어 저장되는 감정유발프로토콜 데이터베이스(122);가 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템. The method of claim 1,
The database unit 120 may include:
A biometric parameter database (121) storing the biometric parameter and the biometric parameter increase / decrease pattern; And
And an emotion-inducing protocol database (122) stored in a form of a protocol for each step in accordance with the difference in degree of emotion between the content and the content that can cause the emotion of the user. Emotional induction system stereotyped at a different stage.
상기 감정유발프로토콜 데이터베이스(122)는 상기 사용자의 감정 상태에 대한 생체신호의 증감을 유발할 수 있는 상기 감정유발프로토콜이 상기 감정의 강도 단계에 부합되도록 단계별로 저장된 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템. The method of claim 10,
Wherein the emotion-inducing protocol database (122) stores the emotion-inducing protocol capable of causing the increase / decrease of the biological signal with respect to the emotion state of the user to be matched with the intensity stage of the emotion. Formal emotional induction system.
상기 데이터베이스부(120)는,
상기 사용자의 얼굴 영상에 관한 생체파라미터 및, 얼굴 영상의 변화에 대한 생체파라미터의 증감패턴이 저장되는 영상저장 데이터베이스(123); 및
상기 사용자의 음성에 관한 생체파라미터 및, 음성의 변화에 대한 생체파라미터의 증감패턴이 저장되는 음성저장 데이터베이스(124);가 더 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템. The method of claim 10,
The database unit 120 may include:
An image storage database (123) storing biometric parameters related to the face image of the user and variation patterns of biometric parameters with respect to changes of a facial image; And
And a voice storage database (124) in which a biometric parameter related to the voice of the user and a variation pattern of a biometric parameter with respect to a change in voice are stored. The emotion inducing system according to claim 1, .
상기 자극모듈부(140)는,
상기 사용자의 시각을 자극하는 시각자극모듈(141); 및
상기 사용자의 청각을 자극하는 청각자극모듈(142);이 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템. The method of claim 1,
The stimulation module unit 140 includes:
A visual stimulation module 141 for stimulating the time of the user; And
And an auditory stimulation module (142) for stimulating the auditory sense of the user.
원하는 감정을 선택하는 제1단계(S10);
상기 감정의 목표로 하는 강도 단계를 선택하는 제2단계(S20);
상기 사용자의 생체신호를 검출하는 제3단계(S30);
검출된 상기 생체신호로부터 제1생체파라미터를 추출하는 제4단계(S40);
상기 제2단계(S20)에서 선택된 단계의 강도에 부합되는 자극을 제공하는 신호를 출력하는 제5단계(S50);
상기 사용자의 생체신호를 재검출하는 제6단계(S60);
상기 재검출된 생체신호로부터 제2생체파라미터를 추출하는 제7단계(S70);
상기 제1생체파라미터 및 상기 제2생체파라미터를 분석하여 생체파라미터의 증감패턴을 추출하는 제8단계(80);
상기 제1,2생체파라미터의 분석된 상기 생체파라미터의 증감패턴과, 선택된 상기 감정의 목표 강도 단계에 해당하는 생체파라미터의 증감패턴을 비교하여 차이를 계산하는 제9단계(S90); 및
상기 제9단계(S90)에서의 상기 생체파라미터의 증감패턴의 차이를 기초로 하여 상기 사용자의 감정상태가 원하는 목표의 감정 단계와 부합되는지 판단하고, 부합되면 종료하는 제10단계(S100);가 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법.In the method of inducing emotion using the emotion inducing system of any one of claims 1 to 13,
A first step (S10) of selecting a desired emotion;
A second step (S20) of selecting a intensity step as a target of the emotion;
A third step (S30) of detecting the biosignal of the user;
Extracting a first bio-parameter from the detected bio-signal (S40);
A fifth step (S50) of outputting a signal providing a stimulus corresponding to the intensity of the step selected in the second step (S20);
A sixth step S60 of re-detecting the user's bio-signal;
Extracting a second biological parameter from the redetected biosignal (S70);
An eighth step (80) of analyzing the first bio parameter and the second bio parameter to extract the increase / decrease pattern of the bio parameter;
A ninth step (S90) of comparing the increase / decrease pattern of the analyzed bioparameters of the first and second bioparameters with the increase / decrease pattern of the bioparameter corresponding to the target intensity step of the selected emotion (S90); And
A tenth step (S100) of determining whether an emotional state of the user is matched with an emotional step of a desired target based on the difference of the increase / decrease pattern of the bioparameter in the ninth step (S90); Emotion induction method using the emotion-induced system, which is characterized in that the emotion is characterized in that included in step by step intensity.
상기 제10단계(S100)에서 상기 사용자가 원하는 목표의 감정의 강도 단계에 도달되지 않았으면 감정의 강도 단계를 변화시켜 상기 사용자에게 자극 신호를 출력하는 제5단계(S50)로 회귀하는 제11단계(S110);가 더 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법.15. The method of claim 14,
When the user does not reach the emotion intensity step of the target desired by the user in the tenth step S100, the eleventh step of changing the emotion intensity step to return to the fifth step S50 of outputting a stimulus signal to the user (S110); Emotional induction method using the emotion-induced system is characterized in that the emotion is characterized in that it further comprises a step by step intensity.
상기 제9단계(S90)에서 상기 감정의 강도 단계별 생체파라미터 증감패턴은 단계별로 미리 정형화되어 저장된 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법. 16. The method of claim 15,
In the ninth step (S90), the emotion parameter step by step of the emotion intensity step is the emotion induction method using the emotion-induced system in which the emotion is formalized in step by step, characterized in that previously stored in the form.
상기 감정의 정형화된 강도 단계별 생체파라미터 증감패턴은 피험자들로부터 추출된 생체파라미터 증감패턴을 평균화하여 산출된 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법. 17. The method of claim 16,
The emotion parameter generation method using the emotion-induced system, wherein the emotion is formalized by intensity level, characterized in that the bioparameter increase / decrease pattern of each emotion is calculated by averaging the bioparameter increase / decrease pattern extracted from the subjects.
상기 감정의 강도 단계별 생체파라미터 증감패턴은 반복적으로 획득되는 생체파라미터의 증감패턴이 지속적으로 누적되는 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법. 18. The method of claim 17,
The bio parameter increase / decrease pattern according to the intensity of emotion is an emotion induction method using the emotion-induced system in which emotion is formalized for each intensity level, wherein the increase / decrease pattern of the bio parameter is repeatedly accumulated.
상기 제3단계(S30)에서 검출하는 상기 생체신호는 심박, 호흡 및 피부의 변화 중 적어도 하나인 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법. 16. The method of claim 15,
In the third step (S30), the bio-signal is a emotion-inducing method using the emotion-induced system in which the emotion is formalized by intensity level, characterized in that at least one of a change in heart rate, breathing and skin.
상기 제3단계(S30)에서 검출하는 상기 생체신호는 사용자의 얼굴 영상 및 음성 중 적어도 하나가 더 포함된 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법. 20. The method of claim 19,
The emotion signal using the emotion-induced system in which the emotion is formalized by intensity level, characterized in that the bio-signal detected in the third step (S30) further comprises at least one of a user's face image and voice.
상기 제2단계(S20)에서, 상기 감정의 강도 단계는 사용자가 직접 선택하거나 또는 입력되어 있는 사용자의 정보에 따라 선택되는 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법. 15. The method of claim 14,
In the second step (S20), the emotion intensity step is selected according to the user's information or directly selected by the user emotion is induced using the emotion induction system formalized by the intensity level step Way.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120015903A KR101397287B1 (en) | 2012-02-16 | 2012-02-16 | Emotion induction system regularited emotion intensity level and inducing emotion method thereof |
PCT/KR2013/000975 WO2013122353A1 (en) | 2012-02-16 | 2013-02-07 | Emotion inducing system in which emotions are formalized into levels based on strength, and emotion inducing method using same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120015903A KR101397287B1 (en) | 2012-02-16 | 2012-02-16 | Emotion induction system regularited emotion intensity level and inducing emotion method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130094555A true KR20130094555A (en) | 2013-08-26 |
KR101397287B1 KR101397287B1 (en) | 2014-05-21 |
Family
ID=48984431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120015903A KR101397287B1 (en) | 2012-02-16 | 2012-02-16 | Emotion induction system regularited emotion intensity level and inducing emotion method thereof |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101397287B1 (en) |
WO (1) | WO2013122353A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170087834A (en) * | 2016-01-21 | 2017-07-31 | 트런그램 지알트룰 셰르파 | Computer system for determining a state of mind and providing a sensory-type antidote to a subject |
WO2017200244A1 (en) * | 2016-05-18 | 2017-11-23 | 신호철 | Psychiatric symptom evaluation system utilizing audio-visual content and bio-signal analysis |
KR20210007431A (en) * | 2019-07-11 | 2021-01-20 | 주식회사 고담 | VR Content Providing System According to Bio-signal |
WO2023149652A1 (en) * | 2022-02-04 | 2023-08-10 | 주식회사 히포티앤씨 | Artificial intelligence-based customized content generating method for treating autism spectrum disorder |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI557563B (en) * | 2014-06-04 | 2016-11-11 | 國立成功大學 | Emotion regulation system and regulation method thereof |
CN105125186B (en) * | 2015-06-29 | 2018-05-25 | 王丽婷 | A kind of method and system of definite therapeutic intervention mode |
KR101689497B1 (en) * | 2016-01-13 | 2016-12-26 | 이화여자대학교 산학협력단 | Appetite control apparatus and operation method of appetite control apparatus |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100485906B1 (en) * | 2002-06-26 | 2005-04-29 | 삼성전자주식회사 | Apparatus and method for inducing emotion |
KR100903348B1 (en) * | 2007-11-28 | 2009-06-23 | 중앙대학교 산학협력단 | Emotion recognition mothod and system based on feature fusion |
KR101031426B1 (en) * | 2009-02-11 | 2011-04-26 | 성균관대학교산학협력단 | Driver Emotion Control System Using Heart Rate Measuring Device on the Safety Belt And Method Thereof |
KR101649158B1 (en) * | 2010-03-03 | 2016-08-18 | 엘지전자 주식회사 | Method for generating emotion imformation, apparatus for generating motion imformation, and image display apparatus including the same |
-
2012
- 2012-02-16 KR KR1020120015903A patent/KR101397287B1/en active IP Right Grant
-
2013
- 2013-02-07 WO PCT/KR2013/000975 patent/WO2013122353A1/en active Application Filing
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170087834A (en) * | 2016-01-21 | 2017-07-31 | 트런그램 지알트룰 셰르파 | Computer system for determining a state of mind and providing a sensory-type antidote to a subject |
WO2017200244A1 (en) * | 2016-05-18 | 2017-11-23 | 신호철 | Psychiatric symptom evaluation system utilizing audio-visual content and bio-signal analysis |
KR20210007431A (en) * | 2019-07-11 | 2021-01-20 | 주식회사 고담 | VR Content Providing System According to Bio-signal |
WO2023149652A1 (en) * | 2022-02-04 | 2023-08-10 | 주식회사 히포티앤씨 | Artificial intelligence-based customized content generating method for treating autism spectrum disorder |
Also Published As
Publication number | Publication date |
---|---|
KR101397287B1 (en) | 2014-05-21 |
WO2013122353A1 (en) | 2013-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101397287B1 (en) | Emotion induction system regularited emotion intensity level and inducing emotion method thereof | |
US7955259B2 (en) | Apparatus and method for inducing emotions | |
Balters et al. | Capturing emotion reactivity through physiology measurement as a foundation for affective engineering in engineering design science and engineering practices | |
Walter et al. | The biovid heat pain database data for the advancement and systematic validation of an automated pain recognition system | |
Masood et al. | Modeling mental stress using a deep learning framework | |
US9833184B2 (en) | Identification of emotional states using physiological responses | |
JP5432989B2 (en) | How to find the desired state in a subject | |
JP6755356B2 (en) | Detection device | |
KR101727940B1 (en) | Apparatus and method for decision of psychological state using bio signals | |
Hercegfi | Heart rate variability monitoring during human-computer interaction | |
JP2019512311A (en) | Method and apparatus for determining a criterion of one or more physiological characteristics of a subject | |
Cecchi et al. | Physical stimuli and emotions: EDA features analysis from a wrist-worn measurement sensor | |
Al-Shargie | Early detection of mental stress using advanced neuroimaging and artificial intelligence | |
Handouzi et al. | Objective model assessment for short-term anxiety recognition from blood volume pulse signal | |
Hinkle et al. | Physiological measurement for emotion recognition in virtual reality | |
CN115381413B (en) | Self-adaptive bimodal emotion adjustment method and system | |
US11241173B2 (en) | Physiological monitoring systems and methods of estimating vital-sign data | |
Marzuki et al. | Classification of human state emotion from physiological signal pattern using pulse sensor based on learning vector quantization | |
Hardacre | Psychophysiological methods in language research: Rethinking embodiment in studies of linguistic behaviors | |
US20230104641A1 (en) | Real-time Patient Monitoring for Live Intervention Adaptation | |
KR20190051540A (en) | Personalized self-stress measurement and control device using breathing relaxation training and aromatherapy | |
Jamwal et al. | Pulse Signal Processing for Analysis of Cardiovascular Diseases | |
CN116269230A (en) | Health sleep management system and method | |
Gao | A digital signal processing approach for affective sensing of a computer user through pupil diameter monitoring | |
PIERSANTI | Experimental Evaluation of a Wrist-Worn Device for the Measurement of the Galvanic Skin Response |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180427 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190418 Year of fee payment: 6 |