KR20130094555A - Emotion induction system regularited emotion intensity level and inducing emotion method thereof - Google Patents

Emotion induction system regularited emotion intensity level and inducing emotion method thereof Download PDF

Info

Publication number
KR20130094555A
KR20130094555A KR1020120015903A KR20120015903A KR20130094555A KR 20130094555 A KR20130094555 A KR 20130094555A KR 1020120015903 A KR1020120015903 A KR 1020120015903A KR 20120015903 A KR20120015903 A KR 20120015903A KR 20130094555 A KR20130094555 A KR 20130094555A
Authority
KR
South Korea
Prior art keywords
emotion
user
bio
intensity
signal
Prior art date
Application number
KR1020120015903A
Other languages
Korean (ko)
Other versions
KR101397287B1 (en
Inventor
손진훈
박미숙
엄진섭
Original Assignee
충남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충남대학교산학협력단 filed Critical 충남대학교산학협력단
Priority to KR1020120015903A priority Critical patent/KR101397287B1/en
Priority to PCT/KR2013/000975 priority patent/WO2013122353A1/en
Publication of KR20130094555A publication Critical patent/KR20130094555A/en
Application granted granted Critical
Publication of KR101397287B1 publication Critical patent/KR101397287B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/04Heartbeat characteristics, e.g. ECG, blood pressure modulation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/08Other bio-electrical signals
    • A61M2230/10Electroencephalographic signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/40Respiratory characteristics
    • A61M2230/42Rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/65Impedance, e.g. conductivity, capacity

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Psychology (AREA)
  • Medical Informatics (AREA)
  • Hematology (AREA)
  • Molecular Biology (AREA)
  • Psychiatry (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Biophysics (AREA)
  • Anesthesiology (AREA)
  • Physiology (AREA)
  • Cardiology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PURPOSE: An emotion induction system and an emotion induction system using the same are provided to deduct the subjective feeling of a user through repeated experiments. CONSTITUTION: An emotion induction system (100) comprises a bio-signal detection unit (110), a database unit (120), a stimulation module unit (140), a control unit (150), and an emotion intensity data storage unit (130). The database unit outputs a signal corresponding to an emotion induction protocol according to the increase and decrease patterns of a bio-parameter extracted from a bio-signal. The control unit outputs data to standardize emotion intensity by comparing and analyzing the increase and decrease patterns of the bio-parameter extracted from the bio-signal. The emotion intensity data storage unit stores the emotion intensity data standardized in the control unit. [Reference numerals] (111) Bio-signal detection unit; (112) Image acquisition unit; (113) Voice acquisition unit; (121) Bio-parameter DB; (122) Emotion induction protocol DB; (123) Image storage DB; (124) Voice storage DB; (125) User information DB; (130) Emotion intensity data storage unit; (141) Visual stimulation module; (142) Auditory stimulation module; (150) Control unit; (160) User interface unit

Description

감정이 강도별 단계로 정형화된 감정유발시스템 및 이를 이용한 감정유발방법{Emotion induction system regularited emotion intensity level and inducing emotion method thereof}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an emotion inducing system in which emotion is shaped according to intensity, and emotion induction method using the emotion induction system.

본 발명은 사용자의 감정을 유발하는 시스템 및 방법에 관한 것으로, 보다 상세하게는 다수의 사용자에게 감정유발프로토콜을 제공하면서 상응하는 사용자의 생체신호, 표정변화 및 음성신호를 피드백하여 사용자의 감정을 강도별 단계로 정형화하고, 이 감정 강도별 단계에 대응하도록 감정유발프로토콜을 단계별로 제공하도록 된 감정이 강도별 단계로 정형화된 감정유발시스템 및 이를 이용한 감정유발방법에 관한 것이다.
The present invention relates to a system and a method for inducing emotions of a user, and more particularly, to a system and method for inducing emotions of a user by providing emotion induction protocols to a plurality of users and feeding back corresponding bio- The present invention relates to an emotion inducing system in which emotions that are stylized at different stages and provided with emotion inducing protocols step by step so as to correspond to the emotion intensity steps are formulated into intensity steps and emotion inducing methods using the same.

일반적으로, 감정이란 인간이 가질 수 있는 정신적 상태를 의미하고, 크게는 희(喜), 노(怒), 애(哀), 락(樂)으로 구분된다. 이러한 감정에 대해 인위적인 외부 자극을 통해 유발하거나 이를 토대로 심리적 안정을 도모하고자 하는 다양한 기술적 개발이 활발히 진행되고 있는 실정이다. In general, emotion means the mental state that a human being can have, and is largely divided into hei (喜), no (怒), child (哀), and rock (樂). Various technological developments have been actively pursued to induce psychological stability based on artificial external stimulation of such feelings.

이렇듯 감정 유도를 꾀하기 위해 종래의 감정유도장치(10)는 도 1에 도시된 바와 같이, 사용자의 생체신호를 검출하는 생체신호측정모듈(11); 생체신호로부터 생체파라미터를 추출하고 그 증감패턴에 따라 감정유도프로토콜을 변화시켜 정서를 유도하는 정서유도모듈(12); 및 정서유도프로토콜에 따라 물리적 신호를 출력하는 생체자극모듈(13);이 포함되어 이루어졌다. In order to induce emotion, the conventional emotion induction apparatus 10 includes a bio-signal measurement module 11 for detecting a bio-signal of a user, as shown in FIG. 1; An emotion inducing module 12 for extracting a biological parameter from a bio-signal and changing emotion induction protocol according to the increase / decrease pattern to induce emotion; And a biostimulation module 13 for outputting a physical signal according to an emotion induction protocol.

이들 구성에 의해 사용자에게 감정유도프로토콜에 따라 콘텐츠의 물리적 자극이 제공되고, 사용자에 대해 반복적으로 생체신호 및 생체파라미터를 추출하여 그 증감패턴에 따라 반복적으로 감정유도프로토콜의 콘텐츠를 변화시킴으로써, 사용자의 감정이 만족한 상태에 도달되었다. According to these configurations, the user is provided with the physical stimulation of the contents according to the emotion induction protocol, the user repeatedly extracts the bio-signals and the bio-parameters, and repeatedly changes the contents of the emotion inducing protocol according to the increase / The emotion reached a satisfactory state.

하지만, 종래의 감정유도장치(10)는 사용자의 감정을 느끼는 성향과는 무관하게 감정유도프로토콜이 항상 초기 레벨 값으로 시작되므로, 사용자별 다양한 성향에 대한 맞춤 제공이 이루어지지 못하였다. 또한, 검출되는 생체파라미터의 수가 너무 작고, 이들 생체파라미터의 증감패턴에 대한 편차(-1,0,1 등의 3가지)가 너무 좁기 때문에 사용자가 목표하는 감정상태에 도달되었는지에 대한 오차가 현저히 컸다. 이 때문에 목표 감정에 도달하지 못하면 사용자가 별도의 버튼을 누르는 등의 물리적 신호를 발생시켜 감정유도프로토콜을 인위적으로 변화시켜야 하였다. 이로 인해, 궁극적으로 감정을 유도하기 위한 객관적인 연구자료로서의 신빙성이 저하되는 문제점이 있었다.
However, since the conventional emotion inducing apparatus 10 starts the emotion induction protocol always at the initial level irrespective of the tendency of the user to feel emotion, customized provision for various users is not provided. In addition, since the number of detected biometric parameters is too small and the deviation (three kinds of -1, 0, 1, and so on) of the biometric parameters with respect to the increasing / decreasing pattern is too narrow, an error as to whether the user has reached the target emotional state It was big. For this reason, if the target emotion is not reached, the user has to manually change the emotion induction protocol by generating a physical signal such as pressing a button. As a result, there is a problem that reliability as an objective research data for inducing emotion ultimately deteriorates.

KR2004-0000932 10KR2004-0000932 10

상기된 문제점을 해소하기 위해 안출된 본 발명의 제1목적은 생체파라미터에 대해 폭넓게 다양화하면서 증감패턴 역시 다양화하고, 이를 기초로 하여 감정을 강도별로 정형화하여 단계별로 추출하며, 감정의 강도별 단계에 상응하도록 감정유도프로토콜을 단계별로 제공함으로써, 감정에 관련된 중추 및 말초 반응 연구에서 감정을 측정하는 연구자료로서 객관적으로 인정될 수 있도록 한 감정이 강도별 단계로 정형화된 감정유발시스템 및 이를 이용한 감정유발방법을 제공함에 있다. The first object of the present invention, which has been devised to solve the above-mentioned problems, is to diversify the variation patterns of the biological parameters and broaden the variation of the biological parameters. Based on this, The emotional induction system is characterized in that emotions that can be objectively recognized as research data to measure emotions in the central and peripheral reaction studies related to the emotions are formulated in stages according to intensity, Thereby providing an emotion inducing method.

또한, 본 발명의 제2목적은 객관적인 실험을 통해 감정유발프로토콜을 미리 정형화하여 강도별로 세분화함으로써, 객관적인 자료를 통해 사용자의 성향에 따라 해당 목표 감정에 해당하는 단계로 곧바로 도달할 수 있도록 된 감정이 강도별 단계로 정형화된 감정유발시스템 및 이를 이용한 감정유발방법을 제공함에 있다.
The second object of the present invention is to provide an emotion-based emotion generating apparatus and a method for emotion-based emotion-based emotion- And an emotion inducing method using the emotion inducing system.

상기의 목적을 달성하기 위해 본 발명에 따른 감정유발시스템은, 사용자로부터 감정을 유발하기 위한 감정유발시스템에 있어서, 생체신호를 검출하는 생체신호검출부; 생체신호로부터 추출된 생체파라미터의 증감패턴에 따라 해당하는 감정유발프로토콜의 신호를 출력하는 데이터베이스부; 감정유발프로토콜의 신호에 의해 신체를 자극하는 자극모듈부; 생체신호로부터 추출된 생체파라미터의 증감패턴을 비교 분석하여 감정의 강도 단계별로 정형화하도록 데이터를 추출하는 제어부; 및 제어부에서 졍형화된 감정의 강도 단계별 데이터를 저장하는 감정의 강도 단계별 데이터저장부;가 포함되어 이루어진다. In order to achieve the above object, an emotion inducing system according to the present invention is an emotion inducing system for inducing emotion from a user, comprising: a bio signal detector for detecting a bio signal; A database unit that outputs a signal of a corresponding emotion-inducing protocol according to a variation pattern of a biological parameter extracted from a biological signal; A stimulation module unit for stimulating the body by a signal of an emotion inducing protocol; A control unit for comparing and analyzing the increase / decrease patterns of the biological parameters extracted from the bio-signals and extracting data so as to formulate the bio-parameters according to the intensity intensity stages; And a step-by-step data storage unit for storing emotion intensity step-by-step data stored in the control unit.

여기서, 제어부는 감정의 강도 단계별로 정형화된 생체파라미터의 증감패턴과, 추출된 생체파라미터의 증감패턴을 비교 분석하여 원하는 감정 단계에 도달하였는지 판단한다. Here, the controller compares the increase / decrease patterns of the bio-parameters that have been formatted according to the intensity levels of the emotion and the increase / decrease patterns of the extracted bio-parameters to determine whether the desired emotion level has been reached.

또한, 제어부는 감정의 강도 단계별로 정형화된 생체파라미터의 증감패턴과, 추출된 생체파라미터의 증감패턴이 일치하지 않은 경우, 감정의 강도 단계를 조정하도록 감정의 강도 단계별 데이터 저장부의 출력신호를 제어한다. In addition, the control unit controls the output signal of the data storing unit according to the intensity level of the emotion so as to adjust the intensity level of the emotion when the increase / decrease pattern of the biometrics parameter shaped by the intensity intensity step and the increase / decrease pattern of the extracted bio- .

또한, 제어부는 사용자의 신체에 나타나는 생체파라미터들의 변화를 실시간으로 검출하도록 생체신호검출부를 제어하고, 생체파라미터들의 변화에 따라 감정유발프로토콜의 단계를 변화시키도록 감정유발프로토콜 데이터베이스를 제어한다. In addition, the control unit controls the bio-signal detection unit to detect a change of the bio-parameters appearing in the user's body in real time, and controls the emotion-inducing protocol database to change the step of the emotion-inducing protocol according to the change of the bio-parameters.

한편, 생체신호검출부는 감정 상태별 사용자의 심박, 호흡 및 피부의 변화 등을 포함한 생체신호를 검출하기 위한 생체신호감지부가 포함된다. On the other hand, the bio-signal detection unit includes a bio-signal detection unit for detecting a bio-signal including a heartbeat, respiration, skin change, etc. of the user for each emotion state.

여기서, 생체신호감지부는 심박을 검출하기 위한 심박검출센서, 호흡을 검출하기 위한 호흡검출센서 및, 피부 변화를 검출하기 위한 피부변화검출센서가 포함되어 이루어진다. Here, the biological signal sensing unit includes a heartbeat detection sensor for detecting heartbeat, a respiration detection sensor for detecting respiration, and a skin change detection sensor for detecting skin change.

또한, 생체신호검출부는 사용자의 얼굴 영상을 획득하기 위한 영상획득부; 및 사용자의 음성을 획득하기 위한 음성획득부;가 더 포함된다. The bio-signal detection unit may include an image acquisition unit for acquiring a user's face image; And a voice acquiring unit for acquiring a voice of the user.

여기서, 영상획득부는 사용자의 얼굴 영상을 촬영하기 위한 카메라가 포함되어 이루어지고, 그리고 획득된 사용자의 얼굴 영상과, 일상의 기준 얼굴 영상을 비교하여 현재 사용자의 감정을 판단하기 위한 생체파라미터를 검출한다. Here, the image acquiring unit includes a camera for capturing a face image of a user, and compares the obtained face image of the user with a daily reference face image to detect a biometric parameter for determining the emotion of the current user .

또한, 음성획득부는 사용자의 음성을 녹음하기 위한 마이크가 포함되어 이루어지고, 그리고 획득된 사용자의 음성과 일상의 기준 음성을 비교하여 현재 사용자의 감정을 판단하기 위한 생체파라미터를 검출한다. The voice acquiring unit includes a microphone for recording a voice of a user, and compares the voice of the user with the voice of the user, and detects a bio-parameter for determining the emotion of the current user.

한편, 데이터베이스부는 생체파라미터 및 생체파라미터 증감패턴이 저장되는 생체파라미터 데이터베이스; 및, 사용자의 감정을 유발할 수 있는 콘텐츠 및 이들 콘텐츠를 조합 또는 단독으로 감정의 정도 차이에 따라 단계별로 프로토콜화되어 저장되는 감정유발프로토콜 데이터베이스;가 포함되어 이루어진다. On the other hand, the database unit includes a biometric parameter database storing biometric parameters and biometric parameter increase / decrease patterns; And an emotion-inducing protocol database that is stored in a form of a protocol in stages according to the degree of emotion of a combination of the contents or a content capable of causing the user's emotions.

여기서, 감정유발프로토콜 데이터베이스는 사용자의 감정 상태에 대한 생체신호의 증감을 유발할 수 있는 감정유발프로토콜이 감정의 강도 단계에 부합되도록 단계별로 저장된다. Here, the emotion-inducing protocol database is stored step by step so that the emotion inducing protocol that can cause the increase / decrease of the biological signals with respect to the emotion state of the user matches the emotion intensity stage.

또한, 데이터베이스부는 사용자의 얼굴 영상에 관한 생체파라미터 및 얼굴 영상의 변화에 대한 생체파라미터의 증감패턴이 저장되는 영상저장 데이터베이스; 및, 사용자의 음성에 관한 생체파라미터 및 음성의 변화에 대한 생체파라미터의 증감패턴이 저장되는 음성저장 데이터베이스;가 더 포함되어 이루어진다. In addition, the database unit may include an image storage database in which a biometric parameter relating to a user's face image and a variation pattern of a biometric parameter with respect to a change in a facial image are stored; And a voice storage database for storing a change pattern of a biometric parameter related to a voice of a user and a change of a biometric parameter with respect to a change of voice.

또한, 자극모듈부는 사용자의 시각을 자극하는 시각자극모듈; 및 사용자의 청각을 자극하는 청각자극모듈;이 포함되어 이루어진다. The stimulus module may include a visual stimulus module for stimulating the user's vision; And an auditory stimulation module for stimulating the auditory sense of the user.

한편, 본 발명에 따른 감정유발시스템을 이용하여 감정을 유발하는 방법에 있어서, 원하는 감정을 선택하는 제1단계(S10); 감정의 목표로 하는 강도 단계를 선택하는 제2단계(S20); 사용자의 생체신호를 검출하는 제3단계(S30); 검출된 생체신호로부터 제1생체파라미터를 추출하는 제4단계(S40); 제2단계(S20)에서 선택된 단계의 강도에 부합되는 자극을 제공하는 신호를 출력하는 제5단계(S50); 사용자의 생체신호를 재검출하는 제6단계(S60); 재검출된 생체신호로부터 제2생체파라미터를 추출하는 제7단계(S70); 제1생체파라미터 및 제2생체파라미터를 분석하여 생체파라미터의 증감패턴을 추출하는 제8단계(80); 제1,2생체파라미터의 분석된 생체파라미터의 증감패턴과, 선택된 감정의 목표 강도 단계에 해당하는 생체파라미터의 증감패턴을 비교하여 차이를 계산하는 제9단계(S90); 및 제9단계(S90)에서의 생체파라미터의 증감패턴의 차이를 기초로 하여 사용자의 감정상태가 원하는 목표의 감정 단계와 부합되는지 판단하고, 부합되면 종료하는 제10단계(S100);가 포함되어 이루어진다. Meanwhile, in the method for inducing emotion using the emotion inducing system according to the present invention, a first step (SlO) for selecting a desired emotion; A second step S20 of selecting a strength level to be the target of emotion; A third step (S30) of detecting a user's biological signal; A fourth step (S40) of extracting a first biological parameter from the detected biological signal; A fifth step S50 of outputting a signal for providing a stimulus corresponding to the intensity of the selected step in the second step S20; A sixth step S60 of re-detecting the user's biological signal; A seventh step (S70) of extracting a second biological parameter from the re-detected biological signal; An eighth step (80) of analyzing the first biological parameter and the second biological parameter to extract a variation pattern of the biological parameter; A ninth step (S90) of calculating a difference by comparing the variation pattern of the analyzed biological parameters of the first and second biological parameters with the variation patterns of the biological parameters corresponding to the target intensity levels of the selected emotions; (S100) of judging whether the emotion state of the user matches the emotion step of the desired target on the basis of the difference of the increase / decrease pattern of the biological parameters in the ninth step (S90) .

여기서, 본 발명에 따른 감정을 유발하는 방법에는 제10단계(S100)에서 사용자가 원하는 목표의 감정의 강도 단계에 도달되지 않았으면 감정의 강도 단계를 변화시켜 사용자에게 자극 신호를 출력하는 제5단계(S50)로 회귀하는 제11단계(S110);가 더 포함되어 이루어진다. Here, the method for inducing emotion according to the present invention may include a fifth step (S100) of outputting a stimulus signal to the user by changing the intensity level of emotion if the user does not reach the intensity level of the desired emotion And returning to step S50 (S110).

여기서, 제9단계(S90)에서 감정의 강도 단계별 생체파라미터 증감패턴은 단계별로 미리 정형화되어 저장된다. Here, in the ninth step (S90), the biometric parameter increase / decrease pattern for each step of the emotion intensity is preformatted and stored in advance in stages.

또한, 감정의 정형화된 강도 단계별 생체파라미터 증감패턴은 피험자들로부터 추출된 생체파라미터 증감패턴을 평균화하여 산출된다. In addition, the regular intensity intensity stepwise biometric parameter increase / decrease pattern of emotion is calculated by averaging the biometric parameter increase / decrease patterns extracted from the subjects.

또한, 감정의 강도 단계별 생체파라미터 증감패턴은 반복적으로 획득되는 생체파라미터의 증감패턴이 지속적으로 누적된다. In addition, the biometric parameter increase / decrease pattern for each step of the intensity of emotion continuously accumulates the increase / decrease pattern of the biometric parameter obtained repeatedly.

또한, 제3단계(S30)에서 검출하는 생체신호는 심박, 호흡 및 피부의 변화 중 적어도 하나이다. In addition, the bio-signals detected in the third step S30 are at least one of heartbeat, respiration, and skin changes.

또한, 제3단계(S30)에서 검출하는 생체신호는 사용자의 얼굴 영상 및 음성 중 적어도 하나를 더 포함한다. In addition, the bio-signal detected in the third step S30 further includes at least one of a user's face image and voice.

또한, 제2단계(S20)에서 감정의 강도 단계는 사용자가 직접 선택하거나 또는 입력되어 있는 사용자의 정보에 따라 선택된다.
Also, in the second step S20, the intensity level of the emotion is selected according to the information of the user directly selected or input by the user.

상술된 바와 같이 본 발명에 따르면, 실험을 통해 감정에 대해 강도별로 정형화시켜 단계화하고, 감정의 각 강도에 따라 최적의 콘텐츠, 생체파라미터 및 감정유발프로토콜을 사전(事前) 반복 실험으로 객관화함으로써, 사용자의 주관적인 감정의 정도에 대해 객관적인 결과를 도출할 수 있는 효과가 있다. As described above, according to the present invention, the emotion is stereotyped and leveled by the experiment, and the optimal content, the biological parameter, and the emotion inducing protocol are objectified by a preliminary iterative experiment according to the intensity of the emotion, It is possible to obtain an objective result about the degree of the subjective feeling of the user.

또한, 감정을 유발하기 위한 콘텐츠, 생체파라미터 및 감정유발프로토콜을 실험에 의해 단계별로 세분화함으로써, 종래보다 더욱 세밀한 조건을 객관적인 자료에 의해 정확하게 제공할 수 있는 효과가 있다. Further, the contents for causing emotion, the biological parameters, and the emotion inducing protocol are subdivided in stages according to experiments, so that more detailed conditions can be accurately provided by objective data.

또한, 시각 및 청각 등의 자극을 단계별로 제공함으로써, 사용자가 원하는 감정에 정확하게 도달할 수 있고, 이때 사용된 자료가 객관적인 자료로 활용될 수 있는 효과가 있다. In addition, by providing stimulation such as visual and auditory steps in stages, the user can reach the desired emotion precisely, and the data used at this time can be utilized as objective data.

또한, 종래의 온도, 습도 및 조명 등을 배제하면서 동영상, 음악, 광고, 드라마, 이미지 등의 시각 및 청각으로 자극모듈을 단순화하고, 이 자극모듈을 통해 생체신호를 폭넓게 다양화하여 더욱 객관성, 효과성 및 신뢰도를 향상시켜 사용자가 원하는 감정을 정확하게 유발할 수 있는 효과가 있다. In addition, while excluding conventional temperature, humidity and illumination, the stimulation module is simplified by visual and auditory aspects such as video, music, advertisement, drama, image, etc., and the stimulation module broadens the bio- It is possible to improve the quality and reliability and accurately induce the user's desired emotion.

또한, 감정유발프로세스가 진행되는 동안 실시간으로 사용자의 생체신호를 피드백하고, 이 피드백에 따라 실시간으로 자극의 정도를 단계별로 가변시킴으로써, 원하는 감정에 더욱 빠르고, 정확하게 도달할 수 있는 효과가 있다. 이때, 사용자가 직접 목표 감정 신호를 입력하면 해당하는 감정 강도의 단계가 즉시 시행될 수 있다. In addition, the user's bio-signal is fed back in real time during the emotion inducing process, and the degree of stimulation is changed step by step in real time according to the feedback, thereby achieving the desired emotion more quickly and accurately. At this time, if the user directly inputs the target emotion signal, the step of the corresponding emotion intensity can be immediately executed.

또한, 감정와 관련된 중추 및 말초 반응 연구에서 감정의 정도를 피험자의 주관적 판단에 의한 감정의 정도에 의존하는 현상으로부터 탈피하고, 객관화된 단계별 강도의 자극이 제공됨에 따라 지극히 객관적인 자료로 활용이 가능하다는 효과가 있다. 이로 인해, 감정관련 신경 네트워크 및 생리 반응 규명에 활용될 수 있고, 감정에 따른 표준화된 뇌 및 말초 반응의 인덱스 개발이 가능해지는 효과가 있다. 또한 정상인보다 감정를 적게 경험하는 성격 장애자 또는 정신분열증 환자의 감정 치료 프로그램에서 감정유발의 정도를 객관적으로 측정할 수 있는 효과가 있다.
In addition, in the study of central and peripheral reactions related to emotions, the degree of emotion is removed from the phenomenon that depends on the degree of subjective emotions by subject, and it is possible to utilize it as an objective data as the stimulation of the objective stepwise intensity is provided . As a result, it can be utilized for identifying neural networks and physiological responses related to emotions, and it is possible to develop indexes of standardized brain and peripheral responses according to emotions. In addition, there is an effect that the degree of emotional induction can be objectively measured in an emotional therapy program of a person with a personality disorder or schizophrenia who experiences less emotion than a normal person.

도 1은 종래의 감정유발장치가 개략적으로 도시된 블럭도이다.
도 2는 본 발명의 바람직한 실시예에 따른 감정이 강도별 단계로 정형화된 감정유발시스템이 개략적으로 도시된 블럭도이다.
도 3은 도 2의 감정유발시스템을 이용하는 사용자의 생리신호를 실시간으로 피드백하는 장치의 사용예가 개략적으로 도시된 사용 상태도이다.
도 4는 도 2의 감정유발시스템을 이용한 감정유발방법의 흐름도이다.
1 is a block diagram schematically showing a conventional emotion inducing apparatus.
2 is a block diagram schematically illustrating an emotion inducing system in which emotion according to a preferred embodiment of the present invention is stereotyped in steps at intensity.
FIG. 3 is a use state diagram schematically showing an example of use of an apparatus for feeding back the physiological signal of a user using the emotion inducing system of FIG. 2 in real time.
4 is a flowchart of an emotion inducing method using the emotion inducing system of FIG.

이하에서는 본 발명의 바람직한 실시예에 따른 감정이 강도별 단계로 정형화된 감정유발시스템에 대해 첨부된 도면을 참조하여 상세히 설명한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an emotion inducing system according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

<구성><Configuration>

도 2는 본 발명의 바람직한 실시예에 따른 감정이 강도별 단계로 정형화된 감정유발시스템이 개략적으로 도시된 블럭도이고, 도 3은 도 2의 감정유발시스템을 이용하는 사용자의 생리신호를 실시간으로 피드백하는 장치의 사용예가 개략적으로 도시된 사용 상태도이다.
FIG. 2 is a block diagram schematically showing an emotion inducing system in which emotion according to a preferred embodiment of the present invention is stereotyped according to intensity, FIG. 3 is a graph showing the physiological signal of a user using the emotion inducing system of FIG. Fig. 2 is a schematic view showing a use state of the apparatus shown in Fig.

본 발명에 따른 감정유발시스템(100)은 생체신호검출부(110), 데이터베이스부(120), 감정의 강도 단계별 데이터저장부(130), 자극모듈부(140) 및 제어부(150)가 포함되어 이루어진다. The emotion inducing system 100 according to the present invention includes a bio signal detector 110, a database unit 120, a data storage unit 130 according to intensity of emotion, a stimulation module unit 140, and a controller 150 .

먼저, 생체신호검출부(110)는 사용자의 감정상태를 객관적으로 획득하기 위한 것으로, 생체신호감지부(111)를 통해 사용자의 생체신호를 얻게 된다. First, the bio-signal detector 110 is for obtaining the user's emotional state objectively, and obtains the bio-signal of the user through the bio-signal detector 111. [

여기서, 생체신호감지부(111)는 사용자의 현재 감정상태를 검출하기 위해 심박, 호흡량, 혈류량, 피부전도, 피부온도 등을 검출할 수 있는 다양한 센서 및 장치가 이용된다. 여기서, 생체신호감지부(111)에서는 심박율(HR : Heart Rate), RR간격의 표준편차(SD_RRI : Standard Deviation of RR Interval), 심박의 저주파 성분(LF : Low Frequency), 심박의 고주파 성분(HF : High Frequency), 심박변산성(HRV : Heart Rate Variablilty), 혈류량(BVP : Blood Volume Pulse) 및, 맥파도달시간(PTT : Pulse Transit Time) 등을 검출한다. 또한, 생체신호감지부(111)에서는 심장근육의 수축 확장에 따른 활동 전류를 측정하는 심전도(ECG or Electrocardiogran)센서 및, 혈관 굵기의 변화에 따른 광혈류량의 변화를 측정하는 PPG(Photo-electric pluse PlethysmoGraph)센서 등이 더 이용될 수 있다. 또한, 생체신호감지부(111)에서는 호흡성 부정맥(RSA : Respiratory Sinus Arrhythmia), 호흡율(Resp_R : Respiratory Rate), 호흡진폭(Resp_A : Respiratory Amplitude) 및, 호흡율의 표준편차(Resp_Rsd : Standard deviation of Respiratory Amplitude) 등을 검출한다. 또한, 생체신호감지부(111)에서는 피부전도수준(SCL : Skin Conductance Level), 피부전도반응(SCR : Skin Conductance Response) 및, 최대피부온도(maxSKT : maximum Skin Temperature) 등을 검출한다. 이 생체신호감지부(111)에 사용되는 센서는 시계형태로 제작되어 손목에 착용할 수도 있고, 벨트 형태로 제작되어 팔, 목, 허리 또는 다리 등에 착용할 수도 있다. Here, the biosignal sensing unit 111 uses various sensors and devices capable of detecting heartbeat, respiration, blood flow, skin conduction, and skin temperature to detect the current emotional state of the user. Here, the bio-signal detection unit 111 detects a heart rate, a standard deviation of an RR interval (SD_RRI), a low frequency component of a heartbeat (LF), a high frequency component of a heartbeat HF (High Frequency), HRV (Heart Rate Variability), Blood Volume (BVP), and Pulse Transit Time (PTT). An ECG or Electrocardiogran sensor for measuring an activity current according to the contraction and expansion of the cardiac muscle and a PPG (Photo-electric pluse) for measuring changes in the optical blood flow according to changes in the thickness of the blood vessel are provided in the bio- PlethysmoGraph) sensors can be used. In the bio-signal detection unit 111, the respiratory arrhythmia (RSA), the respiratory rate (Resp_R), the respiratory amplitude (Resp_A), and the standard deviation of respiratory rate (Resp_Rsd: Standard deviation of Respiratory Amplitude) and the like are detected. In addition, the bio-signal detection unit 111 detects a skin conduction level (SCL), a skin conduction response (SCR), a maximum skin temperature (max SKT), and the like. The sensor used in the bio-signal detecting unit 111 may be manufactured in a clock shape and worn on the wrist, or may be manufactured in a belt shape and worn on an arm, neck, waist, or leg.

또한, 생체신호감지부(111)는 영상획득부(112) 및 음성획득부(113)를 더 포함할 수 있다. 영상획득부(112)는 도 3에서와 같이 사용자의 얼굴을 카메라(112a)로 촬영하여 얼굴 정보를 검출할 수 있다. 이때, 얼굴 정보를 추출하는 알고리즘으로는 가버필터를 이용한 알고리즘, 사각 특징점(rectangle features)을 이용한 AdaBoost 알고리즘, 아이겐훼이스(Eigenface) 알고리즘, PCA(Pricipal Conponent Analysis), 템블리트 매칭방법 등이 사용될 수 있다. 여기서, 촬영된 얼굴 영상을 추출한 후 미리 저장된 기준 얼굴 영상과 비교하고, 이때 전체 모양을 비교하거나 복수개의 포인트에 대해 상호 간의 거리를 비교하여 감정 상태를 검출할 수 있다. 또한, 음성획득부(113)는 사용자의 음성을 마이크(113a)를 통해 녹음하여 미리 녹음된 기준 음성과 비교하여 음성의 피치, 세기 및 빠르기 등을 비교하여 감정 상태를 검출할 수 있다. 이때, 필터뱅크를 이용한 LFPC(Log Frequency Power Coefficient)를 사용할 수 있다. 이때, 현재 얼굴 영상과 기준 얼굴 영상 및 이들의 비교상태를 실시간으로 모니터(112b)에 활성화시키면서 현재의 감정 상태를 표시한다. 또한, 현재 음성과, 기준 음성 및 이들의 비교상태를 실시간으로 모니터(112b)에 활성화시키면서 현재의 감정 상태를 표시한다. 이때의 영상파라미터 및 음성파라미터, 영상파라미터의 증감패턴 및 음성파라미터의 증감패턴은 각각 영상저장 데이터베이스(123) 및 음성저장 데이터베이스(124)에 저장된다. The biological signal detection unit 111 may further include an image acquisition unit 112 and a sound acquisition unit 113. [ The image obtaining unit 112 can detect the face information by photographing the user's face with the camera 112a as shown in FIG. At this time, as an algorithm for extracting facial information, an algorithm using a Gabor filter, an AdaBoost algorithm using rectangle features, a Eigenface algorithm, a PCA (Pricipal Conponent Analysis), a template matching method, and the like can be used . Here, the photographed face image is extracted and compared with a reference face image stored in advance. At this time, the emotion state can be detected by comparing the overall shape or by comparing distances between a plurality of points. Also, the voice acquiring unit 113 can detect the emotional state by comparing the voice of the user with the reference voice recorded in advance through the microphone 113a to compare the pitch, intensity, and speed of the voice. At this time, a LFPC (Log Frequency Power Coefficient) using a filter bank can be used. At this time, the current emotion state is displayed while activating the current face image, the reference face image, and the comparison state thereof in real time on the monitor 112b. Also, the current emotion state is displayed while activating the current voice, the reference voice, and the comparison state thereof in real time on the monitor 112b. At this time, the image parameter and voice parameter, the increase / decrease pattern of the image parameter, and the increase / decrease pattern of the voice parameter are stored in the image storage database 123 and the voice storage database 124, respectively.

한편, 데이터베이스부(120)는 생체파라미터 데이터베이스(121), 감정유발프로토콜 데이터베이스(122)가 포함되고, 이외에도 영상저장 데이터베이스(123), 음성저장 데이터베이스(124) 및 사용자정보 데이터베이스(125) 등이 더 포함된다. The database unit 120 includes a biometric parameter database 121 and an emotion inducing protocol database 122. In addition to the image storing database 123, the voice storing database 124 and the user information database 125, .

여기서, 생체파라미터 데이터베이스(121)는 생체신호검출부(110)에서 획득된 생체신호, 영상신호 및 음성신호가 실시간 및 콘텐츠별로 저장된다. 즉, 생체신호감지부(111)에서의 심박율(HR), RR간격의 표준편차(SD_RRI), 심박의 저주파 및 고주파 성분(LF,HF), 심박변산성(HRV), 호흡성 부정맥(RSA), 맥파도달시간(PTT), 호흡율(Resp_R), 호흡진폭(Resp_A), 호흡율의 표준편차(Resp_Rs), 호흡진폭의 표준편차(Resp_Asd), 혈류량(BVP), 피부전도수준(SCL), 피부전도반응(SCR) 및 최대피부온도(maxSKT) 등의 신호를 통해 신체에 가해지는 조건에 대한 생체파라미터를 구하여 저장한다. 또한, 영상 및 음성신호에 대한 생체파리미터도 구하여 저장한다. 또한, 각 생체파라미터들의 증감패턴들 역시 저장한다. Here, the bio-parameter database 121 stores the bio-signals, the video signals, and the voice signals obtained by the bio-signal detector 110 in real time and in content. That is, the heart rate HR in the living body signal detecting unit 111, the standard deviation SD_RRI of the RR interval, the low frequency and high frequency components LF and HF of the heartbeat, the heart rate variability HRV, the respiratory arrhythmia RSA Respiratory rate (Resp_R), Respiratory amplitude (Resp_A), Respiratory rate standard deviation (Resp_Rs), Respiratory amplitude standard deviation (Resp_Asd), Blood flow (BVP), Skin conduction level (SCL) The biological parameters for the conditions applied to the body are obtained by signals such as conduction response (SCR) and maximum skin temperature (maxSKT) and stored. Also, biometric parameters for video and audio signals are obtained and stored. It also stores the increase and decrease patterns of each biological parameter.

또한, 감정유발프로토콜 데이터베이스(122)는 사용자의 감정을 유발할 수 있는 콘텐츠를 저장하고, 이들 콘텐츠를 조합 또는 단독으로 감정의 강도 차이에 따라 프로토콜화하여 저장한다. 이 감정유발프로토콜에 의해 자극모듈부(140)로부터 물리적 신호가 출력된다. 여기서, 감정유발프로토콜은 시각 및 청각 등의 자극을 통해 사용자의 감정 상태에 대한 생리신호를 유발하기 위한 것으로, 원하는 감정을 유발할 수 있는 콘텐츠를 감정의 강도 차이에 따라 단독 또는 조합하여 이루어진 것이다. 이때의 감정유발프로토콜은 일예로 분노, 공포, 기쁨 및 슬픔의 감정을 유발하기 위한 시각자극 및, 놀람의 감정을 유발하기 위한 청각자극을 이용하고, 이 콘텐츠는 [표 1]에서와 같다. 여기서, [표 1]은 기재의 편의상 2페이지로 나누어 삽입되었다. In addition, the emotion inducing protocol database 122 stores contents capable of causing emotion of the user, and stores these contents in a form of a protocol in accordance with the intensity difference of emotion, either in combination or alone. A physical signal is output from the stimulation module 140 by this emotion inducing protocol. Here, the emotion inducing protocol is intended to induce a physiological signal for a user's emotional state through stimulation such as visual and auditory stimuli, and the contents capable of causing a desired emotional feeling are made by singly or in combination according to a difference in intensity of emotion. For example, the emotional induction protocol uses visual stimuli to induce feelings of anger, fear, joy and sadness, and auditory stimuli to induce emotions of surprise. The contents are shown in Table 1. Here, [Table 1] is inserted into two pages for convenience of description.

[표 1][Table 1]

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

이들 콘텐츠를 다양한 피험자에게 실험하여 점수로 기재하고, 동일한 콘텐츠에 대해 감정 자극의 강도를 평균점수로 나타내면 [표 2]와 같다. These contents are experimented on various subjects and written as scores, and the strength of emotional stimulation for the same contents is shown by the average score as shown in [Table 2].

[표 2][Table 2]

Figure pat00003
Figure pat00003

또한, 영상저장 데이터베이스(123) 및 음성저장 데이터베이스(124)는 각각 생체신호검출부(110)의 영상획득부(112) 및 음성획득부(113)를 통해 입력된 데이터 및 데이터의 파라미터 등이 저장된다. 이들 영상저장 데이터베이스(123) 및 음성저장 데이터베이스(124)에 저장된 영상파라미터 및 음성파라미터는 생체파라미터와 더불어 사용자의 감정을 유발하여 나타난 반응을 분석하는데 중요한 요인이 된다. The image storage database 123 and the voice storage database 124 store parameters of data and data inputted through the image acquisition unit 112 and the voice acquisition unit 113 of the bio-signal detection unit 110, respectively . The image parameters and voice parameters stored in the image storage database 123 and the voice storage database 124 are important factors for analyzing the reactions that are caused by the user's emotions in addition to the biometric parameters.

또한, 사용자정보 데이터베이스(125)는 사용자인터페이스부(160)를 통해 입력된 사용자의 정보를 저장하고, 생체신호검출부(110) 및 데이터베이스부(120)에 저장된 데이터가 해당 사용자별로 저장된다. 이때, 피험자 및 사용자의 정보가 저장되어 향후 재차 감정유발이 행하여질 때, 해당 피험자 및 사용자에 대한 이전 기록을 참조하기 위한 것이다. The user information database 125 stores user information inputted through the user interface unit 160 and the data stored in the bio-signal detector 110 and the database unit 120 is stored for each user. At this time, when the information of the subject and the user is stored and the emotional inducement is performed again in the future, it is intended to refer to the previous record of the subject and the user.

한편, 감정의 강도 단계별 데이터저장부(130)는 감정유발프로토콜 데이터베이스(122)에 저장된 감정유발프로토콜에 의해 나타난 감정 상태를 강도에 따라 정형화시켜 단계별로 저장한다. 이를 위해, 직업, 연령 및 성별 등의 다양한 피험자에 대해 미리 감정유발실험을 시행하고, 이를 통해 다양하고도 광범위한 생체신호를 검출하게 된다. 이들 생체신호를 분석하여 생체파라미터를 추출한 후 강도에 따른 단계별로 정형화되어 저장된다. 한편, 감정의 강도 단계별 데이터 저장부(130)에 저장된 감정의 강도 단계별로 정형화된 데이터에 대한 일예로 [표 3], [표 4] 및 [표 5]와 같이 제시된다. 여기서, [표 3]은 감정 강도 1단계이고, [표 4]는 감정 강도 2단계이며, [표 5]는 감정 강도 3단계이다. 물론, 평상심을 유지했을 때의 최초 감정 강도를 비롯하여 감정 강도 4단계 이상의 단계에 대해서도 정형화된 데이터를 제시할 수 있음은 물론이다. 이때, 감정의 강도를 정형화하기 위해 청소년과 성인으로 구분하여 각각 100명을 대상으로 실험하였다. 여기서, 감정의 강도를 정형화하기 위해 청소년과 성인으로 구분하여 각각 100명을 대상으로 실험하고, 각 피험자의 감정유발프로토콜의 자극 강도에 따라 측정된 생체파라미터들의 증감패턴을 평균화하였다. 이에 대한 결과로 [표 3], [표 4] 및 [표 5]와 같이 단계별로 감정 강도가 정형화되었다. On the other hand, the emotion intensity step-by-step data storage unit 130 shapes the emotion state represented by the emotion inducing protocol stored in the emotion inducing protocol database 122 according to the intensity and stores the emotion state stepwise. To this end, emotion induction experiments are performed in advance on a variety of subjects such as occupation, age, and sex, and a wide variety of bio-signals are detected through the experiments. The bio-signals are analyzed and the bio-parameters are extracted and stored in the form of steps according to the intensity. Table 3, Table 4, and Table 5 show examples of data formatted according to intensity levels of emotion stored in the data storage unit 130 according to the intensity of emotion. In Table 3, the emotion intensity is 1, the emotion intensity is 2, and the emotion intensity is 3. It goes without saying that standardized data can be presented for stages of four or more stages of emotion intensity as well as initial emotion intensity at the time of maintaining normalcy. At this time, to classify the intensity of emotion, 100 people were divided into adolescents and adults. In order to standardize the intensity of emotion, 100 persons were divided into adolescents and adults, and the variation pattern of the measured biological parameters was averaged according to the stimulus intensity of each subject's emotional induction protocol. As a result, the intensity of emotions was standardized as shown in [Table 3], [Table 4] and [Table 5].

[표 3][Table 3]

Figure pat00004
Figure pat00004

[표 4][Table 4]

Figure pat00005
Figure pat00005

[표 5][Table 5]

Figure pat00006

Figure pat00006

또한, 생체파라미터의 증감패턴은 1∼5단계로 구분하고, 이에 대한 표식은 [표 6]과 같다. In addition, the increase / decrease patterns of the biological parameters are classified into 1 to 5 stages, and the markings thereof are shown in [Table 6].

[표 6]TABLE 6

Figure pat00007

Figure pat00007

따라서, [표 3], [표 4] 및 [표 5]에서 단계별로 제시된 감정 강도를 이용하여 정서 관련 신경 네트워크 및 생리 반응 규명은 물론 정서에 따른 표준화된 뇌 및 말초 반응의 인덱스 개발 등에 대해 객관화된 자료로 활용 가능하다. 또한, 자폐증, 성격 장애자 또는 정신분열증 환자 등의 정서치료 프로그램에서 감정유발 정도를 객관적으로 측정할 수 있다. 또한, 사용자의 요청 및 또는 기존 입력 자료에 의해 감정의 강도를 임의적으로 선택하고, 선택된 감정의 강도에 곧바로 도달할 수 있다. Therefore, using emotional strengths presented in step 3 in [Table 3], [Table 4], and [Table 5], the emotion related neural network and physiological response as well as the standardized brain and peripheral response index development according to emotion, It is possible to use as data. In addition, emotion induction can be objectively measured in emotional therapy programs such as autism, personality disorder, or schizophrenia. Also, the strength of emotion can be arbitrarily selected by the user's request and / or existing input data, and the strength of the selected emotion can be reached immediately.

한편, 자극모듈부(140)는 시각자극모듈(141) 및 청각자극모듈(142)이 포함되어 이루어진다. 물론, 압박, 전기적 자극 등의 촉각을 자극하기 위한 촉각자극모듈 등을 포함하여 사용자의 감각에 자극을 줄 수 있는 어떠한 자극모듈도 포함될 수 있다. 또한, 자극모듈부(140)는 사용자에 대해 기쁨, 슬픔, 분노, 공포, 혐오 및 놀람 등을 포함한 다양한 감정에 대해 [표 1]에 기재된 영화 이외에도 인터넷 동영상, TV 광고 및 드라마, 이미지, 음악, 피부 자극, 신체 압박, 게임 등이 단계별로 구분되어 이용될 수 있다. 일예로 기쁨을 유발하기 위해 영화 날아라 허동구 중 주인공에 의해 경기에서 승리하고 기뻐하는 장면을 보여줌으로써 기쁨의 감정에서 해당하는 단계의 감정을 유발할 수 있다. 이 자극모듈부(140)는 시각자극모듈(141) 및 청각자극모듈(142)을 출력하기 위해 오디오/비디오 장치 및 게임기를 비롯하여 촉각자극을 위한 압박기 및 전기발생기 등이 포함될 수 있고, 이외의 자극모듈을 출력하기 위한 센서 및 장치 등이 포함된다. Meanwhile, the stimulation module unit 140 includes a visual stimulation module 141 and an auditory stimulation module 142. Of course, any stimulation module that can stimulate the user's senses, including tactile stimulation modules to stimulate tactile sensations, such as compression, electrical stimulation, etc., may be included. The stimulation module unit 140 may be used for various emotions including joy, sadness, anger, fear, abhorrence and surprise for the user as well as the movies described in [Table 1] Skin irritation, body pressure, game, etc. can be classified and used in stages. For example, in order to induce joy, the movie can fly. By showing the scene of victory and rejoicing in the game by the hero of Hudonggu, it is possible to induce emotion of the corresponding stage in the feeling of joy. The stimulation module unit 140 may include an audio / video device and a game machine, a pusher and an electric generator for tactile stimulation to output the visual stimulation module 141 and the auditory stimulation module 142, A sensor and an apparatus for outputting the stimulation module, and the like.

또한, 제어부(150)는 감정유발실험에서 검출된 생체신호를 분석하고, 분석된 생체신호로부터 생체파라미터를 추출하며, 추출된 생체파라미터들의 증감패턴에 따라 감정의 강도별 단계로 정형화한다. 이렇게 강도별 단계의 데이터를 정형화시켜 획득한 데이터를 감정의 강도 단계별 데이터저장부(130)로 전송한다. 또한, 제어부(150)는 생체신호검출부(110)에서 전송된 생체신호가 아날로그인 경우 디지털로 변환할 수 있는 아날로그/디지털 변환부(미도시)가 더 포함된다. 또한, 제어부(150)는 사용자가 선호 강도의 단계를 설정하면 해당 단계에 해당하는 감정유발 자극을 제공한다. 이때, 해당 단계의 감정유발프로토콜이 선정된 후 해당 단계의 자극모듈이 신호를 출력하게 된다. In addition, the controller 150 analyzes the bio-signals detected in the emotion-inducing experiment, extracts the bio-parameters from the bio-signals analyzed, and shapes the bio-parameters according to the intensity of emotion according to the increase / decrease pattern of the extracted bio-parameters. The data obtained by shaping the data of each intensity level is transmitted to the data storage unit 130 according to the intensity level of emotion. The controller 150 further includes an analog / digital converter (not shown) that can convert the bio-signal transmitted from the bio-signal detector 110 into a digital signal when the bio-signal is analog. In addition, when the user sets the stage of the preference strength, the controller 150 provides the emotion inducing stimulus corresponding to the step. At this time, after the emotion induction protocol of the step is selected, the stimulus module of the corresponding step outputs a signal.

또한, 사용자인터페이스부(160)는 사용자 및 피험자의 신상정보를 입력하도록 제공되고, 해당 사용자에게 시행된 감정유발에 관련된 자료가 저장된다. 이 사용자인터페이스부(160)는 제어부(150)에 연결되고, 입력된 신상정보는 데이터베이스부(120)의 사용자정보 데이터베이스(125)에 저장된다. 향후 사용자정보 데이터베이스(125)에 저장된 사용자정보에 따라 이전 시행된 감정유발 자료를 토대로 해당 사용자에 대해 맞춤 데이터를 제공할 수 있다.
Also, the user interface unit 160 is provided for inputting personal information of the user and the subject, and data related to the emotion generated by the user is stored. The user interface unit 160 is connected to the control unit 150 and the input personal information is stored in the user information database 125 of the database unit 120. It is possible to provide customized data for the user based on the emotion-induced data previously performed according to the user information stored in the user information database 125 in the future.

<방법><Method>

도 4는 도 2의 감정유발시스템을 이용한 감정유발방법의 흐름도이다. 4 is a flowchart of an emotion inducing method using the emotion inducing system of FIG.

도 4에 도시된 바와 같이 본 발명에 따른 감정유발시스템을 이용한 감정유발방법은, 먼저 원하는 감정을 선택(S10)한다. 사용자는 생체신호감지센서를 신체에 부착하고, 카메라(112a) 및 마이크(113a)와 근접하게 위치한 다음 기쁨, 공포, 분노, 슬픔 및 놀람 등을 포함한 다양한 감정 중 어느 하나의 감정을 선택한다. As shown in FIG. 4, the emotion inducing method using the emotion inducing system according to the present invention first selects a desired emotion (S10). The user attaches the bio-signal detection sensor to the body and is positioned close to the camera 112a and the microphone 113a, and then selects one of various emotions including joy, fear, anger, sadness and surprise.

다음으로, 선택한 감정에서 목표로 하는 단계의 강도를 선택(S20)한다. 사용자는 선택한 검정에 대해 원하는 단계의 강도를 선택하여 그 이전 단계의 강도를 배제할 수 있다. 또한, 사용자인터페이스부(160)를 통해 입력된 사용자정보에 대해 사용자정보 데이터베이스(125)에 저장된 기록을 비교한 제어부(150)가 해당 단계의 강도를 선택할 수도 있다. Next, the intensity of the target step is selected from the selected emotion (S20). The user can select the intensity of the desired step for the selected test to eliminate the intensity of the previous step. In addition, the controller 150 comparing the user information stored in the user information database 125 with the user information input through the user interface unit 160 may select the intensity of the corresponding step.

다음으로, 사용자의 생체신호를 검출(S30)한다. 이때, 생체신호감지부(111), 영상획득부(112) 및 음성획득부(113)를 포함하는 생체신호검출부(110)로부터 생체신호를 검출한다. Next, the user's biological signal is detected (S30). At this time, the living body signal detecting unit 110 including the living body signal detecting unit 111, the image obtaining unit 112, and the voice obtaining unit 113 detects a living body signal.

다음으로, 검출된 생체신호를 기초로 하여 제1생체파라미터를 추출(S40)한다. 여기서, 생체신호검출부(110)로부터 획득된 생체신호를 제어부(150)에서 분석하여 제1생체파라미터로 추출하고, 추출된 제1생체파라미터는 생체파라미터 데이터베이스(121)에 저장한다. Next, the first biometric parameter is extracted based on the detected biometric signal (S40). Here, the control unit 150 analyzes the bio-signal acquired from the bio-signal detector 110 to extract it as a first bio-parameter, and stores the extracted first bio-parameter in the bio-parameter database 121.

다음으로, 감정유발을 위한 자극을 제공(S50)한다. 선택한 감정의 목표 단계에 해당하는 감정유발프로토콜의 신호에 의해 시각자극모듈(141) 및 청각자극모듈(142)을 포함하는 자극모듈부(140)로부터 물리적 신호를 출력하여 신체를 자극하게 된다. Next, a stimulus for emotion induction is provided (S50). A physical signal is output from the stimulation module 140 including the visual stimulation module 141 and the auditory stimulation module 142 by a signal of an emotion inducing protocol corresponding to a target stage of the selected emotion to stimulate the body.

다음으로, 사용자의 생체신호를 재검출(S60)한다. 자극모듈부(140)에 의해 자극된 신체에 대해 변화된 생체신호를 재검출한다. 이때, 생체신호감지부(111), 영상획득부(112) 및 음성획득부(113)를 포함하는 생체신호검출부(110)가 이용된다. Next, the user's biological signal is detected again (S60). And detects the changed biological signal with respect to the body stimulated by the stimulation module unit 140. At this time, the bio-signal detection unit 110 including the bio-signal detection unit 111, the image acquisition unit 112, and the voice acquisition unit 113 is used.

다음으로, 재검출된 생체신호를 기초로 하여 제2생체파라미터를 추출(S70)한다. 여기서, 제1생체파라미터를 추출할 때와 동일하게 제어부(150)에서 재검출된 생체신호를 분석하여 제2생체파라미터로 추출하고, 추출된 제2생체파라미터는 생체파라미터 데이터베이스(121)에 저장한다. Next, based on the re-detected biomedical signal, the second biometrics parameter is extracted (S70). Here, in the same manner as in extracting the first biometric parameter, the controller 150 analyzes the biologic signal re-detected and extracts it as a second biometric parameter, and stores the extracted second biometric parameter in the biometric parameter database 121 .

다음으로, 각 생체파라미터들의 변화 차이를 분석하여 증감패턴을 추출(S80)한다. 자세하게는 제1생체파라미터와 제2생체파라미터를 제어부(150)에서 비교 및 분석하여 생체파라미터의 증감패턴을 추출한 후 생체파라미터 데이터베이스(121)에 저장한다. 이 생체파라미터의 증감패턴은 상술된 바와 같이 1∼5단계로 세분화되고, 각 단계별로 대표하는 표식을 두어 인지하기 쉽게 한다. Next, the variation of each of the biological parameters is analyzed to extract an increase / decrease pattern (S80). In detail, the first biometric parameter and the second biometric parameter are compared and analyzed by the control unit 150, and the increase / decrease pattern of the biometric parameter is extracted and stored in the biometric parameter database 121. [ As described above, the increase / decrease patterns of the biometric parameters are subdivided into 1 to 5 steps, and a representative representative mark for each step is provided for easy recognition.

다음으로, 제1,2생체파라미터의 증감패턴 및 목표 강도 단계에서의 패턴을 비교하여 차이를 계산(S90)한다. 이때, 사용자가 설정한 해당 목표의 강도 단계에서의 생체파라미터의 패턴과 신규 추출된 생체파라미터의 증감패턴을 제어부(150)에서 비교하고, 각 생체파라미터별로 그 차이를 계산한다. Next, the difference between the patterns of the first and second biological parameter increase / decrease patterns and the target intensity step is calculated (S90). At this time, the control unit 150 compares the pattern of the biometric parameter at the intensity level of the target set by the user with the increase / decrease pattern of the newly extracted biometric parameter, and calculates the difference for each biometric parameter.

다음으로, 원하는 감정의 강도 단계에 도달하였는지 판단(S100)한다. 해당 목표의 강도 단계에서의 생체파라미터의 패턴과 신규 추출된 생체파라미터의 증감패턴을 비교하여 각 생체파라미터들이 완전 동일하거나 대부분이 동일하면 최적의 수준에 도달된 것으로 판단하여 종료하게 된다. 또한 각 생체파라미터들이 완전 다르거나 대부분이 다르면 원하는 수준에 도달하지 못한 것으로 판단하여 다음 단계로 이동한다. Next, it is determined whether the intensity step of the desired emotion has been reached (S100). The pattern of the bio-parameters in the intensity step of the target is compared with the increase / decrease pattern of the newly extracted bio-parameters, and when the bio-parameters are completely equal or almost identical, it is determined that the optimal level has been reached. In addition, if each of the biological parameters is completely different or most of them are different, it is determined that the desired level has not been reached, and the procedure moves to the next step.

다음으로, 원하는 감정의 강도 단계에 도달하지 못한 경우 감정의 강도 단계를 변화시켜 자극 신호를 출력(S110)한다. 이때, 사용자가 원하는 목표의 감정 단계에 도달되지 못하면 감정 강도를 1단계 상승시켜 자극 신호를 출력하게 된다. 물론, 사용자의 감정이 과도하면 감정 단계를 1단계 하락시켜 자극 신호를 출력하게 된다. 이 단계(S110)는 감정유발 단계(S50)로 회귀하고, 그 이후로 사용자가 만족할 만한 감정의 강도에 도달하여 종료될 때까지 반복하게 된다.
Next, if the intensity stage of the desired emotion is not reached, the stimulus signal is output (S110) by changing the intensity stage of the emotion. At this time, if the user can not reach the desired emotion stage, the emotion intensity is increased by one step to output the stimulation signal. Of course, if the emotion of the user is excessive, the emotion signal is output by decreasing the emotion step by one step. This step S110 returns to the emotion inducing step S50, and thereafter repeats until the user reaches a satisfactory emotional intensity and is finished.

이상에서 설명한 바와 같이, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 상술한 실시예들은 모든 면에 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
As described above, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

100...감정유발시스템 110...생체신호검출부,
111...생체신호감지부 112...영상획득부,
113...음성획득부 120...감정유발모듈,
121...생체파라미터 데이터베이스,
122...감정유발프로토콜 데이터베이스,
123...영상저장 데이터베이스,
124...음성저장 데이터베이스,
130...감정의 강도 단계별 데이터저장부,
140...자극모듈부 141...시각자극모듈,
142...청각자극모듈 150...제어부.
100 ... emotion inducing system 110 ... biological signal detecting unit,
111 ... biological signal detection unit 112 ... image acquisition unit,
113 ... voice acquisition unit 120 ... emotion inducing module,
121 ... biological parameter database,
122 ... emotion inducing protocol database,
123 ... image storage database,
124 ... voice storage database,
130 ... Strength of emotion Stage-based data storage,
140 ... stimulation module part 141 ... visual stimulation module,
142 ... auditory stimulation module 150 ... controller.

Claims (21)

사용자로부터 감정을 유발하기 위한 감정유발시스템에 있어서,
생체신호를 검출하는 생체신호검출부(110);
상기 생체신호로부터 추출된 생체파라미터의 증감패턴에 따라 해당하는 감정유발프로토콜의 신호를 출력하는 데이터베이스부(120);
상기 감정유발프로토콜의 신호에 의해 신체를 자극하는 자극모듈부(140);
상기 생체신호로부터 추출된 상기 생체파라미터의 증감패턴을 비교 분석하여 상기 감정의 강도 단계별로 정형화하도록 데이터를 추출하는 제어부(150); 및
상기 제어부(150)에서 졍형화된 상기 감정의 강도 단계별 데이터를 저장하는 감정의 강도 단계별 데이터저장부(130);가 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템.
1. An emotion inducing system for inducing an emotion from a user,
A bio-signal detector 110 for detecting bio-signals;
A database unit (120) for outputting a signal of a corresponding emotion inducing protocol according to a variation pattern of a biological parameter extracted from the biological signal;
A stimulation module unit 140 for stimulating a body by a signal of the emotion inducing protocol;
A control unit (150) for comparing and analyzing the increase / decrease patterns of the bio-parameters extracted from the bio-signal and extracting data so as to formulate the bio-signals according to the strength levels of the emotion; And
Emotion-induced system in which the emotion is formalized by the intensity-specific step, characterized in that it comprises a ;;
제1항에 있어서,
상기 제어부(150)는 상기 감정의 강도 단계별로 정형화된 생체파라미터의 증감패턴과, 추출된 생체파라미터의 증감패턴을 비교 분석하여 원하는 감정 단계에 도달하였는지 판단하는 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템.
The method of claim 1,
The controller 150 compares the increase / decrease pattern of the bioparameters and the extracted increase / decrease patterns of the bioparameters, which are formalized by the intensity of the emotions, and determines whether the emotions have reached the desired emotion level. Formal Emotion Induction System.
제1항에 있어서,
상기 제어부(150)는 상기 감정의 강도 단계별로 정형화된 생체파라미터의 증감패턴과, 추출된 생체파라미터의 증감패턴이 일치하지 않은 경우, 감정의 강도 단계를 조정하도록 상기 감정의 강도 단계별 데이터저장부(130)의 출력신호를 제어하는 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템.
The method of claim 1,
The controller 150 controls the emotion intensity step data storage unit to adjust the emotion intensity step when the increase and decrease patterns of the bioparameters, which are standardized by the intensity step of the emotion, and the increase and decrease patterns of the extracted bioparameters, are not matched. Emotion induction system is characterized in that the emotion is characterized by controlling the output signal of 130) by intensity level.
제1항에 있어서,
상기 제어부(150)는 사용자의 신체에 나타나는 상기 생체파라미터들의 변화를 실시간으로 검출하도록 상기 생체신호검출부(110)를 제어하고, 상기 생체파라미터들의 변화에 따라 상기 감정유발프로토콜의 단계를 변화시키도록 상기 감정유발프로토콜 데이터베이스(122)를 제어하는 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템.
The method of claim 1,
The controller 150 controls the biosignal detection unit 110 to detect the change of the bioparameters appearing on the user's body in real time, and to change the step of the emotion-inducing protocol according to the change of the bioparameters. Emotion induction system characterized in that the emotion is characterized by controlling the emotion-producing protocol database (122) by intensity level.
제1항에 있어서,
상기 생체신호검출부(110)는 감정 상태별 상기 사용자의 심박, 호흡 및 피부의 변화 등을 포함한 상기 생체신호를 검출하기 위한 생체신호감지부(111)가 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템.
The method of claim 1,
The biosignal detection unit 110 includes a biosignal detection unit 111 for detecting the biosignal including the heartbeat, respiration, and skin changes of the user for each emotional state. Emotional induction system formalized in stages.
제5항에 있어서,
상기 생체신호감지부(111)는 심박을 검출하기 위한 심박검출센서, 호흡을 검출하기 위한 호흡검출센서 및, 피부 변화를 검출하기 위한 피부변화검출센서가 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템.
The method of claim 5,
The bio-signal detecting unit 111 includes a heartbeat detecting sensor for detecting a heartbeat, a respiration detecting sensor for detecting respiration, and a skin change detecting sensor for detecting a skin change. The emotion inducing system formulated in stages.
제5항에 있어서,
상기 생체신호검출부(110)는,
상기 사용자의 얼굴 영상을 획득하기 위한 영상획득부(112); 및
상기 사용자의 음성을 획득하기 위한 음성획득부(113);가 더 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템.
The method of claim 5,
The bio-signal detector 110 detects the bio-
An image obtaining unit (112) for obtaining a face image of the user; And
And a voice acquiring unit (113) for acquiring the voice of the user. The emotion generating system according to claim 1, further comprising:
제7항에 있어서,
상기 영상획득부(112)는 상기 사용자의 얼굴 영상을 촬영하기 위한 카메라(112a) 및 활성화시키기 위한 모니터(112b)가 포함되어 이루어지고, 그리고
획득된 상기 사용자의 얼굴 영상과, 일상의 기준 얼굴 영상을 비교하여 현재 상기 사용자의 감정을 판단하기 위한 생체파라미터를 검출하는 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템.
The method of claim 7, wherein
The image acquiring unit 112 includes a camera 112a for photographing the face image of the user and a monitor 112b for activating the face image of the user,
And comparing the acquired face image of the user with a reference face image of a daily life to detect a biometrics parameter for judging an emotion of the user at present.
제7항에 있어서,
상기 음성획득부(113)는 상기 사용자의 음성을 녹음하기 위한 마이크(113a)가 포함되어 이루어지고, 그리고
획득된 상기 사용자의 음성과 일상의 기준 음성을 비교하여 현재 상기 사용자의 감정을 판단하기 위한 생체파라미터를 검출하는 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템.
The method of claim 7, wherein
The voice acquiring unit 113 includes a microphone 113a for recording the voice of the user,
And comparing the acquired voice of the user with a daily reference voice to detect a biometric parameter for determining the emotional state of the user at present.
제1항에 있어서,
상기 데이터베이스부(120)는,
상기 생체파라미터 및 상기 생체파라미터 증감패턴이 저장되는 생체파라미터 데이터베이스(121); 및
상기 사용자의 감정을 유발할 수 있는 콘텐츠 및, 이들 콘텐츠를 조합 또는 단독으로 감정의 정도 차이에 따라 단계별로 프로토콜화되어 저장되는 감정유발프로토콜 데이터베이스(122);가 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템.
The method of claim 1,
The database unit 120 may include:
A biometric parameter database (121) storing the biometric parameter and the biometric parameter increase / decrease pattern; And
And an emotion-inducing protocol database (122) stored in a form of a protocol for each step in accordance with the difference in degree of emotion between the content and the content that can cause the emotion of the user. Emotional induction system stereotyped at a different stage.
제10항에 있어서,
상기 감정유발프로토콜 데이터베이스(122)는 상기 사용자의 감정 상태에 대한 생체신호의 증감을 유발할 수 있는 상기 감정유발프로토콜이 상기 감정의 강도 단계에 부합되도록 단계별로 저장된 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템.
The method of claim 10,
Wherein the emotion-inducing protocol database (122) stores the emotion-inducing protocol capable of causing the increase / decrease of the biological signal with respect to the emotion state of the user to be matched with the intensity stage of the emotion. Formal emotional induction system.
제10항에 있어서,
상기 데이터베이스부(120)는,
상기 사용자의 얼굴 영상에 관한 생체파라미터 및, 얼굴 영상의 변화에 대한 생체파라미터의 증감패턴이 저장되는 영상저장 데이터베이스(123); 및
상기 사용자의 음성에 관한 생체파라미터 및, 음성의 변화에 대한 생체파라미터의 증감패턴이 저장되는 음성저장 데이터베이스(124);가 더 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템.
The method of claim 10,
The database unit 120 may include:
An image storage database (123) storing biometric parameters related to the face image of the user and variation patterns of biometric parameters with respect to changes of a facial image; And
And a voice storage database (124) in which a biometric parameter related to the voice of the user and a variation pattern of a biometric parameter with respect to a change in voice are stored. The emotion inducing system according to claim 1, .
제1항에 있어서,
상기 자극모듈부(140)는,
상기 사용자의 시각을 자극하는 시각자극모듈(141); 및
상기 사용자의 청각을 자극하는 청각자극모듈(142);이 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템.
The method of claim 1,
The stimulation module unit 140 includes:
A visual stimulation module 141 for stimulating the time of the user; And
And an auditory stimulation module (142) for stimulating the auditory sense of the user.
제1항 내지 제13항 중 어느 한 항의 감정유발시스템을 이용하여 감정을 유발방법에 있어서,
원하는 감정을 선택하는 제1단계(S10);
상기 감정의 목표로 하는 강도 단계를 선택하는 제2단계(S20);
상기 사용자의 생체신호를 검출하는 제3단계(S30);
검출된 상기 생체신호로부터 제1생체파라미터를 추출하는 제4단계(S40);
상기 제2단계(S20)에서 선택된 단계의 강도에 부합되는 자극을 제공하는 신호를 출력하는 제5단계(S50);
상기 사용자의 생체신호를 재검출하는 제6단계(S60);
상기 재검출된 생체신호로부터 제2생체파라미터를 추출하는 제7단계(S70);
상기 제1생체파라미터 및 상기 제2생체파라미터를 분석하여 생체파라미터의 증감패턴을 추출하는 제8단계(80);
상기 제1,2생체파라미터의 분석된 상기 생체파라미터의 증감패턴과, 선택된 상기 감정의 목표 강도 단계에 해당하는 생체파라미터의 증감패턴을 비교하여 차이를 계산하는 제9단계(S90); 및
상기 제9단계(S90)에서의 상기 생체파라미터의 증감패턴의 차이를 기초로 하여 상기 사용자의 감정상태가 원하는 목표의 감정 단계와 부합되는지 판단하고, 부합되면 종료하는 제10단계(S100);가 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법.
In the method of inducing emotion using the emotion inducing system of any one of claims 1 to 13,
A first step (S10) of selecting a desired emotion;
A second step (S20) of selecting a intensity step as a target of the emotion;
A third step (S30) of detecting the biosignal of the user;
Extracting a first bio-parameter from the detected bio-signal (S40);
A fifth step (S50) of outputting a signal providing a stimulus corresponding to the intensity of the step selected in the second step (S20);
A sixth step S60 of re-detecting the user's bio-signal;
Extracting a second biological parameter from the redetected biosignal (S70);
An eighth step (80) of analyzing the first bio parameter and the second bio parameter to extract the increase / decrease pattern of the bio parameter;
A ninth step (S90) of comparing the increase / decrease pattern of the analyzed bioparameters of the first and second bioparameters with the increase / decrease pattern of the bioparameter corresponding to the target intensity step of the selected emotion (S90); And
A tenth step (S100) of determining whether an emotional state of the user is matched with an emotional step of a desired target based on the difference of the increase / decrease pattern of the bioparameter in the ninth step (S90); Emotion induction method using the emotion-induced system, which is characterized in that the emotion is characterized in that included in step by step intensity.
제14항에 있어서,
상기 제10단계(S100)에서 상기 사용자가 원하는 목표의 감정의 강도 단계에 도달되지 않았으면 감정의 강도 단계를 변화시켜 상기 사용자에게 자극 신호를 출력하는 제5단계(S50)로 회귀하는 제11단계(S110);가 더 포함되어 이루어진 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법.
15. The method of claim 14,
When the user does not reach the emotion intensity step of the target desired by the user in the tenth step S100, the eleventh step of changing the emotion intensity step to return to the fifth step S50 of outputting a stimulus signal to the user (S110); Emotional induction method using the emotion-induced system is characterized in that the emotion is characterized in that it further comprises a step by step intensity.
제15항에 있어서,
상기 제9단계(S90)에서 상기 감정의 강도 단계별 생체파라미터 증감패턴은 단계별로 미리 정형화되어 저장된 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법.
16. The method of claim 15,
In the ninth step (S90), the emotion parameter step by step of the emotion intensity step is the emotion induction method using the emotion-induced system in which the emotion is formalized in step by step, characterized in that previously stored in the form.
제16항에 있어서,
상기 감정의 정형화된 강도 단계별 생체파라미터 증감패턴은 피험자들로부터 추출된 생체파라미터 증감패턴을 평균화하여 산출된 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법.
17. The method of claim 16,
The emotion parameter generation method using the emotion-induced system, wherein the emotion is formalized by intensity level, characterized in that the bioparameter increase / decrease pattern of each emotion is calculated by averaging the bioparameter increase / decrease pattern extracted from the subjects.
제17항에 있어서,
상기 감정의 강도 단계별 생체파라미터 증감패턴은 반복적으로 획득되는 생체파라미터의 증감패턴이 지속적으로 누적되는 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법.
18. The method of claim 17,
The bio parameter increase / decrease pattern according to the intensity of emotion is an emotion induction method using the emotion-induced system in which emotion is formalized for each intensity level, wherein the increase / decrease pattern of the bio parameter is repeatedly accumulated.
제15항에 있어서,
상기 제3단계(S30)에서 검출하는 상기 생체신호는 심박, 호흡 및 피부의 변화 중 적어도 하나인 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법.
16. The method of claim 15,
In the third step (S30), the bio-signal is a emotion-inducing method using the emotion-induced system in which the emotion is formalized by intensity level, characterized in that at least one of a change in heart rate, breathing and skin.
제19항에 있어서,
상기 제3단계(S30)에서 검출하는 상기 생체신호는 사용자의 얼굴 영상 및 음성 중 적어도 하나가 더 포함된 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법.
20. The method of claim 19,
The emotion signal using the emotion-induced system in which the emotion is formalized by intensity level, characterized in that the bio-signal detected in the third step (S30) further comprises at least one of a user's face image and voice.
제14항에 있어서,
상기 제2단계(S20)에서, 상기 감정의 강도 단계는 사용자가 직접 선택하거나 또는 입력되어 있는 사용자의 정보에 따라 선택되는 것을 특징으로 하는 감정이 강도별 단계로 정형화된 감정유발시스템을 이용한 감정유발방법.
15. The method of claim 14,
In the second step (S20), the emotion intensity step is selected according to the user's information or directly selected by the user emotion is induced using the emotion induction system formalized by the intensity level step Way.
KR1020120015903A 2012-02-16 2012-02-16 Emotion induction system regularited emotion intensity level and inducing emotion method thereof KR101397287B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120015903A KR101397287B1 (en) 2012-02-16 2012-02-16 Emotion induction system regularited emotion intensity level and inducing emotion method thereof
PCT/KR2013/000975 WO2013122353A1 (en) 2012-02-16 2013-02-07 Emotion inducing system in which emotions are formalized into levels based on strength, and emotion inducing method using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120015903A KR101397287B1 (en) 2012-02-16 2012-02-16 Emotion induction system regularited emotion intensity level and inducing emotion method thereof

Publications (2)

Publication Number Publication Date
KR20130094555A true KR20130094555A (en) 2013-08-26
KR101397287B1 KR101397287B1 (en) 2014-05-21

Family

ID=48984431

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120015903A KR101397287B1 (en) 2012-02-16 2012-02-16 Emotion induction system regularited emotion intensity level and inducing emotion method thereof

Country Status (2)

Country Link
KR (1) KR101397287B1 (en)
WO (1) WO2013122353A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170087834A (en) * 2016-01-21 2017-07-31 트런그램 지알트룰 셰르파 Computer system for determining a state of mind and providing a sensory-type antidote to a subject
WO2017200244A1 (en) * 2016-05-18 2017-11-23 신호철 Psychiatric symptom evaluation system utilizing audio-visual content and bio-signal analysis
KR20210007431A (en) * 2019-07-11 2021-01-20 주식회사 고담 VR Content Providing System According to Bio-signal
WO2023149652A1 (en) * 2022-02-04 2023-08-10 주식회사 히포티앤씨 Artificial intelligence-based customized content generating method for treating autism spectrum disorder

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI557563B (en) * 2014-06-04 2016-11-11 國立成功大學 Emotion regulation system and regulation method thereof
CN105125186B (en) * 2015-06-29 2018-05-25 王丽婷 A kind of method and system of definite therapeutic intervention mode
KR101689497B1 (en) * 2016-01-13 2016-12-26 이화여자대학교 산학협력단 Appetite control apparatus and operation method of appetite control apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100485906B1 (en) * 2002-06-26 2005-04-29 삼성전자주식회사 Apparatus and method for inducing emotion
KR100903348B1 (en) * 2007-11-28 2009-06-23 중앙대학교 산학협력단 Emotion recognition mothod and system based on feature fusion
KR101031426B1 (en) * 2009-02-11 2011-04-26 성균관대학교산학협력단 Driver Emotion Control System Using Heart Rate Measuring Device on the Safety Belt And Method Thereof
KR101649158B1 (en) * 2010-03-03 2016-08-18 엘지전자 주식회사 Method for generating emotion imformation, apparatus for generating motion imformation, and image display apparatus including the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170087834A (en) * 2016-01-21 2017-07-31 트런그램 지알트룰 셰르파 Computer system for determining a state of mind and providing a sensory-type antidote to a subject
WO2017200244A1 (en) * 2016-05-18 2017-11-23 신호철 Psychiatric symptom evaluation system utilizing audio-visual content and bio-signal analysis
KR20210007431A (en) * 2019-07-11 2021-01-20 주식회사 고담 VR Content Providing System According to Bio-signal
WO2023149652A1 (en) * 2022-02-04 2023-08-10 주식회사 히포티앤씨 Artificial intelligence-based customized content generating method for treating autism spectrum disorder

Also Published As

Publication number Publication date
KR101397287B1 (en) 2014-05-21
WO2013122353A1 (en) 2013-08-22

Similar Documents

Publication Publication Date Title
KR101397287B1 (en) Emotion induction system regularited emotion intensity level and inducing emotion method thereof
US7955259B2 (en) Apparatus and method for inducing emotions
Balters et al. Capturing emotion reactivity through physiology measurement as a foundation for affective engineering in engineering design science and engineering practices
Walter et al. The biovid heat pain database data for the advancement and systematic validation of an automated pain recognition system
Masood et al. Modeling mental stress using a deep learning framework
US9833184B2 (en) Identification of emotional states using physiological responses
JP5432989B2 (en) How to find the desired state in a subject
JP6755356B2 (en) Detection device
KR101727940B1 (en) Apparatus and method for decision of psychological state using bio signals
Hercegfi Heart rate variability monitoring during human-computer interaction
JP2019512311A (en) Method and apparatus for determining a criterion of one or more physiological characteristics of a subject
Cecchi et al. Physical stimuli and emotions: EDA features analysis from a wrist-worn measurement sensor
Al-Shargie Early detection of mental stress using advanced neuroimaging and artificial intelligence
Handouzi et al. Objective model assessment for short-term anxiety recognition from blood volume pulse signal
Hinkle et al. Physiological measurement for emotion recognition in virtual reality
CN115381413B (en) Self-adaptive bimodal emotion adjustment method and system
US11241173B2 (en) Physiological monitoring systems and methods of estimating vital-sign data
Marzuki et al. Classification of human state emotion from physiological signal pattern using pulse sensor based on learning vector quantization
Hardacre Psychophysiological methods in language research: Rethinking embodiment in studies of linguistic behaviors
US20230104641A1 (en) Real-time Patient Monitoring for Live Intervention Adaptation
KR20190051540A (en) Personalized self-stress measurement and control device using breathing relaxation training and aromatherapy
Jamwal et al. Pulse Signal Processing for Analysis of Cardiovascular Diseases
CN116269230A (en) Health sleep management system and method
Gao A digital signal processing approach for affective sensing of a computer user through pupil diameter monitoring
PIERSANTI Experimental Evaluation of a Wrist-Worn Device for the Measurement of the Galvanic Skin Response

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180427

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190418

Year of fee payment: 6