KR101846350B1 - evaluation method and system for user flow or engagement by using body micro-movement - Google Patents

evaluation method and system for user flow or engagement by using body micro-movement Download PDF

Info

Publication number
KR101846350B1
KR101846350B1 KR1020160046490A KR20160046490A KR101846350B1 KR 101846350 B1 KR101846350 B1 KR 101846350B1 KR 1020160046490 A KR1020160046490 A KR 1020160046490A KR 20160046490 A KR20160046490 A KR 20160046490A KR 101846350 B1 KR101846350 B1 KR 101846350B1
Authority
KR
South Korea
Prior art keywords
data
user
immersion
image
frequency band
Prior art date
Application number
KR1020160046490A
Other languages
Korean (ko)
Other versions
KR20160124026A (en
Inventor
황성택
황민철
박상인
원명주
Original Assignee
상명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상명대학교산학협력단 filed Critical 상명대학교산학협력단
Priority to KR1020160046490A priority Critical patent/KR101846350B1/en
Publication of KR20160124026A publication Critical patent/KR20160124026A/en
Application granted granted Critical
Publication of KR101846350B1 publication Critical patent/KR101846350B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1101Detecting tremor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0456
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/346Analysis of electrocardiograms
    • A61B5/349Detecting specific parameters of the electrocardiograph cycle
    • A61B5/352Detecting R peaks, e.g. for synchronising diagnostic apparatus; Estimating R-R interval
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis

Abstract

사용자의 몰입도가 높은 상태임을 판단하는 방법 및 시스템에 대해 기술한다. 사용자로부터 취득된 RRI 평균의 변화량 값 (%)이 1.583% 크게 증가한 경우, 사용자로부터 취득된 n FL (x 값)와 ln HF (y 값)의 변화량 값 (%)이 Y = 0.5614*x의 직선의 방정식 보다 위에 위치하는 경우, 몰입도가 높은 상태로 판단하고 두 가지 중, 한 가지라도 룰-베이스를 만족하지 않는 경우 몰입도가 낮은 상태로 판단할 수 도 있다.A method and system for determining that a user has a high level of immersion is described. When the variation value (%) of the n FL (x value) and the ln HF (y value) acquired from the user increases linearly with Y = 0.5614 * x It is judged that the degree of immersion is high, and if one of the two is not satisfied with the rule base, it may be determined that the degree of immersion is low.

Description

신체 미동 이용한 사용자의 몰입도 평가 방법 및 그 장치{evaluation method and system for user flow or engagement by using body micro-movement}[0001] The present invention relates to a method and apparatus for evaluating a user's immersion degree using a human body micro-

신체 미동을 이용하여 사용자(피험자)의 몰입도를 평가하는 방법 및 장치에 대해 기술한다.Described is a method and apparatus for evaluating the immersion degree of a user (subject) using the body motion.

몰입(flow or engagement)은 주위의 모든 자극이나 방해물과 정신적 잡념이 차단된 상태에서 특정 대상에 대해 자신의 모든 정신을 집중하는 상태를 뜻한다 (Csikszentmihalyi, 1997). 몰입은 몰입하게 되는 대상과의 일체감을 유도하여 대상에 대한 기억력 증진 혹은 빠른 습득을 가능하게 한다. 사용자는 실제 환경이나 다양한 미디어 콘텐츠를 통해 정보를 제공 받는다. 그러나 이것은 단방향적인 정보의 제공으로 사용자가 정보를 받아들이고 습득하는 과정에 대한 이해가 고려되어 있지 않다. 사용자가 미디어 콘텐츠나 실제 환경에서 제공받는 정보에 대한 몰입의 정도는 제공되는 정보의 효율적인 전달과 밀접한 관련이 있다. 사용자가 제공되는 콘텐츠에 몰입하게 되면 사용자는 콘텐츠에서 제공하는 정보를 보다 효율적으로 접하고 습득하기가 용이하다. 따라서 콘텐츠의 대한 사용자의 몰입도를 높이는 것이 콘텐츠의 효과를 증대시킬 수 있는 주요한 요인이다. Flow or engagement refers to the state of concentrating all of your minds on a particular object, with all the stimuli, obstacles and mental thoughts around you blocked (Csikszentmihalyi, 1997). The immersion induces a sense of unity with the immersive object, enabling the memory enhancement or the quick acquisition of the object. The user is provided with information through a real environment or various media contents. However, this does not provide an understanding of the process by which users receive and acquire information through the provision of unidirectional information. The extent of the user's immersion in the information provided by the media content or the actual environment is closely related to the efficient delivery of the information provided. When the user is immersed in the content provided by the user, the user can more easily contact and acquire information provided by the content. Therefore, increasing the user's level of involvement of contents is a major factor that can increase the effect of contents.

사용자의 몰입도를 높이기 위해서는 우선 사용자의 몰입 정도에 대해 정량적으로 평가할 수 있는 기술의 개발이 선행 되어야 한다. 사용자의 몰입도에 대해 정량적으로 평가하는 것이 가능하다면, 콘텐츠 내용, 콘텐츠 제시 방법, 콘텐츠 제시 환경 등의 다양한 내외적 요인의 변화를 통해 사용자의 몰입도를 높이기 위한 피드백 제시가 가능하다. 이것은 사용자와 콘텐츠 사이의 양방향 인터랙션을 의미한다. 기존의 단방향 인터렉션에 비해 사용자에게 보다 효율적으로 콘텐츠의 정보를 제시할 수 있다. In order to increase the user's commitment, the development of technology that can quantitatively evaluate the degree of user's commitment should be preceded. If it is possible to quantitatively evaluate the user's immersion level, it is possible to provide feedback for increasing the user's immersion through changes in various internal and external factors such as contents contents, contents presentation methods, and contents presentation environments. This means a two-way interaction between the user and the content. It is possible to present the information of contents more efficiently to the user than the existing unidirectional interaction.

Csikszentmihalyi, M. (1997). Finding flow: The psychology of engagement with everyday life. Basic Books.Csikszentmihalyi, M. (1997). Finding flow: The psychology of engagement with everyday life. Basic Books. Ekman, P. (1972). Universal and cultural differences in facial expressions of emotions. In J.K.Cole (Ed). Nebraska symposium on motivation. Lincoln: University of Nebraska Press, 207-283.Ekman, P. (1972). Universal and cultural differences in facial expressions of emotions. In J. K. Cole (Ed.). Nebraska symposium on motivation. Lincoln: University of Nebraska Press, 207-283. Pan, J., and tompkins, W. J. (1985). A real-time QRS detection algorithm. Biomedical Engineering, IEEE Transactions on, (3), 230-236.Pan, J., and Tomkins, W. J. (1985). A real-time QRS detection algorithm. Biomedical Engineering, IEEE Transactions on, (3), 230-236.

본 발명은 인체 미동을 이용하여 사용자의 몰입도를 정량적으로 평가 할 수 있는 방법 및 시스템을 제안 한다.The present invention proposes a method and system for quantitatively evaluating a user's degree of immersion using human motion.

본 발명에 따른 인체 미동 기반 사용자 몰입도 평가 방법:은The method of evaluating human immobility based on human body according to the present invention:

자극에 노출된 사용자의 미세 움직임을 촬영하여 영상 데이터를 생성하는 단계;Capturing a fine movement of a user exposed to a stimulus to generate image data;

상기 영상 데이터를 생성하면서 피험자에 대한 안면 트랙킹(Face Tracking)을 수행하는 단계;Performing facial tracking on a subject while generating the image data;

상기 영상 데이터에 대한 공간 분해(Spatial Decomposition)를 포함하는 영상 데이터 처리를 수행하는 단계;Performing image data processing including spatial decomposition on the image data;

상기 영상 데이터 처리를 통해 상기 피험자 안면의 미세 움직임 정보를 추출하는 단계;Extracting fine motion information of the subject's face through the image data processing;

상기 미세 움직임 정보를 이용하여 심박 정보를 추출하는 단계;Extracting heartbeat information using the fine motion information;

상기 심박 정보로부터 RRI (R-peak to R-peak Intervals) 데이터를 취득하는 단계;Obtaining RRI (R-peak to R-peak intervals) data from the heartbeat information;

상기 RRI 데이터로부터 HRV 데이터를 추출하는 단계;Extracting HRV data from the RRI data;

상기 HRV 데이터에서 소정 범위 저주파 대역(LF)과 저주파 대역(LF)에 비해 높은 고주파 대역(HF)의 파워값을 각각 계산하는 단계;Calculating power values of a high-frequency band (HF) higher than a predetermined low-frequency band (LF) and a low-frequency band (LF), respectively;

상기 두 파워값을 이용해 상기 자극에 대한 상기 사용자의 몰입 여부를 판단하는 단계;를 포함한다.And determining whether the user is immersed in the stimulus using the two power values.

본 발명의 한 실시 예에 따르면, 상기 두 파워값으로부터 자연로그 ln LF와 ln HF로 계산하고, 이 값 변화량 값을 이용해 사용자의 몰입감을 평가할 수 있다.According to an embodiment of the present invention, natural logarithms ln LF and ln HF can be calculated from the two power values, and the user's immersion feeling can be evaluated using the value of the change amount.

본 발명의 다른 실시 예에 따르면, RRI 데이터로부터 평균(mean)을 구하고, 이 평균(mean)의 변화량을 이용하여 상기 사용자의 몰입감을 평가할 수 있다.According to another embodiment of the present invention, a mean can be obtained from RRI data, and the immersion feeling of the user can be evaluated using the variation of the mean.

본 발명의 구체적인 실시 예에 따르면, 상기 RRI의 평균의 변화량(%)을 기준치 1.583% 에 비교하여 이보다 높을 때 상기 사용자의 몰입도가 높은 것으로 평가할 수 있다.According to a specific embodiment of the present invention, when the variation (%) of the average of the RRI is compared with the reference value of 1.583%, it can be evaluated that the user's degree of immersion is higher when it is higher.

본 발명의 구체적인 실시 예에 따르면, 상기 ln FL (x 값)와 ln HF (y 값)의 변화량 값 (%)이 Y = 0.5614*x의 직선의 방정식 보다 위에 위치하는 경우, 상기 사용자의 몰입도가 높은 것을 판단할 수 있다.According to a specific embodiment of the present invention, when the variation value (%) of the ln FL (x value) and the ln HF (y value) is located above a straight line equation of Y = 0.5614 * x, Can be judged to be high.

즉, 본 발명은 신체 미동으로부터 심박 정보를 추출하고 이로부터 얻어진 RRI 평균(mean)과 정규화된(Normaized )HRV의 ln LF와 ln HF가 몰입도를 평가하기 위한 유의미한 변수를 사용한다. That is, the present invention extracts HR information from the somatosensory body, uses the RRI mean obtained therefrom, and ln LF and ln HF of the Normaized HRV as significant variables for evaluating the immersion.

본 발명의 실시 예에 따르면, 상기 미세 움직임 정보를 추출하는 단계와 심박 정보를 추출하는 단계:는According to an embodiment of the present invention, the step of extracting the fine motion information and the step of extracting the heartbeat information include:

안면 트랙킹(Face Tracking) 단계;A face tracking step;

공간 분리(Spatial Decomposition) 단계;A spatial decomposition step;

뉴로 필터(Neuro Filter) 단계;A Neuro Filter step;

시간 처리(Temporal Processing) 단계;A temporal processing step;

재구성(Reconstruction) 단계;A reconstruction step;

프레임 차 평균화(Frame Difference Average) 단계; A frame difference averaging step;

스무스 필터(Smoothing Filter) 단계; 그리고A smoothing filter step; And

슬라이딩 피이크 검출(Sliding Peak Detection) 단계;를 포함할 수 있다.And a sliding peak detection step.

본 발명의 구체적인 실시 예에 따르면, 상기 HRV 데이터는 상기 RRI의 리샘플링 및 FFT 분석을 통해 획득할 수 있다.According to a specific embodiment of the present invention, the HRV data may be obtained through resampling and FFT analysis of the RRI.

본 발명에 따른 인체 미동 기반 사용자 몰입도 평가 방법을 수행하는 시스템:은 The system for performing the method of evaluating the human immersion-based user engagement according to the present invention comprises:

상기 영상 데이터를 생성하는 카메라;A camera for generating the image data;

상기 카메라로부터의 영상 데이터를 처리하는 영상 처리부;An image processing unit for processing image data from the camera;

상기 영상 처리부로부터의 데이터를 분석하여 상기 사용자의 몰입도를 평가하는 분석부:를 포함할 수 있다.And an analysis unit for analyzing the data from the image processing unit and evaluating the degree of immersion of the user.

도1은 본 발명의 실험 방법을 예시한다.
도2는 본 발명의 실험 절차를 예시한다.
도3은 본 발명의 몰입도 평가 방법에서, 심전도 측정 지점을 나타내 보인다.
도4는 본 발명에 몰입도 평가 방법에서, 심전도 신호 처리 절차를 예시한다.
도5는 본 발명에 따른 몰입도 평가 방법에서, 5. RRI 분석결과 (*p < .05, **p < .01, ***p < .001) 를 도시한다.
도6은 본 발명에 따른 몰입도 평가 방법에서, RRI 변화량 분석결과 (*p < .05, **p < .01, ***p < .001) 를 나타내 보인다.
도7은 본 발명에 따른 몰입도 평가 방법에서, ln LF 분석결과 (*p < .05, **p < .01, ***p < .001)를 도시한다.
도8은 본 발명에 따른 몰입도 평가 방법에서, ln HF 분석결과 (*p < .05, **p < .01, ***p < .001) 를 도시한다.
도9는 본 발명에 따른 몰입도 평가 방법에서, ln LF 변화량 분석결과 (*p < .05, **p < .01, ***p < .001) 를 도시한다.
도10은 본 발명에 따른 몰입도 평가 방법에서, ln HF 변화량 분석결과 (*p < .05, **p < .01, ***p < .001) 를 도시한다.
도11은 본 발명에 따른 몰입도 평가 방법에서, 각 피험자의 자율신경계 균형 분석 결과 (High engagement)를 도시한다.
도12는 본 발명에 따른 몰입도 평가 방법에서, 각 피험자의 자율신경계 균형 분석 결과 (Low engagement)를 도시한다.
도13은 본 발명에 따른 몰입도 평가방법에서, RRI 기반 몰입도 평가 룰-베이스를 예시한다.
도14는 본 발명에 따른 몰입도 평가 방법에서, ln LF와 ln HF 기반 몰입도 평가 룰-베이스를 예시한다.
도15는 본 발명에 따른 몰입도 평가 방법에서, 몰입도 평가 통합 룰-베이스에 의한 평가방법의 흐름도이다.
도16은 본 발명에 따른 몰입도 평가 방법에서, RRI 기반 룰-베이스 정확도 검증 결과를 예시한다.
도17 본 발명에 따른 몰입도 평가 방법에서, Normalized HRV 기반 룰-베이스 정확도 검증 결과를 도시한다.
Figure 1 illustrates the experimental method of the present invention.
Figure 2 illustrates the experimental procedure of the present invention.
FIG. 3 shows an electrocardiogram measurement point in the immersion degree evaluation method of the present invention.
4 illustrates an electrocardiogram signal processing procedure in the method of assessing immersion in the present invention.
FIG. 5 shows the result of the RRI analysis (* p <.05, ** p <.01, *** p <.001) in the method of evaluating the degree of involvement according to the present invention.
FIG. 6 shows the results of the RRI variation analysis (* p <.05, ** p <.01, *** p <.001) in the method of evaluating the degree of engagement according to the present invention.
FIG. 7 shows the result of ln LF analysis (* p <.05, ** p <.01, *** p <.001) in the method of evaluating the degree of immersion according to the present invention.
Figure 8 shows ln HF analysis results (* p < .05, ** p < .01, *** p < .001) in the method of assessing immersion according to the present invention.
9 shows the results of analysis of the change in ln LF (* p <.05, ** p <.01, *** p <.001) in the method of measuring the degree of involvement according to the present invention.
Figure 10 shows the results of analysis of ln HF variation (* p < .05, ** p < .01, *** p < .001) in the method of evaluation of immersion according to the present invention.
FIG. 11 shows the result of the autonomic nervous system balance analysis (high engagement) of each subject in the immersion degree evaluation method according to the present invention.
12 shows the results of the autonomic nervous system balance analysis (low engagement) of each subject in the immersion degree evaluation method according to the present invention.
13 illustrates an RRI-based immersion rating rule-base in the immersion rate evaluation method according to the present invention.
Figure 14 illustrates the rule-based evaluation of ln LF and ln HF-based immersion in the method of assessing engagement according to the present invention.
15 is a flowchart of an evaluation method based on an immersion evaluation integrated rule base in the immersion evaluation method according to the present invention.
FIG. 16 illustrates RRI-based rule-based accuracy verification results in an immersion rate evaluation method according to the present invention.
17 shows the result of the rule-base accuracy verification based on Normalized HRV in the method of evaluating the degree of engagement according to the present invention.

이하, 첨부된 도면을 참조하면서, 본 발명에 따라 신체 미동으로부터 심박 정보를 얻고 이로부터 얻어진 심박 정보를 이용해 사용자의 몰입도를 평가하는 방법 및 장치의 실시 예를 상세히 설명한다. 본 발명에서 다양한 컨텐츠 등에 의해 특정한 자극을 받은 사용자 또는 피험자를 대상으로 하며, 이는 피험자가 특정한 자극에 대한 몰입감를 평가하는 것이다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. In the present invention, a user or a subject who has received a specific stimulation by various contents or the like is intended, and the subject is to evaluate the immersion feeling for a specific stimulus.

이러한 본 발명의 방법을 수행하는 시스템은 상기 영상 데이터를 생성하는 카메라, 상기 카메라로부터의 영상 데이터를 처리하는 영상 처리부, 상기 영상 처리부로부터의 데이터를 분석하여 상기 사용자의 몰입도를 평가하는 분석부를 포함하며, 이러한 시스템은 동영상 촬영장치를 마련되는 PC 기반의 시스템에 의해 수행될 수 있다.The system for performing the method of the present invention includes a camera for generating the image data, an image processing unit for processing image data from the camera, and an analyzing unit for analyzing the data from the image processing unit and evaluating the user's degree of immersion Such a system may be implemented by a PC-based system equipped with a moving image photographing apparatus.

먼저 본 발명에 따른 인체 미동 기반 사용자 몰입도 평가 방법의 검증하기 위한 실험 방법 등에 대해 먼저 설명한다. First, an experimental method and the like for verifying the human immersion-based user engagement evaluation method according to the present invention will be described first.

1. 실험방법1. Experimental Method

1.1 피험자1.1 Subjects

본 연구에 참여한 피험자는 상명대학교 및 대학원 재학생 30명 (남, 여 각각 15명, 평균나이: 26.24±4.2)을 대상으로 하였다. 실험에 참여한 피험자는 자율 신경계 및 심혈관계 이상이나 과거력이 없는 사람을 대상으로 진행 하였다. 실험에 참여하기 전, 자율 및 심혈관계에 영향을 끼칠 수 있는 카페인, 음주, 흡연 등을 제한하였고 충분한 수면을 통해 실험 당일 피로를 최소화할 수 있도록 하였다. 또한, 피험자로부터 연구목적을 제외하고 실험에 대한 대략적인 사항에 대해 설명한 후 자발적 참여의지에 대한 피험자 동의서를 얻었으며, 실험에 참여한 대가로 소정의 금액을 지불하여 실험에 적극적으로 참여할 수 있는 동기를 부여하였다.Subjects participated in this study were 30 students from Sangmyung University and graduate school (mean age: 26.24 ± 4.2). Subjects participated in the experiment were autonomic nervous system, and those without cardiovascular abnormality or history. Prior to participating in the experiment, caffeine, alcohol, and smoking, which could affect autonomic and cardiovascular fitness, were limited and sufficient sleep was provided to minimize fatigue on the day of the experiment. In addition, the subjects were informed of the outline of the experiment except for the purpose of the study, and then the consent of the volunteer participant was obtained and the motivation to participate actively in the experiment by paying the prescribed amount Respectively.

1.2. 실험절차1.2. Experimental Procedure

실험에 참여한 60명의 피험자는 무작위로 한 그룹에 두 명씩 30 그룹으로 분류하였다. 각 그룹의 두 명의 피험자는 각각 리더(leader)와 팔로워(follower)로 나누어 실험을 진행하였다. 리더는 시스템에서 제시 되어지는 6개의 Ekman 기본감성 (행복, 슬픔, 놀람, 혐오, 공포, 화남)에 얼굴표정을 보고 자신의 얼굴표정을 따라 하도록 하였다 (Ekman, 1972). 팔로워는 리더가 짓는 얼굴표정을 쳐다보기만 하거나 따라 하도록 지시하였다. 상기의 태스크는 얼굴을 마주 본 상태에서 진행하는 대면(Face to Face) 조건과 스크린을 통해 상대방을 본 상태에서 진행하는 스크린(Screen) 조건으로 나누어 반복 진행하였다. Sixty subjects participating in the experiment were randomly divided into 30 groups of two in each group. Two subjects in each group were divided into a leader and a follower. The reader was asked to follow his facial expressions in six facial expressions (Ekman, 1972), which were presented in the system in six Ekman basic emotions (happiness, sadness, surprise, disgust, horror, anger). The follower instructed the reader to look at or follow the face of the leader. The above task was repeated by dividing the face to face condition in which the face is faced and the screen condition in which the other side is viewed through the screen.

본 실험에서 스크린 조건에서 리더의 표정을 쳐다 보기만 하는 것을 몰입감이 낮은 상태(LE, low engagement)로 정의 하였고, 대면(Face to Face) 조건에서 리더의 얼굴표정을 팔로워가 따라 하는 조건을 몰입감이 높은 상태 (HE, high engagement)로 정의 하였다. 또한, 얼굴 표정에 대해 사전에 학습하여 자연스러운 얼굴표정이 가능하도록 하기 위해 얼굴표정을 소개하는 도입(introduction) 태스크와 사전에 얼굴표정을 지어볼 수 있도록 훈련하는 실행(practice) 태스크를 포함하였다. 각 태스크 사이에는 휴식 30초가 포함되어 있으며, 얼굴 표정 사이에는 5초의 휴식이 포함 되었다. 자세한 실험 방법과 절차는 도1과 도2에 도시하였으며, 영상 처리에 대해서는 도4에 도시되어 있다.In this experiment, we defined LE as a low engagement state in which the reader only looks at the reader 's face under screen conditions and the immersive feeling of the follower' s facial expression in the face - to - face condition (HE, high engagement). In addition, an introduction task introducing facial expressions and a practice task for training facial expressions in advance are included to enable facial expressions to be learned in advance and enable natural facial expressions. Each task included 30 seconds of rest and 5 seconds of rest between facial expressions. Detailed experimental methods and procedures are shown in Figs. 1 and 2, and image processing is shown in Fig.

1.3. 데이터 수집1.3. Data collection

본 발명은 심박 정보를 신체 미동으로부터 추출한다.The present invention extracts the heartbeat information from the somatosensory.

본 발명에 따른 미동 데이터를 추출 하는 방법에 있어서 처리하는 순서는 아래와 같이 총 10단계를 포함한다. 도3은 단계별 동작 시나리오를 예시한다.In the method for extracting fine motion data according to the present invention, the processing sequence includes the following 10 steps in total. Figure 3 illustrates step-by-step operational scenarios.

가. 영상입력(Audio Input) 단계(S11)end. In the video input (Audio Input) step S11,

동영상 카메라로 피험자를 촬영하여 연속적인 영상 데이터를 생성한다. 이때에 촬영영역은 도3에 도시된 바와 같이 얼굴이 포함되는 상반신이다. The subject is photographed with a moving image camera to generate continuous image data. At this time, the photographing area is the upper half of the body including the face as shown in Fig.

나. 안면 추적 또는 트랙킹(Face Tracking) 단계(S12)I. Face tracking or tracking (Face Tracking) step S12

상기 영상 카메라를 이용하여 입력 된 영상 데이터를 이용하여 인체의 미세한 움직임을 머리에서 추출하기 위하여 OpenCV(Open Computer Vision)를 이용한 안면인식을 통해 영상 정보를 분리 하도록 한다. The image information is separated through facial recognition using OpenCV (Open Computer Vision) in order to extract the minute movement of the human body from the head using the image data input by using the image camera.

OpenCV은 C 이다. 원래는 이 개발하였으며, 우, 등의 여러 플랫폼에서 사용할 수 있다. 이러한 OpenCV는 실시간 이미지 프로세싱에 중점을 둔 라이브러리이다. OpenCV is C. Originally developed, it can be used on multiple platforms, such as Wu. OpenCV is a library focused on real-time image processing.

상기 OpenCV에 기반을 둔 안면 인식 시스템(facial recognition system)은 디지털 이미지를 통해 각 사람을 자동으로 식별하는 컴퓨터 지원 응용 프로그램을 말한다. 이는 살아 있는 이미지에 나타나는 선택된 얼굴 특징과 안면 데이터베이스를 서로 비교함으로써 이루어진다. The OpenCV-based facial recognition system refers to a computer-aided application program that automatically identifies each person through a digital image. This is done by comparing the facial database with the selected facial features that appear in the live image.

도 3에서 S12단계에서 원본 영상에 나타나는 사각형이 안면부분의 트랙킹 영역을 나타낸다. 이것은 사용자의 움직임에 대응하여 안면 부분에 대한 트랙킹이 수행된다.In FIG. 3, a rectangle appearing in the original image in step S12 represents the tracking area of the face portion. This enables tracking of the face portion in response to the movement of the user.

다. 공간 분리(Spatial Decomposition) 단계(S13)All. In the spatial decomposition step S13,

잘 알려진 영상의 공간 분리 기법으로 가우시안(Gaussian blur)와 다운 샘플링(down sample)을 통하여 각 주파수(Frequency)별 공간을 분리한다.It is a well-known spatial segmentation technique that separates each frequency by Gaussian blur and downsample.

Figure 112016036466006-pat00001
Figure 112016036466006-pat00001

도3의 S13에 도시된 이미지가 공간 분리된 상태의 결과물이다. The image shown in S13 of FIG. 3 is a result of the state in which the images are separated in space.

위의 식에서, α 는 영상의 증폭 비율값이며, β 는 시간, 공간 주파수 대역으로 필터된 이미지의 값이며, x 는 영상의 가로축(x) 위치값이며, t 는 시간이며, δ (t)는 입력된 영상과 움직임 영상과의 혼합비율 값이며, 그리고 I' 는 움직인 이미지의 움직임 정도이다.The above formula, α is an amplification factor value of the image, β is a time, and the value of the image filter as a spatial frequency band, x is the horizontal axis (x) and the position of the image, t is a time, δ (t) is Is the mixture ratio value of the input image and the motion image, and I 'is the movement degree of the moving image.

라. 뉴로 필터(Neuro Filter) 단계(S14) la. In the Neuro Filter step S14,

뉴로 필터(Neuro Filter 단계)는 영상의 공간 주파수를 분리 함에 있어 일반적인 생체신호(bio signal)을 기준으로 영상으로부터 추출 할 수 있는 주파수 대역을 생체신호간 상관성이 있는 대역을 선정하여 주파수 대역을 선정하고 그 선정 된 대역의 영상 정보를 취득하는 것을 의미한다.In the neurofilter phase, a frequency band that can be extracted from an image based on a general bio signal is selected from a frequency band having correlation between biological signals, and a frequency band is selected And acquire image information of the selected band.

예를 들어, 일반적인 PPG 데이터를 신호처리 할 경우 0.4~1.3Hz 구간의 주파수 성분을 가지고 데이터 분석을 실시함으로 PPG와 유사한 신호를 영상으로부터 취득하기 위해서는 동일 대역 혹은 인근 대역의 주파수 분석을 통해 유사한 데이터를 추출한다.For example, when signal processing of general PPG data is performed, data analysis is performed with a frequency component of 0.4 to 1.3 Hz. In order to acquire a PPG-like signal from the image, similar data is analyzed through frequency analysis of the same band or nearby band .

마. 시간 처리(Temporal Processing) 단계(S15)hemp. Temporal Processing Step S15:

영상을 뉴로필터(Neuro Filter) 대역의 주파수 공간으로 분리한 후, 분리된 공간의 주된 성분의 주파수 대역을 시간처리(Temporal Processing)를 이용하여 차이 값을 추출하여 영상이 진행되는 동안(시간이 흐르는 동안) 해당 주파수 성분의 값을 분리하여 추출한다.After separating the image into the frequency space of the Neuro Filter band, the difference value is extracted using the temporal processing of the frequency band of the main component of the separated space, The values of the corresponding frequency components are separated and extracted.

바. 재구성(Reconstruction) 단계(S16)bar. In the reconstruction step S16,

분리된 공간의 성분을 뉴로 필터(Neuro Filter) 대역의 주파수 성분만 시간을 이용하여 분리해내고 분리된 성분 값을 일정량의 증폭을 통해 기존 영상에 복원하여 실제 미세하게 잘 보이지 않는 움직임에 해당하는 주파수 성분의 데이터 값을 만들어 낼 수 있도록 한다.By separating the components of the separated space using only the frequency components of the Neuro Filter band using time and restoring the separated component values into the existing image through a certain amount of amplification, So that the data value of the component can be generated.

Figure 112016036466006-pat00002
Figure 112016036466006-pat00002

위의 식에서, α는 영상의 증폭 비율 값이며, δ (t) 는 입력된 영상과 움직임 영상과의 혼합비율 값 이며, 그리고 λ는 이미지 공간의 파장 대역 값이다.In the above equation, α is the amplification ratio value of the image, δ ( t ) is the mixing ratio value of the input image and the motion image, and λ is the wavelength band value of the image space.

사. 프레임 차 평균화(Frame Difference Average) 단계(S17)four. The frame difference averaging step (S17)

분리된 성분의 데이터 값을 매 시간(30fps 기준)마다 측정되는 영상의 움직임 데이터의 1프레임이 평균의 차이 값을 계산하여 이전 상태와 현 상태의 평균적으로 움직임의 차이 값을 계산하여 전체적인 미세 움직임의 양을 추출한다. 여기에서 1 프레임의 평균은 1프레임의 미세 움직임 양을 나타낸다.By calculating the difference value of the average of one frame of the motion data of the image which is measured every time the data value of the separated component is measured (based on 30 fps), the difference value of motion between the previous state and the current state is calculated, The amount is extracted. Here, the average of one frame represents the amount of fine motion of one frame.

Figure 112016036466006-pat00003
Figure 112016036466006-pat00003

아. 스무스 필터링(Smoothing Filter) 단계(S18)Ah. In the smoothing filtering step S18,

추출 된 미세 움직임을 데이터로 추출하였을 때 움직임에 대한 노이즈가 포함되어 신호가 거칠게 일그러지거나 하여, 피이크(peak) 검출에 어려움이 있어 노이즈를 제거하고 피이크 검출의 정확도를 높이는 데이터를 가공 처리한다.When the extracted fine motion is extracted as data, noise is included in the motion and the signal is roughly distorted. Therefore, it is difficult to detect the peak, thereby processing the data to remove the noise and improve the accuracy of the peak detection.

Figure 112016036466006-pat00004
Figure 112016036466006-pat00004

Figure 112016036466006-pat00005
Figure 112016036466006-pat00005

위 식에서 SMA는 이동평균 값이며, SMAtoday, SMAyesterday는 서로 다른 특정일자의 이동평균 값이며, Pm 은 현재 프레임의 미동의 값이며, n은 이동평균의 윈도우 사이즈(window size)이다.SMA is the moving average, SMAtoday and SMAyesterday are the moving average values of different specific dates, Pm is the fine value of the current frame, and n is the window size of the moving average.

자. 슬라이딩 피크 검출(Sliding Peak Detection) 단계(S19, S20)character. Sliding Peak Detection (S19, S20)

노이즈를 제거하고 피이크 검출을 위한 가공 처리 된 데이터를 받아 1프레임당 피이크 데이터를 30초 크기(size)의 윈도우(windows)를 기준으로 지속적으로 슬라이딩(sliding) 시켜 움직임 영향 및 데이터에 영향을 최소화 시켜 BPM(bit per minute) 신호를 심박 정보(PPG)로서 추출한다.It removes noise and receives processed data for peak detection, and keeps the peak data per frame continuously sliding based on the window size of 30 seconds to minimize the influence of motion and data. And extracts a BPM (bit per minute) signal as heartbeat information (PPG).

Figure 112016036466006-pat00006
Figure 112016036466006-pat00006

위의 식에서 i 는 0, 1,…,n 등의 자연수 이며, w 는 윈도우 크기이다.In the equation above i is 0, 1, ... , n, etc., and w is the window size.

1.4 신호처리1.4 Signal Processing

위의 과정에서 취득한 PPG 신호는 QRS 검출 알고리즘을 통해 R-peak를 검출하였다(Pan and Tompkins, 1985). 검출된 R-peak로부터 노이즈를 제외하고 정상적 R-peak 간격의 차이를 이용해 RRI (R-peak to R-peak interval)를 추출 하였다. 심장 리듬 패턴 (HRP, heart rhythm pattern) 분석을 위해 분당 심박수 (BPM, beat per minute)는 60/RRI을 통해 계산할 수 있고, 정상 RRI의 표준 편차를 이용해 SDNN (standard deviation normal to normal)을 추출할 수 도 있다.The PPG signal obtained in the above procedure detects the R-peak through the QRS detection algorithm (Pan and Tompkins, 1985). R-peak (R-peak to R-peak interval) was extracted from the detected R-peak by using the difference of the normal R-peak interval. To analyze the heart rhythm pattern (HRP), the beat per minute (BPM) can be calculated using 60 / RRI and the SDNN (standard deviation normal to normal) is extracted using the standard deviation of the normal RRI There is also water.

위와 같은 과정을 통해 측정된 심박 정보(PPG) 데이터는 QRS 검출 알고리즘을 통해 R-peak을 검출 하였다 (Pan & Tomplins, 1985). 검출된 R-peak는 비정상적인 심박 간격의 데이터를 제외하고 정상적인 심박 간격의 데이터를 기준으로 R-peak 사이의 시간 간격을 계산하여 RRI (R-peak to R-peak Intervals) 데이터를 취득하였다. RRI 데이터는 시계열 데이터로 변환하기 위해 2 Hz로 리샘플링(re-sampling) 하였고 FFT (Fast Furier Transform) 분석을 통해 HRV (Heart Rate Variability) spectrum 데이터를 추출하였다. 추출된 데이터는 LF (very Low Frequency, 0.0033 - 0.04 Hz)대역과 HF (High Frequency, 0.15 - 0.4 Hz) 대역의 각각 파워값을 계산하였고 각각의 파워값은 자연로그를 취해 ln LF와 ln HF로 계산하였다. 계산된 값은 ln LF와 ln HF축에 9개의 도메인으로 구성된 좌표에 플로팅하여 자율신경계 균형을 확인 하였다. 자세한 신호처리 과정은 전술한 바와 같이 도4에 도시된 바와 같다.The heart rate information (PPG) data measured through the above procedure detected R-peak through the QRS detection algorithm (Pan & Tomplins, 1985). The detected R-peaks were obtained by calculating the R-peak to R-peak intervals (RRI) by calculating the time interval between R-peaks based on the data of normal heartbeat intervals, except for abnormal heart rate data. RRI data was re-sampled at 2 Hz to convert to time-series data and HRV (Heart Rate Variability) spectrum data was extracted through Fast Fourier Transform (FFT) analysis. The extracted data LF by - - (0.4 Hz High Frequency, 0.15) respectively, were calculated power value of each of the power value of the band has taken the natural logarithm ln LF and ln HF (very Low Frequency, 0.0033 0.04 Hz) band and the HF Respectively. The computed values were plotted in coordinates consisting of nine domains on the ln LF and ln HF axes to confirm the autonomic nervous system balance. The detailed signal processing procedure is as shown in FIG. 4 as described above.

2. 실험결과2. Experimental results

본 실험에서 스크린(Screen) 조건의 표현 제시(Viewing expression) 태스크는 LE(Low engagement)로, 그리고 대면(Face to Face) 조건의 모방(Imitation) 태스크는 High engagement (HE) 로 정의 하였다. 모든 태스크 구간의 데이터는 기준(reference) 구간에 대비하여 변화량으로 계산하여 몰입도에 대한 결과(Ratio of change)를 비교 하였다.In this experiment, the viewing expression task of screen condition is defined as LE (low engagement) and the imitation task of face to face condition is defined as high engagement (HE). The data of all task intervals are compared with the reference interval to calculate the change rate and compared the results of the immaturity (Ratio of change).

Figure 112016036466006-pat00007
Figure 112016036466006-pat00007

2.1. RRI (R-peak to R-peak Intervals)2.1. RRI (R-peak to R-peak Intervals)

RRI 분석 결과, HE는 기준(reference) 대비 RRI가 유의하게 증가하였고 (t = -3.099, p = .004), LE는 기준(reference) 대비 RRI가 감소하는 패턴을 보였으나 통계적으로 유의하지는 않았다 (t = 1.237, p = .226). 변화량 분석결과 HE가 LE에 비해 통계적으로 유의하게 증가하는 결과를 확인하였다 (t = 7.248, p = .000). 자세한 분석결과는 도5와 도6에 도시하였다.As a result of RRI analysis, HE showed a significant increase in RRI compared to reference ( t = -3.099, p = .004), LE showed a pattern of decreasing RRI compared to reference but not statistically significant t = 1.237, p =. 226). Analysis of change showed that HE was significantly increased compared to LE ( t = 7.248, p = .000). Detailed analysis results are shown in Fig. 5 and Fig.

2.2. 정규화된(Normalized) HRV (ln LF & ln HF)2.2. Normalized HRV ( ln LF &lt; ln HF)

정규화된(Normalized) HRV 분석 결과, HE는 기준(reference) 대비 ln LF가 유의하게 증가하였고 (t = -7.128, p = .000), LE는 기준(reference) 대비 ln LF가 유의하게 감소하는 결과를 확인하였다 (t = 4.026, p = .000). 자세한 분석결과는 도7에 도시하였다.Normalized HRV analysis showed that HE had a significant increase in ln LF compared to reference ( t = -7.128, p = .000), LE had a significant decrease in ln LF relative to reference ( T = 4.026, p = .000), respectively. Detailed analysis results are shown in Fig.

또한, HE는 기준(reference) 대비 ln HF가 유의하게 감소하였고 (t = 5.227, p = .000), LE는 기준(reference) 대비 ln HF가 유의하게 증가하는 결과를 확인하였다 (t = -5.900, p = .000). 자세한 분석결과는 도8에 도시하였다.In addition, HE showed a significant decrease in ln HF compared to reference ( t = 5.227, p = .000) and LE showed a significant increase in ln HF relative to reference ( t = -5.900 , p = .000). Detailed analysis results are shown in Fig.

변화량 분석결과에서 ln LF는 HE가 LE에 비해 통계적으로 유의하게 증가하는 결과를 확인하였고 (t = 6.312, p = .000), ln HF는 HE가 LE에 비해 통계적으로 유의하게 감소하는 결과를 확인하였다 (t = -9.092, p = .000). 자세한 분석결과는 도9와 도10에 도시하였다.In the analysis of change, ln LF showed a statistically significant increase in HE compared to LE ( t = 6.312, p = .000) and ln HF showed a statistically significant decrease in HE compared to LE ( T = -9.092, p = .000). Detailed analysis results are shown in FIG. 9 and FIG.

ln LF와 ln HF를 9개의 도메인에 각 피험자의 데이터를 플로팅 시킨 결과, HE는 기준(reference) 구간에 대비하여 LF (교감 신경계) 활성도가 감소하고 HF (부교감신경계) 활성도가 증가하는 방향으로 이동하였고 LE는 기준(reference) 구간에 대비하여 LF (교감 신경계) 활성도가 증가하고 HF (부교감신경계) 활성도가 감소하는 방향으로 이동하였다. 자세한 분석결과는 도11과 도12에 도시하였다. ln LF and ln HF were plotted in nine domains. As a result, HE decreased in the direction of decreasing LF (sympathetic nervous system) activity and HF (parasympathetic nervous system) activity relative to the reference section And LE was shifted toward LF (sympathetic nervous system) activity and HF (parasympathetic nervous system) activity in comparison with the reference period. Detailed analysis results are shown in FIGS. 11 and 12. FIG.

2.3. 몰입도 평가 룰-베이스 설정2.3. Immersion rating rule - base setting

몰입도 평가 룰-베이스는 변화량 분석 결과를 기준으로 설정 하였다. 각 피험자의 RRI 변화량 분석 결과를 HE와 LE 조건에 따라 플로팅한 결과는 도13에 도시된 바와 같다. 각 피험자의 데이터 중에서 HE와 LE를 구분할 수 있는 가장 큰 분별력을 갖는 지점을 임계값 (threshold)으로 설정하였다. 이에 따라, RRI의 기준(reference) 대비 변화량이 1.53 % 보다 크게 증가하는 경우를 HE, 반대의 경우를 LE로 판단하는 룰-베이스로 설정하였다.The immersion evaluation rule base was set based on the change analysis result. The result of analyzing the RRI change amount of each subject according to HE and LE conditions is as shown in FIG. For each subject, we set the threshold that has the greatest discretion to distinguish between HE and LE. Based on this, we set the rule-base to judge the case where the change of the RRI from the reference increases greatly from 1.53% to HE, and the opposite case to the rule-base.

각 피험자(사용자)의 ln LF와 ln HF의 변화량 분석 결과를 HE와 LE 조건에 따라 플로팅한 결과는 도14에 도시된 바와 같다. 각 피험자의 데이터 중에서 HE와 LE를 구분할 수 있는 가장 큰 분별력을 갖는 지점을 임계값 (threshold)으로 설정하였다. LE와 HE 데이터 중, 가장 인접한 두 점 사이의 중간 지점과 0점을 지나는 직선의 방정식을 룰-베이스로 설정하였다 (Y = 0.56146 × X). 이에 따라, n LF와 ln HF의 reference 대비 변화량 값이 Y = 0.56146*X의 직선보다 위에 있으면 HE, 반대의 경우를 LE로 판단하는 룰-베이스로 설정하였다.The result of the analysis of the change amounts of ln LF and ln HF of each subject (user) plotted according to the HE and LE conditions is as shown in Fig. For each subject, we set the threshold that has the greatest discretion to distinguish between HE and LE. (Y = 0.56146 × X), which is a rule-based equation of the straight line passing through the midpoint between the two closest points of LE and HE data and zero point. Thus, we set the rule base to judge HE as the difference between the reference values of n LF and ln HF and the LE as the opposite case.

두 개의 룰-베이스를 통합하여 몰입도를 평가하기 위한 룰-베이스를 설정하였고 통합 룰-베이스는 도15에 도시하였다.A rule-base for evaluating the immersion degree by integrating the two rule-bases is set, and the integrated rule-base is shown in FIG.

3. 정확도 검증 결과3. Accuracy Verification Result

룰-베이스의 정확도를 검증하기 위해, 15명의 피험자가 검증 실험에 참여하였다. 룰-베이스 검증 결과, RRI 변화량을 통해 몰입도를 평가한 결과에서 HE는 15 케이스 중 15 케이스 모두 HE로 판단하였고 LE는 15 케이스 중 13 케이스를 LE로 판단하고 나머지 2 케이스는 HE로 판단하는 결과를 나타내었다. 자세한 연구 결과는 도16에 도시된 바와 같다.In order to verify the accuracy of the rule-base, 15 subjects participated in the verification experiment. As a result of evaluating the immersion level through RRI change, the rule-based test results showed that all 15 of the 15 cases were judged as HE, and the LE judged 13 cases of the 15 cases as LE and the remaining cases were judged as HE Respectively. Detailed study results are shown in Fig.

정규화된(Normalized) HRV를 기준으로 몰입도를 평가한 결과에서 HE는 15 케이스 중 15 케이스 모두 HE로 판단하였고 LE는 15 케이스 중 14 케이스를 LE로 판단하고 나머지 1 케이스는 HE로 판단하는 결과를 나타내었다. 자세한 연구 결과는 도17에 도시된 바와 같다.In the result of evaluating the immersion degree based on the normalized HRV, the HE judged all 15 cases out of 15 cases, and the LE judged 14 out of 15 cases as LE and the other case judged as HE Respectively. Detailed study results are shown in Fig.

최종적으로 HE는 15 케이스 중 15 케이스 모두 HE로 판단하였으며, HE의 분류 정확도는 100%로 판단되었다 (15/15*100 = 100%). LE는 15 케이스 중 12 케이스를 LE로 판단하고 나머지 3 케이스는 HE로 판단하는 결과를 나타내었으며, LE의 분류 정확도는 80%로 판단되었다 (12/15*100 = 80%). 전체 몰입도에 대한 평가 정확도는 90%로 확인되었다 (27/30*100 = 90%).Finally, all of 15 cases of HE were judged to be HE, and the classification accuracy of HE was 100% (15/15 * 100 = 100%). LE was judged to be 12 cases out of 15 cases and LE was judged to be 3 cases. The classification accuracy of LE was 80% (12/15 * 100 = 80%). The evaluation accuracy of the total commitment was 90% (27/30 * 100 = 90%).

4. 결론4. Conclusion

본 발명은 심전도 신호를 기반으로 사용자의 몰입도를 정량적으로 평가 할 수 있는 방법을 제안하는데 그 목적이 있다. 연구 결과에 따라, RRI 평균(mean)과 정규화된(Normaized) HRV의 ln VFL와 ln HF가 몰입도를 평가하기 위한 유의미한 변수 임을 확인하였다. 사용자의 몰입도가 높은 상태임을 판단한 수 있는 경우는 다음과 같다 (반대의 경우, 사용자의 몰입도가 낮음을 의미한다). An object of the present invention is to provide a method of quantitatively evaluating a user's immersion level based on an electrocardiogram signal. Based on the results of the study, it was confirmed that the RNI mean and the normalized (Normaized) HRV ln VFL and ln HF were significant variables for assessing immersion. The following is the case where the user is determined to have a high level of immersion (in the opposite case, the user's immersion is low).

1. 사용자로부터 취득된 RRI 평균(mean)의 변화량 값 (%)이 1.583% 크게 증가한 경우1. When the variation value (%) of the RRI average (mean) acquired from the user greatly increased by 1.583%

2. 사용자로부터 취득된 n VFL (x 값)와 ln HF (y 값)의 변화량 값 (%)이 Y = 0.5614*x의 직선의 방정식 보다 위에 위치하는 경우2. When the variation value (%) of n VFL (x value) and ln HF (y value) acquired from the user is above the linear equation of Y = 0.5614 * x

3. 상기 두 가지 룰-베이스를 만족하는 경우를 몰입도가 높은 상태로 판단하고 두 가지 중, 한 가지라도 룰-베이스를 만족하지 않는 경우 몰입도가 낮은 상태로 판단함3. Judge that the two rules-base satisfies the immersive state, and judges that the immersion is low if one of the two rules does not satisfy the rule-base

본 발명에서 제안된 사용자 몰입도 평가 방법은 미디어 매체나 실제 환경에서 사용자의 콘텐츠에 대한 몰입도를 실시간으로 평가 할 수 있다. 이는 사용자와 콘텐츠간의 단방향 인터랙션이 아닌, 콘텐츠가 사용자의 몰입 상태에 따라 다양한 피드백을 통해 사용자의 몰입도를 증가 시킬 수 있는 양방향 인터랙션을 가능하게 해 줄 것으로 기대된다. 또한, 상기의 발명은 다양한 산업분야에 적용되어 콘텐츠를 통한 좀 더 효율적인 정보제공 효과를 가능하게 할 것으로 기대된다.The user involvement evaluation method proposed in the present invention can evaluate the immersion degree of a user's content in real time in a media medium or a real environment. It is expected that this will enable interactive interaction that can increase user 's immersion through various feedback based on user' s immersive state, rather than one - way interaction between user and contents. It is expected that the above-described invention will be applied to various industrial fields and enable a more effective information providing effect through contents.

이러한 본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 해당 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능함을 이해할 수 있을 것이다. 따라서 본 발명의 진정한 보호범위는 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.
While this invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the invention. Therefore, the true scope of protection of the present invention should be defined only by the appended claims.

Claims (11)

자극에 노출된 사용자의 미세 움직임을 촬영하여 영상 데이터를 생성하는 단계;
상기 영상 데이터를 생성하면서 피험자에 대한 안면 트랙킹(Face Tracking)을 수행하는 단계;
상기 영상 데이터에 대한 공간 분해(Spatial Decomposition)를 포함하는 영상 데이터 처리를 수행하는 단계;
상기 영상 데이터 처리를 통해 상기 피험자 안면의 미세 움직임 정보를 추출하는 단계;
상기 미세 움직임 정보를 이용하여 심박 정보를 추출하는 단계;
상기 심박 정보로부터 RRI (R-peak to R-peak Intervals) 데이터를 취득하는 단계;
상기 RRI 데이터로부터 HRV 데이터를 추출하는 단계;
상기 HRV 데이터에서 소정 범위의 저주파 대역(LF)과 저주파 대역(LF)에 비해 높은 고주파 대역(HF)의 파워값을 각각 계산하는 단계; 그리고
상기 저주파 대역(LF)과 고주파 대역(HF)의 파워값으로부터 자연로그 ln LF와 ln HF로 계산하고, 상기 ln LF 을 직선 방정식인 아래의 <식>의 x 값으로 대입했을 때 ln HF의 변화량 값 (%)이 Y 보다 큰 경우, 상기 사용자의 몰입도가 높은 것으로 판단하는 단계를 포함하는 인체 미동 기반 사용자 몰입도 평가 방법.
<식>
Y = 0.5614*x
상기 저주파 대역(LF)과 고주파 대역(HF)의 파워값을 이용해 상기 자극에 대한 상기 사용자의 몰입 여부를 판단하는 단계;를 포함하는 인체 미동기반 사용자 몰입도 평가 방법.
Capturing a fine movement of a user exposed to a stimulus to generate image data;
Performing facial tracking on a subject while generating the image data;
Performing image data processing including spatial decomposition on the image data;
Extracting fine motion information of the subject's face through the image data processing;
Extracting heartbeat information using the fine motion information;
Obtaining RRI (R-peak to R-peak intervals) data from the heartbeat information;
Extracting HRV data from the RRI data;
Calculating power values of a low frequency band (LF) in a predetermined range and a high frequency band (HF) in a higher frequency range than the low frequency band (LF) in the HRV data; And
The amount of change in ln HF When the low frequency band (LF) and is calculated from the power value of the high frequency band (HF) as the natural logarithm ln LF and ln HF, substituting the ln LF in the x value of <type> below the linear equation And determining that the degree of engagement of the user is high if the value (%) is greater than Y. The method of claim 1,
<Expression>
Y = 0.5614 * x
And determining whether the user is immersed in the stimulus using the power values of the low frequency band (LF) and the high frequency band (HF).
삭제delete 제1항에 있어서,
RRI 데이터로부터 평균(mean)을 구하고, 이 평균(mean)의 변화량을 이용하여 상기 사용자의 몰입감을 평가하는 것을 특징으로 하는 인체 미동 기반 사용자 몰입도 평가 방법.
The method according to claim 1,
A method for evaluating the user's immersion level based on human body, wherein a mean is obtained from RRI data, and a feeling of immersion of the user is evaluated by using a change amount of the mean.
제3항에 있어서,
상기 RRI의 평균의 변화량(%)이 기준치 1.583% 보다 높을 때 상기 사용자의 몰입도가 높은 것으로 평가하는 것을 특징으로 하는 인체 미동 기반 사용자 몰입도 평가 방법.
The method of claim 3,
And evaluating that the user's degree of immersion is high when the change amount (%) of the average of the RRI is higher than the reference value of 1.583%.
삭제delete 제1항, 제3항 또는 제4항 중의 어느 한 항에 있어서,
상기 미세 움직임 정보를 추출하는 단계와 심박 정보를 추출하는 단계:는
영상 카메라로 안면을 촬영하면서 안면 부분을 트랙킹하는 안면 트랙킹(Face Tracking) 단계;
상기 영상 카메로로부터 얻을 영상 데이터를 주파수 공간 별로 분리하는 공간 분리(Spatial Decomposition) 단계;
상기 공간 분리 단계에서 얻어진 주파수 공간 별 성분에서 생체 신호에 관계된 주파수 대역을 선택하는 뉴로 필터(Neuro Filter) 단계;
시간이 흐르는 동안 상기 주파수 대역의 성분의 값을 분리 추출하는 시간 처리(Temporal Processing) 단계;
상기 시간 처리된 성분값을 증폭하여 상기 영상에 복원하여 미세 움직임에 대한 주파수 성분의 데이터 값을 형성하는 재구성(Reconstruction) 단계;
미세 움직임에 따른 상기 영상의 프레임 간의 차이값을 계산하는 프레임 차 평균화(Frame Difference Average) 단계;
미세 움직임에 대한 데이터에서 노이즈를 제거하는 스무스 필터(Smoothing Filter) 단계; 그리고
슬라이딩 윈도우 기법에 의해 피이크를 검출하는 슬라이딩 피이크 검출(Sliding Peak Detection) 단계;를 포함하는 것을 특징으로 하는 인체 미동 기반 사용자 몰입도 평가 방법.
The method according to any one of claims 1, 3, and 4,
Extracting the fine motion information and extracting the heartbeat information comprises:
A face tracking step of tracking the face portion while photographing the face with a video camera;
A spatial decomposition step of separating image data obtained from the image camera by frequency space;
A neurofilter for selecting a frequency band related to a bio-signal from components of the frequency space obtained in the spatial separation step;
A temporal processing step of separating and extracting the values of the components of the frequency band over time;
Reconstructing the time-processed component value and reconstructing the reconstructed image to form a data value of the frequency component of the fine motion;
A frame difference averaging step of calculating a difference value between the frames of the image according to the fine movement;
A smoothing filter step of removing noise from data on fine motion; And
And a sliding peak detection step of detecting a peak by a sliding window technique.
삭제delete 제1항, 제3항 또는 제4항 중의 어느 한 항에 있어서,
상기 HRV 데이터는 상기 RRI의 리샘플링 및 FFT 분석을 통해 획득하는 것을 특징으로 하는 인체 미동 기반 사용자 몰입도 평가 방법.
The method according to any one of claims 1, 3, and 4,
Wherein the HRV data is acquired through resampling and FFT analysis of the RRI.
제1항, 제3항 또는 제4항 중의 어느 한 항에 기재된 방법을 수행하는 시스템에 있어서,
상기 영상 데이터를 생성하는 카메라;
상기 카메라로부터의 영상 데이터를 처리하는 영상 처리부;
상기 영상 처리부로부터의 데이터를 분석하여 상기 사용자의 몰입도를 평가하는 분석부:를 포함하는 인체 미동 기반 사용자 몰입도 평가 시스템.
7. A system for performing the method of any one of claims 1, 3, or 4,
A camera for generating the image data;
An image processing unit for processing image data from the camera;
And an analysis unit for analyzing data from the image processing unit and evaluating the user's degree of immersion.
삭제delete 삭제delete
KR1020160046490A 2016-04-15 2016-04-15 evaluation method and system for user flow or engagement by using body micro-movement KR101846350B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160046490A KR101846350B1 (en) 2016-04-15 2016-04-15 evaluation method and system for user flow or engagement by using body micro-movement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160046490A KR101846350B1 (en) 2016-04-15 2016-04-15 evaluation method and system for user flow or engagement by using body micro-movement

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150053765A Division KR102389361B1 (en) 2015-04-16 2015-04-16 evaluation method and system for user flow or engagement by using body micro-movement

Publications (2)

Publication Number Publication Date
KR20160124026A KR20160124026A (en) 2016-10-26
KR101846350B1 true KR101846350B1 (en) 2018-05-18

Family

ID=57251649

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160046490A KR101846350B1 (en) 2016-04-15 2016-04-15 evaluation method and system for user flow or engagement by using body micro-movement

Country Status (1)

Country Link
KR (1) KR101846350B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102215557B1 (en) * 2019-12-18 2021-02-15 (주)감성과학연구센터 Heart rate estimation based on facial color variance and micro-movement
US20230012742A1 (en) * 2021-07-15 2023-01-19 Covidien Lp Vision-based patient stimulus monitoring and response system and method utilizing visual images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100493714B1 (en) * 2004-11-26 2005-06-02 주식회사 메디코아 Autonomic function analyzer
US20110251493A1 (en) * 2010-03-22 2011-10-13 Massachusetts Institute Of Technology Method and system for measurement of physiological parameters

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100493714B1 (en) * 2004-11-26 2005-06-02 주식회사 메디코아 Autonomic function analyzer
US20110251493A1 (en) * 2010-03-22 2011-10-13 Massachusetts Institute Of Technology Method and system for measurement of physiological parameters

Also Published As

Publication number Publication date
KR20160124026A (en) 2016-10-26

Similar Documents

Publication Publication Date Title
Katsigiannis et al. DREAMER: A database for emotion recognition through EEG and ECG signals from wireless low-cost off-the-shelf devices
Bota et al. A review, current challenges, and future possibilities on emotion recognition using machine learning and physiological signals
KR101752872B1 (en) Method and System for social relationship based on Micro movement of body
Abadi et al. Inference of personality traits and affect schedule by analysis of spontaneous reactions to affective videos
KR101752873B1 (en) Method and system for extracting heart information of time domain
KR101816292B1 (en) evaluation method and system for user flow or engagement by using ECG
Speth et al. Deception detection and remote physiological monitoring: A dataset and baseline experimental results
Di Lascio et al. Laughter recognition using non-invasive wearable devices
Li et al. An EEG-based multi-modal emotion database with both posed and authentic facial actions for emotion analysis
KR101846350B1 (en) evaluation method and system for user flow or engagement by using body micro-movement
Amin et al. A wearable exam stress dataset for predicting grades using physiological signals
Masui et al. Continuous estimation of emotional change using multimodal affective responses
Sanches et al. Manga content analysis using physiological signals
KR20170120546A (en) Method and system for extracting Heart Information of Frequency domain by using pupil size variation
KR102389361B1 (en) evaluation method and system for user flow or engagement by using body micro-movement
KR20170004548A (en) Method and system for extracting heart information of time domain
Gargano et al. The dynamics of emotions: a preliminary study on continuously annotated arousal signals
KR102214460B1 (en) The Recognition Method and Apparatus for Focus level using ECG
Bonomi et al. Contactless approach for heart rate estimation for QoE assessment
KR102389360B1 (en) evaluation method and system for user flow or engagement by using ECG
KR101971602B1 (en) Reasoning Method and System of Empathic Emotion Based on Video Analysis
Pereira et al. Characterization of Emotions Through Facial Electromyogram Signals
KR101870919B1 (en) Method and apparatus for extracting Brain information
KR101706741B1 (en) Method and system for determining online social relationship based on Heart Rhythm Pattern by micro movement of body
Sahroni et al. Photoplethysmograph-based real-time emotion recognition using logistic regression with heart rate changes parameter

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant