KR101972572B1 - 심장 리듬 패턴을 이용한 공감도 분류 방법 - Google Patents
심장 리듬 패턴을 이용한 공감도 분류 방법 Download PDFInfo
- Publication number
- KR101972572B1 KR101972572B1 KR1020160183925A KR20160183925A KR101972572B1 KR 101972572 B1 KR101972572 B1 KR 101972572B1 KR 1020160183925 A KR1020160183925 A KR 1020160183925A KR 20160183925 A KR20160183925 A KR 20160183925A KR 101972572 B1 KR101972572 B1 KR 101972572B1
- Authority
- KR
- South Korea
- Prior art keywords
- subjects
- square
- sdnn
- empathy
- difference
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/318—Heart-related electrical modalities, e.g. electrocardiography [ECG]
- A61B5/346—Analysis of electrocardiograms
- A61B5/349—Detecting specific parameters of the electrocardiograph cycle
- A61B5/352—Detecting R peaks, e.g. for synchronising diagnostic apparatus; Estimating R-R interval
-
- A61B5/04012—
-
- A61B5/0456—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7246—Details of waveform analysis using correlation, e.g. template matching or determination of similarity
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Physiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Cardiology (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
사회적 관계성에서 공감도를 평가하는 방법에 대해 기술한다. 평가 방법:은 두 피험자의 심장 정보로부터 RRI(R-peak to R-peak Interval)를 검출하는 단계; 상기 RRI로부터 두 피험자 간의 SDNN(Standard Deviation Normal to Normal)의 차이(difference) 및 두 피험자의 HRP(Heart Rhythm Pattern)의 상관 분석에 의한 R 스퀘어(R square)를 계산하는 단계; 상기 두 피험자간의 SDNN의 차이(difference) 및 R 스퀘어를 이용하여 두 피험자 간의 공감도를 평가하는 단계;를 포함한다.
Description
본 발명은 사회 관계에 있는 사람들 간의 공감 여부를 측정 또는 분류하는 방법 및 시스템에 관한 것으로서 상세하게는 심장 리듬 패턴(Heart Rhythm Pattern)을 이용하여 공감도(Emphathy)를 측정하는 방법에 관한 것이다.
사회적 인지 (Social Cognition) 또는 상호 작용 (Social Interaction)은 의사소통 하는 다른 대상의 정신적 상태나 행동을 이해하는 것을 의미한다. 다른 사람의 정신적 상태나 행동을 이해하려면 다른 사람과의 공감적 반응이 반드시 요구된다 (Krueger and Michael, 2012). 최근 사회적 인지나 상호작용에 대한 많은 연구들이 진행되고 있다. 이러한 연구들이 고려하고 있는 중요한 개념 중에 하나가 동기화 (Synchronization) 또는 동조현상(Entrainment)이다. 동기화는 사람들이 사회적 상호작용을 할 때 사람들 사이에 생체리듬이 하나로 화합되는 현상이다 (Kyongsik et al., 2012). 이러한 동기화 현상은 사람에게서만 나타나는 것이 아니라 사물이나 자연 현상에서도 확인할 수 있다. 예를 들면, 여러 시계의 추가 각기 다른 속도를 가지고 좌우로 흔들리는 상황에서 동기화로 인해 같은 방향성과 속도를 가지고 함께 좌우로 흔들리는 현상 (Bennett et al., 2002), 각각 개별적으로 반짝이고 있는 반딧불이 어느 순간 동기화되어 같은 속도로 동시에 모든 반딧불이 함께 반짝이는 현상 (Buck and Buck, 1976)등이 있다.
사람들 사이에서도 이러한 동기화 현상이 나타난다. 두 사람이 함께 걸을 때, 같은 주기로 발을 맞추어 걷는 현상이 그 대표적인 예이다 (Schmidt and Richardson, 2008; Burgoon et al., 1995). Kyongsik et al., (2012)의 연구에서는 두 피험자 사이에 무의식적인 손가락 움직임을 통해 나타나는 동기화 현상을 비교 하였다. 이 연구는, 두 피험자의 손가락 움직임의 동기화 현상이 협력적인 작업을 수행할 때가 그렇지 않은 경우보다 동기화 되는 현상을 보였고 뇌의 신경적 활성화 또한 크게 증가하였음을 보고 하였다. 또 다른 연구에서는 피험자들의 손가락 움직임에 따른 동기화 현상을 비교하였고 같은 속도로 손가락을 움직일 때가 다른 속도로 움직일 때보다 더 동기화 되는 현상을 보고 했다 (Daniel, 2010). 그리고 이러한 몸의 움직임의 동기화 현상은 사람들 사이에 긍정적인 관계를 증대시키는 것과 관련되어 있음을 보고하였다 (Miles et al., 2010).
앞서 언급한대로, 무의식적인 행동의 동기화 현상은 몸의 동기화뿐만 아니라 생체적 반응의 동기화와 긍정적인 효과를 유발 시킨다. 그러나 다른 사람과의 상호작용에 있어서 공감의 반응은 매우 중요한 요소이고 이것은 어떠한 사람과 사회적 관계를 유지하고 의사소통 하느냐에 따라 다르게 나타날 수 있다. 그리고 그 관계는 사회적으로 강하거나 약한 유대를 가진다. 그러나 현재 연구에서 사회적 관계에 대한 연구는 동기화 현상에서 고려되고 있지 않다. 따라서 사회적 관계에 따라서 생리적 반응의 동기화 정도에 차이가 있을 것으로 예상된다. 사회적 관계에 의해 발생되는 생리적 반응은 무의식적인 것이므로 더욱이 그렇다. 최근, 생리적 반응의 동기화 현상은 사회적 관계 유지 및 증대에 유효한 영향을 미치는 것으로 보고되고 있다.
Bennett. M., Schatz, M., Rockwood, H. and Wiesenfeld, K. (2002). Huygens's clocks. Proceedings: Mathematics, Physical and Engineering Sciences, 458, 563
Buck, J. and Buck, E. (1976). Synchronous fireflies. Scientific American. 234, 74
Burgoon, J.K., Stern, L.A. and Dillman, L. (2007). Interpersonal adaptation: Dyadic interaction patterns. Cambridge University press.
Daniel, L. (2010). Movement synchrony and perceived entitativity. Journal of Experimental Social Psychology, 46(5), 701
Krueger, J. and Michael, J. (2012). Gestural coupling and social cognition: Mobius syndrome as a case study. Frontiers in human neuroscience, 6.
Kyongsik, Y., Katsumi, W. and Shinsuke, S. (2012). Interpersonal body and neural synchronization as a marker of implicit social
Miles, L.K., Griffiths, J.L., Richardson, M.J. and Macrae, C.N. (2010). Too late to coordinate: Contextual influences on behavioral synchrony. European Journal of Social Psychology, 40(1), 52
Pan, J. and Tompkins, W.J. (1985). A real
Schmidt, R. and Richardson, M. (2008). Coordination: Neural, behavioral and social dynamics. Springer.
본 발명은 타인의 감성 상태, 의견, 주장에 대하여 동의하고 그렇다고 느끼는 정도를 나타내는 것으로 감성이 전달 및 이입되는 정도를 나타내는 공감도를 실시간 분류하는 방법 및 시스템을 제시한다.
본 발명에 따른 공감도 평가 방법:은
두 피험자의 심장 정보로부터 RRI(R-peak to R-peak Interval)를 검출하는 단계;
상기 RRI로부터 두 피험자 간의 SDNN(Standard Deviation Normal to Normal)의 차이(difference) 및 두 피험자의 HRP(Heart Rhythm Pattern)의 상관 분석에 의한 R 스퀘어(R square)를 계산하는 단계;
상기 두 피험자간의 SDNN의 차이(difference) 및 R 스퀘어를 이용하여 두 피험자 간의 공감도를 평가하는 단계;를 포함한다.
본 발명의 한 실시 예에 따르면, 상기 RRI를 검출하는 단계:는 상기 피험자로부터 ECG 정보를 검출하는 단계; ECG 정보로부터 QRS 검출법에 의해 상기 RRI (peak to peak Interval) 데이터를 검출하는 단계;를 포함할 수 있다.
본 발명의 한 실시 예에 따르면,
상기 SDNN 은 아래의 <식1>로 표현되는 것을 특징을 한다.
<식1>
위 식에서 n은 자연수 이며, RRImean 은 전체 RRI 의 평균이다.
본 발명의 구체적인 실시 예에 따르면, 상기 R 스퀘어(r2)는 아래의 <식2>에 의해 계산하는 것을 특징으로 한다.
<식2>
본 발명의 구체적인 실시 예에 따르면, 상기 공감도는 아래의 <식3>으로 표현되는 룰 베이스에 의해 평가하는 것을 특징으로 한다.
<식3>
Y=(0.005035*X)+0.00789
여기에서, 변수 X는 피험자간 SDNN의 차(difference)이며, Y는 피험자의 상관분석에 따른 R 스퀘어에 대한 비교 기준(reference)이 되는 기준 R 스퀘어이다.
본 발명은 개인간 심장 리듬 패턴의 동조성 (Entrainment) 분석기술을 통해 두 사람 사이의 공감도(Empathy)를 평가 또는 분류할 수 있다. 개인간 심장 동조성 분석은 두 사람 사이에 심장 리듬 패턴의 동기화 정도를 이용한다. 본 발명이 제안하는 공감도 분류 방법은 두 사람 사이의 사회적 관계인 공감도를 정량적으로 평가할 수 있으며, 이를 통해 사회적 병리현상 완화에 도움을 줄 수 있을 것으로 기대된다.
도1은 본 발명의 실험 예에 따라 두 피험자로부터 HRP(Heart Rhythm Pattern)를 검출하기 위한 방법의 일례를 도시한다.
도2는 본 발명에 따른 분석 시스템의 개략적 블록다이어그램이다.
도3은 본 발명에 따른 방법의 전체 태스크(Task)의 흐름을 보인다.
도4은 본 발명에 따라 SDNN의 차 및 r 스퀘어를 검출하기 위한 심전도 신호 처리 흐름도이다.
도5는 심장 정보로부터 획득한 HRP 변수를 설명하는 도면이다.
도6은 공감 그룹 (Emphathy)과 비공감 그룹 (Non-Emphathy)의 각각 리더(Leader)와 팔로워(Follower)의 HRP 분석결과를 보이는 BPM (beat per minute) - Time (second) 그래프이다.
도7a, 7b은 공감 그룹 (Emphathy)과 비공감 그룹 (Non-Emphathy)의 각각 리더(Leader)와 팔로워(Follower)의 통계 분석결과를 도시한다
도8은 본 발명에 따른 SDNN의 차에 의한 실험 결과를 보인다.
도9는 본 발명에 따라 공감도를 판단하기 위한 1차 방정식에 의한 룰-베이스를 보이는 그래프이다.
도2는 본 발명에 따른 분석 시스템의 개략적 블록다이어그램이다.
도3은 본 발명에 따른 방법의 전체 태스크(Task)의 흐름을 보인다.
도4은 본 발명에 따라 SDNN의 차 및 r 스퀘어를 검출하기 위한 심전도 신호 처리 흐름도이다.
도5는 심장 정보로부터 획득한 HRP 변수를 설명하는 도면이다.
도6은 공감 그룹 (Emphathy)과 비공감 그룹 (Non-Emphathy)의 각각 리더(Leader)와 팔로워(Follower)의 HRP 분석결과를 보이는 BPM (beat per minute) - Time (second) 그래프이다.
도7a, 7b은 공감 그룹 (Emphathy)과 비공감 그룹 (Non-Emphathy)의 각각 리더(Leader)와 팔로워(Follower)의 통계 분석결과를 도시한다
도8은 본 발명에 따른 SDNN의 차에 의한 실험 결과를 보인다.
도9는 본 발명에 따라 공감도를 판단하기 위한 1차 방정식에 의한 룰-베이스를 보이는 그래프이다.
이하, 첨부된 도면을 참조하면서 본 발명에 따른 인체 미세 움직임을 이용한 개인별 HRP 기반 공감도 실기간 평가 시스템의 구체적인 실시 예에 대해 상세히 설명한다.
이하에서, 먼저, 심장 리듬 패턴의 동조성에 의한 사람간 공감도(Empathy)를 판단 또는 분류가 가능한 지에 대한 실험 예를 살펴 본다.
현대 사회는 다수의 사람과 접촉하고 커뮤니케이션 해야 하는 상황에 놓여 있다. 최근 이러한 사회 환경에 적응하지 못하고 사회에서 도태되는 사람들의 이야기를 언론을 통해 쉽게 접할 수 있다. 상기의 경우처럼 심하지는 않더라도 우리는 누구나 사회적 관계에 대한 두려움 또는 걱정을 갖고 있다. 사회적 관계 회복을 위해서는 우선적으로 사회적 관계인 공감도를 정량적으로 평가할 수 있어야 그에 대한 해결책 또한 제시될 수 있다. 본 발명에서 판단 대상으로 하는 공감도는 타인의 감성 상태, 의견, 주장에 대하여 동의하고 그렇다고 느끼는 정도를 나타내며 감성이 전달 및 이입되는 정도를 의미하며, 본 발명에 따라 두 사람간에 공감이 이루어 졌는지 여부를 판단한다.
이하의 실험 예를 설명을 통해 이해할 수 있는 본 발명은 개인간에 사회적 관계를 정량적으로 평가하는 방법을 제시하며, 이를 통해 사회적 관계 증진 및 병리 현상 해결을 도모할 수 있다.
가. 피험자
대학교 재학생 74 명이 (남자 32 명, 여자 42 명, 평균나이: 24.27±2.24)이 실험에 참여하였다. 실험에 참여한 피험자는 교제기간이 3년 이상인 사람들을 짝을 이루어 모집하였다. 모든 피험자는 심혈신경계에 이상이나 병력이 없었고 전날 충분한 수면을 취하도록 하였다. 또한 심혈관계 반응에 영향을 미칠 수 있는 카페인, 흡연, 음주 등의 섭취를 실험 전날 금하도록 하였다. 실험 전, 실험에 참가하는 모든 피험자에게 연구목적을 제외한 실험에 대한 대략적인 사항에 대해 설명한 후 실험을 진행하였고 실험의 대가로 소정의 금액을 지불하였다.
나. 실험 방법
실험에 참여한 피험자들은 상대방의 얼굴 표정을 보고 따라 하는 공감하는 관계 그룹 (Empathy)과 스스로 표정을 짓는 공감하지 않는 관계 그룹 (non-Empathy)으로 나누었다. 두 피험자 그룹은 교제 기간이 3년 이상인 친밀한 관계 (친구)로 이루어졌다. 모집된 피험자들의 친밀한 관계 정도를 판단하기 위해 생일, 가족 구성원, 취미 등의 간단한 설문을 실시하였고 통과한 피험자 그룹만 실험에 참여하도록 하였다.
두 그룹으로 나뉜 피험자들은 리더(Leader)와 팔로워(Follower)로 다시 나누었다. 도1에 도시된 바와 같이, 공감하는 관계 그룹(Emphathy)의 경우, 두 피험자는 서로 분리된 공간에서 스크린을 바라본 상태로 편안한 의자에 앉아 실험을 진행하였다. 이때 스크린과의 거리는 1미터로 고정하여 실험을 진행하였다. 리더(leader)는 스크린을 통해 제시되는 Ekman의 6가지 기본 정서(행복, 화남, 공포, 역겨움, 놀람, 슬픔)에 대한 얼굴표정 가이드라인을 보고 얼굴 표정을 짓고, 팔로워(follower)는 리더(leader)의 얼굴 표정을 보고 따라 하도록 하였다(imitation). 실험이 진행되는 동안 두 사람 사이의 심장리듬을 비교하기 위해 심전도 (ECG, electrocardiogram)를 측정하였다.
도3에 도시된 바와 같이, 전체 실험 태스크 (task)는 reference 60초, introduction 90초, Practice 90초, imitation 240초로 구성되었다. 각 태스크 사이에는 휴식 30초를 포함시켰으며, reference 와 paractice는 imitation 태스크에서 자연스러운 표정을 지을 수 있도록 표정을 소개하고 연습할 수 있도록 하기 위해 실험에 포함시켰다.
공감하지 않는 그룹의 경우, 공감하는 그룹과 동일하게 실험이 진행되지만 follower가 leader의 얼굴 표정을 따라 하는 것이 아닌 스스로 얼굴 표정을 짓도록 하였다 (self-expression). 자세한 실험 환경과 실험 순서는 도 1, 3 같다.
도3에 도시된 바와 같이, 전체 태스크(Task)의 각 단계는 아래와 같이 수행된다.
Reference 단계:
자극을 제시하기 전에 어떠한 자극도 제시되지 않는 상태에서 기준치로서 베이스라인의 생체정보를 취득한다.
Introduction 단계:
메인 task (imitation task)에서 원활한 얼굴표정을 짓기 위해 얼굴표정의 종류와 모양을 육안으로 학습한다.
Task rest 단계:
앞선 태스크(task)에서 제시된 자극의 (잔류) 효과를 최소화하여 다음 태스크(task)에서의 자극에 영향을 줄이기 위한 태스크(task) 사이에서 휴식한다.
Practice 단계:
메인 태스크(imitation task)에서 원활한 얼굴표정을 짓기 위해 얼굴표정을 직접 따라 해 보고 연습하는 학습하는 단계이다.
Task rest 단계:
앞서 제시되는 태스크(task)의 자극 효과를 최소화하여 다음 태스크(task) 자극에 영향을 줄이기 위한 태스크(task) 사이의 휴식 단계
imatation task 단계:
리더(Leader)가 제시된 얼굴표정을 짓고, 팔로워(Follower)는 이를 따라 하며, 이때에 ECG 검출을 실시간 진행한다. 도입 단계(Introduction), 연습 단계(Practice), 모방(Imitation task) 모두에서 6 기본 감성(basic emotion)의 얼굴표정 (공포(fear), 혐오 (disgust), 슬픔 (fear), 놀람 (surprise), 화남 (anger), 행복 (happy) 이 모두 제시되며, introduction과 practice task는 10초씩, imitation task는 35초씩 6 개의 얼굴 표정이 모두 제시되고 각각의 표정과 표정 사이에는 5초의 휴식(rest)이 포함된다. 상기 6 개의 얼굴표정이 제시되는 순서는 랜덤 하게 결정되며, 얼굴표정을 선택하는 것이 아니라, 6 개의 얼굴표정을 모두 보고 연습하고 따라 한다.
다. 분석 방법
본 실험 에서의 분석 방법은 도2에 예시된 바와 같은 구조의 분석 시스템을 이용한다. 본 발명에 따른 분석 시스템은 피험자들로부터 ECG 신호 (데이터)를 검출하는 ECG 센서 (10), ECG 신호를 전 처리하는 신호처리부 (20), 전 처리된 ECG로부터 HRP 데이터를 검출하여 피험자간의 공감도를 평가 또는 분류하는 분석부 (30), 그리고 피험자 중 어느 하나에 얼굴 표정을 제시하는 디스플레이를 별도로 포함될 수 있다.
상기 디스플레이는 하나 또는 표정을 제시하는 디스플레이와 그 결과를 표시하는 디스플레이를 별개로 하는 멀티 디스플레이의 구조를 가질 수 있다. 이러한 요소를 가지는 본 발명에 다른 시스템은 전체적으로 컴퓨터를 기반으로 하며, 따라서, 키보드나 마우스, 프린터 등과 같은 주변장치가 선택적으로 부가될 수 있다.
심전도 신호 (데이터)는 lead-I 방법을 통해 샘플링 주파수 500 Hz로 측정하였다. 본 발명의 실험에서 심전도 신호는 MP100 power supply와 ECG 100C amplifier (Biopac systems Inc., USA)를 통해 신호를 증폭하고 NI-DAQ-Pad9205 (National instruments, USA)를 통해 아날로그 신호를 디지털 신호로 변환하여 취득하였다. 취득한 심전도 신호로부터 QRS 검출 알고리즘을 통해 R-peak을 검출하였다 (Pan and Tompkins, 1985). 검출된 R-peak은 노이즈를 제외하고 정상 R-peak 간격의 차이를 이용해 RRI (R-peak to R-peak interval) 데이터를 추출하였다.
도4는 본 발명에 따른 ECG 신호처리 순서를 나타내 보인다. 도4을 참조하면, ECG 원형 신호(Raw Signal)에 대해 상기 피크 검출 알고리즘에 의해 얻어진 RRI 데이터를 이용하여 심박정보(BPM)를 얻고 또한 표준편차를 계산하여 SDNN(Standard Deviation Normal to Normal)을 계산하였다.
위 식에서 n은 자연수 이며, RRImean 은 전체 RRI 의 평균이다.
본 실험에 따르면, 두 사람 간의 심장 리듬 패턴을 통해 심장의 동기화 현상을 분석하고 이를 이용해 사회적 관계인 두 사람간의 공감도를 평가할 수 있음을 알 수 있다. 심장 리듬 동기화 분석에 사용되는 HRP 변수는 위의 과정에서 추출된 SDNN과 BPM 및 R 스퀘어이다. 두 사람 간에 BPM과 SDNN의 차이가 적을 수록 두 신호의 동기화가 높은 것으로 판단한다. 또한 HRP 데이터의 상관분석을 통해 R 스퀘어 (square)값을 추출하여 동기화 정도의 판단 변수로 활용한다.
도5는 시간에 따른 BPM(beat per minute)의 변화를 보이는 그래프로서, P1과 P2는 태스크를 수행하는 피험자들로서 리더(Leader), 팔로워(Follower)를 각각 의미한다.
두 피험자(P1, P2)의 SDNN 값의 차이 (difference)가 변수로 이용되었고 또한, 두 피험자로부터 얻은 HRP 데이터를 상관 분석하여 얻어진 r (상관계수) 값을 제곱하여 R 스퀘어 (r2) 값도 변수로 사용하였다. 상기 R 스퀘어는 아래의 <식 3>에 의해 계산될 수 있다.
본 실험에 참여한 74 명의 피험자 중에서 32 명의 데이터는 룰 베이스 생성을 위해 사용하고 나머지 42 명의 피험자는 룰 베이스 검증으로 활용하였다. 룰 베이스는 이후에 설명된다.
라. 분석 결과
도6은 공감하는 그룹(Emphathy)과 비공감 그룹(Non-emphathy)의 각각 리더(Leader)와 팔로워(Follower)의 HRP를 보인다. 각 그룹의 HRP 패턴에서 알 수 있듯이, 공감 그룹이 비공감 그룹 보다 리더(Leader)와 팔로워(Follower)의 HRP 데이터의 동조성이 높고 피이크 값의 차이가 상대적으로 적은 패턴을 보인다.
도7은 공감 그룹 (Emphathy)과 비공감 그룹 (Non-Emphathy)의 각각 리더(Leader)와 팔로워(Follower)의 HRP 통계 분석결과를 도시한다. 도7a의 (a)에 도시된 바와 같이, 상관분석에 따른 r 스퀘어(correlation)는 공감 그룹이 비공감 그룹 보다 통계적으로 유의하게 증가하는 것을 확인하였다. 즉 통계적 유의 수준 (p)이 0.001 보다 작은 (p < .001), 즉, 99.9% 이상의 높은 신뢰도를 나타낸다. 또한 도7a의 (b)에 도시된 바와 같이 또한 SDNN의 차(difference of SDNN)는 공감하는 그룹이 공감하지 않는 그룹보다 통계적으로 유의하게 감소하는 것을 확인하였다 (p < .001).
그러나, 도7b의 (c)에 도시된 바와 같이 BPM의 차(Difference) 는 공감하는 그룹이 공감하지 않는 그룹보다 통계적으로 유의하게 감소하는 패턴을 보였으나 통계적으로 유의한 결과를 보이지는 않았다.
두 그룹 사이에 통계적으로 유의한 차이를 나타낸 변수를 통해 두 사람간 공감도를 분류 또는 판단할 수 있는 룰-베이스를, 예를 들어 도8에 도시된 바와 같은 플로팅 챠트를 들었다. 본 발명의 룰-베이스를 보이는 이 챠트의 두 변수는 각각 r 스퀘어(R Square)와 SDNN의 차이(difference of SDNN) 이며, 이 두 변수를 X축과 Y축으로 정의하여, 실험에 참여한 피험자의 데이터를 도8에 도시된 바와 같이 X-Y 좌표 상에 플로팅 (plotting) 하였다. 이러한 데이터로부터 아래의 <수 4>와 같은 직선의 방정식을 룰-베이스로 도출하였다. 도출된 직선 방정식 보다 위에 있을 경우를 강한 공감 상태, 아래에 있을 경우를 약한 공감 상태, 즉 비공감 상태로 정의하였다.
위의 1 차 방적식은 32 명 실험데이터를 통해 결정된 임계치 함수 (일반식)로 공감도 또는 공감 여부를 판단하는 룰-베이스 이다. 즉, 변수 X는 피험자간 SDNN의 차이이며, Y는 피험자의 상관분석에 따른 R 스퀘어에 대한 비교 기준(reference)이 되는 기준 R스퀘어이다. 공감도, 즉 두 피험자 간의 공감 여부를 판단함에 있어서, 두 피험자로부터 SDNN의 차이를 구하여 상기 Y 값을 구했을 때 이 Y 값이 상기 두 피험자로부터 획득한 r 스퀘어 값이 크면, 두 사람은 공감하는 상태이고, 그렇지 않을 경우 두 사람은 공감하지 않는 상태로 해석된다.
SDNN의 차 및 R 스퀘어를 이용한 룰 베이스를 검증한 최종 결과는 도9에 도시된 바와 같다. 룰 베이스의 검증은 전술한 바와 같이 실험되지 않은 나머지 40 명의 피험자로부터 SDNN의 차 및 R 스퀘어를 추출하여 룰 베이스 검증하였다.
그 결과, 공감하는 관계의 정확도는 전체 21 그룹의 데이터 중에서 21 그룹의 데이터 모두가 공감하는 관계로 분류 되었다 (정확도: (21/21)*100% = 100%). 공감하지 않는 관계의 정확도는 전체 21 그룹의 데이터 중에서 19 그룹의 데이터가 공감하지 않는 관계로 분류 되었고 1 그룹의 데이터만 공감하는 그룹으로 분류 되었다 (정확도: (19/21)*100% = 90.47%). 전체 42 그룹의 데이터 정확도 검증 결과는 95.23%로 확인 되었다 (정확도: (40/42)*100% = 95.23%).
위에서 설명을 통해서 개인간 심장 리듬의 동조성 (Entainment) 분석기술을 통해 두 사람 사이에 이루어 지는 공감여부 또는 공감상태 등을 평가할 수 있음을 알 수 있다. 즉, 개인간 심장 리듬 동조성 분석은 두 사람 사이에 심장리듬의 동기화 정도가 이용되었는데, 매우 정확하게 공감도(Emphathy) 평가가 가능함을 알 수 있다. 이러한 방법은 두 사람 사이의 사회적 관계를 정량적으로 평가할 수 있으며, 이를 통해 사회적 병리현상 완화 또는 해결에 이용될 수 있다.
본 발명은 상기와 같은 심장 동조성 분석 기술을 이용하여 개인간 친밀도를 실시가 평가하는 방법을 제시한다. 이때에, 피험자에게 부담을 줄 수 있는 ECG 전극과 같은 하드웨어등의 착용이 없이 영상 촬영 통해 얻은 동영상을 분석하여 심박 정보를 추출하고, 그리고 이 심박 정보로부터 HRP 를 검출하여 상기와 같은 방법으로 SDNN의 차 및 R 스퀘어를 검출한 후 이를 비교하여 개인간 공감도를 실시간 평가하는 방법 및 시스템의 발전이 가능하다.
이러한 본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 해당 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능함을 이해할 수 있을 것이다. 따라서 본 발명의 진정한 보호범위는 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.
Claims (9)
- ECG 센서를 이용해 두 피험자의 심장 정보를 추출하는 단계;
상기 두 피험자의 심장 정보로부터 RRI(R-peak to R-peak Interval)를 검출하는 단계;
상기 RRI를 이용하여 상기 두 피험자 간의 SDNN(Standard Deviation Normal to Normal)의 차이(difference) 및 HRP(Heart Rhythm Pattern)의 상관 분석에 의한 R 스퀘어(R square)를 계산하는 단계;
상기 두 피험자 간의 SDNN의 차이(difference) 및 R 스퀘어를 이용하여 두 피험자 간의 공감도를 아래의 <식1>로 표현되는 룰베이스에 의해 평가하되, 식 1의 X의 SDNN 차를 대입하여 얻은 Y 값에 비해 상기 상관 분석에 의해 얻은 R 스퀘어값이 같거나 크면 두 피험자가 공감하는 것으로 평가는 단계;를 포함하는 공감도 평가 방법.
<식1>
여기에서, 변수 X는 피험자간 SDNN의 차(difference)이며, Y는 피험자의 상관분석에 따른 R 스퀘어에 대한 비교 기준(reference)이 되는 기준 R 스퀘어이며, 함. - 제1항에 있어서,
상기 RRI를 검출하는 단계:는
상기 피험자로부터 ECG 정보를 검출하는 단계; 그리고
상기 ECG 정보로부터 QRS 검출법에 의해 상기 RRI를 검출하는 단계;를 포함하는 것을 특징으로 하는 공감도 평가 방법. - 삭제
- 삭제
- 삭제
- 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160183925A KR101972572B1 (ko) | 2016-12-30 | 2016-12-30 | 심장 리듬 패턴을 이용한 공감도 분류 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160183925A KR101972572B1 (ko) | 2016-12-30 | 2016-12-30 | 심장 리듬 패턴을 이용한 공감도 분류 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180078791A KR20180078791A (ko) | 2018-07-10 |
KR101972572B1 true KR101972572B1 (ko) | 2019-04-29 |
Family
ID=62915975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160183925A KR101972572B1 (ko) | 2016-12-30 | 2016-12-30 | 심장 리듬 패턴을 이용한 공감도 분류 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101972572B1 (ko) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102223087B1 (ko) * | 2018-12-26 | 2021-03-04 | 상명대학교산학협력단 | 감성 전달 판단 방법 및 장치 |
KR20220136030A (ko) | 2021-03-31 | 2022-10-07 | 오윤석 | 실시간 스트리밍 서비스를 이용한 부동산 중개 서버 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101617391B1 (ko) * | 2014-06-18 | 2016-05-02 | 상명대학교 서울산학협력단 | HRP(Heart Rhythm Pattern)를 이용한 사회 관계성 측정 방법 |
-
2016
- 2016-12-30 KR KR1020160183925A patent/KR101972572B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20180078791A (ko) | 2018-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101617391B1 (ko) | HRP(Heart Rhythm Pattern)를 이용한 사회 관계성 측정 방법 | |
KR101738097B1 (ko) | 인체 미동에 의한 hrp 기반 사회 관계성 측정 방법 및 시스템 | |
Gunawardhane et al. | Non invasive human stress detection using key stroke dynamics and pattern variations | |
Betella et al. | Inference of human affective states from psychophysiological measurements extracted under ecologically valid conditions | |
KR101580628B1 (ko) | HRC (Heart Rhythm Coherence)를 이용한 사회 관계성 측정 방법 | |
Saeed et al. | Personalized driver stress detection with multi-task neural networks using physiological signals | |
Di Lascio et al. | Laughter recognition using non-invasive wearable devices | |
Mahesh et al. | Requirements for a reference dataset for multimodal human stress detection | |
Alexandros et al. | The physiological measurements as a critical indicator in users' experience evaluation | |
Sikander et al. | Predicting risk of suicide using resting state heart rate | |
Dirupo et al. | The role of interoception in understanding others' affect. Dissociation between superficial and detailed appraisal of facial expressions | |
KR101972572B1 (ko) | 심장 리듬 패턴을 이용한 공감도 분류 방법 | |
Nogueira et al. | A regression-based method for lightweight emotional state detection in interactive environments | |
KR101977961B1 (ko) | 심장 리듬 동조성를 이용한 공감도 분류 방법 | |
Toner et al. | Wearable sensor-based multimodal physiological responses of socially anxious individuals across social contexts | |
KR102084029B1 (ko) | 심장 리듬 패턴 및 자율신경 밸런스를 이용한 긍정도 분류 방법 | |
Haratian | Assistive Wearable Technology for Mental Wellbeing: Sensors and Signal Processing Approaches | |
KR101706740B1 (ko) | 인체 미동에 의한 hrc 기반 사회 관계성 온라인 측정 방법 및 시스템 | |
Gjoreski | Continuous stress monitoring using a wrist device and a smartphone | |
Aoyama Lawrence et al. | Being in-sync: A multimodal framework on the emotional and cognitive synchronization of collaborative learners | |
KR101706741B1 (ko) | 인체 미동에 의한 hrp 기반 사회 관계성 온라인 측정 방법 및 시스템 | |
KR102223087B1 (ko) | 감성 전달 판단 방법 및 장치 | |
KR102314153B1 (ko) | 개인 성향에 기초한 사회적 관계의 동기화 판단 방법 및 장치 | |
KR20190057217A (ko) | 심장 리듬 동조성을 이용한 공존감 평가 방법 및 장치 | |
Hossain | I Can Feel You Are Smiling Happily: Distinguishing between Real and Posed Smiles from Observers' Peripheral Physiology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) |