KR101646735B1 - 인체 미동에 의한 hrp 기반 사회 관계성 측정 방법 및 시스템 - Google Patents

인체 미동에 의한 hrp 기반 사회 관계성 측정 방법 및 시스템 Download PDF

Info

Publication number
KR101646735B1
KR101646735B1 KR1020150155293A KR20150155293A KR101646735B1 KR 101646735 B1 KR101646735 B1 KR 101646735B1 KR 1020150155293 A KR1020150155293 A KR 1020150155293A KR 20150155293 A KR20150155293 A KR 20150155293A KR 101646735 B1 KR101646735 B1 KR 101646735B1
Authority
KR
South Korea
Prior art keywords
subjects
data
hrp
image
bpm
Prior art date
Application number
KR1020150155293A
Other languages
English (en)
Other versions
KR20160059421A (ko
Inventor
황성택
황민철
박상인
이동원
원명주
Original Assignee
상명대학교서울산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상명대학교서울산학협력단 filed Critical 상명대학교서울산학협력단
Publication of KR20160059421A publication Critical patent/KR20160059421A/ko
Application granted granted Critical
Publication of KR101646735B1 publication Critical patent/KR101646735B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • G06K9/46
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/02028Determining haemodynamic parameters not otherwise provided for, e.g. cardiac contractility or left ventricular ejection fraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1102Ballistocardiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • G06K9/00362
    • G06K9/52
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0255Recording instruments specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • G06K2009/00939
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Cardiology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Multimedia (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dentistry (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Pulmonology (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Marketing (AREA)

Abstract

사회적 친밀도를 판단하는 방법 및 시스템에 대해 기술한다. 판단 방법:은 적어도 두 피험자의 신체 미동 데이터를 검출하는 단계; 상기 신체 미동 데이터로부터 심박(PPG) 데이터를 추출하는 단계; 두 피험자의 PPG 데이터로부터 HRP(Heart Rhythm Pattern) 데이터를 검출하는 단계; 그리고 상기 두 피험자의 HRP 데이터를 비교하여 두 피험자간의 관계성(친밀도)을 판단하는 단계;를 포함한다.

Description

인체 미동에 의한 HRP 기반 사회 관계성 측정 방법 및 시스템{Method and system for determining social relationship using Heart Rhythm Pattern by micro movement of body}
본 발명은 사회 관계성 측정 방법에 관한 것으로서 상세하게는 심장리듬 패턴에 기초한 친밀도 측정 방법 및 이를 적용하는 시스템에 관한 것이다.
사회적 인지 (Social Cognition) 또는 상호작용 (Social Interaction)은 의사소통 하는 다른 대상의 정신적 상태나 행동을 이해하는 것을 의미한다. 다른 사람의 정신적 상태나 행동을 이해하려면 다른 사람과의 공감적 반응이 반드시 요구된다 (Krueger and Michael, 2012). 최근 사회적 인지나 상호작용에 대한 많은 연구들이 진행되고 있다. 이러한 연구들이 고려하고 있는 중요한 개념 중에 하나가 동기화 (Synchronization) 또는 동조현상 (Entrainment)이다. 동기화는 사람들이 사회적 상호작용을 할 때 사람들 사이에 생체리듬이 하나로 화합되는 현상이다(Kyongsik et al., 2012). 이러한 동기화 현상은 사람에게서만 나타나는 것이 아니라 사물이나 자연 현상에서도 확인할 수 있다. 예를 들면, 여러 시계의 추가 각기 다른 속도를 가지고 좌우로 흔들리는 상황에서 동기화로 인해 같은 방향성과 속도를 가지고 함께 좌우로 흔들리는 현상(Bennett et al., 2002), 각각 개별적으로 반짝이고 있는 반딧불이 어느 순간 동기화되어 같은 속도로 동시에 모든 반딧불이 함께 반짝이는 현상 (Buck and Buck, 1976)등이 있다.
사람들 사이에서도 이러한 동기화 현상이 나타난다. 두 사람이 함께 걸을 때, 같은 주기로 발을 맞추어 걷는 현상이 그 대표적인 예이다(Schmidt and Richardson, 2008; Burgoon et al., 1995). Kyongsik et al., (2012)의 연구에서는 두 피험자 사이에 무의식적인 손가락 움직임을 통해 나타나는 동기화 현상을 비교 하였다. 이 연구는, 두 피험자의 손가락 움직임의 동기화 현상이 협력적인 작업을 수행할 때가 그렇지 않은 경우보다 동기화 되는 현상을 보였고 뇌의 신경적 활성화 또한 크게 증가하였음을 보고 하였다. 또 다른 연구에서는 피험자들의 손가락 움직임에 따른 동기화 현상을 비교하였고 같은 속도로 손가락을 움직일 때가 다른 속도로 움직일 때보다 더 동기화 되는 현상을 보고 했다 (Daniel, 2010). 그리고 이러한 몸의 움직임의 동기화 현상은 사람들 사이에 긍정적인 관계를 증대시키는 것과 관련되어 있음을 보고하였다 (Miles et al., 2010).
앞서 언급한대로, 무의식적인 행동의 동기화 현상은 몸의 동기화뿐만 아니라 생체적 반응의 동기화와 긍정적인 효과를 유발 시킨다. 그러나 다른 사람과의 상호작용에 있어서 공감의 반응은 매우 중요한 요소이고 이것은 어떠한 사람과 사회적 관계를 유지하고 의사소통 하느냐에 따라 다르게 나타날 수 있다. 그리고 그 관계는 사회적으로 강하거나 약한 유대를 가진다. 그러나 현재 연구에서 사회적 관계에 대한 연구는 동기화 현상에서 고려되고 있지 않다. 따라서 사회적 관계에 따라서 생리적 반응의 동기화 정도에 차이가 있을 것으로 예상된다. 사회적 관계에 의해 발생되는 생리적 반응은 무의식적인 것이므로 더욱이 그렇다. 최근, 생리적 반응의 동기화 현상은 사회적 관계 유지 및 증대에 유효한 영향을 미치는 것으로 보고되고 있다.
Bennett. M., Schatz, M., Rockwood, H. and Wiesenfeld, K. (2002). Huygens's clocks. Proceedings: Mathematics, Physical and Engineering Sciences, 458, 563-579. Buck, J. and Buck, E. (1976). Synchronous fireflies. Scientific American. 234, 74-85. Burgoon, J.K., Stern, L.A. and Dillman, L. (2007). Interpersonal adaptation: Dyadic interaction patterns. Cambridge University press. Daniel, L. (2010). Movement synchrony and perceived entitativity. Journal of Experimental Social Psychology, 46(5), 701-708. Krueger, J. and Michael, J. (2012). Gestural coupling and social cognition: Mobius syndrome as a case study. Frontiers in human neuroscience, 6. Kyongsik, Y., Katsumi, W. and Shinsuke, S. (2012). Interpersonal body and neural synchronization as a marker of implicit social interaction. SCI REP-UK, 2(959). Miles, L.K., Griffiths, J.L., Richardson, M.J. and Macrae, C.N. (2010). Too late to coordinate: Contextual influences on behavioral synchrony. European Journal of Social Psychology, 40(1), 52-60. Pan, J. and Tompkins, W.J. (1985). A real-time QRS detection algorithm. IEEE Transactions on Biomedical Engineering, 3, 230-236. Schmidt, R. and Richardson, M. (2008). Coordination: Neural, behavioral and social dynamics. Springer.
본 발명은 심장 리듬의 동기화 현상을 통해 사회적 관계를 정량적으로 평가할 수 있는 방법을 제시한다.
이러한 본 발명은 개인간 심장 동조성 (Entrainment) 분석기술을 통해 두 사람 사이의 사회적 관계성(Social relationship) 또는 친밀도를 평가할 수 있는 방법 및 이를 적용하는 시스템을 제안한다.
본 발명에 따른 방법:은
적어도 두 피험자의 신체 미동 데이터를 검출하는 단계;
상기 신체 미동 데이터로부터 심박(PPG) 데이터를 추출하는 단계;
두 피험자의 PPG 데이터로부터 HRP(Heart Rhythm Pattern) 데이터를 검출하는 단계; 그리고
상기 두 피험자의 HRP 데이터를 비교하여 두 피험자간의 관계성(친밀도)을 판단하는 단계;를 포함한다.
본 발명의 한 실시 예에 따른 방법:은
상기 PPG 데이터로부터 RRI(R-peak to R-peak interval) 데이터를 획득하는 것을 특징으로 한다.
본 발명의 한 실시 예에 따른 방법:은
상기 HRP 데이터는 BPM 평균(mean)과 정상 RRI의 표준 편차를 이용해 추출한 SDNN (standard deviation normal to normal)을 포함한다.
본 발명의 한 실시 예에 따른 방법:은
상기 BPM 평균(mean)과 정상 SDNN를 포함하는 HRP 신호의 상관분석을 통해 얻은 r 스퀘어(square)값과 피험자간 BPM 평균 차를 이용하여 피험자간 동기화 정도의 판단 변수로 사용한다.
본 발명의 한 실시 예에 따른 방법:은
상기 피험자간 BPM 평균의 차를 변수 X, r 스퀘어(square)값을 변수 y라 하였을 때, Y=0.00943167*X 를 만족하는 일차 방정식의 임계치 함수을 기준으로 피험자가 동기화 여부를 판단한다.
본 발명의 한 실시 예에 따른 방법:은
미동 데이터를 검출하는 단계와 심박(PPG) 데이터를 추출하는 단계:는
안면 트랙킹(Face Tracking) 단계;
공간 분리(Spatial Decomposition) 단계;
뉴로 필터(Neuro Filter) 단계;
시간 처리(Temporal Processing) 단계;
재구성(Reconstruction) 단계;
프레임 차 평균화(Frame Difference Average) 단계;
스무스 필터(Smoothing Filter) 단계; 그리고
슬라이딩 피이크 검출(Sliding Peak Detection) 단계;를 포함한다.
본 발명의 한 실시 예에 따른 시스템:은
상기 방법을 수행하는 것으로서,
상기 피험자들로부터 영상을 촬영하는 카메라;
상기 피험자들 적어도 어느 하나에게 특정 상태의 얼굴 표정을 제시하는 디스플레이;
상기 카메라로부터 얻어지는 영상을 처리하는 영상 처리부;
상기 영상 처리부로부터의 정보를 분석하여 피험자간의 친밀도를 분석하는 분석부;를 포함한다.
본 발명의 한 실시 예에 따른 시스템:에서,
상기 데이터 처리부는 상기 HRP 데이터로부터 RRI(R-peak to R-peak interval)를 추출한다.
본 발명의 한 실시 예에 따른 시스템:에 있어서,
상기 HRP 데이터는 BPM 평균(mean)과 정상 RRI의 표준 편차를 이용해 추출한 SDNN (standard deviation normal to normal)을 포함한다.
본 발명의 한 실시 예에 따른 시스템:에 있어서,
상기 분석부:는 상기 BPM 평균(mean)과 정상 SDNN를 포함하는 HRP 신호의 상관분석을 통해 얻은 r 스퀘어(square)값과 피험자간 BPM 평균 차를 이용하여 피험자간 동기화 정도의 판단 변수로 사용한다.
본 발명의 한 실시 예에 따른 시스템:에 있어서,
상기 분석부:는 상기 피험자간 BPM 평균의 차를 변수 X, r 스퀘어(square)값을 변수 y라 하였을 때, Y=0.0094*X 를 만족하는 일차 방정식의 임계치 함수를 기준으로 피험자가 동기화 여부를 판단한다.
본 발명의 한 실시 예에 따른 시스템:에 있어서,
상기 분석부;는
안면 트랙킹(Face Tracking) 단계;
공간 분리(Spatial Decomposition) 단계;
뉴로 필터(Neuro Filter) 단계;
시간 처리(Temporal Processing) 단계;
재구성(Reconstruction) 단계;
프레임 차 평균화(Frame Difference Average) 단계;
스무스 필터(Smoothing Filter) 단계; 그리고
슬라이딩 피이크 검출(Sliding Peak Detection) 단계;를 포함할 수 있다.
본 발명은 비접촉식 생체 정보 획득에 기초한 개인간 심장 동조성 (Entrainment) 분석기술을 통해 두 사람 사이의 사회적 관계 (Social relationship)를 실시간 평가할 수 있다. 개인간 심장 동조성 분석은 두 사람 사이에 심장리듬의 동기화 정도를 이용한다. 본 발명이 제안하는 친밀감 평가 방법은 두 사람 사이의 사회적 관계를 정량적으로 평가할 수 있으며, 이를 통해 사회적 병리현상 완화에 도움을 줄 수 있을 것으로 기대된다.
도1은 본 발명에 따라 두 피험자의 친밀도를 판단하기 위하여 두 피험자의 신체 미동을 검출하는 방법을 예시한다.
도2는 HRP 를 검출할 때에 피험자간의 얼굴 표정 제시 및 흉내의 순서를 설명한다.
도3은 본 발명에 따른 분석 시스템의 개략적 블록다이어그램이다.
도4는 HRP 변수를 설명하는 도면이다.
도5은 HRP 검출을 위한 신호 처리 흐름도이다.
도6은 피험자로부터 획득한 영상으로부터 심박정보를 획득하는 방법의 흐름도이다.
도7는 친구 그룹 (firiend)과 낯선 그룹 (stranger)의 각각 leader와 follower의 HRC 분석결과를 보이는 시간-BPM 평균 그래프이다.
도8a, 8b, 8c는 친구 그룹 (firiend)과 낯선 그룹 (stranger)의 각각 leader와 follower의 HRC의 통계 분석결과(Correlation, difference of BPM & Difference of SDNN)를 도시한다
도9은 HRP 변수에 의한 사회적 관계성(친밀도)를 판단하기 위한 룰-베이스를 설명한다.
도10은 검증을 위한 새로운 그룹으로부터 얻어진 HRP를 이용한 룰 베이스 검증결과를 보인다.
이하, 첨부된 도면을 참조하면서 본 발명에 따른 개인간 관계성 또는 친미도를 측정하는 방법 및 시스템의 바람직한 실시 예를 설명한다.
현대 사회는 다수의 사람과 접촉하고 커뮤니케이션 해야 하는 상황에 놓여 있다. 최근 이러한 사회 환경에 적응하지 못하고 사회에서 도태되는 사람들의 이야기를 언론을 통해 쉽게 접할 수 있다. 상기의 경우처럼 심하지는 않더라도 우리는 누구나 사회적 관계에 대한 두려움 또는 걱정을 갖고 있다. 사회적 관계 회복을 위해서는 우선적으로 사회적 관계를 정량적으로 평가할 수 있어야 그에 대한 해결책 또한 제시될 수 있다.
이하의 실시 예를 설명을 통해 이해할 수 있는 본 발명은 개인간에 사회적 관계를 정량적으로 평가하는 방법을 제시하며, 이를 통해 사회적 관계 증진 및 병리 현상 해결을 도모할 수 있다.
가. 피험자
대학교 재학생 72명이 (남자 36명, 여자 36명, 평균나이: 24.27±2.24)이 실험에 참여하였다. 실험에 참여한 피험자는 교제기간이 3년 이상인 사람들을 짝을 이루어 모집하였고 성적(性的) 효과를 없애기 위해 동성으로만 모집하였다. 모든 피험자는 심혈신경계에 이상이나 병력이 없었고 전날 충분한 수면을 취하도록 하였다. 또한 심혈관계 반응에 영향을 미칠 수 있는 카페인, 흡연, 음주 등의 섭취를 실험 전날 금하도록 하였다. 실험 전, 실험에 참가하는 모든 피험자에게 연구목적을 제외한 실험에 대한 대략적인 사항에 대해 설명한 후 실험을 진행하였고 실험의 대가로 소정의 금액을 지불하였다.
나. 실험 방법
실험에 참여한 피험자는 교제기간을 기준으로 강한 사회적 관계 (친구)와 약한 사회적 관계 그룹 (낯선 사람)으로 나누었다. 강한 사회적 관계 그룹은 피험자를 모집할 때, 교제 기간 3년 이상인 친구(Friend)를 모집하여 짝을 이루도록 하였고, 약한 사회적 관계 그룹은 모집된 피험자 중 처음 보는 낯선 사람(Stranger)들끼리 짝을 이루도록 하였다. 모집된 피험자의 사회적 관계를 판단 하기 위해 생일, 가족 구성원, 취미 등의 간단한 설문을 실시하였고 통과한 피험자만 실험에 참여하도록 하였다.
두 그룹으로 나뉜 피험자들은 리더(leader)와 팔로워(follower)로 다시 나누었다. 도1에 도시된 바와 두 피험자 리더(leader, 1a)와 팔로워(follower, 1b)는 서로 얼굴을 마주본 상태로 편안한 의자에 앉는다. 이때 두 피험자 사이의 거리는 1 미터로 고정 하였다. 두 피험자는 얼굴을 마주본 채로, Ekman이 정의한 6가지 기본 정서 공포(fear), 혐오(disgust), 슬픔(fear), 놀람(surprise), 화남(anger), 행복(happy)에 대한 얼굴표정을 서로 인터랙션 하도록 하였다. 이때 leader는 스크린을 통해 제시되는 얼굴표정 가이드라인을 보고 얼굴 표정을 짓고 follower는 leader의 얼굴 표정을 보고 따라 하도록 하였다. 실험이 진행되는 동안 두 사람 사이의 심장리듬(Heart Rate Pattern, HRP) 데이터를 비교하기 위해 두 피험자의 신체 미동을 검출하고 이로부터 HRP 데이터를 비교 측정하였다. 도2에 도시된 바와 같이, 전체 실험 태스크(task)는 reference 60초, introduction 90초, Practice 90초, imitation 240초로 구성되었다. 각 태스크 사이에는 휴식 30초가 포함시켰으며, introduction 와 paractice는 imitation 태스크에서 자연스러운 표정을 지을 수 있도록 표정을 소개하고 연습할 수 있도록 하기 위해 실험에 포함시켰다. 상기에 설명한 실험 과정은 두 그룹에서 각각 진행하고 다른 그룹과 교차하여 한번 더 진행 하였으며, leader와 follower의 역할은 고정 하였다.
예를 들어, (친밀한) 그룹 A (leader a, follower b), (친밀한) 그룹 B (leader c, follower d)의 피험자 그룹이 있으면, A 그룹끼리 task 수행하고 B 그룹끼리 task를 수행 한다. 이것이 친밀할 때의 테스크(task)이고, 피험자인 A 그룹의 leader a와 B 그룹의 follower d가 task를 수행하고 B 그룹의 leader c와 A 그룹의 follower b가 task를 수행한다. 이것이 친밀하지 않을 때의 task 이다. 이렇게 총 36 그룹의 피험자가 실험에 참여하였고 랜덤으로 두 그룹을 하나의 큰 그룹으로 묶어서 서로 교차해서 태스크를 수행한 것이고 leader와 follower의 역할은 바뀌지 않는다. 즉, 친밀 그룹에 대한 task 에서의 leader 는 친밀하지 않을 때의 task 에서도 Leader입니다.
도2에서 전체 Task 의 각 단계는 아래와 같이 수행된다.
Reference 단계:
자극을 제시하기 전에 어떠한 자극도 제시되지 않는 상태에서 베이스라인의 생체정보를 취득한다.
Introduction 단계:
메인 task(imitation task)에서 원활한 얼굴표정을 짓기 위해 얼굴표정의 종류와 모양을 육안으로 학습한다.
Task rest 단계:
앞선 task에서 제시된 자극의 (잔류) 효과를 최소화하여 다음 task에서의 자극에 영향을 줄이기 위한 task 사이에서 휴식한다.
Practice 단계:
메인 task(imitation task)에서 원활한 얼굴표정을 짓기 위해 얼굴표정을 직접 따라 해 보고 연습하는 학습하는 단계이다.
Task rest 단계:
앞서 제시되는 task의 자극 효과를 최소화하여 다음 task 자극에 영향을 줄이기 위한 task 사이의 휴식 단계
Imitation task 단계:
leader 가 제시된 얼굴표정을 짓고, follower는 이를 따라 하며, 이때에 ECG 검출을 실시간 진행한다.
Introduction, Practice, Imitation task 모두에서 6 basic emotion의 얼굴표정 (공포(fear), 혐오(disgust), 슬픔(fear), 놀람(surprise), 화남(anger), 행복(happy) 이 모두 제시되며, Introduction과 practice task는 10초씩, imitation task는 35초씩 6개의 얼굴 표정이 모두 제시되고 각각의 표정과 표정 사이에는 5 초의 rest가 포함된다. 상기 6개의 얼굴표정이 제시되는 순서는 랜덤 하게 결정되며, 얼굴표정을 선택하는 것이 아니라, 6개의 얼굴표정을 모두 보고 연습하고 따라 한다.
다. 분석 방법
본 발명의 분석 방법은 도3에 예시된 바와 같은 구조의 분석 시스템을 이용한다. 본 발명에 따른 분석 시스템은 피험자(1a, 1b)들로부터 영상 신호(데이터)를 검출하는 카메라(10a, 10b), 영상 신호를 처리하여 신체 미동 데이터를 검출하는 영상처리부(20), 영상 처리부로부터의 신체 미동 데이터로부터 PPG 데이터를 추출하고 이로부터 HRC 데이터를 검출하여 피험자간의 친밀도를 평가하는 분석부(30), 그리고 피험자 중 어느 하나에 얼굴 표정을 제시하고 또한 그 결과를 표시하는 디스플레이(40)를 포함한다. 상기 디스플레이(40)는 하나 또는 표정을 제시하는 디스플레이와 그 결과를 표시하는 디스플레이를 별개로 하는 멀티 디스플레이의 구조를 가질 수 있다. 이러한 요소를 가지는 본 발명에 다른 시스템은 전체적으로 컴퓨터를 기반으로 하며, 따라서, 키보드나 마우스, 프린터 등과 같은 주변장치가 선택적으로 부가될 수 있다.
영상 신호는 웹캠이나 동영상 카메라를 이용한다. 피험자로부터 획득한 동영상을 이용해 아래의 과정을 통해 PPG 데이터를 추출한다. 도6은 본 발명에 따라 신체 미동으로부터 PPG 검출 방법의 흐름도이다.
가. 동영상 입력(Video input) 단계(S11)
이 단계에서는 피험자의 상체 또는 머리 부분에 대해 웹캠이나 기타 동영상 촬영 장치로 비디오 신호를 입력 받는다.
나. 안면 트랙킹(추적, Face Tracking) 단계(S12)
웹캠 등의 카메라를 이용하여 입력 된 영상 데이터를 이용하여 인체의 미세한 움직임을 머리에서 추출하기 위하여 OpenCV(Open Computer Vision) 라이브러리를 이용한 안면인식(프로그램)을 통해 영상 정보를 분리 하도록 한다.
다. 공간 분리(Spatial Decomposition) 단계(S13)
영상의 공간 분리 기법으로 가우시안(Gaussian blur)와 down sample을 통하여 각 주파수(Frequency)별 공간을 분리 할 수 있도록 한다.
Figure 112015107924698-pat00001
위의 식에서, α 는 영상의 증폭 비율값이며, β 는 시간, 공간 주파수 대역으로 필터된 이미지의 값이며, x 는 영상의 가로축(x) 위치값_이며, t 는 시간이며, δ (t)는 입력된 영상과 움직임 영상과의 혼합비율 값이며, 그리고 I' 는 움직인 이미지의 움직임 정도이다.
라. 뉴로 필터(Neuro Filter) 단계(S14)
뉴로 필터(Neuro Filter 단계)는 영상의 공간 주파수를 분리 함에 있어 일반적인 생체신호(bio signal)을 기준으로 영상으로부터 추출 할 수 있는 주파수 대역을 생체신호간 상관성이 있는 대역을 선정하여 주파수 대역을 선정하고 그 선정 된 대역의 영상 정보를 취득하는 것을 의미한다.
예를 들어, 일반적인 PPG Data를 신호처리 할 경우 0.4~1.3Hz 구간의 주파수 성분을 가지고 데이터 분석을 실시함으로 PPG와 유사한 신호를 영상으로부터 취득하기 위해서는 동일 대역 혹은 인근 대역의 주파수 분석을 통해 유사한 데이터를 추출한다.
마. 시간 처리(Temporal Processing) 단계(S15)
영상을 뉴로필터(Neuro Filter) 대역의 주파수 공간으로 분리한 후, 분리된 공간의 주된 성분의 주파수 대역을 시간처리(Temporal Processing)를 이용하여 차이 값을 추출하여 영상이 진행되는 동안(시간이 흐르는 동안) 해당 주파수 성분의 값을 분리하여 추출한다.
바. 재구성(Reconstruction) 단계(S16)
분리된 공간의 성분을 뉴로 필터(Neuro Filter) 대역의 주파수 성분만 시간을 이용하여 분리해내고 분리된 성분 값을 일정량의 증폭을 통해 기존 영상에 복원하여 실제 미세하게 잘 보이지 않는 움직임에 해당하는 주파수 성분의 데이터 값을 만들어 낼 수 있도록 한다.
Figure 112015107924698-pat00002
위의 식에서, α는 영상의 증폭 비율 값이며, δ (t) 는 입력된 영상과 움직임 영상과의 혼합비율 값 이며, 그리고 λ는 이미지 공간의 파장 대역값이다.
사. 프레임 차 평균화(Frame Difference Average) 단계(S7)
분리된 성분의 데이터 값을 매 시간(30fps 기준)마다 측정되는 영상의 움직임 데이터의 1프레임이 평균의 차이 값을 계산하여 이전 상태와 현 상태의 평균적으로 움직임의 차이 값을 계산하여 전체적인 미세 움직임의 양을 추출한다. 여기에서 1 프레임의 평균은 1프레임의 미세 움직임 양을 나타낸다.
Figure 112015107924698-pat00003
위의 식에서, m 은 미세 움직임 양이며, X는 1프레임의 평균 이며, n은 프레임 번호이다.
아. 스무스 필터링(Smoothing Filter) 단계(S8)
추출 된 미세 움직임을 데이터로 추출하였을 때 움직임에 대한 노이즈가 포함되어 신호가 거칠게 일그러지거나 하여 피크(peak) 검출에 어려움이 있어 노이즈를 제거하고 피크(peak) 검출의 정확도를 높이는 데이터를 가공 처리한다.
Figure 112015107924698-pat00004
Figure 112015107924698-pat00005
위 식에서 SMA는 이동평균 값이며, SMAtoday, SMAyesterday은 서로 다른 특정일자의 이동평균 값이며, Pm 은 현재 프레임의 미동의 값이며, n은 이동평균의 윈도우 사이즈(window size)이다.
자. 슬라이딩 피크 검출(Sliding Peak Detection) 단계(S19) 및 PPG 정보 획득(S20)
노이즈를 제거하고 Peak 검출을 위한 가공 처리 된 데이터를 받아 1프레임당 peak 데이터를 30초 크기(size)의 윈도우(windows)를 기준으로 지속적으로 슬라이딩(sliding) 시켜 움직임 영향 및 데이터에 영향을 최소화 시켜 BPM(bit per minute) 신호를 추출 할 수 있도록 한다. 여기에서 얻어진 심박 정보로부터 HRV 데이터 그리고 HRP 데이터를 검출하여 이를 본 발명의 친밀도 평가 방법에 적용되는데, 두 피험자로부터 각각 얻어진다.
Figure 112015107924698-pat00006
위의 식에서 i 는 0, 1, 2…,n 등의 자연수 이며, w 는 윈도우 크기이다.
위의 과정에서 취득한 PPG 신호는 QRS 검출 알고리즘을 통해 R-peak을 검출하였다 (Pan and Tompkins, 1985). 검출된 R-peak은 노이즈를 제외하고 정상 R-peak 간격의 차이를 이용해 RRI (R-peak to R-peak interval)를 추출하였다. 심장리듬패턴 (HRP, heart rhythm pattern)분석을 위해 분당 심박수 (BPM, beat per minute)는 60/RRI을 통해 계산 하였고 정상 RRI의 표준 편차를 이용해 SDNN (standard deviation normal to normal)을 추출하였다. 자세한 신호처리 과정은 도5에 도시된 바와 같다.
도5를 참조하면, 피험자로부터 PPG 신호를 검출한 후, PPG 신호는 QRS 검출 알고리즘(Detection Algorithm)을 통해 R-peak을 검출하였다 (Pan and Tompkins, 1985). 검출된 R-peak은 노이즈를 제외하고 정상 R-peak 간격의 차이를 이용해 RRI (R-peak to R-peak interval)를 추출하였다. 여기에서, 본 발명에 따라 심장리듬패턴 (HRP, heart rhythm pattern)분석을 위해 분당 심박수 (BPM, beat per minute)는 60/RRI을 통해 계산 하였고(BPM=60/RRI) 이로부터 BPM 평균(mean)과 정상 RRI의 표준 편차를 이용해 SDNN (standard deviation normal to normal)을 추출하였다.
본 발명에 따르면 두 사람간의 심장리듬 (HRP, heart rhythm pattern)을 통해 심장의 동기화 현상이 분석되고, 이를 이용해 사회적 관계가 평가될 수 있다. 심장 동기화 분석에 사용되는 HRP 변수는 SDNN과 BPM 평균이다. 모든 변수는 두 사람 변수 값의 차이를 계산하고 그 차이가 적을 수록 두 신호의 동기화가 높은 것으로 판단한다. 또한 HRP 신호를 상관분석을 통해 r 스퀘어(square)값을 추출하여 동기화 정도의 판단 변수로 활용한다.
도4은 친밀도 인식에 사용한 변수를 설명하기 위한 그래프 이다.
도4에서 P1와 P2는 task를 수행하는 두 피험자들로서 leader, follower를 각각 의미한다. 두 피험자의 SDNN과 BPM 평균이 변수로 사용되었고, 또한, 두 피험자의 신호를 상관 분석하여 얻어진 r (상관계수) 값을 제곱하여 r square(r2) 값을 변수로 사용하였다.
Figure 112015107924698-pat00007
또한, 본 실험에 참여한 72명의 피험자 중에서 32명의 데이터는 룰 베이스 생성을 위해 사용하고 나머지40명의 피험자는 룰 베이스 검증으로 활용하였다. 룰 베이스는 이후에 설명된다.
라. 분석 결과
도7은 친구 그룹 (firiend)과 낯선 그룹 (stranger)의 각각 leader와 follower의 HRP의 예이다. 각 그룹의 HRP 패턴에서 알 수 있듯이, 친구 그룹이 낯선 그룹 보다 leader와 follower의 HRP 신호의 동조성이 높고 BPM의 차이가 적은 패턴을 보인다.
도8a, 8b, 8c은 친구 그룹 (firiend)과 낯선 그룹 (stranger)의 각각 leader와 follower의 HRP의 통계 분석결과는 도시한다. 상관분석에 따른 r 스퀘어(correlation)는 친구 그룹이 낯선 그룹 보다 통계적으로 유의하게 증가하는 것을 확인하였다(p < .001). 또한 피험자간의 BPM 평균의 차(difference)은 친구 그룹에서 비해 낯선 그룹에서 통계적으로 크게 감소하는 것을 확인하였다(p < .001, 즉, 99.9% 이상의 신뢰도) 그러나, difference of SDNN은 통계적으로 유의한 차이를 확인 할 수 없었다 (p > .05, 즉, 85% 이상의 신뢰도).
두 그룹 사이에 통계적으로 유의한 차이를 나타낸 변수를 통해 사회적 관계를 구별할 수 있는 룰-베이스를, 예를 들어 도9에 도시된 바와 같이 만들었다. 룰-베이스에 사용된 두 변수는 각각 r 스퀘어와 difference of BMP 평균(mean)이고 두 변수를 X축과 Y축으로 정의하여 실험에 참여한 피험자의 데이터를 X-Y 좌표 상에 플로팅(plotting) 하였다. 두 그룹의 데이터 중에서 가장 근접하는 두 데이터의 중심, 예를 들어 (9.645, 0.090)과 0점 (0, 0)을 지나는 직선의 방정식을 룰-베이스로 도출하였다. 도출된 직선 방정식 보다 위에 있을 경우를 강한 사회적 관계, 아래에 있을 경우를 약한 사회적 관계로 정의하였다. 도출된 직선의 방정식은 아래의 식과 같다.
Y = 0.0094 * X
위의 1차 방정식은 32명 실험 데이터를 통해 결정된 임계치 함수로 친밀함을 판단하는 룰-베이스 이다.
HRP의 룰 베이스를 이용하여 검증한 결과는 도10에 도시된 바와 같다. 룰 베이스의 검증은 전술한 바와 같이 실험되지 않은 나머지 40명의 피험자로부터 HRP 변수 추출하여 룰 베이스 검증에 이용하였다.
그 결과에 따르면, 강한 사회적 관계의 정확도는 전체 20 그룹의 데이터 중에서 19개 그룹의 데이터가 강한 사회적 관계로 분류 되었고 1개 그룹의 데이터만 약한 사회적 그룹으로 분류 되었다 (정확도: (19/20)*100% = 95%). 약한 사회적 관계의 정확도는 전체 20 그룹의 데이터 중에서 19개 그룹의 데이터가 약한 사회적 관계로 분류 되었고 1개의 그룹의 데이터만 강한 사회적 그룹으로 분류 되었다 (정확도: (19/20)*100% = 95%). 전체 40 그룹의 데이터 정확도 검증 결과는 95%로 확인 되었다 (정확도: (38/40)*100% = 95%).
도11은 전술한 시스템 및 방법을 적용하여 본 발명에 따라서 두 피험자의 동영상 촬영을 통해 이들 간의 친밀도를 평가하는 방법의 구체적 흐름도이며, 도 12는 본 발명에 따른 친밀도 평가 시스템의 화면 구성을 보인다.
먼저 도11을 참조하면, 화상 입력(S10)이 시작되면, 도1에 도시된 바와 같이 두 피험자를 마주대한 상태(S20)에서 도3에 도시된 시스템을 이용한 친밀도 검사를 시작한다. 카메라를 이용해 두 피험자(팔로워와 리더)의 미세 진동을 각각 검출한다(S31, S32). 미세 진동이 검출되면 이를 이용해 심박수(S41, S42)를 추출한다. 심박수가 추출되면, 리더(Leader)와 팔로워(Follower)의 심박수(Heart rate) 정보로부터 HRP(heart rhythm pattern)를 각각 추출하여(S50), 이들 두 피험자의 HRP를 비교 평가하여(S60), 친밀(Intimacy)과 비친밀(non-Initmacy)로 평가된 결과를 보여 준다(S70). 이러한 평가는 10초 간격으로 진행되며, 강제적인 종료가 없는 한 상기 과정을 지속적으로 반복하여 그때 그때의 친밀도 여부를 표시한다.
도12를 참조하면, 두 피험자의 촬영영역은 가슴 위 상반신이며, 이를 화면을 통해서 보여 준다. 그리고 실제 두 명의 피험자 중 리더(Leader)의 원본 영상의 데이터가 동작되고 있는 화면을 보여준다.
도16에서, (1)번 영역에 표시되는 리더(Leader)의 원본 영상 데이터를 미동 추출 기술을 통하여 실체 차영상을 통해 보이지 않는 미세한 움직임을 증폭시켜 발생되어있는 라인 형태의 영상이 (2) 번 영역에 도시된다. 여기에서 (2)에서 동그랗게 표시되는 부분이 실제 미세하게 움직였을 때 라인 형태로 움직임이 발생 한 부분만 동작되어 보여주게 된다.
(3)의 영역에는 팔로워(Follower)의 원본 영상이 표시되고, 이 영상 데이터를 미동 추출 기술을 통하여 실체 차영상을 통해 보이지 않는 미세한 움직임을 증폭시켜 발생되어있는 라인 형태의 영상을 (4)의 영역에 보여 준다. 이때에 동그랗게 표시되는 부분이 실제 미세하게 움직였을 때 라인 형태로 움직임이 발생 한 부분만 동작되어 표시된다.
(5) 영역은 추출 된 심박수(Heart rate)를 리더(Leader)와 팔로워(Follower) 를 같이 10초 간격으로 실시간 갱신되는 원형 데이터(Raw Data)의 동기(Sync)를 보여주며, 이를 통해서 리더(Leader)와 팔로워(Follower) 간 Raw Data 상의 동기화 정도를 알 수 있다.
(6)의 영역에는 리더(Leader)와 팔로워(Follower)의 심박수(Heart rate) 정보를 HRP(heart rhythm pattern)로 평가하여 10초 간격으로 평가하여 친밀(Intimacy) 와 비친밀(non-Initmacy)로 평가된 결과를 보여 준다.
위에서 설명된 바와 같이 본 발명은 신체 미동으로부터 추출한 개인간 심장 동조성 (Entrainment) 분석기술을 통해 두 사람 사이의 사회적 관계 (Social relationship)를 평가한다. 개인간 심장 동조성 분석은 두 사람 사이에 심장리듬의 동기화 정도가 이용되었는데, 매우 정확하게 친밀감 평가가 가능함을 알 수 있다. 이러한 본 발명은 두 사람 사이의 사회적 관계를 정량적으로 평가할 수 있으며, 이를 통해 사회적 병리현상 완화 또는 해결에 이용될 수 있다.
이러한 본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 해당 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능함을 이해할 수 있을 것이다. 따라서 본 발명의 진정한 보호범위는 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.

Claims (12)

  1. 마주 대하는 두 피험자의 상체 또는 머리 부분의 미세 움직임을 영상 촬영하는 단계;
    상기 미세 움직임의 영상에 대한 공간 분리(Spatial Decomposition) 단계, 시간 처리(Temporal Processing) 단계 및 재구성(Reconstruction) 단계를 포함하는 영상 처리 과정을 통하여 상기 두 피험자의 신체 미동 데이터를 각각검출하는 단계;
    상기 신체 미동 데이터로부터 심박(PPG) 데이터를 추출하는 단계;
    두 피험자의 PPG 데이터로부터 HRP(Heart Rhythm Pattern) 데이터를 각각 검출하는 단계; 그리고
    상기 두 피험자의 HRP 데이터를 비교하여 두 피험자간의 관계성(친밀도)을 판단하는 단계;를 포함하며,
    상기 HRP 데이터로부터 RRI(R-peak to R-peak interval) 데이터를 획득하며,
    상기 HRP 데이터는 BPM 평균(mean)과 정상 RRI의 표준 편차를 이용해 추출한 SDNN (standard deviation normal to normal)을 포함하며, 그리고 상기 BPM 평균(mean)과 정상 SDNN를 포함하는 HRP 신호의 상관분석을 통해 얻은 r 스퀘어(square) 값과 피험자간 BPM 평균 차를 이용하여 피험자간 동기화 정도의 판단 변수로 사용하는, 사회적 관계성 판단방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 피험자간 BPM 평균의 차를 변수 X, r 스퀘어(square)값을 변수 y라 하였을 때, Y=0.00943167*X 를 만족하는 일차 방정식의 임계치 함수을 기준으로 피험자가 동기화 여부를 판단하는 것을 특징으로 사회적 관계성 판단 방법.
  6. 제1항 또는 제5항에 있어서,
    상기 미동 데이터를 검출하는 단계와 심박(PPG) 데이터를 추출하는 단계:는
    안면 트랙킹(Face Tracking) 단계;
    공간 분리(Spatial Decomposition) 단계;
    뉴로 필터(Neuro Filter) 단계;
    시간 처리(Temporal Processing) 단계;
    재구성(Reconstruction) 단계;
    프레임 차 평균화(Frame Difference Average) 단계;
    스무스 필터(Smoothing Filter) 단계; 그리고
    슬라이딩 피이크 검출(Sliding Peak Detection) 단계;를 포함하는 것을 특징으로하는 사회적 관계성 판단 방법..
  7. 제1항 또는 제5항에 기재된 방법을 수행하는 것으로서,
    상기 피험자들로부터 영상을 촬영하는 카메라;
    상기 피험자들 적어도 어느 하나에게 특정 상태의 얼굴 표정을 제시하는 디스플레이;
    상기 카메라로부터 얻어지는 영상을 처리하는 영상 처리부;
    상기 영상 처리부로부터의 정보를 분석하여 피험자간의 친밀도를 분석하는 분석부;를 포함하는 사회적 관계성 판단 시스템.
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 제7항에 있어서,
    상기 분석부;는
    안면 트랙킹(Face Tracking) 단계;
    공간 분리(Spatial Decomposition) 단계;
    뉴로 필터(Neuro Filter) 단계;
    시간 처리(Temporal Processing) 단계;
    재구성(Reconstruction) 단계;
    프레임 차 평균화(Frame Difference Average) 단계;
    스무스 필터(Smoothing Filter) 단계; 그리고
    슬라이딩 피이크 검출(Sliding Peak Detection) 단계;를 포함하는 것을 특징으로하는 사회적 관계성 판단 시스템.
KR1020150155293A 2014-11-18 2015-11-05 인체 미동에 의한 hrp 기반 사회 관계성 측정 방법 및 시스템 KR101646735B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020140160876 2014-11-18
KR20140160877 2014-11-18
KR1020140160877 2014-11-18
KR20140160876 2014-11-18

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150015568A Division KR101644586B1 (ko) 2014-11-18 2015-01-30 인체 미동에 의한 hrp 기반 사회 관계성 측정 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20160059421A KR20160059421A (ko) 2016-05-26
KR101646735B1 true KR101646735B1 (ko) 2016-08-08

Family

ID=56104764

Family Applications (10)

Application Number Title Priority Date Filing Date
KR1020150015567A KR101663239B1 (ko) 2014-11-18 2015-01-30 인체 미동에 의한 hrc 기반 사회 관계성 측정 방법 및 시스템
KR1020150015568A KR101644586B1 (ko) 2014-11-18 2015-01-30 인체 미동에 의한 hrp 기반 사회 관계성 측정 방법 및 시스템
KR1020150016736A KR101706739B1 (ko) 2014-11-18 2015-02-03 인체 미동 기반 심장 정보 추출 방법
KR1020150016735A KR101731620B1 (ko) 2014-11-18 2015-02-03 인체 미세 움직임 추출 방법
KR1020150017478A KR101666654B1 (ko) 2014-11-18 2015-02-04 인체 미동 기반 호흡 정보 추출 방법
KR1020150148018A KR101722708B1 (ko) 2014-11-18 2015-10-23 인체 미동에 의한 hrc 기반 사회 관계성 측정 방법 및 시스템
KR1020150148019A KR101738097B1 (ko) 2014-11-18 2015-10-23 인체 미동에 의한 hrp 기반 사회 관계성 측정 방법 및 시스템
KR1020150155293A KR101646735B1 (ko) 2014-11-18 2015-11-05 인체 미동에 의한 hrp 기반 사회 관계성 측정 방법 및 시스템
KR1020150155291A KR101752872B1 (ko) 2014-11-18 2015-11-05 신체 미세 움직임을 이용한 사회 관계성 측정 방법 및 시스템
KR1020160073844A KR101725358B1 (ko) 2014-11-18 2016-06-14 인체 미동 기반 호흡 정보 추출 방법

Family Applications Before (7)

Application Number Title Priority Date Filing Date
KR1020150015567A KR101663239B1 (ko) 2014-11-18 2015-01-30 인체 미동에 의한 hrc 기반 사회 관계성 측정 방법 및 시스템
KR1020150015568A KR101644586B1 (ko) 2014-11-18 2015-01-30 인체 미동에 의한 hrp 기반 사회 관계성 측정 방법 및 시스템
KR1020150016736A KR101706739B1 (ko) 2014-11-18 2015-02-03 인체 미동 기반 심장 정보 추출 방법
KR1020150016735A KR101731620B1 (ko) 2014-11-18 2015-02-03 인체 미세 움직임 추출 방법
KR1020150017478A KR101666654B1 (ko) 2014-11-18 2015-02-04 인체 미동 기반 호흡 정보 추출 방법
KR1020150148018A KR101722708B1 (ko) 2014-11-18 2015-10-23 인체 미동에 의한 hrc 기반 사회 관계성 측정 방법 및 시스템
KR1020150148019A KR101738097B1 (ko) 2014-11-18 2015-10-23 인체 미동에 의한 hrp 기반 사회 관계성 측정 방법 및 시스템

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020150155291A KR101752872B1 (ko) 2014-11-18 2015-11-05 신체 미세 움직임을 이용한 사회 관계성 측정 방법 및 시스템
KR1020160073844A KR101725358B1 (ko) 2014-11-18 2016-06-14 인체 미동 기반 호흡 정보 추출 방법

Country Status (3)

Country Link
US (1) US10102343B2 (ko)
KR (10) KR101663239B1 (ko)
CN (1) CN106999062A (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6467965B2 (ja) * 2015-02-13 2019-02-13 オムロン株式会社 感情推定装置及び感情推定方法
US10874309B2 (en) 2017-05-01 2020-12-29 Samsung Electronics Company, Ltd. Determining emotions using camera-based sensing
KR101940673B1 (ko) * 2017-09-14 2019-01-21 상명대학교 산학협력단 인체 미동을 이용한 공감도 평가 방법 및 장치
KR102155777B1 (ko) * 2018-04-26 2020-09-15 상명대학교산학협력단 인체 미동 기반 상호작용에 따른 경쟁과 협력 평가 방법
CN109009048A (zh) * 2018-06-12 2018-12-18 四川斐讯信息技术有限公司 一种ppg波峰检测方法及系统
KR102202654B1 (ko) * 2018-07-25 2021-01-13 상명대학교산학협력단 안면 움직임 정보 추출 방법 및 장치
WO2020116678A1 (ko) * 2018-12-05 2020-06-11 (주)모어이즈모어 사용자의 자세를 모사하는 로봇 및 이를 포함하는 실시간 자세 모니터링 시스템
KR102654378B1 (ko) * 2021-02-17 2024-04-03 상명대학교산학협력단 몰입도-추론 기반 교감-유도형 dht 생성 방법 및 이를 적용하는 시스템
US11361062B1 (en) 2021-03-02 2022-06-14 Bank Of America Corporation System and method for leveraging microexpressions of users in multi-factor authentication
WO2023002503A1 (en) * 2021-07-19 2023-01-26 Ranjani Ramesh A system and a method for synthesization and classification of a micro-motion
EP4367642A4 (en) * 2021-08-10 2024-06-19 Duke University SYSTEMS AND METHODS FOR AUTOMATED SOCIAL SYNCHRONITY MEASUREMENTS

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3477166B2 (ja) * 2000-12-07 2003-12-10 学校法人慶應義塾 監視装置
US7027621B1 (en) * 2001-03-15 2006-04-11 Mikos, Ltd. Method and apparatus for operator condition monitoring and assessment
KR20060062378A (ko) * 2004-12-03 2006-06-12 학교법인연세대학교 맥박을 이용한 이성간 호감도 측정 방법 및 장치
CN101495034B (zh) * 2006-08-02 2013-01-02 皇家飞利浦电子股份有限公司 用于检测脉搏波从对象的动脉系统的经过的传感器
US20080136934A1 (en) 2006-12-12 2008-06-12 Industrial Technology Research Institute Flame Detecting Method And Device
JP5483899B2 (ja) * 2009-02-19 2014-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
AR079057A1 (es) * 2009-11-17 2011-12-21 Baylor Res Inst Triaosilceramida urinaria (gb3) como marcador de enfermedad cardiaca
KR101420549B1 (ko) 2009-12-02 2014-07-16 퀄컴 인코포레이티드 쿼리 및 모델 이미지들에서 검출된 키포인트들을 클러스터링함에 따른 특징 매칭 방법, 디바이스 그리고 프로세서 판독가능 매체
US20110251493A1 (en) * 2010-03-22 2011-10-13 Massachusetts Institute Of Technology Method and system for measurement of physiological parameters
EP2417908A1 (en) * 2010-08-12 2012-02-15 Philips Intellectual Property & Standards GmbH Device, system and method for measuring vital signs
TWI548397B (zh) * 2011-01-05 2016-09-11 皇家飛利浦電子股份有限公司 用以自特徵信號擷取資訊之裝置及方法
GB2488316A (en) * 2011-02-22 2012-08-29 Toumaz Uk Ltd Method for determining respiration rate from uncorrupted signal segments
CN103429150B (zh) * 2011-03-11 2016-03-16 皇家飞利浦有限公司 用于监测生理信号的监测装置
CN102178536B (zh) * 2011-03-29 2013-04-03 苏州易寻传感网络科技有限公司 一种血氧饱和度和心率的测量方法
GB201114406D0 (en) 2011-08-22 2011-10-05 Isis Innovation Remote monitoring of vital signs
KR101198322B1 (ko) * 2011-09-23 2012-11-06 (주) 어펙트로닉스 얼굴 표정 인식 방법 및 시스템
US9396621B2 (en) * 2012-03-23 2016-07-19 International Business Machines Corporation Systems and methods for false alarm reduction during event detection
US10143377B2 (en) * 2012-05-02 2018-12-04 Augusta University Research Institute, Inc. Single channel imaging measurement of dynamic changes in heart or respiration rate
KR101426750B1 (ko) * 2012-11-05 2014-08-05 주식회사 엘에스엘시스템즈 열화상을 이용한 심박수 측정 시스템
US20140148709A1 (en) * 2012-11-23 2014-05-29 Pixart Imaging Incorporation System and method for integrating heart rate measurement and identity recognition
CN103054569B (zh) * 2012-12-20 2015-04-22 Tcl集团股份有限公司 基于可见光图像测量人体心率的方法、装置及手持设备
JP2014171574A (ja) 2013-03-07 2014-09-22 Sharp Corp 呼吸モニタリング装置、システム、及び方法
JP6052027B2 (ja) * 2013-03-29 2016-12-27 富士通株式会社 脈波検出装置、脈波検出プログラムおよび脈波検出方法
KR101772585B1 (ko) 2013-04-05 2017-08-30 한국전자통신연구원 비접촉 무선 심박 측정 방법 및 심박 측정 장치
US20140303502A1 (en) 2013-04-05 2014-10-09 Electronics And Telecommunications Research Institute Method and apparatus for measuring heartbeats without contact and wirelessly
KR20140122849A (ko) 2013-04-11 2014-10-21 원광대학교산학협력단 휴대용 기기 이용한 스트레스 체크 및 치유 시스템 및 방법
KR101479271B1 (ko) * 2013-04-17 2015-01-05 주식회사 제론헬스케어 신생아 정보 전송 시스템 및 방법
US9339210B2 (en) 2013-05-08 2016-05-17 Koninklijke Philips N.V. Device for obtaining a vital sign of a subject
CZ2014696A3 (cs) * 2014-10-11 2016-04-20 Linet Spol. S.R.O. Zařízení a metoda pro měření intrakraniálního tlaku

Also Published As

Publication number Publication date
KR20160059394A (ko) 2016-05-26
US20170323072A1 (en) 2017-11-09
KR20160075446A (ko) 2016-06-29
KR20160059393A (ko) 2016-05-26
KR20160059420A (ko) 2016-05-26
US10102343B2 (en) 2018-10-16
KR20160059414A (ko) 2016-05-26
KR101725358B1 (ko) 2017-04-11
KR20160059390A (ko) 2016-05-26
KR101722708B1 (ko) 2017-04-03
KR101663239B1 (ko) 2016-10-06
KR101731620B1 (ko) 2017-05-02
KR101706739B1 (ko) 2017-02-16
KR101644586B1 (ko) 2016-08-02
KR20160059421A (ko) 2016-05-26
KR101666654B1 (ko) 2016-10-14
CN106999062A (zh) 2017-08-01
KR20160059392A (ko) 2016-05-26
KR20160059391A (ko) 2016-05-26
KR101738097B1 (ko) 2017-05-29
KR101752872B1 (ko) 2017-07-03
KR20160059415A (ko) 2016-05-26

Similar Documents

Publication Publication Date Title
KR101646735B1 (ko) 인체 미동에 의한 hrp 기반 사회 관계성 측정 방법 및 시스템
KR101617391B1 (ko) HRP(Heart Rhythm Pattern)를 이용한 사회 관계성 측정 방법
KR101752873B1 (ko) 동공 크기 변화율을 이용한 심장 시간 영역의 정보 추출 방법 및 그 장치
Di Lascio et al. Laughter recognition using non-invasive wearable devices
KR101580628B1 (ko) HRC (Heart Rhythm Coherence)를 이용한 사회 관계성 측정 방법
CN108451494B (zh) 使用瞳孔反应来检测时域心脏参数的方法及系统
KR101972572B1 (ko) 심장 리듬 패턴을 이용한 공감도 분류 방법
KR101706740B1 (ko) 인체 미동에 의한 hrc 기반 사회 관계성 온라인 측정 방법 및 시스템
KR101846350B1 (ko) 신체 미동 이용한 사용자의 몰입도 평가 방법 및 그 장치
KR101977961B1 (ko) 심장 리듬 동조성를 이용한 공감도 분류 방법
KR102084029B1 (ko) 심장 리듬 패턴 및 자율신경 밸런스를 이용한 긍정도 분류 방법
KR101706741B1 (ko) 인체 미동에 의한 hrp 기반 사회 관계성 온라인 측정 방법 및 시스템
KR102389361B1 (ko) 신체 미동 이용한 사용자의 몰입도 평가 방법 및 그 장치
Saini et al. Ldm: a systematic review on lie detection methodologies
KR20190057217A (ko) 심장 리듬 동조성을 이용한 공존감 평가 방법 및 장치
KR101971602B1 (ko) 영상분석을 이용한 공감 감성 추론 방법 및 시스템
KR102223087B1 (ko) 감성 전달 판단 방법 및 장치
Lehtimäki Automatic assessment of nonverbal interaction from smartphone videos
KR20190124470A (ko) 인체 미동 기반 상호작용에 따른 경쟁과 협력 평가 방법
WO2016080606A1 (ko) 인체 미동 기반 심장 정보 추출 방법

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190731

Year of fee payment: 4