KR20170054837A - Method for extracting heart information of facial micro-movement and system adopting the method - Google Patents

Method for extracting heart information of facial micro-movement and system adopting the method Download PDF

Info

Publication number
KR20170054837A
KR20170054837A KR1020150157485A KR20150157485A KR20170054837A KR 20170054837 A KR20170054837 A KR 20170054837A KR 1020150157485 A KR1020150157485 A KR 1020150157485A KR 20150157485 A KR20150157485 A KR 20150157485A KR 20170054837 A KR20170054837 A KR 20170054837A
Authority
KR
South Korea
Prior art keywords
facial
information
extracting
motion
plane
Prior art date
Application number
KR1020150157485A
Other languages
Korean (ko)
Other versions
KR101757431B1 (en
Inventor
황민철
황성택
박상인
이정년
Original Assignee
상명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상명대학교산학협력단 filed Critical 상명대학교산학협력단
Priority to KR1020150157485A priority Critical patent/KR101757431B1/en
Publication of KR20170054837A publication Critical patent/KR20170054837A/en
Application granted granted Critical
Publication of KR101757431B1 publication Critical patent/KR101757431B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • A61B5/0456
    • G06K9/00221

Abstract

Descriptions are made with respect to a method and a system for extracting cardiac information by using a facial tremor. The method comprises the steps of: obtaining a facial image from a test subject; mapping multiple peaks for each facial part on the facial image of the test subject by masking (matching) a standard model for defining a standard peak for each facial part with respect to the facial image; extracting a coordinate change value between peaks in an identical facial part from the facial image; continuously extracting facial micro-movement (MM) information including a change value of a centroid of each of action units (AUs) in which the peaks are defined with respect to a human face; selecting MM information of one or more having valid MM information from the AUs; and detecting R-peak to R-peak intervals (RRI) from the selected MM information, and extracting cardiac information of the test subject by using the detected RRI.

Description

안면 미동 기반 심장 정보 추출 방법 및 시스템{Method for extracting heart information of facial micro-movement and system adopting the method}Technical Field [0001] The present invention relates to a method and system for extracting cardiac information based on facial fine motion,

본 발명은 안면 미세 움직임을 이용한 심장 정보 추출 방법 및 이를 적용하는 시스템에 관한 것으로서, 상세하게는 AU(Action Unit)를 기반으로 하는 심장 정보 추출 방법 및 시스템에 관한 것이다. The present invention relates to a cardiac information extraction method using a facial fine movement and a system for applying the same, and more particularly, to a cardiac information extraction method and system based on an AU (Action Unit).

IT기술이 발전함에 따라 주변의 많은 장치들도 발전을 하고 있다. 기술의 발전과 삶의 질 향상이 이루어짐에 따라 인간 중심의 사회로 변화 되고 있으며 기존에는 제품, 장치 등 기계적인 측면의 기술발전이 이루어졌다. 최근 이러한 기술들이 인간 중심의 기술들로 변화하고 있으며 특히 스마트폰 기술이 발전되었다. 스마트폰 기술이 발전됨에 따라 그 주변 기기들에 발전이 빨라지게 되었다. 여러 주변기기들 중에 웨어러블 장치들의 발전이 가속화 되고 있다. 이러한 웨어러블 장치는 사람의 건강 정보를 측정 및 관리 하기 위한 장치들이 많이 개발되고 있으며 그 중에서도 심박 정보를 검출하여 운동량 및 건강 정보를 모니터링하는 기술이 많이 발전 되어있다. 소형 장치들의 발전으로 다양하고 많은 분야에서 생체정보를 활용한 연구 및 제품들이 개발 되었다. 이런 기술들을 이용하여 자동차 업계에서는 스마트카, 헬스카와 같은 미래형 자동차 개발에 많은 힘을 쓰고 있다. 하지만 이런 장치들은 인체에 센서를 접촉해야 동작을 하고 움직임이나 동작 등에 영향을 받기 때문에 정확한 데이터를 얻는 것이 매우 어렵다. 따라서 움직임이나 착용감에 부담을 적게 주고 생체적 메커니즘에 기반 된 비 접촉식의 센싱 기술이 필요하다. As IT technology evolves, many devices around are evolving. As the development of technology and the improvement of the quality of life have been made, the society has been changed into a human - centered society. In the past, technological advances have been made in mechanical aspects such as products and devices. Recently, these technologies are changing to human-centered technologies, especially smartphone technology. As smartphone technology evolved, the peripherals became faster. Among the various peripherals, the development of wearable devices is accelerating. Many devices for measuring and managing human health information have been developed in such wearable devices, and among them, techniques for monitoring the heart rate information and monitoring the exercise amount and health information have been developed. The development of small devices has led to the development of research and products that utilize biometric information in many different fields. Using these technologies, the automotive industry is putting great effort into developing future cars such as smart cars and health cars. However, it is very difficult to obtain accurate data because these devices are operated by touching the sensor to the human body and are affected by movement or motion. Therefore, non-contact sensing technology based on biomechanical mechanisms is required to reduce the burden on movement and wearing comfort.

인체의 미세한 움직임은 사람의 눈에 보이지 않는 형태로 나타나게 된다. 인체의 움직임은 심혈관계 및 호흡계가 중력에 의한 본능적, 무의식적, 생리학적 변동을 초래하는데, 체위의 변동은 시각, 체성감각, 자율신경로, 전정신호 등 구심성 신경로를 통해 중추신경계로 전달되어 혈관 및 심박, 호흡근에 적절한 반응을 통해 신체의 움직임이 발생하게 된다[3]. 특히 전정기관(Vestibular system)은 인체의 여러 기관들과 연결되어 균형감각을 잡을 수 있는 역할을 하는 해부학적 기관으로써 여러 반응에 균형감각을 바로 잡음으로 그 움직임을 발생 시킨다고 볼 수 있다. 전정계관의 경우 전정-동안계, 전정-척수계, 전정-자율신경계 등 다양한 해부학적 기관들에 의해 조절되고 이것이 자율신경계, 심혈관계, 호흡계 등 다양한 기관에 영향을 받아 반응하는 것이다[3]. The minute movements of the human body are invisible to the human eye. Body movements lead to instinctive, unconscious, and physiological changes in cardiovascular and respiratory systems due to gravity. The changes in body position are transmitted to the central nervous system through visual, somatosensory, autonomic, vestibular, and afferent neurons The body moves through the proper response to blood vessels, heartbeats, and respiratory muscles [3]. In particular, the vestibular system is an anatomical organ that plays a role in establishing a sense of balance connected with various organs of the human body. The vestibular system is controlled by various anatomical organs such as the vestibular system, the vestibular system, the vestibular system, and the autonomic nervous system, which are affected by various organs such as autonomic nervous system, cardiovascular system and respiratory system [3].

미세움직임은 얼굴 표정을 지을 때도 표정으로 나타난다. 이를 미세표정(Micro-expression)이라고 하며 순간적이고 비의도적인 얼굴 표정을 짓거나 무의식적인 감정이나 반응 상태에 따라 표정을 순간적으로 짓게 되는 것이다[4]. 즉, 의도하여 얼굴 표정을 짓는 것이 아닌 생체적 반응이나 메커니즘에 의해 동작되는 움직임 인 것이다[5]. 이러한 미세한 표정의 움직임이나 떨림을 이용을 해서 사람의 감정이나 정서 상태를 인식하고 이를 통해 피드백 시스템을 구현 등에 사용되고 있다[6]. 선행 연구 중 이러한 원리들을 응용한 연구들이 다수 존재 한다. 먼저 감성 및 감정에 대한 정보를 검출하는 vibraimage 기술이 있다. 이 기술의 경우 머리(head)의 미세한 움직임을 카메라를 이용하여 측정 및 인식하여 다양한 감정 변수들을 검출하고 있다[7, 8]. 또한 머리의 미세 움직임을 기반으로 Video Motion 기술을 이용하여 심박 정보를 추출하는 연구도 있다[2]. 이 외에도 Video의 RGB 색상 변화를 이용한 심박 정보 추출 등 다양한 연구들이 존재한다[1]. Fine movements also appear when you create facial expressions. This is referred to as micro-expression, which creates a momentary and unintentional facial expression, or instantly creates facial expressions according to unconscious emotions or reaction states [4]. In other words, it is a motion that is operated by a biomechanical reaction or mechanism, not a facial expression by intention [5]. It is used to realize the feedback system by recognizing emotions and emotional states of people by using such minute movements or tremors [6]. There are a number of studies applying these principles in previous studies. First, there is vibraimage technology that detects information about emotion and emotion. In this technique, a variety of emotion variables are detected by measuring and recognizing the fine movement of the head using a camera [7, 8]. In addition, there is a study on extracting cardiac information using Video Motion technology based on the fine movement of the head [2]. In addition, there are various studies such as heart rate information extraction using RGB color change of video [1].

이런 연구들은 일상 생활에 적용하기는 어려운 한계점이 있다. 미세한 움직임들을 측정하여 심박 정보 등 생체 반응 정보를 측정 하려면 앉아 있거나 서있는 상태에서 아무런 동작 및 움직임에 제한을 두어야지만 정확한 정보를 검출 할 수 있다. 미세한 움직임을 이용하여 실제 심박 정보나 생체 반응에 대한 정보를 검출 하기 위해서는 무엇보다 사람을 인식 할 수 있어야 한다. 또한 1지점에서의 추출되는 정보보다 다양한 지점에서의 검출 및 데이터 수집을 통해 정확도를 높이는 부분들이 필요하다. These studies have limitations that are difficult to apply to everyday life. In order to measure biomechanical information such as heart rate information by measuring minute movements, it is necessary to limit any movement or movement while sitting or standing, but accurate information can be detected. In order to detect information about the actual heartbeat information and the biological response using the minute motion, it is necessary to recognize the person first of all. In addition, there is a need for parts that increase accuracy through detection and data collection at various points rather than information extracted at one point.

US6834115 B2US6834115 B2 US6904347 B1US6904347 B1 US7352881 B2US7352881 B2 EP0735509 B1EP0735509 B1 WO2002009038 A2WO2002009038 A2 WO2003017186 A1WO2003017186 A1

Poh, Ming-Zher, Daniel J. McDuff, and Rosalind W. Picard. "Advancements in noncontact, multiparameter physiological measurements using a webcam." Biomedical Engineering, IEEE Transactions on 58.1 (2011): 7-11. // MIT MediaPoh, Ming-Zher, Daniel J. McDuff, and Rosalind W. Picard. "Advancements in noncontact, multiparameter physiological measurements using a webcam." Biomedical Engineering, IEEE Transactions on 58.1 (2011): 7-11. // MIT Media Balakrishnan, Ganesh, Frederic Durand, and John Guttag. "Detecting pulse from head motions in video." Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on. IEEE, 2013. //MIT CASILBalakrishnan, Ganesh, Frederic Durand, and John Guttag. "Detecting pulse from head motions in video." Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on. IEEE, 2013. // MIT CASIL 이태경. 정원희. (2006). 자율신경 조절에 미치는 전정계의 영향. 제5권. 제2호. 대한평형의학회. pp. 329~335.Lee Tae Kyung. Jae Hee. (2006). Effect of Electrostatic System on Autonomic Control. Volume 5. No. 2. Korea Institute of Balance. pp. 329-335. Ekman, P. (2013.12.01). "http://www.paulekman.com/me-historymore/", The website of Paul Ekman Group. Ekman, P. (2013.12.01). "http://www.paulekman.com/me-historymore/", The website of Paul Ekman Group. Baron-Cohen, S. (1996). Reading the mind in the face: A cross-cultural and developmental study. Visual Cognition, 3(1), 39-60.Baron-Cohen, S. (1996). Reading the mind in the face: A cross-cultural and developmental study. Visual Cognition, 3 (1), 39-60. Ekman, Paul, and Erika L. Rosenberg. What the face reveals: Basic and applied studies of spontaneous expression using the Facial Action Coding System (FACS). Oxford University Press, 1997.Ekman, Paul, and Erika L. Rosenberg. What the face reveals: Basic and applied studies of spontaneous expression using the Facial Action Coding System (FACS). Oxford University Press, 1997. Minkin, V. A., and N. N. Nikolaenko. "Application of vibraimage technology and system for analysis of motor activity and study of functional state of the human body." Biomedical Engineering 42.4 (2008): 196-200.Minkin, V. A., and N. N. Nikolaenko. "Application of vibraimage technology and system for analysis of motor activity and functional state of the human body." Biomedical Engineering 42.4 (2008): 196-200. Minkin, V. A., Georgi P. Gladyshev and Libb Thims (2007). Head movements vibraimage visualization and energetic model of emotions.Minkin, V. A., Georgi P. Gladyshev and Libb Thims (2007). Head movements vibraimage visualization and energetic model of emotions.

본 발명은 안면 미동을 이용하여 심장 정보를 추출하는 방법 및 이를 적용하는 장치를 제공한다. The present invention provides a method for extracting cardiac information using a facial fine motion and an apparatus for applying the method.

본 발명에 따른 심장 정보 추출 방법:은Method for extracting cardiac information according to the present invention:

피험자로부터 안면 영상을 획득하면서, 상기 안면 영상에, 안면 부위별 기준 정점을 정의하는 표준 모델을 마스킹(매칭)하여 상기 피험자의 안면 영상에 안면 부위별로 다수의 정점들을 맵핑하는 단계;Mapping a plurality of vertices to a facial image of the subject by masking (matching) a standard model defining a reference vertex for each facial region on the facial image while obtaining a facial image from the subject;

상기 안면 영상에서 동일 안면 부위에서의 정점간의 좌표 변화 값을 추출하는 단계;Extracting a coordinate change value between vertices at the same facial region in the facial image;

상기 정점들이 인체 안면에 대해 정의되어 있는 다수 AU(Action Unit)들 각각의 중점(重點, Centroid)의 변화 값을 포함하는 안면 미세 움직임(MM, Micro-Movement) 정보를 연속적으로 추출하는 단계;Continuously extracting facial micro-movement (MM) information including a change value of a centroid of each of a plurality of Action Units (AU) defined by the vertices of the human face;

상기 다수의 AU 중 일부 유효 미세 움직임(MM) 정보를 가지는 AU의 미세움직임 정보를 선택하는 단계; 그리고Selecting fine motion information of an AU having some effective fine motion (MM) information among the plurality of AUs; And

선택된 미세 움직임 정보로부터 RRI(R-Peak to R-Peak Intervals)를 검출하고, 검출된 RRI를 이용해 상기 피험자의 심장 정보를 추출하는 단계;를 포함한다.Detecting RRI (R-Peak to R-Peak Intervals) from the selected fine motion information, and extracting cardiac information of the subject using the detected RRI.

본 발명의 구체적인 실시 예에 따르면, 상기 AU 안면 움직임 정보는 상기 안면 움직임 크기, 면적 크기, 극좌표 개념의 안면 움직임 각도, 정점의 곡선 안면 움직임(r*Sin(

Figure pat00001
)) 값 중 적어도 어느 하나를 더 포함할 수 있다. According to a specific embodiment of the present invention, the AU facial motion information includes at least one of a facial motion size, an area size, a facial motion angle of a polar concept,
Figure pat00001
) ≪ / RTI > value).

본 발명에 따르면, 상기 정점(Vertex)은 상기 피험자의 안면의 평균 평면에 나란한 방향의 X-Y 평면에서의 X, Y 좌표와, 상기 X-Y 평면에 수직인 Z 좌표를 포함한다. According to the present invention, the vertex includes X, Y coordinates in the X-Y plane in the direction parallel to the average plane of the subject's face, and Z coordinates perpendicular to the X-Y plane.

본 발명의 구체적인 실시 예에 따르면, 상기 극좌표 개념의 안면 움직임 각도, r*Sin(Θ)는 상기 X-Y 평면에 수직한 Z 좌표의 변화로부터 구할 수 있다. According to a specific embodiment of the present invention, the facial motion angle r * Sin (?) Of the polar coordinate concept can be obtained from the change of the Z coordinate perpendicular to the X-Y plane.

본 발명의 실시 예에 따르면, 상기 AU는 적어도 3개의 정점(Vertex)을 포함한다. According to an embodiment of the present invention, the AU includes at least three vertices.

본 발명의 실시 예에 따르면, 상기 AU 안면 움직임 정보는 상기 X, Y, Z 좌표에서, X-Y 평면, X-Z 평면, Y-Z 평면 중, 적어도 어느 하나의 평면에서 움직임(변화)으로부터 추출할 수 있다. According to the embodiment of the present invention, the AU facial motion information can be extracted from the motion (change) in at least one of the X-Y plane, the X-Z plane and the Y-Z plane in the X, Y and Z coordinates.

본 발명의 구체적인 실시 예에 따르면, 안면 움직임 정보를 얻기 위해 초기 기준 데이터를 안면 움직임 정보로부터 소정 시간 추출하는 단계; 상기 초기 기준 데이터를 추출 후, 일정 한 시간 간격으로 상기 안면 움직임 정보를 추출하여 이로부터 상기 RRI를 추출하는 단계를 더 포함한다.According to a specific embodiment of the present invention, there is provided a method comprising: extracting initial reference data from facial motion information for a predetermined time to obtain facial motion information; Extracting the initial reference data, extracting the facial motion information at regular time intervals, and extracting the RRI from the facial motion information.

또한, 본 발명의 구체적인 실시 예에 따르면, 다수의 AU 중 일부 유효 미세 움직임(MM) 정보를 가지는 AU의 미세 움직임 정보를 선택하는 단계:는 상기 AU의 미세 움직임의 표준 편차 패턴에 기초하여 특정 AU의 미세 움직임을 선택하는 과정;을 포함하고, 그리고According to a specific embodiment of the present invention, the step of selecting fine motion information of an AU having some valid fine motion (MM) information of a plurality of AUs comprises: And selecting a fine motion of

상기 선택된 미세 움직임 정보를 소정 주파수 범위로 필터링한 후, 이로 부터 피이크를 검출하는 단계;Filtering the selected fine motion information in a predetermined frequency range, and detecting a peak from the filtered fine motion information;

상기 피이크를 이용해 상기 RRI 평균을 구하는 단계; 그리고Obtaining the RRI average using the peak; And

상기 RRI 를 이용하여 BPM(Beat Per Minute) 신호를 검출하는 단계;를 더 포함한다. And detecting a Beat Per Minute (BPM) signal using the RRI.

상기 방법을 수행하는 본 발명에 따른 시스템:은A system according to the invention for carrying out the above method comprises:

상기 피험자로부터 안면 영상을 획득하는 동영상 카메라;A moving picture camera for acquiring a facial image from the subject;

상기 동영상 케메라로부터의 영상을 처리하는 영상 처리부;An image processing unit for processing an image from the video camera;

상기 영상 처리부로 부터의 영상 데이터를 이용해 상기 AU 안면 움직임 정보를 추출하는 시스템;을 포함한다.And a system for extracting the AU facial motion information using the image data from the image processing unit.

본 발명은 안면의 미세 움직임을 AU 별로 정량화된 데이터로서 추출하는 방법과 이를 이용하여 심장 정보를 추출하는 방법을 제시한다. 본 발명에 의해 추출된 심장 정보는 의사 데이터로서 직접 심장으로부터 추출한 심장 정보에 매우 근사한 패턴을 보인다. 이러한 발명은 비 접촉형 센싱 기술인 미동 검출 기술을 이용하여 심장 정보를 우수한 결과로 측정 가능한 것이 확인되었다. 특히 선행 연구 및 유사 기술들이 많지만 비 접촉형 센싱 기술을 실 생활에 활용하기는 매우 어렵다. 또한 영상으로부터 상황에 따라 측정 할 수 있는 제한적이다. 하지만 안면 근육의 여러 지점을 이용하여 심장 정보를 추출 할 수 있음을 확인 할 수 있게 되었다. 하지만 본 발명은 트랙킹 모듈(Tracking Module) 등을 응용 적용한 방법으로 연동 모듈에 대한 경량화 및 더욱 자연스러운 트랙킹 기술에 대한 연구가 필요하다. 이로써 새로운 센싱 기법과 다양한 안면부의 움직임에서도 추론되는 심장 정보는 실 생활 및 많은 관련 연구 분야에 응용 가능 할 것으로 기대 된다.The present invention proposes a method for extracting minute movement of a face as quantified data for each AU and a method for extracting cardiac information using the same. The cardiac information extracted by the present invention shows a pattern very close to the cardiac information directly extracted from the heart as the pseudo-data. It has been confirmed that the present invention can measure cardiac information with excellent results using the non-contact sensing technology, which is a non-contact sensing technique. Especially, although there are many previous studies and similar technologies, it is very difficult to utilize non-contact sensing technology in real life. It is also limited in that it can be measured from the image according to the situation. However, we can confirm that cardiac information can be extracted by using various points of the facial muscles. However, in the present invention, it is necessary to study the lightening of the interlocking module and the more natural tracking technique by applying a tracking module or the like. Therefore, it is expected that cardiac information deduced from the new sensing technique and various facial movement can be applied to real life and related research fields.

도1은 본 발명에 따른 AU 기반 움직임 정보 추출 시스템의 개략적 구성도이다.
도2는 본 발명에 따른 AU 기반 안면 움직임 정보 추출 방법의 흐름도이다.
도3은 본 발명의 방법에 적용되는 표준 모델의 일례를 도시한다.
도4는 피험자로부터 획득한 안면 영상에 상기 표준 모델을 마스킹(매핑)하는 것을 예시한다.
도5는 표준 모델을 이용해 피험자 영상에 정점을 맵핑한 결과를 보인다.
도6은 눈 주위에서의 정점 정보를 예시하는데, 좌측은 왼쪽눈, 우측은 우측눈을 나타낸다.
도7 및 도8은 본 발명에 따른 방법에서, 볼(광대근)이 올라가고 아래 눈꺼풀을 누르며 눈가의 주름이 생기는 AU6에서의 움직임을 예시한다.
도9는 본 발명에 따라 미세 움직임으로부터 심장 정보를 추출하는 방법의 흐름을 예시한다.
도10은 본 발명에 따른 미세 움직임으로부터 호흡 정보를 추출하는 방법의흐름을 예시한다.
도11은 본 발명에 따른 움직임 정보의 SD(standard deviation) 분석 결과를 도시한다.
도12는 본 발명에 따라, 움직임 정보에 따른 회귀 분석(Regression Analysis)의 결과를 도시한다.
도13은 본 발명에 따라, 24명의 피험자의 데이터 분석 결과 PPI를 보인다.
도14는 본 발명에 따라, 24명의 피험자의 데이터 분석 결과 BPM을 보인다.
도15는 본 발명에 따라 획득한 RSA(Respiratory Sinus Arrhythmia)를 도시한다.
도16은 본 발명에 따라 획득한 피이크 수(Peak Number)의 경우를 도시한다.
1 is a schematic block diagram of an AU-based motion information extraction system according to the present invention.
2 is a flowchart of an AU-based facial motion information extraction method according to the present invention.
Figure 3 shows an example of a standard model applied to the method of the present invention.
FIG. 4 illustrates masking (mapping) the standard model to a facial image acquired from a subject.
Figure 5 shows the result of vertex mapping to the subject image using the standard model.
FIG. 6 illustrates vertex information around the eye, with the left side representing the left eye and the right side representing the right eye.
Figures 7 and 8 illustrate the movement in the AU6 where the ball (cadaver) is raised, the lower eyelid is pressed and the wrinkles of the eye are produced in the method according to the present invention.
Figure 9 illustrates the flow of a method for extracting cardiac information from fine motion in accordance with the present invention.
10 illustrates a flow of a method for extracting respiration information from a fine motion according to the present invention.
11 shows the SD (standard deviation) analysis result of the motion information according to the present invention.
FIG. 12 shows a result of a regression analysis according to motion information according to the present invention.
Figure 13 shows the PPI as a result of data analysis of 24 subjects according to the present invention.
Figure 14 shows BPM as a result of data analysis of 24 subjects according to the present invention.
Figure 15 shows a respiratory sinus arrhythmia (RSA) obtained according to the present invention.
16 shows a case of the number of peaks obtained according to the present invention.

이하 첨부된 도면을 참조하면서, 본 발명에 따른 AU 기반 안면 움직임 정보 추출 방법의 실시 예를 설명한다. Hereinafter, an embodiment of an AU-based facial motion information extraction method according to the present invention will be described with reference to the accompanying drawings.

본 발명에 따른 안면 움직임 정보 추출 방법은, 도1에 도시된 바와 같이 키보드(14), 마우스(15), 모니터(12) 등 입출력 장치 및 이들이 연결되는 본체(11)를 포함하는 컴퓨터 시스템(1)을 기반하는 하드웨어에 의존하여 수행되며, 본 발명의 실시 예에 따라 전용화된 시스템에 의해 구현될 수 있다. 이러한 본 발명의 방법은 특정한 하드웨어 시스템에 의해 그 기술적 범위가 제한되지 않는다. The facial motion information extracting method according to the present invention includes a computer system 1 including an input / output device such as a keyboard 14, a mouse 15, a monitor 12, and a main body 11 to which the input / ), And may be implemented by a dedicated system in accordance with an embodiment of the present invention. Such a method of the present invention is not limited in its technical scope by a specific hardware system.

본 발명에 따른 안면 움직임 정보를 추출하는 방법을 수행하는 장치 또는 시스템은 피험자(20)의 안면을 촬영하는 동영상 카메라(13), 예를 들어 소위 웹 캠또는 웹 카메라를 포함할 수 있다. 또한, 이러한 시스템은 소프트웨어 형태로 제공되는 분석 알고리즘을 통해서 피험자로부터 획득된 영상을 처리하고 이를 이용하여 AU 별 안면 움직임 정보를 추출하여 그 결과를 컴퓨터 시스템(1) 내의 데이터 베이스와 모니터(12) 등을 통해 기록 및 표시한다. An apparatus or system for performing a method of extracting facial motion information according to the present invention may include a moving picture camera 13, for example, a so-called web cam or a web camera, for photographing the face of the subject 20. In addition, such a system processes an image obtained from a subject through an analysis algorithm provided in software form, extracts facial motion information for each AU using the extracted image, and outputs the result to a database in the computer system 1 and a monitor 12 Lt; / RTI >

도2는 본 발명에 따른 AU 기반 안면 움직임 정보 추출 방법의 흐름도이다. 2 is a flowchart of an AU-based facial motion information extraction method according to the present invention.

안면부의 각 국부를 트래킹 할 수 있는 기술을 이용하여 안면에 있는 각 특징을 가지고 있는 눈, 코, 입, 눈썹, 볼, 코 등 특징 점들에 대한 정점(Vertex)을 3D Model 기반으로 트래킹 하여 확보를 하도록 하였다. Using vertex tracking technology, we can track vertices of feature points such as eyes, nose, mouth, eyebrows, balls, nose, etc., which have features in the face, based on the 3D model. Respectively.

안면부 트래킹 및 데이터 취득 과정은 트래킹된 정점(Vertex)을 MPEG4 기준으로 AU(Action Units)를 매핑하여 각 국부의 얼굴 영역을 정하여 중점(重點) 또는 중심(重心, Centroid)의 영역을 정하고 움직임 정보를 취득하도록 하였다. 정해진 매핑 된 중점(Centroid) 영역의 움직임 정보를 프레임(Frame) 간 차이(Difference) 값을 통에 움직임 정보를 추출 할 수 있도록 하였으며 처리 과정은 아래와 같다. In the facial tracking and data acquisition process, AU (Action Units) is mapped on the tracked vertex according to the MPEG4 standard, and the face region of each local region is defined to determine the area of the center of gravity or center of gravity, Respectively. The motion information of the mapped centroid region is extracted through the difference value between frames, and the processing is as follows.

제1단계(S21): 실시간으로 피험자의 안면을 촬영하여 동영상 데이터를 프레임단위로 입력받는 단계이다. 이 단계에서 하드웨어로 예를 들어 웹 카메라(Web Camera)를 이용할 수 있으며, 소프트웨어로는 OpenCV 라이브러리를 이용할 수 있다. 또한 이 단계에서는 연속적으로 입력되는 영상을 증폭하고 이에 포함된 노이즈를 제거하는 등의 일반적인 전처리 과정이 포함될 수 있다. First step S21: photographing the face of the subject in real time and inputting the moving image data frame by frame. At this stage, for example, a web camera can be used as the hardware, and the OpenCV library can be used as the software. In this step, a general preprocessing process such as amplifying the input image continuously and removing the noise included therein may be included.

제2단계(S22): 입력된 안면 영상에 기설정되어 있는 표준 모델을 마스킹한다. 이 과정은 최초에 1회 실시되며, 향후 안면 추적 중, 얼굴 영상을 놓쳤을 때 필요에 따라 재차 마스킹을 수행한다. Second Step (S22): Mask the standard model preset in the inputted face image. This process is performed once at the first time, and masking is performed again if necessary when a facial image is missed during future facial tracking.

상기 표준 모델에는 인체 안면의 어느 한 기준점(Reference point)을 기준으로 하여 안면의 여러 특정 부위들에 대응하는 다수의 정점(Vertex)이 안면 표준 형상 또는 모양에 대응하게 적절하게 배열되어 있다. 상기 기준점은 예를 들어 미간의 중심부분이며, 이를 기준으로 안면의 특정 부위 들에 대한 정점이 결정된다. 맵핑 과정에서, 표준 모델에 기초하여 상기 안면 영상의 부위별로 상기 정점들이 피험자의 안면 영역에 맵핑 된다. 이때에 표준 모델에 대한 피험자의 안면 영역의 비교 부위는 얼굴 윤곽선, 눈, 코, 입 등이다. In the standard model, a plurality of vertices corresponding to various specific parts of the face on the basis of a reference point of the human body surface are appropriately arranged corresponding to the face standard shape or shape. The reference point is, for example, a central part of the hair, and a vertex for specific parts of the face is determined based on the reference point. In the mapping process, the vertices are mapped to the face region of the subject by the portion of the face image based on the standard model. At this time, the comparison region of the subject's face region with respect to the standard model is the face contour, eye, nose, mouth, and the like.

제3단계(S23): 맵핑된 안면 영상으로부터 정점들의 좌표 변화 값을 추출한다. 이때의 변화 값을 추출함에 있어서 기준 값은 상기 제2단계의 마스킹을 통해 얻어진 정점 값들이 비교 기준 된다. Step 3 (S23): The coordinate change value of the vertices is extracted from the mapped facial image. In extracting the change value at this time, the reference values are compared with the peak values obtained through the masking in the second step.

이 과정에서 Visage Technology 사에서 제공되는 안면 트랙킹(Face Tracking) 기술을 이용할 수 있다. Visage Technology 사의 안면 트랙킹 기술은 현재 안면부의 다양한 지점에 대해 표준으로 사용되고 있는 Candiate-3의 3D 모델 기반 Tracking 기술로써 안면부의 137개의 지점에 대한 정보 제공 및 MPEG-4 표준과 매핑된 안면부 정보를 제공하기 때문에 표준화된 정보를 측정 할 수 있다. During this process, face tracking technology available from Visage Technology is available. Visage Technology's facial tracking technology is Candiate-3's 3D model-based tracking technology, which is now used as a standard for various aspects of facial features. It provides information about 137 facial points and provides facial information mapped to the MPEG-4 standard. Therefore, standardized information can be measured.

또한 3D 모델 기반의 트래킹(Tracking) 기술로 다양한 움직임에 대한 영향을 줄일 수 있지만 정점(Vertex)을 이용하여 AU(Action Unit)을 선정하여 얼굴 표정에 따라 영향을 최소화 시킬 수 있다In addition, 3D model-based tracking technology can reduce the influence of various movements, but it can minimize influence according to facial expression by selecting AU (Action Unit) by using vertex

제4단계(S24): 맵핑된 정점들을 AU(Action Unit) 별로 그룹화 또는 분류(정의)한다. Step 4 (S24): Map or classify (define) the mapped vertices according to AUs (Action Units).

제5단계(S25): AU 단위로 그룹화된 정점들을 이용하여 각 AU의 중점(重點) 또는 중심(重心, Centroid) 포함하는 AU 별 정량화된 AU 정보를 추출하고, 이를 현재 AU 정보로서 저장하며, 이때에 그 이전에 저장된 AU 정보가 있다면 이는 선행 AU정보가 된다. Step S25: The quantified AU information for each AU including the center point or the centroid of each AU is extracted using the vertices grouped in units of AUs and stored as current AU information, At this time, if there is the AU information stored before that, it becomes the preceding AU information.

제6단계(S26): 이 단계에서는 선행 AU 정보 유무 판단하며, 존재하지 않는 경우 전술한 제1단계(S21)로 회귀한다. 한편, 선행 AU 정보가 있다면 아래의 제7단계(S27)로 이행한다. Step S6: In this step, it is determined whether or not the preceding AU information exists, and if there is no preceding AU information, the process returns to the first step S21 described above. On the other hand, if there is the preceding AU information, the process proceeds to the seventh step S27.

제7단계(S27): 이 단계에서는 안면의 미세 움직임(MM, Micro-Movement)을 검출하는 단계이다. 구체적으로 선행 AU 정보에 대해 현재 AU 정보를 비교하여 현재 AU 정보에서 특정 성분의 변화 량을 구한다. Step 7 (S27): In this step, micro-movement (MM) of the face is detected. Specifically, the current AU information is compared with the preceding AU information to obtain a change amount of a specific component in the current AU information.

이 단계에서 검출 대상이 되는 특정 성분에는 AU 별 중점 정보 및 그 중점 변화의 크기, AU별 정점들이 이루는 면적의 변화량, 그리고 극좌표의 움직임의 각도, 그리고 정점의 곡선 움직임 r*SIN(

Figure pat00002
) 등이 있으며, 이들 중 어느 하나가 선택적으로 추출된다. In this step, the specific component to be detected is the center point information per AU, the magnitude of the center point change, the change amount of the area formed by the vertices per AU, the angle of polar motion, and the curve motion r * SIN (
Figure pat00002
), And any one of them is selectively extracted.

이렇게 추출된 특정한 AU 정보의 변화량, 즉 미세 움직임(Micor-Movement)은 피험자의 안면의 변형을 다양하게 표현하는 것으로서 다양한 응용분야에 적용가능하며, 예를 들어 피험자의 심장 정보를 추출 또는 추정하는 시스템에 적용할 수 있다. The amount of change in the specific AU information extracted in this manner, that is, the micro-movement, is variously expressed in the deformation of the face of the subject and can be applied to various application fields. For example, a system for extracting or estimating cardiac information of a subject .

이하에서는 위에서 설명된 단계들에 대해 좀 더 구체적으로 설명한다. Hereinafter, the steps described above will be described in more detail.

도3은 표준 모델의 일례를 도시한다. 표준모델은 평균적이 형태와 크기를 가지는 인체 안면을 망상 구조로 모델링한 것으로, 망상 구조의 각 노드(node) 즉 정점(Vertex)는 안면 근육 운동에 민감하게 변화하는 부분이며, 이들은 다양한 얼굴 표정의 변화를 정의하는 AU 별도 그룹화할 수 있다. 3 shows an example of a standard model. In the standard model, the face of the human face with average shape and size is modeled as a network. Each node of the network structure, ie, a vertex, is a part sensitive to facial muscle movement. AUs that define change can be grouped separately.

도3에서 미간의 정점(136)은 얼굴 표정 변화량을 추출하는 기준점으로 이를 기준으로 눈, 눈썹, 코, 입, 입 꼬리, 광대뼈, 턱 라인 등에 관계된 정점들이 연계되어 있다. In FIG. 3, a vertex 136 of the forehead is a reference point for extracting facial expression change amount, and vertices related to eyes, eyebrows, nose, mouth, tail, cheekbones, and jaw line are linked.

도4는 피험자로부터 획득한 안면 영상에 상기 표준 모델을 마스킹(매핑)하는 것을 예시하며, 도5는 표준 모델을 이용해 피험자 영상에 정점을 맵핑한 결과를 보인다. 도5와 같이 맵핑 되면, 미간 지점(136)의 정점(Vertex)을 기준으로 모든 정점의 정보를 추출한다. 각 정점 정보는 X, Y 그리고 Z의 값을 포함한다. FIG. 4 illustrates masking (mapping) the standard model to a facial image acquired from a subject, and FIG. 5 shows a result of vertex mapping to a subject image using a standard model. When mapping is performed as shown in FIG. 5, information of all vertices is extracted based on the vertex of the point-to-point 136. Each vertex information includes the values of X, Y, and Z.

도6은 눈 주위에서의 정점 정보를 예시하는데, 좌측은 왼쪽 눈, 우측은 우측눈을 나타낸다. FIG. 6 illustrates vertex information around the eye, with the left side representing the left eye and the right side representing the right eye.

아래의 표1은 얼굴 표정의 변화를 가져 오는 안면 부분의 움직임을 정의하는 AU 와 정점(Vertex)을 매핑한 결과를 보인다. Table 1 below shows the result of mapping AU and vertex, which defines the movement of the facial part, which brings about changes in facial expression.

Figure pat00003
Figure pat00003

획득한 안면 영상으로부터 각 AU 정보, 특히 AU 변화로부터 다양한 형태의정보 변화량을 추출할 수 있다. From the obtained facial image, various kinds of information change amount can be extracted from each AU information, especially AU change.

상기 안면 영상으로부터 X-Y 평면에서 AU의 중점(Cx, Cy) 및 면적(Axy)은 각 AU의 정점들의 좌표 값을 이용하여 아래의 식 1, 2, 3으로부터 얻을 수 있다. 아래의 식에서 N 은 AU 별 정점(Vertex)의 전체 개수이며, x, y는 각각 X, Y 좌표이며 여기에 아래첨자로 병기된 i 는 해당 AU에서의 정점의 번호이다. The midpoints (Cx, Cy) and area (Axy) of the AUs in the XY plane from the facial image can be obtained from the following equations 1, 2, and 3 using the coordinate values of the vertices of each AU. In the equation below, N is the total number of vertices per AU, and x and y are the X and Y coordinates respectively, where i is the number of the vertex in the corresponding AU.

Figure pat00004
Figure pat00004

Figure pat00005
Figure pat00005

Figure pat00006
Figure pat00006

위의 수식에서, X-Y 평면에서의 좌표 값 및 면적을 Y-Z 평면 또는 X-Z평면의 값들로 각각 환함으로써 Y-Z 평면 및 X-Z 평면에서의 AU 등의 중점(Cy, Cz), (Cx, Cz) 및 면적(Ayz, Axz)을 구할 수 있다. (Cy, Cz), (Cx, Cz), and area (Cz) of the AU in the YZ plane and the XZ plane can be obtained by converting the coordinate values and areas in the XY plane into values in the YZ plane or the XZ plane, Ayz, Axz) can be obtained.

상기와 같은 방법으로 연속적으로 입력되는 안면 영상을 이용해 현행 AU 정보 및 선행 AU 정보로부터 필요한 AU 정보 변화량을 구할 수 있게 된다. The amount of change in AU information required from the current AU information and the preceding AU information can be obtained using the continuous input facial image in the same manner as described above.

AU 정보 변화량에는 전술한 바와 같이 특정 AU에 대한 안면 움직임의 크기(||V||), 안면 움직임의 각도, 중점의 변화량, 면 적의 변화량 등이 있는데, 이들 변화량을 통해서 피험자의 안면의 변화를 판단할 수 있게 된다. As described above, the amount of AU information change includes the magnitude of the facial movement (|| V ||), the angle of facial motion, the amount of change in the center point, and the amount of change in the area of a specific AU. It can be judged.

각 AU에서, n번째 AU(AUn)의 크기 ||V||는 아래의 식으로부터 얻는다. In each AU, the magnitude || V || of the nth AU (AUn) is obtained from the following equation.

AUn의 안면 움직임 크기는 다음 수식을 사용하여 추출한다(n= AU number). The facial motion size of AU n is extracted using the following formula (n = AU number).

이전 안면 영상 프레임(선행 AU 정보)에서 AUn의 중점(Centroid)의 좌표를 (x1, y1), 현재 안면 영상 프레임(현재 AU 정보)에서의 AUn의 중점 좌표를 (x2, y2) 라 했을 때, 중점의 좌표 변화량(Vn) 은 아래의 식4와 같다. (X1, y1) of the centroid of AU n in the previous facial image frame (preceding AU information) and (x2, y2) the center coordinates of AU n in the current facial image frame (current AU information) , The coordinate change amount V n of the center point is expressed by the following Equation 4.

Figure pat00007
Figure pat00007

그러므로, 안면 움직임 벡터의 크기(||Vn||)는 아래 식 5와 같이 계산된다. Therefore, the magnitude (|| V n ||) of the facial motion vector is calculated as shown in Equation 5 below.

Figure pat00008
Figure pat00008

그리고 중점의 안면 움직임 각도(radian,

Figure pat00009
)는 아래와 같이 계산된다. In addition, the center of gravity (radian,
Figure pat00009
) Is calculated as follows.

Figure pat00010
Figure pat00010

위 식에서

Figure pat00011
는 선행 AU의 벡터
Figure pat00012
와 현재의 AU의 벡터
Figure pat00013
내적을 의미한다. 여기에서 두 벡터의 외적을 통해서 회전 방향을 계산할 수 있다. In the above equation
Figure pat00011
Is the vector of the preceding AU
Figure pat00012
And the vector of the current AU
Figure pat00013
It means inner product. Here we can calculate the direction of rotation through the outer product of two vectors.

즉,

Figure pat00014
이면 회전 방향은
Figure pat00015
Figure pat00016
의 반시계 방향이며,
Figure pat00017
이면, 회전 방향은
Figure pat00018
Figure pat00019
의 시계 방향이 된다. In other words,
Figure pat00014
The direction of rotation
Figure pat00015
The
Figure pat00016
Counterclockwise,
Figure pat00017
, The direction of rotation
Figure pat00018
The
Figure pat00019
Clockwise direction.

도7은 볼(광대근)이 올라가고 아래 눈꺼풀을 누르며 눈가의 주름이 생기는 AU6에서의 움직임을 예시한다. 도7에서, 실선은 선행 안면 영상에서의 벡터를 나타내며, 점선은 현재의 안면 영상에서의 발생한 벡터를 나타낸다. 도7에 도시된 바와 같이 AU6의 동작에 따라

Figure pat00020
는 시계방향 또는 반시계 방향으로 움직일 수 있다. Figure 7 illustrates the movement in the AU6 where the ball (cadaver) is raised, the lower eyelid is pressed, and the wrinkles of the eyes are produced. In Fig. 7, a solid line indicates a vector in a frontal facial image, and a dotted line indicates a vector generated in a current facial image. As shown in FIG. 7, according to the operation of the AU 6
Figure pat00020
Can be moved clockwise or counterclockwise.

이러한 상태에서 AU6의 움직임에 따라 정점의 곡선 움직임(Mr)을 계산할 수 있다. In this state, the curvilinear motion (Mr) of the vertex can be calculated according to the motion of the AU6.

Figure pat00021
Figure pat00021

도8에서,

Figure pat00022
는 AU6의 중점의 움직임 각도이다. 8,
Figure pat00022
Is the center of gravity of the AU6.

여기에서 반경

Figure pat00023
과 움직임 각도
Figure pat00024
아래와 같은 식에 의해 계산된다. Radius here
Figure pat00023
And movement angle
Figure pat00024
Is calculated by the following equation.

Figure pat00025
Figure pat00025

Figure pat00026
Figure pat00026

위에서 설명된 본 발명에 따라 추출된 AU 기반 안면 움직임 정보, 예를 들어 AU의 안면 움직임 크기, 각도, 정점의 곡선 안면 움직임 등을 다양한 형태로 응용하여 사용될 수 있다. 예를 들어, 얼굴 표정에 따라 움직이는 AU들의 정보를 추출하여 데이터베이스화 시키고, 이를 실시간으로 입력되는 얼굴표정 영상이미지의 정보를 데이터베이스에 있는 정보와 비교하여, 현재 표정의 감성을 판단하고 수치화하는데 사용될 수 있다. 또한, 안면부의 미동으로부터 의사 심장 정보를 추출할 수 도 있다. The AU-based facial motion information extracted in accordance with the present invention described above, for example, the facial motion size of the AU, the angle, and the facial motion of the apex can be applied in various forms. For example, information of AUs moving according to a facial expression can be extracted and converted into a database, and the information of the facial expression image inputted in real time can be compared with the information in the database to determine the emotion of the current facial expression, have. In addition, the cardiac cardiac information can be extracted from the fine motion of the face portion.

결과적으로 본 발명에 따르면 AU 기반의 안면 움직임 정보를 이용한 감성 얼굴 표정 인식 알고리즘, 또는 심장 정보 추출 알고리즘 기술 개발이 가능하게 된다. 즉, 사람의 얼굴 표정 움직임은 현재 그 사람의 감성 및 심장 정보를 유추할 수 있는 중요한 요소로서, 본 발명은 AU의 변화를 정량적을 추출하여 이를 응용할 수 있는 근간을 제공한다. As a result, according to the present invention, it becomes possible to develop a technique of recognizing facial expression recognition using facial motion information based on AU, or cardiac information extraction algorithm. That is, the human facial expression movement is an important factor that can infer the current emotional and cardiac information of the person. The present invention provides a basis for extracting the quantitative change of the AU and applying it.

본 발명에 따라 안면 영상으로부터 심장 정보를 추출하기 위하여 연속되는전 후 프레임(Frame by Frame)간의 차이 값을 통해 안면부 미동 양을 추출하는데, 전술한 바와 같은 AU의 변화를 이용해 안면부 미세 움직임 데이터를 추출한다. In order to extract cardiac information from the facial image according to the present invention, the facial motion amount is extracted from the difference value between successive frames by frame, and facial motion data is extracted using the above- do.

이하에서 본 발명에 따른 심장 정보 추출 방법의 실험 및 검증에 대해 설명한다. Hereinafter, the experiment and verification of the cardiac information extraction method according to the present invention will be described.

1. 피험자1. Subjects

상명대학교 재학생 24명이 (남자 12명, 여자 12명, ±1. 72) 실험에 참여하였다. 모든 피험자는 심혈신경계에 이상이나 병력이 없었고 전날 충분한 수면을 취하도록 하였다. 또한 심혈관계 반응에 영향을 미칠 수 있는 카페인, 흡연, 음주 등의 섭취를 실험 전날 금하도록 하였다. 실험 전, 실험에 참가하는 모든 피험자에게 연구목적을 제외한 실험에 대한 대략적인 사항에 대해 설명한 후 실험을 진행하였고 실험의 대가로 소정의 금액을 지불하였다. Twenty - four students (12 males, 12 females, ± 1.72) participated in the experiment at Sangmyung University. All subjects had no abnormality or history of cardiovascular system and had enough sleep the day before. In addition, caffeine, smoking, and drinking, which may affect cardiovascular response, were prohibited on the day before the experiment. Before the experiment, all subjects participating in the experiment were explained about the experiment except for the purpose of the study, and then the experiment was carried out and a predetermined amount was paid for the experiment.

2. 실험 방법2. Experimental Method

실험은 아무런 얼굴 표정을 짓지 않은 상태에서의 무표정을 유지 할 수 있도록 한 뒤 실험을 진행하였다. 이때 심박과 호흡에 영향을 주는 별도의 자극은 주지 않았으며 각 개인별 자율 호흡을 유지 할 수 있도록 하였다. 실험이 진행 되는 동안 맥파(PPG) 센서를 착용하고 동시에 상반신의 영상을 측정 하였다. 측정 시간은 자율 호흡상태에서 3분간 유지 될 수 있도록 하였다. The experiment was carried out after allowing the expressionless expression to be maintained without any facial expressions. At this time, no separate stimulation that affects heartbeat and respiration was given, and each individual was able to maintain autonomous respiration. During the experiment, a pulse wave (PPG) sensor was worn and the image of the upper body was measured at the same time. The measurement time was maintained for 3 minutes under autonomous respiration.

3. 분석 및 신호처리 방법3. Analysis and signal processing methods

맥파(PPG) 신호는 lead-I 방법을 통해 500Hz로 샘플링 하였다. 심전도 신호는 MP100 power supply와 PPG 100C amplifier (Biopac systems Inc. , USA)를 통해 신호를 증폭하고 NI-DAQ-Pad9205 (National instruments, USA) 를 통해 아날로그 신호를 디지털 신호로 변환하여 취득하였다. 센서로부터 취득 된 맥파 신호는 QRS 검출 알고리즘(Detection Algorithm)을 이용하여 PPG 신호의 피크(Peak)치를 검출하였다. 검출된 피크 치는 인접한 피크의 값과의 차이를 통해 PPI (Peak to Peak Intervals)를 계산하였다. 영상 신호는 안면부 미세 움직임(미동) 추출 방법을 통해 데이터를 취득 후 신호 처리를 실시 하였다. 또한 서로 다른 두 신호간 통계적 검증을 위해 윈도우 크기(Window size)는 30초의 동일 조건으로 신호 처리를 실시 하였다. 신호 처리 후 각각 추출 된 데이터는 SPSS 17.0K 를 통해 상관분석을 실시하여 상관계수를 도출하고 평균(Mean), 표준편차(SD, standard deviation), RMSE(Root Mean Square Error) 등의 오차(Error) 분석 방법을 이용하여 데이터 검증을 실시 하였다. Pulse wave (PPG) signals were sampled at 500 Hz through the lead-I method. Electrocardiogram signals were obtained by amplifying the signals through an MP100 power supply and a PPG 100C amplifier (Biopac systems Inc., USA) and converting the analog signals to digital signals via NI-DAQ-Pad9205 (National instruments, USA). The pulse wave signal obtained from the sensor detects the peak value of the PPG signal by using the QRS detection algorithm (Detection Algorithm). Peak to Peak Intervals (PPI) were calculated through the difference between the detected peak values and the values of adjacent peaks. The video signal was subjected to signal processing after acquiring data through the method of extracting facial motion (fine motion). Also, for statistical verification between two different signals, the window size was subjected to signal processing under the same condition of 30 seconds. The data extracted after the signal processing were subjected to correlation analysis through SPSS 17.0K to derive the correlation coefficient and the errors such as mean, standard deviation, and root mean square error (RMSE) Data analysis was performed using the analysis method.

4. 심박 정보 추론 방법4. Method of inferring cardiac information

도9에 도시된 바와 같이, 안면부에 매핑된 AU의 미세 움직임(MM, Micro-movement)을 이용하여(S91) 심장반응 데이터를 추론 할 수 있도록 하였다. 미세 움직임은 전술한 과정(S27)에서 추출된 것이다. As shown in FIG. 9, cardiac response data can be inferred using micro movement (MM) of the AU mapped to the face portion (S91). The fine movement is extracted in the above-described process (S27).

인체의 안면부에서는 여러 국부의 AU들이 검출이 되는데 이 때 움직임에 편차가 적고 안정적이고 유효한 정보를 가지고 있는 안면의 국부를 선정하기 위해 움직임 정보의 편차(SD:standard deviation)를 이용하였다(S92). 안정된 움직임을 보이는 국부의 영역이 선정되면 BPF(Band Pass Filter)를 0.7-1.3Hz 대역으로 필터 적용(S93) 후, 심박의 피크(Peak)를 찾기 위해서 피크 검출(Peak Detection) 알고리즘을 적용(S94)하였다. In the face of the human body, AUs of various localities are detected. In this case, SD (standard deviation) is used to select the local part of the face having stable and effective information with less motion deviation (S92). When a local region showing stable motion is selected, a BPF (band pass filter) is applied to a band of 0.7-1.3 Hz (S93), and then a peak detection algorithm is applied to find a peak of a heartbeat (S94 ).

각 검출 된 피크(Peak)와 피크(Peak) 사이의 간격(Interval)을 구하여 RRI(R-peak to R-peak Intervals)를 추출 후, 통계 검증 후 분류된 보정 계수를 통해 보정된 RRI을 추출하였다(S95). 보정된 RRI를 기준으로 빠름/보통/느림으로 3단계로 구분하여 통계적 검증을 통한 임계치(Threshold)를 설정(S96)하였다. RRI (R-peak to R-peak Intervals) was extracted by calculating the interval between peaks and peaks detected, and RRI corrected by the correction coefficients classified after statistical verification was extracted (S95). Based on the corrected RRI, the threshold was set through statistical validation (S96).

보정된 미동의 움직임 데이터에 기반하여 BPM(Beat Per Minute) 신호를 추출하였다(S97). And a BPM (Beat Per Minute) signal is extracted based on the corrected fine motion data (S97).

5. 호흡 정보 추론 방법5. Breathing Information Inference Method

도10은 미세 움직임(Micro-Movement)에 대한 신호 처리를 통해 호흡 정보를 추출하는 과정을 도시한다. FIG. 10 shows a process of extracting respiration information through signal processing for micro-movement.

심박 정보 추론 방법에서와 마찬가지로, 트랙킹(Tracking) 된 AU로부터 미세한 움직임 데이터를 추출하기 위해 현재 프레임과 이전프레임 간의 차이 값에 의한 미세 움직임(S101)을 이용한다. As in the case of the HR inference method, a fine motion (S101) based on the difference between the current frame and the previous frame is used to extract fine motion data from the tracked AU.

미세 움직임은 전술한 과정(S27)에서 추출된 것 이다. 검출되는 여러 국부의 AU에서, 움직임에 편차가 적고 안정적인 안면의 국부를 선정하기 위해 움직임 정보의 SD(standard deviation)의 오차(Error)를 이용하였다(S102). The fine movement is extracted in the above-described process (S27). In the detected AUs, the error of SD (standard deviation) of the motion information was used to select a stable local face of the face with less motion deviation (S102).

안정된 움직임을 보이는 국부의 영역이 선정되면 BPF(Band Pass Filter)를 0.7-1. 3Hz 대역으로 필터 적용(S103) 후, 피크(Peak)를 찾기 위해서 피크 검출(Peak Detection) 알고리즘을 적용(S104)하였다. When the local region showing stable motion is selected, Band Pass Filter (BPF) is set to 0.7-1. After the filter is applied in the frequency band of 3 Hz (S103), a peak detection algorithm is applied (S104) to find a peak.

각 검출 된 피크(Peak)와 피크(Peak) 사이의 간격(Interval)을 구하여 RRI를 추출 후, 통계 검증 후 분류된 보정 계수를 통해 보정된 RRI을 추출하였다(S104). The interval between the detected peaks and peaks is calculated and the RRI is extracted. Then, the corrected RRI is extracted through the classification coefficients after the statistical verification (S104).

위의 과정에서, 호흡 정보를 추출하기 위한 신호처리를 위해 초기 기준 데이터(Reference data)를 수집하기 위해 데이터(Data)의 윈도우 사이즈(Windows Size)를 30초로 설정하였고 최초 30초의 데이터가 수집된 이후 인터벌(Interval) 간격을 1초로 설정하여 슬라이딩 윈도우(Sliding Window) 기법을 사용해 데이터를 수집되는 데이터 정보를 갱신 되도록 하였다. 이렇게 갱신 된 데이터를 기반으로 움직임 평균(Moving Average)을 이용하여 RSP(Respiration)를 추출 할 수 있는 형태의 신호처리 과정을 거쳤으며 해당 신호의 피크(Peak)의 간격(Interval) 계산을 통해 최종 호흡 정보(RSA, Respiratory Sinus Arrhythmia signal)를 추출 하였다(S106). In the above process, the window size of the data (Data) is set to 30 seconds to collect the reference data for the signal processing for extracting the respiration information, and after the first 30 seconds of data is collected The interval interval is set to 1 second, and data information to be collected is updated using a sliding window technique. Based on the updated data, a signal processing process is performed to extract RSP (Respiration) by using a moving average. The signal processing process is performed by calculating the interval of peaks of the signal, Information (RSA, respiratory sinus arrhythmia signal) is extracted (S106).

6. 결과6. Results

도11은 움직임 정보의 SD 분석 결과를 도시한다. 11 shows the SD analysis result of the motion information.

미동 Data와 PPG 신호간 상관분석 결과를 기준으로 각 움직임의 양의 평균 값을 분류한 결과, 미동이 r>0.9 일 때 (t=39.30244, p<.01), r>0.8 일 때(t=49.15492, p<.001), r>0.7 일 때(t=72. 18763, p<.01), r>0.6 일 때(t=62. 60285, p<.01) 모두 통계적으로 유의한 차이를 보였다. (T = 39.30244, p <.01) and r> 0.8 (t = 0.39, p <.05), respectively, when the mean values of each motion were classified based on the correlation analysis between the fine data and the PPG signal. (P <.001), r> 0.7 (t = 72. 18763, p <.01) and r> 0.6 (t = 62. 60285, p <.01) were statistically significant It looked.

도12는 움직임 정보에 따른 회귀 분석(Regression Analysis)의 결과를 도시한다. 12 shows a result of a regression analysis according to motion information.

PPG 신호와 미동(MM) 신호간 상관성이 0.9 이상 일 때 심장수의 범위를 상(上), 중(中), 하(下)로 분류하여 움직임 양을 분석결과 상과 중(z=-2.503, p<.05), 중과 하(z=-5.307, p<.001), 상과 하(z=-2. 345, p<.05)의 결과를 보였으며 모두 통계적으로 유의한 차이를 보였다. When the correlation between the PPG signal and the fine (MM) signal was 0.9 or more, the range of the cardiac number was divided into upper, middle, and lower (z = -2.503 , p <.05), moderate (z = -5.307, p <.001), and upper and lower (z = -2.345, p <.05) .

통계적으로 유의한 차이를 보일 때 회귀 분석 결과가 상(上)일 경우 x=-0.01293, y=0.705283 이며, 중(中)일 경우 x=0.008202, y=0.832221이고, 하(下)일 경우 x=0.536307, y=0.563826이 도출되었다. X = -0.01293, y = 0.705283 when the regression result is upper (upper), x = 0.008202, y = 0.832221 when the middle (middle) = 0.536307, y = 0.563826.

아래의 표2는 추출된 심장 정보의 결과를 보인다. Table 2 below shows the results of extracted cardiac information.

얼굴 국부의 미세움직임을 기반으로 추론되는 MM(Micro-Movement) 신호와 센서 기반으로 추론된 신호간 데이터를 PPI와 BPM, 오차(Error)를 비교하였다. PPG로부터 계산된 PPI(PPG_PPI)는 0.838825, MM으로부터 계산된 PPI(MM_BPM)는 0.838924로 0.000099의 차이를 보였다. PPG로부터 계산된 BPM(PPG_BPM)은 72.8529096, MM으로부터 계산된 BPM(MM_BPM)은 72. 84675로 0.012311의 차이를 보였다. We compared PPI, BPM, and error between MM (Micro-Movement) signal inferred based on the local motion of the face and sensor-based inferred signal. PPI calculated from PPG (PPG_PPI) was 0.838825, and PPI (MM_BPM) calculated from MM was 0.838924, which showed a difference of 0.000099. The BPM (PPG_BPM) calculated from the PPG was 72.8529096, and the BPM (MM_BPM) calculated from the MM was 72. 84675, which was 0.012311.

Figure pat00027
Figure pat00027

도13, 14는 24명의 피험자의 데이터 분석 결과 PPI와 BPM을 보이며, 도15,16은 RSA(Respiratory Sinus Arrhythmia)와 피이크 수(Peak Number)의 경우를 도시한다. Figures 13 and 14 show the results of the data analysis of the 24 subjects and show the results of PPI and BPM, and Figures 15 and 16 show the cases of respiratory sinus arrhythmia (RSA) and peak number.

도13에서 실선은 센서에 의해 측정된 PPI, 점선은 본 발명에 의해 추출된 PPI의 변화를 비교 도시한다. 도 13에 도시된 바를 통해 본 발명에 따른 추출 방법에 따른 PPI는 센서에 의해 직접 검출 방식의 PPI에 매우 유사한 패턴을 가짐을 알 수 있다. 13, the solid line shows the PPI measured by the sensor, and the dotted line shows the change of the PPI extracted by the present invention. It can be seen from FIG. 13 that the PPI according to the extraction method according to the present invention has a very similar pattern to the PPI of the direct detection method by the sensor.

도14에서 실선은 센서에 의해 측정된 BPM, 점선은 본 발명에 의해 추출된 BPM의 변화를 비교 도시한다. 도 14에 도시된 바를 통해 본 발명에 따른 추출 방법에 따른 BPM 데이터는 센서에 의해 직접 검출된 BPM 데이터에 매우 유사한 패턴을 가짐을 알 수 있다. In FIG. 14, the solid line shows the BPM measured by the sensor, and the dotted line shows the change of the BPM extracted by the present invention. 14, it can be seen that the BPM data according to the extraction method according to the present invention has a very similar pattern to the BPM data directly detected by the sensor.

도 15에서 실선은 센서에 의해 측정된 RSA와 점선은 본 발명에 의해 추출된 RSA의 변화를 비교 도시한다. 도 15에 도시된 바를 통해 본 발명에 따른 추출 방법에 따른 RSA 데이터는 센서에 의해 직접 검출된 RSA에 차이는 조금 있지만 어느 정도 유사한 패턴을 가짐을 알 수 있다.In FIG. 15, the solid line shows the RSA measured by the sensor and the dotted line compares the changes of the RSA extracted by the present invention. As shown in FIG. 15, the RSA data according to the extraction method according to the present invention has a similar pattern to that of the RSA directly detected by the sensor, although the difference is slight.

도 16에서 실선은 센서에 의해 측정된 피이크 수(Peak Number)와 점선은 본 발명에 의해 추출된 피이크 수(Peak Number)의 변화를 비교 도시한다. 도 16에 도시된 바를 통해 본 발명에 따른 추출 방법에 따른 피이크 수 데이터는 센서에 의해 직접 검출된 피이크 수 데이터에 유사한 패턴을 가짐을 알 수 있다.In FIG. 16, the solid line indicates the number of peaks measured by the sensor, and the dotted line indicates the change in the number of peaks extracted by the present invention. 16, it can be seen that the peak number data according to the extraction method according to the present invention has a similar pattern to the peak number data directly detected by the sensor.

7. 선행 기술 비교 결과7. Comparison of Prior Art

카메라 기반의 움직임 데이터를 기반으로 연구된 MIT CSAIL 선행 연구와의 비교 결과는 BPM Error ratio는0.014%, Peak Count는 16. 89%으로 아래의 표3과 같다. Based on the camera-based motion data, the comparison results with the MIT CSAIL study show that the BPM error ratio is 0.014% and the peak count is 16. 89%.

Figure pat00028
Figure pat00028

다른 선행 연구로 카메라 기반에 RGB와 ICA를 이용한 연구인 MIT Media Lab의 Mean Error, SD Error, RMSE Error, Correlation을 비교 하였다. 그 결과 상관계수는 r=1, Error=0.012, SD=0.06, RMSE=0.06으로 아래 표4와 같다. Another previous study compared the mean error, SD error, RMSE error, and correlation of the MIT Media Lab, which is a study using RGB and ICA on the camera base. The correlation coefficients are r = 1, Error = 0.012, SD = 0.06, and RMSE = 0.06.

Figure pat00029
Figure pat00029

전술한 바와 같이, 본 발명은 안면부 근육에 미세한 움직임을 기반으로 비접촉식 센싱 기술을 이용해 심장 정보를 추론하였다. 안면부의 미세한 움직임을 자연스럽게 추적하고 이로부터 데이터를 추출 하기 위해 3D 모델 기반의 트랙킹(Tracking) 기술을 적용하였다. 또한 Candidate-3 모델과 FACS의 얼굴 근육을 매핑하여 AU을 선정하였다. 선정된 AU의 기반으로 각 얼굴 표정 및 미세한 움직임을 자연스러운 안면 추적 상태에서도 움직임 데이터를 추출 할 수 있도록 하였다. As described above, the present invention deduced cardiac information using non-contact sensing technology based on fine movement of the muscles of the facial muscles. 3D model-based tracking technology was applied to naturally track the fine movement of the face and extract data from it. AU was selected by mapping the face muscle of Candidate-3 model and FACS. Based on the selected AU, each facial expression and fine motion can be extracted in natural facial tracking state.

AU 기반에서 추출된 데이터 미동 데이터의 SD 패턴(Pattern)을 이용하여 분류하였다. SD 패턴(Pattern)은 AU의 움직임에 대해 데이터 추출함에 있어서, 윈도우 크기(Window size)로 10 초로 설정하여 평균적인 움직임 양을 추출하여 PPG 신호와 상관성에 따른 패턴을 비교하여 통계 검증을 실시하였다. 그 결과 상관성이 r>0.9 일 때 (t=39.30244, p<0.01), r>0.8 일 때(t=49.15492, p<0.001), r>0.7 일 때(t=72. 18763, p<0.01), r>0.6 일 때(t=62.60285, p<0.01) 모두 통계적으로 유의한 차이를 보였다. r>0.9 일 때의 안면부의 AU를 선정 할 수 있도록 하였다. 선정 된 AU로부터 추출되는 움직임에 데이터는 심박 수의 상, 중, 하로 구분하여 분류 하여 통계검증을 실시 하였다. And classified by using the SD pattern of the data which is extracted from the AU based data. In the SD pattern, the average motion amount was extracted by setting the window size to 10 seconds in extracting the data of the motion of the AU, and statistical verification was performed by comparing the patterns according to the correlation with the PPG signal. As a result, when the correlation was r> 0.9 (t = 39.30244, p <0.01), r> 0.8 (t = 49.15492, p < , and r> 0.6 (t = 62.60285, p <0.01) were statistically significant. AU of the facial area when r> 0.9 was selected. Data from the selected AUs were classified into upper, middle, and lower parts of the heart rate, and statistical tests were performed.

그 결과 상과 중(z=-2.503, p<.05), 중과 하(z=-5.307, p<.000), 상과 하(z=-2.345, p<.019)의 결과를 보였으며 모두 통계적으로 유의한 차이를 보였다. 유의한 차이를 보이는 각 단계별 통계 검증을 통한 회귀식을 도출하였다. 회귀 분석 결과 상일 경우 x=-0.01293, y=0.705283 이며, 중일 경우 x=0.008202, y=0.832221이고 하일 경우 x=0.536307, y=0.563826이 도출되었다. (Z = -2.503, p <.05), moderate (z = -5.307, p <.000), upper and lower (z = -2.345, p <.019) There were statistically significant differences between the two groups. The regression equation was derived by statistical verification at each step showing significant differences. Regression analysis showed that x = -0.01293 and y = 0.705283 for the upper case and x = 0.008202 and y = 0.832221 for the middle case and x = 0.536307 and y = 0.563826 for the lower case respectively.

미동 데이터 추출 시스템과 도출된 회귀식을 통해야 남녀 대학생 피험자 24명을 대상으로 자율호흡 상태에서 약 3분간 PPG와 미동을 동시에 측정 하였다. 각 측정된 데이터는 PPG 센서와 미동 데이터간 피험자의 평균을 비교하였으며 각 PPI, BPM, BPM 오차(Error) 항목을 분석하여 비교하였다. 그 결과 PPI의 경우 PPG(0.838825)와 MM(0.838924)로 0.000099의 차이를 보였으며 BPM의 경우 PPG(72. 859096)와 MM(72. 846785)로 0.012332의 차이를 보였다. Twenty - four male and female college students were measured for autonomic respiration by PPG and MR for about 3 minutes. The measured data were compared with the average of the subjects between the PPG sensor and the microdata, and the PPI, BPM, and BPM errors were analyzed and compared. As a result, PPI (0.838825) and MM (0.838924) showed a difference of 0.000099 in the case of PPI and 0.012332 in the case of BPM with PPG (72. 859096) and MM (72. 846785), respectively.

BPM의 상관성 분석 결과 상관계수는 r=1, Error=0.012, SD=0.06, RMSSE=0.06으로 PPG 센서로부터 추출된 심박수와 매우 유사한 패턴을 보였다. 선행 연구에서 상관분석(Correlation), 평균 오차(Mean Error), 표준편차 오차(SD Error), RMSE(Root Means Square Error), 피이크 카운트(Peak Count, 山數) 등 분석 결과 우수한 결과를 보였다. Correlation analysis of BPM showed that the correlation coefficients were very similar to the heart rate extracted from PPG sensor with r = 1, Error = 0.012, SD = 0.06, and RMSSE = 0.06. In previous studies, the results of correlation analysis, mean error, SD error, root mean square error (RMSE), and peak count (peak number) showed excellent results.

이와 같이 본 발명은 비 접촉형 센싱 기술인 미동 검출 기술을 이용하여 심장 정보를 우수한 결과로 측정 가능한 것을 확인하였다. 특히 선행 연구 및 유사 기술들이 많지만 비 접촉형 센싱 기술을 실 생활에 활용하기는 매우 어렵다. 또한 영상으로부터 상황에 따라 측정 할 수 있는 제한적이다. 하지만 안면 근육의 여러 지점을 이용하여 심장 정보를 추출 할 수 있음을 확인 할 수 있게 되었다. 하지만 본 발명은 트랙킹 모듈(Tracking Module) 등을 응용 적용한 방법으로 연동 모듈에 대한 경량화 및 더욱 자연스러운 트랙킹 기술에 대한 연구가 필요하다. 이로써 새로운 센싱 기법과 다양한 안면부의 움직임에서도 추론되는 심장 정보는 실 생활 및 많은 관련 연구 분야에 응용 가능 할 것으로 기대 된다. As described above, the present invention confirms that the cardiac information can be measured with excellent results by using the fine detection technology as the non-contact type sensing technology. Especially, although there are many previous studies and similar technologies, it is very difficult to utilize non-contact sensing technology in real life. It is also limited in that it can be measured from the image according to the situation. However, we can confirm that cardiac information can be extracted by using various points of the facial muscles. However, in the present invention, it is necessary to study the lightening of the interlocking module and the more natural tracking technique by applying a tracking module or the like. Therefore, it is expected that cardiac information deduced from the new sensing technique and various facial movement can be applied to real life and related research fields.

이러한 본 발명이, 지금까지, 본원 다양한 모범적 실시 예가 설명되고 첨부된 도면에 도시되었다. 그러나, 이러한 실시 예는 단지 다양한 실시 예들의 일부임이 이해되어야 할 것이다. 다양한 다른 변형이 본 기술분야에서 통상의 지식을 가진 자에게 일어날 수 있기 때문이다. These and other embodiments of the present invention have been described and shown in the accompanying drawings. However, it should be understood that these embodiments are only a part of various embodiments. Since various other modifications could occur to those of ordinary skill in the art.

1: 컴퓨터 시스템
11: 본체
12: 모니터
13: 동영상 카메라
14: 키보드
15: 마우스
20: 피험자
1: Computer system
11: Body
12: Monitor
13: Video camera
14: Keyboard
15: Mouse
20: Subjects

Claims (11)

피험자로부터 안면 영상을 획득하면서, 상기 안면 영상에, 안면 부위별 기준 정점을 정의하는 표준 모델을 마스킹(매칭)하여 상기 피험자의 안면 영상에 안면 부위별로 다수의 정점들을 맵핑하는 단계;
상기 안면 영상에서 동일 안면 부위에서의 정점간의 좌표 변화 값을 추출하는 단계;
상기 정점들이 인체 안면에 대해 정의되어 있는 다수 AU(Action Unit)들 각각의 중점(重點, Centroid)의 변화 값을 포함하는 안면 미세 움직임(MM, Micro-Movement) 정보를 연속적으로 추출하는 단계;
상기 다수의 AU 중 일부 유효 미세 움직임(MM) 정보를 가지는 AU의 미세움직임 정보를 선택하는 단계; 그리고
선택된 미세 움직임 정보로부터 RRI(R-Peak to R-Peak Intervals)를 검출하고, 검출된 RRI를 이용해 상기 피험자의 심장 정보를 추출하는 단계;를 포함하는 안면 미동을 이용한 심장 정보 추출 방법.
Mapping a plurality of vertices to a facial image of the subject by masking (matching) a standard model defining a reference vertex for each facial region on the facial image while obtaining a facial image from the subject;
Extracting a coordinate change value between vertices at the same facial region in the facial image;
Continuously extracting facial micro-movement (MM) information including a change value of a centroid of each of a plurality of Action Units (AU) defined by the vertices of the human face;
Selecting fine motion information of AUs having some effective fine motion (MM) information among the plurality of AUs; And
Detecting RRI (R-Peak to R-Peak Intervals) from the selected fine motion information, and extracting cardiac information of the subject using the detected RRI; and extracting cardiac information using facial fine motion.
제1항에 있어서,
상기 안면 움직임 정보는 상기 안면 움직임 크기, 면적 크기, 극좌표 개념의 안면 움직임 각도, 정점의 곡선 안면 움직임(r*Sin(
Figure pat00030
)) 값 중, 적어도 어느 하나를 포함하는 것을 특징으로 하는 안면 미동을 이용한 심장 정보 추출 방법.
The method according to claim 1,
The facial motion information includes the facial motion size, the area size, the facial motion angle of the polar concept, the facial motion of the vertex (r * Sin (
Figure pat00030
) Values of the at least one of the at least two of the at least one of the at least two of the at least two of the at least one of the at least two of the at least two of the at least one of the at least two of the at least one at least one group.
제3항에 있어서,
상기 정점의 좌표는 X-Y 평면상의 X, Y 좌표 및 X-Y 평면에 수직한 Z 좌표를 포함하는 것을 특징으로 하는 안면 미동을 이용한 심장 정보 추출 방법.
The method of claim 3,
Wherein the coordinate of the vertex includes X, Y coordinates on the XY plane, and Z coordinate perpendicular to the XY plane.
제1항 내지 제3항 중의 어느 한 항에 있어서,
상기 각 AU는 적어도 3개의 정점(Vertex)을 포함하는 것을 특징으로 하는 안면 미동을 이용한 심장 정보 추출 방법.
4. The method according to any one of claims 1 to 3,
Wherein each of the AUs comprises at least three vertices (Vertex).
제1항 내지 제3항 중의 어느 한 항에 있어서,
상기 안면 움직임 정보는 X, Y, Z 좌표계에서, X-Y 평면, X-Z 평면, Y-Z 평면 중, 적어도 어느 하나의 평면에서 움직임(변화)으로부터 추출되는 것을 특징으로 하는 안면 미동을 이용한 심장 정보 추출 방법.
4. The method according to any one of claims 1 to 3,
Wherein the facial motion information is extracted from a motion (change) in at least one of an XY plane, an XZ plane, and a YZ plane in X, Y, Z coordinate system.
제1항에 있어서,
안면 움직임 정보를 얻기 위해 초기 기준 데이터를 안면 움직임 정보로부터 소정 시간 추출하는 단계;
상기 초기 기준 데이터를 추출 후, 일정 한 시간 간격으로 상기 안면 움직임 정보를 추출하여 이로부터 상기 RRI를 추출하는 것을 특징으로 하는 안면 미동을 이용한 심장 정보 추출 방법.
The method according to claim 1,
Extracting initial reference data from facial motion information for a predetermined time to obtain facial motion information;
Extracting the initial reference data, extracting the facial motion information at regular time intervals, and extracting the RRI from the facial motion information.
제6항에 있어서,
다수의 AU 중 일부 유효 미세 움직임(MM) 정보를 가지는 AU의 미세 움직임 정보를 선택하는 단계:는 상기 AU의 미세 움직임의 표준 편차 패턴에 기초하여 특정 AU의 미세움직임을 선택하는 과정;을 포함하고, 그리고
상기 선택된 미세 움직임 정보를 소정 주파수 범위로 필터링한 후, 이로 부터 피이크를 검출하는 단계;
상기 피이크를 이용해 상기 RRI 평균을 구하는 단계; 그리고
상기 RRI 를 이용하여 BPM(Beat Per Minute) 신호를 검출하는 단계;를 더 포함하는 안면 미동을 이용한 심장 정보 추출방법.
The method according to claim 6,
The step of selecting fine motion information of an AU having some effective fine motion (MM) information among a plurality of AUs includes: selecting fine movement of a specific AU based on the standard deviation pattern of the fine motion of the AU , And
Filtering the selected fine motion information in a predetermined frequency range, and detecting a peak from the filtered fine motion information;
Obtaining the RRI average using the peak; And
Detecting a Beat Per Minute (BPM) signal using the RRI; and extracting a heart beat information using a facial fine motion.
제1항 내지 제3항, 제6항 또는 제7항 중의 어느 한 항에 기재된 방법을 수행하는 시스템으로서,
상기 피험자로부터 안면 영상을 획득하는 동영상 카메라;
상기 동영상 케메라로부터의 영상을 처리하는 영상 처리부;
상기 영상 처리부로부터의 영상 데이터를 이용해 상기 AU 안면 움직임 정보를 추출하고 이로부터 심장 정보를 획득하는 시스템;을 포함하는 안면 미동을 이용한 심장 정보 추출 시스템.
A system for performing the method according to any one of claims 1 to 3, 6 or 7,
A moving picture camera for acquiring a facial image from the subject;
An image processing unit for processing an image from the video camera;
And a system for extracting the AU facial motion information using the image data from the image processing unit and acquiring cardiac information therefrom.
제8항에 있어서,
상기 AU 안면 움직임 정보는 X, Y, Z 좌표계에서, X-Y 평면, X-Z 평면, Y-Z 평면 중, 적어도 어느 하나의 평면에서 움직임(변화)으로부터 추출되는 것을 특징으로 하는 안면 미동을 이용한 심장 정보 추출 시스템.
9. The method of claim 8,
Wherein the AU facial motion information is extracted from a motion (change) in at least one of an XY plane, an XZ plane, and a YZ plane in X, Y, and Z coordinate systems.
제9항에 있어서,
상기 각 AU는 적어도 3개의 정점(Vertex)을 포함하는 것을 특징으로 하는 안면 미동을 이용한 심장 정보 추출 시스템.
10. The method of claim 9,
Wherein each of the AUs includes at least three vertices (Vertex).
제8항에 있어서,
상기 안면 움직임 정보는 X, Y, Z 좌표계에서, X-Y 평면, X-Z 평면, Y-Z 평면 중, 적어도 어느 하나의 평면에서 움직임(변화)으로부터 추출되는 것을 특징으로 하는 안면 미동을 이용한 심장 정보 추출 시스템.
9. The method of claim 8,
Wherein the facial motion information is extracted from a motion (change) in at least one of an XY plane, an XZ plane, and a YZ plane in X, Y, and Z coordinate systems.
KR1020150157485A 2015-11-10 2015-11-10 Method for extracting heart information of facial micro-movement and system adopting the method KR101757431B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150157485A KR101757431B1 (en) 2015-11-10 2015-11-10 Method for extracting heart information of facial micro-movement and system adopting the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150157485A KR101757431B1 (en) 2015-11-10 2015-11-10 Method for extracting heart information of facial micro-movement and system adopting the method

Publications (2)

Publication Number Publication Date
KR20170054837A true KR20170054837A (en) 2017-05-18
KR101757431B1 KR101757431B1 (en) 2017-07-12

Family

ID=59049005

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150157485A KR101757431B1 (en) 2015-11-10 2015-11-10 Method for extracting heart information of facial micro-movement and system adopting the method

Country Status (1)

Country Link
KR (1) KR101757431B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200008820A (en) * 2018-07-17 2020-01-29 성균관대학교산학협력단 Method for user identification and pathological symptom prediction
CN112220450A (en) * 2020-08-21 2021-01-15 上海交通大学医学院附属第九人民医院 Orbit disease screening method, system and terminal based on three-dimensional model
KR20220111568A (en) * 2021-02-02 2022-08-09 상명대학교산학협력단 Emotion recognition method and system based on heart-expression synchronization

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200008820A (en) * 2018-07-17 2020-01-29 성균관대학교산학협력단 Method for user identification and pathological symptom prediction
CN112220450A (en) * 2020-08-21 2021-01-15 上海交通大学医学院附属第九人民医院 Orbit disease screening method, system and terminal based on three-dimensional model
CN112220450B (en) * 2020-08-21 2023-08-15 上海交通大学医学院附属第九人民医院 Orbital disease screening method, system and terminal based on three-dimensional model
KR20220111568A (en) * 2021-02-02 2022-08-09 상명대학교산학협력단 Emotion recognition method and system based on heart-expression synchronization

Also Published As

Publication number Publication date
KR101757431B1 (en) 2017-07-12

Similar Documents

Publication Publication Date Title
Pilz et al. Local group invariance for heart rate estimation from face videos in the wild
Giannakakis et al. Stress and anxiety detection using facial cues from videos
Deligianni et al. From emotions to mood disorders: A survey on gait analysis methodology
Thiam et al. Multi-modal pain intensity recognition based on the senseemotion database
Girard et al. Nonverbal social withdrawal in depression: Evidence from manual and automatic analyses
Yuen et al. Classification of human emotions from EEG signals using statistical features and neural network
KR101725358B1 (en) Method for extracting RSP Signal based on Micro movement of body
KR101752873B1 (en) Method and system for extracting heart information of time domain
Hassan et al. Video-based heartbeat rate measuring method using ballistocardiography
Takano et al. Affective communication aid using wearable devices based on biosignals
KR101757431B1 (en) Method for extracting heart information of facial micro-movement and system adopting the method
JP2023521573A (en) Systems and methods for mapping muscle activation
Mellouk et al. CNN-LSTM for automatic emotion recognition using contactless photoplythesmographic signals
Kessler et al. Multimodal fusion including camera photoplethysmography for pain recognition
Rescio et al. Ambient and wearable system for workers’ stress evaluation
KR101996027B1 (en) Method and system for extracting Heart Information of Frequency domain by using pupil size variation
Cruz et al. Facial Expression Recognition based on EOG toward Emotion Detection for Human-Robot Interaction.
US20220000426A1 (en) Multi-modal brain-computer interface based system and method
KR101757432B1 (en) Method for extracting respiration information of facial micro-movement and system adopting the method
KR20170004549A (en) Method and system for extracting Heart Information of Frequency domain
Slapnicar et al. Contact-free monitoring of physiological parameters in people with profound intellectual and multiple disabilities
KR20170004548A (en) Method and system for extracting heart information of time domain
Mustafa et al. Heart rate estimation from facial videos for depression analysis
KR102509544B1 (en) Emotion recognition method and system based on heart-expression synchronization
Bastos et al. Development of a Socially Assistive Robot Controlled by Emotions Based on Heartbeats and Facial Temperature of Children with Autistic Spectrum Disorder

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant