KR20200001877A - Heart rate monitoring method that can identify the user and heart rate monitoring system that can identify the user - Google Patents

Heart rate monitoring method that can identify the user and heart rate monitoring system that can identify the user Download PDF

Info

Publication number
KR20200001877A
KR20200001877A KR1020180074958A KR20180074958A KR20200001877A KR 20200001877 A KR20200001877 A KR 20200001877A KR 1020180074958 A KR1020180074958 A KR 1020180074958A KR 20180074958 A KR20180074958 A KR 20180074958A KR 20200001877 A KR20200001877 A KR 20200001877A
Authority
KR
South Korea
Prior art keywords
heart rate
user
face
image
rate monitoring
Prior art date
Application number
KR1020180074958A
Other languages
Korean (ko)
Other versions
KR102132959B1 (en
Inventor
이종하
Original Assignee
계명대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 계명대학교 산학협력단 filed Critical 계명대학교 산학협력단
Priority to KR1020180074958A priority Critical patent/KR102132959B1/en
Publication of KR20200001877A publication Critical patent/KR20200001877A/en
Application granted granted Critical
Publication of KR102132959B1 publication Critical patent/KR102132959B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Cardiology (AREA)
  • Computer Security & Cryptography (AREA)
  • Physiology (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

The present invention relates to a method and a system for monitoring a heart rate, capable of identifying a user identity. The system of the present invention comprises: a face recognition unit for recognizing a user face; an identity authentication unit for authenticating a user identity; a coordinate generation unit for generating a coordinate for measuring a heart rate; and a heart rate measuring unit for measuring the heart rate of a user. Therefore, the heart rate of the user can be more easily collected and processed.

Description

사용자의 신원 파악이 가능한 심박동수 모니터링 방법 및 시스템{HEART RATE MONITORING METHOD THAT CAN IDENTIFY THE USER AND HEART RATE MONITORING SYSTEM THAT CAN IDENTIFY THE USER}HEART RATE MONITORING METHOD THAT CAN IDENTIFY THE USER AND HEART RATE MONITORING SYSTEM THAT CAN IDENTIFY THE USER}

본 발명은 심박동수 모니터링 방법 및 시스템에 관한 것으로서, 특히 사용자의 신원 파악이 가능한 실시간 심박동수 모니터링 방법 및 시스템에 관한 것이다.The present invention relates to a heart rate monitoring method and system, and more particularly, to a real-time heart rate monitoring method and system capable of identifying a user.

환자 모니터링 시스템은, 환자의 건강 상태에 대한 연속적이고 집중적인 모니터링을 위한 시스템으로서, 이를 위해 환자 감시 모니터(bedside monitor)가 주요한 의료 장비로 활용되고 있다. 환자 모니터링 시스템은 환자의 감시에 수반되는 인력과 노력 및 부담의 절감이라는 효과를 가지며, 신속한 환자 상태 파악을 통해 의료진의 적절한 대처를 가능하게 한다. 환자 감시 모니터링 시스템의 기본적인 기능은 환자에 부착된 각종 센서들로부터 환자의 생체 신호들을 수집하고 처리하여 분석하는 기능을 한다.
A patient monitoring system is a system for continuous and intensive monitoring of a patient's health condition, and a bedside monitor is used as a main medical device for this purpose. The patient monitoring system has the effect of reducing the manpower, effort, and burden associated with the surveillance of the patient, and enables the medical staff to respond appropriately through rapid patient status. The basic function of the patient surveillance monitoring system is to collect, process and analyze the patient's vital signals from various sensors attached to the patient.

도 1은 기존의 환자 모니터링 시스템을 도시한 도면이다. 도 1에 도시된 바와 같이 일반적으로 환자 모니터링 시스템의 경우 병원 내 입원한 환자들을 대상으로 한다. 이러한 모니터링 시스템의 경우, 퇴원한 환자를 위한 건강관리나 병원을 방문한 적 없는 일반인을 위한 시스템으로는 부적합하다.
1 is a diagram illustrating a conventional patient monitoring system. As shown in FIG. 1, a patient monitoring system generally targets hospitalized patients. Such a monitoring system is not suitable for health care for discharged patients or for the general public who has never visited a hospital.

현재의 의료시스템은 질병의 치료보다는 예방에 중점을 두고 있으며, 질병 예방을 위해서는 환자의 정확한 생체데이터 측정과 그 생체데이터를 기반으로 한 신속한 케어가 필요하다. 이러한 의료 시스템의 변화에 따라, 환자의 정확한 생체데이터 측정을 위하여, 의료기기들이 점점 소형화와 간소화 되고 있으며, 착용형 기기나 체내 삽입형 기기들이 많이 개발되고 있다.
The current medical system focuses on prevention rather than the treatment of diseases, and the prevention of disease requires accurate measurement of the patient's biometric data and prompt care based on the biometric data. As the medical system changes, medical devices are increasingly miniaturized and simplified for accurate measurement of biometric data of patients, and many wearable devices or implantable devices are being developed.

도 2는 소형화와 간소화된 착용형 생체신호 모니터링 시스템을 도시한 도면이다. 도 2에 도시된 바와 같이, 소형화 간소화된 모니터링 기기들은 환자가 병원을 방문 하지 않아도 쉽게 환자의 데이터를 측정할 수 있는 장점을 가지며 거의 24시간 동안 데이터를 측정할 수 있는 장점을 가지고 있다. 하지만 현재 개발되고 있는 착용형 기기나 체내 삽입형 기기 또한 보완해야 할 점이 있다.
2 illustrates a miniaturized and simplified wearable biosignal monitoring system. As shown in FIG. 2, miniaturized and simplified monitoring devices have an advantage of easily measuring patient data without having to visit a hospital, and have an advantage of measuring data for almost 24 hours. However, wearable devices and implantable devices that are currently being developed also need to be supplemented.

착용형 생체신호 모니터링 기기의 경우 간소화 되고 소형화 되었다고는 하지만 착용한 상태에서 일상생활을 하는 것에 아직 어려움이 있으며, 또한 기기를 착용하여 측정한 데이터의 신원을 정확히 파악하기 어려운 단점을 가지고 있다. 체내 삽입형 기기의 경우, 신체 내부에 삽입을 하여야 하는 만큼 소재선택에 어려움이 있으며 인체와의 적합성을 고려하여야 하는 문제점이 있다. 또한 배터리 문제로 인하여 주기적으로 교체해주어야 하는 번거로움이 있다.
Wearable biosignal monitoring devices have been simplified and miniaturized, but they still have difficulty in daily life while wearing them, and also have difficulty in accurately identifying the identity of data measured by wearing the device. In the case of a device inserted into the body, it is difficult to select a material as it must be inserted into the body, and there is a problem of considering compatibility with the human body. There is also a hassle that needs to be replaced periodically due to battery problems.

이러한 문제점들로 인하여 요즘은 신체에 부착하거나 삽입하는 것보다 환자가 편히 느낄 수 있도록 아무런 조작 없이 생체 신호를 측정하는 방법에 대해서 연구가 진행 되고 있다. 대표적인 예로 스마트폰 카메라를 이용한 심박동수 측정이나 산소포화도 측정이 있다. 카메라 영상을 이용한 생체데이터 측정은 환자로 하여금 별다른 조작 없이 생체 데이터를 측정할 수 있도록 한다. 이를 이용하여 실시간으로 환자를 감시할 수 있으며 환자의 급성질환에 대해서 즉각적으로 반응을 할 수 있다. 또한 지속적이고 꾸준한 생체데이터 측정이 가능한 바, 이는 환자의 상태에 대해 좀 더 정확하게 파악할 수 있도록 하며 환자에게 발생할 수 있는 질병의 예방에 큰 도움이 될 수 있다.
Due to these problems, research is now being conducted on how to measure bio signals without any manipulation so that the patient feels more comfortable than attaching or inserting the body. Typical examples include measuring heart rate or oxygen saturation using a smartphone camera. Biometric data measurement using a camera image allows a patient to measure biometric data without any manipulation. This can be used to monitor the patient in real time and to respond immediately to the patient's acute disease. In addition, continuous and consistent measurement of biometric data is possible, which can help to understand the patient's condition more accurately and can be a great help in preventing diseases that may occur in the patient.

이러한 상황을 나타내는 것으로서, U-헬스케어 시스템이라는 이름으로 인터넷이나 모바일 등의 통신기술과 융합하여 시간과 장소에 제약 없이 이용자에게 건강에 대한 정보를 제공하는 시스템이 있다. 도 3은 U-헬스케어 시스템의 구성을 도시한 도면이다. 과거의 헬스케어 시스템은 특정 환자에 대한 치료를 목적으로 하였다면 이제는 개개인의 상태에 따라 일상적으로 이용자의 건강을 관리하는 영역으로 확대되고 있다. 이처럼 사용자의 확대에 따라서 U-헬스케어 시장은 매년 급속도로 성장하였으며, 헬스케어 시스템은 스마트폰과 함께 사물간 인터넷이 연결되어 정보를 교환하는 IoT 기술과 함께 실생활에 깊게 스며들고 있다.
In order to represent such a situation, there is a system that provides information about health to a user without restriction of time and place by fusion with communication technology such as the Internet or mobile under the name of U-healthcare system. 3 is a diagram illustrating a configuration of a U-healthcare system. In the past, healthcare systems were aimed at treating specific patients. Now, the health care system is expanding to the area of managing the health of users on a daily basis according to the individual's condition. As the user expands, the U-healthcare market has grown rapidly every year, and the healthcare system is deeply penetrating real life with IoT technology that exchanges information by connecting the Internet of Things with smartphones.

한편, 본 발명과 관련된 선행기술로서, 대한민국 공개특허공보 제10-2013-0118512호(발명의 명칭: 얼굴 인식을 통한 환자 상태 모니터링 시스템 및 이를 이용한 환자 상태 모니터링 서비스 제공 방법) 및 대한민국 공개특허공보 제10-2015-0039113호(발명의 명칭: 생체 신호에 기초하여 컨텐츠를 처리하는 방법, 및 그에 따른 디바이스) 등이 개시된 바 있다.On the other hand, as the prior art related to the present invention, Korean Patent Application Publication No. 10-2013-0118512 (name of the invention: a patient condition monitoring system and a patient condition monitoring service providing method using the same) and Republic of Korea Patent Publication 10-2015-0039113 (name of the invention: a method for processing content based on a biosignal, and a device according thereto) has been disclosed.

본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 사용자의 신원을 파악할 수 있도록 하며, 카메라를 통하여 심박동수를 측정함으로써, 보다 쉽고 간편하게 사용자의 심박동수를 수집하고 처리할 수 있도록 하는 사용자의 신원 파악이 가능한 심박동수 모니터링 방법 및 시스템을 제공하는 것을 그 목적으로 한다.The present invention has been proposed to solve the above problems of the conventionally proposed methods, to identify the user's identity, and by measuring the heart rate through the camera, it is easier and easier to collect and process the user's heart rate The purpose of the present invention is to provide a method and system for monitoring heart rate, which can identify a user.

상기한 목적을 달성하기 위한 본 발명의 특징에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법은,Heart rate monitoring method capable of identifying the user according to the characteristics of the present invention for achieving the above object,

심박동수 모니터링 방법으로서,As a heart rate monitoring method,

(1) 카메라를 통하여 수집한 이미지 시퀀스에서 사용자의 안면을 인지하는 단계;(1) recognizing a face of a user in an image sequence collected through a camera;

(2) 상기 단계 (1)에서 인지된 안면을 서버의 데이터베이스와 비교하여 사용자의 신원을 인증하는 단계;(2) authenticating the user's identity by comparing the face recognized in step (1) with a database of a server;

(3) 상기 단계 (1)에서 인지된 안면 데이터로부터, 안면의 특징점을 기반으로, 심박동수 측정을 위한 좌표를 생성하는 단계; 및(3) generating coordinates for heart rate measurement based on facial feature points from the facial data recognized in step (1); And

(4) 상기 단계 (3)에서 생성된 좌표를 추적하여, 사용자의 심박동수를 측정하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
(4) tracking the coordinates generated in step (3), and measuring the heart rate of the user.

바람직하게는, 상기 단계 (1)에서는,Preferably, in step (1),

이미지 시퀀스를 수집하기 위한 상기 카메라로서 웹캠(Webcam)을 사용할 수 있다.
A webcam may be used as the camera for collecting the image sequence.

바람직하게는, 상기 단계 (1)은,Preferably, step (1) is

(1-1) 카메라를 통하여 이미지를 수집하는 단계; 및(1-1) collecting an image through a camera; And

(1-2) 상기 단계 (1-1)에서 수집된 이미지로부터 안면 부분의 이미지를 선별하는 단계를 포함할 수 있다.
(1-2) may include the step of selecting an image of the face portion from the image collected in the step (1-1).

더 바람직하게는, 상기 단계 (1-2)에서는,More preferably, in the step (1-2),

PCA(Principal Component Analysis)를 이용해서 얼굴 공통의 형태정보(Eigen face)를 형성하여, 상기 단계 (1-1)에서 수집된 이미지 중에서, 상기 형성된 얼굴 공통의 형태정보와 유사한 형태를 가지고 있는 부분을 사람의 안면 부분 이미지로 선별할 수 있다.
By using PCA (Principal Component Analysis) to form a common face information (Eigen face), from the image collected in the step (1-1), the portion having a similar shape to the shape information common to the formed face It can be screened with human facial images.

바람직하게는, 상기 단계 (2)는,Preferably, the step (2) is,

(2-1) 상기 단계 (1)에서 인지된 안면의 특징점을 추출하는 단계;(2-1) extracting facial feature points recognized in step (1);

(2-2) EBGM(Elastic Bunch graph matching) 방법을 통하여 상기 단계 (2-1)에서 추출된 특징점들의 기하학적 정보로부터 번치 그래프를 생성하는 단계; 및(2-2) generating a bunch graph from the geometric information of the feature points extracted in the step (2-1) through the EBGM (Elastic Bunch graph matching) method; And

(2-3) 상기 단계 (2-2)에서 생성한 번치 그래프를 이용하여 사용자의 신원을 인증하는 단계를 포함할 수 있다.
(2-3) It may include the step of authenticating the identity of the user using the bunch graph generated in the step (2-2).

더 바람직하게는, 상기 단계 (2-2)에서는,More preferably, in the step (2-2),

가버(Gabor) 웨이블렛 함수를 통해 상기 특징점들의 가버(Gabor) 계수를 구하며, 각각의 특징점의 가버(Gabor) 계수들을 묶어 번치를 생성하고, 전체 안면의 특징점들의 번치를 모아 상기 번치 그래프를 생성할 수 있다.
The Gabor coefficients of the feature points may be obtained through a Gabor wavelet function, the Gabor coefficients of each feature point may be bundled to generate a bunch, and the bunch of the feature points of the entire face may be collected to generate the bunch graph. have.

더 바람직하게는, 상기 단계 (2-3)에서는,More preferably, in the step (2-3),

인지된 사용자 안면의 번치 그래프와 데이터베이스(DB)에 존재하는 번치 그래프들의 유사도를 비교하여 가장 유사도가 높은 번치 그래프에 해당하는 사람으로 사용자의 신원을 인증할 수 있다.
The identity of the user may be authenticated as a person corresponding to the highest degree of bunch graph by comparing the degree of similarity between the recognized bunch face graph and the bunch graph existing in the database.

더더욱 바람직하게는, 상기 단계 (2-3)에서는,Even more preferably, in the step (2-3),

Point matching 기법 중에서 Non-rigid matching 기법을 이용하여 유사도를 비교할 수 있다.
Among the point matching techniques, the similarity can be compared using the non-rigid matching technique.

더더더욱 바람직하게는, 상기 단계 (2-3)에서는,Even more preferably, in the step (2-3),

상기 Non-rigid matching 기법을 이용하기 위하여 Topology Preserving Relaxation Labeling(TPRL) 알고리즘을 사용할 수 있다.
Topology Preserving Relaxation Labeling (TPRL) algorithm may be used to use the non-rigid matching technique.

바람직하게는, 상기 단계 (3)에서는,Preferably, in step (3),

상기 추출된 특징점을 기반으로 사용자의 뺨에 해당하는 부분에 심박동수 측정을 위한 좌표를 생성할 수 있다.
Based on the extracted feature points, coordinates for measuring heart rate may be generated at a portion corresponding to the cheek of the user.

바람직하게는, 상기 단계 (4)는,Preferably, step (4),

(4-1) BSS(Blind Source Separation)를 사용하여 상기 단계 (1)에서 선별된 안면 부분의 이미지로부터 독립인자분석(Independent Component Analysis: ICA) 알고리즘을 이용하여 독립인자를 추출하는 단계;(4-1) extracting an independent factor using an independent component analysis (ICA) algorithm from the image of the face portion selected in step (1) using blind source separation (BSS);

(4-2) 상기 단계 (4-1)에서 추출된 독립인자로부터, 생체조직의 광학적 특성을 이용하여 혈관에 흐르는 혈류량을 측정함으로써 심박동 상태를 측정하도록 하는 신호인 광용적맥파(Photoplethysmography: PPG) 신호를 추출하는 단계; 및(4-2) Photoplethysmography (PPG), which is a signal for measuring a heartbeat state by measuring blood flow through blood vessels using optical properties of biological tissues from the independent factor extracted in step (4-1). Extracting a signal; And

(4-3) 상기 단계 (4-2)에서 추출된 광용적맥파(PPG) 신호로부터 심박동수를 측정하는 단계를 포함할 수 있다.
(4-3) measuring the heart rate from the optical volume pulse wave (PPG) signal extracted in the step (4-2).

더 바람직하게는, 상기 단계 (4-1)에서는,More preferably, in the step (4-1),

상기 카메라의 RGB 채널로부터 세 개의 독립인자를 추출할 수 있다.
Three independent factors may be extracted from the RGB channel of the camera.

더 바람직하게는, 상기 단계 (4-1)에서는,More preferably, in the step (4-1),

상기 카메라의 COG(Cyan, Orange, Green) 채널로부터 세 개의 독립인자를 추출할 수 있다.
Three independent factors may be extracted from the COG (Cyan, Orange, Green) channel of the camera.

바람직하게는, 상기 단계 (4)는,Preferably, step (4),

상기 단계 (3)에서 생성된 심박동수 측정을 위한 좌표의, 광학적 특성에 따른 색상변화를 이용하여 사용자의 심박동수를 측정할 수 있다.
The heart rate of the user may be measured by using the color change of the coordinates for measuring the heart rate generated in step (3) according to the optical characteristic.

또한, 상기한 목적을 달성하기 위한 본 발명의 특징에 따른, 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템은,In addition, according to a feature of the present invention for achieving the above object, the heart rate monitoring system capable of identifying the user,

심박동수 모니터링 시스템으로서,Heart rate monitoring system,

카메라를 통하여 수집한 이미지 시퀀스에서 사용자의 안면을 인지하는 안면 인지부;Facial recognition unit for recognizing the user's face in the image sequence collected through the camera;

상기 안면 인지부에서 인지된 안면을 서버의 데이터베이스와 비교하여 상기 사용자의 신원을 인증하는 신원 인증부;An identity authentication unit for authenticating the user's identity by comparing the face recognized by the facial recognition unit with a database of a server;

상기 안면 인지부에서 인지된 안면 데이터로부터, 안면의 특징점을 기반으로, 심박동수 측정을 위한 좌표를 생성하는 좌표 생성부; 및A coordinate generator configured to generate coordinates for measuring heart rate, based on facial feature points, from the facial data recognized by the facial recognizer; And

상기 좌표 생성부에서 생성된 좌표를 추적하여, 상기 사용자의 심박동수를 측정하는 심박동수 측정부를 포함하는 것을 그 구성상의 특징으로 한다.
It comprises a heart rate measuring unit for tracking the coordinates generated by the coordinate generating unit, measuring the heart rate of the user.

바람직하게는, 상기 안면 인지부는,Preferably, the face recognition unit,

이미지 시퀀스를 수집하기 위한 상기 카메라로서 웹캠(Webcam)을 사용할 수 있다.
A webcam may be used as the camera for collecting the image sequence.

바람직하게는, 상기 안면 인지부는,Preferably, the face recognition unit,

카메라를 통하여 이미지를 수집하는 이미지 수집 모듈; 및An image acquisition module for collecting an image through a camera; And

상기 이미지 수집 모듈에서 수집된 이미지로부터 안면 부분의 이미지를 선별하는 안면 이미지 선별 모듈을 포함할 수 있다.
It may include a face image screening module for screening the image of the face portion from the image collected by the image collection module.

바람직하게는, 상기 신원 인증부는,Preferably, the identity authentication unit,

상기 안면 인지부에서 인지된 안면의 특징점을 추출하는 특징점 추출 모듈;A feature point extraction module for extracting feature points of a face recognized by the face recognition unit;

EBGM(Elastic Bunch graph matching) 방법을 통하여 상기 특징점 추출 모듈에서 추출된 특징점들의 기하학적 정보로부터 번치 그래프를 생성하는 번치 그래프 생성 모듈; 및A bunch graph generation module for generating a bunch graph from the geometric information of the feature points extracted by the feature point extraction module through an Elastic Bunch graph matching (EBGM) method; And

상기 번치 그래프 생성 모듈에서 생성한 번치 그래프를 이용하여 사용자의 신원을 인증하는 인증 모듈을 포함할 수 있다.
It may include an authentication module for authenticating the user's identity using the bunch graph generated by the bunch graph generation module.

더 바람직하게는, 상기 인증 모듈은,More preferably, the authentication module,

인지된 사용자 안면의 번치 그래프와 데이터베이스(DB)에 존재하는 번치 그래프들의 유사도를 비교하여 가장 유사도가 높은 번치 그래프에 해당하는 사람으로 사용자의 신원을 인증할 수 있다.
The identity of the user may be authenticated as a person corresponding to the highest degree of bunch graph by comparing the degree of similarity between the recognized bunch face graph and the bunch graph existing in the database.

더더욱 바람직하게는, 상기 인증 모듈은,Even more preferably, the authentication module,

Point matching 기법 중에서 Non-rigid matching 기법을 이용하기 위하여 Topology Preserving Relaxation Labeling(TPRL) 알고리즘을 사용하여 유사도를 비교할 수 있다.Among the point matching techniques, similarity can be compared using Topology Preserving Relaxation Labeling (TPRL) algorithm to use non-rigid matching technique.

본 발명에서 제안하고 있는 사용자의 신원 파악이 가능한 심박동수 모니터링 방법 및 시스템에 따르면, 사용자의 신원을 파악할 수 있도록 하며, 카메라를 통하여 심박동수를 측정함으로써, 보다 쉽고 간편하게 사용자의 심박동수를 수집하고 처리할 수 있도록 한다.According to the heart rate monitoring method and system which can identify the user's identity proposed in the present invention, by identifying the user's identity, by measuring the heart rate through the camera, it is easier and more convenient to collect and process the user's heart rate Do it.

도 1은 기존의 환자 모니터링 시스템을 도시한 도면.
도 2는 소형화와 간소화된 착용형 생체신호 모니터링 시스템을 도시한 도면.
도 3은 U-헬스케어 시스템의 구성을 도시한 도면.
도 4는 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법의 흐름도를 도시한 도면.
도 5는 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법을 도식화한 도면.
도 6은 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법에 있어서, 안면 부분의 이미지를 선별하는 단계를 설명하기 위해 도시한 도면.
도 7은 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법에 있어서, 안면의 특징점을 추출하는 단계를 설명하기 위해 도시한 도면.
도 8은 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법에 있어서, 카메라의 RGB 채널로부터 세 개의 독립인자를 추출하는 단계를 설명하기 위해 도시한 도면.
도 9는 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법에 있어서, 안면 부위에 따른 심박동수 측정 단계를 설명하기 위해 도시한 도면.
도 10은 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템의 블럭도를 도시한 도면.
도 11은 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템에 있어서, 안면 인지부의 블럭도를 도시한 도면.
도 12는 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템에 있어서, 신원 인증부의 블럭도를 도시한 도면.
1 illustrates an existing patient monitoring system.
2 illustrates a miniaturized and simplified wearable biosignal monitoring system.
3 is a diagram illustrating a configuration of a U-healthcare system.
4 is a flowchart illustrating a heart rate monitoring method capable of identifying a user according to an embodiment of the present invention.
5 is a diagram illustrating a heart rate monitoring method capable of identifying a user according to an embodiment of the present invention.
6 is a view illustrating a step of selecting an image of a face part in a heart rate monitoring method capable of identifying a user according to an embodiment of the present invention.
FIG. 7 is a view illustrating a step of extracting facial feature points in a heart rate monitoring method capable of identifying a user according to an embodiment of the present invention.
8 is a view illustrating a step of extracting three independent factors from an RGB channel of a camera in a heart rate monitoring method capable of identifying a user according to an embodiment of the present invention.
9 is a view illustrating a heart rate measurement step according to a facial area in a heart rate monitoring method capable of identifying a user according to an embodiment of the present invention.
10 is a block diagram of a heart rate monitoring system capable of identifying a user according to an embodiment of the present invention.
11 is a block diagram of a face recognition unit in a heart rate monitoring system capable of identifying a user according to an embodiment of the present invention.
12 is a block diagram of an identity authentication unit in a heart rate monitoring system capable of identifying a user according to an embodiment of the present invention.

이하에서는 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일 또는 유사한 부호를 사용한다.
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. However, in describing the preferred embodiment of the present invention in detail, if it is determined that the detailed description of the related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. In addition, the same or similar reference numerals are used throughout the drawings for parts having similar functions and functions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
In addition, throughout the specification, when a part is 'connected' to another part, it is not only 'directly connected' but also 'indirectly connected' with another element in between. Include. In addition, the term 'comprising' of an element means that the element may further include other elements, not to exclude other elements unless specifically stated otherwise.

도 4는 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법의 흐름도를 도시한 도면이며, 도 5는 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법을 도식화한 도면이다. 도 4 및 도 5에 도시된 바와 같이, 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법은, 카메라를 통하여 수집한 이미지 시퀀스에서 사용자의 안면을 인지하는 단계(S100), 단계 S100에서 인지된 안면을 서버의 데이터베이스와 비교하여 사용자의 신원을 인증하는 단계(S200), 단계 S100에서 인지된 안면 데이터로부터, 안면의 특징점을 기반으로, 심박동수 측정을 위한 좌표를 생성하는 단계(S300), 및 단계 S300에서 생성된 좌표를 추적하여, 같은 부위의 색상변화를 이용하여 사용자의 심박동수를 측정하는 단계(S400)을 포함하여 구현될 수 있다.
4 is a flowchart illustrating a heart rate monitoring method capable of identifying a user according to an embodiment of the present invention, and FIG. 5 is a heart rate monitoring method capable of identifying a user according to an embodiment of the present invention. Is a diagram illustrating. As shown in Figure 4 and 5, the heart rate monitoring method that can identify the user according to an embodiment of the present invention, the step of recognizing the user's face in the image sequence collected through the camera (S100), Authenticating the user's identity by comparing the face recognized in step S100 with a database of the server (S200), and generating coordinates for heart rate measurement based on facial feature points from the face data recognized in step S100 In operation S300, and by tracking the coordinates generated in operation S300, the measurement may be performed by using a color change of the same region to measure a user heart rate (S400).

실시예에 따라서, 단계 S100에서는 이미지 시퀀스를 수집하기 위한 카메라로서 웹캠(Webcam)을 사용할 수 있다. 웹캠을 이용하는 경우, 인지된 안면 데이터로부터 얼굴영역을 정의한 뒤 심박동수를 측정할 수 있는바, 사용자 혼자 있는 경우뿐만 아니라 다수의 사람이 있는 상황에서도 카메라를 통한 심박동수 측정이 가능할 수 있다.
According to an embodiment, in step S100, a webcam may be used as a camera for collecting an image sequence. In the case of using a webcam, the heart rate can be measured after defining a face region from the recognized facial data, and the heart rate can be measured by the camera even when there are a large number of people as well as when the user is alone.

단계 S100은, 보다 구체적으로, 카메라를 통해 이미지를 수집하는 단계, 및 수집된 이미지로부터 안면 부분의 이미지를 선별하는 단계를 포함할 수 있다.
In more detail, step S100 may include collecting an image through a camera, and selecting an image of a face part from the collected image.

안면 부분의 이미지를 선별하는 단계란, PCA(Principal Component Analysis)를 이용해서 얼굴 공통의 형태정보(Eigen face)를 형성하여, 카메라를 통해 수집된 이미지 중에서, 앞서 형성된 얼굴 공통의 형태정보와 유사한 형태를 가지고 있는 부분을 사람의 안면 부분 이미지로 선별하는 단계일 수 있다. 보다 구체적으로 살펴보면, 안면 부분의 이미지를 선별하는 단계에서는, PCA를 이용해서 Eigen face(얼굴 공통의 형태 정보)를 형성하여 입력 영상 중에서 이와 유사한 형태를 가지고 있는 부분을 사람의 얼굴이라고 지정하여 추적할 수 있다.
In the step of selecting an image of the face part, a common face shape information is formed by using PCA (Principal Component Analysis), and a shape similar to the face shape information previously formed among the images collected by the camera is formed. It may be a step of selecting a part having a face image of the human face. More specifically, in the step of selecting an image of a face part, an Eigen face (face common shape information) is formed by using a PCA, and a part having a similar shape in the input image is designated as a human face to be tracked. Can be.

카메라를 통해 수집된 이미지 중에서, 앞서 형성된 얼굴 공통의 형태정보와 유사한 형태를 가지고 있는 부분을 사람의 안면 부분 이미지로 선별한다는 것은, 보다 구체적으로, 얼굴 공통의 형태정보로부터 눈, 코, 입과 같은 특징적 부위의 형태를 특정한 후, 수집된 이미지 중에서 특징적 부위에 대응하는 부분을 판별하여, 대응되는 유사도가 높은 영역을 사람의 얼굴(안면) 부분 이미지로 선별하는 것일 수 있다.
Among the images collected by the camera, selecting a part having a similar shape to the previously formed face shape information as a face part image of a human is more specifically, such as eyes, nose, mouth, etc. After specifying the shape of the characteristic part, the part corresponding to the characteristic part may be determined from the collected images, and the region having a high similarity may be selected as the face (face) part image of the human.

PCA는 평균과 분산까지의 통계적 성질을 이용한 2차 통계적 기법이다. PCA는 입력 자료에 대하여 최대공분산의 각 방향을 가리키는 직교 정규화된 일련의 축들의 집합을 찾는다. 이는 입력 자료의 가장 중요한 축들을 찾아 효율적으로 자료의 차원을 줄일 수 있는 장점을 갖게 된다. 그러나 PCA는 2차 통계 자료만을 가용하기 때문에 영상에서 가장 기본적인 특징을 나타내기 어렵다.
PCA is a second-order statistical technique using statistical properties up to mean and variance. The PCA finds a set of orthogonal normalized series of axes that point in each direction of the maximum covariance for the input data. This has the advantage of reducing the dimension of the data efficiently by finding the most important axes of the input data. However, because PCA only uses secondary statistical data, it is difficult to represent the most basic features in the image.

주어진 자료를 x라 놓고, n개의 관찰된 표본이 있다면 x를 x=[x1, x2, …, xn] 과 같이 정의 할 수 있다. 이 때 x의 각 표본 xi는 해당 표본을 구성하는 xi=[xi(1), xi(2), …, xi(m)]T와 같이 m개의 데이터로 구성되어 있고, 이때 T는 행렬의 전치를 나타내며 얼굴 영상의 경우에는 m 값은 해당 얼굴의 픽셀 수가 되며 1차원 벡터로 나타낼 수 있다.
Let x be the given data, and if there are n observed samples, then x is x = [x 1 , x 2 ,... , x n ] Where each sample x i of x comprises x i = [x i (1), x i (2),... , x i (m)] T is composed of m pieces of data, where T represents the transpose of the matrix, and in the case of a face image, m is the number of pixels of the face and can be expressed as a one-dimensional vector.

PCA로 데이터를 표현하는 방법은 다음과 같다. PCA로 데이터가 표현되는 것을 R이라 놓으면, 이 때 각 행이 원래 데이터의 표본에 매칭된다. 고유벡터가 열로 들어 있는 행렬을 V라고 하였을 때, R=XTV로 R을 구할 수 있다. 고유벡터 V가 대칭적이고, 직교 정규화 되어있으므로 VVT=1의 성질을 가지며, 역으로 데이터를 변환하는 것은 XT=RVT와 같이 구할 수 있다.
The method of representing data in PCA is as follows. Let R be the data represented by the PCA, where each row matches a sample of the original data. When V is a matrix containing eigenvectors, R can be obtained by R = X T V. Since the eigenvector V is symmetrical and orthonormalized, it has the property of VV T = 1, and inversely, transforming data can be obtained as X T = RV T.

PCA를 적용하여 얻은 특징 벡터 공간은 영상의 조명변화와 얼굴의 표정변화 등의 특징이 포함되어 있어 인식률이 떨어지게 된다. 이점을 고려하며 PCA를 통하여서는 얼굴의 대략적 위치만을 가져오며, 그 위치 안에서 특징점을 추출하여 특징점 비교를 이용하여 얼굴 인식을 함으로 인식률을 높일 수 있다.
The feature vector space obtained by applying the PCA includes the features such as the change of illumination of the image and the change of expression of the face. Considering this, only the approximate position of the face is obtained through the PCA, and the recognition rate can be increased by extracting the feature points within the position and recognizing the face using the feature point comparison.

도 6은 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법에 있어서, 안면 부분의 이미지를 선별하는 단계를 설명하기 위해 도시한 도면이다. 도 6에 도시된 바와 같이, 다양한 얼굴 이미지로부터 Eigen face(얼굴 공통의 형태정보)를 형성하며, 수집된 이미지 중에서, 앞서 형성된 얼굴 공통의 형태정보와 유사한 형태를 가진 부분을 안면으로 인지하여 안면 부분 이미지로 선별할 수 있다.
FIG. 6 is a view illustrating a step of selecting an image of a face part in a heart rate monitoring method capable of identifying a user according to an embodiment of the present invention. As shown in FIG. 6, an Eigen face (face common shape information) is formed from various face images, and a face part is recognized as a face among the collected images having a similar shape to the face common shape information previously formed. Can be selected by image.

단계 S200은, 단계 S100에서 인지된 안면을 서버의 데이터베이스와 비교하여 사용자의 신원을 인증하는 단계이다. 실시예에 따라서, 단계 S200은, 단계 S100에서 인지된 안면의 특징점을 추출하는 단계, EBGM(Elastic Bunch graph matching) 방법을 통하여 추출된 특징점들의 기하학적 정보로부터 번치 그래프를 생성하는 단계, 및 생성된 번치 그래프를 이용하여 사용자의 신원을 인증하는 단계를 포함하여 구현될 수 있다.
Step S200 is a step of authenticating the user's identity by comparing the face recognized in step S100 with the database of the server. According to an embodiment, step S200 may include extracting feature points of the face recognized in step S100, generating a bunch graph from geometric information of feature points extracted through an elastic bundle graph matching (EBGM) method, and generated bunches. It may be implemented, including the step of authenticating the user's identity using the graph.

먼저, 단계 S100에서 인지된 안면의 특징점을 추출하는 단계를 구체적으로 살펴보도록 한다. 얼굴 인식 방법은 보통 이미지의 전체 (픽셀) 정보를 이용하기 때문에, 얼굴 이미지의 한 국소부분의 조그마한 조명, 자세, 표정 변화라도 인식 알고리즘에 영향을 미치게 되어 조명, 자세, 표정 변화 등에 덜 강인하다. 반면에 모델 기반 얼굴 인식 방법은 조명, 자세, 표정 변화를 감안하여 모델을 구성할 수 있으므로, 인식 시에 이러한 요인에 의한 영향을 줄일 수 있다. 모델 구성 시에 이용되는 특징 벡터로는 가버(Gabor) 특징 벡터(얼굴 이미지 특징점에 대해 가버 웨이블렛 커널을 컨볼루션하여 얻어진 계수)가 조명, 자세, 표정 변화에 대해 영향을 적게 받는다.
First, the step of extracting the facial feature points recognized in step S100 will be described in detail. Since the face recognition method usually uses the entire (pixel) information of the image, even small lighting, posture, and facial changes of a local part of the face image affect the recognition algorithm, which makes it less robust to lighting, posture, and facial expression changes. On the other hand, the model-based face recognition method can configure the model in consideration of changes in lighting, posture, and facial expression, thereby reducing the influence of these factors upon recognition. As the feature vector used in model construction, the Gabor feature vector (the coefficient obtained by convolving the Gabor wavelet kernel with respect to the face image feature point) is less affected by changes in illumination, posture, and facial expression.

가버(Gabor) 특징 벡터를 이용한 대표적인 얼굴 인식 방법에는 EBGM(Elastic Bunch graph matching)이 있다. EBGM에 의한 얼굴 인식 방법은 얼굴의 특징점들을 찾은 후 이 특징점들에서 가버 계수를 구하고 이를 이용하여 얼굴 인식을 수행한다. 이미지 기반 얼굴 인식 기법은 전체 이미지 정보를 사용하기 때문에 변화하는 환경에 대응하지 못하는 단점이 있으며, 이를 보완하기 위해 지역 정보를 사용하는 특징 벡터 기반 기법인 EBGM을 사용할 수 있다. EBGM은 눈, 코, 입과 같은 얼굴의 기하학적인 정보인 특징점에서 가버 계수를 구하고, 이 가버 계수들 간의 유사도를 비교하여 가장 유사도가 높은 사람을 인증하는 방식으로 이루어진다.
A typical face recognition method using Gabor feature vectors is EBGM (Elastic Bunch graph matching). In the face recognition method by EBGM, after finding feature points of a face, Gabor coefficients are obtained from the feature points, and face recognition is performed using them. The image-based face recognition technique has a disadvantage in that it cannot cope with changing environments because it uses the entire image information. To compensate for this, the EBGM, which is a feature vector based technique using local information, can be used. The EBGM obtains Gabor coefficients from feature points, which are geometrical information of the face such as eyes, nose, and mouth, and compares the similarities between these Gabor coefficients to authenticate the person with the highest similarity.

EBGM은 가버 웨이블렛 함수를 통해 이미지에서의 국부적인 주파수 특징만을 검출해 낼 수 있다. 가버 웨이블렛 필터를 이용하여 실수부와 허수부로 나누어 각각을 이산화하여, 가버 웨이블렛 마스크를 만들고 얼굴 영상에서의 특징점의 영역의 픽셀값들과 상승적분하여 얻어진 계수들을 구한다.
The EBGM can only detect local frequency features in the image through the Gabor wavelet function. The Gabor wavelet filter is divided into a real part and an imaginary part, respectively, to discretize each other to form a Gabor wavelet mask, and to obtain coefficients obtained by synthesizing pixel values of the region of the feature point in the face image.

다음으로, EBGM(Elastic Bunch graph matching) 방법을 통하여 추출된 특징점들의 기하학적 정보로부터 번치 그래프를 생성하는 단계를 보다 구체적으로 살펴본다. 여기서, 각 특징점에서 얻어진 계수들을 가버 젯이라고 하며, 가버 젯의 묶음을 번치라고 한다. 전체 얼굴 특징점들 각각의 번치의 모음이 번치 그래프이다. 보다 구체적으로, M개의 모델 이미지들에 대해서, 얼굴에 해당하는 부분을 찾은 다음 얼굴 자세를 똑바로 하여 얼굴 크기를 동일한 크기로 하는 정규화를 수행한 후, 정규화된 얼굴에서 각각의 특징점들을 검출하고 이 각각의 특징점들에 대한 가버 젯을 구할 수 있다. 이 때, M개의 모델 이미지 각각에서의 해당 특징점에서 얻어진 M개의 가버 젯, M개의 각 모델 이미지에서의 해당 특징점의 좌표 및 해당 특징점의 평균 위치를 묶은 것이 해당 특징점에서의 가버 번치(Gabor Bunch)가 되며, v개의 특징점들에서의 모든 가버 번치들의 집합을 모델 번치 그래프(Model Bunch Graph)라 한다. 모델 번치 그래프의 개념은 EBGM에서 도입되었다.
Next, the step of generating a bunch graph from the geometric information of the feature points extracted through the Elastic Bunch graph matching (EBGM) method will be described in more detail. Here, the coefficients obtained at each feature point are called Gabor Jets, and the bundles of Gabor Jets are called bunches. The collection of bunches of each of the full facial feature points is a bunch graph. More specifically, for M model images, a portion corresponding to a face is found, normalization is performed to make the face size the same with the face posture upright, and then each feature point is detected from each normalized face, You can get the Gabor Jet for the features of. In this case, the Gabor Bunch at the feature point is a combination of the M Gabor jets obtained at the feature points in each of the M model images, the coordinates of the feature points in the M model images, and the average positions of the feature points. The set of all Gabor bunches at the v feature points is called the Model Bunch Graph. The concept of model bunch graphs was introduced in EBGM.

모델 번치 그래프는 사용자의 신원을 인증하는 단계에서 사용될 수 있다. EBGM에서 사용되는 특징점 추출은 모델 번치 그래프의 수와 종류에 많은 영향을 받을 수 있다. 그렇기 때문에 모델 번치 그래프는 다양한 성별과 나이, 조명, 포즈, 표정을 고려하여 만들어야 한다. 즉, 모델 번치 그래프를 만드는데 사용되는 모델 이미지는, 다양한 포즈, 표정과 조명을 반영하여 고르게 선정하여야(randomly distributed) 각종 다양한 얼굴 이미지에 대해서 얼굴 특징점들의 검출이 잘될 수 있다.
The model bunch graph can be used to authenticate the user's identity. The feature point extraction used in EBGM can be greatly influenced by the number and type of model bunch graphs. For this reason, model bunch graphs should be created taking into account various genders, ages, lighting, poses, and facial expressions. That is, the model image used to create the model bunch graph should be evenly distributed by reflecting various poses, facial expressions, and lighting so that the facial feature points can be well detected for various various facial images.

번치 그래프를 이용하여 사용자의 신원을 인증하는 단계는, 인지된 사용자 안면의 번치 그래프와 데이터베이스(DB)에 존재하는 번치 그래프들의 유사도를 비교하여 가장 유사도가 높은 번치 그래프에 해당하는 사람으로 사용자의 신원을 인증할 수 있다.
In the step of authenticating the user's identity using the bunch graph, the identity of the user is the person corresponding to the bunch graph having the highest similarity by comparing the similarity between the bunch graph of the recognized user's face and the bunch graph existing in the database. Can be authenticated.

도 7은 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법에 있어서, 인지된 안면을 서버의 데이터베이스와 비교하여 사용자의 신원을 인증하는 단계를 도시한 도면이다. 도 7에 도시된 바와 같이, 인지된 안면으로부터 특징점을 추출하게 되면, 가버 웨이블렛 함수를 통해 특징점들의 가버(Gabor) 계수를 구하며, 각각의 특징점에서 얻어진 계수들을 묶어 번치를 생성하고, 전체 안면의 특징점들의 번치를 모아 번치 그래프를 생성할 수 있다. 나아가, 인지된 사용자 안면의 번치 그래프와 데이터베이스(DB)에 존재하는 번치 그래프들을 유사도를 비교하여 가장 유사도가 높은 번치 그래프에 해당하는 사람으로 사용자의 신원을 인증할 수 있다.
7 is a view illustrating a step of authenticating a user's identity by comparing a recognized face with a database of a server in a heart rate monitoring method capable of identifying a user's identity according to an embodiment of the present invention. As shown in FIG. 7, when the feature points are extracted from the recognized face, the Gabor coefficients of the feature points are obtained through the Gabor wavelet function, bundles of coefficients obtained at each feature point are generated, and a bunch is generated. You can collect bunches of fields to create a bunch graph. Furthermore, by comparing the similarity between the recognized bunch of graphs of the user's face and the bunch of graphs existing in the database DB, a user corresponding to the bunch graph having the highest similarity may be authenticated.

Point matching 기법은 컴퓨터비전과 패턴 인식 분야에서 가장 광범위하게 쓰이는 비교 기법이다. Point matching은 크게 두 가지로 분류 할 수 있는데, 이미지 시퀀스에서 추출한 목표 오브젝트의 변형도에 따라 rigid matching 과 non-rigid matching으로 나눌 수 있다. Non-rigid matching은 rigid matching 과 비교하였을 때 훨씬 복잡하다.
Point matching is the most widely used comparison technique in computer vision and pattern recognition. Point matching can be classified into two types, which can be classified into rigid matching and non-rigid matching according to the deformation degree of the target object extracted from the image sequence. Non-rigid matching is much more complicated than rigid matching.

Non-rigid matching의 경우 각 특징점 사이의 관계도가 목표 오브젝트의 변형도에 따라 변화폭이 심하여 비교하기에 어려움이 있다. 얼굴 특징점의 경우 표정이나 각도에 따라 변화폭이 심하여 매우 심한 non-rigid matching에 해당하며, 이를 해결하기 위해서는 효과적인 non-rigid matching 알고리즘이 필요하다.
In the case of non-rigid matching, the degree of change between the feature points is very difficult to compare according to the degree of deformation of the target object. In the case of facial feature points, the variation is severe depending on the facial expression or angle, which is very severe non-rigid matching. To solve this problem, an effective non-rigid matching algorithm is required.

본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법에서는, 효과적인 신원 확인을 위해서 특징점 비교에 Robust Point Matching-preserving Local Neighborhood Structure(RPM- LNS) 알고리즘을 변형한 Topology Preserving Relaxation Labeling(TPRL) 알고리즘을 사용 하여 point matching을 할 수 있다.
In the heart rate monitoring method that can identify the user according to an embodiment of the present invention, Topology Preserving Relaxation Labeling (Modification of Robust Point Matching-preserving Local Neighborhood Structure (RPM-LNS) algorithm for feature point comparison for effective identification TPRL) can be used for point matching.

단계 S300은, 단계 S100에서 인지된 안면 데이터로부터, 안면의 특징점을 기반으로, 심박동수 측정을 위한 좌표를 생성하는 단계이다. 단계 S300에서 심박동수 측정을 위한 좌표 생성을 위해 기반으로 삼는 안면의 특징점이란, 단계 S200에 의해 사용자의 신원을 인증하는 단계에서 추출된 특징점일 수 있다.
Step S300 is a step of generating coordinates for heart rate measurement based on facial feature points recognized in step S100. The facial feature point based on the generation of the coordinates for measuring the heart rate in step S300 may be the feature point extracted in the step of authenticating the user's identity in step S200.

얼굴에서 모세혈관이 밀집하여 있는 부위로는 이마와 뺨이 있다. 이에 따라, 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법에서는 측정부위로 이마와 뺨 두 부위가 바람직하나, 사람에 따라 머리카락이 이마를 가리는 경우가 발생하기 때문에 뺨에 해당하는 부분에 심박동수 측정을 위한 좌표를 생성하는 것이 바람직하다. 즉, 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법은, 추출된 특징점을 기반으로 사용자의 뺨에 해당하는 부분에 심박동수 측정을 위한 좌표를 생성할 수 있다.
Dense capillaries on the face include the forehead and cheeks. Accordingly, in the heart rate monitoring method capable of identifying a user according to an embodiment of the present invention, two portions of the forehead and the cheek are preferable as measurement sites, but the hair covers the forehead depending on the person, which corresponds to the cheek. It is desirable to generate the coordinates for measuring the heart rate at the part. That is, the heart rate monitoring method capable of identifying a user according to an embodiment of the present invention may generate coordinates for measuring heart rate at a portion corresponding to the cheek of the user based on the extracted feature points.

사용자의 뺨에 해당하는 부분에 심박동수 측정을 위한 좌표를 생성하는 단계를 보다 구체적으로 살펴보면, 얼굴의 특징점을 추출하였을 때 콧볼을 n(t), 귀를 e(t), 입가를 m(t)라 할 수 있다. 이 n(t), e(t), m(t) 세 점으로 이루어진 삼각형의 무게중심을 G(x,y)라 하며 이 점을 중심점으로 10 x 10 픽셀에서 값을 추출하여 평균을 취할 수 있다.Looking at the step of generating the coordinates for measuring the heart rate in the portion corresponding to the user's cheek in more detail, when the feature points of the face is extracted, the nostril n (t), ears e (t), mouth value m (t) It can be said. The center of gravity of the triangle consisting of three points n (t), e (t), and m (t) is called G (x, y), which can be averaged by extracting the value from 10 x 10 pixels. have.

Figure pat00001
Figure pat00001

단계 S400은, 단계 S300에서 생성된 좌표를 추적하여, 사용자의 심박동수를 측정하는 단계일 수 있다. 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법은, 생체조직의 광학적 특성을 이용하여 혈관에 흐르는 혈류량을 측정함으로써 심박동 상태를 측정하는 PPG(Photoplethysmography) 측정을 통하여, 사용자의 심박동수를 측정할 수 있다. 즉, 실시예에 따라서, 단계 S400은, BSS(Blind Source Separation)를 사용하여 단계 S100에서 선별된 안면 부분의 이미지로부터 독립인자분석(Independent Component Analysis: ICA) 알고리즘을 이용하여 독립인자를 추출하는 단계, 추출된 독립인자로부터, 생체조직의 광학적 특성을 이용하여 혈관에 흐르는 혈류량을 측정함으로써 심박동 상태를 측정하도록 하는 신호인 광용적맥파(Photoplethysmography: PPG) 신호를 추출하는 단계, 및 추출된 광용적맥파(PPG) 신호로부터 심박동수를 측정하는 단계를 포함하여 구현될 수 있다.
In operation S400, the coordinates generated in operation S300 may be tracked to measure a heart rate of the user. Heart rate monitoring method that can identify the user according to an embodiment of the present invention, through the PPG (Photoplethysmography) measurement to measure the heart rate by measuring the blood flow through the blood vessels using the optical characteristics of the tissue, the user's You can measure your heart rate. That is, according to an embodiment, step S400 may be performed by extracting an independent factor from an image of the face portion selected in step S100 using BSS (Independent Component Analysis (ICA)) algorithm. Extracting a photoplethysmography (PPG) signal, which is a signal for measuring a heartbeat state by measuring blood flow through blood vessels using optical characteristics of biological tissues, and extracted light volume pulse waves from the extracted independent factors And measuring heart rate from the (PPG) signal.

보다 구체적으로는, BSS(Blind Source Separation)를 사용하여 단계 S100에서 선별된 안면 부분의 이미지로부터 독립인자분석(Independent Component Analysis: ICA) 알고리즘을 이용하여 독립인자를 추출하는 단계에서는, 카메라의 RGB 채널 또는 COG 채널 중 적어도 하나로부터 독립인자를 추출할 수 있다.
More specifically, in the step of extracting the independent factor using the Independent Component Analysis (ICA) algorithm from the image of the face portion selected in step S100 using BSS (Blind Source Separation), the RGB channel of the camera Alternatively, the independent factor may be extracted from at least one of the COG channels.

심박동수, 호흡률과 같은 생체신호는 일반 카메라와 적절한 조명만으로 측정할 수 있다. 또한, 카메라를 통한 생체신호 측정에 있어서 얼굴은 광용적맥파(Photoplethysmography: PPG) 신호를 추출하기 좋은 부위이다. 이 때, RGB 채널을 통하여 측정할 경우 녹색 채널이 적색이나 청색 채널 보다 심박동수와 호흡률을 측정하기에 적합할 수 있다. 이는 혈액의 발색요인이 되는 헤모글로빈과 산화 헤모글로빈의 광 흡수 파장이 520~580㎚이며, 이 주파수는 카메라의 녹색 필터의 주파수 대역폭에 속하기 때문이다.
Biological signals, such as heart rate and respiration rate, can be measured only with ordinary cameras and with appropriate lighting. In addition, in the measurement of the bio-signal through the camera, the face is a good region for extracting a photoplethysmography (PPG) signal. In this case, when measuring through the RGB channel, the green channel may be more suitable for measuring the heart rate and respiration rate than the red or blue channel. This is because the light absorption wavelength of hemoglobin and oxidized hemoglobin, which are the color development factors of blood, is 520-580 nm, and this frequency belongs to the frequency bandwidth of the green filter of the camera.

본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법에서는, Blind Source Separation(BSS)을 사용하여 카메라의 RGB 채널로부터 세 개의 독립 인자를 추출할 수 있다. 도 8은 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법에 있어서, 카메라의 RGB 채널로부터 세 개의 독립인자를 추출하는 단계를 설명하기 위해 도시한 도면이다. 도 8에 도시된 바와 같이, Blind Source Separation(BSS)을 사용하여 카메라의 RGB 채널로부터 세 개의 독립 인자를 추출할 수 있다. 또한, 이 과정에서 독립인자분석(Independent component Analysis: ICA) 알고리즘을 이용할 수 있다. 이렇게 추출된 세 개의 독립 인자 중 하나로부터 PPG(Photoplethysmography)를 추출할 수 있다.
In the heart rate monitoring method capable of identifying a user according to an embodiment of the present invention, three independent factors may be extracted from an RGB channel of a camera using blind source separation (BSS). 8 is a view illustrating a step of extracting three independent factors from an RGB channel of a camera in a heart rate monitoring method capable of identifying a user according to an embodiment of the present invention. As shown in FIG. 8, three independent factors may be extracted from the RGB channel of the camera using Blind Source Separation (BSS). In addition, the Independent Component Analysis (ICA) algorithm can be used in this process. PPG (Photoplethysmography) can be extracted from one of the three independent factors.

독립 성분 분석(Independent Component Analysis: ICA)은 다변량의 신호를 통계적으로 독립적인 하부 성분으로 분리하는 계산 방법이다. 각 성분은 비-가우스성(Non-Gaussianity) 신호로서 서로 통계적 독립을 이루는 성분으로 구성되어 있다. 독립 성분 분석은 블라인드 신호를 분리하는 특별한 방법일 수 있다.
Independent Component Analysis (ICA) is a calculation method that separates multivariate signals into statistically independent subcomponents. Each component is composed of components that are statistically independent of each other as a non-Gaussianity signal. Independent component analysis can be a special way of separating blind signals.

독립성의 가정이 옳다면, 혼합 신호의 독립 성분 분석은 좋은 결과를 도출할 수 있다. 혼합 신호가 아닌 경우에도, 분석을 위해 동일한 방법을 사용할 수 있다. 전형적인 독립 성분 분석의 응용으로, 실내에서 녹음 된 여러 사람의 대화에서 특정 인물의 목소리를 빼내는 음원 분리가 있다. 일반적으로 지연이나 반응이 없다고 가정하면 문제가 단순화된다. 고려해야 할 중요한 점은 N개의 자원이 있는 경우 개별을 분리하려면 적어도 N개의 관측 장치(마이크 등)가 필요하다. 이 통계적 기법은 예측되는 성분의 통계적 독립성을 최대화하도록 그 독립 성분(요소, 잠재적 변수, 소스 등)을 찾아낼 수 있다. 중심 극한 정리에 따르면, 비-가우스성(Non-Gaussianity)은 성분의 독립성을 측정하는 하나의 방법이다. 또한, 상호 정보량도 신호 간의 독립성을 측정하는 척도가 된다. 독립 성분 분석의 전형적인 알고리즘은 복잡성을 줄이기 위한 전 단계로서 중심화(centering), 백색화(whitening), 차원 감소(dimensionality reduction) 등의 과정이 필요하다. 백색화와 차원 감소는 주 성분 분석(Principal Component Analysis)과 특이 값 분해(Singular value decomposition)로 한다. 독립 성분 분석의 알고리즘으로는 Infomax, FastICA, JADE 등이 있다. 독립 성분 분석은 블라인드 신호 분리에 중요하며 구체적인 응용이 얼마든지 있을 수 있다.
If the assumption of independence is correct, independent component analysis of mixed signals can yield good results. Even if it is not a mixed signal, the same method can be used for analysis. A typical application of independent component analysis is the separation of sound sources that draw out the voices of certain people from the conversations of several people recorded indoors. In general, assuming no delay or response, the problem is simplified. An important point to consider is that if there are N resources, at least N observation devices (such as microphones) are required to separate them. This statistical technique can find the independent components (elements, potential variables, sources, etc.) to maximize the statistical independence of the predicted components. According to the central limit theorem, Non-Gaussianity is one method of measuring the independence of components. The amount of mutual information also serves as a measure of independence between signals. Typical algorithms for independent component analysis require steps such as centering, whitening, and dimensionality reduction as a first step in reducing complexity. Whitening and dimension reduction are done by principal component analysis and singular value decomposition. Algorithms for independent component analysis include Infomax, FastICA, and JADE. Independent component analysis is important for blind signal separation and there are many specific applications.

카메라를 이용한 생체데이터 측정에는 RGB 채널을 사용하는 것보다 COG(cyan, orange and green) 채널을 이용하는 것이 더 적합할 수 있다. COG 채널의 경우, 각각의 채널이 Cyan(470~570㎚), Green(520~620㎚) 그리고 Orange(530~630㎚)로서, 이는 헤모글로빈과 산화 헤모글로빈의 광흡수 파장과 더 많이 겹치기 때문이다.
It may be more suitable to use a cyan, orange and green (COG) channel than to use an RGB channel for measuring biological data using a camera. For COG channels, each channel is Cyan (470-570 nm), Green (520-620 nm) and Orange (530-630 nm) because it overlaps more with the light absorption wavelengths of hemoglobin and oxidized hemoglobin.

최근 여러 연구가 진행됨에도 불구하고 생체 데이터 측정 시에는 여러 가지 문제점이 존재하는데, 그 중 가장 빈번하게 생기는 문제점은 조명상태와 측정대상의 움직임에 따라 측정값이 민감하게 변하는 것이다. 특히, 측정대상자의 회전의 경우 색을 측정하는 좌표가 크게 변경되므로 지속적인 측정에 어려움이 있다. 따라서 시스템을 개발하는데 있어 조도 변화를 상쇄할 수 있으며 측정대상의 움직임이 있더라도 지속적으로 측정이 가능한 시스템 개발이 필요하다.
Despite the recent research, there are various problems in measuring biometric data. The most frequent problem is that the measured value is sensitively changed depending on the lighting condition and the movement of the object. In particular, in the case of rotation of the measurement target, since the coordinates for measuring the color are greatly changed, there is a difficulty in continuous measurement. Therefore, in developing the system, it is possible to offset the change in illuminance and develop a system that can continuously measure even if there is a movement of the measurement object.

본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법에서 단계 S400은, 단계 S300에서 생성된 심박동수 측정을 위한 좌표의, 광학적 특성에 따른 색상변화를 이용하여 사용자의 심박동수를 측정하는 것일 수 있다. 이 때, 심박동수 측정을 위한 좌표는, 앞서 살펴본 것과 같은 방법으로 사용자의 뺨에 해당하는 부분에 생성된 좌표에 해당할 수 있다.
In the heart rate monitoring method capable of identifying the user according to an embodiment of the present invention, step S400 is used to determine the heart rate of the user by using a color change according to optical characteristics of the coordinates for measuring the heart rate generated in step S300. It may be to measure. In this case, the coordinates for measuring the heart rate may correspond to the coordinates generated in the portion corresponding to the cheek of the user in the same manner as described above.

광학적 특성에 따른 색상변화를 이용하는 것은, 기본적으로 카메라를 이용하여 심박동수를 측정하는 것이다. 감지된 얼굴 영역에서 카메라를 이용하여 심박동수를 측정하는 방법은 기본적으로 PPG 측정 원리와 같다.
By using the color change according to the optical characteristics, basically measuring the heart rate using a camera. The method of measuring heart rate using a camera in the detected face area is basically the same as that of PPG.

일반적으로, PPG측정에 사용되는 센서는 광센서 즉, 광을 전하로 변환시키는 소자로, 광전변환소자가 센서라 할 수 있으며, 포토 다이오드가 주로 사용될 수 있다. 렌즈를 통해서 들어온 광이 광전변환소자에 전달되면 여기서 광이 전하로 변환되며, 이 변환된 전하는 전하결합소자를 통해서 각 픽셀 위치의 광의 세기를 DSP을 통하여 중앙처리장치로 전달되어 화상을 구현한다. 과거에는 물체의 빛을 감지하는 방식이었으나, 지금은 기계에서 광원을 제공한 뒤, 빛이 부딪혀 반사되어 오는 것을 토대로 그 물체의 정보를 얻는 방식을 사용할 수 있다. 이러한 원리를 이용하는 광용적맥파는 특정 파장대역의 빛을 인체에 조사하고 반사 또는 투과된 광을 검출한 신호로 심장 박동에 따라 발생하는 맥동성분을 나타내는 신호이다.
In general, a sensor used for PPG measurement is an optical sensor, that is, a device for converting light into electric charge, and the photoelectric conversion device may be called a sensor, and a photodiode may be mainly used. When the light entering through the lens is transferred to the photoelectric conversion element, the light is converted into electric charge, and the converted electric charge is transferred to the central processing unit through the DSP to the intensity of the light at each pixel position through the charge coupling device to realize an image. In the past, it was a way to detect the light of an object, but now you can use the method of obtaining information about the object based on the light hitting and reflecting after the machine provides a light source. Optical volume pulse wave using this principle is a signal indicating the pulsation component generated in accordance with the heartbeat as a signal that irradiates the body with light of a specific wavelength band and detects reflected or transmitted light.

PPG 측정은 생체조직의 광학적 특성을 이용하여 혈관에 흐르는 혈류량을 측정함으로써 심박동수를 추정하는 방법일 수 있다. PPG는 말초혈관으로 혈액이 흐를 때 심장의 이완기와 수축기 사이에 혈액의 흐름이 느려지는데, 이는 혈관 내 투명도의 변화를 일으키며 이 투명도 변화를 감지하는 것을 기본으로 한다. 이러한 형상은 신체의 말초조직 얼굴이나 손가락 귓볼 등에서 확실히 측정할 수 있으며 일반 PPG 측정의 경우 손가락을 이용하여 측정한다.
PPG measurement may be a method of estimating the heart rate by measuring the blood flow through the blood vessel using the optical characteristics of the biological tissue. PPG slows down the flow of blood between the heart's diastolic and systolic phases when blood flows into the peripheral blood vessels, which are based on detecting changes in the transparency of the blood vessels. This shape can be reliably measured in the peripheral tissues of the body or in the earlobe of the finger.

이와 같은 원리를 얼굴에 적용할 경우, 심박동 상태에 따라 얼굴 피부의 혈관내 혈류량 또한 마찬가지로 변화할 것이며, 이를 카메라를 통하여 측정하여 분석함으로써 심박동 상태를 추정할 수 있다.
When this principle is applied to the face, the blood flow in the blood vessels of the face skin will be changed according to the heartbeat state, and the heartbeat state can be estimated by measuring and analyzing this through a camera.

카메라를 이용한 심박동수 측정에서는, 카메라를 향한 사람의 얼굴을 녹화하여 분석함으로써 광학적 신호 p(t)를 추출한다. 녹화한 영상은 신호의 세기에 따라 각 프레임별로 V(x,y,t)의 형태로 나타낸다. 각각의 비디오 프레임은 얼굴로부터 반사되어 나온 빛을 각각의 x,y 좌표에 픽셀값으로 저장하며, 카메라 센서가 여러 가지 색상을 측정하는 경우(e.g. red, green, blue) 한 프레임에 색상채널 별로 분리된 여러 개의 데이터 값을 얻을 수 있다(e.g. Vr(x,y,t), Vg(x,y,t), Vb(x,y,t)). 또한, 녹화한 영상의 V(x,y,t) 역시 조명의 세기와 피부의 반사율의 두 가지 요소로 구성되어 있을 수 있다(V(x,y,t)=I(x,y,t)R(x,y,t)).
In the heart rate measurement using a camera, the optical signal p (t) is extracted by recording and analyzing a person's face facing the camera. The recorded video is represented in the form of V (x, y, t) for each frame according to the signal strength. Each video frame stores the light reflected from the face in pixel values at its x and y coordinates, and separates it by color channel in one frame when the camera sensor measures different colors (eg red, green, blue). Multiple data values (eg V r (x, y, t), V g (x, y, t), V b (x, y, t)). In addition, V (x, y, t) of the recorded image may also be composed of two factors, the intensity of illumination and the reflectance of the skin (V (x, y, t) = I (x, y, t)). R (x, y, t)).

조명의 세기 I(x,y,t)는 얼굴에 비춰지는 모든 빛을 나타낸다. 카메라를 이용한 심박동수 측정 시에는 측정 부위에 일정한 조명의 세기가 필요하다. 피부의 반사율 R(x,y,t)은 피부로부터 반사된 빛의 세기를 나타내는데 이는 피부표면의 반사와 피하조직의 반사, 이 두 종류의 반사로 이루어져 있다.
The intensity I (x, y, t) of light represents all the light shining on the face. When measuring the heart rate using a camera, a constant light intensity is required at the measurement site. The skin's reflectance, R (x, y, t), represents the intensity of light reflected from the skin, which consists of two types of reflections: the skin surface and the subcutaneous tissue.

추출된 신호의 세기 V(x,y,t)에서 혈류량이 일정하다고 할 수 있을 만큼 작은 영역(Regions of interests: ROIs)으로 나누어 주며 R로 나타내어 준다. 이때 yi(t)는 시간 t에 따른 ROI Ri의 픽셀값의 평균값이며, i는 R의 인덱스 값이다. 또한 ROI Ri의 빛의 세기 I(x,y)는 일정하며 Ii로 나타낼 경우 yi(t)는 yi(t)=Ii(ai×p(t)+bi)+qi(t)와 같이 나타낼 수 있다.
In the intensity V (x, y, t) of the extracted signal, the blood flow is divided into regions (ROIs) small enough to be said to be constant and represented by R. In this case, y i (t) is an average value of pixel values of ROI R i over time t, and i is an index value of R. In addition, the light intensity I (x, y) of ROI R i is constant, and when expressed as I i , y i (t) is y i (t) = I i (a i × p (t) + b i ) + q It can be expressed as i (t).

위의 식에서 Ii는 ROI Ri의 빛의 세기를 나타내며, ai는 혈류의 세기를 말한다. 또한, bi는 얼굴 피부 표면에서의 반사율을 말하며, qi(t)는 카메라 양자화 노이즈를 나타낸다. ROI Ri에 Ii의 빛이 비춰질 때 많은 양의 반사(bi)가 피부표면에서 이루어진다. 이 값의 경우 혈류에 따른 변화가 전혀 영향을 미치지 못하는 값이다. 하지만 일부분의 빛이 피부표면을 뚫고 들어가서 혈류변화에 따라 반사량이 달라진다. 이 값을 p(t)로 나타낸다. 또한 ai는 피의 주요 발색요인인 헤모글로빈과 산화헤모글로빈의 빛의 흡수량과 조사하는 빛의 파장에 따라 변화를 보인다. 따라서 피부표면 아래의 빛의 반사에 기여하는 두 요인 ai와 p(t)로 피하 반사율을 구할 수 있다. 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법에서는, 두 발색요인인 헤모글로빈과 산화헤모글로빈의 빛 흡수율이 가장 높은 파장인 녹색채널을 사용하는 것이 바람직할 수 있다.
In the above formula, I i represents the light intensity of ROI R i and a i represents the intensity of blood flow. In addition, b i refers to the reflectance on the face skin surface, q i (t) represents the camera quantization noise. When the ROI R i I i bichwojil the light of the large amount of reflection (b i) is made from the skin surface. In this case, the change in blood flow has no effect. However, part of the light penetrates the surface of the skin, and the amount of reflection changes as the blood flow changes. This value is represented by p (t). In addition, a i varies with the absorption of light and the wavelength of light irradiated by hemoglobin and oxidized hemoglobin, the main color development factors of blood. Therefore, the subcutaneous reflectance can be determined by two factors a i and p (t) which contribute to the reflection of light below the skin surface. In a heart rate monitoring method capable of identifying a user according to an embodiment of the present invention, it may be desirable to use a green channel having the highest wavelength of light absorption of hemoglobin and oxidized hemoglobin.

도 9는 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법에 있어서, 안면 부위에 따른 사용자의 심박동수를 측정하는 단계를 설명하기 위해 도시한 도면이다. 도 9에 도시된 바에 따르면, 뺨에 해당하는 부분(y1(t))에서 그래프가 선명하게 나타나는 바, 심박동수 모니터링이 효과적으로 일어날 수 있음을 알 수 있다.
9 is a view illustrating a step of measuring a heart rate of a user according to a facial part in a heart rate monitoring method capable of identifying a user according to an embodiment of the present invention. As shown in FIG. 9, the graph clearly appears in the portion y 1 (t) corresponding to the cheek, and it can be seen that heart rate monitoring can be effectively performed.

도 10은 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템(10)의 블럭도를 도시한 도면이다. 도 10에 도시된 바와 같이, 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템(10)은, 안면 인지부(100), 신원 인증부(200), 좌표 생성부(300) 및 심박동수 측정부(400)를 포함하여 구성될 수 있다.
10 is a block diagram of a heart rate monitoring system 10 capable of identifying a user according to an embodiment of the present invention. As shown in FIG. 10, the heart rate monitoring system 10 capable of identifying a user according to an embodiment of the present invention includes a face recognition unit 100, an identity authentication unit 200, and a coordinate generation unit 300. ) And heart rate measurement unit 400 may be configured.

보다 구체적으로는, 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템(10)은, 심박동수 모니터링 시스템으로서, 카메라를 통하여 수집한 이미지 시퀀스에서 사용자의 안면을 인지하는 안면 인지부(100), 안면 인지부(100)에서 인지된 안면을 서버의 데이터베이스와 비교하여 사용자의 신원을 인증하는 신원 인증부(200), 안면 인지부(100)에서 인지된 안면 데이터로부터, 안면의 특징점을 기반으로, 심박동수 측정을 위한 좌표를 생성하는 좌표 생성부(300), 및 좌표 생성부(300)에서 생성된 좌표를 추적하여, 사용자의 심박동수를 측정하는 심박동수 측정부(400)를 포함할 수 있다.
More specifically, the heart rate monitoring system 10 capable of identifying a user according to an embodiment of the present invention is a heart rate monitoring system, which recognizes a user's face in an image sequence collected through a camera. From the facial data recognized by the identity authentication unit 200 and the facial recognition unit 100 to authenticate the user's identity by comparing the face recognized by the unit 100, the facial recognition unit 100 with the database of the server, Based on the feature points, the coordinate generator 300 for generating the coordinates for measuring the heart rate, and tracking the coordinates generated by the coordinate generator 300, heart rate measurement unit 400 for measuring the heart rate of the user It may include.

안면 인지부(100)는, 카메라를 통하여 수집한 이미지 시퀀스에서 사용자의 안면을 인지할 수 있다. 도 11은 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템(10)에 있어서, 안면 인지부(100)의 블럭도를 도시한 도면이다. 도 11에 도시된 바와 같이, 안면 인지부(100)는, 카메라를 통하여 이미지를 수집하는 이미지 수집 모듈(110), 및 이미지 수집 모듈(110)에서 수집된 이미지로부터 안면 부분의 이미지를 선별하는 안면 이미지 선별 모듈(120)을 포함하여 구성될 수 있다.
The face recognizing unit 100 may recognize the face of the user in the image sequence collected through the camera. 11 is a block diagram of the face recognition unit 100 in the heart rate monitoring system 10 capable of identifying a user according to an embodiment of the present invention. As illustrated in FIG. 11, the face recognizing unit 100 may include an image collecting module 110 for collecting an image through a camera, and a face for selecting an image of a face part from the image collected by the image collecting module 110. It may be configured to include an image selection module 120.

신원 인증부(200)는, 안면 인지부(100)에서 인지된 안면을 서버의 데이터베이스와 비교하여 사용자의 신원을 인증할 수 있다. 도 12는 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템(10)에 있어서, 신원 인증부(200)의 블럭도를 도시한 도면이다. 도 12에 도시된 바와 같이, 신원 인증부(200)는, 안면 인지부(100)에서 인지된 안면의 특징점을 추출하는 특징점 추출 모듈(210), EBGM(Elastic Bunch graph matching) 방법을 통하여 특징점 추출 모듈(210)에서 추출된 특징점들의 기하학적 정보로부터 번치 그래프를 생성하는 번치 그래프 생성 모듈(220), 및 번치 그래프 생성 모듈(220)에서 생성한 번치 그래프를 이용하여 사용자의 신원을 인증하는 인증 모듈(230)을 포함할 수 있다.
The identity authenticator 200 may authenticate the user's identity by comparing the face recognized by the facial recognition unit 100 with a database of the server. 12 is a block diagram of the identity authentication unit 200 in the heart rate monitoring system 10 capable of identifying a user according to an embodiment of the present invention. As shown in FIG. 12, the identity authentication unit 200 extracts the feature points through the feature point extraction module 210 and the EBGM (Elastic Bunch graph matching) method, which extracts the feature points of the face recognized by the face recognition unit 100. Bunch graph generation module 220 for generating a bunch graph from the geometric information of the feature points extracted in the module 210, and an authentication module for authenticating the identity of the user using the bunch graph generated in the bunch graph generation module 220 ( 230).

실시예에 따라서, 인증 모듈(230)은, 인지된 사용자 안면의 번치 그래프와 데이터베이스(DB)에 존재하는 번치 그래프들의 유사도를 비교하여 가장 유사도가 높은 번치 그래프에 해당하는 사람으로 사용자의 신원을 인증할 수 있다.
According to an embodiment, the authentication module 230 compares the similarity of the bunch graphs of the recognized user face with the bunch graphs existing in the database to authenticate the user's identity as a person corresponding to the bunch graph with the highest similarity. can do.

각각의 구성들과 관련된 상세한 내용들은, 앞서 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 방법과 관련하여 충분히 설명되었으므로, 상세한 설명은 생략하기로 한다.
Details related to each configuration have been described above with reference to a heart rate monitoring method capable of identifying a user according to an embodiment of the present invention, and a detailed description thereof will be omitted.

전술한 바와 같이, 본 발명에서 제안하고 있는 사용자의 신원 파악이 가능한 심박동수 모니터링 방법 및 시스템에 따르면, 사용자의 신원을 파악할 수 있도록 하며, 카메라를 통하여 심박동수를 측정함으로써, 보다 쉽고 간편하게 사용자의 심박동수를 수집하고 처리할 수 있도록 한다.
As described above, according to the heart rate monitoring method and system which can identify the user's identity proposed in the present invention, it is possible to determine the user's identity, and by measuring the heart rate through the camera, the user's heart rate Allow the water to be collected and processed.

이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention described above may be variously modified or applied by those skilled in the art, and the scope of the technical idea according to the present invention should be defined by the following claims.

10: 본 발명의 일실시예에 따른 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템
100: 안면 인지부
110: 이미지 수집 모듈
120: 안면 이미지 선별 모듈
200: 신원 인증부
210: 특징점 추출 모듈
220: 번치 그래프 생성 모듈
230: 인증 모듈
300: 좌표 생성부
400: 심박동수 측정부
S100: 카메라를 통하여 수집한 이미지 시퀀스에서 사용자의 안면을 인지하는 단계
S200: 단계 S100에서 인지된 안면을 서버의 데이터베이스와 비교하여 사용자의 신원을 인증하는 단계
S300: 단계 S100에서 인지된 안면 데이터로부터, 안면의 특징점을 기반으로, 심박동수 측정을 위한 좌표를 생성하는 단계
S400: 단계 S300에서 생성된 좌표를 추적하여, 같은 부위의 색상변화를 이용하여 사용자의 심박동수를 측정하는 단계
10: heart rate monitoring system capable of identifying the user according to an embodiment of the present invention
100: facial recognition
110: image acquisition module
120: facial image screening module
200: Identity Verification Unit
210: feature point extraction module
220: bunch graph generation module
230: authentication module
300: coordinate generation unit
400: heart rate measurement unit
S100: step of recognizing the user's face in the image sequence collected through the camera
S200: Step of authenticating the user's identity by comparing the face recognized in step S100 with the database of the server
S300: generating coordinates for heart rate measurement based on facial feature points from the facial data recognized in step S100
S400: tracking the coordinates generated in step S300, measuring the heart rate of the user by using the color change of the same area

Claims (20)

심박동수 모니터링 방법으로서,
(1) 카메라를 통하여 수집한 이미지 시퀀스에서 사용자의 안면을 인지하는 단계;
(2) 상기 단계 (1)에서 인지된 안면을 서버의 데이터베이스와 비교하여 사용자의 신원을 인증하는 단계;
(3) 상기 단계 (1)에서 인지된 안면 데이터로부터, 안면의 특징점을 기반으로, 심박동수 측정을 위한 좌표를 생성하는 단계; 및
(4) 상기 단계 (3)에서 생성된 좌표를 추적하여, 사용자의 심박동수를 측정하는 단계를 포함하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 방법.
As a heart rate monitoring method,
(1) recognizing a face of a user in an image sequence collected through a camera;
(2) authenticating the user's identity by comparing the face recognized in step (1) with a database of a server;
(3) generating coordinates for heart rate measurement based on facial feature points from the facial data recognized in step (1); And
(4) measuring the heart rate of the user by tracking the coordinates generated in step (3), the heart rate monitoring method capable of identifying the user.
제1항에 있어서, 상기 단계 (1)에서는,
이미지 시퀀스를 수집하기 위한 상기 카메라로서 웹캠(Webcam)을 사용하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 방법.
The method of claim 1, wherein in step (1),
Using a webcam (Webcam) as the camera for collecting the image sequence, Heart rate monitoring method that can identify the user.
제1항에 있어서, 상기 단계 (1)은,
(1-1) 카메라를 통하여 이미지를 수집하는 단계; 및
(1-2) 상기 단계 (1-1)에서 수집된 이미지로부터 안면 부분의 이미지를 선별하는 단계를 포함하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 방법.
The method of claim 1, wherein step (1) comprises:
(1-1) collecting an image through a camera; And
(1-2) characterized in that it comprises the step of selecting the image of the face portion from the image collected in the step (1-1), the heart rate monitoring method capable of identifying the user.
제3항에 있어서, 상기 단계 (1-2)에서는,
PCA(Principal Component Analysis)를 이용해서 얼굴 공통의 형태정보(Eigen face)를 형성하여, 상기 단계 (1-1)에서 수집된 이미지 중에서, 상기 형성된 얼굴 공통의 형태정보와 유사한 형태를 가지고 있는 부분을 사람의 안면 부분 이미지로 선별하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 방법.
The method of claim 3, wherein in step (1-2),
By using PCA (Principal Component Analysis) to form a common face information (Eigen face), from the image collected in the step (1-1), the portion having a similar shape to the shape information common to the formed face A heart rate monitoring method capable of identifying a user, characterized in that the image is selected by a face image of a person.
제1항에 있어서, 상기 단계 (2)는,
(2-1) 상기 단계 (1)에서 인지된 안면의 특징점을 추출하는 단계;
(2-2) EBGM(Elastic Bunch graph matching) 방법을 통하여 상기 단계 (2-1)에서 추출된 특징점들의 기하학적 정보로부터 번치 그래프를 생성하는 단계; 및
(2-3) 상기 단계 (2-2)에서 생성한 번치 그래프를 이용하여 사용자의 신원을 인증하는 단계를 포함하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 방법.
The method of claim 1, wherein step (2) comprises:
(2-1) extracting facial feature points recognized in step (1);
(2-2) generating a bunch graph from the geometric information of the feature points extracted in the step (2-1) through the EBGM (Elastic Bunch graph matching) method; And
(2-3) comprising the step of authenticating the identity of the user using the bunch graph generated in the step (2-2), the heart rate monitoring method capable of identifying the user.
제5항에 있어서, 상기 단계 (2-2)에서는,
가버(Gabor) 웨이블렛 함수를 통해 상기 특징점들의 가버(Gabor) 계수를 구하며, 각각의 특징점의 가버(Gabor) 계수들을 묶어 번치를 생성하고, 전체 안면의 특징점들의 번치를 모아 상기 번치 그래프를 생성하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 방법.
The method according to claim 5, wherein in step (2-2),
Obtaining the Gabor coefficients of the feature points through a Gabor wavelet function, generating the bunches by combining the Gabor coefficients of each feature point, and generating the bunch graphs by collecting the bunches of the feature points of the entire face. Characterized in that the heart rate monitoring method that can identify the user.
제5항에 있어서, 상기 단계 (2-3)에서는,
인지된 사용자 안면의 번치 그래프와 데이터베이스(DB)에 존재하는 번치 그래프들의 유사도를 비교하여 가장 유사도가 높은 번치 그래프에 해당하는 사람으로 사용자의 신원을 인증하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 방법.
The method according to claim 5, wherein in step (2-3),
The user's identity can be identified by comparing the similarity between the perceived bunch graph of the user's face and the bunch graphs present in the database. How to monitor your heart rate.
제7항에 있어서, 상기 단계 (2-3)에서는,
Point matching 기법 중에서 Non-rigid matching 기법을 이용하여 유사도를 비교하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 방법.
The method according to claim 7, wherein in step (2-3),
A heart rate monitoring method capable of identifying a user, characterized by comparing similarity using a non-rigid matching method among the point matching techniques.
제8항에 있어서, 상기 단계 (2-3)에서는,
상기 Non-rigid matching 기법을 이용하기 위하여 Topology Preserving Relaxation Labeling(TPRL) 알고리즘을 사용하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 방법.
The method according to claim 8, wherein in step (2-3),
In order to use the non-rigid matching technique, Topology Preserving Relaxation Labeling (TPRL) algorithm, characterized in that the user can identify the heart rate monitoring method.
제1항에 있어서, 상기 단계 (3)에서는,
상기 추출된 특징점을 기반으로 사용자의 뺨에 해당하는 부분에 심박동수 측정을 위한 좌표를 생성하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 방법.
The method of claim 1, wherein in step (3),
Based on the extracted feature point to generate a coordinate for measuring the heart rate in a portion corresponding to the cheek of the user, heart rate monitoring method capable of identifying the user.
제1항에 있어서, 상기 단계 (4)는,
(4-1) BSS(Blind Source Separation)를 사용하여 상기 단계 (1)에서 선별된 안면 부분의 이미지로부터 독립인자분석(Independent Component Analysis: ICA) 알고리즘을 이용하여 독립인자를 추출하는 단계;
(4-2) 상기 단계 (4-1)에서 추출된 독립인자로부터, 생체조직의 광학적 특성을 이용하여 혈관에 흐르는 혈류량을 측정함으로써 심박동 상태를 측정하도록 하는 신호인 광용적맥파(Photoplethysmography: PPG) 신호를 추출하는 단계; 및
(4-3) 상기 단계 (4-2)에서 추출된 광용적맥파(PPG) 신호로부터 심박동수를 측정하는 단계를 포함하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 방법.
The method of claim 1, wherein step (4) comprises:
(4-1) extracting an independent factor using an independent component analysis (ICA) algorithm from the image of the face portion selected in step (1) using blind source separation (BSS);
(4-2) Photoplethysmography (PPG), which is a signal for measuring a heartbeat state by measuring blood flow through blood vessels using optical properties of biological tissues from the independent factor extracted in step (4-1). Extracting the signal; And
(4-3) measuring the heart rate from the optical volume pulse wave (PPG) signal extracted in the step (4-2), the heart rate monitoring method capable of identifying the user.
제11항에 있어서, 상기 단계 (4-1)에서는,
상기 카메라의 RGB 채널로부터 세 개의 독립인자를 추출하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 방법.
The method according to claim 11, wherein in step (4-1),
Extracting three independent factors from the RGB channel of the camera, heart rate monitoring method capable of identifying the user.
제11항에 있어서, 상기 단계 (4-1)에서는,
상기 카메라의 COG(Cyan, Orange, Green) 채널로부터 세 개의 독립인자를 추출하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 방법.
The method according to claim 11, wherein in step (4-1),
Extracting three independent factors from the COG (Cyan, Orange, Green) channel of the camera, Heart rate monitoring method that can identify the user.
제1항에 있어서, 상기 단계 (4)는,
상기 단계 (3)에서 생성된 심박동수 측정을 위한 좌표의, 광학적 특성에 따른 색상변화를 이용하여 사용자의 심박동수를 측정하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 방법.
The method of claim 1, wherein step (4) comprises
Measuring the heart rate of the user using the color change according to the optical characteristics of the coordinates for measuring the heart rate generated in the step (3), heart rate monitoring method capable of identifying the user.
심박동수 모니터링 시스템으로서,
카메라를 통하여 수집한 이미지 시퀀스에서 사용자의 안면을 인지하는 안면 인지부(100);
상기 안면 인지부(100)에서 인지된 안면을 서버의 데이터베이스와 비교하여 상기 사용자의 신원을 인증하는 신원 인증부(200);
상기 안면 인지부(100)에서 인지된 안면 데이터로부터, 안면의 특징점을 기반으로, 심박동수 측정을 위한 좌표를 생성하는 좌표 생성부(300); 및
상기 좌표 생성부(300)에서 생성된 좌표를 추적하여, 상기 사용자의 심박동수를 측정하는 심박동수 측정부(400)를 포함하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템(10).
Heart rate monitoring system,
Facial recognition unit 100 for recognizing the user's face in the image sequence collected through the camera;
An identity authentication unit 200 for authenticating the user's identity by comparing the face recognized by the face recognition unit 100 with a database of a server;
A coordinate generator 300 generating coordinates for measuring heart rate based on facial feature points from the facial data recognized by the facial recognition unit 100; And
The heart rate monitoring system 10 capable of identifying a user, characterized by including a heart rate measuring unit 400 for tracking the coordinates generated by the coordinate generating unit 300 to measure the heart rate of the user. ).
제15항에 있어서, 상기 안면 인지부(100)는,
이미지 시퀀스를 수집하기 위한 상기 카메라로서 웹캠(Webcam)을 사용하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템(10).
The method of claim 15, wherein the face recognition unit 100,
A heart rate monitoring system (10) capable of identifying a user, characterized by using a webcam (Webcam) as the camera for collecting image sequences.
제15항에 있어서, 상기 안면 인지부(100)는,
카메라를 통하여 이미지를 수집하는 이미지 수집 모듈(110); 및
상기 이미지 수집 모듈(110)에서 수집된 이미지로부터 안면 부분의 이미지를 선별하는 안면 이미지 선별 모듈(120)을 포함하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템(10).
The method of claim 15, wherein the face recognition unit 100,
An image collection module 110 for collecting an image through a camera; And
And a face image sorting module (120) for selecting an image of a face portion from the image collected by the image collecting module (110).
제15항에 있어서, 상기 신원 인증부(200)는,
상기 안면 인지부(100)에서 인지된 안면의 특징점을 추출하는 특징점 추출 모듈(210);
EBGM(Elastic Bunch graph matching) 방법을 통하여 상기 특징점 추출 모듈(210)에서 추출된 특징점들의 기하학적 정보로부터 번치 그래프를 생성하는 번치 그래프 생성 모듈(220); 및
상기 번치 그래프 생성 모듈(220)에서 생성한 번치 그래프를 이용하여 사용자의 신원을 인증하는 인증 모듈(230)을 포함하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템(10).
The method of claim 15, wherein the identity authentication unit 200,
A feature point extraction module 210 for extracting feature points of the face recognized by the face recognition unit 100;
A bunch graph generation module 220 for generating a bunch graph from the geometric information of the feature points extracted by the feature point extraction module 210 through an Elastic Bunch graph matching (EBGM) method; And
And a verification module 230 for authenticating the user's identity by using the bunch graph generated by the bunch graph generation module 220. 10.
제18항에 있어서, 상기 인증 모듈(230)은,
인지된 사용자 안면의 번치 그래프와 데이터베이스(DB)에 존재하는 번치 그래프들의 유사도를 비교하여 가장 유사도가 높은 번치 그래프에 해당하는 사람으로 사용자의 신원을 인증하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템(10).
The method of claim 18, wherein the authentication module 230,
A user's identity can be identified by comparing the similarity between the recognized bunch of graphs of the user's face and the bunch of graphs existing in the database. Heart rate monitoring system (10).
제19항에 있어서, 상기 인증 모듈(230)은,
Point matching 기법 중에서 Non-rigid matching 기법을 이용하기 위하여 Topology Preserving Relaxation Labeling(TPRL) 알고리즘을 사용하여 유사도를 비교하는 것을 특징으로 하는, 사용자의 신원 파악이 가능한 심박동수 모니터링 시스템(10).
The method of claim 19, wherein the authentication module 230,
A heart rate monitoring system (10) capable of identifying a user, characterized by comparing similarities using a Topology Preserving Relaxation Labeling (TPRL) algorithm to use a non-rigid matching method among the point matching techniques.
KR1020180074958A 2018-06-28 2018-06-28 Heart rate monitoring method that can identify the user and heart rate monitoring system that can identify the user KR102132959B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180074958A KR102132959B1 (en) 2018-06-28 2018-06-28 Heart rate monitoring method that can identify the user and heart rate monitoring system that can identify the user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180074958A KR102132959B1 (en) 2018-06-28 2018-06-28 Heart rate monitoring method that can identify the user and heart rate monitoring system that can identify the user

Publications (2)

Publication Number Publication Date
KR20200001877A true KR20200001877A (en) 2020-01-07
KR102132959B1 KR102132959B1 (en) 2020-07-13

Family

ID=69153644

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180074958A KR102132959B1 (en) 2018-06-28 2018-06-28 Heart rate monitoring method that can identify the user and heart rate monitoring system that can identify the user

Country Status (1)

Country Link
KR (1) KR102132959B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230099508A (en) * 2021-12-27 2023-07-04 광운대학교 산학협력단 Apparatus for estimating biosignals from face image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101074953B1 (en) * 2010-08-30 2011-10-18 세종대학교산학협력단 Method for hybrid face recognition using pca and gabor wavelet and system thereof
KR20150123323A (en) * 2013-03-04 2015-11-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Determining pulse transit time non-invasively using handheld devices
KR101783713B1 (en) * 2016-04-05 2017-10-10 계명대학교 산학협력단 System and method that can authenticate the user and at the same time non-contact pulse measurements

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101074953B1 (en) * 2010-08-30 2011-10-18 세종대학교산학협력단 Method for hybrid face recognition using pca and gabor wavelet and system thereof
KR20150123323A (en) * 2013-03-04 2015-11-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Determining pulse transit time non-invasively using handheld devices
KR101783713B1 (en) * 2016-04-05 2017-10-10 계명대학교 산학협력단 System and method that can authenticate the user and at the same time non-contact pulse measurements

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230099508A (en) * 2021-12-27 2023-07-04 광운대학교 산학협력단 Apparatus for estimating biosignals from face image

Also Published As

Publication number Publication date
KR102132959B1 (en) 2020-07-13

Similar Documents

Publication Publication Date Title
Sanyal et al. Algorithms for monitoring heart rate and respiratory rate from the video of a user’s face
US10818010B2 (en) Device, system and method for skin detection
US10004410B2 (en) System and methods for measuring physiological parameters
JP6268182B2 (en) Apparatus and method for extracting physiological information
Casado et al. Face2PPG: An unsupervised pipeline for blood volume pulse extraction from faces
Sinhal et al. An overview of remote photoplethysmography methods for vital sign monitoring
KR101738278B1 (en) Emotion recognition method based on image
CN109259749A (en) A kind of contactless method for measuring heart rate of view-based access control model camera
JP2013248386A (en) Processing of video for vascular pattern detection and cardiac function analysis
WO2019030124A1 (en) Device, system and method for determining a physiological parameter of a subject
Alnaggar et al. Video-based real-time monitoring for heart rate and respiration rate
Wang Robust and automatic remote photoplethysmography
KR102123121B1 (en) Blood pressure monitoring method that can identify the user and blood pressure monitoring system that can identify the user
CN111414785A (en) Identification system and identification method
Gupta et al. Accurate heart-rate estimation from face videos using quality-based fusion
Nowara et al. The benefit of distraction: Denoising remote vitals measurements using inverse attention
KR102108961B1 (en) An image-based artificial intelligence deep-learning based blood pressure estimation apparatus
Malasinghe et al. A comparative study of common steps in video-based remote heart rate detection methods
KR102132959B1 (en) Heart rate monitoring method that can identify the user and heart rate monitoring system that can identify the user
Oviyaa et al. Real time tracking of heart rate from facial video using webcam
CN114271800B (en) Non-invasive continuous blood pressure monitoring method and application in office environment
Ben Salah et al. Contactless heart rate estimation from facial video using skin detection and multi-resolution analysis
Kim et al. The non-contact biometric identified bio signal measurement sensor and algorithms
KR102035172B1 (en) Blood oxygen saturation rate monitoring method that can identify the user and blood oxygen saturation rate monitoring system that can identify the user
Le et al. Heart Rate Estimation Based on Facial Image Sequence

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant