KR20240035290A - Method, apparatus and computer program for measuring heart rate using mobile facial video based on deep learning in real time - Google Patents

Method, apparatus and computer program for measuring heart rate using mobile facial video based on deep learning in real time Download PDF

Info

Publication number
KR20240035290A
KR20240035290A KR1020220147608A KR20220147608A KR20240035290A KR 20240035290 A KR20240035290 A KR 20240035290A KR 1020220147608 A KR1020220147608 A KR 1020220147608A KR 20220147608 A KR20220147608 A KR 20220147608A KR 20240035290 A KR20240035290 A KR 20240035290A
Authority
KR
South Korea
Prior art keywords
heart rate
user
real
face image
mobile face
Prior art date
Application number
KR1020220147608A
Other languages
Korean (ko)
Inventor
동서연
지예림
임서연
Original Assignee
숙명여자대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숙명여자대학교산학협력단 filed Critical 숙명여자대학교산학협력단
Publication of KR20240035290A publication Critical patent/KR20240035290A/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1032Determining colour for diagnostic purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Cardiology (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Dentistry (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

본 발명의 일 실시예는, 카메라, 디스플레이부, 프로세서가 구비된 심박 측정 장치를 이용한 심박 측정 방법에 있어서, 사용자 정보를 획득하는 과정; 상기 카메라에 의해 촬영된 사용자의 모바일 얼굴 영상을 실시간으로 획득하는 과정; 상기 프로세서에 의해 상기 모바일 얼굴 영상 중 제1 소정 개수의 이미지 프레임들을 추출하는 과정; 상기 제1 소정 개수의 이미지 프레임들을 이용해 3차원 컨볼루션 신경망으로 구성된 예측기 모델에 기반한 rPPG 신호를 예측하는 과정; 및 상기 프로세서에 의해 상기 예측된 rPPG 신호에 기초해 사용자의 심박을 획득하는 과정을 포함하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법을 제공할 수 있다.One embodiment of the present invention provides a heart rate measuring method using a heart rate measuring device equipped with a camera, a display unit, and a processor, comprising: obtaining user information; A process of acquiring a user's mobile face image captured by the camera in real time; extracting a first predetermined number of image frames from the mobile face image by the processor; Predicting an rPPG signal based on a predictor model composed of a 3D convolutional neural network using the first predetermined number of image frames; It is possible to provide a heart rate measurement method using a real-time deep learning-based mobile face image, including a process of acquiring the user's heart rate based on the predicted rPPG signal by the processor.

Description

실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법, 장치 및 컴퓨터 프로그램{Method, apparatus and computer program for measuring heart rate using mobile facial video based on deep learning in real time}Method, apparatus and computer program for measuring heart rate using mobile facial video based on deep learning in real time}

본 발명은 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법에 관한 것으로, 상세히는 모바일 단말기에서 실시간으로 촬영한 모바일 얼굴 영상을 이용해 모바일 단말기 자체적으로 rPPG 신호를 추출하는 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법에 관한 것이다.The present invention relates to a heart rate measurement device and method using real-time deep learning-based mobile face images. In detail, the present invention relates to a real-time deep learning-based mobile face that extracts rPPG signals on the mobile terminal itself using mobile face images captured in real time on a mobile terminal. It relates to a heart rate measurement device and method using images.

비침습적인 방식으로 PPG 센서로 생체신호를 센싱하여 인간의 질병에 대한 사항을 파악하는 연구는 존재한다. 그러나 현재 COVID-19의 대유행으로 인해 비침습적인 방식이면서 원격으로 건강을 모니터링할 수 있는 기술이 상당히 중요해졌다. There is research to identify human diseases by sensing biological signals with a PPG sensor in a non-invasive manner. However, due to the current COVID-19 pandemic, technology that can remotely monitor health in a non-invasive manner has become very important.

각국은 의료 환경에서 COVID-19의 위험을 줄이기 위해 가능하면 원격 건강 전략을 사용할 것을 권고하고 있다. 그렇기 때문에 기존의 신체에 접촉이 필요한 센서를 통한 생체 정보 모니터링 방법이 아닌 새로운 방법이 요구된다.Countries are encouraged to use telehealth strategies where possible to reduce the risk of COVID-19 in healthcare settings. Therefore, a new method is required rather than the existing method of monitoring biometric information using sensors that require contact with the body.

원격 건강 모니터링 기술은 휴대전화나 온라인 건강 포털과 같은 통신 시스템에 기반을 두고 있다. 이러한 원격 건강 모니터링 기술은 COVID-19와 같은 유행병이 끝난 후에도 지속적인 환자 모니터링에 매우 인접하게 요구될 수 있다. Remote health monitoring technologies are based on communication systems such as mobile phones or online health portals. These remote health monitoring technologies may very well be required for continuous patient monitoring even after a pandemic such as COVID-19 is over.

종래의 rPPG(remote Photoplethysmography) 추정 방법은 RGB 비디오를 수집하여 얼굴 관심 영역(ROI)을 분리하고 신호처리 접근 방식을 사용하여 얼굴의 미묘한 색상 변화를 분석한다. Conventional remote photoplethysmography (rPPG) estimation methods collect RGB video, separate facial regions of interest (ROIs), and use signal processing approaches to analyze subtle color changes in the face.

대한민국 등록특허 제10-2096617호 (2020.03.27.)Republic of Korea Patent No. 10-2096617 (2020.03.27.)

본 발명의 일 실시예는, 심박 측정을 위한 추가 센서 없이 스마트폰과 같이 모바일 단말기에 구비된 카메라를 이용해 촬영된 사용자의 모바일 얼굴 영상으로 사용자의 심박을 측정할 수 있는 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법을 제공할 수 있다. One embodiment of the present invention is a real-time deep learning-based mobile face image that can measure the user's heart rate using the user's mobile face image captured using a camera installed in a mobile terminal such as a smartphone without an additional sensor for heart rate measurement. A heart rate measuring device and method using can be provided.

본 발명의 일 실시예는, 신생아나 운전 혹은 운동 상황과 같이 비접촉으로 심박을 측정할 수 있는 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법을 제공할 수 있다. One embodiment of the present invention can provide a heart rate measurement device and method using a real-time deep learning-based mobile facial image that can measure heart rate non-contactly, such as in newborns, driving, or exercise situations.

본 발명의 일 실시예는, 스마트폰과 같이 모바일 장치 내부에 탑재된 AI 모델을 기반으로 실시간으로 사용자의 심박을 측정할 수 있는 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법을 제공할 수 있다. One embodiment of the present invention provides a heart rate measurement device and method using a real-time deep learning-based mobile facial image that can measure the user's heart rate in real time based on an AI model mounted inside a mobile device such as a smartphone. You can.

본 발명의 일 실시예는, 모바일 얼굴 영상에서 관심 영역(ROI)를 분리하지 않고, 바로, AI 모델을 기반으로 사용자의 심박을 측정하는 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법을 제공할 수 있다. One embodiment of the present invention provides a heart rate measurement device and method using a real-time deep learning-based mobile face image that measures the user's heart rate based on an AI model without separating the region of interest (ROI) from the mobile face image. can be provided.

본 발명의 일 실시예는, 외부 서버에 대한 연결이 없이 자체 프로세서를 이용하기 때문에 네트워크 지연 혹은 외부 서버의 연산 지연 없이 실시간으로 사용자의 심박을 측정할 수 있는 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법을 제공할 수 있다. One embodiment of the present invention uses a real-time deep learning-based mobile facial image that can measure the user's heart rate in real time without network delay or calculation delay of an external server because it uses its own processor without a connection to an external server. Measuring devices and methods can be provided.

본 발명의 일 실시예는, 원격 광용적맥파(remote Photoplethysmography, rPPG)에 기반해 사용자의 심박을 측정할 수 있는 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법을 제공할 수 있다. One embodiment of the present invention can provide a heart rate measurement device and method using a real-time deep learning-based mobile facial image that can measure the user's heart rate based on remote photoplethysmography (rPPG).

본 발명의 일 실시예는, 카메라, 디스플레이부, 프로세서가 구비된 심박 측정 장치를 이용한 심박 측정 방법에 있어서, 사용자 정보를 획득하는 과정; 상기 카메라에 의해 촬영된 사용자의 모바일 얼굴 영상을 실시간으로 획득하는 과정; 상기 프로세서에 의해 상기 모바일 얼굴 영상 중 제1 소정 개수의 이미지 프레임들을 추출하는 과정; 상기 제1 소정 개수의 이미지 프레임들을 이용해 3차원 컨볼루션 신경망으로 구성된 예측기 모델에 기반한 rPPG 신호를 예측하는 과정; 및 상기 프로세서에 의해 상기 예측된 rPPG 신호에 기초해 사용자의 심박을 획득하는 과정을 포함하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법을 제공할 수 있다. One embodiment of the present invention provides a heart rate measuring method using a heart rate measuring device equipped with a camera, a display unit, and a processor, comprising: obtaining user information; A process of acquiring a user's mobile face image captured by the camera in real time; extracting a first predetermined number of image frames from the mobile face image by the processor; Predicting an rPPG signal based on a predictor model composed of a 3D convolutional neural network using the first predetermined number of image frames; It is possible to provide a heart rate measurement method using a real-time deep learning-based mobile face image, including a process of acquiring the user's heart rate based on the predicted rPPG signal by the processor.

본 발명의 일 실시예는, 상기 카메라에 의해 촬영된 사용자의 모바일 얼굴 영상을 실시간으로 획득하는 과정은, 상기 카메라에 의해 실시간으로 촬영되는 사용자의 얼굴 영상과 얼굴 가이드 영역이 일치하는 경우 제1 소정 시간 간격으로 상기 사용자를 촬영하여 복수의 모바일 얼굴 영상을 획득하는 과정을 포함하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법을 제공할 수 있다. In one embodiment of the present invention, the process of acquiring the user's mobile face image captured by the camera in real time includes: When the user's face image captured in real time by the camera and the face guide area match, the first predetermined A heart rate measurement method using real-time deep learning-based mobile face images can be provided, which includes the process of acquiring a plurality of mobile face images by photographing the user at time intervals.

본 발명의 일 실시예는, 상기 제1 소정 개수의 이미지 프레임들을 이용해 3차원 컨볼루션 신경망으로 구성된 예측기 모델에 기반한 rPPG 신호를 예측하는 과정은, 상기 복수의 모바일 얼굴 영상 각각에 예측기 모델을 적용하여 복수의 예측된 rPPG 신호를 획득하는 과정을 포함하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법을 제공할 수 있다. In one embodiment of the present invention, the process of predicting an rPPG signal based on a predictor model composed of a 3D convolutional neural network using the first predetermined number of image frames includes applying the predictor model to each of the plurality of mobile face images. A heart rate measurement method using a real-time deep learning-based mobile face image can be provided, including the process of acquiring a plurality of predicted rPPG signals.

본 발명의 일 실시예는, 상기 프로세서에 의해 상기 예측된 rPPG 신호에 기초해 사용자의 심박을 획득하는 과정은, 상기 복수의 예측된 rPPG 신호에 기초해 사용자의 심박 값을 계산하고, 제2 소정 개수의 심박 값을 평균한 평균 심박 값을 획득하는 과정을 포함하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법을 제공할 수 있다. In one embodiment of the present invention, the process of acquiring the user's heart rate based on the predicted rPPG signal by the processor includes calculating the user's heart rate value based on the plurality of predicted rPPG signals, and calculating a second predetermined value. A heart rate measurement method using a real-time deep learning-based mobile face image can be provided, which includes a process of obtaining an average heart rate value by averaging a number of heart rate values.

본 발명의 일 실시예는, 상기 예측기 모델은 상기 사용자 정보에 기초해 다른 학습 데이터로 학습된 예측기 모델로 구성되거나, 상기 심박은 상기 사용자 정보의 가중치가 적용된 심박 값인 것을 특징으로 하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법을 제공할 수 있다. In one embodiment of the present invention, the predictor model is composed of a predictor model learned with other learning data based on the user information, or the heart rate is a heart rate value to which the weight of the user information is applied. A heart rate measurement method using a mobile face image can be provided.

본 발명의 일 실시예는, 상기 예측기 모델은, 대상자의 얼굴 영상 및 상기 얼굴 영상을 촬영하면서 동시에 측정된 상기 대상자의 실제 심박 신호를 학습 데이터로 학습된 인공지능 모델인 것을 특징으로 하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법을 제공할 수 있다. In one embodiment of the present invention, the predictor model is an artificial intelligence model learned using the subject's face image and the subject's actual heart rate signal measured simultaneously while shooting the face image as learning data. A heart rate measurement method using a running-based mobile face image can be provided.

본 발명의 일 실시예는, 상기 예측기 모델의 손실함수는 상기 대상자의 얼굴 영상으로 추청되는 심박 신호와 실제 심박 신호의 차이가 최소화되는 방향으로 학습되는 것을 특징으로 하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법을 제공할 수 있다. One embodiment of the present invention is a real-time deep learning-based mobile face image, characterized in that the loss function of the predictor model is learned in a way to minimize the difference between the heart rate signal estimated from the subject's face image and the actual heart rate signal. A heart rate measurement method using can be provided.

본 발명의 일 실시예는, 카메라, 디스플레이부, 프로세서가 구비된 심박 측정 장치에 있어서, 상기 프로세서는, 사용자 정보를 획득하는 과정; 상기 카메라에 의해 촬영된 사용자의 모바일 얼굴 영상을 실시간으로 획득하는 과정; 상기 프로세서에 의해 상기 모바일 얼굴 영상 중 제1 소정 개수의 이미지 프레임들을 추출하는 과정; 상기 제1 소정 개수의 이미지 프레임들을 이용해 3차원 컨볼루션 신경망으로 구성된 예측기 모델에 기반한 rPPG 신호를 예측하는 과정; 및 상기 프로세서에 의해 상기 예측된 rPPG 신호에 기초해 사용자의 심박을 획득하는 과정을 수행하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치를 제공할 수 있다. One embodiment of the present invention provides a heart rate measuring device equipped with a camera, a display unit, and a processor, wherein the processor includes: acquiring user information; A process of acquiring a user's mobile face image captured by the camera in real time; extracting a first predetermined number of image frames from the mobile face image by the processor; Predicting an rPPG signal based on a predictor model composed of a 3D convolutional neural network using the first predetermined number of image frames; And a heart rate measurement device using a real-time deep learning-based mobile face image can be provided, in which the processor performs a process of acquiring the user's heart rate based on the predicted rPPG signal.

본 발명의 일 실시예는, 상기 카메라에 의해 촬영된 사용자의 모바일 얼굴 영상을 실시간으로 획득하는 과정은, 상기 카메라에 의해 실시간으로 촬영되는 사용자의 얼굴 영상과 얼굴 가이드 영역이 일치하는 경우 제1 소정 시간 간격으로 상기 사용자를 촬영하여 복수의 모바일 얼굴 영상을 획득하는 과정을 포함하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치를 제공할 수 있다. In one embodiment of the present invention, the process of acquiring the user's mobile face image captured by the camera in real time includes: When the user's face image captured in real time by the camera and the face guide area match, the first predetermined A heart rate measuring device using real-time deep learning-based mobile face images can be provided, including a process of acquiring a plurality of mobile face images by photographing the user at time intervals.

본 발명의 일 실시예는, 상기 제1 소정 개수의 이미지 프레임들을 이용해 3차원 컨볼루션 신경망으로 구성된 예측기 모델에 기반한 rPPG 신호를 예측하는 과정은, 상기 복수의 모바일 얼굴 영상 각각에 예측기 모델을 적용하여 복수의 예측된 rPPG 신호를 획득하는 과정을 포함하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치를 제공할 수 있다. In one embodiment of the present invention, the process of predicting an rPPG signal based on a predictor model composed of a 3D convolutional neural network using the first predetermined number of image frames includes applying the predictor model to each of the plurality of mobile face images. A heart rate measurement device using a real-time deep learning-based mobile face image can be provided, including a process of acquiring a plurality of predicted rPPG signals.

본 발명의 일 실시예는, 상기 프로세서에 의해 상기 예측된 rPPG 신호에 기초해 사용자의 심박을 획득하는 과정은, 상기 복수의 예측된 rPPG 신호에 기초해 사용자의 심박 값을 계산하고, 제2 소정 개수의 심박 값을 평균한 평균 심박 값을 획득하는 과정을 포함하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치를 제공할 수 있다. In one embodiment of the present invention, the process of acquiring the user's heart rate based on the predicted rPPG signal by the processor includes calculating the user's heart rate value based on the plurality of predicted rPPG signals, and calculating a second predetermined value. A heart rate measurement device using a real-time deep learning-based mobile face image can be provided, including a process of obtaining an average heart rate value by averaging a number of heart rate values.

본 발명의 일 실시예는, 상기 예측기 모델은 상기 사용자 정보에 기초해 다른 학습 데이터로 학습된 예측기 모델로 구성되거나, 상기 심박은 상기 사용자 정보의 가중치가 적용된 심박 값인 것을 특징으로 하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치를 제공할 수 있다. In one embodiment of the present invention, the predictor model is composed of a predictor model learned with other learning data based on the user information, or the heart rate is a heart rate value to which the weight of the user information is applied. A heart rate measurement device using a based mobile face image can be provided.

본 발명의 일 실시예는, 상기 예측기 모델은, 대상자의 얼굴 영상 및 상기 얼굴 영상을 촬영하면서 동시에 측정된 상기 대상자의 실제 심박 신호를 학습 데이터로 학습된 인공지능 모델인 것을 특징으로 하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치를 제공할 수 있다. In one embodiment of the present invention, the predictor model is an artificial intelligence model learned using the subject's face image and the subject's actual heart rate signal measured simultaneously while shooting the face image as learning data. A heart rate measurement device using a running-based mobile face image can be provided.

본 발명의 일 실시예는, 상기 예측기 모델의 손실함수는 상기 대상자의 얼굴 영상으로 추청되는 심박 신호와 실제 심박 신호의 차이가 최소화되는 방향으로 학습되는 것을 특징으로 하는, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치를 제공할 수 있다. One embodiment of the present invention is a real-time deep learning-based mobile face image, characterized in that the loss function of the predictor model is learned in a way to minimize the difference between the heart rate signal estimated from the subject's face image and the actual heart rate signal. A heart rate measuring device using can be provided.

본 발명의 일 실시예는, 컴퓨팅 장치와 결합되어, 사용자 정보를 획득하는 과정; 카메라에 의해 촬영된 사용자의 모바일 얼굴 영상을 실시간으로 획득하는 과정; 프로세서에 의해 상기 모바일 얼굴 영상 중 제1 소정 개수의 이미지 프레임들을 추출하는 과정; 상기 제1 소정 개수의 이미지 프레임들을 이용해 3차원 컨볼루션 신경망으로 구성된 예측기 모델에 기반한 rPPG 신호를 예측하는 과정; 및 상기 프로세서에 의해 상기 예측된 rPPG 신호에 기초해 사용자의 심박을 획득하는 과정을 실행시키기 위하여 컴퓨터로 판독가능한 기록매체에 저장된, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 컴퓨터 프로그램을 제공할 수 있다. One embodiment of the present invention is combined with a computing device, a process of obtaining user information; A process of acquiring a user's mobile face image captured by a camera in real time; Extracting a first predetermined number of image frames from the mobile face image by a processor; Predicting an rPPG signal based on a predictor model composed of a 3D convolutional neural network using the first predetermined number of image frames; and a heart rate measurement computer program using a real-time deep learning-based mobile facial image stored in a computer-readable recording medium to execute a process of acquiring the user's heart rate based on the predicted rPPG signal by the processor. there is.

본 발명의 일 실시예는, 심박 측정을 위한 추가 센서 없이 스마트폰과 같이 모바일 단말기에 구비된 카메라를 이용해 촬영된 사용자의 모바일 얼굴 영상으로 사용자의 심박을 측정할 수 있는 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법을 제공하는 효과를 가진다. One embodiment of the present invention is a real-time deep learning-based mobile face image that can measure the user's heart rate using the user's mobile face image captured using a camera installed in a mobile terminal such as a smartphone without an additional sensor for heart rate measurement. It has the effect of providing a heart rate measuring device and method using.

본 발명의 일 실시예는, 신생아나 운전 혹은 운동 상황과 같이 비접촉으로 심박을 측정할 수 있는 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법을 제공하는 효과를 가진다. One embodiment of the present invention has the effect of providing a heart rate measurement device and method using a real-time deep learning-based mobile facial image that can measure heart rate non-contactly, such as in newborns, driving, or exercise situations.

본 발명의 일 실시예는, 스마트폰과 같이 모바일 장치 내부에 탑재된 AI 모델을 기반으로 실시간으로 사용자의 심박을 측정할 수 있는 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법을 제공하는 효과를 가진다.One embodiment of the present invention provides a heart rate measurement device and method using a real-time deep learning-based mobile facial image that can measure the user's heart rate in real time based on an AI model mounted inside a mobile device such as a smartphone. It has an effect.

본 발명의 일 실시예는, 모바일 얼굴 영상에서 관심 영역(ROI)를 분리하지 않고, 바로, AI 모델을 기반으로 사용자의 심박을 측정하는 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법을 제공하는 효과를 가진다.One embodiment of the present invention provides a heart rate measurement device and method using a real-time deep learning-based mobile face image that measures the user's heart rate based on an AI model without separating the region of interest (ROI) from the mobile face image. It has the effect of providing

본 발명의 일 실시예는, 외부 서버에 대한 연결이 없이 자체 프로세서를 이용하기 때문에 네트워크 지연 혹은 외부 서버의 연산 지연 없이 실시간으로 사용자의 심박을 측정할 수 있는 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법을 제공하는 효과를 가진다.One embodiment of the present invention uses a real-time deep learning-based mobile facial image that can measure the user's heart rate in real time without network delay or calculation delay of an external server because it uses its own processor without a connection to an external server. It has the effect of providing measuring devices and methods.

본 발명의 일 실시예는, 원격 광용적맥파(remote Photoplethysmography, rPPG)에 기반해 사용자의 심박을 측정할 수 있는 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법을 제공하는 효과를 가진다.One embodiment of the present invention has the effect of providing a heart rate measurement device and method using a real-time deep learning-based mobile facial image that can measure the user's heart rate based on remote photoplethysmography (rPPG).

도 1은 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치의 하드웨어 구성도이다.
도 2는 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 흐름도를 도시한 것이다.
도 3는 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 예시 화면을 도시한 것이다.
도 4는 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 추론 과정의 흐름도를 도시한 것이다.
도 5은 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 추론 과정의 개념도를 도시한 것이다.
도 6은 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 추론 과정의 개념도를 도시한 것이다.
도 7는 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 학습 과정의 흐름도를 도시한 것이다.
도 8는 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 학습 과정의 개념도를 도시한 것이다.
도 9은 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 학습 과정에서 손실함수의 학습 과정에 따른 그래프를 도시한 것이다.
Figure 1 is a hardware configuration diagram of a heart rate measurement device using a real-time deep learning-based mobile face image according to an embodiment of the present invention.
Figure 2 is a flowchart of a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention.
Figure 3 shows an example screen of a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention.
Figure 4 shows a flowchart of the inference process of a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention.
Figure 5 is a conceptual diagram of the inference process of a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention.
Figure 6 shows a conceptual diagram of the inference process of a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention.
Figure 7 is a flowchart of the learning process of a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention.
Figure 8 shows a conceptual diagram of the learning process of a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention.
Figure 9 shows a graph according to the learning process of the loss function in the learning process of the heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in this specification are merely illustrative for the purpose of explaining the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention are It may be implemented in various forms and is not limited to the embodiments described herein.

본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Since the embodiments according to the concept of the present invention can make various changes and have various forms, the embodiments will be illustrated in the drawings and described in detail in this specification. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes all changes, equivalents, or substitutes included in the spirit and technical scope of the present invention.

제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 벗어나지 않은 채, 제1구성 요소는 제2구성 요소로 명명될 수 있고 유사하게 제2구성 요소는 제1구성 요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component, for example, without departing from the scope of rights according to the concept of the present invention, a first component may be named a second component and similarly a second component A component may also be named a first component.

어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성 요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is said to be “connected” or “connected” to another component, it is understood that it may be directly connected to or connected to that other component, but that other components may also exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between. Other expressions that describe the relationship between components, such as "between" and "immediately between" or "neighboring" and "directly adjacent to" should be interpreted similarly.

본 명세서에서 사용한 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Technical terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in this specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 나타낸다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.Unless otherwise defined, all terms used herein, including technical or scientific terms, are generally understood by a person of ordinary skill in the field to which the technology disclosed in this specification belongs, unless specifically defined in a different way in this specification. It has the same meaning as understood as. Terms as defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings they have in the context of the related technology, and unless clearly defined in this specification, should not be interpreted in an idealized or overly formal sense. It shouldn't be.

본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈(module)" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니며, 본 발명의 실시 예에 따른 방법을 수행하기 위한 하드웨어 또는 상기 하드웨어를 구동할 수 있는 소프트웨어의 기능적 또는 구조적 결합을 의미할 수 있다.The suffixes “module” and “part” for components used in this specification are given or used interchangeably only considering the ease of preparing the specification, and do not have distinct meanings or roles in themselves, and do not have distinct meanings or roles in this specification. It may mean a functional or structural combination of hardware for performing a method according to an embodiment of the invention or software that can drive the hardware.

이하에서 첨부된 도면을 참조하여, 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치 및 방법을 설명한다.Below, with reference to the attached drawings, a heart rate measuring device and method using a real-time deep learning-based mobile face image according to an embodiment of the present invention will be described.

도 1은 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치의 하드웨어 구성도이다.Figure 1 is a hardware configuration diagram of a heart rate measurement device using a real-time deep learning-based mobile face image according to an embodiment of the present invention.

도 1을 참조하여, 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치(100)(이하 '컴퓨팅 장치'라 함)를 설명한다.Referring to FIG. 1, a heart rate measurement device 100 (hereinafter referred to as 'computing device') using a real-time deep learning-based mobile face image according to an embodiment of the present invention will be described.

컴퓨팅 장치(100)는 사용자에 물리적으로 접촉하는 센서가 없이도 사용자의 모바일 얼굴 영상을 이용해 사용자의 심박을 측정할 수 있다. 이는 비전 컴퓨팅 기반으로 원격 심박 측정 기술 혹은 원격 광혈류측정 기술이라 한다.The computing device 100 can measure the user's heart rate using the user's mobile face image without a sensor physically contacting the user. This is called remote heart rate measurement technology or remote photoplethysmography technology based on vision computing.

원격 광혈류측정(Remote photoplethysmography, rPPG)은 심장 주기로 인해 변화되는 혈류량으로부터 포착되는 피부색의 미묘한 변화를 포착해 심박 신호를 추출하는 기술이다.Remote photoplethysmography (rPPG) is a technology that extracts heart rate signals by capturing subtle changes in skin color captured from blood flow changes due to the cardiac cycle.

심박은 단위시간 당 심장 박동 횟수로 교감 신경계와 부교감 신경계로 구성된 자율 신경계의 영향을 받아 사람의 신체적, 정신적 상태를 반영한다. Heart rate is the number of heart beats per unit time and reflects a person's physical and mental state under the influence of the autonomic nervous system, which consists of the sympathetic and parasympathetic nervous systems.

일반적으로 심장의 전기적 활동을 기록하는 심전도(ECG; electrocardiogram) 또는 광학센서를 이용하는 광혈류측정기(PPG; photoplethysmogram)를 사용하여 이러한 심박을 모니터링할 수 있다. 그러나 이러한 방법들은 일반적으로 센서를 피부 표면에 부착하여 신호를 얻으므로 대상과의 물리적 접촉이 필수적이거나 움직임이 제약된다는 한계점을 가지고 있다.Typically, this heart rate can be monitored using an electrocardiogram (ECG), which records the heart's electrical activity, or a photoplethysmogram (PPG), which uses an optical sensor. However, these methods generally obtain signals by attaching a sensor to the skin surface, so they have limitations in that physical contact with the target is essential or movement is restricted.

이러한 문제를 해결하기 위해, 본 발명의 일 실시예에 따른 컴퓨팅 장치(100)는 실시간으로 딥러닝 기반하여 모바일 얼굴 영상을 이용한 사용자의 rPPG 신호 및 심박을 측정하는 방법을 제안한다.To solve this problem, the computing device 100 according to an embodiment of the present invention proposes a method of measuring the user's rPPG signal and heart rate using a mobile face image in real time based on deep learning.

도 1을 참조하면, 본 발명의 일 실시예에 컴퓨팅 장치(100)는 하나 이상의 프로세서(110), 프로세서(110)에 의하여 수행되는 컴퓨터 프로그램(141)을 로드(Load)하는 메모리(120), 통신 인터페이스(130) 및 컴퓨터 프로그램(141)을 저장하는 스토리지(140)를 포함할 수 있다. Referring to FIG. 1, in one embodiment of the present invention, the computing device 100 includes one or more processors 110, a memory 120 that loads a computer program 141 executed by the processor 110, It may include a storage 140 that stores a communication interface 130 and a computer program 141.

다양한 실시예에서, 컴퓨팅 장치(100)는 적어도 하나의 프로세서(110)를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. In various embodiments, the computing device 100 refers to all types of hardware devices including at least one processor 110, and depending on the embodiment, it is understood to also encompass software configurations that operate on the hardware device. It can be.

컴퓨팅 장치(100)는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다. The computing device 100 may be understood as including, but is not limited to, a smartphone, tablet PC, desktop, laptop, and user clients and applications running on each device.

본 명세서에서 설명되는 각 과정들은 컴퓨팅 장치(100)에 의하여 수행될 수 있다. 또한, 각 과정의 주체는 하나의 컴퓨팅 장치(100)에 의해 수행되는 것으로 제한되는 것은 아니며, 실시예에 따라 각 과정들의 적어도 일부가 서로 다른 컴퓨팅 장치에서 수행될 수도 있다.Each process described in this specification may be performed by the computing device 100. Additionally, the subject of each process is not limited to being performed by one computing device 100, and depending on the embodiment, at least part of each process may be performed by different computing devices.

프로세서(110)는 컴퓨팅 장치(100)의 각 구성의 전반적인 동작을 제어한다. 프로세서(110)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다.The processor 110 controls the overall operation of each component of the computing device 100. The processor 110 includes a Central Processing Unit (CPU), Micro Processor Unit (MPU), Micro Controller Unit (MCU), Graphic Processing Unit (GPU), or any other type of processor well known in the art of the present invention. It can be.

또한, 프로세서(110)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있으며, 컴퓨팅 장치(100)는 하나 이상의 프로세서를 구비할 수 있다.Additionally, the processor 110 may perform operations on at least one application or program for executing methods according to embodiments of the present invention, and the computing device 100 may include one or more processors.

또한, 프로세서(110)는 프로세서(110) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(110)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.In addition, the processor 110 includes random access memory (RAM) (not shown) and read-only memory (ROM) that temporarily and/or permanently store signals (or data) processed within the processor 110. , not shown) may be further included. Additionally, the processor 110 may be implemented in the form of a system on chip (SoC) that includes at least one of a graphics processing unit, RAM, and ROM.

프로세서(110)는 본 발명의 다양한 실시예에 따른 방법/과정들을 수행할 수 있다. 일 예로, 프로세서(110)는 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법 및 이 방법을 이루는 적어도 하나의 과정들의 조합을 수행할 수 있다. The processor 110 may perform methods/processes according to various embodiments of the present invention. As an example, the processor 110 may perform a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention and a combination of at least one process forming the method.

메모리(120)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(120)는 본 발명의 다양한 실시예에 따른 방법/동작을 실행하기 위하여 스토리지(140)로부터 컴퓨터 프로그램(141)을 로드할 수 있다. 메모리(120)에 컴퓨터 프로그램(141)이 로드되면, 프로세서(110)는 컴퓨터 프로그램(141)을 구성하는 하나 이상의 인스트럭션들을 실행함으로써 상기 방법/동작을 수행할 수 있다. 메모리(120)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 개시의 기술적 범위가 이에 한정되는 것은 아니다.Memory 120 stores various data, commands and/or information. Memory 120 may load a computer program 141 from storage 140 to execute methods/operations according to various embodiments of the present invention. When the computer program 141 is loaded into the memory 120, the processor 110 may perform the method/operation by executing one or more instructions constituting the computer program 141. The memory 120 may be implemented as a volatile memory such as RAM, but the technical scope of the present disclosure is not limited thereto.

버스(BUS)는 컴퓨팅 장치(100)의 구성 요소 간 통신 기능을 제공한다. 버스(BUS)는 주소 버스(address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.The bus (BUS) provides communication functions between components of the computing device 100. A BUS can be implemented as various types of buses, such as an address bus, data bus, and control bus.

통신 인터페이스(130)는 컴퓨팅 장치(100)의 유무선 인터넷 통신을 지원한다. 또한, 통신 인터페이스(130)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 예를 들어, 통신 인터페이스(130)는, 근거리 통신, 이동 통신, 방송 통신 방식 중 적어도 하나를 지원할 수 있다. 이를 위해, 통신 인터페이스(130)는 본 발명의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다. 몇몇 실시예에서, 통신 인터페이스(130)는 생략될 수도 있다.The communication interface 130 supports wired and wireless Internet communication of the computing device 100. Additionally, the communication interface 130 may support various communication methods other than Internet communication. For example, the communication interface 130 may support at least one of short-range communication, mobile communication, and broadcast communication methods. To this end, the communication interface 130 may be configured to include a communication module well known in the technical field of the present invention. In some embodiments, communication interface 130 may be omitted.

통신 인터페이스(130)는 심박 측정기(200)와 유선 혹은 무선 통신으로 연결될 수 있다. 통신 인터페이스(130)는 심박 측정기(200)와 실시간으로 통신하여 심박 측정기(200)에서 측정한 셀제 심박 신호를 실시간으로 수신할 수 있다. The communication interface 130 may be connected to the heart rate monitor 200 through wired or wireless communication. The communication interface 130 can communicate with the heart rate monitor 200 in real time and receive the cellular heart rate signal measured by the heart rate monitor 200 in real time.

스토리지(140)는 컴퓨터 프로그램(141)을 비 임시적으로 저장할 수 있다. 스토리지(140)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.Storage 140 may store the computer program 141 non-temporarily. The storage 140 is a non-volatile memory such as Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), flash memory, a hard disk, a removable disk, or a device well known in the art to which the present invention pertains. It may be configured to include any known type of computer-readable recording medium.

컴퓨터 프로그램(141)은 메모리(120)에 로드될 때 프로세서(110)로 하여금 본 발명의 다양한 실시예에 따른 방법/과정을 수행하도록 하는 하나 이상의 인스트럭션들을 포함할 수 있다. 즉, 프로세서(110)는 상기 하나 이상의 인스트럭션들을 실행함으로써, 본 발명의 다양한 실시예에 따른 방법/과정을 수행할 수 있다.The computer program 141, when loaded into the memory 120, may include one or more instructions that cause the processor 110 to perform methods/processes according to various embodiments of the present invention. That is, the processor 110 can perform methods/processes according to various embodiments of the present invention by executing the one or more instructions.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 과정들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The method or algorithmic processes described in relation to embodiments of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. The software module may be RAM (Random Access Memory), ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

일 실시예에서, 컴퓨터 프로그램(141)은 컴퓨팅 장치(100)와 결합되어, 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법을 실행시키기 위하여 컴퓨터로 판독가능한 기록매체에 저장된, 컴퓨터 프로그램일 수 있다. In one embodiment, the computer program 141 is combined with the computing device 100 and may be a computer program stored in a computer-readable recording medium to execute a heart rate measurement method using a real-time deep learning-based mobile facial image. .

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. The components of the present invention may be implemented as a program (or application) and stored in a medium in order to be executed in conjunction with a hardware computer. Components of the invention may be implemented as software programming or software elements, and similarly, embodiments may include various algorithms implemented as combinations of data structures, processes, routines or other programming constructs, such as C, C++, , may be implemented in a programming or scripting language such as Java, assembler, etc. Functional aspects may be implemented as algorithms running on one or more processors.

나아가, 컴퓨팅 장치(100)는 출력부(150), A/V입력부(170), 사용자 입력부(180) 중 적어도 하나를 더 포함할 수 있다. Furthermore, the computing device 100 may further include at least one of an output unit 150, an A/V input unit 170, and a user input unit 180.

출력부(150)는 실행되는 프로그램(또는 애플리케이션)에 의해 생성 혹은 실행되는 비디오 신호 및 오디오 신호 중 적어도 하나를 출력할 수 있다. 출력부(150)는 비디오(영상) 신호를 출력하는 디스플레이부(151) 및 오디오 신호를 출력하는 음향 출력부(152) 중 적어도 하나를 포함할 수 있다. The output unit 150 may output at least one of a video signal and an audio signal generated or executed by an executing program (or application). The output unit 150 may include at least one of a display unit 151 that outputs a video (image) signal and an audio output unit 152 that outputs an audio signal.

디스플레이부(151)는 컴퓨팅 장치(100)의 전면에 구비될 수 있다. The display unit 151 may be provided on the front of the computing device 100.

A/V(Audio/Video) 입력부(170)는 외부로부터 컴퓨팅 장치(100)로 컬러(RGB) 비디오 신호의 입력을 위한 카메라(171)를 포함할 수 있다. The A/V (Audio/Video) input unit 170 may include a camera 171 for inputting a color (RGB) video signal from the outside to the computing device 100.

카메라(171)는 컴퓨팅 장치(100)의 전면 혹은 후면에 구비될 수 있다. 카메라(171)는 RGB 이미지를 촬영하는 RGB 카메라일 수 있으며, 촬영모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 RGB 이미지로 이루어진 화상 프레임을 얻을 수 있다. RGB카메라(171)는 사용자를 촬영하여 사용자의 모바일 얼굴 영상을 촬영할 수 있다.The camera 171 may be provided on the front or back of the computing device 100. The camera 171 may be an RGB camera that captures RGB images, and can obtain an image frame composed of RGB images, such as a still image or video, through an image sensor in shooting mode. The RGB camera 171 can capture a user's mobile face image by photographing the user.

카메라(171)에서 촬영된 사용자의 모바일 얼굴 영상은 사용자에 대한 복수의 이미지 프레임으로 구성될 수 있으며, 촬영 시점 정보를 포함할 수 있다. The user's mobile face image captured by the camera 171 may be composed of a plurality of image frames for the user and may include information on the shooting point.

사용자 입력부(180)는, 사용자가 컴퓨팅 장치(100)를 제어하기 위한 사용자 입력 신호 혹은 데이터를 입력하는 수단을 의미한다. 사용자 입력부(180)는 터치 패드(일 예로, 접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등)와, 키 패드(key pad), 전원 버튼, 볼륨 버튼 등과 같은 물리 버튼을 포함할 수 있으나, 이에 한정되는 것은 아니다. The user input unit 180 refers to a means for a user to input a user input signal or data to control the computing device 100. The user input unit 180 includes a touch pad (for example, a contact capacitive type, a pressure resistance film type, an infrared detection type, a surface ultrasonic conduction type, an integral tension measurement type, a piezo effect type, etc.), and a key pad (key pad), power button, volume button, etc., but is not limited thereto.

본 발명의 일 실시예에 따른 컴퓨팅 장치(100)는 후술할 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법 및 이 방법을 구성하는 적어도 하나의 과정들의 조합을 수행할 수 있다. The computing device 100 according to an embodiment of the present invention may perform a heart rate measurement method using a real-time deep learning-based mobile face image, which will be described later, and a combination of at least one process constituting the method.

심박 측정기(200)는 컴퓨팅 장치(100)와 유선 혹은 무선으로 통신하여 사용자의 심박 정보를 송신할 수 있다. 심박 측정기(200)는 컴퓨팅 장치(100)의 카메라(171)에서 실시간으로 촬영되는 사용자의 모바일 얼굴 영상과 시간적으로 페어링되는 사용자의 심박을 실시간으로 측정할 수 있다. 심박 측정기(200)에서 컴퓨팅 장치(100)로 송신하는 사용자의 심박 정보는 심박 신호 및 해당 심박 신호를 측정한 시점 정보를 포함할 수 있다.The heart rate monitor 200 may communicate with the computing device 100 wired or wirelessly to transmit the user's heart rate information. The heart rate monitor 200 can measure the user's heart rate in real time, which is temporally paired with the user's mobile face image captured in real time by the camera 171 of the computing device 100. The user's heart rate information transmitted from the heart rate monitor 200 to the computing device 100 may include a heart rate signal and information on a time when the heart rate signal was measured.

도 2는 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 흐름도를 도시한 것이다. 도 3는 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 예시 화면을 도시한 것이다. 도 4는 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 추론 과정의 흐름도를 도시한 것이다. 도 5은 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 추론 과정의 개념도를 도시한 것이다. 도 6은 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 추론 과정의 개념도를 도시한 것이다.Figure 2 is a flowchart of a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention. Figure 3 shows an example screen of a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention. Figure 4 shows a flowchart of the inference process of a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention. Figure 5 shows a conceptual diagram of the inference process of a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention. Figure 6 shows a conceptual diagram of the inference process of a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention.

도 2 내지 도 6을 참조하여, 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법을 설명한다.2 to 6, a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention will be described.

S100 과정에서, 컴퓨팅 장치(100)는 사용자 정보를 획득할 수 있다. In the S100 process, the computing device 100 may obtain user information.

도 3(a)를 참조하면, 컴퓨팅 장치(100)는 디스플레이부(151)를 통해 사용자에게 사용자 정보 질의 화면(SC1)을 제공할 수 있다. Referring to FIG. 3(a), the computing device 100 may provide a user information query screen SC1 to the user through the display unit 151.

사용자 정보 질의 화면(SC1)은 사용자의 이름, 나이, 성별, 현재 상태 정보 중 적어도 하나를 입력할 수 있는 정보 입력공간을 제공한다. The user information query screen (SC1) provides an information input space where at least one of the user's name, age, gender, and current status information can be entered.

컴퓨팅 장치(100)는 사용자가 사용자 정보 질의 화면을 통해 입력한 사용자의 이름, 나이 성별, 현상태 정보 중 적어도 하나를 획득하고, 스토리지(140)에 저장할 수 있다. The computing device 100 may obtain at least one of the user's name, age, gender, and current status information entered by the user through the user information query screen and store it in the storage 140.

사용자의 이름은 사용자를 구별하는 주 식별 정보로 사용될 수 있다. 현상태 정보는 휴식 상태(rest state)인지 혹은 활동 상태(active state)인지에 관한 정보를 포함할 수 있다. The user's name can be used as the main identification information to distinguish the user. Current status information may include information about whether the device is in a rest state or an active state.

S200 과정에서, 컴퓨팅 장치(100)는 사용자의 모바일 얼굴 영상을 획득할 수 있다. In process S200, the computing device 100 may acquire the user's mobile face image.

사용자의 모바일 얼굴 영상은 컴퓨팅 장치(100)에 구비된 카메라(171)에 의해 촬영된 컬러 비디오 혹은RGB 비디오와 같이 가시광선 대역의 광을 센싱하는 이미지 센서에 의해 촬영된 복수의 이미지 프레임들의 집합일 수 있다. The user's mobile face image is a collection of a plurality of image frames captured by an image sensor that senses light in the visible light band, such as color video or RGB video captured by the camera 171 provided in the computing device 100. You can.

도 3(b)를 참조하면, 컴퓨팅 장치(100)는 디스플레이부(151)를 통해 사용자에게 얼굴 영상 촬영 화면(SC2)을 제공할 수 있다. Referring to FIG. 3(b), the computing device 100 may provide a face image capture screen SC2 to the user through the display unit 151.

디스플레이부(151)는 컴퓨팅 장치(100)의 전면에 구비되며, 동일한 전면에 카메라(171)가 구비될 수 있다. The display unit 151 is provided on the front of the computing device 100, and a camera 171 may be provided on the same front.

얼굴 영상 촬영 화면(SC2)은 카메라(171)를 이용해 촬영되는 실시간 영상이 보여지는 실시간 영상 표시 영역(SC2-A1)과, 사용자의 얼굴을 정렬시키기 위해 실시간 영상 표시 영역(SC2-A1) 내부에 구비된 얼굴 가이드 영역(SC2-A2)을 포함할 수 있다. The face image capture screen (SC2) is located inside the real-time image display area (SC2-A1) where the real-time image captured using the camera 171 is displayed, and the real-time image display area (SC2-A1) to align the user's face. It may include a provided face guide area (SC2-A2).

실시간 영상 표시 영역(SC2-A1)은 디스플레이부(151) 상에 위치하며 카메라(171)를 통해서 촬영되는 실시간 영상을 출력할 수 있다. The real-time image display area (SC2-A1) is located on the display unit 151 and can output real-time image captured through the camera 171.

얼굴 가이드 영역(SC2-A2)은 실시간 영상 표시 영역(SC2-A1) 내부에 위치하여 사용자의 얼굴 위치를 조절할 수 있는 가이드 역할을 제공한다. 얼굴 가이드 영역(SC2-A2)은 세로로 긴 타원 혹은 사람의 얼굴 형상으로 구성될 수 있다. 사용자는 카메라(171)를 통해서 실시간으로 촬영되는 자신의 얼굴 영상의 사이즈와 얼굴 가이드 영역(SC2-A2)의 사이즈가 일치하도록 카메라(171)와 자신의 얼굴 사이 거리를 조절할 수 있다. The face guide area (SC2-A2) is located inside the real-time video display area (SC2-A1) and provides a guide to adjust the user's face position. The face guide area (SC2-A2) may be composed of a vertically long oval or the shape of a human face. The user can adjust the distance between the camera 171 and his or her face so that the size of the face image captured in real time through the camera 171 matches the size of the face guide area (SC2-A2).

얼굴 영상 촬영 화면(SC2)은 사용자의 심박을 예측하는 진행 과정을 보여주는 진행 과정 표시 영역(SC2-A3)을 포함할 수 있다. The face image capturing screen (SC2) may include a progress display area (SC2-A3) that shows the progress of predicting the user's heart rate.

다양한 실시예에서, 진행 과정 표시 영역(SC2-A3)은 도 3(b)와 같이 종방향으로 구성되며, 비어 있거나 특정 색으로 채워진, 복수의 하트 형상들로 표시할 수 있다. 또는, 진행 과정 표시 영역(SC2-A3)은 모래시계 형상, 백분율로 표시된 숫자의 증감, 종방향으로 비어 있거나 특정 색으로 채워진 바 형상 중 하나로 표시할 수 있다. 또는, 진행 과정 표시 영역(SC2-A3)은 사용자의 얼굴 위치를 얼굴 가이드 영역(SC2-A2)에 일치하도록 조절하라는 취지의 문자/문장/도형을 제공하거나, 사용자 얼굴 영상에 대한 심박을 예측하는 진행 상태 정도를 나타내는 문자/문장/도형을 제공할 수 있다. In various embodiments, the progress display area SC2-A3 is configured longitudinally as shown in FIG. 3(b) and may be displayed as a plurality of heart shapes that are empty or filled with a specific color. Alternatively, the progress display area (SC2-A3) can be displayed in one of the following shapes: an hourglass shape, an increase or decrease in numbers expressed as percentages, or a bar shape that is longitudinally empty or filled with a specific color. Alternatively, the progress display area (SC2-A3) provides letters/sentences/figures to the effect of adjusting the user's face position to match the face guide area (SC2-A2), or predicts heart rate for the user's face image. You can provide letters/sentences/figures that indicate the level of progress.

다양한 실시예에서, 진행 과정 표시 영역(SC2-A3)은 사용자의 얼굴 영상의 사이즈와 얼굴 가이드 영역(SC2-A2)의 사이즈가 일치하는지 여부에 대한 사이즈 일치 정보 및 사용자의 얼굴 영상을 이용해 심박을 예측하는 진행 상태 정보를 포함할 수 있다. In various embodiments, the progress display area (SC2-A3) monitors the heart rate using the user's face image and size matching information regarding whether the size of the user's face image matches the size of the face guide area (SC2-A2). It may include predicted progress information.

예를 들어, 사이즈 일치 정보는 사용자의 얼굴 영상의 사이즈와 얼굴 가이드 영역(SC2-A2)의 사이즈가 일치하지 않는 경우에 빈 하트 형상이 깜빡이거나, 모래시계 형상을 보여주거나, 0% 숫자를 보여주거나, 비어 있는 바 형상을 보여주거나, "얼굴 위치를 조절하세요" 문자를 보여주거나, 얼굴 위치를 조절하는 화살표 형상을 포함할 수 있다. For example, the size matching information blinks an empty heart shape, shows an hourglass shape, or shows a 0% number when the size of the user's face image and the size of the face guide area (SC2-A2) do not match. It may show an empty bar, show the text "Adjust face position", or contain arrows to adjust the face position.

또한, 진행 상태 정보는 컴퓨팅 장치(100)의 예측기 모델(PM) 혹은 프로세서에 의해 심박 측정 과정의 정도를 복수의 하트 형상들 중 일부 하트가 특정 색이 채워진 하트 형상으로 보여주거나, 진행 정도를 보여주는 백분율 숫자를 보여주거나, 일부분이 특정 색으로 채워진 바 형상으로 보여주거나, "심박 측정 중" 문자를 보여주는 형상으로 보여줄 수 있다. In addition, the progress information may display the degree of the heart rate measurement process by the predictor model (PM) or processor of the computing device 100, with some hearts among a plurality of heart shapes filled with a specific color, or showing the degree of progress. It can display a percentage number, a bar with a portion filled with a specific color, or the text "Measuring heart rate."

S200 과정에서, 컴퓨팅 장치(100)는 실시간 영상 표시 영역(SC2-A1)에서 보여지는 사용자의 실시간 얼굴 영상과 얼굴 가이드 영역(SC2-A2)이 서로 교차하는 영역이 일치하지 않는 경우에, 사용자의 얼굴 영상의 크기 및 위치를 조절할 수 있도록 사이즈 일치 정보를 진행 과정 표시 영역(SC2-A3)을 통해 제공할 수 있다. 또한, 컴퓨팅 장치(100)는 사용자의 얼굴 영상과 얼굴 가이드 영역(SC2-A2)이 교차하는 영역이 일치하는 경우에, 사용자 얼굴 영상에 대한 심박을 예측하는 진행 정도의 정보를 진행 과정 표시 영역(SC2-A3)을 통해 제공할 수 있다. In process S200, if the area where the user's real-time face image shown in the real-time image display area (SC2-A1) and the face guide area (SC2-A2) intersect do not match, the computing device 100 determines the user's Size matching information can be provided through the progress display area (SC2-A3) so that the size and position of the face image can be adjusted. In addition, when the area where the user's face image and the face guide area (SC2-A2) intersect coincide, the computing device 100 displays information on the progress of predicting the heart rate for the user's face image in the progress display area ( It can be provided through SC2-A3).

S200 과정에서, 컴퓨팅 장치(100)는 사용자의 얼굴 영상과 얼굴 가이드 영역(SC2-A2)이 일치하는지 확인하는 과정으로, (1)카메라(171)를 통해 실시간으로 촬영되어 실시간 영상 표시 영역(SC2-A1)에 표시되는 사용자의 얼굴 영상과 얼굴 가이드 영역(SC2-A2)이 교차하는 영역이 소정 면적 이하인 경우 일치하지 않는 것으로 판단하는 과정, (2)사용자의 얼굴 영상이 얼굴 가이드 영역(SC2-A2)을 벗어나는 경우 일치하지 않는 것으로 판단하는 과정, (3)사용자의 얼굴 영상이 얼굴 가이드 영역(SC2-A2)의 내부에 위치하더라도 사용자의 얼굴 영상의 면적이 소정 면적 이하인 경우 일치하지 않는 것으로 판단하는 과정, (4)사용자의 얼굴 영상의 양쪽 눈, 양쪽 눈썹, 코, 입, 양쪽 귀 중 적어도 2개의 특징점들이 얼굴 가이드 영역(SC2-A2) 내부에 위치하지 않거나 혹은 적어도 2개의 특징점들 사이의 거리가 소정 거리 보다 작은 경우 일치하지 않는 것으로 판단하는 과정 중 어느 하나 혹은 둘 이상의 조합으로 수행할 수 있다. In the S200 process, the computing device 100 is a process of checking whether the user's face image and the face guide area (SC2-A2) match. (1) Captured in real time through the camera 171 and displayed in the real-time image display area (SC2-A2). -A process of determining that the area where the user's face image displayed in A1) and the face guide area (SC2-A2) intersect does not match if it is less than a certain area; (2) the user's face image is judged to be inconsistent with the face guide area (SC2-A2); Process of determining that it does not match if it deviates from A2); (3) Even if the user's face image is located inside the face guide area (SC2-A2), it is judged not to match if the area of the user's face image is less than a certain area Process, (4) At least two feature points among both eyes, both eyebrows, nose, mouth, and both ears of the user's face image are not located inside the face guide area (SC2-A2) or are between at least two feature points. If the distance is less than a predetermined distance, the process of determining that it does not match can be performed by any one or a combination of two or more.

얼굴 영상 촬영 화면(SC2)은 사용자의 심박 정보를 표시하는 심박 표시 영역(SC2-A4)를 포함할 수 있다. The face image capture screen (SC2) may include a heart rate display area (SC2-A4) that displays the user's heart rate information.

심박 표시 영역(SC2-A4)은 심박을 예측하는 중이라면 "심박 측정 중"과 같이 심박 예측 프로세스가 진행 중임을 표시하는 문자를 포함할 수 있다. 또한, 심박 표시 영역(SC2-A4)은 심박 예측이 끝난 경우라면 "평균 bpm : 88"과 같이 예측된 심박을 표시하는 문자 및 숫자를 포함할 수 있다. The heart rate display area (SC2-A4) may include characters indicating that the heart rate prediction process is in progress, such as “Measuring heart rate” if the heart rate is being predicted. Additionally, the heart rate display area (SC2-A4) may include letters and numbers indicating the predicted heart rate, such as “average bpm: 88” if the heart rate prediction has been completed.

다양한 실시예에서, 컴퓨팅 장치(100)는 사용자의 얼굴 영상과 얼굴 가이드 영역(SC2-A2)이 서로 일치하는 경우 카메라(171)를 통해 사용자의 얼굴 영상의 촬영을 시작함으로써, 사용자의 모바일 얼굴 영상을 획득할 수 있다. 모바일 얼굴 영상은 컴퓨팅 장치(100)의 카메라(171)에 포함된 이미지 센서를 통해 촬영되며, 비디오 파일로 스토리지(140)에 저장된다. In various embodiments, the computing device 100 starts capturing the user's face image through the camera 171 when the user's face image and the face guide area (SC2-A2) match each other, thereby capturing the user's mobile face image. can be obtained. The mobile face image is captured through an image sensor included in the camera 171 of the computing device 100 and stored in the storage 140 as a video file.

컴퓨팅 장치(100)는 촬영이 시작된 후에 제1 소정 시간 동안 사용자를 촬영하여 사용자의 모바일 얼굴 영상을 저장할 수 있다. 다시 말해, 컴퓨팅 장치(100)는 촬영 시작 이후에 제1 소정 시간의 길이를 가지는 비디오 파일을 생성하여 저장할 수 있다. 또는, 컴퓨팅 장치(100)는 제1 소정 시간 간격으로 사용자의 모바일 얼굴을 촬영한 얼굴 영상을 생성하여 저장할 수 있다. 여기서, 제1 소정 시간은 3초 내지 7초 사이로 설정될 수 있으며, 바람직하게는 5초로 설정될 수 있다. The computing device 100 may capture a user's mobile face image for a first predetermined period of time after the capture begins and store the user's mobile face image. In other words, the computing device 100 may create and store a video file having a length of a first predetermined time after the start of filming. Alternatively, the computing device 100 may generate and store a facial image obtained by photographing the user's mobile face at first predetermined time intervals. Here, the first predetermined time can be set between 3 and 7 seconds, and can preferably be set at 5 seconds.

컴퓨팅 장치(100)는 제1 소정 시간 간격으로 복수의 모바일 얼굴 영상을 촬영하여 저장함으로써, 복수의 모바일 얼굴 영상을 획득할 수 있다. 여기서, 복수의 모바일 얼굴 영상은 촬영이 시작된 후 0~5초 사이(제1 주기)에서 촬영된 제1 모바일 얼굴 영상, 5~10초 사이(제2 주기)에 촬영된 제2 모바일 얼굴 영상, 10~15초 사이(제3 주기)에 촬영된 제3 모바일 얼굴 영상, 15~20초 사이(제4 주기)에 촬영된 제4 모바일 얼굴 영상 등을 포함할 수 있다. 다시 말해, 컴퓨팅 장치(100)는 촬영이 시작된 후에 주기 별로 복수의 모바일 얼굴 영상을 촬영하여 저장할 수 있다. The computing device 100 may acquire a plurality of mobile face images by capturing and storing a plurality of mobile face images at first predetermined time intervals. Here, the plurality of mobile face images include a first mobile face image captured between 0 and 5 seconds (first cycle) after shooting starts, a second mobile face image captured between 5 and 10 seconds (second cycle), It may include a third mobile face image captured between 10 and 15 seconds (third cycle), a fourth mobile face image captured between 15 and 20 seconds (fourth cycle), etc. In other words, the computing device 100 may capture and store a plurality of mobile face images for each cycle after the capture begins.

S300 과정에서, 컴퓨팅 장치(100)는 예측기 모델(PM)을 이용해 심박 정보를 예측할 수 있다. 컴퓨팅 장치(100)는 예측기 모델(PM)을 이용해 사용자의 모바일 얼굴 영상에 기초한 심박 정보를 측정할 수 있다. In the S300 process, the computing device 100 may predict heart rate information using a predictor model (PM). The computing device 100 may measure heart rate information based on the user's mobile face image using a predictor model (PM).

컴퓨팅 장치(100)는 모바일 얼굴 영상 중 적어도 하나를 이용해 예측기 모델(PM)에 기반하여 사용자의 심박 값(rPPG 신호)을 예측할 수 있다.The computing device 100 may predict the user's heart rate value (rPPG signal) based on a predictor model (PM) using at least one of the mobile face images.

일 예로, 예측기 모델(PM)은 사용자의 나이, 성별, 현 상태에 상관없이 촬영된 얼굴 영상 및 심박 데이터로 학습된 모델일 수 있다. 이 경우, 컴퓨팅 장치(100)는 사용자 정보에 상관없이 촬영된 사용자의 모바일 얼굴 영상에 예측기 모델(PM)을 적용하여 사용자의 심박 값(rPPG 신호)을 예측할 수 있다. As an example, the predictor model (PM) may be a model learned from facial images and heart rate data captured regardless of the user's age, gender, or current condition. In this case, the computing device 100 may predict the user's heart rate value (rPPG signal) by applying a predictor model (PM) to the captured mobile face image of the user regardless of user information.

이 경우 컴퓨팅 장치(100)는 예측된 사용자의 심박 값(pb)에 사용자 정보에 따른 가중치를 적용하여 가중치 적용된 심박 값(wb)을 계산할 수 있다. 즉, 컴퓨팅 장치(100)는 사용자의 나이대에 대응한 나이 가중치(aw), 사용자의 성별에 대응한 성별 가중치(gw), 사용자의 현상태에 대응한 상태 가중치(sw)를 적용하여 심박 값을 계산할 수 있다. 예를 들어, 예측된 심박 값에 나이, 성별, 상태 가중치 각각을 곱한 값들의 평균 값을 가중치가 적용된 심박 값으로 할 수 있다(wb = pb x (aw+gw+sw)/3).In this case, the computing device 100 may calculate the weighted heart rate value (wb) by applying a weight according to user information to the predicted user's heart rate value (pb). That is, the computing device 100 calculates the heart rate value by applying the age weight (aw) corresponding to the user's age range, the gender weight (gw) corresponding to the user's gender, and the state weight (sw) corresponding to the user's current state. You can. For example, the average value of the predicted heart rate value multiplied by the age, gender, and status weights can be used as the weighted heart rate value (wb = pb x (aw+gw+sw)/3).

다양한 실시예에서, 예측기 모델(PM)은 사용자의 나이대에 따라 복수의 예측기 모델(PM)이 있을 수 있다. 예를 들어, 20대 예측기 모델(PM), 30대 예측기 모델(PM), 40대 예측기 모델(PM) 등이 있을 수 있다. 나이대별 예측기 모델(PM)은 해당 나이대에 대응하는 사용자의 모바일 얼굴 영상과 심박 데이터로 학습된 모델일 수 있다. In various embodiments, there may be a plurality of predictor models (PM) depending on the age of the user. For example, there may be a 20s predictor model (PM), a 30s predictor model (PM), a 40s predictor model (PM), etc. The age-specific predictor model (PM) may be a model learned using mobile face images and heart rate data of users corresponding to that age group.

다양한 실시예에서, 예측기 모델(PM)은 사용자의 성별에 따른 복수의 예측기 모델(PM)이 있을 수 있다. 예를 들어, 남성용 예측기 모델(PM), 여성용 예측기 모델(PM)이 있을 수 있다. 성별 예측기 모델(PM)은 해당 성에 대응하는 사용자의 모바일 얼굴 영상과 심박 데이터로 학습된 모델일 수 있다. In various embodiments, there may be a plurality of predictor models (PM) depending on the gender of the user. For example, there may be a predictor model (PM) for men and a predictor model (PM) for women. The gender predictor model (PM) may be a model learned using the mobile face image and heart rate data of the user corresponding to the gender.

다양한 실시예에서, 예측기 모델(PM)은 사용자의 현 상태에 따른 복수의 예측기 모델(PM)이 있을 수 있다. 예를 들어, 활동용 예측기 모델(PM), 휴식용 예측이 모델이 있을 수 있다. 상태별 예측기 모델(PM)은 해당 상태에 대응하는 사용자의 모바일 얼굴 영상과 심박 데이터로 학습된 모델일 수 있다. In various embodiments, there may be a plurality of predictor models (PM) depending on the current state of the user. For example, there may be a predictor model (PM) for activity and a predictor model (PM) for rest. The state-specific predictor model (PM) may be a model learned using the user's mobile face image and heart rate data corresponding to the state.

여기서, 컴퓨팅 장치(100)는 사용자 정보에 기초해 서로 다른 예측기 모델(PM)을 사용할 수 있다. 다시 말해, 컴퓨팅 장치(100)는 사용자 정보에 기초해 나이대별 예측기 모델(PM), 성별 예측기 모델(PM), 상태별 예측기 모델(PM) 중 하나를 사용하여 사용자의 심박 값(rPPG 신호)를 예측하거나, 모든 모델들을 병렬로 사용하여 출력 값들의 평균 혹은 중간 값을 사용자의 심박 값(rPPG 신호)으로 예측할 수 있다. Here, the computing device 100 may use different predictor models (PMs) based on user information. In other words, the computing device 100 calculates the user's heart rate value (rPPG signal) using one of the age predictor model (PM), gender predictor model (PM), and state predictor model (PM) based on user information. You can predict or use all models in parallel to predict the average or median value of the output values as the user's heart rate value (rPPG signal).

컴퓨팅 장치(100)는 적어도 제2 소정 개수의 심박 값의 평균 값을 계산하여 평균 심박 값을 획득할 수 있으며, 이를 사용자에게 제공할 수 있다. 제2 소정 개수는 2회 내지 4회일 수 있으며, 바람직하게는 3회일 수 있다. 이 경우, 평균 심박 값은 연속적으로 예측된 3개의 심박 값을 평균한 값일 수 있다. The computing device 100 may obtain an average heart rate value by calculating an average value of at least a second predetermined number of heart rate values and provide the average heart rate value to the user. The second predetermined number may be 2 to 4 times, and preferably 3 times. In this case, the average heart rate value may be the average of three continuously predicted heart rate values.

예측기 모델(PM)은 사용자의 모바일 얼굴 영상을 입력받아, 심박 정보를 출력할 수 있다. 이에 대한 상세한 내용은 후술하기로 한다.The predictor model (PM) can receive the user's mobile face image as input and output heart rate information. Details about this will be described later.

S400과정에서, 컴퓨팅 장치(100)는 심박 정보를 디스플레이부(151)에 표시할 수 있다. In process S400, the computing device 100 may display heart rate information on the display unit 151.

도 3(c)를 참조하면, 다양한 실시예에서, 컴퓨팅 장치(100)는 디스플레이부(151)를 통해 사용자에게 얼굴 영상 촬영 화면(SC2) 상에서, 심박 표시 영역(SC2-A4)에서 예측된 심박 값을 표시할 수 있다. 예측된 심박 값은 소정 횟수로 연속적으로 예측된 심박 값의 평균값일 수 있다. Referring to FIG. 3(c), in various embodiments, the computing device 100 displays the predicted heart rate in the heart rate display area (SC2-A4) on the face image capture screen (SC2) to the user through the display unit 151. Values can be displayed. The predicted heart rate value may be an average value of heart rate values predicted continuously a predetermined number of times.

도 3(d)를 참조하면, 다양한 실시예에서, 컴퓨팅 장치(100)는 디스플레이부(151)를 통해 예측 심박의 통계 정보를 제공하는 심박 추적관리 화면(SC3)을 제공할 수 있다. Referring to FIG. 3(d), in various embodiments, the computing device 100 may provide a heart rate tracking management screen SC3 that provides statistical information of the predicted heart rate through the display unit 151.

심박 추적관리 화면(SC3)는 각각 다른 시간대에 측정된 심박의 이력, 일별 하루 평균 심박의 이력, 월별 달 평균 심박의 이력, 및 이들의 그래프를 표시하여 제공할 수 있다. The heart rate tracking management screen (SC3) can display and provide a history of heart rate measured at different times, a history of daily average heart rate, monthly average heart rate history, and graphs thereof.

도 4, 도 5, 및 도 6을 참조하여, 모바일 얼굴 영상을 이용해 심박 정보를 예측하는 방법을 상세히 설명한다.Referring to FIGS. 4, 5, and 6, a method for predicting heart rate information using a mobile face image will be described in detail.

S310과정에서, 컴퓨팅 장치(100)는 자체적으로 가지는 카메라(171)를 통해 촬영한 모바일 얼굴 영상을 전처리할 수 있다. In process S310, the computing device 100 may preprocess a mobile face image captured through its own camera 171.

컴퓨팅 장치(100)는 스토리지(140)에 저장된 모바일 얼굴 영상을 획득할 수 있다. 여기서, 스토리지(140)에 저장된 모바일 얼굴 영상은 컴퓨팅 장치(100)에 구비된 카메라(171)로 촬영된 사용자의 모바일 얼굴 영상이다.The computing device 100 may acquire a mobile face image stored in the storage 140. Here, the mobile face image stored in the storage 140 is the user's mobile face image captured by the camera 171 provided in the computing device 100.

컴퓨팅 장치(100)는 사용자의 모바일 얼굴 영상에서 복수의 이미지 프레임들을 추출할 수 있다. 컴퓨팅 장치(100)는 복수의 이미지 프레임들에서 제1 소정 개수의 이미지 프레임들을 추출할 수 있다. The computing device 100 may extract a plurality of image frames from the user's mobile face image. The computing device 100 may extract a first predetermined number of image frames from a plurality of image frames.

제1 소정 개수는 90 frames에서 160 frames 사이일 수 있으며, 바람직하게는 90 frames으로 설정될 수 있다. 제1 소정 개수의 이미지 프레임들로 구성된 모바일 얼굴 영상은 제1 소정 시간으로 촬영된 모바일 얼굴 영상과 동일할 수 있다. The first predetermined number may be between 90 frames and 160 frames, and may be preferably set to 90 frames. The mobile face image composed of a first predetermined number of image frames may be the same as the mobile face image captured at the first predetermined time.

rPPG 신호의 예측에 대한 정확도를 높이기 위해 160frames 보다 많은 이미지 프레임을 사용할 수 있지만, 처리 속도가 늦어지는 문제점이 발생한다. 이를 해결하기 위해, 제1 소정 개수의 이미지 프레임들을 사용하여 연산 처리 속도를 높이면서, 검증 손실을 최소화시킬 수 있다.To increase the accuracy of rPPG signal prediction, more image frames than 160 frames can be used, but the problem of slow processing speed occurs. To solve this problem, the verification loss can be minimized while increasing the computation processing speed by using a first predetermined number of image frames.

제1 소정 개수의 이미지 프레임들은 모바일 얼굴 영상에서 서로 연속적으로 위치한 이미지 프레임들일 수 있다. The first predetermined number of image frames may be image frames located consecutively to each other in the mobile face image.

본 발명의 일 실시예는, 처리 대상의 사이즈를 최소화함으로써, 얼굴 영상을 서버 혹은 클라우드로 보내 rPPG 신호를 예측하는게 아니라 스마트폰과 같은 모바일 컴퓨팅 장치(100) 자체에서 실시간으로 rPPG 신호를 예측할 수 있다. In one embodiment of the present invention, by minimizing the size of the processing target, the rPPG signal can be predicted in real time from the mobile computing device 100 itself, such as a smartphone, rather than predicting the rPPG signal by sending the face image to a server or cloud. .

이는 서버로 데이터를 전송할 때 발생하는 네트워크의 지원이나 서버에서 데이터 처리 시간을 제거하고, 컴퓨팅 장치(100)의 자체 프로세서를 통해 rPPG 신호를 예측하기 위한 연산을 수행하고 자체 데이터베이스에 심박 정보를 저장함으로써 실시간 처리가 가능하고 민감한 데이터의 외부 전송 문제를 해결할 수 있다. This eliminates network support or data processing time at the server that occurs when transmitting data to the server, and performs calculations to predict the rPPG signal through the own processor of the computing device 100 and stores the heart rate information in its own database. Real-time processing is possible and the problem of external transmission of sensitive data can be solved.

컴퓨팅 장치(100)는 복수의 이미지 프레임들을 복수의 비트맵 이미지들로 변환할 수 있다. 이후, 컴퓨팅 장치(100)는 복수의 비트맵 이미지들을 얼굴 영상 텐서로 변경할 수 있다. The computing device 100 may convert a plurality of image frames into a plurality of bitmap images. Thereafter, the computing device 100 may change the plurality of bitmap images into a face image tensor.

여기서, 얼굴 영상 텐서는 이미지 프레임의 개수(시간), H는 이미지 프레임의 세로 크기, W는 이미지 프레임의 가로 크기, C는 비디오 양식의 채널 개수를 포함하는 4차원 텐서일 수 있다. Here, the face image tensor may be a four-dimensional tensor containing the number of image frames (time), H is the vertical size of the image frame, W is the horizontal size of the image frame, and C is the number of channels in the video format.

또한, 얼굴 영상 텐서는 4차원 텐서에 torch.stack으로torch.jit.script를 사용하여 변형된 5차원 텐서일 수 있다. Additionally, the face image tensor can be a 5-dimensional tensor transformed from a 4-dimensional tensor using torch.jit.script with torch.stack.

S320과정에서, 컴퓨팅 장치(100)는 에측기를 이용해 rPPG신호를 예측할 수 있다.In process S320, the computing device 100 can predict the rPPG signal using an estimator.

예측기 모델(PM)은 사용자의 모바일 얼굴 영상을 이용해 rPPG 신호를 예측할 수 있다. 상세히는, 예측기 모델(PM)은 모바일 얼굴 영상의 복수의 이미지 프레임들을 이용해 rPPG 신호를 예측할 수 있다. 또는, 예측기 모델(PM)은 사용자의 얼굴 영상 텐서를 이용해 rPPG신호를 예측할 수 있다. The predictor model (PM) can predict the rPPG signal using the user's mobile face image. In detail, the predictor model (PM) can predict the rPPG signal using multiple image frames of the mobile face image. Alternatively, the predictor model (PM) can predict the rPPG signal using the user's face image tensor.

예측기 모델(PM)은 사용자의 모바일 얼굴 영상, 얼굴 영상의 복수의 이미지 프레임들, 사용자의 얼굴 텐서 중 적어도 하나를 입력받아서 사용자의 rPPG 신호를 출력할 수 있다. The predictor model (PM) may receive at least one of the user's mobile face image, a plurality of image frames of the face image, and the user's face tensor and output the user's rPPG signal.

도 6을 참조하면, 예측기 모델(PM)은 볼륨 형태의 데이터에서 3차원 시공간 특징을 추출하는 3차원 컨볼루션 신경망으로 구성될 수 있다. 예측기 모델(PM)은 볼륨 형태를 가지는 복수의 이미지 프레임으로 구성된 얼굴 영상에서 rPPG 특징을 추출하며, rPPG 특징에 기초해 rPPG 신호를 추출할 수 있다. Referring to FIG. 6, the predictor model (PM) may be composed of a 3D convolutional neural network that extracts 3D spatiotemporal features from volume-shaped data. The predictor model (PM) extracts rPPG features from a face image composed of a plurality of image frames having a volume shape, and can extract the rPPG signal based on the rPPG features.

rPPG 특징은 하나의 이미지 프레임이 아닌 복수의 이미지 프레임이 가지는 특성 정보를 포함할 수 있다. 모바일 얼굴 영상을 구성하는 연속적인 복수의 이미지 프레임들을 이용하기 때문에, 모바일 얼굴 영상의 시간적 정보를 rPPG 특징은 포함한다.rPPG features may include characteristic information of multiple image frames rather than one image frame. Since a plurality of consecutive image frames that constitute the mobile face image are used, the rPPG features include temporal information of the mobile face image.

rPPG 신호는 얼굴 영상에서 시계열적 비디오 시퀀스들을 활용해야 사용자의 정확한 현재 심박을 측정할 수 있다. 3차원 컨볼루션 신경망은 시계열적으로 연속된 복수의 이미지 프레임들을 사용하여 현재 출력 값을 얻으므로, 얼굴 영상으로부터 정확한 rPPG 신호를 측정하기 적합하다. The rPPG signal must utilize time-series video sequences from face images to accurately measure the user's current heart rate. The 3D convolutional neural network obtains the current output value using a plurality of consecutive image frames in time series, so it is suitable for measuring an accurate rPPG signal from a face image.

S330과정에서, 컴퓨팅 장치(100)는 rPPG 신호로 심박 정보를 회득할 수 있다. In process S330, the computing device 100 may obtain heart rate information using the rPPG signal.

컴퓨팅 장치(100)는 rPPG 신호로부터 심박(bpm)을 포함하는 심박 정보를 획득할 수 있다. 컴퓨팅 장치(100)는 rPPG 신호의 피크 값을 검출하고, 피크 값에 기초해 사용자의 심박을 계산할 수 있다. The computing device 100 may obtain heart rate information including heart rate (bpm) from the rPPG signal. The computing device 100 may detect the peak value of the rPPG signal and calculate the user's heart rate based on the peak value.

심박 정보는 실시간으로 계산된 사용자의 실시간 심박, 실시간 심박이 계산된 시점 정보를 포함할 수 있다. 심박 정보는 실시간 심박, 과거 시점에 계산된 사용자의 과거 심박을 포함할 수 있다.Heart rate information may include the user's real-time heart rate calculated in real time and information at the time when the real-time heart rate was calculated. Heart rate information may include real-time heart rate and the user's past heart rate calculated at a past time.

도 7는 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 학습 과정의 흐름도를 도시한 것이다. 도 8는 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 학습 과정의 개념도를 도시한 것이다. 도 9은 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 학습 과정에서 손실함수의 학습 과정에 따른 그래프를 도시한 것이다.Figure 7 is a flowchart of the learning process of a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention. Figure 8 shows a conceptual diagram of the learning process of a heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention. Figure 9 shows a graph according to the learning process of the loss function in the learning process of the heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention.

도 7 내지 도 9을 참조하여, 본 발명의 일 실시예에 따른 실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법의 학습 과정에서 손실함수의 학습 과정을 설명한다.7 to 9, the learning process of the loss function in the learning process of the heart rate measurement method using a real-time deep learning-based mobile face image according to an embodiment of the present invention will be described.

S500과정에서, 컴퓨팅 장치(100)는 대상자의 얼굴 영상 및 대상자의 심박 데이터를 획득할 수 있다. In process S500, the computing device 100 may acquire the subject's face image and the subject's heart rate data.

대상자의 얼굴 영상은 대상자인 사람 정보, 시나리오 정보, 소스 이름 정보를 포함하는 대상자의 식별 정보를 포함할 수 있으며, 식별 정보는 'P1/V1/Source1'와 같이 표현될 수 있다. The subject's face image may include the subject's identification information, including subject person information, scenario information, and source name information, and the identification information may be expressed as 'P1/V1/Source1'.

심박 데이터는 대상자의 얼굴 영상을 촬영할 때 실시간으로 측정된 대상자의 실제 심박 신호 및 대상자의 식별 정보를 포함할 수 있다. 실시간으로 측정된 실제 심박 신호는 얼굴 영상의 각 이미지 프레임에 대응하는 BVP(Blood Volume Pulse) 신호들을 포함할 수 있다. The heart rate data may include the subject's actual heart rate signal measured in real time when capturing the subject's face image and the subject's identification information. The actual heart rate signal measured in real time may include BVP (Blood Volume Pulse) signals corresponding to each image frame of the face image.

S600과정에서, 컴퓨팅 장치(100)는 얼굴 영상 및 심박 데이터를 이용해 학습 데이터를 생성할 수 있다. 또한, 컴퓨팅 장치(100)는 얼굴 영상 및 심박 데이터를 이용해 테스트 데이터를 생성할 수 있다. In process S600, the computing device 100 may generate learning data using facial images and heart rate data. Additionally, the computing device 100 may generate test data using facial images and heart rate data.

컴퓨팅 장치(100)는 얼굴 영상에서 복수의 이미지 프레임들을 추출할 수 있다. 또한, 컴퓨팅 장치(100)는 복수의 이미지 프레임들 각각에 대응하는 심박 신호를 동기화하여 각 이미지 프레임에 대응하는 심박 신호를 추출할 수 있다. The computing device 100 may extract a plurality of image frames from a face image. Additionally, the computing device 100 may extract the heart rate signal corresponding to each image frame by synchronizing the heart rate signal corresponding to each of the plurality of image frames.

또한, 컴퓨팅 장치(100)는 심박 신호를 PPG 신호로 변환하여 추출할 수 있다.Additionally, the computing device 100 may convert and extract the heart rate signal into a PPG signal.

컴퓨팅 장치(100)는 복수의 이미지 프레임과 각 이미지 프레임에 해당하는 심박 신호를 학습 데이터 혹은 테스트 데이터로 생성할 수 있다. 또는, 컴퓨팅 장치(100)는 복수의 이미지 프레임과 각 이미지 프레임에 해당하는 PPG 신호를 학습 데이터 혹은 테스트 데이터로 생성할 수 있다. The computing device 100 may generate a plurality of image frames and a heart rate signal corresponding to each image frame as learning data or test data. Alternatively, the computing device 100 may generate a plurality of image frames and a PPG signal corresponding to each image frame as learning data or test data.

S700과정에서, 컴퓨팅 장치(100)는 학습 데이터를 이용해 예측기 모델(PM)을 학습시킬 수 있다. 또한, 컴퓨팅 장치(100)는 테스트 데이터를 이용해 학습된 예측기 모델(PM)을 평가할 수 있다. In the S700 process, the computing device 100 may learn a predictor model (PM) using training data. Additionally, the computing device 100 may evaluate a learned predictor model (PM) using test data.

컴퓨팅 장치(100)는 얼굴 영상 및 심박 신호를 학습 데이터로 예측기 모델(PM)을 학습시킬 수 있다. 예측기 모델(PM)은 얼굴 영상에 대한 예측 심박 신호와 얼굴 영상에 대한 실제 심박 신호의 차이가 최소화되도록 손실함수를 학습시킬 수 있다.The computing device 100 may train a predictor model (PM) using facial images and heart rate signals as training data. The predictor model (PM) can learn a loss function to minimize the difference between the predicted heart rate signal for the face image and the actual heart rate signal for the face image.

또한, 컴퓨팅 장치(100)는 얼굴 영상 및 실제 PPG 신호를 학습 데이터로 예측기 모델(PM)을 학습시킬 수 있다. 예측기 모델(PM)은 얼굴 영상에 대한 예측 rPPG 신호와 얼굴 영상에 대응하는 실제 PPG 신호의 차이가 최소화되도록 손실함수를 학습시킬 수 있다. Additionally, the computing device 100 may learn a predictor model (PM) using facial images and actual PPG signals as training data. The predictor model (PM) can learn a loss function to minimize the difference between the predicted rPPG signal for a face image and the actual PPG signal corresponding to the face image.

여기서, 손실함수는 얼굴 영상에서 추정되는 심박 신호(혹은 추정 rPPG 신호)와 실제 심박 신호(혹은 실제 PPG 신호)의 차이를 최소화하기 위해 사용된다. 실제 심박 신호는 BVP 신호를 사용할 수 있다. Here, the loss function is used to minimize the difference between the heart rate signal (or estimated rPPG signal) estimated from the face image and the actual heart rate signal (or actual PPG signal). The actual heart rate signal can use the BVP signal.

일 예로, 손실함수(Loss)는 추정 rPPG 신호와 실제 PPG신호가 +1에 가까운 양의 선형 관계를 나타내는 방향으로 학습되어야 하므로, 음의 피어슨 상관 계수로 설정된다. 이를 통해서, 학습 과정 동안 손실이 0에 가까워지도록 학습된다(도 9 참조).For example, the loss function (Loss) is set to a negative Pearson correlation coefficient because the estimated rPPG signal and the actual PPG signal must be learned in a direction that shows a positive linear relationship close to +1. Through this, the loss is learned so that it approaches 0 during the learning process (see Figure 9).

여기 손실함수(Loss)에서, T는 전체 신호 길이(프레임 길이)이며, x는 예측기 모델(PM)가 예측한 추정 rPPG 신호이며, y는 실제 PPG 신호(혹은 실제 BVP 신호)일 있다. Here, in the loss function (Loss), T is the total signal length (frame length), x is the estimated rPPG signal predicted by the predictor model (PM), and y is the actual PPG signal (or actual BVP signal).

상술한 학습 과정(S500과정 내지 S700과정)은 추론 과정(S100과정 내지 S400과정)이 수행되는 컴퓨팅 장치(100)에서 함께 수행될 수 있으며, 또는 다른 컴퓨팅 장치(미도시)에서 수행될 수 있다. The above-described learning process (process S500 to S700) may be performed together in the computing device 100 where the inference process (process S100 to S400) is performed, or may be performed in another computing device (not shown).

전자의 학습 과정과 추론 과정이 하나의 컴퓨팅 장치(100)에서 수행되는 경우에, 컴퓨팅 장치(100)는 자체적으로 가지는 카메라(171)에서 촬영한 사용자의 모바일 얼굴 영상 및 유무선으로 연결된 심박 측정기(200)에서 얼굴 영상을 촬영하면서 실시간으로 측정된 심박 신호를 학습 데이터로 예측기 모델(PM)을 학습하는 학습 과정을 수행한 후에, 학습된 예측기 모델(PM)을 이용해 실시간으로 촬영되는 사용자의 모바일 얼굴 영상으로부터 사용자의 rPPG 신호를 예측하고, 심박을 계산하여 사용자에게 제공할 수 있다. In the case where the electronic learning process and reasoning process are performed in one computing device 100, the computing device 100 uses the user's mobile face image captured by its own camera 171 and a heart rate monitor (200) connected wired or wirelessly. After performing a learning process of learning a predictor model (PM) using the heart rate signal measured in real time while shooting a face image as training data, the user's mobile face image is captured in real time using the learned predictor model (PM) From this, the user's rPPG signal can be predicted, heart rate calculated, and provided to the user.

후자의 학습 과정과 추론 과정이 다른 컴퓨팅 장치에서 수행되는 경우에, 컴퓨팅 장치(100)는 다른 컴퓨팅 장치(미도시)에서 학습된 예측기 모델(PM)을 수신하여 저장한 후에 학습된 예측기 모델(PM)을 이용해 실시간으로 촬영되는 사용자의 모바일 얼굴 영상으로부터 사용자의 rPPG 신호를 예측하고, 심박을 계산하여 사용자에게 제공할 수 있다.In the case where the latter learning process and inference process are performed in another computing device, the computing device 100 receives and stores the learned predictor model (PM) from the other computing device (not shown) and then stores the learned predictor model (PM). ) can be used to predict the user's rPPG signal from the user's mobile face image captured in real time, calculate the heart rate, and provide it to the user.

본 발명은 도면에 도시된 실시 예를 참조로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are merely illustrative, and those skilled in the art will understand that various modifications and other equivalent embodiments are possible therefrom. Therefore, the true scope of technical protection of the present invention should be determined by the technical spirit of the attached registration claims.

컴퓨팅 장치: 100
심박 측정기: 200
Computing devices: 100
Heart rate monitor: 200

Claims (15)

카메라, 디스플레이부, 프로세서가 구비된 심박 측정 장치를 이용한 심박 측정 방법에 있어서,
사용자 정보를 획득하는 과정;
상기 카메라에 의해 촬영된 사용자의 모바일 얼굴 영상을 실시간으로 획득하는 과정;
상기 프로세서에 의해 상기 모바일 얼굴 영상 중 제1 소정 개수의 이미지 프레임들을 추출하는 과정;
상기 제1 소정 개수의 이미지 프레임들을 이용해 3차원 컨볼루션 신경망으로 구성된 예측기 모델에 기반한 rPPG 신호를 예측하는 과정; 및
상기 프로세서에 의해 상기 예측된 rPPG 신호에 기초해 사용자의 심박을 획득하는 과정을 포함하는,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법.
In the heart rate measurement method using a heart rate measuring device equipped with a camera, a display unit, and a processor,
Process of obtaining user information;
A process of acquiring a user's mobile face image captured by the camera in real time;
extracting a first predetermined number of image frames from the mobile face image by the processor;
Predicting an rPPG signal based on a predictor model composed of a 3D convolutional neural network using the first predetermined number of image frames; and
Including the process of acquiring the user's heart rate based on the predicted rPPG signal by the processor,
Heart rate measurement method using real-time deep learning-based mobile face images.
제1항에 있어서,
상기 카메라에 의해 촬영된 사용자의 모바일 얼굴 영상을 실시간으로 획득하는 과정은,
상기 카메라에 의해 실시간으로 촬영되는 사용자의 얼굴 영상과 얼굴 가이드 영역이 일치하는 경우 제1 소정 시간 간격으로 상기 사용자를 촬영하여 복수의 모바일 얼굴 영상을 획득하는 과정을 포함하는,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법.
According to paragraph 1,
The process of acquiring the user's mobile face image captured by the camera in real time,
When the user's face image captured in real time by the camera matches the face guide area, acquiring a plurality of mobile face images by photographing the user at first predetermined time intervals,
Heart rate measurement method using real-time deep learning-based mobile face images.
제2항에 있어서,
상기 제1 소정 개수의 이미지 프레임들을 이용해 3차원 컨볼루션 신경망으로 구성된 예측기 모델에 기반한 rPPG 신호를 예측하는 과정은,
상기 복수의 모바일 얼굴 영상 각각에 예측기 모델을 적용하여 복수의 예측된 rPPG 신호를 획득하는 과정을 포함하는,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법.
According to paragraph 2,
The process of predicting an rPPG signal based on a predictor model composed of a 3D convolutional neural network using the first predetermined number of image frames includes:
Including the process of obtaining a plurality of predicted rPPG signals by applying a predictor model to each of the plurality of mobile face images,
Heart rate measurement method using real-time deep learning-based mobile face images.
제3항에 있어서,
상기 프로세서에 의해 상기 예측된 rPPG 신호에 기초해 사용자의 심박을 획득하는 과정은,
상기 복수의 예측된 rPPG 신호에 기초해 사용자의 심박 값을 계산하고, 제2 소정 개수의 심박 값을 평균한 평균 심박 값을 획득하는 과정을 포함하는,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법.
According to paragraph 3,
The process of acquiring the user's heart rate based on the predicted rPPG signal by the processor,
Comprising the process of calculating the user's heart rate value based on the plurality of predicted rPPG signals and obtaining an average heart rate value obtained by averaging a second predetermined number of heart rate values,
Heart rate measurement method using real-time deep learning-based mobile face images.
제1항에 있어서,
상기 예측기 모델은 상기 사용자 정보에 기초해 다른 학습 데이터로 학습된 예측기 모델로 구성되거나,
상기 심박은 상기 사용자 정보의 가중치가 적용된 심박 값인 것을 특징으로 하는,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법.
According to paragraph 1,
The predictor model is composed of a predictor model learned with different learning data based on the user information, or
Characterized in that the heart rate is a heart rate value to which the weight of the user information is applied.
Heart rate measurement method using real-time deep learning-based mobile face images.
제1항에 있어서,
상기 예측기 모델은, 대상자의 얼굴 영상 및 상기 얼굴 영상을 촬영하면서 동시에 측정된 상기 대상자의 실제 심박 신호를 학습 데이터로 학습된 인공지능 모델인 것을 특징으로 하는,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법.
According to paragraph 1,
The predictor model is an artificial intelligence model learned using the subject's face image and the subject's actual heart rate signal measured simultaneously while shooting the face image as learning data,
Heart rate measurement method using real-time deep learning-based mobile face images.
제6항에 있어서,
상기 예측기 모델의 손실함수는 상기 대상자의 얼굴 영상으로 추청되는 심박 신호와 실제 심박 신호의 차이가 최소화되는 방향으로 학습되는 것을 특징으로 하는,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 방법.
According to clause 6,
The loss function of the predictor model is characterized in that it is learned in a way that minimizes the difference between the heart rate signal estimated from the subject's face image and the actual heart rate signal,
Heart rate measurement method using real-time deep learning-based mobile face images.
카메라, 디스플레이부, 프로세서가 구비된 심박 측정 장치에 있어서,
상기 프로세서는,
사용자 정보를 획득하는 과정;
상기 카메라에 의해 촬영된 사용자의 모바일 얼굴 영상을 실시간으로 획득하는 과정;
상기 프로세서에 의해 상기 모바일 얼굴 영상 중 제1 소정 개수의 이미지 프레임들을 추출하는 과정;
상기 제1 소정 개수의 이미지 프레임들을 이용해 3차원 컨볼루션 신경망으로 구성된 예측기 모델에 기반한 rPPG 신호를 예측하는 과정; 및
상기 프로세서에 의해 상기 예측된 rPPG 신호에 기초해 사용자의 심박을 획득하는 과정을 수행하는,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치.
In the heart rate measuring device equipped with a camera, a display unit, and a processor,
The processor,
Process of obtaining user information;
A process of acquiring a user's mobile face image captured by the camera in real time;
extracting a first predetermined number of image frames from the mobile face image by the processor;
Predicting an rPPG signal based on a predictor model composed of a 3D convolutional neural network using the first predetermined number of image frames; and
Performing a process of acquiring the user's heart rate based on the predicted rPPG signal by the processor,
Heart rate measurement device using real-time deep learning-based mobile face images.
제8항에 있어서,
상기 카메라에 의해 촬영된 사용자의 모바일 얼굴 영상을 실시간으로 획득하는 과정은,
상기 카메라에 의해 실시간으로 촬영되는 사용자의 얼굴 영상과 얼굴 가이드 영역이 일치하는 경우 제1 소정 시간 간격으로 상기 사용자를 촬영하여 복수의 모바일 얼굴 영상을 획득하는 과정을 포함하는,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치.
According to clause 8,
The process of acquiring the user's mobile face image captured by the camera in real time,
When the user's face image captured in real time by the camera matches the face guide area, capturing the user at first predetermined time intervals to obtain a plurality of mobile face images,
Heart rate measurement device using real-time deep learning-based mobile face images.
제9항에 있어서,
상기 제1 소정 개수의 이미지 프레임들을 이용해 3차원 컨볼루션 신경망으로 구성된 예측기 모델에 기반한 rPPG 신호를 예측하는 과정은,
상기 복수의 모바일 얼굴 영상 각각에 예측기 모델을 적용하여 복수의 예측된 rPPG 신호를 획득하는 과정을 포함하는,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치.
According to clause 9,
The process of predicting an rPPG signal based on a predictor model composed of a 3D convolutional neural network using the first predetermined number of image frames includes:
Including the process of obtaining a plurality of predicted rPPG signals by applying a predictor model to each of the plurality of mobile face images,
Heart rate measurement device using real-time deep learning-based mobile face images.
제10항에 있어서,
상기 프로세서에 의해 상기 예측된 rPPG 신호에 기초해 사용자의 심박을 획득하는 과정은,
상기 복수의 예측된 rPPG 신호에 기초해 사용자의 심박 값을 계산하고, 제2 소정 개수의 심박 값을 평균한 평균 심박 값을 획득하는 과정을 포함하는,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치.
According to clause 10,
The process of acquiring the user's heart rate based on the predicted rPPG signal by the processor,
Comprising the process of calculating the user's heart rate value based on the plurality of predicted rPPG signals and obtaining an average heart rate value obtained by averaging a second predetermined number of heart rate values,
Heart rate measurement device using real-time deep learning-based mobile face images.
제8항에 있어서,
상기 예측기 모델은 상기 사용자 정보에 기초해 다른 학습 데이터로 학습된 예측기 모델로 구성되거나,
상기 심박은 상기 사용자 정보의 가중치가 적용된 심박 값인 것을 특징으로 하는,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치.
According to clause 8,
The predictor model is composed of a predictor model learned with different learning data based on the user information, or
Characterized in that the heart rate is a heart rate value to which the weight of the user information is applied.
Heart rate measurement device using real-time deep learning-based mobile face images.
제8항에 있어서,
상기 예측기 모델은, 대상자의 얼굴 영상 및 상기 얼굴 영상을 촬영하면서 동시에 측정된 상기 대상자의 실제 심박 신호를 학습 데이터로 학습된 인공지능 모델인 것을 특징으로 하는,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치.
According to clause 8,
The predictor model is an artificial intelligence model learned using the subject's face image and the subject's actual heart rate signal measured simultaneously while shooting the face image as learning data,
Heart rate measurement device using real-time deep learning-based mobile face images.
제13항에 있어서,
상기 예측기 모델의 손실함수는 상기 대상자의 얼굴 영상으로 추청되는 심박 신호와 실제 심박 신호의 차이가 최소화되는 방향으로 학습되는 것을 특징으로 하는,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 장치.
According to clause 13,
The loss function of the predictor model is characterized in that it is learned in a way that minimizes the difference between the heart rate signal estimated from the subject's face image and the actual heart rate signal,
Heart rate measurement device using real-time deep learning-based mobile face images.
컴퓨팅 장치와 결합되어,
사용자 정보를 획득하는 과정;
카메라에 의해 촬영된 사용자의 모바일 얼굴 영상을 실시간으로 획득하는 과정;
프로세서에 의해 상기 모바일 얼굴 영상 중 제1 소정 개수의 이미지 프레임들을 추출하는 과정;
상기 제1 소정 개수의 이미지 프레임들을 이용해 3차원 컨볼루션 신경망으로 구성된 예측기 모델에 기반한 rPPG 신호를 예측하는 과정; 및
상기 프로세서에 의해 상기 예측된 rPPG 신호에 기초해 사용자의 심박을 획득하는 과정을 실행시키기 위하여 컴퓨터로 판독가능한 기록매체에 저장된,
실시간 딥러닝 기반 모바일 얼굴 영상을 이용한 심박 측정 컴퓨터 프로그램.
Combined with a computing device,
Process of obtaining user information;
A process of acquiring a user's mobile face image captured by a camera in real time;
Extracting a first predetermined number of image frames from the mobile face image by a processor;
Predicting an rPPG signal based on a predictor model composed of a 3D convolutional neural network using the first predetermined number of image frames; and
Stored on a computer-readable recording medium to execute a process of acquiring the user's heart rate based on the predicted rPPG signal by the processor,
A heart rate measurement computer program using real-time deep learning-based mobile face images.
KR1020220147608A 2022-09-08 2022-11-08 Method, apparatus and computer program for measuring heart rate using mobile facial video based on deep learning in real time KR20240035290A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220114531 2022-09-08
KR1020220114531 2022-09-08

Publications (1)

Publication Number Publication Date
KR20240035290A true KR20240035290A (en) 2024-03-15

Family

ID=90272953

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220147608A KR20240035290A (en) 2022-09-08 2022-11-08 Method, apparatus and computer program for measuring heart rate using mobile facial video based on deep learning in real time

Country Status (1)

Country Link
KR (1) KR20240035290A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102096617B1 (en) 2018-12-12 2020-04-02 충남대학교산학협력단 Driver drowsiness detection system using image and ppg data based on multimodal deep learning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102096617B1 (en) 2018-12-12 2020-04-02 충남대학교산학협력단 Driver drowsiness detection system using image and ppg data based on multimodal deep learning

Similar Documents

Publication Publication Date Title
KR102200526B1 (en) Method and system for providing medical information based on the open APIs
US11961620B2 (en) Method and apparatus for determining health status
US10561321B2 (en) Continuous monitoring of a user's health with a mobile device
US11642086B2 (en) Apparatus and method for correcting error of bio-information sensor, and apparatus and method for estimating bio-information
US10971271B2 (en) Method and system for personalized blood flow modeling based on wearable sensor networks
US9642536B2 (en) Mental state analysis using heart rate collection based on video imagery
US20190216333A1 (en) Thermal face image use for health estimation
EP2745777A1 (en) Device and method for calculating cardiorespiratory fitness level and energy expenditure of a living being
US20190313966A1 (en) Pain level determination method, apparatus, and system
WO2019162054A1 (en) System and method for client-side physiological condition estimations based on a video of an individual
WO2014145204A1 (en) Mental state analysis using heart rate collection based video imagery
CN114999646A (en) Newborn exercise development assessment system, method, device and storage medium
WO2020190648A1 (en) Method and system for measuring pupillary light reflex with a mobile phone
US20240032851A1 (en) Cognitive function estimation device, cognitive function estimation method, and storage medium
WO2023189309A1 (en) Computer program, information processing method, and information processing device
KR102509545B1 (en) Electrocardiogram data processing server, method for extracting an analysis required section while segmenting the signal segments with variable window sizes, and computer program
JP6911998B2 (en) Biometric information estimation device, biometric information estimation method, and biometric information estimation program
KR20240035290A (en) Method, apparatus and computer program for measuring heart rate using mobile facial video based on deep learning in real time
KR20200061016A (en) Depression Index Estimation Method Using Skin Image
JP2021185999A (en) Physical ability presentation method, and physical ability presentation device
WO2020209846A1 (en) Pain level determination method, apparatus, and system
JP7161812B1 (en) Consciousness state analysis device and program, and observation system
WO2023053176A1 (en) Learning device, behavior recommendation device, learning method, behavior recommendation method, and recording medium
US20240013877A1 (en) Method for calculating a degree of fatigue
US20230066883A1 (en) Predicting health or disease from user captured images or videos