KR20230148073A - Artificial intelligence based digital healthcare apparatus - Google Patents

Artificial intelligence based digital healthcare apparatus Download PDF

Info

Publication number
KR20230148073A
KR20230148073A KR1020220102272A KR20220102272A KR20230148073A KR 20230148073 A KR20230148073 A KR 20230148073A KR 1020220102272 A KR1020220102272 A KR 1020220102272A KR 20220102272 A KR20220102272 A KR 20220102272A KR 20230148073 A KR20230148073 A KR 20230148073A
Authority
KR
South Korea
Prior art keywords
subject
heart rate
image
clause
processor
Prior art date
Application number
KR1020220102272A
Other languages
Korean (ko)
Other versions
KR102714082B1 (en
Inventor
손량희
Original Assignee
주식회사 엠마헬스케어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엠마헬스케어 filed Critical 주식회사 엠마헬스케어
Priority to KR1020220102272A priority Critical patent/KR102714082B1/en
Publication of KR20230148073A publication Critical patent/KR20230148073A/en
Priority to KR1020240128757A priority patent/KR20240146635A/en
Application granted granted Critical
Publication of KR102714082B1 publication Critical patent/KR102714082B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1102Ballistocardiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4818Sleep apnoea
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/04Babies, e.g. for SIDS detection

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Cardiology (AREA)
  • Theoretical Computer Science (AREA)
  • Pulmonology (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Dentistry (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Physics (AREA)
  • Primary Health Care (AREA)
  • Anesthesiology (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Psychiatry (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

The present invention relates to an artificial intelligence (AI)-based digital healthcare apparatus to enable continuous health monitoring. According to the present invention, the AI-based digital healthcare apparatus comprises: a ballistocardiogram (BCG) sensor for detecting a BCG signal of a subject; a camera capturing the subject's face to acquire a color image of the face; and a processor detecting a region of interest (ROI) corresponding to the face from the color image of the face, detecting a first color image for the forehead area among the detected ROIs, converting the first color image into a black and white image to acquire a first black and white image, detecting a second color image for the cheek area, converts the second color image into a black and white image to acquire a second black and white image, applying the acquired first and second black and white images to a predetermined learned multi-task learning algorithm model to output a remote photoplethysmography (rPPG) signal waveform of the subject, calculating a first heart rate variability from the detected BCG signal waveform to calculate a first stress index on the basis of the first heart rate variability, calculating a second heart rate variability from the output remote PPG signal waveform to calculate a second stress index on the basis of the second heart rate variability, and outputting a stress index of the subject on the basis of the first stress index and the second stress index.

Description

인공지능 기반 디지털 헬스케어 장치{ARTIFICIAL INTELLIGENCE BASED DIGITAL HEALTHCARE APPARATUS}Artificial intelligence-based digital healthcare device{ARTIFICIAL INTELLIGENCE BASED DIGITAL HEALTHCARE APPARATUS}

본 발명은 헬스케어 장치에 관한 것으로, 보다 자세하게는 비접촉식 방식으로 대상자의 심박수, 호흡수, 수면상태 등을 예측하기 위한 헬스케어 장치에 관한 것이다.The present invention relates to a healthcare device, and more specifically, to a healthcare device for predicting a subject's heart rate, respiratory rate, sleep state, etc. in a non-contact manner.

비침습적인 방식으로 PPG 센서로 생체신호를 센싱하여 인간의 질병에 대한 사항을 파악하는 연구는 존재한다. 그러나 현재 COVID-19의 대유행으로 인해 비침습적인 방식이면서 원격으로 건강을 모니터링할 수 있는 기술이 상당히 중요해졌다. 각국은 의료 환경에서 COVID-19의 위험을 줄이기 위해 가능하면 원격 건강 전략을 사용할 것을 권고하고 있다. 그렇기 때문에 기존의 신체에 접촉이 필요한 센서를 통한 생체 정보 모니터링 방법이 아닌 새로운 방법이 요구된다. There is research to identify human diseases by sensing biological signals with a PPG sensor in a non-invasive manner. However, due to the current COVID-19 pandemic, technology that can remotely monitor health in a non-invasive manner has become very important. Countries are encouraged to use telehealth strategies where possible to reduce the risk of COVID-19 in healthcare settings. Therefore, a new method is required rather than the existing method of monitoring biometric information using sensors that require contact with the body.

원격 건강 모니터링 기술은 휴대전화나 온라인 건강 포털과 같은 통신 시스템에 기반을 두고 있다. 이러한 원격 건강 모니터링 기술은 COVID-19와 같은 유행병이 끝난 후에도 지속적인 환자 모니터링에 매우 인접하게 요구될 수 있다. 카메라를 이용하여 안면 비디오 스트림을 기반으로 사용자의 생리학적 신호를 측정하는데 사용된다. 이러한 기술은 전염병뿐 아니라 영유아의 생체정보 모니터링이나 고령자 혹은 정신 건강 모니터링에도 사용될 수 있다.Remote health monitoring technologies are based on communication systems such as mobile phones or online health portals. These remote health monitoring technologies may very well be required for continuous patient monitoring even after a pandemic such as COVID-19 is over. It is used to measure the user's physiological signals based on the facial video stream using a camera. These technologies can be used not only for infectious diseases, but also for monitoring the biometric information of infants and young children, the elderly, or mental health.

그러나, 아직까지 원격 건강 모니터링 기술로서 사람의 생체신호를 추정하여, 심박수, 스트레스 지수, 호흡수 등을 예측하는 연구와 헬스케어 제품은 전무한 상황이다.However, there is still no research or healthcare products that predict heart rate, stress index, respiratory rate, etc. by estimating a person's biosignals as a remote health monitoring technology.

한국등록공보 10-1712002호Korean Registration Publication No. 10-1712002

본 발명에서 이루고자 하는 기술적 과제는 디지털 헬스케어 장치를 제공하는 데 있다.The technical problem to be achieved by the present invention is to provide a digital healthcare device.

본 발명에서 이루고자 하는 다른 기술적 과제는 디지털 헬스케어 장치가 헬스케어를 위한 모니터링 방법을 제공하는 데 있다.Another technical problem to be achieved by the present invention is to provide a monitoring method for digital healthcare devices for healthcare.

본 발명에서 이루고자 하는 또 다른 기술적 과제는 헬스케어를 위한 모니터링 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.Another technical problem to be achieved by the present invention is to provide a computer-readable recording medium that records a program for executing a monitoring method for healthcare on a computer.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

상기의 기술적 과제를 달성하기 위한, 본 발명의 일실시예에 따른 디지털 헬스케어 장치에 있어서,In a digital healthcare device according to an embodiment of the present invention to achieve the above technical problem,

소정의 시간 대 또는 주변이 소정의 밝기 이하인지 여부에 기초하여 대상자의 얼굴을 컬러 이미지로 획득할지 적외선(IR) 이미지로 획득할지 여부를 결정하는 프로세서; 상기 프로세서의 결정에 따라 대상자의 얼굴을 촬영하여 얼굴 이미지를 획득하는 카메라; 및 상기 얼굴 이미지에서 얼굴에 해당하는 관심영역(ROI)를 검출하고, 상기 검출된 관심영역 중에서 이마(forehead) 부위에 대한 제 1 이미지를 획득하고 볼(cheek) 부위에 대한 제 2 이미지를 획득하며, 상기 획득한 제 1 이미지 및 제 2 이미지를 소정의 학습된 알고리즘 모델에 적용하여 상기 대상자의 원격 PPG(remote Photoplethysmography, rPPG) 신호 파형 및 호흡수 신호 파형을 출력하는 프로세서를 포함할 수 있다.a processor that determines whether to acquire the subject's face as a color image or an infrared (IR) image based on a predetermined time period or whether the surrounding brightness is less than or equal to a predetermined brightness; a camera that acquires a facial image by photographing the subject's face according to the decision of the processor; And detecting a region of interest (ROI) corresponding to the face in the face image, acquiring a first image of the forehead area and a second image of the cheek area among the detected ROIs, and , It may include a processor that applies the acquired first image and second image to a predetermined learned algorithm model to output a remote photoplethysmography (rPPG) signal waveform and a respiratory rate signal waveform of the subject.

상기 디지털 헬스케어 장치는, 상기 대상자의 심탄도(Ballistocardiogram, BCG) 신호를 센싱하기 위한 BCG 센서를 더 포함하고, 상기 프로세서는 상기 센싱된 BCG 신호 파형으로부터 제 1 심박수를, 상기 출력된 원격 PPG 신호 파형으로부터 제 2 심박수를 산출하여 상기 제 1 심박수 및 상기 제 2 심박수에 기초해 상기 대상자의 심박수를 출력하는 프로세서를 포함할 수 있다. 상기 출력된 심박수는 상기 제 1 심박수 및 상기 제 2 심박수를 평균한 심박수에 해당한다. 상기 소정의 학습된 알고리즘 모델은 Multi-task Learning의 Siamese Neural Networks (SNN)을 이용한다.The digital healthcare device further includes a BCG sensor for sensing a ballistocardiogram (BCG) signal of the subject, and the processor detects a first heart rate from the sensed BCG signal waveform and the output remote PPG signal. It may include a processor that calculates a second heart rate from the waveform and outputs the subject's heart rate based on the first heart rate and the second heart rate. The output heart rate corresponds to an average heart rate of the first heart rate and the second heart rate. The predetermined learned algorithm model uses Siamese Neural Networks (SNN) of Multi-task Learning.

상기 프로세서는, 상기 관심영역에서 두 눈 부위 이미지들을 검출하고, 검출된 두 눈 부위 이미지에서 두 눈동자 이미지를 검출하되, 상기 검출된 두 눈동자 이미지에서 두 홍채를 검출하여 모두 인식하였으면 상기 대상자가 깨어 있는(Wake) 상태인 것으로 판단할 수 있다. 상기 프로세서는, 상기 검출된 두 눈동자 이미지에서 두 홍채가 모두 인식되지 않는 상태가 소정 시간 지나면 상기 대상자가 슬립(sleep) 상태인 것으로 판단할 수 있다. 상기 대상자에 해당하는 영유아가 누울 수 있는 베드를 더 포함하고, 상기 프로세서는 상기 대상자가 깨어 있는 상태인 것으로 판단되면 상기 베드에 동작중인 바운스 기능을 유지하도록 제어할 수 있다.The processor detects two eye area images in the region of interest, and detects two pupil images from the two detected eye area images. If both irises are detected and recognized in the two detected pupil images, the subject is awake. It can be judged to be in (Wake) state. The processor may determine that the subject is in a sleep state when a predetermined period of time elapses in which both irises are not recognized in the detected pupil images. It may further include a bed on which the infant or toddler corresponding to the subject can lie down, and if the processor determines that the subject is awake, the processor may control the bed to maintain the bounce function in operation.

상기 디지털 헬스케어 장치는 상기 대상자가 누울 수 있는 베드를 포함하고,상기 프로세서는 상기 대상자가 슬립 상태인 것으로 판단되면 상기 베드의 수직 및 수평 움직임을 제어하여 바운스 기능을 서서히 멈추도록 제어할 수 있다. 상기 디지털 헬스케어 장치는 본체 프레임을 더 포함하고, 상기 카메라는 상기 대상자의 누워 있는 자세 및 방향을 고려하여 상기 대상자의 얼굴이 촬영되도록 상기 본체 프레임 상에서 이동할 수 있다. 상기 디지털 헬스케어 장치는상기 출력된 심박수를 연동된 단말기로 전송하기 위한 통신부를 더 포함할 수 있다.The digital healthcare device includes a bed on which the subject can lie down, and when the processor determines that the subject is in a sleep state, the processor can control vertical and horizontal movements of the bed to gradually stop the bounce function. The digital healthcare device further includes a main body frame, and the camera can move on the main body frame to capture the subject's face in consideration of the subject's lying posture and direction. The digital healthcare device may further include a communication unit for transmitting the output heart rate to a linked terminal.

상기 디지털 헬스케어 장치는 상기 대상자가 누울 수 있는 베드를 더 포함하고, 상기 BCG 센서는 베드를 커버하는 커버 내부 표면에 부착되도록 구비된다. 상기 프로세서는, 상기 출력된 호흡수 신호 파형에 기초하여 호흡수를 산출하고, 상기 산출된 호흡수에 기초하여 상기 대상자의 수면 무호흡 여부를 판단할 수 있다.상기 디지털 헬스케어 장치는 상기 산출된 호흡수를 연동된 단말기로 전송하기 위한 통신부를 더 포함할 수 있다.The digital healthcare device further includes a bed on which the subject can lie, and the BCG sensor is provided to be attached to the inner surface of a cover covering the bed. The processor may calculate a respiratory rate based on the output respiratory rate signal waveform, and determine whether the subject has sleep apnea based on the calculated respiratory rate. The digital healthcare device may control the calculated respiratory rate. It may further include a communication unit for transmitting the number to the linked terminal.

상기의 기술적 과제를 달성하기 위한, 본 발명의 다른 일실시예에 따른 디지털 헬스케어 장치가 헬스케어를 위한 모니터링 방법은, 소정의 시간 대 또는 주변이 소정의 밝기 이하인지 여부에 기초하여 대상자의 얼굴을 컬러 이미지로 획득할지 적외선(IR) 이미지로 획득할지 여부를 결정하는 단계; 상기 프로세서의 결정에 따라 대상자의 얼굴을 촬영하여 얼굴 이미지를 획득하는 단계; 상기 얼굴 이미지에서 얼굴에 해당하는 관심영역(ROI)를 검출하는 단계; 상기 검출된 관심영역 중에서 이마(forehead) 부위에 대한 제 1 이미지를 획득하고 볼(cheek) 부위에 대한 제 2 이미지를 획득하는 단계; 상기 획득한 제 1 이미지 및 제 2 이미지를 소정의 학습된 알고리즘 모델에 적용하여 상기 대상자의 원격 PPG(remote Photoplethysmography, rPPG) 신호 파형 및 호흡수 신호 파형을 출력하는 단계를 포함할 수 있다.In order to achieve the above technical problem, a digital healthcare device according to another embodiment of the present invention monitors the subject's face based on whether the brightness of the surrounding area is below a predetermined time period or a predetermined brightness level. determining whether to acquire a color image or an infrared (IR) image; Obtaining a facial image by photographing the subject's face according to the decision of the processor; Detecting a region of interest (ROI) corresponding to a face in the face image; Obtaining a first image of the forehead area and a second image of the cheek area among the detected regions of interest; It may include applying the acquired first image and second image to a predetermined learned algorithm model to output a remote photoplethysmography (rPPG) signal waveform and a respiratory rate signal waveform of the subject.

상기 대상자의 심탄도(Ballistocardiogram, BCG) 신호를 센싱하는 단계; 및Sensing a ballistocardiogram (BCG) signal of the subject; and

상기 센싱된 BCG 신호 파형으로부터 제 1 심박수를, 상기 출력된 원격 PPG 신호 파형으로부터 제 2 심박수를 산출하여 상기 제 1 심박수 및 상기 제 2 심박수에 기초해 상기 대상자의 심박수를 출력하는 단계를 더 포함하는, 헬스케어를 위한 모니터링 방법.Calculating a first heart rate from the sensed BCG signal waveform and a second heart rate from the output remote PPG signal waveform, and outputting the subject's heart rate based on the first heart rate and the second heart rate. ,Monitoring method for healthcare.

상기 방법은, 상기 관심영역에서 두 눈 부위 이미지들을 검출하고, 검출된 두 눈 부위 영역에서 두 눈동자 이미지들을 검출하는 단계; 및 상기 검출된 두 눈동자 이미지들에서 두 홍채가 모두 인식되었으면 상기 대상자가 깨어 있는(Wake) 상태인 것으로 판단하는 단계를 더 포함할 수 있다. 상기 방법은, 상기 검출된 두 눈동자 이미지들에서 두 홍채가 모두 인식되지 않는 상태가 소정 시간 지나면 상기 대상자가 슬립(sleep) 상태인 것으로 판단하는 단계를 더 포함할 수 있다. 상기 방법은, 상기 출력된 호흡수 신호 파형에 기초하여 호흡수를 산출하는 단계; 및 상기 산출된 호흡수에 기초하여 상기 대상자의 수면 무호흡 여부를 판단하는 단계를 더 포함할 수 있다.The method includes detecting two eye region images in the region of interest and detecting two pupil images in the detected two eye region regions; And if both irises are recognized in the two detected pupil images, it may further include determining that the subject is awake. The method may further include determining that the subject is in a sleep state when a predetermined period of time elapses in which both irises are not recognized in the detected pupil images. The method includes calculating a respiratory rate based on the output respiratory rate signal waveform; And it may further include determining whether the subject has sleep apnea based on the calculated breathing rate.

본 발명의 일 실시예에 따른 헬스케어 장치는 대상자의 심박수, 호흡수, 스트레스 지수, 수면 상태(수면 무호흡) 등에 대한 정보를 비접촉식으로 측정하되 정확도를 상당히 향상시킬 수 있다. The healthcare device according to one embodiment of the present invention measures information about the subject's heart rate, breathing rate, stress index, sleep state (sleep apnea), etc. in a non-contact manner, but can significantly improve accuracy.

본 발명의 일 실시예에 따른 헬스케어 장치는 대상자의 홍채 인식 방식으로 Wake/sleep 상태 파악에 대한 정확도를 상당히 향상시킬 수 있다.The healthcare device according to an embodiment of the present invention can significantly improve the accuracy of determining wake/sleep status by recognizing the subject's iris.

본 발명의 일 실시예에 따른 헬스케어 장치는 얼굴 영상을 기반으로 영유아, 고령자 및 질환자를 PPG와 호흡수(RR)를 예측하는 방식으로 생체신호를 추정함으로써 지속적인 건강 모니터링을 가능하게 한다.The healthcare device according to an embodiment of the present invention enables continuous health monitoring by estimating biosignals by predicting PPG and respiratory rate (RR) of infants, the elderly, and the diseased based on facial images.

본 발명의 일 실시예에 따른 헬스케어 장치는 COVID-19와 같은 전염병이 지속되는 상황에서 비접촉식으로 영상기반으로 생체신호를 추정하여 영유아, 환자 등의 건강을 모니터링 할 수 있는 효과가 있다. The healthcare device according to an embodiment of the present invention is effective in monitoring the health of infants, patients, etc. by estimating biosignals based on images in a non-contact manner in a situation where an infectious disease such as COVID-19 continues.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 사상을 설명한다.
도 1은 인공신경망의 계층 구조(layer structure)를 예시한 도면이다.
도 2는 심탄도 (신호) 파형을 예시한 도면이다.
도 3은 remote PPG (rPPG)를 설명하기 위한 예시적인 도면이다.
도 4는 본 발명의 일 실시예에 따른 헬스케어 장치(400)의 구성을 설명하기 위한 블록도이다.
도 5는 remote PPG 기법을 이용해 MTL 알고리즘 학습 모델에서 PPG 신호, 호흡수(RR) 신호를 출력하는 사항을 설명하기 위한 도면이다.
도 6은 대상자의 스트레스 지수 산출을 위한 PPG 신호 주파수 분석 및 LF점수/HF점수 분포를 예시한 도면이다.
도 7은 본 발명에 따른 헬스케어 장치(400)를 예시한 도면이다.
도 8은 본 발명에 따른 헬스케어 장치(400)가 대상자의 홍채를 검출하는 단계를 예시한 도면이다.
도 9는 본 발명에 따른 헬스케어 장치(400)가 대상자의 눈동자(홍채)를 검출하는 방법을 상세히 설명한 도면이다.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present invention, provide embodiments of the present invention and explain the technical idea of the present invention together with the detailed description.
Figure 1 is a diagram illustrating the layer structure of an artificial neural network.
Figure 2 is a diagram illustrating a cardiac ballistic (signal) waveform.
Figure 3 is an example diagram for explaining remote PPG (rPPG).
Figure 4 is a block diagram for explaining the configuration of a healthcare device 400 according to an embodiment of the present invention.
Figure 5 is a diagram illustrating the output of a PPG signal and a respiratory rate (RR) signal from an MTL algorithm learning model using the remote PPG technique.
Figure 6 is a diagram illustrating PPG signal frequency analysis and LF score/HF score distribution for calculating the subject's stress index.
Figure 7 is a diagram illustrating a healthcare device 400 according to the present invention.
Figure 8 is a diagram illustrating the step of detecting the iris of a subject by the healthcare device 400 according to the present invention.
Figure 9 is a diagram illustrating in detail how the healthcare device 400 according to the present invention detects the subject's pupils (iris).

이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 당업자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings. The detailed description set forth below in conjunction with the accompanying drawings is intended to illustrate exemplary embodiments of the invention and is not intended to represent the only embodiments in which the invention may be practiced. The following detailed description includes specific details to provide a thorough understanding of the invention. However, one skilled in the art will appreciate that the present invention may be practiced without these specific details.

몇몇 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다. 또한, 본 명세서 전체에서 동일한 구성요소에 대해서는 동일한 도면 부호를 사용하여 설명한다.In some cases, in order to avoid ambiguity of the concept of the present invention, well-known structures and devices may be omitted or may be shown in block diagram form focusing on the core functions of each structure and device. In addition, the same components are described using the same reference numerals throughout this specification.

본 발명을 설명하기에 앞서 인공 지능(AI), 머신 러닝, 딥 러닝에 대해 설명한다. 이러한 세 가지 개념의 관계를 가장 쉽게 파악하는 방법은 세 개의 동심원을 가상하면 된다. 인공 지능이 가장 큰 원이고, 그 다음이 머신 러닝이며, 현재의 인공지능 붐을 주도하는 딥 러닝이 가장 작은 원이라 할 수 있다.Before explaining the present invention, artificial intelligence (AI), machine learning, and deep learning will be explained. The easiest way to understand the relationship between these three concepts is to imagine three concentric circles. Artificial intelligence is the largest circle, followed by machine learning, and deep learning, which is leading the current artificial intelligence boom, is the smallest circle.

이하 딥러닝에 대해 좀 더 구체적으로 살펴본다.Below we look at deep learning in more detail.

딥러닝이란 인간의 신경망(Neural Network) 이론을 이용한 인공신경망(Artificial Neural Network, ANN)의 일종으로, 계층 구조(Layer Structure)로 구성하면서 입력층(Input layer)과 출력층(Output layer) 사이에 하나 이상의 숨겨진 층(Hidden layer)(이하, 중간층이라 지칭함)을 갖고 있는 심층 신경망(Deep Neural Network, DNN)을 지칭하는 머신러닝(Machine Learning) 모델 또는 알고리즘의 집합입니다. 간단히 말하면, 딥러닝(Deep Learning)은 심층 계층을 가진 인공신경망이라 할 수 있다.Deep learning is a type of artificial neural network (ANN) that uses human neural network theory. It is composed of a layer structure and has one input layer and one output layer. It is a set of machine learning models or algorithms that refer to a deep neural network (DNN) with more than one hidden layer (hereinafter referred to as the middle layer). Simply put, Deep Learning can be said to be an artificial neural network with deep layers.

심층신경망(Deep neural network)는 인공신경망의 후손이라 볼 수 있으며, 기존의 한계를 뛰어넘어서 과거에 수많은 인공 지능 기술이 실패를 겪었던 영역에 성공 사례를 거두고 인공신경망의 최신 버전이다. 생물학적 신경망을 모방하여 인공신경망을 모델링한 내용을 살펴보면 처리 단위(Processing unit) 측면에서는 생물적인 뉴런(neurons)이 노드(nodes)로, 연결성(Connections)은 시냅스(Synapse)가 가중치(weights)로 다음 표 1과 같이 모델링 되었다. Deep neural network can be considered a descendant of artificial neural network, and is the latest version of artificial neural network, surpassing existing limitations and achieving success in areas where many artificial intelligence technologies had failed in the past. Looking at the modeling of an artificial neural network by imitating a biological neural network, in terms of processing units, biological neurons are used as nodes, and in terms of connectivity, synapses are used as weights. It was modeled as shown in Table 1.

생물학적 신경망biological neural network 인공신경망artificial neural network 세포체cell body 노드(node)node 수상돌기dendrites 입력(input)input 축삭(Axon)Axon 출력(output)output 시냅스synapse 가중치(weight)weight

도 1은 인공신경망의 계층 구조(layer structure)를 예시한 도면이다.인간의 생물학적 신경세포가 하나가 아닌 다수가 연결되어 의미 있는 작업을 하듯, 인공신경망의 경우도 개별 뉴런들을 서로 시냅스를 통해 서로 연결시켜서 복수개의 계층(layer)이 서로 연결되어 각 층간의 연결 강도는 가중치로 수정(update) 가능하다. 이와 같이 다층 구조와 연결강도로 학습과 인지를 위한 분야에 활용됩니다. 각 노드들은 가중치가 있는 링크들로 연결되어 있고, 전체 모델은 가중치를 반복적으로 조정하면서 학습을 한다. 가중치는 장기 기억을 위한 기본 수단으로서 각 노드들의 중요도를 표현한다. 인공신경망은 이들 가중치를 초기하고 훈련시킬 데이터 세트로 가중치를 갱신하여 조정하여 전체 모델을 훈련(training)시키는 것이다. 훈련이 완료된 후에 새로운 입력값이 들어오면 적절한 출력값을 추론해 내게 된다. 인공신경망의 학습원리는 경험의 일반화로부터 지능이 형성되는 과정이라고 보면 되고 bottom-up 방식으로 이루어지게 된다. 도 1에서 중간층이 2개 이상(즉 5~10개)일 경우를 층이 깊어진다고 보고 심층신경망(Deep Neural Network)이라 하며, 이러한 심층신경망을 통해서 이루어진 학습과 추론 모델을 딥 러닝이라고 지칭할 수 있다.Figure 1 is a diagram illustrating the layer structure of an artificial neural network. Just as human biological neurons connect not one but many, but many, meaningful tasks, in the case of an artificial neural network, individual neurons connect with each other through synapses. By connecting, multiple layers are connected to each other, and the connection strength between each layer can be updated with a weight. In this way, it is used in the field of learning and cognition due to its multi-layered structure and connection strength. Each node is connected by weighted links, and the entire model learns by repeatedly adjusting the weights. Weights are the basic means for long-term memory and express the importance of each node. The artificial neural network trains the entire model by initializing these weights and updating and adjusting the weights with the data set to be trained. After training is complete, when new input values come in, an appropriate output value is inferred. The learning principle of artificial neural networks can be viewed as a process in which intelligence is formed from the generalization of experience, and is done in a bottom-up manner. In Figure 1, when there are two or more middle layers (i.e. 5 to 10), the layers are considered to be deeper and are called a deep neural network, and the learning and inference model achieved through such a deep neural network can be referred to as deep learning. there is.

인공신경망은 입력과 출력을 제외하고 하나의 중간계층(통상적으로 은닉계층, 'hidden layer'라 지칭함)을 가지고 있어도 어느 정도의 역할을 수행할 수 있지만, 문제의 복잡도가 커지면 노드의 수 또는 계층의 수를 증가시켜야 한다. 이 중에서 계층의 수를 증가시켜 다층구조 모델을 가져가는 것이 효과적인데, 효율적인 학습이 불가능하고 네트워크를 학습하기 위한 계산량이 많다는 한계로 인해 활용 범위가 제한적이다. An artificial neural network can perform a certain role even if it has one middle layer (usually referred to as a 'hidden layer') excluding the input and output, but as the complexity of the problem increases, the number of nodes or the number of layers increases. The number must be increased. Among these, it is effective to use a multi-layer structure model by increasing the number of layers, but its scope of use is limited due to the inability to learn efficiently and the large amount of calculations to learn the network.

이전의 심층 신경망들은 보통 앞먹임 신경망으로 설계되어 왔지만, 최근의 연구들은 심층 학습 구조들을 순환 신경망(Recurrent Neural Network, RNN)에 성공적으로 적용했다. 일례로 언어 모델링(language modeling) 분야에 심층 신경망 구조를 적용한 사례 등이 있다. 합성곱 신경망(Convolutional Neural Network, CNN)의 경우에는 컴퓨터 비전(computer vision) 분야에서 잘 적용되었을 뿐만 아니라, 각각의 성공적인 적용 사례에 대한 문서화 또한 잘 되어 있다. 더욱 최근에는 합성곱 신경망이 자동음성인식(Automatic Speech Recognition, ASR)을 위한 음향 모델링(acoustic modeling) 분야에 적용되었으며, 기존의 모델들 보다 더욱 성공적으로 적용되었다는 평가를 받고 있다. 심층 신경망은 표준 오류역전파 알고리즘으로 학습될 수 있다. 이때, 가중치(weight)들은 아래의 등식을 이용한 확률적 경사 하강법(stochastic gradient descent)을 통하여 갱신될 수 있다.Previous deep neural networks have usually been designed as forward-feeding neural networks, but recent studies have successfully applied deep learning structures to recurrent neural networks (RNNs). For example, there is a case where a deep neural network structure is applied to the field of language modeling. In the case of Convolutional Neural Network (CNN), not only has it been well applied in the field of computer vision, but each successful application case is also well documented. More recently, convolutional neural networks have been applied to the field of acoustic modeling for Automatic Speech Recognition (ASR), and are evaluated to be more successful than existing models. Deep neural networks can be trained with the standard error backpropagation algorithm. At this time, the weights can be updated through stochastic gradient descent using the equation below.

본 발명에서는 소정의 학습된 알고리즘 모델을 이용하여 비접촉 상태에서 얼굴 이미지의 정보만으로 생체와 관련된 정보(심박수, 수면 무호흡 등의 수면 상태, wake/sleep 상태 등) 및 스트레스 지수를 예측하는 헬스케어 장치를 제안하고자 한다. 비접촉식으로 얼굴 영상을 기반으로 PPG와 호흡수(RR)를 예측하는 건강 모니터링 방식은 영유아, 당뇨 등의 질병을 가진 성인 등 지속적인 건강 모니터링이 필요한 대상자에게 적합할 뿐만 아니라 접촉으로 전염되는 COVID-19가 유행하는 환경에서 안전한 건강 모니터링 방식이 될 수 있다. 본 발명에서는 remote PPG(rPPG) 신호 및 심탄도(BCG) 신호를 이용하여 대상자(subject)의 심박수, 스트레스 지수, 수면 무호흡 여부, 웨이크/슬립(wake/sleep) 상태를 예측하는 방법을 제안한다. 이하에서 본 발명에서 사용할 생체 정보로서 인체에 대해 센싱을 통해 획득하는 심탄도, PPG에 대해 먼저 간략히 설명한다.The present invention provides a healthcare device that predicts bio-related information (heart rate, sleep states such as sleep apnea, wake/sleep states, etc.) and stress index using only facial image information in a non-contact state using a predetermined learned algorithm model. I would like to make a suggestion. The non-contact health monitoring method that predicts PPG and respiratory rate (RR) based on facial images is not only suitable for those who need continuous health monitoring, such as infants and young children and adults with diseases such as diabetes, but also is suitable for COVID-19, which is transmitted through contact. It can be a safe health monitoring method in an epidemic environment. The present invention proposes a method for predicting a subject's heart rate, stress index, sleep apnea, and wake/sleep status using remote PPG (rPPG) signals and ballistic cardiac chart (BCG) signals. Below, we will first briefly describe cardiac ballistics and PPG, which are acquired through sensing of the human body as biometric information to be used in the present invention.

심박수(Photoplethysmograph, PPG) 센서Heart rate (Photoplethysmograph, PPG) sensor

심박수 센서의 일 예로서 PPG(Photoplethysmograph) 센서를 설명한다. PPG 센서는 광용 적맥파 센서라고 한다. 광용 적맥파 측정법 (Photoplethysmograph, PPG)은 생체 조직의 광학적 특성을 이용하여 혈관에 흐르는 혈류량을 측정함으로써 심박 활동 상태 혹은 심박수를 알 수 있는 맥파 측정 방법이다. 맥파는 혈액이 심장에서 파상하며 나타내는 맥동성 파형으로, 심장의 이완 수축 작용에 따라 나타나는 혈류량의 변화, 즉 혈관의 용적 변화를 통하여 측정 가능하다. 광용 적맥파 측정법은 빛을 이용하여 맥파를 측정하는 방법으로, 용적 변화시 나타나는 생체조직의 반사, 흡수 투과비 등의 광학적 특성의 변화를 광 센서에서 감지하여 측정하며, 이를 통해 맥박 측정이 가능하다. 이 방법은 비침습적인 맥박 측정이 가능하고 소형화, 사용편의성 등의 장점을 가지고 있어 널리 사용되고 있으며 웨어러블 (wearable) 디바이스에서 생체 신호 감지 센서로 사용될 수 있다. As an example of a heart rate sensor, a PPG (Photoplethysmograph) sensor will be described. The PPG sensor is called an optical red pulse sensor. Photoplethysmograph (PPG) is a pulse wave measurement method that can determine heart rate activity or heart rate by measuring blood flow in blood vessels using the optical properties of biological tissue. A pulse wave is a pulsating waveform that appears as blood waves in the heart, and can be measured through changes in blood flow that occur due to the relaxation and contraction of the heart, that is, changes in the volume of blood vessels. The optical red pulse wave measurement method is a method of measuring pulse waves using light. Changes in optical characteristics such as reflection and absorption/transmission ratio of biological tissue that occur when volume changes are detected and measured by an optical sensor, making it possible to measure pulse. . This method is widely used because it enables non-invasive pulse measurement and has advantages such as miniaturization and ease of use, and can be used as a biosignal detection sensor in wearable devices.

심탄도(Ballistocardiogram, BCG) 센서Ballistocardiogram (BCG) sensor

도 2는 심탄도 (신호) 파형을 예시한 도면이다.Figure 2 is a diagram illustrating a cardiac ballistic (signal) waveform.

심장주기 동안 심실로부터 배출된 혈액이 대동맥을 통과하는 순간 우리 몸에 반동을 전달하게 된다. 이와 관련된 심장 및 혈관에서의 혈류변화에 따른 진동(탄도)을 계측한 신호를 심탄도(Ballistocardiogram, BCG)라고 한다. 심탄도는 심장의 수축과 이완에 따라 심장과 혈관에서의 혈류변화에 따른 탄도를 계측한 신호를 의미하며, 심전도와 유사하게 심장의 활동 상태를 나타내는 지표이다.During the cardiac cycle, the moment the blood discharged from the ventricle passes through the aorta, it transmits a recoil to our body. The signal that measures vibration (ballistics) due to changes in blood flow in the heart and blood vessels related to this is called ballistocardiogram (BCG). Cardiac ballistics refers to a signal measuring the ballistics of changes in blood flow in the heart and blood vessels as the heart contracts and relaxes, and is an indicator of the heart's activity status similar to an electrocardiogram.

심탄도는 심전도와 유사하게 심장의 활동상태를 나타내는 지표로서 심박출량, 심근기능 손상에 따른 역류 및 이상혈류 현상에 대한 정보를 포함하는 것으로 알려져 있다. 따라서 이 생체신호는 심장기능 평가, 심장병(심근장애 등) 진단, 치료효과 확인 및 회복 정도 관찰 등 임상적으로 활용할 수 있는 잠재성을 가지고 있다. 심탄도 신호는 가속도 센서, 로드셀 센서, PVDF필름 센서, EMFi 센서 등을 통해 측정할 수 있다. 이러한 센서들을 이용하면 신체에 전극을 부착할 필요가 없기 때문에 무구속/무자각 상태에서 신호를 계측할 수 있으며, 장시간 또는 일상생활 중 건강 모니터링에 유용하게 활용될 수 있다.Similar to the electrocardiogram, the cardiac ballogram is an indicator of the heart's activity status and is known to include information on cardiac output, regurgitation and abnormal blood flow due to damage to myocardial function. Therefore, this biosignal has the potential to be used clinically, such as evaluating cardiac function, diagnosing heart disease (myocardial disorders, etc.), confirming treatment effects, and observing the degree of recovery. Cardiac ballistic signals can be measured through acceleration sensors, load cell sensors, PVDF film sensors, EMFi sensors, etc. Using these sensors, there is no need to attach electrodes to the body, so signals can be measured in an unconstrained/unconscious state, and can be useful for health monitoring for long periods of time or during daily life.

도 2에 도시된 바와 같이, 심탄도 신호에서 심박 패턴은 H, I, J, K 피크로 표현되며 실제 심박으로 인정하는 부분은 J 피크이다. 심탄도 신호에서 심박 패턴은 잡음, 환경, 개인적 영향에 의하여 다양한 형태로 나타나게 되는데 보통 I 피크가 환경 및 측정 조건, 개인차에 따라 눈에 띄게 큰 차이를 보이며 H와 J 피크의 크기가 일정하지 않다. 또한 I 피크가 작은 경우 H 또는 J 피크 중 하나만 큰 형태로 나타나는 경우가 있다.As shown in Figure 2, in the ballistic signal, the heart rate pattern is expressed as H, I, J, and K peaks, and the part recognized as the actual heart rate is the J peak. In ballistic signals, the heart rate pattern appears in various forms due to noise, environment, and personal influences. Usually, the I peak shows a noticeable difference depending on the environment, measurement conditions, and individual differences, and the size of the H and J peaks is not constant. Additionally, when the I peak is small, only one of the H or J peaks may appear in a large form.

원격 측정 방법에 대해 간략히 설명한다.Briefly explain the telemetry method.

도 3은 remote PPG (rPPG)를 설명하기 위한 예시적인 도면이다.Figure 3 is an example diagram for explaining remote PPG (rPPG).

Remote PPG를 사용하여 원격으로 심박수 및 심박수 변동성을 측정할 수 있다. 도 3에 도시한 바와 같이, 원격으로 심박수 등을 측정하기 위해 고해상도 카메라로 동영상 촬영을 하면 된다. 운전자, 노인, 영유아 모니터링 등 다양한 신체적, 건강, 감정적 모니터링에 유용할 수 있다. Remote PPG는 PPG와 원리는 같지만 비접촉식 측정이다. 정반사(specular reflection)와 난반사 사이의 대비로서 피부에서 변화하는 적색, 녹색, 파랑 빛의 반사의 변화를 측정한다. 정반사는 피부로부터의 순수한 빛 반사이다. 확산 반사(diffuse reflection)는 혈액량 변화에 따라 달라지는 피부 조직의 흡수 및 산란으로 인해 남아 있는 반사이다. 헤모글로빈이 적색광은 반사하고 녹색광은 흡수하는 것을 이용하는 원리이다. 도 3에서는 remote PPG 기법을 이용하여 신호 처리(signal processing) 한 후에 검출된 적색광, 녹색광, 파란색광 파형을 예시하고 있고 이들 각 광 별로 검출된 rPPG 파형도 차이가 있음을 알 수 있다. 원격으로 생체 정보를 모니터링하기 위한 원격측정(Remote Measurement) 기술은 영유아 모니터링, COVID-19같은 전염병 같은 비접촉 모니터링이 요구되는 환경에서 비접촉식으로 얼굴의 정보만으로 생체 정보를 예측할 수 있다는 점에서 그 활용도가 높다. 얼굴 이미지는 대상자의 주변에 있는 주변광(ambient light)을 광원으로 이용하여 획득된다.You can measure heart rate and heart rate variability remotely using Remote PPG. As shown in Figure 3, in order to remotely measure heart rate, etc., a video can be captured with a high-resolution camera. It can be useful for a variety of physical, health, and emotional monitoring, including monitoring of drivers, the elderly, and infants. Remote PPG has the same principle as PPG, but is a non-contact measurement method. It measures changes in the reflection of red, green, and blue light on the skin as a contrast between specular reflection and diffuse reflection. Specular reflection is pure reflection of light from the skin. Diffuse reflection is a reflection that remains due to absorption and scattering by skin tissue, which varies with changes in blood volume. The principle is that hemoglobin reflects red light and absorbs green light. Figure 3 illustrates the waveforms of red light, green light, and blue light detected after signal processing using the remote PPG technique, and it can be seen that the rPPG waveforms detected for each light are also different. Remote measurement technology for remotely monitoring biometric information is highly useful in environments that require non-contact monitoring, such as infant monitoring or infectious diseases such as COVID-19, in that biometric information can be predicted using only facial information in a non-contact manner. . Face images are acquired using ambient light around the subject as a light source.

Multi-Task Learning (MTL)Multi-Task Learning (MTL)

심층 신경망과 머신러닝을 사용하여 생체 정보를 예측하는 것이 많이 시도되고 있다. 모바일 의료 시스템의 구현에 있어 다중 작업 학습(Multi-Task Learning, MTL)은 제한된 자원으로 여러 작업을 수행하는 중요한 접근법이다. 안면 비디오 스트림에서 MTL을 사용하여 PPG 신호와 호흡수 신호를 동시에 추출한다. 본 발명에서는 비디오 스트림을 동시에 처리하는 복잡한 가치 기반 다중 작업 학습(Multi-Task Learning, MTL) 알고리즘 모델을 제안한다. 두 개의 안면 영역은 복잡한 값의 신경망 아키텍처에서 동시에 처리되는 복잡한 번호 데이터로 구성된다. 이 복잡한 프로세스를 통해 PPG 신호와 호흡수 신호를 실제 값 단일 작업 학습 알고리즘과 비교하여 보다 효율적이고 정확하게 추출할 수 있다. Many attempts are being made to predict biometric information using deep neural networks and machine learning. In the implementation of mobile medical systems, multi-task learning (MTL) is an important approach to perform multiple tasks with limited resources. Simultaneously extract PPG signal and respiratory rate signal from facial video stream using MTL. The present invention proposes a complex value-based multi-task learning (MTL) algorithm model that processes video streams simultaneously. The two facial regions consist of complex number data that is processed simultaneously in a complex-valued neural network architecture. This complex process allows PPG signals and respiratory rate signals to be extracted more efficiently and accurately compared to real-value single-task learning algorithms.

MTL(Multi Task Learning)은 공유된 Layer를 통해 두 가지 이상의 여러 task를 동시에 학습하여, 예측하는 모델 학습 방법이다. 연관성이 있는 task를 동시에 학습함으로써 learned representation을 공유하고, 이로써 좋은 representation을 가지고 서로의 task가 모델 학습에 도움을 줄 수 있다. 학습하면 얻은 유용한 정보가 다른 task에 좋은 영향을 주어 더 좋은 모델이 되는데 기여할 수 있다. 그리고 여러 task를 동시에 예측함으로써 overfitting에 보다 강한 generalized 된 모델로 학습되게 되고, 기존의 두 task를 각자 만들어야 했던 것에 있어서 하나의 모델로 만들어 졌기 때문에 모델을 경량화 하는데 크게 도움이 되어, 스마트폰 같은 모바일 기기에 적하기에 보다 유리하다. MTL (Multi Task Learning) is a model learning method that simultaneously learns two or more tasks through a shared layer and makes predictions. By learning related tasks at the same time, learned representations are shared, so each task can help model learning with good representation. The useful information obtained through learning can have a positive impact on other tasks and contribute to becoming a better model. And by predicting multiple tasks at the same time, it is learned as a generalized model that is more resistant to overfitting. Since it was created as a single model instead of the existing two tasks that had to be created separately, it is greatly helpful in lightening the model and can be used in mobile devices such as smartphones. It is more advantageous to apply to .

도 4는 본 발명의 일 실시예에 따른 헬스케어 장치(400)의 구성을 설명하기 위한 블록도이고, 도 5는 remote PPG 기법을 이용해 MTL 알고리즘 학습 모델에서 PPG 신호, 호흡수(RR) 신호를 출력하는 사항을 설명하기 위한 도면이다.Figure 4 is a block diagram for explaining the configuration of the healthcare device 400 according to an embodiment of the present invention, and Figure 5 shows the PPG signal and respiratory rate (RR) signal in the MTL algorithm learning model using the remote PPG technique. This is a drawing to explain what is being printed.

도 4를 참조하면, 본 발명에 따른 헬스케어 장치(400)는 프로세서(410), 카메라(420), 베드(430), BCG 센서(440), 디스플레이부(450), 통신부(460), 본체 프레임(470) 및 베드 움직임 제어부(480)를 포함할 수 있다.Referring to FIG. 4, the healthcare device 400 according to the present invention includes a processor 410, a camera 420, a bed 430, a BCG sensor 440, a display unit 450, a communication unit 460, and a main body. It may include a frame 470 and a bed movement control unit 480.

카메라(420)는 대상자(예를 들어, 베드(430)에 누워있는 영유아)의 얼굴을 촬영한다. 카메라(420)는 촬영한 대상자의 얼굴 이미지를 통신부(460) 등을 통해 프로세서(410)로 전송해 줄 수도 있다. 프로세서(410)는 대상자의 얼굴 이미지를 획득할 수 있다. 여기서 촬영된 대상자의 얼굴 이미지는 컬러 이미지로서 RGB 이미지일 수 있다.The camera 420 photographs the face of a subject (eg, an infant or toddler lying on the bed 430). The camera 420 may transmit the captured face image of the subject to the processor 410 through the communication unit 460, etc. The processor 410 may acquire a face image of the subject. The face image of the subject captured here is a color image and may be an RGB image.

도 5를 참조하면, 프로세서(410)는 대상자의 얼굴을 촬영한 오리지널 데이터(510)를 획득하여 오리지널 데이터(510) 내에서 대상자의 얼굴 이미지 (520)를 검출할 수 있다. 프로세서(410)는 검출된 얼굴 이미지(520)로부터 관심영역 프레임(530, 540)을 획득하고, 각 관심영역 프레임(530, 540)에서 이마(forehead) 영역(430)과 볼(cheek) 영역(560)을 검출할 수 있다. 프로세서(410)는 이미지 프로세싱에 사용되는 딥러닝 네트워크인 CNN(Convolutional Neural Network), Siamese neural network (SNN) 등을 이용하여 얼굴 이미지를 학습하여 PPG 신호, 호흡수 신호를 예측할 수 있다. 본 발명에서는 Multi-task learning 알고리즘 학습 모델이 Siamese neural network (SNN)을 이용하는 것이 바람직할 수 있다. 프로세서(410)는 얼굴 이미지(520)에서 추출한 이마와 볼의 이미지의 모든 영역에 필터(커널)를 반복 적용하여 패턴을 찾아내서 학습한다. 이마와 볼을 추출한 이유는 심장으로부터 올라오는 혈액의 시간차이로 인하여 신체의 두 부위간 차이를 유의미한 정보로서 활용하여 모델을 학습하기 위해서이다.Referring to FIG. 5 , the processor 410 may obtain original data 510 of a subject's face and detect the subject's face image 520 within the original data 510 . The processor 410 acquires region-of-interest frames 530 and 540 from the detected face image 520, and selects a forehead region 430 and a cheek region from each region-of-interest frame 530 and 540. 560) can be detected. The processor 410 can predict the PPG signal and respiratory rate signal by learning the face image using deep learning networks such as CNN (Convolutional Neural Network) and Siamese neural network (SNN) used in image processing. In the present invention, it may be desirable to use Siamese neural network (SNN) as the multi-task learning algorithm learning model. The processor 410 repeatedly applies a filter (kernel) to all areas of the forehead and cheek images extracted from the face image 520 to find and learn patterns. The reason for extracting the forehead and cheeks is to learn a model by using the difference between the two parts of the body as meaningful information due to the time difference in blood flowing from the heart.

검출된 이마(forehead) 영역에 대한 이미지, 볼 영역에 대한 이미지는 컬러 이미지이다. 설명의 편의를 위해 이마 영역에 대한 이미지(550)를 제 1 컬러 이미지, 볼 영역에 대한 이미지(560)을 제 2 컬러 이미지라고 칭한다. 이때, 프로세서(410)는 제 1 컬러 이미지와 제 2 컬러 이미지를 흑백영상으로 변환하여 제 1 컬러 이미지로부터 제 1 흑백 이미지를, 제 2 컬러 이미지로부터 제 2 흑백 이미지를 획득한다. 프로세서(410)는 흑백으로 변환한 후에 MTL(예를 들어, Multi-task Siamese network)를 통해 학습하고 PPG 신호와 호흡수 신호를 예측한다.The detected image for the forehead area and the image for the cheek area are color images. For convenience of explanation, the image 550 for the forehead area is referred to as a first color image, and the image 560 for the cheek area is referred to as a second color image. At this time, the processor 410 converts the first color image and the second color image into a black-and-white image to obtain a first black-and-white image from the first color image and a second black-and-white image from the second color image. After converting to black and white, the processor 410 learns through MTL (eg, Multi-task Siamese network) and predicts the PPG signal and the respiratory rate signal.

도 5에 도시한 바와 같이, 프로세서(410)는 이마 부위에 대한 제 1 컬러 이미지와 볼 부위에 대한 제 2 컬러 이미지를 각각 제 1 흑백 이미지 및 제 2 흑백 이미지로 변환해서 Siamese neural network (SNN)을 이용하는 소정의 학습된 Multi-task Learning 알고리즘 모델에 입력한다. 프로세서(410)는 상기 제 1 흑백 이미지 및 상기 제 2 흑백 이미지를 소정의 학습된 Multi-task Learning 알고리즘 모델에 적용하여 대상자의 원격 PPG 신호 파형(혹은 rPPG 기법으로 출력한 PPG 신호 파형이라고 칭할 수도 있음), 호흡수(RR) 파형을 출력한다. 상술한 바와 같이, 프로세서(410)가 이마 부위 및 볼 부위에 대해 각각 컬러 이미지를 흑백 이미지로 변환해서 소정의 학습된 알고리즘 모델에 입력하는 것은 소정의 설정된 낮 시간이거나 주변이 소정 밝기 이상인 경우에 적용하는 것이 바람직하다. 프로세서(410)는 카메라(420)가 상기 소정의 설정된 낮 시간이거나 주변이 소정 밝기 이상인 경우에는 대상자의 얼굴을 촬영하여 컬러 이미지를 획득하도록 제어할 수 있다.As shown in Figure 5, the processor 410 converts the first color image for the forehead area and the second color image for the cheek area into a first black and white image and a second black and white image, respectively, and uses a Siamese neural network (SNN). It is input into a predetermined learned Multi-task Learning algorithm model using . The processor 410 applies the first black-and-white image and the second black-and-white image to a predetermined learned Multi-task Learning algorithm model and applies the subject's remote PPG signal waveform (or may also be referred to as the PPG signal waveform output by the rPPG technique). ), outputs the respiratory rate (RR) waveform. As described above, the processor 410 converts color images of the forehead area and cheek area into black and white images and inputs them into a predetermined learned algorithm model when it is a predetermined daytime or when the surrounding brightness is higher than a predetermined brightness. It is desirable to do so. The processor 410 may control the camera 420 to obtain a color image by photographing the subject's face when it is the predetermined daytime or when the surrounding brightness is higher than a predetermined brightness.

이와 달리, 소정의 설정된 밤 시간이거나 주변이 소정의 밝기 이하인 경우에는 프로세서(410)는 카메라(420)또는 적외선 영상 촬영을 위한 별도로 구비된 카메라가 대상자의 얼굴을 촬영하여 적외선(IR) 영상을 획득하도록 제어할 수 있다. 소정의 설정된 밤 시간이거나 주변이 소정의 밝기 이하인 경우에는, 카메라(420)는 대상자의 얼굴을 촬영하여 적외선(IR) 영상을 획득하고, 프로세서(410)는 적외선 영상에서 얼굴에 해당하는 관심영역(ROI)를 검출하고, 검출된 관심영역 중에서 이마(forehead) 부위에 대한 제 1 이미지를 획득하고 볼(cheek) 부위에 대한 제 2 이미지를 획득할 수 있다. 그리고, 프로세서(410)는 적외선 영상으로부터 각각 획득된 상기 제 1 이미지 및 상기 제 2 이미지를 소정의 학습된 Multi-task Learning 알고리즘 모델에 적용하여 상기 대상자의 원격 PPG(remote Photoplethysmography, rPPG) 신호 파형을 출력할 수 있다. 이후, 프로세서(410)는 상기 센싱된 BCG 신호 파형으로부터 제 1 심박수를, 상기 출력된 원격 PPG 신호 파형으로부터 제 2 심박수를 산출하여 상기 제 1 심박수 및 상기 제 2 심박수에 기초해 상기 대상자의 심박수를 출력할 수 있다.On the other hand, when it is a predetermined night time or the surrounding brightness is less than a predetermined brightness, the processor 410 acquires an infrared (IR) image by using the camera 420 or a separately equipped camera for infrared image capturing to capture the subject's face. You can control it to do so. When it is a predetermined night time or the surrounding brightness is below a predetermined level, the camera 420 acquires an infrared (IR) image by photographing the subject's face, and the processor 410 selects an area of interest (region of interest) corresponding to the face in the infrared image. ROI) may be detected, and among the detected regions of interest, a first image of the forehead area may be acquired and a second image of the cheek area may be acquired. And, the processor 410 applies the first image and the second image, respectively acquired from the infrared image, to a predetermined learned Multi-task Learning algorithm model to generate the remote PPG (remote photoplethysmography, rPPG) signal waveform of the subject. Can be printed. Thereafter, the processor 410 calculates a first heart rate from the sensed BCG signal waveform and a second heart rate from the output remote PPG signal waveform, and calculates the subject's heart rate based on the first heart rate and the second heart rate. Can be printed.

이와 같이, 프로세서(410)는 시간 대 혹은 주변 밝기도에 따라 대상자의 얼굴을 컬러 이미지로 획득할지 적외선 영상으로 획득할지를 선택할 수 있다. 프로세서(410)는 시간 대 혹은 주변 밝기도에 기초한 선택에 따라 컬러 이미지를 흑백 이미지로 변환하여 소정의 학습된 알고리즘(MTL 알고리즘) 모델에 입력하여 적용하거나, 적외선 영상으로부터 획득한 이미지를 소정의 학습된 알고리즘 모델에 입력하여 적용할 수 있다. In this way, the processor 410 can select whether to acquire the subject's face as a color image or an infrared image depending on the time of day or ambient brightness. The processor 410 converts a color image into a black and white image according to a selection based on time or ambient brightness and inputs and applies it to a predetermined learned algorithm (MTL algorithm) model, or applies an image acquired from an infrared image to a predetermined learned algorithm. It can be applied by inputting it into the algorithm model.

본 발명에 따른 헬스케어 장치(400)는 대상자(예, 영유아)가 누울 수 있는 베드(430)를 포함할 수 있다. 베드(430)의 커버 내부에 BCG 센서(440)가 부착되어 있을 수 있다. BCG 센서(440)는 베드 커버의 내부 표면에 구비되어 있기 때문에 대상자가 누웠을 때 등, 옆구리 등으로부터 심탄도 신호를 센싱할 수 있다. The healthcare device 400 according to the present invention may include a bed 430 on which a subject (eg, an infant) can lie. A BCG sensor 440 may be attached to the inside of the cover of the bed 430. Since the BCG sensor 440 is provided on the inner surface of the bed cover, it can sense ballistic signals from the back, side, etc. of the subject when he or she is lying down.

프로세서(410)는 BCG 센서(440)으로부터 획득한 심탄도 신호 파형으로부터 심박수를 산출하고, 소정의 학습된 MTL 알고리즘 모델로부터 PPG 신호 파형을 획득하고, 획득한 PPG 신호 파형으로부터 심박수를 산출할 수 있다. 여기서, 심탄도 신호 파형으로부터 산출한 심박수를 제 1 심박수, PPG 신호 파형으로부터 산출한 심박수를 제 2 심박수라고 칭한다. 제 1 심박수는 단위 시간당(예, 1분) BCG 신호 파형 중 J-피크의 검출 횟수로 산출되고, 제 2 심박수는 단위 시간당(예, 1분) rPPG 신호 파형의 피크 횟수로 산출될 수 있다. 프로세서(410)는 심탄도 신호 파형으로부터 산출한 상기 제 1 심박수 및 remote PPG 기법을 이용하여 획득한 PPG 신호 파형으로부터 산출한 상기 제 2 심박수에 기초해 대상자의 심박수를 출력할 수 있다. 일 예로서, 프로세서(410)는 상기 제 1 심박수 및 상기 제 2 심박수를 평균한 심박수를 출력할 수 있다.The processor 410 may calculate the heart rate from the ballistic signal waveform obtained from the BCG sensor 440, obtain the PPG signal waveform from a predetermined learned MTL algorithm model, and calculate the heart rate from the obtained PPG signal waveform. . Here, the heart rate calculated from the ballistic signal waveform is called the first heart rate, and the heart rate calculated from the PPG signal waveform is called the second heart rate. The first heart rate may be calculated as the number of detections of the J-peak in the BCG signal waveform per unit time (e.g., 1 minute), and the second heart rate may be calculated as the number of peaks in the rPPG signal waveform per unit time (e.g., 1 minute). The processor 410 may output the subject's heart rate based on the first heart rate calculated from the ballistic signal waveform and the second heart rate calculated from the PPG signal waveform obtained using the remote PPG technique. As an example, the processor 410 may output a heart rate that is the average of the first heart rate and the second heart rate.

또한, 프로세서(410)는 심탄도 신호 파형으로부터 심박변이도(Heart Rate Variability, HRV)를 산출할 수 있다. 심박변이도는 일 예로서 다음 수학식 1에 의해 산출할 수 있다. 여기서, 심탄도 신호 파형으로부터 산출된 심박변이도를 제 1 심박변이도라고 칭한다.Additionally, the processor 410 may calculate heart rate variability (HRV) from the ballistic signal waveform. As an example, heart rate variability can be calculated using Equation 1 below. Here, the heart rate variability calculated from the ballistic signal waveform is called the first heart rate variability.

프로세서(410)는 다음 수학식 2에 기초하여 rPPG 기법으로부터 산출된 PPG 파형으로부터 심박변이도를 산출할 수 있다. 여기서, PPG 신호 파형으로부터 산출된 심박변이도를 제 2 심박변이도라고 칭한다. The processor 410 can calculate heart rate variability from the PPG waveform calculated from the rPPG technique based on Equation 2 below. Here, the heart rate variability calculated from the PPG signal waveform is called the second heart rate variability.

도 6은 대상자의 스트레스 지수 산출을 위한 PPG 신호 주파수 분석 및 LF점수/HF점수 분포를 예시한 도면이다.Figure 6 is a diagram illustrating PPG signal frequency analysis and LF score/HF score distribution for calculating the subject's stress index.

프로세서(410)는 스트레스 지수 산출을 위해 PPG 신호 파형의 주파수 분석, BCG 신호 파형의 주파수 분석이 필요하다. 도 6에서는 일 예로서 PPG 신호 파형의 주파수 분석을 도시하였다. 프로세서(410)는 제 1 심박변이도에 기초하여 대상자의 제 1 스트레스 지수(점수)를 산출하고, 제 2 심박변이도에 기초하여 대상자의 제 2 스트레스 지수를 산출할 수 있다. 여기서, 제 1 스트레스 지수 및 제 2 스트레스 지수를 산출하는 방법은 다음 수학식 3과 같다.The processor 410 requires frequency analysis of the PPG signal waveform and frequency analysis of the BCG signal waveform to calculate the stress index. FIG. 6 shows frequency analysis of the PPG signal waveform as an example. The processor 410 may calculate the subject's first stress index (score) based on the first heart rate variability and calculate the subject's second stress index based on the second heart rate variability. Here, the method for calculating the first stress index and the second stress index is as shown in Equation 3 below.

수학식 3에서 교감 신경계의 신호(LF), 부교감 신경계의 신호(HF)를 계산하여 스트레스 지수로 환산한다.In Equation 3, the signal of the sympathetic nervous system (LF) and the signal of the parasympathetic nervous system (HF) are calculated and converted into a stress index.

상기 수학식 3 및 도 6의 (a)를 참조하여 설명한다. LF(교감신경)는 Low Frequency 0.04~0.15Hz 사이에서의 심박변이도의 power spectral density의 적분값이다. HF(부교감신경)는 High Frequency 0.15~0.40Hz 사이에서의 심박변이도의 power spectral density 그래프에서 적분값이다. 스트레스 지수(점수)는 LF power와 HF power에 자연로그를 취한 뒤 범위에 따라 LF 점수와 HF 점수를 계산하여 스트레스 점수 환산한다. 5번 영역이 정상이며, 5번에서 얼마나 떨어져 있는지를 나타내는 점수이다.This will be described with reference to Equation 3 above and (a) of FIG. 6. LF (sympathetic nervous system) is the integral value of the power spectral density of heart rate variability between Low Frequency 0.04 and 0.15 Hz. HF (parasympathetic nervous system) is the integral value in the power spectral density graph of heart rate variability between High Frequency 0.15 and 0.40 Hz. The stress index (score) is converted into a stress score by taking the natural logarithm of LF power and HF power and then calculating the LF score and HF score according to the range. Area 5 is normal, and this score indicates how far it is from area 5.

프로세서(410)는 상기 수학식 1 및 상기 수학식 3에 기초하여 대상자의 제 1 스트레스 지수(점수)를 산출하고, 상기 수학식 2 및 상기 수학식 3에 기초하여 제 2 스트레스 지수를 산출할 수 있다. 프로세서(410)는 상기 제 1 스트레스 지수 및 상기 제 2 스트레스 지수에 기초하여 대상자의 스트레스 지수를 출력할 수 있다. 일 예로서, 프로세서(410)는 상기 제 1 및 제 2 스트레스 지수를 평균한 값을 대상자의 스트레스 지수로 출력할 수 있다.The processor 410 can calculate the subject's first stress index (score) based on Equation 1 and Equation 3, and calculate a second stress index based on Equation 2 and Equation 3. there is. The processor 410 may output the subject's stress index based on the first stress index and the second stress index. As an example, the processor 410 may output the average of the first and second stress indices as the subject's stress index.

프로세서(410)는 Siamese neural network (SNN)을 이용하는 소정의 학습된 Multi-task Learning 알고리즘 모델에 기초하여 PPG 신호 파형 이외에 호흡수(RR) 신호 파형도 출력한다. 프로세서(410)는 출력된 호흡수 신호 파형에 기초하여 대상자(예, 영유아)의 수면 무호흡 여부 등을 판단하는 등 대상자의 건강 모니터링 기능도 수행한다. 프로세서(410)는 출력된 호흡수 신호 파형, 호흡수 등을 대상자를 모니터링하는 사람이 볼 수 있게 디스플레이부(450)에 디스플레이하도록 제어할 수 있다. 또한, 프로세서(410)는 출력된 심박수, 출력된 스트레스 지수, 출력된(혹은 산출된) 호흡수를 디스플레이부(450)에 디스플레이되도록 제어함으로써 외부에서 대상자의 건강 상태를 모니터링할 수 있도록 한다.The processor 410 outputs a respiratory rate (RR) signal waveform in addition to the PPG signal waveform based on a predetermined learned Multi-task Learning algorithm model using a Siamese neural network (SNN). The processor 410 also performs a health monitoring function of the subject, such as determining whether the subject (eg, an infant) has sleep apnea based on the output respiratory rate signal waveform. The processor 410 can control the output respiratory rate signal waveform, respiratory rate, etc. to be displayed on the display unit 450 so that the person monitoring the subject can see it. In addition, the processor 410 controls the output heart rate, output stress index, and output (or calculated) respiratory rate to be displayed on the display unit 450, thereby enabling the subject's health status to be monitored from the outside.

통신부(460)는 출력된 심박수, 출력된 스트레스 지수, 출력된 호흡수 등의 정보를 WiFi, Bluetooth 등을 통해 대상자의 건강 모니터링을 수행하는 사용자의 단말기 혹은 서버에 주기적 혹은 비주기적으로 전송해 줄 수 있다. 비주기적은 경우는 출력된 심박수, 출력된 스트레스 지수, 출력된 호흡수 중 적어도 어느 하나가 소정의 임계치를 초과하는 경우에만 전송해 주는 것이다. 일 예로서, 출력된 호흡 수가 수면 무호흡 상태인 것으로 판단되는 경우에만 통신부(460)가 연동 단말기로 전송해 줄 수도 있다. 사용자는 자신의 연동된 단말기를 통해 대상자의 건강 모니터링 정보를 주기적 혹은 비주기적으로 수신하여 대상자의 건강 상태를 체크할 수 있다.The communication unit 460 can periodically or aperiodically transmit information such as the output heart rate, output stress index, and output breathing rate to the user's terminal or server that monitors the subject's health through WiFi, Bluetooth, etc. there is. In the non-periodic case, transmission is performed only when at least one of the output heart rate, output stress index, and output breathing rate exceeds a predetermined threshold. As an example, the communication unit 460 may transmit the output respiratory rate to the linked terminal only when it is determined that the respiratory rate is in a sleep apnea state. The user can check the subject's health status by receiving the subject's health monitoring information periodically or non-periodically through the user's linked terminal.

도 7은 본 발명에 따른 헬스케어 장치(400)를 예시한 도면이다.Figure 7 is a diagram illustrating a healthcare device 400 according to the present invention.

도 7을 참조하면, 헬스케어 장치(400)의 본체프레임(470)은 베드(430)를 하부에서 지지하는 하부 지지부, 베드(430)를 둘러싸 대상자가 베드(430)에서 낙상하지 않도록 가드 역할을 수행하는 측면 지지부(475)를 포함할 수 있다. 측면 지지부(475)에 카메라(420)가 위치하여 대상자의 얼굴을 촬영할 수 있다. 대상자가 베드(430)에서 누운 상태로 움직임에 따라 대상자의 얼굴을 추적하기 위해 측면 지지부(475)에 카메라(420)가 이동할 수 있게 하는 이동부재가 구비될 수 있다. 카메라(420)는 대상자의 누워 있는 자세 및 방향을 고려하여 본체프레임(470)의 측면 지지부(475)에서 이동하며 대상자의 얼굴이 촬영할 수 있다. Referring to FIG. 7, the main body frame 470 of the healthcare device 400 is a lower support portion that supports the bed 430 from the bottom, and surrounds the bed 430 to serve as a guard to prevent the subject from falling from the bed 430. It may include a side support 475 that performs. The camera 420 is located on the side support 475 to capture the subject's face. A moving member that allows the camera 420 to move may be provided on the side support 475 to track the subject's face as the subject moves while lying down on the bed 430. The camera 420 moves on the side support portion 475 of the main body frame 470 in consideration of the subject's lying posture and direction and can capture the subject's face.

도 8은 본 발명에 따른 헬스케어 장치(400)가 대상자의 홍채를 검출하는 단계를 예시한 도면이고, 도 9는 본 발명에 따른 헬스케어 장치(400)가 대상자의 눈동자(홍채)를 검출하는 방법을 상세히 설명한 도면이다.Figure 8 is a diagram illustrating the steps in which the healthcare device 400 according to the present invention detects the subject's iris, and Figure 9 illustrates the step in which the healthcare device 400 according to the present invention detects the subject's pupils (iris). This is a drawing explaining the method in detail.

도 8을 참조하면, 카메라(420)는 대상자의 얼굴을 촬영한다. 프로세서(410)는 관심영역인 대상자의 얼굴 영역의 이미지(810)를 검출하고, 검출된 얼굴 이미지(810)에서 대상자의 두 눈(Eye) 부위 이미지(820)을 추출한다. 그리고, 프로세서(410)는 검출된 두 눈 부위 이미지(820)에서 두 홍채를 검출한다. 이때, 프로세서(410)는 검출된 두 눈 부위 이미지(820)에서 두 홍채가 모두 검출 혹은 인식되었으면 대상자가 깨어 있는(Wake) 상태인 것으로 판단한다. 이와 달리, 프로세서(410)는 검출된 두 눈 부위 이미지(820)에서 두 홍채가 모두 인식되지 않는 상태가 소정 시간 지나면 대상자가 수면 혹은 슬립(sleep) 상태인 것으로 판단할 수 있다.Referring to FIG. 8, the camera 420 photographs the subject's face. The processor 410 detects an image 810 of the subject's face area, which is a region of interest, and extracts an image 820 of the subject's eyes from the detected face image 810. Then, the processor 410 detects two irises from the two detected eye area images 820. At this time, the processor 410 determines that the subject is awake if both irises are detected or recognized in the two detected eye area images 820. In contrast, the processor 410 may determine that the subject is in a sleeping or sleep state when both irises are not recognized in the detected eye area image 820 for a predetermined period of time.

도 9를 참조하면, 프로세서(410)는 대상자의 얼굴 이미지에서 눈 부위 영역을 검출하여 눈 부위 이미지(910)를 획득할 수 있다. 프로세서(410)는 획득한 눈 부위 이미지(910)에서 눈동자를 검출하여 눈동자 부위 이미지(920)를 획득하고, 눈동자 부위 이미지(920)에서 눈썹 및 노이즈를 제거한 후 눈동자 이미지(930)를 획득한다. 프로세서(410)가 눈 동자 이미지(930)에 기초하여 홍채(950)를 검출하여 눈 부위 이미지(940)에서 표시할 수 있다.Referring to FIG. 9 , the processor 410 may acquire an eye region image 910 by detecting the eye region in the subject's face image. The processor 410 acquires the pupil image 920 by detecting the pupil in the acquired eye image 910, removes the eyebrows and noise from the pupil image 920, and obtains the pupil image 930. The processor 410 may detect the iris 950 based on the eye pupil image 930 and display it in the eye region image 940.

도 9에서는 설명의 편의를 위해 하나의 눈만 도시하고 있으나 카메라(420) 및 프로세서(410)는 대상자의 두 눈에 대해 촬영, 이미지 프로세싱 등을 수행한다. In FIG. 9 , only one eye is shown for convenience of explanation, but the camera 420 and processor 410 perform filming and image processing on both eyes of the subject.

프로세서(410)는 대상자(예, 영유아)가 깨어 있는 상태인 것으로 판단되면 베드 움직임 제어부(480)를 제어하여 베드(430)에서 동작중인 바운스 기능을 유지하도록 제어할 수 있다. 베드 움직임 제어부(480)는 베드(430)의 하부에 구비되어 프로세서(410)의 제어에 따라 베드(430)의 상판의 수평, 수직 움직임을 제어함으로써 베드(430)의 바운스 기능을 수행한다. 이와 달리, 프로세서(410)는 대상자가 슬립 상태인 것으로 판단되면 베드 움직임 제어부(480)를 제어하여 베드(410)의 상판의 수평, 수직 움직임을 제어하여 바운스 기능을 서서히 멈추도록 할 수 있다. If the processor 410 determines that the subject (eg, an infant) is awake, the processor 410 may control the bed movement control unit 480 to maintain the bounce function operating in the bed 430. The bed movement control unit 480 is provided at the bottom of the bed 430 and performs a bounce function of the bed 430 by controlling the horizontal and vertical movements of the upper plate of the bed 430 under the control of the processor 410. In contrast, if the processor 410 determines that the subject is in a sleep state, the processor 410 may control the bed movement control unit 480 to control the horizontal and vertical movements of the upper plate of the bed 410 to gradually stop the bounce function.

기존에는 눈 주변의 명암과 눈썹의 위치 등을 이용하여 눈 위치를 검출함에 따라 얼굴의 다른 부위를 눈으로 잘못 인식하는 등의 문제가 발생하였다. 그러나, 상술한 바와 같은 본 발명에 따른 프로세서(410)가 대상자의 눈의 위치를 찾는 것이 아니라 두 눈 부위 이미지(820)에서의 홍채를 검출하여 홍채가 인식되는지 여부를 파악한 후에 대상자가 깨어 있는 상태인지 슬립 상태인지를 추정하기 때문에 대상자의 Wake/sleep 상태 파악에 대한 정확도가 매우 향상되었다. Previously, as the eye position was detected using the light and dark around the eyes and the position of the eyebrows, problems such as misrecognizing other parts of the face as eyes occurred. However, the processor 410 according to the present invention as described above does not find the position of the subject's eyes, but detects the iris in the two eye area images 820 and determines whether the iris is recognized, and then the subject is awake. Because it estimates whether the subject is in a cognitive sleep state, the accuracy of identifying the subject's wake/sleep state has been greatly improved.

이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.The embodiments described above are those in which the components and features of the present invention are combined in a predetermined form. Each component or feature should be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form that is not combined with other components or features. Additionally, it is also possible to configure an embodiment of the present invention by combining some components and/or features. The order of operations described in embodiments of the present invention may be changed. Some features or features of one embodiment may be included in other embodiments or may be replaced with corresponding features or features of other embodiments. It is obvious that claims that do not have an explicit reference relationship in the patent claims can be combined to form an embodiment or included as a new claim through amendment after filing.

본 발명에서 프로세서(410)는 하드웨어(hardware) 또는 펌웨어(firmware), 소프트웨어, 또는 이들의 결합에 의해 구현될 수 있다. 하드웨어를 이용하여 본 발명의 실시예를 구현하는 경우에는, 본 발명을 수행하도록 구성된 ASICs(application specific integrated circuits) 또는 DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays) 등이 프로세서(410)에 구비될 수 있다. 본 발명에 따른 헬스케어를 위한 모니터링 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로 구현될 수도 있다.In the present invention, the processor 410 may be implemented by hardware, firmware, software, or a combination thereof. When implementing embodiments of the present invention using hardware, application specific integrated circuits (ASICs) or digital signal processors (DSPs), digital signal processing devices (DSPDs), and programmable logic devices (PLDs) configured to perform the present invention. , FPGAs (field programmable gate arrays), etc. may be provided in the processor 410. The monitoring method for healthcare according to the present invention may be implemented as a computer-readable recording medium that records a program for executing the monitoring method for healthcare on a computer.

본 발명은 본 발명의 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.It is obvious to those skilled in the art that the present invention can be embodied in other specific forms without departing from the essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (20)

디지털 헬스케어 장치에 있어서,
소정의 시간 대 또는 주변이 소정의 밝기 이하인지 여부에 기초하여 대상자의 얼굴을 컬러 이미지로 획득할지 적외선(IR) 이미지로 획득할지 여부를 결정하는 프로세서;
상기 프로세서의 결정에 따라 대상자의 얼굴을 촬영하여 얼굴 이미지를 획득하는 카메라; 및
상기 얼굴 이미지에서 얼굴에 해당하는 관심영역(ROI)를 검출하고,
상기 검출된 관심영역 중에서 이마(forehead) 부위에 대한 제 1 이미지를 획득하고 볼(cheek) 부위에 대한 제 2 이미지를 획득하며,
상기 획득한 제 1 이미지 및 제 2 이미지를 소정의 학습된 알고리즘 모델에 적용하여 상기 대상자의 원격 PPG(remote Photoplethysmography, rPPG) 신호 파형 및 호흡수 신호 파형을 출력하는 프로세서를 포함하는, 디지털 헬스케어 장치.
In digital healthcare devices,
a processor that determines whether to acquire the subject's face as a color image or an infrared (IR) image based on a predetermined time period or whether the surrounding brightness is less than or equal to a predetermined brightness;
a camera that acquires a facial image by photographing the subject's face according to the decision of the processor; and
Detecting a region of interest (ROI) corresponding to the face in the face image,
Among the detected regions of interest, a first image is acquired for the forehead area and a second image is acquired for the cheek area,
A digital healthcare device comprising a processor that applies the obtained first and second images to a predetermined learned algorithm model to output a remote photoplethysmography (rPPG) signal waveform and a respiratory rate signal waveform of the subject. .
제 1항에 있어서,
상기 대상자의 심탄도(Ballistocardiogram, BCG) 신호를 센싱하기 위한 BCG 센서를 더 포함하고,
상기 프로세서는 상기 센싱된 BCG 신호 파형으로부터 제 1 심박수를, 상기 출력된 원격 PPG 신호 파형으로부터 제 2 심박수를 산출하여 상기 제 1 심박수 및 상기 제 2 심박수에 기초해 상기 대상자의 심박수를 출력하는 프로세서를 포함하는, 디지털 헬스케어 장치.
According to clause 1,
Further comprising a BCG sensor for sensing a ballistocardiogram (BCG) signal of the subject,
The processor calculates a first heart rate from the sensed BCG signal waveform and a second heart rate from the output remote PPG signal waveform, and outputs the subject's heart rate based on the first heart rate and the second heart rate. Including, digital healthcare devices.
제 2항에 있어서,
상기 출력된 심박수는 상기 제 1 심박수 및 상기 제 2 심박수를 평균한 심박수에 해당하는, 디지털 헬스케어 장치.
According to clause 2,
The output heart rate corresponds to an average heart rate of the first heart rate and the second heart rate.
제 1항에 있어서,
상기 소정의 학습된 알고리즘 모델은 Multi-task Learning의 Siamese Neural Networks (SNN)을 이용하는, 헬스케어 장치.
According to clause 1,
The predetermined learned algorithm model is a healthcare device that uses Siamese Neural Networks (SNN) of Multi-task Learning.
제 1항에 있어서,
상기 프로세서는,
상기 관심영역에서 두 눈 부위 이미지들을 검출하고, 검출된 두 눈 부위 이미지에서 두 눈동자 이미지를 검출하되,
상기 검출된 두 눈동자 이미지에서 두 홍채를 검출하여 모두 인식하였으면 상기 대상자가 깨어 있는(Wake) 상태인 것으로 판단하는, 디지털 헬스케어 장치.
According to clause 1,
The processor,
Detect two eye area images from the region of interest, and detect two pupil images from the two detected eye area images,
A digital healthcare device that determines that the subject is awake when both irises are detected and recognized in the two detected pupil images.
제 5항에 있어서,
상기 프로세서는,
상기 검출된 두 눈동자 이미지에서 두 홍채가 모두 인식되지 않는 상태가 소정 시간 지나면 상기 대상자가 슬립(sleep) 상태인 것으로 판단하는, 디지털 헬스케어 장치.
According to clause 5,
The processor,
A digital healthcare device that determines that the subject is in a sleep state after a predetermined period of time when both irises are not recognized in the detected pupil images.
제 5항에 있어서,
상기 대상자에 해당하는 영유아가 누울 수 있는 베드를 더 포함하고,
상기 프로세서는 상기 대상자가 깨어 있는 상태인 것으로 판단되면 상기 베드에 동작중인 바운스 기능을 유지하도록 제어하는, 디지털 헬스케어 장치.
According to clause 5,
It further includes a bed on which infants and toddlers who are eligible for the above can lie down,
The processor controls the bed to maintain the bounce function in operation when it is determined that the subject is awake.
제 6항에 있어서,
상기 대상자가 누울 수 있는 베드를 포함하고,
상기 프로세서는 상기 대상자가 슬립 상태인 것으로 판단되면 상기 베드의 수직 및 수평 움직임을 제어하여 바운스 기능을 서서히 멈추도록 제어하는, 디지털 헬스케어 장치.
According to clause 6,
Includes a bed on which the subject can lie,
The processor controls the vertical and horizontal movements of the bed to gradually stop the bounce function when it is determined that the subject is in a sleep state.
제 1항에 있어서,
본체 프레임을 더 포함하고,
상기 카메라는 상기 대상자의 누워 있는 자세 및 방향을 고려하여 상기 대상자의 얼굴이 촬영되도록 상기 본체 프레임 상에서 이동할 수 있는, 디지털 헬스케어 장치.
According to clause 1,
Further comprising a body frame,
The camera is a digital healthcare device that can move on the main body frame to capture the subject's face in consideration of the subject's lying posture and direction.
제 1항에 있어서,
상기 출력된 심박수를 연동된 단말기로 전송하기 위한 통신부를 더 포함하는, 디지털 헬스케어 장치.
According to clause 1,
A digital healthcare device further comprising a communication unit for transmitting the output heart rate to a linked terminal.
제 1항에 있어서,
상기 대상자가 누울 수 있는 베드를 더 포함하고,
상기 BCG 센서는 베드를 커버하는 커버 내부 표면에 부착되도록 구비되는, 디지털 헬스케어 장치.
According to clause 1,
Further comprising a bed on which the subject can lie,
The BCG sensor is provided to be attached to the inner surface of the cover covering the bed.
제 1항에 있어서,
상기 프로세서는, 상기 출력된 호흡수 신호 파형에 기초하여 호흡수를 산출하고, 상기 산출된 호흡수에 기초하여 상기 대상자의 수면 무호흡 여부를 판단하는, 디지털 헬스케어 장치.
According to clause 1,
The processor calculates a respiratory rate based on the output respiratory rate signal waveform, and determines whether the subject has sleep apnea based on the calculated respiratory rate.
제 12항에 있어서,
상기 산출된 호흡수를 연동된 단말기로 전송하기 위한 통신부를 더 포함하는, 디지털 헬스케어 장치.
According to clause 12,
A digital healthcare device further comprising a communication unit for transmitting the calculated respiratory rate to a linked terminal.
디지털 헬스케어 장치가 헬스케어를 위한 모니터링 방법에 있어서,
소정의 시간 대 또는 주변이 소정의 밝기 이하인지 여부에 기초하여 대상자의 얼굴을 컬러 이미지로 획득할지 적외선(IR) 이미지로 획득할지 여부를 결정하는 단계;
상기 프로세서의 결정에 따라 대상자의 얼굴을 촬영하여 얼굴 이미지를 획득하는 단계;
상기 얼굴 이미지에서 얼굴에 해당하는 관심영역(ROI)를 검출하는 단계;
상기 검출된 관심영역 중에서 이마(forehead) 부위에 대한 제 1 이미지를 획득하고 볼(cheek) 부위에 대한 제 2 이미지를 획득하는 단계;
상기 획득한 제 1 이미지 및 제 2 이미지를 소정의 학습된 알고리즘 모델에 적용하여 상기 대상자의 원격 PPG(remote Photoplethysmography, rPPG) 신호 파형 및 호흡수 신호 파형을 출력하는 단계를 포함하는, 헬스케어를 위한 모니터링 방법.
In the digital healthcare device monitoring method for healthcare,
determining whether to acquire the subject's face as a color image or an infrared (IR) image based on a predetermined time period or whether the surrounding brightness is less than or equal to a predetermined brightness;
Obtaining a facial image by photographing the subject's face according to the decision of the processor;
Detecting a region of interest (ROI) corresponding to a face in the face image;
Obtaining a first image of the forehead area and a second image of the cheek area among the detected regions of interest;
Applying the acquired first and second images to a predetermined learned algorithm model to output a remote photoplethysmography (rPPG) signal waveform and a respiratory rate signal waveform of the subject. Monitoring method.
제 14항에 있어서,
상기 대상자의 심탄도(Ballistocardiogram, BCG) 신호를 센싱하는 단계; 및
상기 센싱된 BCG 신호 파형으로부터 제 1 심박수를, 상기 출력된 원격 PPG 신호 파형으로부터 제 2 심박수를 산출하여 상기 제 1 심박수 및 상기 제 2 심박수에 기초해 상기 대상자의 심박수를 출력하는 단계를 더 포함하는, 헬스케어를 위한 모니터링 방법.
According to clause 14,
Sensing a ballistocardiogram (BCG) signal of the subject; and
Calculating a first heart rate from the sensed BCG signal waveform and a second heart rate from the output remote PPG signal waveform, and outputting the subject's heart rate based on the first heart rate and the second heart rate. ,Monitoring method for healthcare.
제 15항에 있어서,
상기 관심영역에서 두 눈 부위 이미지들을 검출하고, 검출된 두 눈 부위 영역에서 두 눈동자 이미지들을 검출하는 단계; 및
상기 검출된 두 눈동자 이미지들에서 두 홍채가 모두 인식되었으면 상기 대상자가 깨어 있는(Wake) 상태인 것으로 판단하는 단계를 더 포함하는, 헬스케어를 위한 모니터링 방법.
According to clause 15,
Detecting two eye area images from the region of interest and detecting two eye image images from the detected two eye area areas; and
A monitoring method for healthcare, further comprising determining that the subject is awake if both irises are recognized in the detected pupil images.
제 15항에 있어서,
상기 검출된 두 눈동자 이미지들에서 두 홍채가 모두 인식되지 않는 상태가 소정 시간 지나면 상기 대상자가 슬립(sleep) 상태인 것으로 판단하는 단계를 더 포함하는, 헬스케어를 위한 모니터링 방법.
According to clause 15,
A monitoring method for healthcare, further comprising determining that the subject is in a sleep state when a predetermined period of time elapses when both irises are not recognized in the detected pupil images.
제 14항에 있어서,
상기 출력된 호흡수 신호 파형에 기초하여 호흡수를 산출하는 단계; 및
상기 산출된 호흡수에 기초하여 상기 대상자의 수면 무호흡 여부를 판단하는 단계를 더 포함하는, 헬스케어를 위한 모니터링 방법.
According to clause 14,
calculating a respiratory rate based on the output respiratory rate signal waveform; and
A monitoring method for healthcare, further comprising determining whether the subject has sleep apnea based on the calculated respiratory rate.
제 18항에 있어서,
상기 산출된 호흡수를 연동된 단말기로 전송하는 단계를 더 포함하는, 헬스케어를 위한 모니터링 방법.
According to clause 18,
A monitoring method for healthcare, further comprising transmitting the calculated respiratory rate to a linked terminal.
제 14항 내지 제 19항 중 어느 한 항에 기재된 헬스케어를 위한 모니터링 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium recording a program for executing the monitoring method for healthcare according to any one of claims 14 to 19 on a computer.
KR1020220102272A 2022-04-15 2022-08-16 Artificial intelligence based digital healthcare apparatus KR102714082B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220102272A KR102714082B1 (en) 2022-04-15 2022-08-16 Artificial intelligence based digital healthcare apparatus
KR1020240128757A KR20240146635A (en) 2022-04-15 2024-09-24 Artificial intelligence based healthcare apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220046602A KR102435808B1 (en) 2022-04-15 2022-04-15 Healthcare apparatus for measuring stress score
KR1020220102272A KR102714082B1 (en) 2022-04-15 2022-08-16 Artificial intelligence based digital healthcare apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220046602A Division KR102435808B1 (en) 2021-12-30 2022-04-15 Healthcare apparatus for measuring stress score

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020240128757A Division KR20240146635A (en) 2022-04-15 2024-09-24 Artificial intelligence based healthcare apparatus

Publications (2)

Publication Number Publication Date
KR20230148073A true KR20230148073A (en) 2023-10-24
KR102714082B1 KR102714082B1 (en) 2024-10-07

Family

ID=83111398

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020220046602A KR102435808B1 (en) 2021-12-30 2022-04-15 Healthcare apparatus for measuring stress score
KR1020220102272A KR102714082B1 (en) 2022-04-15 2022-08-16 Artificial intelligence based digital healthcare apparatus
KR1020240128757A KR20240146635A (en) 2022-04-15 2024-09-24 Artificial intelligence based healthcare apparatus

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020220046602A KR102435808B1 (en) 2021-12-30 2022-04-15 Healthcare apparatus for measuring stress score

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020240128757A KR20240146635A (en) 2022-04-15 2024-09-24 Artificial intelligence based healthcare apparatus

Country Status (1)

Country Link
KR (3) KR102435808B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102699988B1 (en) * 2023-12-28 2024-08-28 주식회사 엠마헬스케어 System for estimating emotion and stress from electroencephalogram and face image

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230210423A1 (en) * 2021-12-30 2023-07-06 Emma Healthcare Co., Ltd Healthcare apparatus for calculating stress index
KR20240061873A (en) 2022-11-01 2024-05-08 (주)포티파이 Apparatus and method for customized stress care
CN117398083B (en) * 2023-10-23 2024-09-13 中国民用航空飞行学院 Human heart rate variability signal detection method based on rPPG and BCG signal fusion

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101712002B1 (en) 2015-01-30 2017-03-03 한국과학기술연구원 Apparatus and method for estimating user intention and user state using ppg signal
KR20190007803A (en) * 2017-07-13 2019-01-23 성균관대학교산학협력단 Method And Apparatus For Measuring Bio-Signal Using Infrared Image
KR20200059584A (en) * 2018-11-21 2020-05-29 포항공과대학교 산학협력단 Stress Level Analyzing Method and System Using Respiratory Rate-to-Heart Rate Ratio
KR20210085867A (en) * 2019-12-31 2021-07-08 광운대학교 산학협력단 Apparatus and method for estimating user's blood pressure

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101712002B1 (en) 2015-01-30 2017-03-03 한국과학기술연구원 Apparatus and method for estimating user intention and user state using ppg signal
KR20190007803A (en) * 2017-07-13 2019-01-23 성균관대학교산학협력단 Method And Apparatus For Measuring Bio-Signal Using Infrared Image
KR20200059584A (en) * 2018-11-21 2020-05-29 포항공과대학교 산학협력단 Stress Level Analyzing Method and System Using Respiratory Rate-to-Heart Rate Ratio
KR20210085867A (en) * 2019-12-31 2021-07-08 광운대학교 산학협력단 Apparatus and method for estimating user's blood pressure

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
지예림 외 4명, 딥러닝 기반의 모바일 얼굴 영상을 이용한 실시간 심박수 측정 시스템, Journal of Korea Multimedia Society Vol.24, No.11, 2021.11.11. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102699988B1 (en) * 2023-12-28 2024-08-28 주식회사 엠마헬스케어 System for estimating emotion and stress from electroencephalogram and face image

Also Published As

Publication number Publication date
KR102435808B9 (en) 2022-12-05
KR102714082B1 (en) 2024-10-07
KR20240146635A (en) 2024-10-08
KR102435808B1 (en) 2022-08-25

Similar Documents

Publication Publication Date Title
KR102714082B1 (en) Artificial intelligence based digital healthcare apparatus
KR102416878B1 (en) Healthcare apparatus for measuring heart rate
Villarroel et al. Non-contact physiological monitoring of preterm infants in the neonatal intensive care unit
JP7261811B2 (en) Systems and methods for non-invasive determination of blood pressure lowering based on trained predictive models
US11154203B2 (en) Detecting fever from images and temperatures
US10791938B2 (en) Smartglasses for detecting congestive heart failure
US10638938B1 (en) Eyeglasses to detect abnormal medical events including stroke and migraine
KR20210085867A (en) Apparatus and method for estimating user's blood pressure
CN110013231B (en) Sleep environment illumination condition identification method
CN109998497B (en) Sleep-in detection and judgment system in luminous environment
CN113326936A (en) Dimming optimization method for sleep environment
CN106163390A (en) For determining the equipment of the vital sign of object, system and method
CN113257440A (en) ICU intelligent nursing system based on patient video identification
WO2023128454A1 (en) Digital healthcare device for measuring heart rate using remote ppg
WO2023128455A1 (en) Digital healthcare device for measuring stress index by using remote ppg method
WO2020132941A1 (en) Identification method and related device
CN113593693A (en) Remote health management platform
KR102676918B1 (en) Apparatus for estimating biosignals from face image
US20220313167A1 (en) Recliner having healthcare function
KR102394615B1 (en) Blood pressure measuring device wereable on wrist of user
KR102699988B1 (en) System for estimating emotion and stress from electroencephalogram and face image
Cuppens Detection of epileptic seizures based on video and accelerometer recordings
KR20240101192A (en) Apparatus for estimating biosignals in non-contact manner
Tiwari et al. Non-invasive monitoring of health using sensor-rich wearables and smart devices
Tahoun Nonintrusive nocturnal remote monitoring of vital signs in ambient assisted living environments

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant