KR102275263B1 - Respiratory measurement system using depth camera - Google Patents

Respiratory measurement system using depth camera Download PDF

Info

Publication number
KR102275263B1
KR102275263B1 KR1020190137813A KR20190137813A KR102275263B1 KR 102275263 B1 KR102275263 B1 KR 102275263B1 KR 1020190137813 A KR1020190137813 A KR 1020190137813A KR 20190137813 A KR20190137813 A KR 20190137813A KR 102275263 B1 KR102275263 B1 KR 102275263B1
Authority
KR
South Korea
Prior art keywords
depth
image
respiration
region
difference image
Prior art date
Application number
KR1020190137813A
Other languages
Korean (ko)
Other versions
KR20200049683A (en
Inventor
신증수
김정민
유선국
오경택
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Publication of KR20200049683A publication Critical patent/KR20200049683A/en
Application granted granted Critical
Publication of KR102275263B1 publication Critical patent/KR102275263B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physiology (AREA)
  • Pulmonology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 깊이(Depth) 카메라를 이용하여 피검자의 호흡시를 촬영하고, 획득된 깊이 영상 배열에서 서로의 차(Difference)를 계산한 차 영상 배열을 구하고, 차영상의 호흡영역을 분리하기 위해. 차영상에서, 형상 사전정보 및 영역정보 함수를 이용하여 레벨 셋을 진행하여, 차영상의 호흡 영역을 분리하하거나, 또는 차영상과, 깊이 영상 배열단계에서 메모리부에 저장된 연속적인 깊이 영상을 기 학습된 ResU-net(Residual U-net)에 적용하여, 차영상에서 호흡 영역을 분리하고, 분리된 호흡영역에서 호흡량을 계산하여, 비침습적, 무구속적이며 높은 정확도로, 호흡량을 측정할 수 있는, 깊이 카메라를 이용한 호흡량 측정 시스템 및 방법에 관한 것이다.
본 발명의 깊이 카메라를 이용한 호흡량 측정방법은, 연산처리부가 깊이 카메라로부터 피검자의 상체의 깊이 영상 배열을 수신하고, 수신된 깊이 영상 배열들에서 임펄스 노이즈를 포함하는 잡음을 제거하는, 전처리단계; 연산처리부는, 전처리 단계에서 잡음이 제거된 깊이 영상 배열의, 각 프레임의 각 화소의 깊이 값에서, 시간적으로 연이은 전 프레임에서 해당 화소의 깊이 값의 차를, 차감하여 차영상을 구하여, 메모리부에 순차적으로 저장하는. 차영상 배열 단계; 차영상 배열 단계에서 구한 차영상에서, 형상 사전정보 및 영역정보 함수를 이용하여 레벨 셋을 진행하여, 차영상의 호흡 영역을 분리하는, 호흡영역 분리단계;를 포함하는 것을 특징으로 한다.
또한, 본 발명의 깊이 카메라를 이용한 호흡량 측정방법은, 연산처리부가 깊이 카메라로부터 피검자의 상체의 깊이 영상 배열을 수신하고, 수신된 깊이 영상 배열들에서 임펄스 노이즈를 포함하는 잡음을 제거하는 전처리를 행하는, 전처리단계; 연산처리부는, 전처리단계에서 잡음이 제거된 연속적인 깊이 영상을 메모리부에 순차적으로 저장하는, 깊이 영상 배열단계; 연산처리부는, 전처리 단계에서 잡음이 제거된 연속적인 깊이 영상 배열의, 각 프레임의 각 화소의 깊이 값에서, 시간적으로 연이은 전 프레임에서 해당 화소의 깊이 값의 차를, 차감하여 차영상을 구하여, 메모리부에 순차적으로 저장하는. 차영상 배열 단계; 차영상 배열 단계에서 구한 차영상과, 깊이 영상 배열단계에서 메모리부에 저장된 연속적인 깊이 영상을 기 학습된 ResU-net(Residual U-net)에 적용하여, 차영상의 호흡 영역을 분리하는, 호흡영역 분리단계;를 포함하는 것을 특징으로 한다.
The present invention uses a depth camera to photograph the breathing of the subject, obtains a difference image arrangement in which the difference between each other is calculated from the obtained depth image arrangement, and to separate the breathing region of the difference image. In the difference image, by performing level set using the shape prior information and the region information function, the breathing region of the difference image is separated, or the difference image and the continuous depth image stored in the memory unit are recorded in the depth image arrangement step. By applying to the learned ResU-net (Residual U-net), it is possible to separate the respiration area from the difference image and calculate the respiration volume from the separated respiration area to measure the respiration volume non-invasively, non-constrained and with high accuracy. It relates to a respiratory volume measurement system and method using a depth camera.
Respiratory volume measurement method using a depth camera of the present invention, a pre-processing step of a calculation processing unit receiving a depth image array of the subject's upper body from the depth camera, and removing noise including impulse noise from the received depth image arrays; The arithmetic processing unit obtains a difference image by subtracting the difference between the depth values of the corresponding pixels from the temporally consecutive previous frames from the depth values of each pixel of each frame of the depth image array from which the noise has been removed in the preprocessing step, and the memory unit stored sequentially in . difference image arrangement step; In the difference image obtained in the difference image arrangement step, a breathing region separation step of separating the breathing region of the difference image by performing level set using the shape prior information and the region information function;
In addition, in the method for measuring respiration volume using a depth camera of the present invention, the calculation processing unit receives the depth image arrangement of the subject's upper body from the depth camera, and performs pre-processing of removing noise including impulse noise from the received depth image arrangement. , pretreatment step; The operation processing unit may include: a depth image arranging step of sequentially storing continuous depth images from which noise has been removed in the preprocessing step in the memory unit; The arithmetic processing unit obtains a difference image by subtracting the difference between the depth value of the pixel in the temporally consecutive previous frames from the depth value of each pixel of each frame of the continuous depth image array from which the noise has been removed in the preprocessing step, stored sequentially in the memory unit. difference image arrangement step; The difference image obtained in the difference image arrangement step and the continuous depth image stored in the memory unit in the depth image arrangement step are applied to the pre-learned ResU-net (Residual U-net) to separate the breathing area of the difference image. It is characterized in that it includes; a region separation step.

Description

깊이 카메라를 이용한 호흡량 측정 시스템{Respiratory measurement system using depth camera}Respiratory measurement system using depth camera}

본 발명은 깊이(Depth) 카메라를 이용하여 피검자의 호흡시를 촬영하고, 획득된 깊이 영상 배열에서 서로의 차(Difference)를 계산한 차 영상 배열과 영역 정보 함수를 이용하여, 영역 기반 정보를 이용한 레벨 셋 방법을 적용하여, 깊이 영상에서 호흡에 의해 변화가 존재하는 부분만을 호흡 영역으로 분리하고, 분리된 호흡영역에서 호흡량을 계산하여, 비침습적, 무구속적이며 높은 정확도로, 호흡량을 측정할 수 있는, 깊이 카메라를 이용한 호흡량 측정 시스템에 관한 것이다.The present invention uses a difference image array and a region information function that calculates the difference between each other in the acquired depth image array by photographing the subject's breathing using a depth camera, using region-based information By applying the level set method, only the part where there is a change due to respiration in the depth image is separated into the respiration area, and the respiration volume is calculated in the separated respiration area to measure the respiration volume with high accuracy without invasiveness. It relates to a respiration volume measurement system using a depth camera.

폐는 산소를 섭취하고 체내에서 생긴 탄산가스를 배출하는 역할을 한다. 호흡기 질환의 진단을 위해서는 여러 영상검사(CT, MRI, PET, perfusion scan)과, 혈액 검사(동맥혈 가스 검사, 종양지표검사, 일반 혈액검사)등을 시행할 수 있다. 그러나 폐의 기능적인 평가를 위해서는 폐기능 검사만이 현재 유일하게 폐의 기능적인 측면을 객관화한 지표로 평가하는 도구로써 재현성이 검증되어 있다. The lungs are responsible for taking in oxygen and expelling carbon dioxide from the body. For the diagnosis of respiratory diseases, various imaging tests (CT, MRI, PET, perfusion scan) and blood tests (arterial blood gas test, tumor indicator test, general blood test), etc. can be performed. However, for the functional evaluation of the lungs, the reproducibility of the lung function test has been verified as the only tool that evaluates the functional aspects of the lung as an objective index.

그 중 폐활량검사는 환자가 최대한 숨을 들이마신 후 내쉴 수 있는 공기량을 측정하는 검사법으로서, 폐기능검사가 어떤 한 질병을 특정하여 진단해주는 것은 아니지만 질환에 따른 고유한 특징적인 양상을 보이므로 질환을 조기에 진단하거나, 임상적 진행을 단계별로 평가하는데 도움을 준다. 또한 측정치의 변화로 질환의 경중의 변화를 반영하여 여러 폐질환에서 임상적 상황들에 대한 해법을 제시 해 주고 치료 전후의 효과 판정이나 치료의 가역성 여부를 판단하는데 도움을 줄 수 있다. 대표적인 예로, 폐기능 검사는 천식이나 만성폐쇄성폐질환(chronic obstructive pulmonary disease, COPD) 같은 호흡기질병의 진단에 도움을 주며, 이외에도 호흡기계의 건강상태를 점검하여 이상 유무를 판정하는 방법으로도 활용된다. 여기서 측정하는 주요 지표로는 노력호기 중에 배출되는 유량을 측정하는 노력폐활량(forced vital capacity, FVC)과 FVC 측정 과정 중 처음 1초간에 배출되는 유량을 측정한 1초 노력호기량(forced expiratory volume in one second, FEV1)이 있다. 또한 기관지 확장제 흡입 후 측정치의 변동을 관찰하는 기관지 확장제 검사가 있다.Among them, spirometry is a test method that measures the amount of air that a patient can exhale after inhaling as much as possible. Although the lung function test does not diagnose a specific disease, it shows unique characteristics according to the disease. It helps to diagnose early or evaluate clinical progress in stages. In addition, by reflecting the change in the severity of the disease by changing the measurement value, it can provide solutions to clinical situations in various lung diseases, and can help to determine the effect before and after treatment or whether the treatment is reversible. As a representative example, the lung function test helps in the diagnosis of respiratory diseases such as asthma and chronic obstructive pulmonary disease (COPD), and is also used as a method to determine the presence or absence of abnormalities by checking the health status of the respiratory system. . The main indicators to measure here are forced vital capacity (FVC), which measures the flow rate discharged during effort expiratory, and forced expiratory volume in one second, which measures the flow rate during the first second during the FVC measurement process. second, FEV1). There is also a bronchodilator test that looks for fluctuations in measurements after inhalation of the bronchodilator.

일반적으로, 폐활량 측정기는 기계에 연결된 관의 끝에 있는 마우스피스를 입에 대고 숨을 들이쉬거나 내쉬도록 이루어져 있다. In general, spirometry consists of inhaling or exhaling through a mouthpiece at the end of a tube connected to the machine.

건강인들도 최근에 폐활량 측정기에 대한 관심이 급증하고 있으며, 이미 시판되어 있는 제품들은 기존의 폐기능 검사기를 휴대 가능하게 만든 것으로 기본 작동 원리는 동일하다. 마우스 피스를 물고 노력폐활량을 측정하고, 반복훈련을 통해 호흡능력을 향상시키려는 목적으로 사용한다. Even healthy people have recently increased interest in spirometry, and products that are already on the market make the existing lung function tester portable, and the basic operating principle is the same. It is used for the purpose of measuring the respiratory capacity by biting the mouthpiece and improving the breathing ability through repeated training.

그러나, 이러한 폐활량 측정기는 사용상의 제한점이 있다. 예를 들면, 환자의 호흡기매개 전염력을 지닌 병을 진단받은 경우, 마우스피스를 입에 물 수 없는 경우, 협조가 불가능하거나 의식저하인 경우는 폐기능 검사를 진행할 수 없다. 또한 일반적으로 앉아있는 상태에서 검사가 진행되므로, 앉을 수 없는 환자의 경우는 검사가 어려울 수 있다. However, these spirometry devices have limitations in use. For example, if a patient is diagnosed with a respiratory-borne infectious disease, cannot put the mouthpiece in the mouth, cannot cooperate, or is unconscious, the lung function test cannot be performed. In addition, since the test is generally performed in a sitting state, it may be difficult for a patient who cannot sit down.

따라서, 비침습적, 무구속적으로, 호흡량을 측정할 수 있는, 호흡량 측정 시스템이 요망된다. Accordingly, there is a need for a respiratory volume measurement system capable of measuring respiration volume in a non-invasive, non-constrained manner.

선행기술로, 국내 공개특허 제10-2016-0126238호는 깊이 카메라를 이용한 수면 중 호흡률 모니터링 장치에 대한 것으로, 취침자 흉부의 좌/상단으로부터 150 * 75 픽셀을 ROI(관심영역)로 지정하며, ROI에서 깊이 값의 평균을 구하여 호흡률을 추정한다. 그러나, 이와 같이 관심영역을 지정할 경우, 호흡과 관련되지 않은 부분이 반영되어 정확한 결과를 얻을 수 없으며, 또한, 단순하 깊이 값의 평균을 구하여 호흡률을 추정하는 것만으로는 호흡량 등을 정확하게 알 수 없다.As a prior art, Korean Patent Application Laid-Open No. 10-2016-0126238 relates to a device for monitoring breathing rate during sleep using a depth camera, and designates 150 * 75 pixels from the left/top of the chest of a sleeper as an ROI (region of interest), The respiration rate is estimated by averaging the depth values from the ROI. However, when a region of interest is designated in this way, it is not possible to obtain an accurate result because the part not related to respiration is reflected, and the respiration rate cannot be accurately known only by estimating the respiration rate by simply calculating the average of the depth values. .

따라서 본 발명은, 비침습적, 무구속적이며, 보다 높은 정확도로, 호흡량을 측정할 수 있는, 호흡량 측정 시스템을 제안한다.Therefore, the present invention, non-invasive, non-constrained, with higher accuracy, which can measure the respiration volume, proposes a respiratory volume measurement system.

본 발명이 해결하고자 하는 과제는, 깊이(뎁스) 카메라를 이용하여 피검자의 호흡시를 촬영하고, 획득된 깊이 영상 배열에서 서로의 차(Difference)를 계산한 차 영상 배열과 영역 정보 함수를 이용하여, 영역 기반 정보를 이용한 레벨 셋 방법을 적용하여, 깊이 영상에서 호흡에 의해 변화가 존재하는 부분만을 호흡 영역으로 분리하고, 분리된 호흡영역에서 호흡량을 계산하는, 깊이 카메라를 이용한 호흡량 측정 시스템을 제공하는 것이다.The problem to be solved by the present invention is to use a difference image arrangement and a region information function in which a difference between each other is calculated from the acquired depth image arrangement by photographing the subject's breathing using a depth (depth) camera. , by applying the level set method using area-based information, separating only the part where there is a change due to respiration in the depth image into the respiration area, and calculating the respiration volume in the separated respiration area, providing a respiration volume measurement system using a depth camera will do

본 발명이 해결하고자 하는 다른 과제는, 깊이 카메라를 이용한 호흡량 측정 시스템에서, 획득된 깊이 영상의 전처리과정에서, 시간 및 공간 영역에서 중간값 필터(Median Filter)와 클리핑(Clipping) 기법을 이용하여 깊이 영상 데이터에서 오류 값을 제거하는 것이다.Another problem to be solved by the present invention is, in the pre-processing of the acquired depth image, in the respiratory rate measurement system using a depth camera, using a median filter and a clipping technique in the temporal and spatial domains. It is to remove the error value from the image data.

본 발명이 해결하고자 하는 다른 과제는, 깊이 영상에서 호흡에 의해 영향을 받는 영역만을 Level Set 방법을 이용하여 분리하며, Level Set 은 영역 정보 함수와 사전 정보 함수를 결합한 방법 사용하는 것이다.Another problem to be solved by the present invention is to separate only the area affected by respiration in the depth image using the level set method, and the level set is to use a method combining the area information function and the dictionary information function.

본 발명이 해결하고자 하는 다른 과제는, 분리한 호흡 영역을 호흡량 계산식에 적용해 호흡량 파형(Volume Waveform) 계산하고, 호흡량 파형에서 피크(Peak)와 밸리(Valley)를 찾아 호흡량을 계산하는 것이다.Another problem to be solved by the present invention is to calculate the volume waveform by applying the separated respiration area to the respiration volume calculation formula, find the peak and valley in the respiration volume waveform, and calculate the respiration volume.

상기 과제를 해결하기 위해, 본 발명의 깊이 카메라를 이용한 호흡량 측정 방법의 제1실시예는, 연산처리부가 깊이 카메라로부터 피검자의 상체의 깊이 영상 배열을 수신하고, 수신된 깊이 영상 배열들에서 임펄스 노이즈를 포함하는 잡음을 제거하는, 전처리단계; 연산처리부는, 전처리 단계에서 잡음이 제거된 깊이 영상 배열의, 각 프레임의 각 화소의 깊이 값에서, 시간적으로 연이은 전 프레임에서 해당 화소의 깊이 값의 차를, 차감하여 차영상을 구하여, 메모리부에 순차적으로 저장하는. 차영상 배열 단계; 차영상 배열 단계에서 구한 차영상에서, 형상 사전정보 및 영역정보 함수를 이용하여 레벨 셋을 진행하여, 차영상의 호흡 영역을 분리하는, 호흡영역 분리단계;를 포함하는 것을 특징으로 한다.In order to solve the above problems, in a first embodiment of a method for measuring respiration using a depth camera of the present invention, the operation processing unit receives the depth image arrangement of the subject's upper body from the depth camera, and impulse noise from the received depth image arrangements A pre-processing step of removing noise including; The arithmetic processing unit obtains a difference image by subtracting the difference between the depth values of the corresponding pixels from the temporally consecutive previous frames from the depth values of each pixel of each frame of the depth image array from which the noise has been removed in the preprocessing step, and the memory unit stored sequentially in . difference image arrangement step; In the difference image obtained in the difference image arrangement step, a breathing region separation step of separating the breathing region of the difference image by performing level set using the shape prior information and the region information function;

또한, 본 발명의 깊이 카메라를 이용한 호흡량 측정 방법의 제2실시예는, 연산처리부가 깊이 카메라로부터 피검자의 상체의 깊이 영상 배열을 수신하고, 수신된 깊이 영상 배열들에서 임펄스 노이즈를 포함하는 잡음을 제거하는 전처리를 행하는, 전처리단계; 연산처리부는, 전처리단계에서 잡음이 제거된 연속적인 깊이 영상을 메모리부에 순차적으로 저장하는, 깊이 영상 배열단계; 연산처리부는, 전처리 단계에서 잡음이 제거된 연속적인 깊이 영상 배열의, 각 프레임의 각 화소의 깊이 값에서, 시간적으로 연이은 전 프레임에서 해당 화소의 깊이 값의 차를, 차감하여 차영상을 구하여, 메모리부에 순차적으로 저장하는. 차영상 배열 단계;차영상 배열 단계에서 구한 차영상과, 깊이 영상 배열단계에서 메모리부에 저장된 연속적인 깊이 영상을 기 학습된 ResU-net(Residual U-net)에 적용하여, 차영상의 호흡 영역을 분리하는, 호흡영역 분리단계;를 포함하는 것을 특징으로 한다.In addition, in the second embodiment of the method of measuring the amount of respiration using the depth camera of the present invention, the operation processing unit receives the depth image arrangement of the subject's upper body from the depth camera, and noise including impulse noise from the received depth image arrangements performing a pretreatment to remove, a pretreatment step; The arithmetic processing unit may include: a depth image arranging step of sequentially storing continuous depth images from which noise has been removed in the preprocessing step in the memory unit; The arithmetic processing unit obtains a difference image by subtracting the difference between the depth value of the pixel in the temporally consecutive previous frames from the depth value of each pixel of each frame of the continuous depth image array from which the noise has been removed in the preprocessing step, stored sequentially in the memory unit. Difference image arrangement step; The difference image obtained in the difference image arrangement step and the continuous depth image stored in the memory unit in the depth image arrangement step are applied to the pre-learned ResU-net (Residual U-net), and the breathing region of the difference image It is characterized in that it comprises a; breathing zone separation step to separate the.

제1실시예의 호흡영역 분리단계는, 연산처리부가, 흉곽 및 복부 영역인 몸통 영역만을 분리하기 위한 형상 사전 정보를 이용하여, 깊이 영상에서 흉곽 및 복부 영역을 분리하는, 형상 사전정보를 이용한 레벨 셋 단계; 연산처리부가, 연이은 전 프레임의 호흡관련 영역의 영상을 이용하여, 0에서 1사이의 값을 가지는 가중치를 계산하고, 영역정보함수를 적용한 형상 사전정보에, 상기 가중치를 적용하여, 적응적 영역정보 함수를 검출하는, 영역정보함수 획득단계; 연산처리부가, 차영상 배열 단계에서 획득된 차영상에 영역정보 함수 및 CVM(Chan-Vese model, 찬 베세 모델) 기법을 이용하여, 차영상의 호흡영역을 분리하는, 영역 정보 함수를 이용한 레벨 셋 단계;를 포함할 수 있다.In the breathing region separation step of the first embodiment, the operation processing unit separates the rib cage and the abdomen region from the depth image by using the shape dictionary information for separating only the torso region, which is the rib cage and the abdomen region. Level set using the shape dictionary information step; The operation processing unit calculates a weight having a value between 0 and 1 by using the image of the respiration-related region of the previous frame in succession, and applies the weight to the shape dictionary information to which the region information function is applied, thereby adaptive region information an area information function obtaining step of detecting a function; A level set using a region information function, where the operation processing unit separates the breathing region of the difference image by using a region information function and a CVM (Chan-Vese model) technique on the difference image obtained in the difference image arrangement step step; may include.

제1실시예 또는 제2실시예에서 전처리 단계는 연속적인 깊이 영상들에서, 시간 영역에 따른 각 픽셀의 깊이 값들에서 중간값 필터링을 행하고, 공간 영역에 따른 각 픽셀의 깊이 값들을에서 중간값 필터링을 행하는, 시공간 중간값 필터링 단계; 시공간 중간값 필터링 단계에서 시간 및 공간 영역에서 중간값 필터링된 연속적인 깊이 영상들에서, 시간 영역에 따른 각 픽셀의 깊이 값들에서 시간영역 클리핑 문턱치를 기준으로 클리핑을 행하고, 공간 영역에 따른 각 픽셀의 깊이 값들에서 공간영역 클리핑 문턱치를 기준으로 클리핑을 행하는, 시공간 클리핑단계; 를 포함할 수 있다.In the first embodiment or the second embodiment, the preprocessing step is to perform median value filtering on the depth values of each pixel according to the temporal domain in successive depth images, and filter the median value from the depth values of each pixel according to the spatial domain. performing spatiotemporal median filtering; In successive depth images that have been median-filtered in the temporal and spatial domains in the spatiotemporal median filtering step, clipping is performed on the depth values of each pixel along the temporal domain based on the temporal domain clipping threshold, and a spatiotemporal clipping step of clipping the depth values based on a spatial domain clipping threshold; may include.

제1실시예의 영역정보함수 획득단계는, 연산처리부가, 형상 사전 정보를 이용하여 분리한 영역에 대해, 부호를 가지는 거리 함수(Signed Distance Fuction, SDF)를 적용하면, 경계선을 0으로서 기준으로 하고, 상기 기준에서 멀어질수록 분리한 영역의 내부 영역은 양수의 값을 가지게 되며, 분리한 영역의 외부 영역은 음수의 값을 가지게 되며, SDF 함수가 적용된 영역에서, 일정한 문턱치를 넘는 값 또는, 소정 크기단위 내의 값을, 같은 값으로 처리하며, 외부 영역을 단위 계단 함수(Heaviside) 함수를 적용하는 것을 포함한다.In the area information function acquisition step of the first embodiment, when the operation processing unit applies a signed distance function (SDF) to the area separated by using the shape dictionary information, the boundary line is set as 0, and , as the distance from the reference is increased, the inner region of the separated region has a positive value, the outer region of the separated region has a negative value, and in the region to which the SDF function is applied, a value exceeding a certain threshold or a predetermined value It includes treating values within the size unit as the same value, and applying a unit step function (Heaviside) function to the outer area.

제2실시예의 호흡영역 분리단계는, 연산처리부는, 메모리부로부터 깊이 영상 배열단계(S130)에서 저장된, 전처리된 깊이 영상을 수신하여, 기 학습된 제1 ResU-Net에 입력하고, 제1 ResU-Net으로부터 출력된, 흉곽 및 복부 영역인 몸통 영역만을 분리한 세그멘테이션 맵을, 수신하는, ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할단계; 연산처리부는, 제1 ResU-Net으로부터 수신한 사람의 몸통 영상만을 분리한 세그멘테이션 맵을 메모리부에 순차적으로 임시저장하는, 몸통 영상만을 분리한 세그멘테이션 맵 배열단계; 연산처리부는, ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할단계에서 출력된, 몸통 영상만을 분리한 세그멘테이션 맵에, 차영상 배열 단계에서 구하여진 차영상을, 픽셀단위로 곱하는, 몸통 영상만을 분리한 세그멘테이션 맵과 차영상과의 승산단계; 연산처리부는, 기학습된 제2 ResU-Net의 입력으로서, 몸통 영상만을 분리한 세그멘테이션 맵과 차영상과의 승산단계에서 출력된, 몸통 영상만을 분리한 세그멘테이션 맵과 차영상의 곱을 입력하고, 제2 ResU-Net의 출력으로서, 차 영상에서 호흡과 관련된 영역만을 분리한 세그멘테이션 맵인, 차 영상에서 호흡과 관련된 영역만을 분리한 영상을 수신하는, ResU-Net을 이용한 시간 영역에서의 호흡 영역 분할단계;를 포함한다.In the breathing region separation step of the second embodiment, the operation processing unit receives the preprocessed depth image stored in the depth image arrangement step (S130) from the memory unit, and inputs it to the pre-learned first ResU-Net, and the first ResU - ResU-Net to receive a segmentation map that separates only the body region, which is the thoracic and abdominal region, output from the Net, respiration region segmentation step in the spatial region using ResU-Net; The arithmetic processing unit may include: a segmentation map arrangement step in which only the torso image is separated, in which the segmentation map obtained by separating only the body image of the person received from the first ResU-Net is sequentially temporarily stored in the memory unit; The arithmetic processing unit separates only the torso image by multiplying the segmentation map in which only the torso image is separated, output in the breathing region segmentation step in the spatial domain using ResU-Net, by the difference image obtained in the difference image arrangement step in units of pixels a multiplication step between a segmentation map and a difference image; The arithmetic processing unit inputs, as an input of the previously learned second ResU-Net, the product of the segmentation map in which only the body image is separated and the segmentation map in which only the torso image is separated, which is output in the multiplication step of the difference image, and the difference image, 2 As the output of ResU-Net, receiving an image in which only a respiration-related area is separated from the difference image, which is a segmentation map in which only a respiration-related area is separated from the second image, is received, a respiration area segmentation step in the time domain using ResU-Net; includes

제1 ResU-Net은, 사전에, 전처리단계에서 잡음이 제거된 깊이 영상들과, 상기 잡음이 제거된 깊이 영상에서 몸통 영역만을 분리한 영상을 레이블로 사용하여, 기계학습된 인공신경망이며, 제2 ResU-Net은, 사전에, 몸통 영상만을 분리한 세그멘테이션 맵과 차영상과의 승산단계에서 출력된, 차 영상과, 몸통 영역만을 분리한 영상을, 픽셀단위로 곱한 영상과, 상기 차 영상에서 호흡과 관련된 영역만을 분리한 영상을 레이블로 사용하여, 기계학습된 인공신경망이다.The first ResU-Net is a machine-learning artificial neural network using, as labels, depth images from which noise has been removed in the pre-processing step and an image obtained by separating only the body region from the depth image from which noise has been removed. 2 ResU-Net is a segmentation map in which only the body image is separated and the difference image output in the multiplication step of the difference image and the image in which only the body region is separated in units of pixels are multiplied in units of pixels, and in the difference image It is a machine-learning artificial neural network using an image that isolates only the respiration-related area as a label.

제1 ResU-Net의 기계학습시 사용되는 레이블은 형상 사전정보를 이용한 레벨 셋을 이용하여 레이블 영상이 생성될 수 있으며, 제2 ResU-Net의 기계학습시 사용되는 레이블은 영역정보 함수를 이용한 레벨 셋을 이용하여 레이블 영상이 생성될 수 있다.For the label used in machine learning of the first ResU-Net, a label image can be created using a level set using shape prior information, and the label used in machine learning of the second ResU-Net is a level using the area information function. A label image may be generated using the set.

제2실시예에서 연산처리부는, 카운터의 값이, 기 설정된 차 영상 배열 수와 같은지를 확인하고, 만약 아니면, 카운터를 1증가하고, ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할단계로 되돌아가는, 호흡영역 분리과정 종료여부 판단단계;를 더 포함할 수 있다.In the second embodiment, the arithmetic processing unit checks whether the value of the counter is equal to the preset number of difference image sequences, if not, increments the counter by 1, and returns to the breathing region division step in the spatial domain using ResU-Net It may further include; judging whether or not the breathing zone separation process is finished.

제1실시예에서 연산처리부는, 카운터의 값이, 기 설정된 차 영상 배열 수와 같은지를 확인하고, 만약 아니면, 카운터를 1증가하고, 형상 사전정보를 이용한 레벨 셋 단계로 되돌아가는, 호흡영역 분리과정 종료여부 판단단계;를 더 포함할 수 있다.In the first embodiment, the arithmetic processing unit checks whether the counter value is equal to the preset number of difference image sequences, and if not, increments the counter by 1, and returns to the level set stage using shape prior information, breathing region separation It may further include; determining whether the process is complete or not.

제1실시예 및 제2실시예에서, 호흡영역 분리과정 종료여부 판단단계에서, 카운터의 값이, 기 설정된 차 영상 배열 수와 같다면, 연산처리부는, 호흡영역 분리단계단계에서 구하여진, 차 영상에서 호흡과 관련된 영역만을 분리한 영상들의 프레임들에서, 각 프레임의 호흡영역의 깊이 값을 합산하여 프레임별 호흡관련 신호로써 구하고, 현재의 프레임 호흡관련 신호에서 연이은 전 프리엠 호흡관련 신호를 차감하여 프레임별 호흡 변화량으로써 구하고, 프레임별 호흡 변화량에 기설정된 픽셀의 단위 부피값을 곱하여, 실제의 크기로 환산된 프레임별 호흡 변화량을 구하고, 환산된 프레임별 호흡 변환량을 시간순서에 따라 그래프로 표시하여 호흡 파형을 나타내는, 호흡파형 검출단계; 호흡 파형에서 피크(Peak)와 밸리(Valley)를 검출하고, 검출된 피크(Peak)와 밸리(Valley)를 이용하여 호흡량 및 호흡수를 계산하는, 호흡수 및 호흡량 검출단계; 를 더 포함할 수 있다.In the first embodiment and the second embodiment, if the value of the counter is equal to the preset number of difference image arrays in the step of determining whether the breathing zone separation process is finished, the calculation processing unit, the difference obtained in the breathing zone separation step In frames of images in which only the region related to breathing is separated from the image, the depth value of the breathing region of each frame is summed to obtain a respiration-related signal for each frame, and the preceding pre-em respiration-related signal is subtracted from the respiration-related signal of the current frame to obtain the respiration change for each frame, multiply the respiration change for each frame by the unit volume value of the preset pixel to obtain the respiration change for each frame converted to the actual size, and graph the converted amount of respiration per frame according to the time sequence Respiratory waveform detection step, indicating the respiratory waveform by displaying; Detecting peaks and valleys in the respiration waveform, and calculating the respiration rate and respiration rate using the detected peaks and valleys, a respiration rate and respiration rate detection step; may further include.

호흡수 및 호흡량 검출단계는, 연산처리부가, 호흡파형 검출단계에서 구하여진 호흡신호를 1차 미분하여 변곡점을 구하고, 변곡점을 이용하여 피크(peak)와 밸리(valley)를 검출하는, 피크 및 밸리 검출단계; 연산처리부가, 피크 및 밸리 검출단계에서 검출된 피크(peak)와 밸리(valley)들에서, 소정 시간간격 동안에, 피크와 밸리가 순차적으로 연이어서 나타나는 피크와 밸리의 쌍의 개수를, 호흡수로서 검출하는, 호흡수 검출단계;를 포함할 수 있다.In the step of detecting the respiration rate and respiration volume, the calculation processing unit first differentiates the respiration signal obtained in the respiration waveform detecting step to obtain an inflection point, and using the inflection point to detect a peak and a valley, peak and valley detection step; In the peak and valley detected in the peak and valley detection step, the number of pairs of peaks and valleys in which the peaks and valleys appear one after another during a predetermined time interval, as the respiration rate Detecting, respiration detection step; may include.

호흡수 및 호흡량 검출단계는, 연산처리부가, 피크와 밸리가 순차적으로 연이어서 나타나는 피크와 밸리의 쌍의 진폭을, 피크와 밸리의 쌍이 포함되는 호흡주기의 호흡량으로 검출하는, 호흡량 검출단계;를 포함할 수 있다.Respiratory rate and respiration volume detection step, the operation processing unit, the peak and valley pair of peaks and valleys appearing in succession in sequence, the respiration volume detection step of detecting the respiration volume of the respiration cycle including the pair of peaks and valleys; may include

호흡수 및 호흡량 검출단계는, 피크와 밸리가 순차적으로 연이어서 나타나는 피크와 밸리의 쌍으로 호흡주기를 검출하고, 각 호흡주기의 호흡신호를, 연이은 전 호흡주기의 호흡신호에서 차감하여 각 호흡주기별 변화량을 구하고, 각 호흡주기별 변화량을 시간에 따라 합산하여 호흡량으로서 구하는, 호흡량 검출단계;를 포함할 수 있다.In the step of detecting the respiration rate and volume, the respiration cycle is detected as a pair of peaks and valleys in which peaks and valleys appear sequentially in succession, and the respiration signal of each respiration cycle is subtracted from the respiration signal of the previous respiration cycle in succession to each respiration cycle. Respiratory volume detection step of obtaining a star change amount, summing the change amount for each respiratory cycle over time to obtain a respiration amount; may include.

각 호흡주기별 변화량을 시간에 따라 합산시, 연산처리부는 각 호흡주기의 시작점을 기준으로 합산할 수 있다.When the amount of change for each respiration cycle is summed over time, the calculation processing unit may add up based on the starting point of each respiration cycle.

본 발명에서의 깊이 카메라를 이용한 호흡량 측정 방법에 대한 컴퓨터 프로그램 소스를 저장한 기록매체를 특징으로 한다.It features a recording medium storing a computer program source for the method of measuring respiration using a depth camera in the present invention.

또한, 본 발명의 제1실시예의 깊이 카메라를 이용한 호흡 측정 시스템은, 깊이 카메라, 상기 깊이 카메라로부터 수신된 피검자의 상체의 깊이 영상을 분석하여 호흡신호를 검출하는 연산처리부를 포함하는 영상분석부를 포함하는 깊이 카메라를 이용한 호흡 측정 시스템에 있어서, 연산처리부는, 깊이 카메라로부터 피검자의 상체의 깊이 영상 배열을 수신하고, 수신된 깊이 영상 배열들에서, 임펄스 노이즈를 포함하는 잡음을 제거하는 전처리를, 행하고, 전처리된 깊이 영상 배열의, 각 프레임의 각 화소의 깊이 값에서, 시간적으로 연이은 전 프레임에서 해당 화소의 깊이 값의 차를, 차감하여 차영상 배열을 구하여, 메모리부에 순차적으로 저장시키고, 깊이 영상의 차영상 배열에, 형상 사전정보 및 영역정보 함수를 이용하여 레벨 셋을 진행하여 호흡 영역을 분리하는 것을 특징으로 한다.In addition, the respiration measurement system using the depth camera of the first embodiment of the present invention, the depth camera, by analyzing the depth image of the subject's upper body received from the depth camera includes an image analysis unit comprising an operation processing unit for detecting a respiration signal In the respiration measurement system using a depth camera, the operation processing unit receives the depth image array of the subject's upper body from the depth camera, and performs preprocessing for removing noise including impulse noise from the received depth image arrays, and , of the preprocessed depth image array, from the depth value of each pixel of each frame, subtracting the difference of the depth value of the corresponding pixel from the previous frame in temporal succession to obtain a difference image array, sequentially storing it in the memory unit, and the depth It is characterized in that the breathing region is separated by performing level set using the shape prior information and the region information function in the difference image arrangement of the image.

또한, 본 발명의 제2실시예의 깊이 카메라를 이용한 호흡 측정 시스템은, 깊이 카메라, 상기 깊이 카메라로부터 수신된 피검자의 상체의 깊이 영상을 분석하여 호흡신호를 검출하는 연산처리부를 포함하는 영상분석부를 포함하는 깊이 카메라를 이용한 호흡 측정 시스템에 있어서, 연산처리부는, 깊이 카메라로부터 피검자의 상체의 깊이 영상 배열을 수신하고, 수신된 깊이 영상 배열들에서, 임펄스 노이즈를 포함하는 잡음을 제거하는 전처리를 행하고, 전처리된 연속적인 깊이 영상 배열을 메모리부에 순차적으로 저장하고, 전처리된 깊이 영상 배열의, 각 프레임의 각 화소의 깊이 값에서, 시간적으로 연이은 전 프레임에서 해당 화소의 깊이 값의 차를, 차감하여 차영상 배열을 구하여, 메모리부에 순차적으로 저장시키고, 차영상 배열과, 메모리부로부터 수신된 전처리된 연속적인 깊이 영상을 기 학습된 ResU-net(Residual U-net)에 적용하여, 차영상의 호흡 영역을 분리하는 것을 특징으로 한다.In addition, the respiration measurement system using the depth camera of the second embodiment of the present invention, the depth camera, by analyzing the depth image of the subject's upper body received from the depth camera includes an image analysis unit comprising an operation processing unit for detecting a breathing signal In the respiration measurement system using a depth camera, the operation processing unit receives the depth image arrangement of the subject's upper body from the depth camera, and performs preprocessing for removing noise including impulse noise from the received depth image arrangement, The preprocessed continuous depth image array is sequentially stored in the memory unit, and the depth value of each pixel of each frame of the preprocessed depth image array is subtracted by subtracting the difference between the depth values of the corresponding pixels from the previous frames consecutively in time. The difference image arrangement is obtained and stored sequentially in the memory unit, and the difference image arrangement and the preprocessed continuous depth image received from the memory unit are applied to the pre-learned ResU-net (Residual U-net). It is characterized in that the breathing zone is separated.

제1실시예의 깊이 카메라를 이용한 호흡 측정 시스템에서 레벨 셋을 행하여 호흡 영역을 분리하기 위해, 연산처리부는, 깊이 영상의 차영상 배열에서, 흉곽 및 복부 영역만을 분리하기 위한 형상 사전 정보를 이용하여, 깊이 영상에서 흉곽 및 복부 영역인 몸통영역을 분리하고, 연이은 전 프레임의 호흡관련 영역의 영상을 이용하여 0에서 1사이의 값을 가지는 가중치를 계산하고, 영역정보함수를 적용한 형상 사전정보에, 상기 가중치를 적용하여, 적응적 영역정보 함수를 검출하고, 차영상 배열에 영역정보 함수 및 CVM(Chan-Vese model, 찬 베세 모델) 기법을 이용하여 차영상의 호흡영역을 분리한다.In order to separate the breathing region by performing level set in the respiration measurement system using the depth camera of the first embodiment, the arithmetic processing unit uses the shape dictionary information for separating only the rib cage and the abdomen region in the difference image arrangement of the depth image, In the depth image, the torso region, which is the thoracic and abdominal region, is separated, and a weight having a value between 0 and 1 is calculated using the images of the breathing-related region of the previous frame in succession, and in the shape prior information to which the region information function is applied, the By applying a weight, the adaptive region information function is detected, and the breathing region of the difference image is separated by using the region information function and the CVM (Chan-Vese model) technique in the difference image arrangement.

제2실시예의 깊이 카메라를 이용한 호흡 측정 시스템에서 차영상 배열과, 전처리된 연속적인 깊이 영상을 기 학습된 ResU-net(Residual U-net)에 적용하여, 차영상의 호흡 영역을 분리하는 위해, 연산처리부는, 메모리부로부터 수신된 전처리된 깊이 영상을, 기 학습된 제1 ResU-Net에 입력하고, 제1 ResU-Net으로부터 출력된, 흉곽 및 복부 영역인 몸통 영상만을 분리한 세그멘테이션 맵을, 수신하고, 제1 ResU-Net으로부터 수신한 몸통 영상만을 분리한 세그멘테이션 맵을 메모리부에 순차적으로 임시저장하고, 몸통 영상만을 분리한 세그멘테이션 맵에, 차영상을, 픽셀단위로 곱하고, 기학습된 제2 ResU-Net의 입력으로서, 몸통 영상만을 분리한 세그멘테이션 맵과 차영상의 곱을 입력하고, 제2 ResU-Net의 출력으로서, 차 영상에서 호흡과 관련된 영역만을 분리한 세그멘테이션 맵인, 차 영상에서 호흡과 관련된 영역만을 분리한 영상을 수신한다.In the respiration measurement system using the depth camera of the second embodiment, the difference image arrangement and the pre-processed continuous depth image are applied to the pre-learned ResU-net (Residual U-net) to separate the breathing area of the difference image, The arithmetic processing unit inputs the preprocessed depth image received from the memory unit into the pre-learned first ResU-Net, and outputs a segmentation map that separates only the torso image, which is the thorax and abdomen region, output from the first ResU-Net, The segmentation map obtained by receiving and separating only the torso image received from the first ResU-Net is sequentially temporarily stored in the memory unit, and the segmentation map obtained by separating only the torso image is multiplied by the difference image in units of pixels, 2 As an input of ResU-Net, the product of a segmentation map and a difference image that separates only the body image is input, and as an output of the second ResU-Net, a segmentation map that separates only a region related to respiration from the difference image, respiration and An image in which only the relevant area is separated is received.

본 발명의 깊이 카메라를 이용한 호흡량 측정 시스템은, 깊이(뎁스) 카메라를 이용하여 피검자의 호흡시를 촬영하고, 획득된 깊이 영상 배열에서 서로의 차(Difference)를 계산한 차 영상 배열과 영역 정보 함수를 이용하여, 영역 기반 정보를 이용한 레벨 셋 방법을 적용하여, 깊이 영상에서 호흡에 의해 변화가 존재하는 부분만을 호흡 영역으로 분리하고, 분리된 호흡영역에서 호흡량을 계산하여, 비침습적, 무구속적으로, 정확하게 호흡량을 획득할 수 있다.Respiratory volume measurement system using a depth camera of the present invention is a difference image arrangement and area information function in which the difference between the two images is taken using a depth (depth) camera to capture the subject's breathing, and the difference is calculated from the obtained depth image arrangement. By applying the level set method using area-based information using , only the part where there is a change due to respiration in the depth image is separated into the respiration area, and the respiration volume is calculated in the separated respiration area, making it non-invasive and non-constrained. In this way, the respiration rate can be accurately obtained.

또한, 본 발명은 깊이 카메라를 이용한 호흡량 측정 시스템에서, 획득된 깊이 영상의 전처리과정에서, 시간 및 공간 영역에서 중간값 필터(Median Filter)와 클리핑(Clipping) 기법을 이용하여 깊이 영상 데이터에서 오류 값을 제거한다.In addition, the present invention provides an error value in depth image data using a median filter and a clipping technique in the temporal and spatial domains in the pre-processing of the acquired depth image in the respiratory rate measurement system using a depth camera. to remove

또한, 본 발명은 깊이 영상에서 호흡에 의해 영향을 받는 영역만을 Level Set 방법을 이용하여 분리하며, Level Set 은 영역 정보 함수와 사전 정보 함수를 결합한 방법 사용한다. In addition, the present invention separates only the region affected by respiration in the depth image using the level set method, and the level set uses a method combining the region information function and the prior information function.

또한, 본 발명은 분리한 호흡 영역을 호흡량 계산식에 적용해 호흡량 파형(Volume Waveform) 계산하고, 호흡량 파형에서 피크(Peak)와 밸리(Valley)를 찾아 호흡량 계산한다.In addition, the present invention calculates the volume waveform by applying the separated respiration region to the respiration volume calculation formula, and calculates the respiration volume by finding peaks and valleys in the respiration volume waveform.

따라서 본 발명에서는 오류 값을 제거하고, 호흡에 의해 영향을 받는 영역만을 추출하여, 호흡량을 계산하기 때문에, 비침습적, 무구속적이면서, 보다 정확하게 호흡량을 검출할 수 있다.Therefore, in the present invention, since the error value is removed and only the region affected by the respiration is extracted to calculate the respiration volume, it is possible to detect the respiration volume more accurately and non-invasively.

본 발명의 깊이 카메라를 이용한 호흡량 측정 시스템은 비침습적인 방법으로 환자의 호흡패턴, 일회 호흡용적, 노력 폐활량, 약물 전후 치료의 효과 비교, 호흡재활치료를 가능하게 할 수 있다. Respiratory volume measurement system using a depth camera of the present invention can enable a patient's breathing pattern, tidal volume, effort lung capacity, comparison of effects of treatment before and after drugs, and respiratory rehabilitation in a non-invasive way.

본 발명의 깊이 카메라를 이용한 호흡량 측정 시스템의 사용 가능성 있는 영역으로 첫째, 폐기능 검사를 시행 할 수 없는 환자들에게 폐기능 검사를 대체할 수 있는 검사로 사용 가능하다. 마우스피스를 물 수 없는 기관지 절개 환자, 앉아 있을 수 없는 환자, 메르스등의 호흡기매개 전염병으로 치료중인 환자 등 기존에 방법으로는 폐기능 검사가 불가능 했던 환자들에게 비접촉 비침습적, 상대적으로 저렴한 비용으로 폐기능 검사를 대신 할 수 있다. As an area where the respiratory volume measurement system using the depth camera of the present invention can be used, first, it can be used as a test that can replace the lung function test for patients who cannot perform the lung function test. Non-contact, non-invasive, relatively low cost for patients who could not perform lung function tests with conventional methods, such as patients with bronchectomy who cannot bite the mouthpiece, patients who cannot sit down, and patients who are being treated for respiratory-mediated infectious diseases such as MERS. can be substituted for lung function tests.

둘째, 진정하 시술을 받는 환자들에게 호흡 모니터링을 위한 목적으로 사용 가능하다. 위장관 내시경 시술, 30분 이상 영상을 얻어야 하는 MRI 등의 이미지 검사 등 최근 의료분야에서는 환자의 편안함과 시술의 용이함을 목적으로 모니터링 하 진정제를 투약하는 빈도가 증가하고 있다. 과진정으로 인한 호흡저하를 모니터링하기 위해 말초 동맥 산소 포화도를 측정하고 있으나, 정확도와 신속도가 떨어져서 모니터링의 한계가 있다. 본 발명으로 비침습적으로 실시간 호흡을 모니터링할 수 있어 환자 안전 측면에서 도움이 될 수 있다. Second, it can be used for respiration monitoring in patients undergoing subsedation procedures. In recent medical fields, such as gastrointestinal endoscopy and MRI, which requires images to be obtained for more than 30 minutes, the frequency of administering sedatives under monitoring for the purpose of patient comfort and ease of operation is increasing. Although peripheral arterial oxygen saturation is being measured to monitor respiratory depression due to hypersedation, there are limitations in monitoring due to poor accuracy and speed. The present invention can non-invasively monitor real-time respiration, which can be helpful in terms of patient safety.

셋째, 의료분야에서 호흡근의 능력이 감소되어 호흡재활치료가 필요한 경우, 정량적으로 호흡을 측정하는 것이 도움이 될 수 있다. 특히 본 발명을 재활 운동 장비, 모바일 기기에 접목하여, 호흡재활 치료 시 biofeedback을 통해 운동의 효과를 증진시키는데 사용할 수 있으며, 장소의 제약이 없어, 재택 치료 모니터링 시스템에도 활용 가능성이 있다. Third, in the medical field, when the ability of the respiratory muscles is reduced and respiratory rehabilitation treatment is required, it can be helpful to quantitatively measure respiration. In particular, by grafting the present invention to rehabilitation exercise equipment and mobile devices, it can be used to enhance the effect of exercise through biofeedback during respiratory rehabilitation treatment.

넷째, 호흡기 질환의 진단의 스크리닝 도구로서 활용 가능성이 있다. 현재 국민 건강 보험 건강검진 항목에는 진찰, 상담, 흉부방사선촬영 외에는 호흡기 질환을 스크리닝 할 수 있는 검사가 없다. 본 기술의 알고리듬을 분석하여 질병 진단 전 단계에서 환자를 스크리닝 하는데 사용할 수 있다. Fourth, it has the potential to be used as a screening tool for the diagnosis of respiratory diseases. Currently, there are no tests that can screen for respiratory diseases other than examination, counseling, and chest radiography in the health checkup items of the National Health Insurance. By analyzing the algorithm of the present technology, it can be used to screen patients in the pre-diagnosis stage.

또한, 본 발명의 깊이 카메라를 이용한 호흡량 측정 시스템은 의료 환경 외에도 일반인을 대상으로 하는 헬쓰 디바이스 개발에도 활용 가능하다. 최근 대형 인명 사고로 이어진 광역버스 졸음 운전 사고 이후, 졸음운전 방지 장치가 다시 세간의 주목을 받고 있다. 본 발명을 이용하면, 운전자의 호흡 패턴을 분석하고 모니터링 목적으로서 활용 또한 가능하다. In addition, the respiratory rate measurement system using the depth camera of the present invention can be utilized in the development of health devices for the general public in addition to the medical environment. Recently, after a wide-area bus drowsy driving accident that resulted in a large-scale fatal accident, the device for preventing drowsy driving is receiving attention again. By using the present invention, it is also possible to analyze the driver's breathing pattern and utilize it as a monitoring purpose.

또한, 매일 일기예보에서 미세먼지지수를 발표하는 환경에 살면서 현대인들은 호흡기 질환 이환과 악화를 염려할 뿐 아니라, 호흡 능력을 향상시키기 위해서 여러 관심을 기울이고 있다. 미밴드등 피트니스 밴드가 헬스시장에서 저변을 확대하고 있어 본 발명의 깊이 카메라를 이용한 호흡량 측정 시스템을 연동하면 운동 전 중 후 폐활량을 측정하는데 이용할 수 있다.In addition, living in an environment in which the fine dust index is announced in the daily weather forecast, modern people are not only concerned about the morbidity and exacerbation of respiratory diseases, but are also paying attention to improving their breathing ability. Since fitness bands such as Mi Band are expanding their base in the health market, if the respiratory volume measurement system using the depth camera of the present invention is linked, it can be used to measure the lung capacity before, during, and after exercise.

도 1은 본 발명의 깊이 카메라를 이용한 호흡량 측정 시스템을 개략적으로 설명하기위한 개념도이다.
도 2는 발명의 깊이 카메라를 이용한 호흡 측정 시스템의 구성을 개략적으로 나타낸 블럭도이다.
도 3는 도 2의 연산처리부에서 시간 영역에서의 데이터 전처리를 설명하기 위한 도면이다.
도 4는 도 2의 연산처리부에서 공간 영역에서의 데이터 전처리를 설명하기 위한 도면이다.
도 5는 형상 사전정보를 설명하기 위한 도면이다.
도 6는 도 2의 연산처리부에서 CVM과 영역 정보 함수를 이용한 레벨 셋 방법을 적용하여 호흡 영역의 분할을 설명하기 위한 도면이다.
도 7은 도 2의 연산처리부에서 호흡관련 영역을 이용한 영역정보함수를 설명하기 위한 설명도이다.
도 8은 도 2의 연산처리부에서 호흡관련 영역을 이용한 영역정보함수의 생성과정을 설명하기 위한 설명도이다.
도 9는 도 2의 영상분석부에서 깊이 카메라로부터 수신된 깊이 영상을 이용하고 등위 집합(Level Set) 방법을 적용하여 호흡량을 검출하는 방법을 개략적으로 설명하는 흐름도이다.
도 10은 도 9의 호흡영역 분리단계를 설명하는 흐름도이다.
도 11은 기존 방법의 호흡영역분리의 예와, 본 발명의 호흡영역 분리의 예를 나타낸다.
도 12는 정상적(momal) 환경에서 기존 방법의 호흡영역분리 방식, 본 발명의 호흡영역분리 방식 및 호흡기(ventilator)를 각각 적용한 경우의 호흡량 파형의 비교예이다.
도 13는 팔 움직임이 있는 환경에서 기존 방법의 호흡영역분리 방식, 본 발명의 호흡영역분리 방식 및 호흡기(ventilator)를 각각 적용한 경우의 호흡량 파형의 비교예이다.
도 14는 ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할과정을 설명하기 위한 설명도이다.
도 15는 ResU-Net을 이용한 시간 영역에서의 호흡 영역 분할과정을 설명하기 위한 설명도이다.
도 16은 도 2의 영상분석부에서 깊이 카메라로부터 수신된 깊이 영상을 이용하고 ResU-net(Residual U-net) 방법을 적용하여 호흡량을 검출하는 방법을 개략적으로 설명하는 흐름도이다.
1 is a conceptual diagram for schematically explaining a respiratory volume measurement system using a depth camera of the present invention.
Figure 2 is a block diagram schematically showing the configuration of the respiration measurement system using the depth camera of the invention.
FIG. 3 is a diagram for explaining data pre-processing in the time domain in the operation processing unit of FIG. 2 .
FIG. 4 is a diagram for explaining data pre-processing in a spatial domain in the operation processing unit of FIG. 2 .
5 is a diagram for explaining shape dictionary information.
FIG. 6 is a view for explaining division of a breathing region by applying a level set method using a CVM and a region information function in the operation processing unit of FIG. 2 .
7 is an explanatory diagram for explaining a region information function using a breathing-related region in the operation processing unit of FIG. 2 .
FIG. 8 is an explanatory diagram for explaining a process of generating a region information function using a respiration-related region in the operation processing unit of FIG. 2 .
9 is a flowchart schematically illustrating a method of detecting a respiration volume by using a depth image received from a depth camera in the image analysis unit of FIG. 2 and applying a level set method.
10 is a flowchart illustrating the step of separating the breathing area of FIG. 9 .
Figure 11 shows an example of the breathing zone separation of the existing method, and an example of the breathing zone separation of the present invention.
12 is a comparative example of respiratory volume waveforms when the breathing zone separation method of the existing method, the breathing zone separation method of the present invention, and a ventilator are respectively applied in a normal environment.
13 is a comparative example of respiratory volume waveforms in the case of applying the breathing zone separation method of the existing method, the breathing zone separation method of the present invention, and a ventilator in an environment with arm movement.
14 is an explanatory diagram for explaining a respiration domain division process in a spatial domain using ResU-Net.
15 is an explanatory diagram for explaining the respiration domain division process in the time domain using ResU-Net.
16 is a flowchart schematically illustrating a method of detecting a respiration volume by using a depth image received from a depth camera in the image analysis unit of FIG. 2 and applying a ResU-net (Residual U-net) method.

이하, 본 발명의 깊이 카메라를 이용한 호흡량 측정 시스템을 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, the respiratory volume measurement system using the depth camera of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 깊이 카메라를 이용한 호흡량 측정 시스템을 개략적으로 설명하기위한 개념도이고, 도 2는 발명의 깊이 카메라를 이용한 호흡 측정 시스템의 구성을 개략적으로 나타낸 블럭도이다. 1 is a conceptual diagram for schematically explaining a respiration volume measurement system using a depth camera of the present invention, Figure 2 is a block diagram schematically showing the configuration of a respiration measurement system using a depth camera of the present invention.

도 1의 (a)는 피검자(50)가 누워있는 상태에서 호흡량 측정 시스템을 이용하여 호흡을 측정하는 것을 나타내며, 도 1의 (b)는 피검자(50)가 앉아있는 상태에서 호흡량 측정 시스템을 이용하여 호흡을 측정하는 것을 나타낸다. Figure 1 (a) shows that the subject 50 is lying down using the respiratory rate measuring system to measure the respiration, Figure 1 (b) is using the respiratory rate measuring system in a state where the subject 50 is sitting to measure respiration.

도 1에서는 누워있거나 앉아 있는 경우의 호흡을 측정하고 있으나, 이로써 본 발명을 한정하기 위한 것이 아니며, 피검자의 상반신을 연속적으로 촬영할 수 있는 자세라면 어떠한 자세라도 상관없다.In FIG. 1, although breathing is measured when lying or sitting, the present invention is not limited thereto, and any posture may be used as long as the subject's upper body can be continuously photographed.

피검자(50)는 깊이 카메라(100)의 정면에서 앉은 자세 또는 누은 자세로 호흡을 행하며, 깊이 카메라(100)에서 호흡하는 것을 촬영하여 얻은 깊이 영상을 영상분석부(200)로 전송한다. The subject 50 breathes in a sitting or lying position in front of the depth camera 100 , and transmits a depth image obtained by photographing breathing in the depth camera 100 to the image analysis unit 200 .

깊이 영상은 16 frame 속도로 깊이 카메라(100)에서 측정된다. 즉, 1초에 16장의 깊이 영상이 획득되므로 영상의 개수는 촬영 시간이 길어질수록 증가하게 된다. The depth image is measured by the depth camera 100 at a rate of 16 frames. That is, since 16 depth images are acquired per second, the number of images increases as the recording time increases.

영상분석부(200)의 연산처리부(210)는, 깊이 영상들을, 시간 및 공간 영역에서 중간값 필터(Median Filter, 메디안 필터)와 클리핑(Clipping) 기법을 이용하여 깊이 영상 데이터에서 오류 값을 제거하는 전처리 과정을 거친다. 즉, 시간 영역에서 중간값 필터링과 클리핑(Clipping)을 행하며, 또한, 공간 영역에서 중간값 필터링과 클리핑(Clipping)을 행한다. 이는 공간 영역에서 중간값 필터링과 클리핑(Clipping)을 행하고, 시간 영역에서 중간값 필터링과 클리핑(Clipping)을 행하여도 상관없다.The operation processing unit 210 of the image analysis unit 200 removes an error value from the depth image data using a median filter and a clipping technique in the temporal and spatial domains. go through a pre-processing process. That is, median value filtering and clipping are performed in the temporal domain, and median value filtering and clipping are performed in the spatial domain. In this case, median filtering and clipping may be performed in the spatial domain, and median filtering and clipping may be performed in the temporal domain.

깊이 카메라를 이용하여 사람이 호흡하는 것을 촬영하여 시간에 따른 연속적인 깊이 영상을 획득하게 된다.Continuous depth images are acquired over time by photographing a person's breathing using a depth camera.

이렇게 연속적인 깊이 영상에서 특정 픽셀 A에서 깊이 값을 시간에 따라 순차적으로 표시하게 되면, 특정 픽셀(예를들어 도 3의 A)에 대한 시간에 따른 깊이 값들의 데이터들을 얻을 수 있다. 다시말해, 시간이 지남에 따라 같은 영역의 픽셀값(즉, 깊이값)을 차례대로 저장한다. 즉, 특정 픽셀에 대한 시간에 따른 깊이 값들의 데이터들이, 나열되어 저장되고, 이 저장된 데이터(즉, 특정 픽셀에 대한 시간에 따른 깊이 값들의 데이터)에서, 기설정된 소정 크기의 윈도우를 사용하여, 중간값 필터를 통해 중간값 필터링, 즉, 시간영역에서의 중간값 필터링을 행하고, 시간영역에서의 중간값 필터링이 행하여진 결과에서 임펄스 등을 제거하는 클리핑, 즉, 시간영역에서의 클리핑을 행한다.When depth values are sequentially displayed over time in a specific pixel A in a continuous depth image, data of depth values over time for a specific pixel (eg, A of FIG. 3 ) can be obtained. In other words, pixel values (ie, depth values) of the same area are sequentially stored over time. That is, data of depth values according to time for a specific pixel are arranged and stored, and in this stored data (that is, data of depth values according to time for a specific pixel), using a window of a predetermined size, Median value filtering, that is, median value filtering in the time domain, is performed through the median filter, and clipping in which impulses and the like are removed from the result of median filtering in the time domain, that is, clipping in the time domain is performed.

또한, 시간영역에서 클리핑된 연속적인 깊이 영상 각각에서, 각 픽셀에 대한 깊이값(즉, 각 픽셀의 값)들에서, 기설정된 소정 크기의 윈도우를 사용하여, 중간값 필터를 통해 중간값 필터링, 즉, 공간영역에서의 중간값 필터링을 행하고, 이렇게 공간영역에서의 중간값 필터링이 행하여진 결과(즉, 영상)에서 임펄스 등을 제거하는 클리핑,즉, 공간영역에서의 클리핑을 행한다. In addition, in each of the successive depth images clipped in the time domain, in the depth values for each pixel (ie, the values of each pixel), using a window of a predetermined size, filtering the median value through the median value filter; That is, median filtering is performed in the spatial domain, and clipping for removing impulses and the like from the result (ie, image) of the median filtering in the spatial domain, that is, clipping in the spatial domain is performed.

여기서, 중간값 필터(Median Filter)는 시간적으로 또는 공간적으로 배열된 픽셀(영상소)들에서, 소정 크기의 윈도우를 가지고, 다시말해 시간적 또는 공간적으로 배열된 윈도우 크기에 따라 기설정된 소정 개수의 픽셀들에서, 소정 픽셀(영상소)의 주변의 중앙 값을 계산하고, 계산된 중앙값 픽셀(영상소)을 대표 밝기 값으로 하여 손상되거나 잃어버린 각 픽셀(영상소)의 점에 적용하는 것으로, 이는 네이버 지식백과 등에 공지된 것으로 보다 상세한 설명은 생략한다.Here, the median filter has a window of a predetermined size among temporally or spatially arranged pixels (image elements), that is, a predetermined number of pixels according to the temporally or spatially arranged window size. In the field, the median value of the periphery of a given pixel (image element) is calculated, and the calculated median value pixel (image element) is used as a representative brightness value and applied to the point of each damaged or lost pixel (image element), which is As it is known in the knowledge encyclopedia, a more detailed description will be omitted.

여기서, 클리핑은 시간 또는 공간영역에서의 중간값 필터링이 행하여진 결과인, 시간 또는 공간영역에서의 픽셀들의 깊이값들에서, 기설정된 소정 크기 이상의 임펄스들을 제거한다. Here, the clipping removes impulses having a predetermined size or more from depth values of pixels in the temporal or spatial domain, which are results of intermediate value filtering in the temporal or spatial domain.

도 3은 도 2의 연산처리부에서 시간 영역에서의 데이터 전처리(즉, 중간값 필터링 및 클리핑)를 설명하기 위한 도면이고, 도 4는 도 2의 연산처리부에서 공간 영역에서의 데이터 전처리를 설명하기 위한 도면이다.3 is a diagram for explaining data preprocessing (ie, intermediate value filtering and clipping) in the time domain in the arithmetic processing unit of FIG. 2 , and FIG. 4 is a diagram for explaining data preprocessing in the spatial domain in the arithmetic processing unit of FIG. 2 It is a drawing.

도 3의 (a)는 깊이 카메라를 이용하여 사람이 호흡하는 것을 촬영하되, 시간에 따라 연속적으로 촬영된 깊이 영상을 나타낸다. 도 3의 (b)는 도 3의 (a)의 시간에 따른 깊이 영상들에서, 특정 픽셀(A)의 깊이값을 시간에 따라 나타낸 그래프이다. 도 3의 (c)는 도 3의 (b)에서 특정 픽셀(A)의 깊이 값을 시간에 따라 나타낸 그래프이다.Figure 3 (a) shows a depth image taken continuously over time while photographing a person breathing using a depth camera. FIG. 3B is a graph showing the depth value of a specific pixel A over time in the time-dependent depth images of FIG. 3A . FIG. 3C is a graph showing the depth value of a specific pixel A over time in FIG. 3B .

시간 및 공간 영역에서 중간값 필터링에 대해 부연 설명하면, 깊이 카메라를 이용하여 사람이 호흡하는 것을 촬영하면 시간에 따른 연속적인 깊이 영상을 도 3의 (a)와 같이 획득하게 된다. 이때 획득한 깊이 영상에는 오류 값들이 포함되어 있다. 이를 제거하기 위해서 시간 및 공간 영역에서 중간값 필터와 클리핑 기법을 이용하여 오류값을 제거해 주게 된다. 예를들어, 도 3의 (a)의 연속적인 깊이 영상에서 특정 픽셀 A에서 깊이 값을 시간에 따라 표시하게 되면 도 3의 (b)와 같이 표시한다. 시간 영역에서의 중간값 필터링은, 특정 픽셀 A에서 깊이 값을 시간에 따라 표시하게 된 값들에서 소정 크기의 윈도우를 씌우서, 상기 윈도우내에서 크기순으로 정렬하고, 정렬된 값중 중간값을 구하여, 상기 윈도우 내의 값들을 상기 중간값으로 한다. 시간 영역에서의 데이터 전처리시에 중간값 필터를 이용하여 모든 픽셀에 대하여 해당 픽셀 위치의 깊이 값의 변화를 나타내는 1차원 신호, 즉 도 3의 (b)와 같은 신호를 중간값 필터링 처리해주는 것을 말하며, 필터링 처리 시, 상기 신호, 즉, 도 3의 (b)와 같은 신호에서 보이는 임펄스 노이즈가 제거되어 도 3의 (c)와 같이 노이즈 값이 제거된 신호를 획득하게 되며, 이 신호는 호흡에 따른 깊이 영상의 변화를 나타내므로, 여기서 이 신호를 호흡신호라 한다. 시간 영역에서는 시간에 따른 깊이 값의 변화를 나타내고 있다면, 공간 영역의 경우는 특정 시점의 깊이 영상에 2차원 메디안 필터를 적용하여 영상의 공간상의 오류 값을 제거해 주는 것이다. To elaborate on the median filtering in the temporal and spatial domains, continuous depth images according to time are acquired as shown in FIG. 3 ( a ) by photographing a person breathing using a depth camera. In this case, the acquired depth image includes error values. In order to remove this, the error value is removed by using a median filter and clipping technique in the temporal and spatial domains. For example, when a depth value in a specific pixel A is displayed over time in the continuous depth image of FIG. 3A , it is displayed as shown in FIG. 3B . Median value filtering in the time domain is by covering a window of a predetermined size on the values that display the depth value in a specific pixel A over time, sorting in the order of size within the window, and finding the median value among the sorted values, Let the values in the window be the intermediate values. In the case of data preprocessing in the time domain, a one-dimensional signal indicating a change in the depth value of the pixel position for all pixels using a median value filter, that is, a signal as shown in Fig. 3(b), is subjected to median value filtering. , during the filtering process, the impulse noise seen in the signal, that is, the signal as shown in Fig. 3 (b) is removed to obtain a signal from which the noise value is removed as shown in Fig. 3 (c), and this signal is applied to respiration Since it represents a change in the depth image according to the flow, this signal is referred to as a breathing signal. If the temporal domain represents a change in the depth value over time, in the spatial domain, a 2D median filter is applied to the depth image at a specific point in time to remove the spatial error value of the image.

클리핑은 시간 및 공간 영역 필터링에서의 중간값 필터링 처리에서 제거되지 않은 오류 값을 0으로 만들어주는 것을 말한다. 오류 값의 경우 도 3의 (b)에서 볼 수 있듯이 매우 큰 깊이 값(예를들어 12000mm 등)을 가지게 된다. 이러한 오류 값을 시간 및 공간 영역에서의 중간값 필터링을 해준 이후에, 제거되지 않은 오류 값을 검출하여 0으로 값을 대신 채워준다.Clipping refers to making an error value that is not removed from the median filtering process in temporal and spatial domain filtering to 0. The error value has a very large depth value (eg, 12000 mm, etc.) as shown in FIG. 3(b). After filtering the median values in the temporal and spatial domains for these error values, the error values that are not removed are detected and the values are filled with 0 instead.

영상분석부(200)의 연산처리부(210)는, 전처리 과정을 통해 전처리된 영상들, 즉 깊이 영상들을 차례대로(배열하여) 메모리부(220)에 임시 저장한다. The operation processing unit 210 of the image analysis unit 200 temporarily stores images preprocessed through the preprocessing process, that is, depth images in order (arranged) in the memory unit 220 .

또한, 영상분석부(200)의 연산처리부(210)는, 전처리 과정을 통해 전처리된 영상들에서, 시간적으로 연이은 영상들에서 소정 화소의 깊이 값의 차, 즉, 현재의 영상에서 화소의 깊이 값에서, 연이은 전의 영상의 해당 화소의 깊이 값을, 차감하여 차영상들을 구하여 메모리부(220)에 임시 저장한다. Also, in the images preprocessed through the preprocessing process, the operation processing unit 210 of the image analysis unit 200 is configured to have a difference in depth values of predetermined pixels in temporally consecutive images, that is, a depth value of a pixel in the current image. , the difference images are obtained by subtracting the depth value of the corresponding pixel of the successive previous image and temporarily stored in the memory unit 220 .

그리고, 영상분석부(200)의 연산처리부(210)는 전처리과정에 의해 전처리된 깊이 영상에서 호흡에 의해 영향을 받는 영역만을 분리하는 데. 이는 호흡영역 분리과정이라 할 수 있다. 호흡영역 분리과정은, 등위 집합(Level Set) 방법을 이용하여 분리하는 방법과, ResU-net(Residual U-net, 잔류 U-net)을 이용하여 분리하는 방법이 있다.And, the operation processing unit 210 of the image analysis unit 200 separates only the region affected by respiration in the depth image preprocessed by the preprocessing process. This can be called the respiratory zone separation process. Respiratory region separation process includes a method of separating using a level set method and a method of separating using ResU-net (Residual U-net, residual U-net).

우선, 등위 집합(Level Set) 방법을 이용한 호흡영역 분리과정을 설명한다.First, the breathing area separation process using the level set method will be described.

즉, 전처리과정에 의해 전처리된 깊이 영상에서 호흡에 의해 영향을 받는 영역만을 등위 집합(Level Set) 방법을 이용하여 분리한다. 이 호흡영역 분리과정은, 형상 사전정보를 이용한 레벨 셋 과정과, 적응적 영역 정보 함수 생성과정과, 영역기반 정보를 이용한 레벨 셋 과정을 순차적으로 진행한다.That is, in the depth image preprocessed by the preprocessing process, only the region affected by respiration is separated using the level set method. In this breathing region separation process, a level set process using shape prior information, an adaptive region information function generation process, and a level set process using region-based information are sequentially performed.

형상 사전정보를 이용한 레벨 셋 과정을 설명하면, 전처리 과정 후에, 기 저장된 형상 사전 정보(즉, 일정한 형태의 몸통 형태의 형상)를 이용하여 깊이 영상에서 흉곽 및 복부 영역을 분리하는 레벨 셋을 진행한다. 이렇게 함으로써 호흡관련 영역, 즉, 흉곽 및 복부 영역만을 분리하여 메모리부(220)에 저장한다. 즉, 형상 사전 정보를 이용한 레벨 셋 방법은 미리 일정한 형태의 몸통 형태의 형상을 입력으로 주고 이를 이용하여 깊이 영상에서 흉곽과 복부 영역을 분리한다. When explaining the level set process using the shape prior information, after the pre-processing process, the level set for separating the rib cage and the abdomen region from the depth image is performed using the pre-stored shape prior information (that is, the shape of the body of a certain shape). . In this way, only the breathing-related region, that is, the rib cage and the abdomen region is separated and stored in the memory unit 220 . That is, in the level set method using shape dictionary information, a shape of a torso of a predetermined shape is given as an input in advance, and the chest and abdomen regions are separated from the depth image by using the input.

여기서, 형상 사전 정보는 도 5와 같이 호흡에 의해 변화가 일어나는 가슴과 복부를 포함한 영역을 나타내며, 이는 공장 출하시 저장된 정보이거나, 사용초기에 사용자가 저장한 정보일 수 있다. 도 5의 (a)는 형상 사전 정보의 일예로, 흉곽과 복부(즉, 몸통)을 나타내는 형상을 제외한 부분은 검정색으로 이루어진 영상이다. 도 5의 (b)는 형상 사전 정보의 적용을 설명하기 위한 도면이다.Here, the shape dictionary information indicates an area including the chest and abdomen where changes occur by respiration as shown in FIG. 5 , which may be information stored at the time of shipment from the factory or information stored by a user at the beginning of use. FIG. 5A is an example of shape dictionary information, and a portion except for shapes representing the rib cage and abdomen (ie, torso) is an image made of black. FIG. 5B is a diagram for explaining application of shape dictionary information.

다음으로, 적응적 영역 정보 함수 생성과정을 설명하면, 연이은 전 호흡관련 영역의 영상을 읽어들이고 이를 이용하여 가중치를 계산하고, 영역정보함수를 적용한 형상 사전정보에 상기 가중치를 반영하여, 적응적 영역정보 함수를 검출한다.Next, explaining the process of generating the adaptive region information function, the image of the entire respiration-related region is read in succession, the weight is calculated using this, and the weight is reflected in the shape prior information to which the region information function is applied, and the adaptive region Detect information function.

여기서, 영역정보 함수의 적용은, 소정 영상에 대해, 부호를 가지는 거리 함수(Signed Distance Fuction, SDF)를 적용하여, 경계선을 0으로 기준으로 하고, 상기 기준에서 멀어질수록 내부 영역은 양수, 외부 영역은 음수의 값을 가지게 하며, 이렇게 SDF 함수가 적용된 영역의 영상에서, 일정한 문턱치를 넘는 값(또는, 소정 크기단위 내의 값)을 같은 값으로 처리한 후, 외부 영역을 단위 계단 함수(Heaviside) 함수를 사용하여, 일정하게 감소하는 값을, 급격한 기울기를 가지고 감소하도록 변형한다.Here, the application of the area information function is to apply a signed distance function (SDF) to a predetermined image, with the boundary line being 0 as a reference, and as the distance from the reference is increased, the inner area is a positive number, the outer area is The region has a negative value, and in the image of the region to which the SDF function is applied, a value exceeding a certain threshold (or a value within a predetermined size unit) is treated as the same value, and then the external region is converted to a unit step function (Heaviside) A function is used to transform a constantly decreasing value to decrease with a steep slope.

여기서, 가중치는 0 내지 1 사이의 값으로, 사용자에 의해 경험적으로 정해지는 값이다. 예를들어, 현 호흡관련 영역의 영상관련 가중치(예로 a라 하면)와 전 호흡관련 영역의 영상관련 가중치(예로 1-a)를 합하여 1이 되도록 할 수 있다.Here, the weight is a value between 0 and 1, and is a value empirically determined by the user. For example, the image-related weight of the current respiration-related area (eg, a) and the image-related weight of the previous respiration-related area (eg, 1-a) may be summed to be 1.

그 다음으로, 영역기반 정보를 이용한 레벨 셋 과정을 설명한다. 형상 사전정보를 이용한 레벨 셋 과정을 통해 분리한 흉곽 및 복부 영역 영상에서 실제로 호흡에 의해 깊이 값의 변화가 일어나는 영역만을 분리하기 위해 영역 기반 정보를 이용한 레벨 셋 방법을 사용한다. 영역 기반 정보를 이용한 레벨 셋은 깊이 영상에 적용하는 것이 아닌, 깊이 영상의 차를 계산한 영상에 적용한다. 즉, 상술한 차영상에, 영역 기반 정보를 이용한 레벨 셋 방법을 적용하여, 호흡관련 영역(즉, 호흡에 의해 깊이 값의 변화가 일어나는 영역)만을 추출하여 메모리부(220)에 저장된다. 여기서 레벨 셋(Level Set)은 영역 정보 함수와 사전 정보 함수를 결합한 방법을 사용한다. 이렇게 분할한 호흡 영역은 다음 차(Difference) 영상에서 호흡 영역을 분할할 때 사전 정보로 사용되어 영역 정보 함수를 생성할 때 가중치를 반영하여 적응적 영역 정보 함수를 생성하게 된다. Next, a level setting process using region-based information will be described. The level set method using area-based information is used to separate only the area where the depth value actually changes due to respiration from the images of the chest and abdomen areas separated through the level set process using the shape prior information. The level set using region-based information is not applied to the depth image, but is applied to the image in which the difference between the depth images is calculated. That is, by applying the level set method using the region-based information to the above-described difference image, only the breathing-related region (ie, the region in which a change in depth value occurs due to respiration) is extracted and stored in the memory 220 . Here, the level set uses a method in which the area information function and the dictionary information function are combined. The divided breathing region is used as prior information when dividing the breathing region in the next difference image, and the weight is reflected when generating the region information function to generate an adaptive region information function.

영역 기반 정보를 이용한 레벨 셋 방법은 형상 사전 정보를 이용한 레벨 셋을 이용해 분리한 호흡 관련 영역을 이용하여, 상술한 영역 정보함수를 에너지 함수에 추가하게 된다. In the level set method using region-based information, the above-described region information function is added to the energy function by using a respiration-related region separated using a level set using shape dictionary information.

도 6는 도 2의 연산처리부에서 CVM(Chan & Vese model)과 영역 정보 함수에 따른 영역 기반 레벨 셋 방법을 적용하여 호흡 영역의 분할을 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining division of a breathing region by applying a region-based level set method according to a Chan & Vese model (CVM) and a region information function in the operation processing unit of FIG. 2 .

도 6의 (a)는 흉곽 및 복부의 깊이 영상의 차를 구한 영상, 즉, 차 영상이다. 도 6의 (a)의 차 영상은, 깊이 값의 변화가 크게 일어나는 영역은 흰색으로 표시되고 변화가 작은 영역은 검은색으로 표시된다. 도 6의 (a)의 영상에서 호흡 관련 영역 내부에 호흡에 의해 변화하는 영역만을 추출해야 하는 데, 도 6의 (b)는 도 6의 (a)의 영상에 CVM(Chan & Vese model, 찬 베세)의 기법을 적용시켜 호흡 영역을 분리한 결과의 일예다. 도 6의 (c)와 (d)는 도 6의 (a)의 영상에 CVM(Chan & Vese model, 찬 베세)의 기법을 적용시켜 호흡 영역을 분리하되, 영역 기반 정보의 내부 함수를 다르게 하여 호흡 영역을 분할한 결과들이다. 6A is an image obtained by obtaining the difference between the depth images of the rib cage and the abdomen, that is, the difference image. In the difference image of FIG. 6A , an area where a large change in depth value occurs is displayed in white, and an area in which the change in depth value is small is displayed in black. In the image of Fig. 6 (a), only the region changed by respiration inside the respiration-related region should be extracted, Fig. 6 (b) shows the CVM (Chan & Vese model, chan) in the image of Fig. 6 (a). This is an example of the result of separating the breathing area by applying the technique of Besse). 6 (c) and (d) are shown by applying the technique of CVM (Chan & Vese model, Chan Besse) to the image of FIG. 6 (a) to separate the breathing region, but by differentiating the internal function of the region-based information. These are the results of dividing the breathing area.

도 6의 (c) 내지 (d)에서와 같이, 호흡 관련 영역 내부에서 호흡에 의해 변화가 일어나는 영역만을 분리한 것을 볼 수 있다. 즉, 형상 사전 정보를 이용한 레벨 셋 방법으로 분리한 호흡 관련 영역을 이용하여 영역 정보 함수를 만들게 되고 이를 이용하여 영역 기반 정보를 이용한 레벨 셋 방법을 적용하여 호흡 영역을 분리하게 된다.As shown in (c) to (d) of Figure 6, it can be seen that only the area in which the change occurs by respiration within the respiration-related area is separated. That is, a region information function is created using the breathing-related region separated by the level set method using the shape dictionary information, and the breathing region is separated by applying the level set method using the region-based information using this.

화상의 세그멘테이션 레벨 셋 법의 실장(Chan-Vese)은, 레벨 셋 법을 이용하여 화상의 세그멘테이션을 행하는 것으로, 여기서 세그멘테이션은 화상(이미지)에서 주목받는 영역을 잘라내는 것으로, 레벨 셋(Level set)법은, Osher와 Sethean에 의해 개발된, 세그멘테이션의 틀이다. 이 틀에서, 영역의 내부, 외부를 레벨 셋 함수라 불리는 음(陰)함수φ의 부호에 의해 다음과 같이 표현된다.Segmentation of an image The implementation of the level set method (Chan-Vese) is to segment the image using the level set method, where segmentation is to cut out a region of interest in the image (image), level set (Level set) Law, developed by Osher and Sethean, is a framework for segmentation. In this framework, the inside and outside of the region are expressed as follows by the sign of the negative function φ called the level set function.

Figure 112019111808014-pat00001
Figure 112019111808014-pat00001

여기서, r은 픽셀위치(좌표의 거리)이고, t는, CVM의 기법, 즉 찬 베세 알고리즘의 반복회수로, 시간적인 개념을 가지므로, 시간을 나타낸다고도 할 수 있다. 또한, Ω은 분할하고자 하는 영역, 즉, 호흡관련 영역의 경계(즉, 포물선 또는 찬 베세 알고리즘의 포물선)이다. 즉, 시간 t에서 픽셀위치 r에 위치한 화소의 레벨셋 함수 φ(r, t)는 픽셀위치 r이 호흡관련 영역 Ω 내에 속하면 0보다 작은 값(음의 값)을 가지며, 픽셀위치 r이 호흡관련 영역 Ω의 경계선이면 0의 값을 가지며, 픽셀위치 r이 호흡관련 영역 Ω에 속하지 않으면(즉, Ω의 외측에 속하면) 0보다 큰값(양의 값)을 갖는다. Here, r is the pixel position (coordinate distance), and t is the number of iterations of the CVM technique, that is, the Chan Besse algorithm, and has a temporal concept, so it can also be said to represent time. In addition, Ω is the boundary of the region to be divided, that is, the respiration-related region (ie, a parabola or a parabola of the Chan Besse algorithm). That is, at time t, the level set function φ(r, t) of the pixel located at the pixel position r has a value less than 0 (negative value) if the pixel position r belongs to the respiration-related region Ω, and the pixel position r is breathing. If it is the boundary of the relevant region Ω, it has a value of 0, and if the pixel position r does not belong to the respiration-related region Ω (ie, it belongs to the outside of Ω), it has a value greater than 0 (positive value).

이미지 영역에서 형상 사전 정보는 수학식 1과 같이 기존의 Chan-Vese의 레벨 셋 방법의 에너지 항에 형상 사전 정보 에너지 항을 추가함으로써 레벨 셋 방법에 적용이 되는 것이다. 즉, 이미지 영역에서 형상 사전 정보를 적용한 경우에 레벨셋 함수 φ에 따른 전체 영상의 에너지(Etotal(φ))는 수식 1과 같이 나타낼 수 있다.The shape dictionary information in the image area is applied to the level set method by adding the shape dictionary information energy term to the energy term of the existing Chan-Vese level set method as shown in Equation (1). That is, when the shape dictionary information is applied to the image region, the energy (E total ( ) ) of the entire image according to the level set function φ can be expressed as Equation 1 .

Figure 112019111808014-pat00002
Figure 112019111808014-pat00002

여기서, φ는 흉부 및 복부의 깊이 영상에서 현재 시점의 분할 곡선이고, φ0가 입력된 형상 사전 정보이고, Ecv(φ)는 기존의 Chan-Vese의 레벨 셋 방법으로 분할된 영상의 에너지(즉, Chan-Vese의 레벨 셋 방법에 의한 영상의 에너지 항)이고, Eshape(φ)는 형상 사전 정보 에너지(즉, 형상 사전 정보 에너지 항)이며, a는 가중치이다. d(φ, φ0)2는 흉부 및 복부의 깊이 영상에서 현재 시점의 분할 곡선과 형상 사전 정보의 모양(shape)의 거리 함수를 나타내며, 즉, d(φ, φ0)는 흉부 및 복부의 깊이 영상에서 현재 시점의 분할 곡선과 형상 사전 정보의 모양(shape)의 거리 를 나타낸다. 수학식 1에서와 같이, 형상 사전 정보 항에 가중치 a가 곱해진 형태의 식으로 나타내어져 있다. 가중치 a에 값을 큰값을 부여하거나, 아니면 작은값을 부여하느냐에 따라 기존 Chan-Vese의 방법이 주는 에너지가 크게 적용되기도 하고 작게 적용되기도 한다.Here, φ is the segmentation curve at the current time in the chest and abdominal depth images, φ 0 is the input shape prior information, and E cv (φ) is the energy ( That is, the energy term of the image by the Chan-Vese level set method), E shape (φ) is the shape dictionary information energy (ie, the shape dictionary information energy term), and a is the weight. d(φ, φ 0 ) 2 represents the distance function of the split curve at the current time point and the shape of the shape prior information in the depth image of the chest and abdomen, that is, d(φ, φ 0 ) is the In the depth image, it represents the distance between the segmentation curve of the current view and the shape of the shape dictionary information. As in Equation 1, it is expressed as an expression in which the shape dictionary information term is multiplied by the weight a. Depending on whether a large value or a small value is given to the weight a, the energy given by the existing Chan-Vese method is either large or small.

d(φ, φ0)2는 수학식 2와 같이 나타내진다.d(φ, φ 0 ) 2 is represented by Equation (2).

Figure 112019111808014-pat00003
Figure 112019111808014-pat00003

여기서,

Figure 112019111808014-pat00004
는 분할곡선에서 해당 픽셀 위치(픽셀 좌표)이며,
Figure 112019111808014-pat00005
는 현재시점의 분할곡선을 나타내며,
Figure 112019111808014-pat00006
는 입력한 형상 사전정보의 분할곡선을 나타낸다. here,
Figure 112019111808014-pat00004
is the pixel position (pixel coordinates) on the segmentation curve,
Figure 112019111808014-pat00005
represents the split curve at the present time,
Figure 112019111808014-pat00006
represents the segmentation curve of the input shape prior information.

또한, 스텝 함수(즉, H(x))는 다음과 같이 정의할 수 있다.In addition, the step function (ie, H(x)) can be defined as follows.

Figure 112019111808014-pat00007
Figure 112019111808014-pat00007

H(x)는 각 영상의 내부영역만 발췌하여 뺀 것을 말한다.H(x) refers to extracting and subtracting only the inner region of each image.

수학식 2에서와 같이, φ0가 입력된 형상 사전 정보이고 φ가 현재 시점의 분할 곡선이다. 현재 분할 곡선과 형상 사전 정보의 형태가 같은 경우 형상 사전 정보 항의 에너지가 발생하지 않는다. 분할 곡선과 형상 사전 정보의 형태가 다른 경우 에너지가 발생해 분할 곡선이 에너지를 발생시키는 형태로 변형되며, 즉, 이 경우에, 분할곡선이 형상사전 정보와 같도록 에너지를 발생시키는 형태로 변형된다. 이 분할곡선의 형태를 반복적으로 변형시킴으로써 입력한 형상 사전 정보의 형태와 비슷한 형상을 분할하게 된다. 즉, 획득한 깊이 영상에, 입력한 형상 사전 정보를 이용하여 형상 사전 정보를 이용한 레벨 셋 방법으로 호흡 관련 영역을 분리한다.As in Equation 2, φ 0 is the input shape dictionary information and φ is the split curve at the current time. If the shape of the current segmentation curve and the shape dictionary information is the same, the energy of the shape dictionary information term is not generated. When the shape of the split curve and the shape dictionary information is different, energy is generated and the split curve is transformed into a form that generates energy, that is, in this case, the split curve is transformed into a form that generates energy so as to be the same as the shape dictionary information. . By repeatedly deforming the shape of the dividing curve, a shape similar to the shape of the input shape dictionary information is divided. That is, the breathing-related region is separated by using the shape dictionary information input in the acquired depth image by the level set method using the shape dictionary information.

본 발명에서, 전처리 과정을 거친 깊이 영상에서 호흡에 의해 영향을 받는 영역만을 등위 집합(Level Set) 방법을 이용하여 분리하되, 등위 집합(Level Set) 방법은 영역 정보 함수와 사전 정보 함수를 결합한 방법을 사용하는, 호흡영역 분리과정을 거친다.In the present invention, in the depth image that has undergone the preprocessing process, only the region affected by respiration is separated using the level set method, but the level set method is a method of combining a region information function and a prior information function Using a breathing zone separation process.

일반적으로, 등위 집합(level set)는, 주어진 사상(寫像)이 정해진 값을 얻도록 하는 정의역에 속하는 원전체가 이루는 집합을 말한다. 예를 들면, n-변수의 실수치 함수 f에 대해, 실수치 c에 대한 등위 집합은 Lc(f)= {(x1,…,Xn)┃f(x1,…,Xn) =c} 로 주어진다. 2 변수의 경우에는, 등위 집합은 곡선을 그려, 등위 곡선(level curve), 등고선(contour line), 등치선(isoline) 등으로 불리며, 3 변수 때의 등위 집합은, 등위 곡면(level surface), 등치면(isosurface)이라고 말하며, 또 한층 더 고차원의 경우를 등위초곡면(level hypersurface)이라고 부른다. In general, a level set refers to a set formed by a whole body belonging to a domain that allows a given image to obtain a predetermined value. For example, for a real-valued function f of n-variables, the equivalence set for real-valued c is given by Lc(f)= {(x1,…,Xn)┃f(x1,…,Xn) =c} . In the case of two variables, the isoset set is called a level curve, contour line, isoline, etc. by drawing a curve, and in the case of three variables, the isoset set is a level surface, isoline, etc. It is called an isosurface, and the higher-dimensional case is called a level hypersurface.

또한, CVM(Chan & Vese model)과 영역 정보 함수에 따른 영역 기반 레벨 셋 방법을 적용하여 소정 영역의 분할에 대해서는, 이미 공지된 기술로, 보다 상세한 설명은 생략한다. 예를들어, Siqi Chen, Radke R.J에 의해, 2009년 IEEE에서 발표한 "Level set segmentation with both shape and intensity priors"에 공지되어 있다.In addition, the division of a predetermined region by applying the region-based level set method according to the Chan & Vese model (CVM) and the region information function is a well-known technique, and a detailed description thereof will be omitted. For example, it is known in "Level set segmentation with both shape and intensity priors" published by IEEE in 2009 by Siqi Chen, Radke R.J.

본 발명은, 깊이 영상에서 호흡에 의해 영향을 받는 영역만을 Level Set 방법을 이용하여 분리하는 것이다. 일반적으로, 신체에서 호흡에 관련된 주요 신체 부위는 기도, 폐, 및 폐에 연결된 혈관, 그리고 호흡에 연관된 근육이다. 이 기관중에서 호흡에 연관된 근육은 카메라에서 관측할만한 변화를 일으키게 된다. 호흡에 연관된 근육은 횡격막, 늑간근, 그리고 호흡을 보조하는 근육들이 있다. 호흡 과정 중 흡기의 시작 시점에 흉강은 횡격막과 늑간근의 수축에 의해서 커진다. 돔 모양의 횡격막이 수축될 때 그 모양이 평평하게 되고 늑간근은 갈비뼈를 들어 올려 흉곽의 부피를 팽창시킨다. 이때 횡격막이 수축되어 평평하게 되면서 복강의 장기들이 일부 밀려나게 된다. 밀려난 장기들은 등에 있는 척추와 아래쪽의 골반뼈가 버티고 있으므로 옆구리와 배 쪽으로 밀려나 복부가 부풀어 오르게 된다. 반대로 호기에는 늑간근이 이완하여 늑골이 내려가고 횡격막도 이완하여 본래대로 올라가 흉강의 부피가 줄어들고 횡격막의 수축에 의해 부풀어 올라있던 복부도 원래대로 돌아오게 된다. 호흡 과정에서 이러한 부피의 변화는 깊이 카메라에서 관측이 가능할만한 변화를 보이게 된다. 따라서 본 발명에서는 깊이 영상에서 호흡에 연관된 근육에 의해 부피가 변하게 되는 흉곽과 복부 영역을 호흡 관련 영역으로 정의한다. The present invention is to separate only a region affected by respiration in a depth image using the level set method. In general, the major body parts involved in breathing in the body are the airways, lungs, and blood vessels connected to the lungs, and muscles involved in breathing. Among these organs, the muscles involved in breathing cause changes that are observable in the camera. The muscles involved in breathing include the diaphragm, intercostal muscles, and muscles that assist in breathing. During the breathing process, at the beginning of inspiration, the chest cavity is enlarged by contraction of the diaphragm and intercostal muscles. When the dome-shaped diaphragm contracts, its shape flattens and the intercostal muscles lift the ribs and expand the volume of the rib cage. At this time, as the diaphragm contracts and flattens, some of the organs in the abdominal cavity are pushed out. As the displaced organs are supported by the spine in the back and the pelvic bones below, they are pushed toward the sides and abdomen, causing the abdomen to swell. Conversely, during exhalation, the intercostal muscles relax and the ribs descend and the diaphragm relaxes and rises to its original position, reducing the volume of the chest cavity and returning the swollen abdomen due to contraction of the diaphragm. This change in volume during respiration shows a change that can be observed in the depth camera. Therefore, in the present invention, in the depth image, the ribcage and abdominal regions whose volume is changed by the muscles related to respiration are defined as respiration-related regions.

적응적 영역 정보 함수에 대해 부연 설명하면, 도 7은 도 2의 연산처리부에서 호흡관련 영역을 이용한 적응적 영역정보함수를 설명하기 위한 설명도이고, 도 8은 도 2의 연산처리부에서 호흡관련 영역을 이용한 영역정보함수의 생성과정을 설명하기 위한 설명도이다. The adaptive region information function will be further described. FIG. 7 is an explanatory diagram for explaining the adaptive region information function using the breathing-related region in the operation processing unit of FIG. 2 , and FIG. 8 is the breathing-related region in the operation processing unit of FIG. It is an explanatory diagram for explaining the generation process of the area information function using

도 8의 (a)의 좌측 좌표는 등위 정도를 나타내며, 즉, 형상사전 정보를 이용한 레벨 셋 분할 방법을 적용한 결과로, 1로 표시된 영역이 분리된 영역이다. 여기서 부호를 가지는 거리 함수(Signed Distance Fuction, SDF)을 사용하게 되면 도 8의 (a)의 경계선을 0으로 기준으로 잡고 기준에서 멀어질수록 내부 영역은 양수, 외부 영역을 음수의 값을 가지게 된다. 이를 표현한 것이 도 8의 (b)이다. 도 8의 (b)에서 내부 영역에서 일정 문턱치 값을 넘는 값은 같은 값으로 처리해준 결과가 도 8의 (c)이다. 도 8의 (d)는 외부 영역을 Heaviside 함수를 사용해 일정하게 감소하는 값을 급격한 기울기를 가지고 감소하도록 변형한 결과로 도 8의 (d)가 최종적 영역 정보 함수로 사용된다. 도 8의 (d)에서 양의 값을 가진다는 의미는 호흡에 관련된 영역으로 간주해 레벨 셋 분할을 실시 할 때 호흡 영역으로 분리하도록 힘을 받게 한다는 의미이다. 도 8의 (d)를 보면 분리한 호흡 관련 영역은 양의 값을 가지게 되고 그 외부값은 호흡 관련 영역과 멀어질수록 큰 음의 값을 가지게 된다. The left coordinate in (a) of FIG. 8 indicates the degree of equality, that is, as a result of applying the level set division method using shape dictionary information, the area indicated by 1 is a separated area. Here, when a signed distance function (SDF) is used, the boundary line of FIG. 8 (a) is set as 0 as a reference, and as the distance from the reference is increased, the inner area has a positive value and the outer area has a negative value. . This is expressed in Figure 8 (b). In (b) of FIG. 8 , a value exceeding a predetermined threshold value in the inner region is treated as the same value as shown in FIG. 8 ( c ). (d) of FIG. 8 is a result of transforming the external region to decrease with a steep slope using the Heaviside function, and FIG. 8 (d) is used as the final region information function. A positive value in (d) of FIG. 8 means that it is regarded as a respiration-related area and that when performing level set division, force is applied to separate the respiration area. Referring to (d) of FIG. 8 , the separated respiration-related area has a positive value, and the external value has a larger negative value as the distance from the respiration-related area increases.

차 영상을 보게 되면 호흡 영역을 제외한 다른 영역에도 팔의 움직임이나 노이즈에 의해 깊이 값의 차가 발생하여 흰색으로 표시되는 것을 볼 수 있다. Chan&Vese의 방법으로 분할 시 이런 영역을 다 분할하지만 도 8의 (d)를 이용하여 영역 기반 정보 함수를 이용한 레벨 셋 분할을 할 경우 외부 영역을 제외한 내부 영역을 분할하고 Chan&Vese의 에너지 함수와 결합되어 내부 영역에서 변화가 없는 곳은 분할 영역에서 제외하게 된다. If you look at the difference image, you can see that the difference in depth value occurs in areas other than the breathing area due to arm movement or noise and is displayed in white. When dividing by Chan&Vese's method, all these regions are divided, but when level set division using the region-based information function using Fig. 8(d), the internal region is divided except the external region and combined with Chan&Vese's energy function, Areas where there is no change in the area are excluded from the partitioned area.

본 발명은 깊이 영상 배열에서 서로의 차(Difference)를 계산한 차 영상 배열과 영역 정보 함수를 이용하여 영역 기반 정보를 이용한 레벨 셋 방법을 적용하며, 결과적으로, 영역 기반 정보를 이용한 레벨 셋 방법을 통해, 깊이 영상에서 호흡에 의해 영향을 받은 영역인 호흡 영역을 분리하게 된다. 즉, 본 발명에서, 형상 사전 정보를 이용한 레벨 셋 방법은, 위에서 정의한 호흡 관련 영역인 가슴과 복부 영역을 분리한다는 의미이고, 호흡 영역은 실제 호흡을 하면서 부피의 변화가 발생한 영역으로 깊이 영상에서는 이러한 변화가 깊이 값의 변화로 나타나게 된다. 따라서 시계열에 따라 깊이 영상의 차 영상을 계산하게 되면 부피의 변화가 있는 곳은 흰색으로 표시되고 부피 변화가 없는 곳은 검은 색으로 표시된다. 하지만, 도 6의 (a)에서와 같이, 노이즈와 팔의 움직임 때문에, 다른 영역 또한 흰색으로 표시되는 것을 볼 수 있다. 여기서 호흡에 의해 영향을 받은 영역은 깊이 영상의 차 영상에서 가슴과 복부 부분에 깊이 값의 변화가 나타나는 영역을 의미한다.The present invention applies a level set method using region-based information using a difference image array in which a difference is calculated from a depth image array and a region information function, and as a result, a level set method using region-based information Through this, the respiration area, which is an area affected by respiration, is separated from the depth image. That is, in the present invention, the level set method using shape dictionary information means that the chest and abdomen regions, which are the breathing-related regions defined above, are separated, and the breathing region is a region in which a change in volume occurs during actual breathing. The change appears as a change in the depth value. Therefore, when the difference image of the depth image is calculated according to the time series, a place with a change in volume is displayed in white, and a place where there is no volume change is displayed in black. However, as shown in (a) of FIG. 6 , it can be seen that other regions are also displayed in white due to noise and arm movement. Here, the region affected by respiration means a region in which a change in depth value appears in the chest and abdomen in the difference image of the depth image.

본 발명에서는, 분할한 호흡 영역은 다음 차(Difference) 영상에서 호흡 영역을 분할할 때 사전 정보로 사용되어 영역 정보 함수를 생성할 때 가중치를 반영하여 적응적 영역 정보 함수를 생성하게 된다. 즉, 차 영상에서 호흡 영역을 분할하게 되면, 그 결과는 도 7의 (a)와 같다. 도 7의 (a)를 이용하여 다음 차 영상에서 호흡 영역을 분할 할 때의 가중치를 계산하여, 도 7의 (b)와 같이, 분할 영역에 특정 가중치를 생성한 것을 볼 수 있다. 도 7의 (c)는 형상 사전정보를 이용한 레벨셋 방법으로 검출한 호흡관련 영역이고, 이 호흡관련 영역에, 부호를 가지는 거리 함수(SDF)와 단위 계단 함수(Heaviside) 함수를 적용하면 도 7의 (d)와 같이 되며, 형상 사전정보에 영역정보함수를 적용한 결과인 도 7의 (d)와 상기 가중치를 반영하여, 적응적 영역정보 함수를 검출한다.In the present invention, the divided respiration area is used as prior information when segmenting the respiration area in the next difference image, and the weight is reflected when generating the area information function to generate an adaptive area information function. That is, if the breathing region is divided in the difference image, the result is as shown in (a) of FIG. 7 . As shown in FIG. 7(b), it can be seen that a specific weight is generated in the divided region by calculating the weight when dividing the breathing region in the next difference image by using (a) of FIG. 7 . 7 (c) is a breathing-related area detected by the level set method using shape prior information, and when a signed distance function (SDF) and a unit step function (Heaviside) function are applied to this breathing-related area, FIG. (d), the adaptive area information function is detected by reflecting the weight and the result of applying the area information function to the shape prior information in FIG. 7(d).

깊이 영상에서 호흡에 의한 부피 변화는 갑자기 생기는 것이 아니라 특정 영역(가슴, 복부)에서 변화가 점진적으로 나타났다 사라졌다가를 반복하게 된다. 이러한 특징을 반영하기 위해서 이전에 호흡 영역으로 분할한 결과를 가중치로 사용하여 적응적 영역 정보 함수를 생성한다. 가중치를 반영 안한다면 도 7의 (c)에서 (d)를 계산하고 이를 이용해 영역 정보 함수를 생성하겠지만 이전에 분할한 정보를 가중치로 반영하여 이전 분할 결과 호흡 영역으로 분리를 하였다면 다음 영상에서도 해당 영역이 호흡 영역일 가능성이 높다는 것을 반영한다. In the depth image, the volume change due to respiration does not occur suddenly, but the change gradually appears and disappears in a specific area (chest, abdomen) and repeats. In order to reflect these characteristics, an adaptive region information function is generated using the result of previously divided into respiration regions as weights. If the weights are not reflected, (d) in FIG. 7(c) is calculated and a region information function is generated using it. This reflects most likely the breathing zone.

본 발명에서는 연속적인 깊이 영상을 획득하고, 시계열에 따라 각각의 깊이 영상의 차 영상을 계산하게 된다. 이렇게 연속적인 깊이 영상마다 계산된 차 영상은 차 영상 배열을 생성하게 된다. 각 차 영상마다 영역 기반 정보를 이용한 레벨 셋 방법을 이용하여 호흡 영역을 분할한다. 다시말해, 모든 차 영상 배열에 대하여 일련의 과정을 반복하여 호흡 영역을 분리한다. 즉, 차 영상에 대한 호흡영역을 분리한다.In the present invention, successive depth images are acquired, and a difference image of each depth image is calculated according to a time series. The difference image calculated for each successive depth image in this way generates a difference image array. For each difference image, a breathing region is divided using a level set method using region-based information. In other words, the respiration region is separated by repeating the series of steps for all secondary image sequences. That is, the breathing area for the difference image is separated.

전처리과정에 의해 전처리된 깊이 영상에서 호흡에 의해 영향을 받는 영역만을 등위 집합(Level Set) 방법을 이용하여 분리하는 데. 이는 형상 사전정보를 이용한 레벨 셋 과정과, 적응적 영역 정보 함수 생성과정과, 영역기반 정보를 이용한 레벨 셋 과정을 순차적으로 진행한다.In the depth image preprocessed by the preprocessing process, only the area affected by respiration is separated using the level set method. In this case, a level set process using shape prior information, an adaptive region information function generation process, and a level set process using region-based information are sequentially performed.

다음은, ResU-net(Residual U-net, 잔류(잔여) U-net)을 이용한 호흡영역 분리과정을 설명한다.Next, the respiratory area separation process using ResU-net (Residual U-net, residual U-net) will be described.

이 호흡영역 분리과정은 깊이 카메라에서 획득한 깊이 영상에서 호흡과 관련된 영역만 Segmentation 하기 위해서 Deep Learning 기법을 이용한다. 즉, 이 호흡영역 분리과정은 분할 작업(Segmentation Task)에서 많이 사용되는 U-net과 콘볼루션 레이어(Convolution Layer)를 깊게 쌓는 방식인 Resnet (Residual net)을 혼합한 ResU-net 기법을 이용한다.This breathing area separation process uses a deep learning technique to segment only the respiration-related area in the depth image acquired from the depth camera. That is, this respiration region separation process uses the ResU-net technique, which is a mixture of U-net, which is often used in segmentation tasks, and Resnet (residual net), which is a method of deeply stacking convolution layers.

U-Net은 딥러닝(Deep learning) 기술 중의 하나이며, 의학적 이미지 분할을 위해 개발된 컨볼루션 신경망으로, U자형태의 망구조를 가진다. ResU-net(Residual U-net)은 U-Net에 Residual Network의 기능을 추가한 것으로, 의료영상 세분화에 대한 정밀도 및 정확도를 높인 것이다. ResU-net(Residual U-net)에 대해서는 널리 공지된 기술로 상세한 설명은 생략한다. 예를들어, ResU-net(Residual U-net)에 대해서, Ivana Shopovska 등이 2019년에 IEEE에 게제한 "RGB-NIR Demosaicing Using Deep Residual U-Net"에 공지되어 있으며, 또한, 2019년 1월의 의학영상 학술지(J. of Medical Imaging)에 Alom MZ 등에 의해 게제된 "Recurrent residual U-Net for medical image segmentation"에 공지되어 있으며, 또한, 2019년 1월의 의학영상 학술지(J. of Medical Imaging)에 Alom MZ 등에 의해 게제된 "Recurrent Residual Convolutional Neural Network based on U-Net (R2U-Net) for Medical Image Segmentation"에 공지되어 있다.U-Net is one of deep learning technologies. It is a convolutional neural network developed for medical image segmentation, and has a U-shaped network structure. ResU-net (Residual U-net) is the addition of the Residual Network function to U-Net, which increases the precision and accuracy of medical image segmentation. ResU-net (Residual U-net) is a well-known technology and a detailed description thereof will be omitted. For example, about ResU-net (Residual U-net), it is known in "RGB-NIR Demosaicing Using Deep Residual U-Net" published to IEEE by Ivana Shopovska et al. in 2019, and also in January 2019 It is known in "Recurrent residual U-Net for medical image segmentation" published by Alom MZ et al. in J. of Medical Imaging, and also in the Journal of Medical Imaging in January 2019 (J. of Medical Imaging). ) in "Recurrent Residual Convolutional Neural Network based on U-Net (R2U-Net) for Medical Image Segmentation" published by Alom MZ et al.

영상 분석부(200)의 연산처리부(210)는, ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할과정, 세그멘테이션 맵과 차영상 배열과의 승산과정, ResU-Net을 이용한 시간 영역에서의 호흡 영역 분할과정을 수회 반복하는 과정을 포함한다.The operation processing unit 210 of the image analysis unit 200 uses ResU-Net to segment a breathing region in a spatial domain, a multiplication process between a segmentation map and a difference image array, and a breathing region in a time domain using ResU-Net It includes the process of repeating the division process several times.

ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할과정 (Spatial Segmentation using ResU-Net)에서, ResU-Net의 입력으로서, 메모리부(220)로부터 수신된, 전처리된 깊이 영상 (배열)이 입력되며, ResU-Net의 출력으로서, 공간 영역에서의 호흡 영역(호흡 영역의 경계선)의 세그멘테이션 맵(Segmentation Map), 즉, 사람의 몸통 영상만을 분리한 세그멘테이션 맵을 출력한다. 즉, 깊이 영상에서 사람의 몸통만을 분리함으로써 공간 영역(Spatial Domain)에서 호흡과 관련된 영역만을 추출한다.In the respiration domain segmentation process in the spatial domain using ResU-Net (Spatial Segmentation using ResU-Net), as an input of ResU-Net, the preprocessed depth image (array) received from the memory unit 220 is input, As the output of ResU-Net, a segmentation map of the respiration area (the boundary of the respiration area) in the spatial domain, that is, a segmentation map obtained by separating only the human body image is output. That is, by separating only the body of a person from the depth image, only the breathing area is extracted from the spatial domain.

ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할과정에 적용된 인공신경망(제1 ResU-Net)은, 사전에, 전처리된 깊이 영상 (배열)들과, 상기 깊이 영상에서 사람의 몸통 영역만을 분리한 영상을 레이블로 사용하여, 기계학습된 인공신경망으로, 학습된 것일 수 있으며, 도 14에서와 같이, 이미지를 점점 줄여나가는 부분인 수축 경로(contracting path)와, 이미지를 키워나가는 부분인 확장 경로(expanding path)를 가진다.The artificial neural network (first ResU-Net) applied to the respiration region segmentation process in the spatial domain using ResU-Net separates only the human body region from the preprocessed depth images (arrays) and the depth image. Using an image as a label, it may be a machine-learned artificial neural network, which may have been learned, and as shown in FIG. 14 , the contracting path, which is a part that gradually reduces the image, and the extension path, which is a part that grows the image ( expanding path).

몸통 영상만을 분리한 세그멘테이션 맵과 차영상과의 승산과정은, ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할과정의 출력, 즉, 사람의 몸통 영상만을 분리한 세그멘테이션 맵과, 메모리부(220)로부터 수신된 차영상을 픽셀단위로 곱한다.The multiplication process between the segmentation map in which only the body image is separated and the difference image is the output of the breathing region segmentation process in the spatial domain using ResU-Net, that is, the segmentation map in which only the human body image is separated, and the memory unit 220 . Multiply the difference image received from the pixel unit.

ResU-Net을 이용한 시간 영역에서의 호흡 영역 분할과정 (Time Segmentation using ResU-Net)에서, ResU-Net의 입력으로서, 몸통 영상만을 분리한 세그멘테이션 맵과 차영상과의 승산과정의 출력 (즉 사람의 몸통 영상만을 분리한 세그멘테이션 맵과 차영상의 곱)을 입력하고, ResU-Net의 출력으로서, 이 입력에 대한 시간 영역에서의 호흡 영역(호흡 영역의 경계선)의 세그멘테이션 맵(Segmentation Map), 즉, 차 영상에서 호흡과 관련된 영역만을 분리한 세그멘테이션 맵을 출력한다.In ResU-Net's time segmentation using ResU-Net, as an input of ResU-Net, the output of the multiplication process between the segmentation map separated only the body image and the difference image (that is, the Segmentation Map of the respiration area (the boundary of the respiration area) in the time domain for this input as an output of ResU-Net, that is, as an output of ResU-Net A segmentation map is output in which only a region related to respiration is separated from the difference image.

여기서, 연산처리부(210)는 메모리부(220)로부터 수신된 차 영상(Difference Image)과, 몸통 영역만을 분리한 영상을, 픽셀단위로 곱하여 다시 ResU-Net의 입력으로 사용하는데, 이는 차 영상에서 몸통 영역에 해당하는 영역이 ResU-Net의 입력으로 들어가는 것이다. 그리고 ResU-Net에서 출력되는 영상은 차 영상에서 호흡과 관련된 영역만을 분리한 영상이다.Here, the arithmetic processing unit 210 multiplies the difference image received from the memory unit 220 and the image obtained by separating only the body region in pixel units and uses it as an input of ResU-Net again, which is in the difference image. The area corresponding to the body area enters the input of ResU-Net. And the image output from ResU-Net is an image in which only the respiration-related area is separated from the secondary image.

ResU-Net을 이용한 시간 영역에서의 호흡 영역 분할과정의 ResU-Net(제2 ResU-Net)은, 사전에, 차 영상에서 몸통 영역에 해당하는 영상 (즉, 차 영상과, 몸통 영역만을 분리한 영상을, 픽셀단위로 곱한 영상)과, 차 영상에서 호흡과 관련된 영역만을 분리한 영상을 레이블로 사용하여, 기계학습된 것일 수 있으며, 도 15에서와 같이, 이미지를 점점 줄여나가는 부분인 수축 경로(contracting path)와, 이미지를 키워나가는 부분인 확장 경로(expanding path)를 가진다.ResU-Net (Second ResU-Net) of the respiration region segmentation process in the time domain using ResU-Net is, in advance, the image corresponding to the body region from the difference image (that is, the difference image and the body region only). It may be machine learning by using as a label an image obtained by multiplying an image by pixel) and an image in which only a region related to respiration is separated from the secondary image, and as shown in FIG. 15, the contraction path, which is a part that gradually reduces the image It has a contracting path and an expanding path, which is a part that grows an image.

기계학습시 사용되는 레이블은 상술한 Level Set 방법을 이용하여 레이블 영상을 생성한다.The label used in machine learning generates a label image using the above-described level set method.

이렇게, ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할과정, 몸통 영상만을 분리한 세그멘테이션 맵과 차영상과의 승산과정, ResU-Net을 이용한 시간 영역에서의 호흡 영역 분할과정을 수회 반복하는 과정을 통해, 최종적으로 차 영상에서 호흡과 관련된 영역을 분리한 세그멘테이션 맵을 생성하게 되고, 이를 이용하여 호흡량 계산하게 된다.In this way, the process of repeating the respiratory region segmentation process in the spatial domain using ResU-Net, the multiplication process between the segmentation map that separated only the body image and the difference image, and the respiratory region segmentation process in the temporal domain using ResU-Net several times is repeated. Through this, a segmentation map is finally generated in which a region related to respiration is separated from the difference image, and the respiration amount is calculated using this.

결과적으로, 등위 집합(Level Set) 방법을 이용한 호흡영역 분리과정에서, 또는 ResU-net(Residual U-net, 잔류 U-net)을 이용한 호흡영역 분리과정에서, 차 영상에 대한 호흡영역을 분리한다. As a result, in the respiratory region separation process using the Level Set method, or in the respiratory region separation process using ResU-net (Residual U-net, residual U-net), the breathing region for the difference image is separated. .

등위 집합(Level Set) 방법을 이용한 호흡영역 분리과정에서, 또는 ResU-net(Residual U-net, 잔류 U-net)을 이용한 호흡영역 분리과정에서, 분리한 호흡 영역을 호흡량 계산식에 적용해 호흡량 파형(Volume Waveform)을 검출하고, 호흡량 파형에서 피크(Peak)와 밸리(Valley)를 찾아 호흡량 및 호흡수를 계산한다. 예를들어 각 영상(각 프레임)에서 호흡영역의 깊이 값을 합산하여 이를 프레임별 합산된 깊이 값을 프레임별 호흡관련 신호로써 구하고, 현재의 프레임 호흡관련 신호에서 연이은 전 프리엠 호흡관련 신호를 차감하여 프레임별 호흡 변화량으로써 구하고, 구하여진 프레임별 호흡 변화량에 기설정된 픽셀의 단위 부피값을 곱하여, 실제의 크기로 환산된 프레임별 호흡 변화량을 구하고, 환산된 프레임별 호흡 변환량을 메모리부(220)에 순차적으로 저장하고, 저장된 프레임별 호흡 변환량을 시간순서에 따라 읽어들여 그래프로 표시하여 호흡 파형을 나타낼 수 있다.In the respiratory zone separation process using the level set method, or in the respiratory zone separation process using ResU-net (Residual U-net, residual U-net), apply the separated breathing zone to the respiratory volume calculation formula to generate a respiratory volume waveform (Volume Waveform) is detected, and the respiration rate and respiration rate are calculated by finding the peak and valley in the respiration rate waveform. For example, by summing the depth values of the breathing area in each image (each frame), the summed depth value for each frame is obtained as a respiration-related signal for each frame, and the preceding pre-M respiration-related signal is subtracted from the current frame respiration-related signal. to obtain as the amount of change in respiration per frame, multiply the obtained amount of change in respiration per frame by the unit volume value of a preset pixel to obtain the amount of change in respiration per frame converted to the actual size, and the converted amount of respiration per frame by the memory unit 220 ) can be sequentially stored, and the stored respiration conversion amount for each frame can be read in chronological order and displayed as a graph to indicate a respiration waveform.

여기서, 프레임별 호흡 변화량은 픽셀들을 이용하여 구한 것이므로, 프레임별 호흡 변화량을 실제의 크기로 환산할 필요가 있다. 프레임별 호흡 변화량을 실제의 크기로 환산하기 위해서, 프레임별 호흡 변화량에, 픽셀의 단위 부피(즉, 픽셀의 실제의 부피)를 곱하여 구한다. 픽셀의 단위 부피(즉, 픽셀의 실제의 부피)는, 픽셀의 실제의 가로 길이 및 실제의 세로길이 (즉, 픽셀이 나타내는 실제의 가로 길이 및 실제의 세로길이)를 곱한 값이다.Here, since the respiration variation for each frame is obtained using pixels, it is necessary to convert the respiration variation for each frame into an actual size. In order to convert the respiration variation for each frame into an actual size, the respiration variation for each frame is obtained by multiplying the unit volume of the pixel (ie, the actual volume of the pixel). The unit volume of a pixel (ie, the actual volume of the pixel) is a value obtained by multiplying the actual horizontal length and the actual vertical length of the pixel (ie, the actual horizontal length and the actual vertical length represented by the pixel).

프레임별 호흡 변화량에 곱하여, 실제의 크기로 환산한 프레임별 호흡 변화량을 구한다.Multiply the amount of change in respiration per frame to obtain the amount of change in respiration per frame converted to the actual size.

연산처리부(210)는 호흡신호를 1차 미분하여 변곡점을 구하고, 이로부터 피크(peak)와 밸리(valley)를 검출하고, 검출된 피크(peak)와 밸리(valley)들에서, 소정 시간간격 동안(1초당, 또는 1분당 또는 30초당)에, 연이은 피크와 밸리의 쌍의 개수, 즉, 피크에서 밸리로 바뀌는 회수를, 호흡수(respiration rate, RR)로서 검출한다.The operation processing unit 210 obtains an inflection point by first differentiating the respiratory signal, and detects a peak and a valley therefrom, and from the detected peaks and valleys, for a predetermined time interval. At (per second, or per minute, or per 30 seconds), the number of consecutive peak-valley pairs, ie, the number of peak-to-valley changes, is detected as a respiration rate (RR).

호흡량은 2가지 방법으로 구할 수 있다.Respiratory volume can be calculated in two ways.

첫번째 방법은, 호흡신호에서, 연이은 피크와 밸리의 쌍의 진폭, 즉, 피크에서 밸리로 바뀌는 신호의 진폭 크기를, 그 주기의 호흡량으로 검출한다.The first method detects the amplitude of a pair of consecutive peaks and valleys in the respiration signal, that is, the amplitude of the signal changing from peak to valley, as the respiration volume of the cycle.

두번째 방법에서는, 호흡파형에서 한 피크에서 연이은 다음 피크까지를 한 호흡 주기로 하며, 각 호흡주기의 호흡신호를, 연이은 전 호흡주기의 호흡신호에서 차감하여 각 호흡주기별 변화량을 구하고, 각 호흡주기별 변화량을 합산하여 호흡량을 구한다. 경우에 따라서 호흡주기는 하나의 피크와 밸리의 쌍에서, 연이은 전의 피크와 밸리의 쌍까지의 시간 간격일수 있다.In the second method, one respiration cycle is taken from one peak to the next consecutive peak in the respiration waveform, and the respiration signal of each respiration cycle is subtracted from the respiration signal of all consecutive respiration cycles to obtain the change amount for each respiration cycle, and for each respiration cycle Respiratory volume is calculated by adding up the changes. In some cases, the respiratory cycle may be a time interval from one peak-valley pair to a successive previous peak-valley pair.

즉, 호흡주기별 변화량은, 현재의 호흡주기의 호흡신호(각 샘플)를, 연이은 전 호흡주기에서 대응되는 각 호흡신호(각 샘플)에서 차감하여 호흡 변화량을 구한다. 예를들어 현 호흡주기의 첫번째 호흡신호(샘플)에서, 연이은 전 호흡주기의 첫번째 호흡신호(샘플)을 차감하여 현 호흡주기의 첫번째 호흡 변화량을 구하며, 이렇게 각 호흡주기의 시작 샘플로부터 마지막 샘플까지 적용하여 각 주기의 호흡 변화량을 구한다. 이렇게 구하여진 각 주기의 호흡 변화량을 시간대별로 합산하여 호흡량을 구한다. 여기서, 각 주기의 호흡 변화량을 시간대별로 합산한다는 것은, 각 주기의 첫번째 호흡 변화량 신호를 합산하여 첫번째 호흡량 신호로 하고, 각 주기의 두번째 호흡 변화량 신호를 합산하여 두번째 호흡량 신호로 하며, 이렇게 하여 각 주기의 호흡 변화량 신호를 합산하여 호흡량을 구한다. That is, the amount of change for each respiration cycle is obtained by subtracting the respiration signal (each sample) of the current respiration cycle from each respiration signal (each sample) corresponding to the previous respiration cycle in succession. For example, the first respiration signal (sample) of the current respiration cycle is subtracted from the first respiration signal (sample) of the current respiration cycle to obtain the first respiration change of the current respiration cycle, and thus, from the start sample of each respiration cycle to the last sample By applying it, the amount of change in respiration in each cycle is calculated. Respiratory volume is obtained by adding up the amount of change in respiration of each cycle obtained in this way for each time period. Here, summing the respiration variation of each cycle by time period means that the first respiration variation signal of each cycle is summed as the first respiration volume signal, and the second respiration variation signal of each cycle is summed as the second respiration volume signal, and in this way, each cycle Respiratory volume is calculated by summing the respiratory change signals of

메모리부(220))는 연산처리부(210)로부터 수신된 호흡량 및 호흡수를 저장한다.The memory unit 220 stores the respiration amount and respiration rate received from the calculation processing unit 210 .

출력부(230)는 연산처리부(210)로부터 수신된 호흡량 및 호흡수를 출력한다.The output unit 230 outputs the respiration amount and respiration rate received from the calculation processing unit 210 .

키입력부(250)는 시작/정지 스위치 등을 포함하고 있다.The key input unit 250 includes a start/stop switch and the like.

도 9는 도 2의 영상분석부(200)에서 깊이 카메라로부터 수신된 깊이 영상을 이용하고 등위 집합(Level Set) 방법을 적용하여 호흡량을 검출하는 방법을 개략적으로 설명하는 흐름도이고, 도 10은 도 9의 호흡영역 분리단계를 설명하는 흐름도이다.9 is a flowchart schematically illustrating a method of detecting a respiration volume by using a depth image received from a depth camera in the image analysis unit 200 of FIG. 2 and applying a level set method, and FIG. It is a flowchart explaining the step of separating the respiratory zone in 9.

초기화 단계(S10)로, 카운터 등을 초기화 한다. In the initialization step (S10), the counter and the like are initialized.

깊이영상 수신단계(S20)로, 영상분석부(200)의 연산처리부(210)는 깊이 카메라(100)로 부터 피검자의 상체의 깊이 영상을 수신하여 메모리부(220)에 임시저장한다. 깊이영상 수신단계(S10)에서는 각 프레임당 깊이영상을 수신하되, 한번에 한프레임씩의 깊이영상을 수신하거나, 아니면 기설정된 시간동안의 프레임들의 깊이영상을 수신할 수 있다. In the depth image receiving step (S20), the operation processing unit 210 of the image analysis unit 200 receives the depth image of the subject's upper body from the depth camera 100 and temporarily stores it in the memory unit 220 . In the depth image receiving step S10, a depth image is received for each frame, but a depth image may be received one frame at a time, or a depth image of frames for a preset time may be received.

시공간 중간값 필터링 단계(S110)로, 연속적인 깊이 영상들에서 각 픽셀의 시간에 따른 깊이 값들을 중간값 필터를 이용하여 중간값 필터링을 행하고, 또한, 연속적인 깊이 영상들에서 각 픽셀의 공간에 따른 깊이 값들을 중간값 필터를 이용하여 중간값 필터링을 행하여, 시간 및 공간 영역에서 중간값 필터링을 행한다.In the spatiotemporal median filtering step ( S110 ), median value filtering is performed on the time-dependent depth values of each pixel in successive depth images using a median filter, and also in the space of each pixel in successive depth images. The median value filtering is performed on the depth values according to the median value filter using the median value filter, and median value filtering is performed in the temporal and spatial domains.

시공간 클리핑단계(S120)로, 시공간 중간값 필터링 단계에서 시간 및 공간 영역에서 중간값 필터링된 연속적인 깊이 영상들에서, 각 픽셀의 시간에 따른 깊이 값들을 시간영역 클리핑 문턱치를 기준으로 클리핑을 행하고, 또한, 상기 연속적인 깊이 영상들의 각 픽셀의 공간에 따른 깊이 값들에서 공간영역 클리핑 문턱치를 기준으로 클리핑을 행하여, 결과적으로 시공간에서 클리핑을 행한다.In the spatio-temporal clipping step (S120), in the successive depth images that have been median-filtered in the temporal and spatial domains in the spatiotemporal median filtering step, the depth values according to time of each pixel are clipped based on the time domain clipping threshold, In addition, clipping is performed based on the spatial domain clipping threshold in the depth values according to the space of each pixel of the successive depth images, and as a result, the clipping is performed in space and time.

즉, 시공간 클리핑단계(S120)는, 시공간 중간값 필터링 단계에서 시간 및 공간 영역에서 중간값 필터링된 연속적인 깊이 영상들에서, 시간영역 및 공간영역에서 깊이 값이 시간영역 클리핑 문턱치 및 공간영역 클리핑 문턱치 이상인 경우, 그 깊이 값을 0으로 한다.That is, in the spatio-temporal clipping step S120, in successive depth images that have been median-filtered in the temporal and spatial domains in the spatiotemporal median filtering step, the depth values in the temporal domain and the spatial domain are the temporal domain clipping threshold and the spatial domain clipping threshold. In the case of more than one, the depth value is set to 0.

여기서, 시공간 중간값 필터링 단계(S110) 및 시공간 클리핑단계(S120) 대신에, 시간영역의 중간값 필터링 및 클리핑 단계와, 공간영역의 중간값 필터링 및 클리핑 단계를 가질 수 있다.Here, instead of the spatiotemporal median filtering step S110 and the spatiotemporal clipping step S120 , the temporal domain median value filtering and clipping step and the spatial domain median value filtering and clipping step may be performed.

시간영역의 중간값 필터링 및 클리핑 단계는, 연속적인 깊이 영상들에서 각 픽셀의 시간에 따른 깊이 값들을 중간값 필터를 이용하여 중간값 필터링을 행하고, 또한, 연속적인 깊이 영상들에서 각 픽셀의 시간에 따른 깊이 값들이 시간영역 클리핑 문턱치를 기준으로 클리핑을 행한다. 여기서, 시간영역의 중간값 필터링은, 연속적인 영상들에서 특정 영역의 화소값을 읽어들여 시간에 따라 나열하고, 이 나열된 화소값들에서 중간값 필터링을 행한다. 그리고 시간영역의 클리핑은 연속적인 영상들에서 특정 영역의 화소값을 읽어들여 시간에 따라 나열하고, 이 나열된 화소값에서 시간영역 클리핑 문턱치에 따라 클리핑을 행한다.In the temporal domain median filtering and clipping step, the median value filtering is performed on the time-dependent depth values of each pixel in successive depth images by using the median filter, and, in the successive depth images, the median value filtering is performed. Depth values according to ? are clipped based on the time domain clipping threshold. Here, in the temporal domain median filtering, pixel values of a specific region are read from successive images, arranged according to time, and median value filtering is performed on the listed pixel values. In the time domain clipping, pixel values of a specific area are read from successive images, arranged according to time, and clipping is performed from the listed pixel values according to a time domain clipping threshold.

공간영역의 중간값 필터링 및 클리핑 단계는, 연속적인 깊이 영상들에서 각 픽셀의 공간에 따른 깊이 값들을 중간값 필터를 이용하여 중간값 필터링을 행하고, 또한, 연속적인 깊이 영상들에서 각 픽셀의 공간에 따른 깊이 값들이 공간영역 클리핑 문턱치를 기준으로 클리핑을 행한다. 여기서, 공간영역의 중간값 필터링은, 연속적인 영상들에서 각 프레임의 특정 영역의 화소값을 읽어들여 각 프레임별 영상의 공간에 따라 나열하고, 각 프레임에서 나열된 화소값들에서 (즉, 각 프레임내에서) 중간값 필터링을 행한다. 그리고 공간영역의 클리핑은 연속적인 영상들에서 각 프레임의 특정 영역의 화소값을 읽어들여 각 프레임별 영상의 공간에 따라 나열하고, 각 프레임에서 나열된 화소값에서 (즉, 각 프레임내에서) 공간영역 클리핑 문턱치에 따라 클리핑을 행한다.In the step of filtering and clipping the median value in the spatial domain, the median value filtering is performed on the depth values according to the space of each pixel in the continuous depth images using the median value filter, and the space of each pixel in the continuous depth images is performed by using the median value filter. The depth values according to ? are clipped based on the spatial domain clipping threshold. Here, in the spatial domain median filtering, pixel values of a specific region of each frame are read from successive images, arranged according to the space of the image for each frame, and from the pixel values listed in each frame (that is, each frame within) median filtering. And clipping of the spatial domain reads the pixel values of a specific region of each frame from successive images and arranges them according to the space of the image for each frame, and the spatial domain from the pixel values listed in each frame (that is, within each frame) Clipping is performed according to the clipping threshold.

본 발명에서, 시공간 중간값 필터링 단계와 시공간 클리핑단계 (또는 시간영역의 중간값 필터링 및 클리핑 단계 및 공간영역의 중간값 필터링 및 클리핑 단계)를 전처리 단계(S100)라 할 수 있다.In the present invention, the spatiotemporal median filtering step and the spatiotemporal clipping step (or the temporal domain median filtering and clipping and the spatial median filtering and clipping step) may be referred to as a preprocessing step S100 .

차영상 배열 단계(S150)로, 시공간 중간값 필터링 단계에서 출력된 영상(프레임)들에서, 시간적으로 연이은 영상들에서 소정 화소의 깊이 값의 차, 즉, 현재의 영상에서 화소의 깊이 값에서, 연이은 전의 영상의 해당 화소의 깊이 값을, 차감하여 프레임별 차영상을 구하고, 구하여진 프레임별 차영상을 메모리부(220)에 순차적으로 배열하여 저장한다. In the difference image arrangement step (S150), in the images (frames) output from the spatiotemporal median value filtering step, the difference in the depth value of a predetermined pixel in temporally consecutive images, that is, in the depth value of the pixel in the current image, A difference image for each frame is obtained by subtracting a depth value of a corresponding pixel of a successive previous image, and the obtained difference image for each frame is sequentially arranged and stored in the memory unit 220 .

형상 사전정보를 이용한 레벨 셋 단계(S210)로, 기 저장된 형상 사전 정보(즉, 일정한 형태의 몸통 형태의 형상)를 이용하여 깊이 영상에서 흉곽 및 복부 영역을 분리하는 레벨 셋을 진행한다. 이렇게 함으로써 호흡관련 영역, 즉, 흉곽 및 복부 영역만을 분리한다.In the level setting step ( S210 ) using the shape prior information, a level set for separating the rib cage and the abdomen region from the depth image is performed using pre-stored shape dictionary information (ie, a shape of a body of a certain shape). This isolates only the respiratory-related areas, i.e., the thoracic and abdominal areas.

영역정보함수 획득단계(S220)로, 연이은 전 호흡관련 영역의 영상을 읽어들이고 이를 이용하여 가중치를 계산하고, 영역정보함수를 적용한 형상 사전정보에 상기 가중치를 반영하여, 적응적 영역정보 함수를 검출한다. 여기서 영역정보 함수의 적용은, 형상 사전 정보를 이용하여 분리한 영역에 대해, 부호를 가지는 거리 함수(Signed Distance Fuction, SDF)를 적용하면, 경계선을 0으로서 기준으로 하고, 상기 기준에서 멀어질수록 내부 영역은 양수, 외부 영역은 음수의 값을 가지게 하며, 이렇게 SDF 함수가 적용된 영역에서, 일정한 문턱치를 넘는 값(또는, 소정 크기단위 내의 값)을 같은 값으로 처리한다. 외부 영역을 단위 계단 함수(Heaviside) 함수를 사용하여, 일정하게 감소하는 값을, 급격한 기울기를 가지고 감소하도록 변형한다.In the region information function acquisition step (S220), the image of the previous respiration-related region is read in succession, the weight is calculated using this, and the weight is reflected in the shape prior information to which the region information function is applied, and the adaptive region information function is detected do. Here, the application of the area information function is that when a signed distance function (SDF) is applied to the area separated using shape dictionary information, the boundary line is set as 0, and the further away from the reference is, the more The inner region has a positive value and the outer region has a negative value. In the region to which the SDF function is applied, a value exceeding a certain threshold (or a value within a predetermined size unit) is treated as the same value. Using the unit step function (Heaviside) function, the outer region is transformed so that a value that is constantly decreasing is decreased with a steep slope.

영역 정보 함수를 이용한 레벨 셋 단계(S230)로, 차영상 획득단계에서 획득된 차영상에 영역정보 함수 및 CVM(Chan-Vese model, 찬 베세 모델) 기법을 이용하여 호흡영역을 분리하는 레벨 셋(영역 기반 레벨 셋)을 진행한다. As a level set step (S230) using a region information function, a level set (S230) for separating the respiratory region using a region information function and a CVM (Chan-Vese model) technique on the difference image obtained in the difference image acquisition step ( area-based level set).

호흡영역 분리과정 종료여부 판단단계(S250)로, 기 설정된 차 영상 배열 수 만큼 호흡영역 분리과정이 반복되었는지 확인하고, 만약 아니면, 카운터를 1증가하고 형상 사전정보를 이용한 레벨 셋 단계(S210)로 되돌아가고, 만약 기 설정된 차 영상 배열 수 만큼 호흡영역 분리과정이 반복되었다면, 호흡파형 검출단계(S310)로 간다.In the determination step (S250) of whether or not the breathing zone separation process is finished, it is checked whether the breathing zone separation process is repeated as many as the preset number of difference image sequences, and if not, the counter is incremented by 1 and the level setting step using the shape advance information (S210) Return, if the breathing area separation process is repeated as many as the preset number of difference image arrangement, it goes to the breathing waveform detection step (S310).

형상 사전정보를 이용한 레벨 셋 단계(S210), 영역정보함수 획득단계(S220), 영역 정보 함수를 이용한 레벨 셋 단계(S230) 및 호흡영역 분리과정 종료여부 판단단계(S250)는 호흡영역 분리단계(S200)라 할 수 있다.The level setting step (S210) using the shape prior information, the area information function acquisition step (S220), the level set step using the area information function (S230), and the respiratory area separation process end determination step (S250) are the breathing area separation steps ( S200).

호흡파형 검출단계(S310)로, 각 영상(각 프레임)에서 호흡영역의 깊이 값을 합산하여 프레임별 호흡관련 신호로써 구하고, 현재의 프레임 호흡관련 신호에서 연이은 전 프리엠 호흡관련 신호를 차감하여 프레임별 호흡 변화량으로써 구하고, 구하여진 프레임별 호흡 변화량에 기설정된 픽셀의 단위 부피값을 곱하여, 실제의 크기로 환산된 프레임별 호흡 변화량을 구하고, 환산된 프레임별 호흡 변환량을 메모리부(220)에 순차적으로 저장하고, 프레임별 호흡 변환량을 시간순서에 따라 읽어들여 그래프로 표시하여 호흡 파형을 나타낸다.In the respiration waveform detection step (S310), the depth value of the respiration region in each image (each frame) is summed to obtain a respiration-related signal for each frame, and the preceding pre-em respiration-related signal is subtracted from the current frame respiration-related signal. Respiratory change for each frame is obtained as a per-frame change amount, and the obtained frame-by-frame respiration change amount is multiplied by the unit volume value of a preset pixel to obtain a respiration change amount for each frame converted to the actual size, and the converted frame-by-frame respiration conversion amount is stored in the memory unit 220 They are stored sequentially, and the respiration conversion amount for each frame is read in chronological order and displayed as a graph to indicate the respiratory waveform.

호흡량 계산단계(S320)로, 호흡 파형에서 피크(Peak)와 밸리(Valley)를 찾아 호흡량 및 호흡수를 계산한다.In the respiration volume calculation step (S320), the respiration rate and respiration rate are calculated by finding a peak and a valley in the respiration waveform.

도 11은 기존 방법의 호흡영역분리의 예와, 본 발명의 호흡영역 분리의 예를 나타내고, 도 12는 정상적(momal) 환경에서 기존 방법의 호흡영역분리 방식, 본 발명의 호흡영역분리 방식 및 호흡기(ventilator)를 각각 적용한 경우의 호흡량 파형의 비교예이고, 도 13는 팔 움직임이 있는 환경에서 기존 방법의 호흡영역분리 방식, 본 발명의 호흡영역분리 방식 및 호흡기(ventilator)를 각각 적용한 경우의 호흡량 파형의 비교예이다.11 shows an example of the breathing zone separation of the existing method and an example of the breathing zone separation of the present invention, and FIG. 12 is a breathing zone separation method of the existing method in a normal environment, the breathing zone separation method of the present invention, and the respirator (ventilator) is a comparative example of the respiratory volume waveform when each is applied, Figure 13 is the breathing volume in the case of applying the breathing zone separation method of the existing method, the breathing zone separation method of the present invention and the ventilator in an environment with arm movement, respectively It is a comparative example of a waveform.

도 11의 (a)는, 기존 영역분리 방법을 적용하여 호흡영역을 분리하는 경우로, 깊이 영상에서 고정된 사각 박스에 사람의 상체를 위치시켜 호흡 영역을 분리한다. 기존 방법은 분리 영역이 고정되어 있어 상체의 움직임이나 팔의 움직임이 있을 시에 호흡량의 오차가 커진다는 한계점이 존재한다.11 (a) is a case in which the breathing region is separated by applying the existing region separation method, and the breathing region is separated by positioning the upper body of a person in a fixed square box in the depth image. The existing method has a limitation in that the respiration rate error increases when there is movement of the upper body or arm because the separation area is fixed.

도 11의 (b)는, 본 발명을 적용하여 호흡영역을 분리한 경우로, 형상 사전 정보와 영역 기반 정보를 이용함으로써 깊이 영상에서 호흡에 의해 변화가 존재하는 부분만을 호흡 영역으로 분리하여 기존 방법의 한계를 극복할 수 있다.11 (b) is a case in which the breathing region is separated by applying the present invention, and by using shape dictionary information and region-based information, only a portion in the depth image where there is a change due to respiration is separated into the breathing region, and the existing method limitations can be overcome.

본 발명에 의한 호흡영역 분리 방법은 호흡에 의해 실제 변화하는 부분만을 분리하여 호흡량을 계산하기 때문에, 전반적인 상체 영역을 이용해 호흡량을 계산하는 기존 방법보다 호흡량을 정확하게 측정할 수 있다.Since the respiration zone separation method according to the present invention calculates the respiration volume by separating only the part that is actually changed by respiration, it can measure the respiration volume more accurately than the existing method of calculating respiration volume using the overall upper body area.

정상적(momal) 환경 및 팔 움직임이 있는 환경에서, 기존 방법의 호흡영역분리 방식, 본 발명의 호흡영역분리 방식 및 호흡기(ventilator)를 각각 적용하여 비교하는 실험을 행하였다. 10명의 피험자에 대해서 기존 방법과 제안한 방법에 대해서 호흡량을 계산하여 정확도를 비교한 결과 기존 방법의 호흡량 오차는 실제 호흡량에 대하여 14.10%이고 본 발명의 방법은 8.41%로, 본 발명의 방법이 기존 방법보다 더 호흡량을 정확하게 측정하는 것을 확인하였다.In a normal (momal) environment and an environment with arm movement, an experiment was conducted to compare the breathing zone separation method of the existing method, the breathing zone separation method of the present invention, and a ventilator, respectively. As a result of comparing the accuracy by calculating the respiration volume for the existing method and the proposed method for 10 subjects, the respiration volume error of the existing method is 14.10% with respect to the actual respiration volume, the method of the present invention is 8.41%, the method of the present invention is the existing method It was confirmed that the respiratory volume was measured more accurately.

도 16은 도 2의 영상분석부(200)에서 깊이 카메라로부터 수신된 깊이 영상을 이용하고 ResU-net(Residual U-net) 방법을 적용하여 호흡량을 검출하는 방법을 개략적으로 설명하는 흐름도이다.16 is a flowchart schematically illustrating a method of detecting a respiration volume by using a depth image received from a depth camera in the image analysis unit 200 of FIG. 2 and applying a ResU-net (Residual U-net) method.

호흡영역 분할단계(S200)을 제외하고, 나머지는 도 9와 대부분 동일하다. Except for the breathing area division step (S200), the rest is mostly the same as in FIG.

초기화 단계(S10)로, 카운터 등을 초기화 한다. In the initialization step (S10), the counter and the like are initialized.

깊이영상 수신단계(S20)로, 영상분석부(200)의 연산처리부(210)는 깊이 카메라(100)로 부터 피검자의 상체의 깊이 영상을 수신하여 메모리부(220)에 임시저장한다. 깊이영상 수신단계(S10)에서는 각 프레임당 깊이영상을 수신하되, 한번에 한프레임씩의 깊이영상을 수신하거나, 아니면 기설정된 시간동안의 프레임들의 깊이영상을 수신할 수 있다. In the depth image receiving step (S20), the operation processing unit 210 of the image analysis unit 200 receives the depth image of the subject's upper body from the depth camera 100 and temporarily stores it in the memory unit 220 . In the depth image receiving step S10, a depth image is received for each frame, but a depth image may be received one frame at a time, or a depth image of frames for a preset time may be received.

시공간 중간값 필터링 단계(S110)로, 연산처리부(210)는, 연속적인 깊이 영상들에서 각 픽셀의 시간에 따른 깊이 값들을 중간값 필터를 이용하여 중간값 필터링을 행하고, 또한, 연속적인 깊이 영상들에서 각 픽셀의 공간에 따른 깊이 값들을 중간값 필터를 이용하여 중간값 필터링을 행하여, 시간 및 공간 영역에서 중간값 필터링을 행한다.In the spatiotemporal median value filtering step S110 , the operation processing unit 210 performs median value filtering on the time-dependent depth values of each pixel in the continuous depth images using the median filter, and also, the continuous depth images. Median filtering is performed on the depth values according to the space of each pixel in the field using the median filter, and median filtering is performed in the temporal and spatial domains.

시공간 클리핑단계(S120)로, 연산처리부(210)는, 시공간 중간값 필터링 단계에서 시간 및 공간 영역에서 중간값 필터링된 연속적인 깊이 영상들에서, 각 픽셀의 시간에 따른 깊이 값들을 시간영역 클리핑 문턱치를 기준으로 클리핑을 행하고, 또한, 상기 연속적인 깊이 영상들의 각 픽셀의 공간에 따른 깊이 값들에서 공간영역 클리핑 문턱치를 기준으로 클리핑을 행하여, 결과적으로 시공간에서 클리핑을 행한다.In the spatio-temporal clipping step S120 , the operation processing unit 210 sets the time-dependent depth values of each pixel in the temporal and spatial domain median-filtered successive depth images in the spatiotemporal median value filtering step as a time domain clipping threshold. Clipping is performed based on , and clipping is performed based on the spatial domain clipping threshold at the depth values according to the space of each pixel of the successive depth images, and as a result, the clipping is performed in space and time.

즉, 시공간 클리핑단계(S120)는, 시공간 중간값 필터링 단계에서 시간 및 공간 영역에서 중간값 필터링된 연속적인 깊이 영상들에서, 시간영역 및 공간영역에서 깊이 값이 시간영역 클리핑 문턱치 및 공간영역 클리핑 문턱치 이상인 경우, 그 깊이 값을 0으로 한다.That is, in the spatio-temporal clipping step S120, in successive depth images that have been median-filtered in the temporal and spatial domains in the spatiotemporal median filtering step, the depth values in the temporal domain and the spatial domain are the temporal domain clipping threshold and the spatial domain clipping threshold. In the case of more than one, the depth value is set to 0.

본 발명에서, 시공간 중간값 필터링 단계와 시공간 클리핑단계 (또는 시간영역의 중간값 필터링 및 클리핑 단계 및 공간영역의 중간값 필터링 및 클리핑 단계)를 전처리 단계(S100)라 할 수 있다.In the present invention, the spatiotemporal median filtering step and the spatiotemporal clipping step (or the temporal domain median filtering and clipping and the spatial median filtering and clipping step) may be referred to as a preprocessing step S100 .

깊이 영상 배열단계(S130)로, 연산처리부(210)는, 시공간 클리핑단계(S120)의 출력, 즉, 전처리된 연속적인 깊이 영상들을 메모리부(220)에 순차적으로 배열하여 저장한다. In the depth image arrangement step S130 , the operation processing unit 210 sequentially arranges and stores the output of the spatio-temporal clipping step S120 , that is, the preprocessed continuous depth images in the memory unit 220 .

차영상 배열 단계(S150)로, 연산처리부(210)는, 시공간 중간값 필터링 단계에서 출력된 영상(프레임)들에서, 시간적으로 연이은 영상들에서 소정 화소의 깊이 값의 차, 즉, 현재의 영상에서 화소의 깊이 값에서, 연이은 전의 영상의 해당 화소의 깊이 값을, 차감하여 프레임별 차영상을 구하고, 구하여진 프레임별 차영상을 메모리부(220)에 순차적으로 배열하여 저장한다. In the difference image arrangement step ( S150 ), the operation processing unit 210 , in the images (frames) output from the spatiotemporal median value filtering step, the difference in depth values of predetermined pixels in temporally consecutive images, that is, the current image. From the depth value of the pixel, the depth value of the corresponding pixel of the consecutive image is subtracted to obtain a difference image for each frame, and the obtained difference image for each frame is sequentially arranged and stored in the memory unit 220 .

ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할단계(S215)로, 연산처리부(210)는, 메모리부(220)로부터 깊이 영상 배열단계(S130)에서 저장된, 전처리된 깊이 영상을 수신하여, 제1 ResU-Net에 입력하고, 제1 ResU-Net으로부터 사람의 몸통 영상만을 분리한 세그멘테이션 맵을 수신한다.In the respiration region division step (S215) in the spatial domain using ResU-Net, the operation processing unit 210 receives the preprocessed depth image stored in the depth image arrangement step (S130) from the memory unit 220, and the second 1 Input to ResU-Net, and receive a segmentation map in which only the human body image is separated from the first ResU-Net.

몸통 영상만을 분리한 세그멘테이션 맵 임시저장단계(S225)로, 연산처리부(210)는, 제1 ResU-Net으로부터 수신한 사람의 몸통 영상만을 분리한 세그멘테이션 맵을 메모리부(220)에 임시저장한다.In the temporary storage step (S225) of the segmentation map in which only the body image is separated, the operation processing unit 210 temporarily stores the segmentation map in which only the body image of the person received from the first ResU-Net is separated in the memory unit 220 .

ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할과정에 적용된 인공신경망(제1 ResU-Net)은, 사전에, 전처리된 깊이 영상들과, 상기 깊이 영상에서 사람의 몸통 영역만을 분리한 영상을 레이블로 사용하여, 기계학습된 인공신경망이다.The artificial neural network (1st ResU-Net) applied to the respiration region segmentation process in the spatial domain using ResU-Net labels pre-processed depth images and images that separate only the human body region from the depth images. It is a machine-learning artificial neural network using

기계학습시 사용되는 레이블은 상술한 Level Set 방법, 즉, 형상 사전정보를 이용한 레벨 셋을 이용하여 레이블 영상을 생성할 수 있다.A label used in machine learning may generate a label image using the level set method described above, that is, a level set using shape prior information.

몸통 영상만을 분리한 세그멘테이션 맵과 차영상과의 승산단계(S227)로, ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할과정의 출력, 즉, 사람의 몸통 영상만을 분리한 세그멘테이션 맵에, 메모리부(220)로부터 수신된 차영상, 즉, 차영상 배열 단계(S150)에서 구하여진 차영상을, 픽셀단위로 곱한다.In the multiplication step (S227) of the segmentation map in which only the body image is separated and the difference image, the output of the breathing region segmentation process in the spatial domain using ResU-Net, that is, in the segmentation map in which only the human body image is separated, the memory unit The difference image received from 220, that is, the difference image obtained in the difference image arrangement step S150, is multiplied in units of pixels.

ResU-Net을 이용한 시간 영역에서의 호흡 영역 분할단계 (S235)에서, 제2 ResU-Net의 입력으로서, 몸통 영상만을 분리한 세그멘테이션 맵과 차영상과의 승산단계(S227)의 출력 (즉 사람의 몸통 영상만을 분리한 세그멘테이션 맵과 차영상의 곱)을 입력하고, ResU-Net의 출력으로서, 차 영상에서 호흡과 관련된 영역만을 분리한 세그멘테이션 맵을 출력한다.In the respiratory region segmentation step (S235) in the time domain using ResU-Net, as an input of the second ResU-Net, the output of the multiplication step (S227) between the segmentation map in which only the body image is separated and the difference image (that is, the human A segmentation map obtained by separating only the body image and the product of the difference image) is input, and as the output of ResU-Net, a segmentation map in which only the region related to respiration is separated from the difference image is output.

여기서, 연산처리부(210)는 메모리부(220)로부터 수신된 차 영상(Difference Image)과, 몸통 영역만을 분리한 영상을, 픽셀단위로 곱하여 다시 ResU-Net (즉, 제2 ResU-Net)의 입력으로 사용하는데, 이는 차 영상에서 몸통 영역에 해당하는 영역이 ResU-Net의 입력으로 들어가는 것이다. 그리고 ResU-Net(즉, 제2 ResU-Net)에서 출력되는 영상은 차 영상에서 호흡과 관련된 영역만을 분리한 영상이다.Here, the arithmetic processing unit 210 multiplies the difference image received from the memory unit 220 and the image in which only the body region is separated, in units of pixels, and again ResU-Net (ie, the second ResU-Net) of It is used as an input, which means that the region corresponding to the body region in the car image enters the ResU-Net input. And the image output from ResU-Net (ie, the second ResU-Net) is an image in which only the region related to respiration is separated from the difference image.

ResU-Net을 이용한 시간 영역에서의 호흡 영역 분할과정의 ResU-Net(제2 ResU-Net)은, 사전에, 차 영상에서 몸통 영역에 해당하는 영상 (즉, 차 영상과, 몸통 영역만을 분리한 영상을, 픽셀단위로 곱한 영상)과, 차 영상에서 호흡과 관련된 영역만을 분리한 영상을 레이블로 사용하여, 기계학습된 것이다.ResU-Net (Second ResU-Net) of the respiration region segmentation process in the time domain using ResU-Net is, in advance, the image corresponding to the body region from the difference image (that is, the difference image and the body region only). It is machine-learning using an image obtained by multiplying an image by pixel) and an image in which only a region related to respiration is separated from a difference image as a label.

기계학습시 사용되는 레이블은 상술한 Level Set 방법, 즉, 영역정보 함수를 이용한 레벨 셋을 이용하여 레이블 영상을 생성할 수 있다.A label used in machine learning may generate a label image using the level set method described above, that is, a level set using the area information function.

호흡영역 분리과정 종료여부 판단단계로, 기 설정된 차 영상 배열 수 만큼 호흡영역 분리과정이 반복되었는지 확인하고(S250), 만약 아니면, 카운터를 1증가하고(S260), ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할단계(S215)로 되돌아가고, 만약 기 설정된 차 영상 배열 수 만큼 호흡영역 분리과정이 반복되었다면, 호흡파형 검출단계(S310)로 간다.As a step of determining whether the respiratory zone separation process is complete, it is checked whether the respiratory zone separation process is repeated as many as the preset number of secondary image sequences (S250), and if not, the counter is incremented by 1 (S260), and in the spatial domain using ResU-Net returns to the breathing region division step (S215) of, and if the breathing region separation process is repeated as many as the preset number of difference image sequences, it goes to the breathing waveform detection step (S310).

ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할단계(S215), 몸통 영상만을 분리한 세그멘테이션 맵 임시저장단계(S225), 몸통 영상만을 분리한 세그멘테이션 맵과 차영상과의 승산단계(S227), ResU-Net을 이용한 시간 영역에서의 호흡 영역 분할단계(S235) 및 호흡영역 분리과정 종료여부 판단단계(S250)는 호흡영역 분리단계(S200)라 할 수 있다.Respiratory region segmentation step in the spatial domain using ResU-Net (S215), temporary storage step of segmentation map separated only torso image (S225), multiplication step between segmentation map separated only torso image and difference image (S227), ResU -Respiratory region dividing step (S235) in the time domain using Net and determining whether or not the respiratory region separation process is finished (S250) can be referred to as breathing region separation step (S200).

호흡파형 검출단계(S310)로, 각 영상(각 프레임)에서 호흡영역의 깊이 값(즉, 차 영상에서 호흡과 관련된 영역만을 분리한 영상에서 호흡영역의 깊이 값)을 합산하여 프레임별 호흡관련 신호로써 구하고, 현재의 프레임 호흡관련 신호에서 연이은 전 프리엠 호흡관련 신호를 차감하여 프레임별 호흡 변화량으로써 구하고, 구하여진 프레임별 호흡 변화량에 기설정된 픽셀의 단위 부피값을 곱하여, 실제의 크기로 환산된 프레임별 호흡 변화량을 구하고, 환산된 프레임별 호흡 변환량을 메모리부(220)에 순차적으로 저장하고, 프레임별 호흡 변환량을 시간순서에 따라 읽어들여 그래프로 표시하여 호흡 파형을 나타낸다.In the respiration waveform detection step (S310), the depth value of the respiration area in each image (each frame) (that is, the depth value of the respiration area in the image in which only the respiration-related area is separated from the difference image) is added to the respiration-related signal for each frame It is obtained by subtracting the preceding pre-M respiration-related signal from the current frame respiration-related signal to obtain the respiration change for each frame, and by multiplying the obtained respiration change per frame by the unit volume value of the preset pixel, converted to the actual size Respiratory change for each frame is obtained, the converted amount of respiration for each frame is sequentially stored in the memory unit 220, and the respiration conversion amount for each frame is read in chronological order and displayed as a graph to indicate a respiration waveform.

호흡량 계산단계(S320)로, 호흡 파형에서 피크(Peak)와 밸리(Valley)를 찾아 호흡량 및 호흡수를 계산한다.In the respiration volume calculation step (S320), the respiration rate and respiration rate are calculated by finding a peak and a valley in the respiration waveform.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.As described above, although the present invention has been described with reference to the limited examples and drawings, the present invention is not limited to the above examples, which are various modifications and variations from these descriptions by those skilled in the art to which the present invention pertains. Transformation is possible. Therefore, the spirit of the present invention should be understood only by the claims described below, and all equivalents or equivalent modifications thereof will fall within the scope of the spirit of the present invention.

50 : 피검자 100 : 깊이 카메라
200 : 영상 분석부 210 : 연산 처리부
220 : 메모리부 230 : 출력부
250 : 키입력부
50: subject 100: depth camera
200: image analysis unit 210: calculation processing unit
220: memory unit 230: output unit
250: key input unit

Claims (24)

연산처리부가 깊이 카메라로부터 피검자의 상체의 깊이 영상 배열을 수신하고, 수신된 깊이 영상 배열들에서 임펄스 노이즈를 포함하는 잡음을 제거하는, 전처리단계;
연산처리부는, 전처리 단계에서 잡음이 제거된 깊이 영상 배열의, 각 프레임의 각 화소의 깊이 값에서, 시간적으로 연이은 전 프레임에서 해당 화소의 깊이 값의 차를, 차감하여 차영상을 구하여, 메모리부에 순차적으로 저장하는. 차영상 배열 단계;
연산처리부는, 차영상 배열 단계에서 구한 차영상에서, 형상 사전정보 및 영역정보 함수를 이용하여 레벨 셋을 진행하여, 차영상의 호흡 영역을 분리하는, 호흡영역 분리단계;
를 포함하는 깊이 카메라를 이용한 호흡량 측정 방법에 있어서,
호흡영역 분리단계는,
연산처리부가, 흉곽 및 복부 영역인 몸통 영역만을 분리하기 위한 형상 사전 정보를 이용하여, 깊이 영상에서 흉곽 및 복부 영역을 분리하는, 형상 사전정보를 이용한 레벨 셋 단계;
연산처리부가, 연이은 전 프레임의 호흡관련 영역의 영상을 이용하여, 0에서 1사이의 값을 가지는 가중치를 계산하고, 영역정보함수를 적용한 형상 사전정보에, 상기 가중치를 적용하여, 적응적 영역정보 함수를 검출하는, 영역정보함수 획득단계;
연산처리부가, 차영상 배열 단계에서 획득된 차영상에 영역정보 함수 및 CVM(Chan-Vese model, 찬 베세 모델) 기법을 이용하여, 차영상의 호흡영역을 분리하는, 영역 정보 함수를 이용한 레벨 셋 단계;
를 포함하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
a pre-processing step in which an operation processing unit receives a depth image array of the subject's upper body from a depth camera, and removes noise including impulse noise from the received depth image arrays;
The arithmetic processing unit obtains a difference image by subtracting the difference between the depth values of the corresponding pixels from the temporally consecutive previous frames from the depth values of each pixel of each frame of the depth image array from which the noise has been removed in the preprocessing step, and the memory unit stored sequentially in . difference image arrangement step;
The operation processing unit, in the difference image obtained in the difference image arrangement step, proceeds to level set using the shape prior information and the region information function, to separate the breathing region of the difference image, a breathing region separation step;
In the method for measuring respiration volume using a depth camera comprising:
Respiratory zone separation step,
a level setting step using the shape dictionary information, in which the operation processing unit separates the rib cage and the abdomen region from the depth image by using the shape dictionary information for separating only the torso region, which is the rib cage and abdomen region;
The operation processing unit calculates a weight having a value between 0 and 1 by using the image of the respiration-related region of the previous frame in succession, and applies the weight to the shape dictionary information to which the region information function is applied, thereby adaptive region information an area information function obtaining step of detecting a function;
A level set using a region information function, where the operation processing unit separates the breathing region of the difference image by using a region information function and a CVM (Chan-Vese model) technique on the difference image obtained in the difference image arrangement step step;
Respiratory volume measurement method using a depth camera, comprising:
연산처리부가 깊이 카메라로부터 피검자의 상체의 깊이 영상 배열을 수신하고, 수신된 깊이 영상 배열들에서 임펄스 노이즈를 포함하는 잡음을 제거하는 전처리를 행하는, 전처리단계;
연산처리부는, 전처리단계에서 잡음이 제거된 연속적인 깊이 영상을 메모리부에 순차적으로 저장하는, 깊이 영상 배열단계;
연산처리부는, 전처리 단계에서 잡음이 제거된 연속적인 깊이 영상 배열의, 각 프레임의 각 화소의 깊이 값에서, 시간적으로 연이은 전 프레임에서 해당 화소의 깊이 값의 차를, 차감하여 차영상을 구하여, 메모리부에 순차적으로 저장하는. 차영상 배열 단계;
연산처리부는, 차영상 배열 단계에서 구한 차영상과, 깊이 영상 배열단계에서 메모리부에 저장된 연속적인 깊이 영상을 기 학습된 ResU-net(Residual U-net)에 적용하여, 차영상의 호흡 영역을 분리하는, 호흡영역 분리단계;
를 포함하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
a pre-processing step in which the arithmetic processing unit receives a depth image array of the subject's upper body from a depth camera, and performs preprocessing for removing noise including impulse noise from the received depth image arrays;
The operation processing unit may include: a depth image arranging step of sequentially storing continuous depth images from which noise has been removed in the preprocessing step in the memory unit;
The arithmetic processing unit obtains a difference image by subtracting the difference between the depth value of the pixel in the temporally consecutive previous frames from the depth value of each pixel of each frame of the continuous depth image array from which the noise has been removed in the preprocessing step, stored sequentially in the memory unit. difference image arrangement step;
The calculation processing unit applies the difference image obtained in the difference image arrangement step and the continuous depth image stored in the memory unit in the depth image arrangement step to the pre-learned ResU-net (Residual U-net) to determine the breathing region of the difference image. Separating, breathing zone separation step;
Respiratory volume measurement method using a depth camera, comprising:
삭제delete 제1항 또는 제2항 중 어느 한 항에 있어서, 전처리 단계는
연산처리부가, 연속적인 깊이 영상들에서, 시간 영역에 따른 각 픽셀의 깊이 값들에서 중간값 필터링을 행하고, 공간 영역에 따른 각 픽셀의 깊이 값들을에서 중간값 필터링을 행하는, 시공간 중간값 필터링 단계;
연산처리부가, 시공간 중간값 필터링 단계에서 시간 및 공간 영역에서 중간값 필터링된 연속적인 깊이 영상들에서, 시간 영역에 따른 각 픽셀의 깊이 값들에서 시간영역 클리핑 문턱치를 기준으로 클리핑을 행하고, 공간 영역에 따른 각 픽셀의 깊이 값들에서 공간영역 클리핑 문턱치를 기준으로 클리핑을 행하는, 시공간 클리핑단계;
를 포함하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
3. The method according to any one of claims 1 to 2, wherein the pretreatment step comprises:
a spatiotemporal median filtering step in which the arithmetic processing unit performs median value filtering on the depth values of each pixel according to the time domain in successive depth images, and performs median value filtering on the depth values of each pixel according to the spatial domain;
The operation processing unit performs clipping based on the temporal domain clipping threshold at the depth values of each pixel according to the temporal domain in successive depth images that have been median-filtered in the temporal and spatial domains in the spatiotemporal median filtering step, and a spatiotemporal clipping step of performing clipping based on a spatial domain clipping threshold at depth values of each pixel;
Respiratory volume measurement method using a depth camera, comprising:
제1항에 있어서, 영역정보함수 획득단계는,
연산처리부가, 형상 사전 정보를 이용하여 분리한 영역에 대해, 부호를 가지는 거리 함수(Signed Distance Fuction, SDF)를 적용하고, 경계선을 0으로서 기준으로 하면, 상기 기준에서 멀어질수록 분리한 영역의 내부 영역은 양수의 값을 가지게 되며, 분리한 영역의 외부 영역은 음수의 값을 가지게 되며, 연산처리부가, SDF 함수가 적용된 영역에서, 일정한 문턱치를 넘는 값 또는, 소정 크기단위 내의 값을, 같은 값으로 처리하며, 외부 영역에 단위 계단 함수(Heaviside) 함수를 적용하는 것을 포함하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
The method of claim 1, wherein the obtaining of the area information function comprises:
When the operation processing unit applies a signed distance function (SDF) to the region separated using the shape dictionary information, and the boundary line is set as 0, the further away from the criterion, the more the separated region The inner region has a positive value, the outer region of the separated region has a negative value, and the operation processing unit returns a value exceeding a certain threshold or within a predetermined size unit in the region to which the SDF function is applied. Respiratory volume measurement method using a depth camera, characterized in that it includes applying a unit step function (Heaviside) function to the external area,
제2항에 있어서, 호흡영역 분리단계는,
연산처리부가, 메모리부로부터 깊이 영상 배열단계(S130)에서 저장된, 전처리된 깊이 영상을 수신하여, 기 학습된 제1 ResU-Net에 입력하고, 제1 ResU-Net으로부터 출력된, 흉곽 및 복부 영역인 몸통 영역만을 분리한 세그멘테이션 맵을, 수신하는, ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할단계;
연산처리부는, 제1 ResU-Net으로부터 수신한 사람의 몸통 영상만을 분리한 세그멘테이션 맵을 메모리부에 순차적으로 임시저장하는, 몸통 영상만을 분리한 세그멘테이션 맵 배열단계;
연산처리부는, ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할단계에서 출력된, 몸통 영상만을 분리한 세그멘테이션 맵에, 차영상 배열 단계에서 구하여진 차영상을, 픽셀단위로 곱하는, 몸통 영상만을 분리한 세그멘테이션 맵과 차영상과의 승산단계;
연산처리부는, 기학습된 제2 ResU-Net의 입력으로서, 몸통 영상만을 분리한 세그멘테이션 맵과 차영상과의 승산단계에서 출력된, 몸통 영상만을 분리한 세그멘테이션 맵과 차영상의 곱을 입력하고, 제2 ResU-Net의 출력으로서, 차 영상에서 호흡과 관련된 영역만을 분리한 세그멘테이션 맵인, 차 영상에서 호흡과 관련된 영역만을 분리한 영상을 수신하는, ResU-Net을 이용한 시간 영역에서의 호흡 영역 분할단계;
를 포함하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
The method of claim 2, wherein the step of separating the breathing area
The arithmetic processing unit receives the preprocessed depth image stored in the depth image arrangement step (S130) from the memory unit, inputs it to the pre-learned first ResU-Net, and outputs from the first ResU-Net, ribcage and abdomen region Respiratory region segmentation step in the spatial region using ResU-Net, receiving a segmentation map in which only the in-body region is separated;
The arithmetic processing unit may include: a segmentation map arrangement step in which only the torso image is separated, in which the segmentation map obtained by separating only the torso image of the person received from the first ResU-Net is sequentially temporarily stored in the memory unit;
The arithmetic processing unit separates only the torso image by multiplying the segmentation map in which only the torso image is separated, output in the breathing region segmentation step in the spatial domain using ResU-Net, by the difference image obtained in the difference image arrangement step in units of pixels a multiplication step between a segmentation map and a difference image;
The arithmetic processing unit inputs, as an input of the previously learned second ResU-Net, the product of the segmentation map in which only the body image is separated and the segmentation map in which only the torso image is separated, which is output in the multiplication step of the difference image, and the difference image, 2 As the output of ResU-Net, receiving an image in which only a respiration-related area is separated from the difference image, which is a segmentation map in which only a respiration-related area is separated from the second image, is received, a respiration area segmentation step in the time domain using ResU-Net;
Respiratory volume measurement method using a depth camera, comprising:
제6항에 있어서,
제1 ResU-Net은, 사전에, 전처리단계에서 잡음이 제거된 깊이 영상들과, 상기 잡음이 제거된 깊이 영상에서 몸통 영역만을 분리한 영상을 레이블로 사용하여, 기계학습된 인공신경망인 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
7. The method of claim 6,
The first ResU-Net is a machine-learning artificial neural network using, as labels, depth images from which noise has been removed in the pre-processing step, and images obtained by separating only the body region from the depth images from which noise has been removed. Respiratory volume measurement method using a depth camera,
제7항에 있어서,
제2 ResU-Net은, 사전에, 몸통 영상만을 분리한 세그멘테이션 맵과 차영상과의 승산단계에서 출력된, 차 영상과, 몸통 영역만을 분리한 영상을, 픽셀단위로 곱한 영상과, 상기 차 영상에서 호흡과 관련된 영역만을 분리한 영상을 레이블로 사용하여, 기계학습된 인공신경망인 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
8. The method of claim 7,
The second ResU-Net is an image obtained by multiplying the segmentation map in which only the body image is separated and the difference image output in the multiplication step of the difference image in advance, and the image in which only the body region is separated, in units of pixels, and the difference image Respiratory volume measurement method using a depth camera, characterized in that it is a machine-learned artificial neural network by using an image that isolates only the region related to respiration in the label.
제8항에 있어서,
제1 ResU-Net의 기계학습시 사용되는 레이블은 형상 사전정보를 이용한 레벨 셋을 이용하여 레이블 영상이 생성된 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
9. The method of claim 8,
The label used in machine learning of the first ResU-Net is a respiration volume measurement method using a depth camera, characterized in that the label image is generated using a level set using shape prior information,
제9항에 있어서,
제2 ResU-Net의 기계학습시 사용되는 레이블은 영역정보 함수를 이용한 레벨 셋을 이용하여 레이블 영상이 생성된 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
10. The method of claim 9,
The label used in machine learning of the second ResU-Net is a respiration volume measurement method using a depth camera, characterized in that the label image is generated using a level set using the area information function;
제6항에 있어서,
연산처리부는, 카운터의 값이, 기 설정된 차 영상 배열 수와 같은지를 확인하고, 만약 아니면, 카운터를 1증가하고, ResU-Net을 이용한 공간 영역에서의 호흡 영역 분할단계로 되돌아가는, 호흡영역 분리과정 종료여부 판단단계;
를 더 포함하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
7. The method of claim 6,
The operation processing unit checks whether the value of the counter is equal to the preset number of difference image sequences, and if not, increments the counter by 1, and returns to the breathing region division step in the spatial region using ResU-Net, breathing region separation determining whether the process has been completed;
Respiratory volume measurement method using a depth camera, characterized in that it further comprises,
제5항에 있어서,
연산처리부는, 카운터의 값이, 기 설정된 차 영상 배열 수와 같은지를 확인하고, 만약 아니면, 카운터를 1증가하고, 형상 사전정보를 이용한 레벨 셋 단계로 되돌아가는, 호흡영역 분리과정 종료여부 판단단계;
를 더 포함하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
6. The method of claim 5,
The calculation processing unit checks whether the value of the counter is equal to the preset number of difference image arrays, and if not, increments the counter by 1, and returns to the level set step using the shape prior information, determining whether the breathing area separation process ends ;
Respiratory volume measurement method using a depth camera, characterized in that it further comprises,
제11항 또는 제12항 중 어느 한 항에 있어서,
호흡영역 분리과정 종료여부 판단단계에서, 카운터의 값이, 기 설정된 차 영상 배열 수와 같다면, 연산처리부는,
호흡영역 분리단계단계에서 구하여진, 차 영상에서 호흡과 관련된 영역만을 분리한 영상들의 프레임들에서, 각 프레임의 호흡영역의 깊이 값을 합산하여 프레임별 호흡관련 신호로써 구하고, 현재의 프레임 호흡관련 신호에서 연이은 전 프리엠 호흡관련 신호를 차감하여 프레임별 호흡 변화량으로써 구하고, 프레임별 호흡 변화량에 기설정된 픽셀의 단위 부피값을 곱하여, 실제의 크기로 환산된 프레임별 호흡 변화량을 구하고, 환산된 프레임별 호흡 변환량을 시간순서에 따라 그래프로 표시하여 호흡 파형을 나타내는, 호흡파형 검출단계;
를 더 포함하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
13. The method of any one of claims 11 or 12,
In the step of determining whether the respiration zone separation process ends, if the value of the counter is equal to the preset number of difference image sequences, the calculation processing unit,
In the frames of the images obtained in the respiration region separation step, in which only the breathing-related region is separated from the secondary image, the depth value of the breathing region of each frame is summed to obtain a respiration related signal for each frame, and the current frame respiration related signal Subtracts the previous pre-M respiration-related signal in succession to obtain the respiration change for each frame, multiply the respiration change per frame by the unit volume value of the preset pixel to obtain the respiration change for each frame converted to the actual size, and for each converted frame Respiratory waveform detection step, representing the respiratory waveform by displaying the respiration conversion amount in a graph according to the time sequence;
Respiratory volume measurement method using a depth camera, characterized in that it further comprises,
제13항에 있어서,
연산처리부가, 호흡 파형에서 피크(Peak)와 밸리(Valley)를 검출하고, 검출된 피크(Peak)와 밸리(Valley)를 이용하여 호흡량 및 호흡수를 계산하는, 호흡수 및 호흡량 검출단계;
를 더 포함하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
14. The method of claim 13,
Respiratory rate and respiration rate detecting step, wherein the operation processing unit detects a peak and a valley in the respiration waveform, and calculates the respiration rate and respiration rate using the detected peak and valley;
Respiratory volume measurement method using a depth camera, characterized in that it further comprises,
제14항에 있어서, 호흡수 및 호흡량 검출단계는
연산처리부가, 호흡파형 검출단계에서 구하여진 호흡신호를 1차 미분하여 변곡점을 구하고, 변곡점을 이용하여 피크(peak)와 밸리(valley)를 검출하는, 피크 및 밸리 검출단계;
연산처리부가, 피크 및 밸리 검출단계에서 검출된 피크(peak)와 밸리(valley)들에서, 소정 시간간격 동안에, 피크와 밸리가 순차적으로 연이어서 나타나는 피크와 밸리의 쌍의 개수를, 호흡수로서 검출하는, 호흡수 검출단계;
를 포함하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
15. The method of claim 14, Respiratory rate and respiration volume detection step
A peak and valley detection step in which an operation processing unit first differentiates the respiration signal obtained in the respiratory waveform detection step to obtain an inflection point, and detects a peak and a valley using the inflection point;
In the peak and valley detected in the peak and valley detection step, the number of pairs of peaks and valleys in which the peaks and valleys appear one after another during a predetermined time interval, as the respiration rate Detecting, respiratory rate detection step;
Respiratory volume measurement method using a depth camera, comprising:
제15항에 있어서, 호흡수 및 호흡량 검출단계는,
연산처리부가, 피크와 밸리가 순차적으로 연이어서 나타나는 피크와 밸리의 쌍의 진폭을, 피크와 밸리의 쌍이 포함되는 호흡주기의 호흡량으로 검출하는, 호흡량 검출단계;
를 포함하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
According to claim 15, Respiratory rate and respiration volume detection step,
a respiration amount detecting step in which the calculation processing unit detects, by the operation processing unit, the amplitude of the pair of peaks and valleys in which the peaks and valleys appear sequentially in succession as the respiration volume of the respiration cycle including the pair of peaks and valleys;
Respiratory volume measurement method using a depth camera, comprising:
제15항에 있어서, 호흡수 및 호흡량 검출단계는,
연산처리부가, 피크와 밸리가 순차적으로 연이어서 나타나는 피크와 밸리의 쌍으로 호흡주기를 검출하고, 각 호흡주기의 호흡신호를, 연이은 전 호흡주기의 호흡신호에서 차감하여 각 호흡주기별 변화량을 구하고, 각 호흡주기별 변화량을 시간에 따라 합산하여 호흡량으로서 구하는, 호흡량 검출단계;
를 포함하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
According to claim 15, Respiratory rate and respiration volume detection step,
The calculation processing unit detects the respiration cycle as a pair of peaks and valleys in which peaks and valleys appear sequentially in succession, and subtracts the respiration signal of each respiration cycle from the respiration signal of the previous respiration cycle in succession to obtain the change amount for each respiration cycle, , Respiratory volume detection step of calculating the amount of change for each respiration cycle over time to obtain the respiration volume;
Respiratory volume measurement method using a depth camera, comprising:
제9항에 있어서,
각 호흡주기별 변화량을 시간에 따라 합산시, 연산처리부는 각 호흡주기의 시작점을 기준으로 합산하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 방법,
10. The method of claim 9,
Respiratory volume measurement method using a depth camera, characterized in that when the amount of change for each respiration cycle is summed over time, the calculation processing unit adds up based on the starting point of each respiration cycle,
제1항 내지 제2항, 제5항 내지 제12항 중 어느 한 항에 있어서의 깊이 카메라를 이용한 호흡량 측정 방법에 대한 컴퓨터 프로그램 소스를 저장한 기록매체.[Claim 13] The recording medium storing a computer program source for the method for measuring respiration volume using the depth camera according to any one of claims 1 to 2, 5 to 12. 깊이 카메라, 상기 깊이 카메라로부터 수신된 피검자의 상체의 깊이 영상을 분석하여 호흡신호를 검출하는 연산처리부를 포함하는 영상분석부를 포함하는 깊이 카메라를 이용한 호흡 측정 시스템에 있어서,
연산처리부는,
깊이 카메라로부터 피검자의 상체의 깊이 영상 배열을 수신하고, 수신된 깊이 영상 배열들에서, 임펄스 노이즈를 포함하는 잡음을 제거하는 전처리를, 행하고,
전처리된 깊이 영상 배열의, 각 프레임의 각 화소의 깊이 값에서, 시간적으로 연이은 전 프레임에서 해당 화소의 깊이 값의 차를, 차감하여 차영상 배열을 구하여, 메모리부에 순차적으로 저장시키고,
깊이 영상의 차영상 배열에, 형상 사전정보 및 영역정보 함수를 이용하여 레벨 셋을 진행하여 호흡 영역을 분리하되,
레벨 셋을 행하여 호흡 영역을 분리하기 위해, 연산처리부는,
깊이 영상의 차영상 배열에서, 흉곽 및 복부 영역만을 분리하기 위한 형상 사전 정보를 이용하여, 깊이 영상에서 흉곽 및 복부 영역인 몸통영역을 분리하고,
연이은 전 프레임의 호흡관련 영역의 영상을 이용하여 0에서 1사이의 값을 가지는 가중치를 계산하고, 영역정보함수를 적용한 형상 사전정보에, 상기 가중치를 적용하여, 적응적 영역정보 함수를 검출하고,
차영상 배열에 영역정보 함수 및 CVM(Chan-Vese model, 찬 베세 모델) 기법을 이용하여 차영상의 호흡영역을 분리하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡 측정 시스템.
In a respiration measurement system using a depth camera comprising an image analysis unit comprising a depth camera, an operation processing unit for detecting a respiration signal by analyzing the depth image of the subject's upper body received from the depth camera,
arithmetic processing unit,
receiving the depth image array of the subject's upper body from the depth camera, and performing preprocessing for removing noise including impulse noise from the received depth image arrays;
In the preprocessed depth image array, the difference image array is obtained by subtracting the difference between the depth values of the corresponding pixels in the previous temporally successive frames from the depth value of each pixel of each frame, and sequentially stored in the memory unit,
In the difference image arrangement of the depth image, the breathing region is separated by performing level set using the shape prior information and the region information function,
In order to separate the breathing region by performing level set, the operation processing unit,
In the difference image arrangement of the depth image, the body region, which is the rib cage and the abdomen region, is separated from the depth image by using the shape dictionary information for separating only the rib cage and the abdomen region.
Calculating a weight having a value between 0 and 1 using the image of the respiration-related region of the previous frame in succession, applying the weight to the shape dictionary information to which the region information function is applied, and detecting the adaptive region information function,
A respiration measurement system using a depth camera, characterized in that the respiration area of the difference image is separated using a region information function and a CVM (Chan-Vese model) technique in the difference image arrangement.
깊이 카메라, 상기 깊이 카메라로부터 수신된 피검자의 상체의 깊이 영상을 분석하여 호흡신호를 검출하는 연산처리부를 포함하는 영상분석부를 포함하는 깊이 카메라를 이용한 호흡 측정 시스템에 있어서,
연산처리부는,
깊이 카메라로부터 피검자의 상체의 깊이 영상 배열을 수신하고, 수신된 깊이 영상 배열들에서, 임펄스 노이즈를 포함하는 잡음을 제거하는 전처리를 행하고, 전처리된 연속적인 깊이 영상 배열을 메모리부에 순차적으로 저장하고,
전처리된 깊이 영상 배열의, 각 프레임의 각 화소의 깊이 값에서, 시간적으로 연이은 전 프레임에서 해당 화소의 깊이 값의 차를, 차감하여 차영상 배열을 구하여, 메모리부에 순차적으로 저장시키고,
차영상 배열과, 메모리부로부터 수신된 전처리된 연속적인 깊이 영상을 기 학습된 ResU-net(Residual U-net)에 적용하여, 차영상의 호흡 영역을 분리하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡 측정 시스템.
In a respiration measurement system using a depth camera comprising an image analysis unit comprising a depth camera, an operation processing unit for detecting a respiration signal by analyzing the depth image of the subject's upper body received from the depth camera,
arithmetic processing unit,
Receives the depth image array of the subject's upper body from the depth camera, performs preprocessing for removing noise including impulse noise from the received depth image arrays, and sequentially stores the preprocessed continuous depth image array in the memory unit, ,
In the preprocessed depth image array, the difference image array is obtained by subtracting the difference between the depth values of the corresponding pixels in the previous temporally successive frames from the depth value of each pixel of each frame, and sequentially stored in the memory unit,
Using a depth camera, characterized in that the difference image arrangement and the pre-processed continuous depth image received from the memory unit are applied to the pre-learned ResU-net (Residual U-net) to separate the breathing region of the difference image Respiratory measurement system.
삭제delete 제21항에 있어서,
차영상 배열과, 전처리된 연속적인 깊이 영상을 기 학습된 ResU-net(Residual U-net)에 적용하여, 차영상의 호흡 영역을 분리하는 위해, 연산처리부는,
메모리부로부터 수신된 전처리된 깊이 영상을, 기 학습된 제1 ResU-Net에 입력하고, 제1 ResU-Net으로부터 출력된, 흉곽 및 복부 영역인 몸통 영상만을 분리한 세그멘테이션 맵을, 수신하고, 제1 ResU-Net으로부터 수신한 몸통 영상만을 분리한 세그멘테이션 맵을 메모리부에 순차적으로 임시저장하고,
몸통 영상만을 분리한 세그멘테이션 맵에, 차영상을, 픽셀단위로 곱하고,
기학습된 제2 ResU-Net의 입력으로서, 몸통 영상만을 분리한 세그멘테이션 맵과 차영상의 곱을 입력하고, 제2 ResU-Net의 출력으로서, 차 영상에서 호흡과 관련된 영역만을 분리한 세그멘테이션 맵인, 차 영상에서 호흡과 관련된 영역만을 분리한 영상을 수신하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡 측정 시스템.
22. The method of claim 21,
In order to separate the breathing region of the difference image by applying the difference image arrangement and the preprocessed continuous depth image to the pre-learned ResU-net (Residual U-net), the operation processing unit,
The preprocessed depth image received from the memory unit is input to the pre-learned first ResU-Net, and the segmentation map that is output from the first ResU-Net, in which only the torso image, which is the thorax and abdomen region, is separated, is received, and the second 1 Temporarily store the segmentation map in which only the body image received from ResU-Net is separated in the memory unit,
Multiplying the segmentation map in which only the body image is separated, the difference image, in units of pixels,
As an input of the second ResU-Net that has already been learned, the product of a segmentation map and a difference image that separates only the body image is input, and as an output of the second ResU-Net, a segmentation map that separates only the respiration-related region from the difference image, difference Respiratory measurement system using a depth camera, characterized in that receiving an image in which only a region related to respiration is separated from the image.
제21항 또는 제23항 중 어느 한 항에 있어서, 연산처리부는
분리한 호흡 파형에서 피크(Peak)와 밸리(Valley)를 검출하고, 검출된 피크(Peak)와 밸리(Valley)를 이용하여 호흡량 및 호흡수를 계산하는 것을 특징으로 하는, 깊이 카메라를 이용한 호흡량 측정 시스템.
The method of any one of claims 21 or 23, wherein the arithmetic processing unit
Respiratory volume measurement using a depth camera, characterized in that a peak and a valley are detected from the separated respiration waveform, and the respiration volume and respiration rate are calculated using the detected peak and valley system.
KR1020190137813A 2018-10-31 2019-10-31 Respiratory measurement system using depth camera KR102275263B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180131494 2018-10-31
KR1020180131494 2018-10-31

Publications (2)

Publication Number Publication Date
KR20200049683A KR20200049683A (en) 2020-05-08
KR102275263B1 true KR102275263B1 (en) 2021-07-13

Family

ID=70677980

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190137813A KR102275263B1 (en) 2018-10-31 2019-10-31 Respiratory measurement system using depth camera

Country Status (1)

Country Link
KR (1) KR102275263B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113793308A (en) * 2021-08-25 2021-12-14 北京科技大学 Intelligent pellet quality rating method and device based on neural network

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101755094B1 (en) 2015-04-23 2017-07-06 순천향대학교 산학협력단 An apparatus of a respiratory rate monitoring during sleep using a depth camera

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101755094B1 (en) 2015-04-23 2017-07-06 순천향대학교 산학협력단 An apparatus of a respiratory rate monitoring during sleep using a depth camera

Also Published As

Publication number Publication date
KR20200049683A (en) 2020-05-08

Similar Documents

Publication Publication Date Title
Khosrow-Khavar et al. Automatic and robust delineation of the fiducial points of the seismocardiogram signal for noninvasive estimation of cardiac time intervals
Charlton et al. Breathing rate estimation from the electrocardiogram and photoplethysmogram: A review
Ravichandran et al. RespNet: A deep learning model for extraction of respiration from photoplethysmogram
Altan et al. Deep learning with 3D-second order difference plot on respiratory sounds
KR102054213B1 (en) Respiratory measurement system using thermovision camera
Su et al. Monitoring the relative blood pressure using a hydraulic bed sensor system
Pimentel et al. Probabilistic estimation of respiratory rate from wearable sensors
KR102255109B1 (en) Computer-readable recording medium in which diagnostic support program is stored
RU2637610C2 (en) Monitoring device for physiological signal monitoring
CN108135487A (en) For obtaining the equipment, system and method for the vital sign information of object
JP2016503706A (en) Ultrasonic probe and ultrasonic imaging system
KR20040090970A (en) System for analyzing and imaging respiratory tract sounds
AU2019205878A1 (en) Diagnostic support program
Liu et al. Asthma pattern identification via continuous diaphragm motion monitoring
RU2346653C2 (en) Cardiovascular sound analysis method and system
Jayawardhana et al. Enhanced detection of sleep apnoea using heart-rate, respiration effort and oxygen saturation derived from a photoplethysmography sensor
WO2021045616A1 (en) A computer-implemented method and an apparatus for determining body positions and/or sleep stages of a person during sleep.
KR102275263B1 (en) Respiratory measurement system using depth camera
Suriani et al. Non-contact facial based vital sign estimation using convolutional neural network approach
JP6938940B2 (en) Dynamic analysis system
Lu et al. Accurate heart beat detection with Doppler radar using bidirectional GRU network
Liu et al. Tidal volume estimation using portable ultrasound imaging system
JP7301275B2 (en) Sleep state estimation system
Pansare et al. Heart Rate Measurement from Face and Wrist Video
KR20220044902A (en) Diagnostic Support Program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant