KR102108630B1 - Method for respiration measurement using ultrasonic wave based on image segmentation and device for the same - Google Patents

Method for respiration measurement using ultrasonic wave based on image segmentation and device for the same Download PDF

Info

Publication number
KR102108630B1
KR102108630B1 KR1020180088526A KR20180088526A KR102108630B1 KR 102108630 B1 KR102108630 B1 KR 102108630B1 KR 1020180088526 A KR1020180088526 A KR 1020180088526A KR 20180088526 A KR20180088526 A KR 20180088526A KR 102108630 B1 KR102108630 B1 KR 102108630B1
Authority
KR
South Korea
Prior art keywords
image segmentation
image
correlation
measuring
ultrasonic
Prior art date
Application number
KR1020180088526A
Other languages
Korean (ko)
Other versions
KR20200013380A (en
Inventor
김승일
Original Assignee
주식회사 모두의연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 모두의연구소 filed Critical 주식회사 모두의연구소
Priority to KR1020180088526A priority Critical patent/KR102108630B1/en
Publication of KR20200013380A publication Critical patent/KR20200013380A/en
Application granted granted Critical
Publication of KR102108630B1 publication Critical patent/KR102108630B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data

Abstract

본 발명의 일 실시예에 의하면, 초음파 신호를 송신하고, 사용자로부터 반사된 초음파 신호를 수신하도록 구성된 초음파 송수신기, 초음파 송수신기에서 송신된 초음파 신호와 반사되어 수신된 초음파 신호의 상관 관계(correlation)와 관련된 상관 관계 이미지를 획득하도록 구성된 이미지 획득부, 상관 관계 이미지를 이미지 세그멘테이션(image segmentation) 처리하도록 구성된 이미지 세그멘테이션 처리부, 및 이미지 세그멘테이션을 통해 얻은 내부 정보를 이용하여 호흡을 측정하도록 구성된 호흡 측정부를 포함하는 호흡 측정 장치가 제공될 수 있다.According to an embodiment of the present invention, an ultrasound transceiver configured to transmit an ultrasound signal and receive a reflected ultrasound signal from a user, related to a correlation between the ultrasound signal transmitted from the ultrasound transceiver and the ultrasound signal reflected and received. Breathing including an image acquiring unit configured to acquire a correlated image, an image segmentation processing unit configured to image-correlate the correlation image, and a breathing measuring unit configured to measure respiration using internal information obtained through image segmentation A measuring device can be provided.

Description

이미지 세그멘테이션에 기초하여 초음파를 이용한 호흡 측정 방법 및 이를 위한 장치{METHOD FOR RESPIRATION MEASUREMENT USING ULTRASONIC WAVE BASED ON IMAGE SEGMENTATION AND DEVICE FOR THE SAME}METHOD FOR RESPIRATION MEASUREMENT USING ULTRASONIC WAVE BASED ON IMAGE SEGMENTATION AND DEVICE FOR THE SAME

본 발명은 이미지 세그멘테이션(image segmentation)에 기초하여 초음파를 이용한 호흡 측정 방법 및 이를 위한 장치에 관한 것이다. 보다 구체적으로, 딥러닝 기술 중 이미지 인식에 많이 사용되는 CNN(Convolutional Neural Network)을 이용하여 이미지 세그멘테이션 처리를 통해 호흡 속도(breathing rate 또는 respiration rate) 및 들숨 날숨을 판단하기 위한 기술에 관한 것이다.The present invention relates to a method for measuring breathing using ultrasound based on image segmentation and a device therefor. More specifically, it relates to a technique for determining a breathing rate (breathing rate or respiration rate) and inhalation exhalation through image segmentation processing using a convolutional neural network (CNN), which is frequently used for image recognition, among deep learning technologies.

모바일 헬스케어 시장은 2018년 약 80억 달러에 이를 것으로 예상되며, 이 중 사용자의 심장 박동, 호흡 및 수면 패턴 분석 시장은 매우 중요한 부분을 차지하고 있다. 또한, 모바일 기술이 발전함에 따라 유비쿼터스 기술이 적용된 유-헬스케어(U-Health Care) 시장도 성장하면서, 유비쿼터스 환경에 적합한, 일상에서 측정부담감 없이 손쉽게 측정할 수 있는 비침습적 또는 비접촉식 측정 시스템에 대한 연구도 매우 활발하게 이루어지고 있다.The mobile healthcare market is expected to reach about $ 8 billion in 2018, of which the user's heart rate, breathing and sleep pattern analysis market is very important. In addition, as the mobile technology advances, the U-Health Care market with ubiquitous technology is growing, and for non-invasive or non-contact measurement systems suitable for ubiquitous environments, which can be easily measured without burden of measurement in daily life. Research is also very active.

현재 호흡 또는 맥박을 측정하는 방법으로 접촉식 방법이 널리 쓰이고 있다. 그 예로, 마스크 형태의 기기에서 공기 흐름을 측정하는 방법, 흉부에 센서를 부착하는 방법, 피부에서 심혈관 반응을 측정하는 PPG(photoplethysmogram) 센서의 데이터를 수집하고 분석하는 방법, 또는 스마트 시계(smart watch) 등에 모듈 형태로 내장된 광학 맥박 센서 등이 존재한다.Currently, a contact method is widely used as a method of measuring breathing or pulse. For example, a method of measuring air flow in a mask-type device, a method of attaching a sensor to the chest, a method of collecting and analyzing data from a photoplethysmogram (PPG) sensor that measures the cardiovascular response in the skin, or a smart watch ) There is an optical pulse sensor or the like embedded in a module form.

그러나, 접촉식 방법의 경우 흉부, 손가락 또는 다른 피부에 센서나 밴드를 착용해야 하는 측정 방식이 부담스럽고, 불편하다는 단점을 가지고 있다. 따라서, 현재 접촉식 방법에 비해 성능은 떨어지지만 사용 편의성에서 유리한 장점을 갖는 비접촉식 호흡 측정 방식들이 활발하게 연구되고 제안되고 있다.However, in the case of the contact method, a measurement method in which a sensor or a band should be worn on the chest, fingers, or other skin is burdensome and has the disadvantage of inconvenience. Accordingly, non-contact breathing measurement methods, which are inferior in performance to current contact methods but have advantages in ease of use, have been actively studied and proposed.

대한민국 등록특허공보 10-1070389Republic of Korea Registered Patent Publication 10-1070389 대한민국 등록특허공보 10-1145646Republic of Korea Registered Patent Publication 10-1145646

본 발명은 이미지 세그멘테이션에 기초하여 초음파를 이용한 호흡 측정 방법 및 이를 위한 장치를 제공하는 것을 목적으로 한다.An object of the present invention is to provide a method for measuring breathing using ultrasound and an apparatus therefor based on image segmentation.

또한, 본 발명은 초음파 신호의 상관 관계 이미지와 CNN(Convolutional Neural Network)을 이용하여 이미지 세그멘테이션 처리를 통해 호흡 속도(respiration rate) 및 들숨 날숨을 판단 및 측정하는 것을 목적으로 한다.In addition, an object of the present invention is to determine and measure respiration rate and inspiration exhalation through image segmentation processing using a correlation image of an ultrasonic signal and a convolutional neural network (CNN).

또한, 본 발명은 유 넷(u net) 기반의 CNN을 이용하여 호흡 속도와 들숨 날숨과 관련된 특징들을 보다 효율적으로 측정할 수 있는 호흡 측정 장치를 제공하는 것을 목적으로 한다.In addition, it is an object of the present invention to provide a respiratory measurement device that can more efficiently measure the characteristics related to the respiratory rate and inhalation exhalation using a U net-based CNN.

본 발명의 해결 과제들은 이상에서 언급한 내용들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The solving problems of the present invention are not limited to the above-mentioned contents, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에서, 초음파를 이용한 호흡 측정 장치에 있어서, 초음파 신호를 송신하고, 사용자로부터 반사된 초음파 신호를 수신하도록 구성된 초음파 송수신기; 상기 초음파 송수신기에서 송신된 초음파 신호와 반사되어 수신된 초음파 신호의 상관 관계(correlation)와 관련된 상관 관계 이미지를 획득하도록 구성된 이미지 획득부; 상기 상관 관계 이미지를 이미지 세그멘테이션(image segmentation) 처리하도록 구성된 이미지 세그멘테이션 처리부; 및 상기 이미지 세그멘테이션을 통해 얻은 내부 정보를 이용하여 호흡을 측정하도록 구성된 호흡 측정부를 포함하는 호흡 측정 장치를 제공할 수 있다.In one embodiment of the present invention, an apparatus for measuring respiration using ultrasound, comprising: an ultrasound transceiver configured to transmit ultrasound signals and receive ultrasound signals reflected from a user; An image acquiring unit configured to acquire a correlation image related to correlation between the ultrasonic signal transmitted from the ultrasonic transceiver and the ultrasonic signal reflected and received; An image segmentation processing unit configured to process the correlation image by image segmentation; And a respiratory measuring unit configured to measure breathing using internal information obtained through the image segmentation.

여기서, 상기 이미지 세그멘테이션은 CNN(Convolutional Neural Network)을 이용할 수 있다. Here, the image segmentation may use a convolutional neural network (CNN).

또한, 상기 호흡 측정부는 상기 내부 정보 및 미리 알려진 예상 범위와 관련된 외부 정보를 이용하여 호흡 속도(respiration rate)를 측정하는 호흡 속도 측정부 및 들숨 날숨을 판단하기 위한 들숨 날숨 판단부를 포함할 수 있다.Also, the respiration measurement unit may include a respiration rate measurement unit for measuring a respiration rate by using the internal information and external information related to a previously-known expected range, and an inhalation exhalation determination unit for determining an inhalation exhalation.

또한, 상기 내부 정보는 상기 이미지 세그멘테이션에 의한 적어도 일부 세그먼트의 기울기 및 세기(intensity)를 포함할 수 있다.Further, the internal information may include the slope and intensity of at least some segments due to the image segmentation.

또한, 상기 이미지 세그멘테이션 처리부는 손실 함수(loss function)의 값을 이용하여 학습되며, 상기 손실 함수는 이미지 세그멘테이션과 관련된 값 및 들숨 날숨 판단과 관련된 값에 기초할 수 있다.In addition, the image segmentation processing unit is learned by using a value of a loss function, and the loss function may be based on a value related to image segmentation and a value related to inhalation determination.

본 발명의 다른 실시예에서, 초음파를 이용한 호흡 측정 방법에 있어서, 초음파 송수신기에서 사용자로부터 반사된 초음파 신호를 수신하는 단계; 이미지 획득부에 의해, 상기 초음파 송수신기에서 송신된 초음파 신호와 반사되어 수신된 초음파 신호의 상관 관계(correlation)와 관련된 상관 관계 이미지를 획득하는 단계; 이미지 세그멘테이션 처리부에 의해, 상기 상관 관계 이미지를 이미지 세그멘테이션(image segmentation) 처리하는 단계; 호흡 측정부에 의해, 상기 이미지 세그멘테이션을 통해 얻은 내부 정보를 이용하여 호흡을 측정하는 단계를 포함하는 호흡 측정 방법을 제공할 수 있다.In another embodiment of the present invention, a method for measuring respiration using ultrasound, comprising: receiving an ultrasound signal reflected from a user in an ultrasound transceiver; Obtaining, by the image acquisition unit, a correlation image related to a correlation between the ultrasonic signal transmitted from the ultrasonic transceiver and the ultrasonic signal reflected and received; An image segmentation process of the correlation image by the image segmentation processing unit; By the respiratory measurement unit, it is possible to provide a respiratory measurement method comprising the step of measuring respiration using internal information obtained through the image segmentation.

여기서, 상기 이미지 세그멘테이션은 CNN(Convolutional Neural Network)을 이용할 수 있다.Here, the image segmentation may use a convolutional neural network (CNN).

또한, 상기 호흡을 측정하는 단계는 상기 내부 정보 및 미리 알려진 예상 범위와 관련된 외부 정보를 이용하여 호흡 속도(respiration rate)를 측정하는 단계를 포함할 수 있다.In addition, the step of measuring the respiration may include measuring a respiration rate using the internal information and external information related to a previously known expected range.

또한, 상기 내부 정보는 상기 이미지 세그멘테이션에 의한 적어도 일부 세그먼트의 기울기 및 세기(intensity)를 포함할 수 있다.Further, the internal information may include the slope and intensity of at least some segments due to the image segmentation.

또한, 상기 이미지 세그멘테이션 처리부는 손실 함수(loss function)의 값을 이용하여 학습되며, 상기 손실 함수는 이미지 세그멘테이션과 관련된 값 및 들숨 날숨 판단과 관련된 값에 기초할 수 있다.In addition, the image segmentation processing unit is learned by using a value of a loss function, and the loss function may be based on a value related to image segmentation and a value related to inhalation determination.

본 발명에 의하면, 이미지 세그멘테이션에 기초하여 초음파를 이용한 호흡 측정 방법 및 이를 위한 장치를 제공할 수 있다.According to the present invention, it is possible to provide a method for measuring breathing using ultrasound and an apparatus therefor based on image segmentation.

또한, 본 발명에 의하면, 초음파 신호의 상관 관계 이미지와 CNN(Convolutional Neural Network)을 이용하여 이미지 세그멘테이션 처리를 통해 호흡 속도(respiration rate) 및 들숨 날숨을 판단 및 측정할 수 있다.In addition, according to the present invention, it is possible to determine and measure respiration rate and inspiration exhalation through image segmentation processing using a correlation image of an ultrasound signal and a convolutional neural network (CNN).

또한, 본 발명에 의하면, 유 넷(u net) 기반의 CNN을 이용하여 호흡 속도와 들숨 날숨과 관련된 특징들을 보다 효율적으로 측정할 수 있는 호흡 측정 장치를 제공할 수 있다.In addition, according to the present invention, it is possible to provide a respiratory measuring apparatus capable of more efficiently measuring characteristics related to respiratory rate and exhalation by using U net-based CNN.

본 발명의 효과들은 이상에서 언급한 내용들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the contents mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 초음파 송수신기의 초음파 송신 신호와 초음파 수신 신호의 상관 관계 이미지이다.
도 2는 본 발명의 일 실시예에 따른 초음파를 이용한 호흡 측정 장치의 구성을 설명하기 위한 개념도이다.
도 3은 본 발명의 일 실시예에 따른 초음파를 이용한 호흡 측정 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 초음파를 이용한 호흡 측정 방법을 설명하기 위한 흐름도이다.
도 5a는 유 넷(u net)의 아키텍쳐 및 동작을 설명하기 위한 개념도이며, 도 5b는 유 넷(u net)으로 세그멘테이션 처리한 의료 영상을 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 이미지 세그멘테이션의 결과를 나타내는 도면이다.
1 is a correlation image of an ultrasonic transmission signal and an ultrasonic reception signal of an ultrasonic transceiver.
Figure 2 is a conceptual diagram for explaining the configuration of a respiratory measuring apparatus using ultrasound according to an embodiment of the present invention.
3 is a flowchart illustrating a method of measuring breathing using ultrasound according to an embodiment of the present invention.
4 is a flowchart illustrating a method of measuring breathing using ultrasound according to an embodiment of the present invention.
5A is a conceptual diagram for explaining the architecture and operation of u net, and FIG. 5b is a diagram showing a medical image segmented by u net.
6 is a diagram showing the results of image segmentation according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains can easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, the singular form also includes the plural form unless otherwise specified in the phrase.

본 명세서에서 사용되는 "포함한다(comprises)", "포함하는(comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. As used herein, “comprises,” “comprising,” refers to the components, steps, operations, and / or elements mentioned, or the presence of one or more other components, steps, operations, and / or elements, or Addition is not excluded.

또한, 본 발명에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 이와 같은 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Further, terms including ordinal numbers such as first and second used in the present invention may be used to describe elements, but the elements should not be limited by terms. These terms are only used to distinguish one component from other components. In addition, in the description of the present invention, when it is determined that detailed descriptions of related known technologies may obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.

또한, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 기술되고, 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있다. 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리 범위에 포함된다.In addition, the components shown in the embodiments of the present invention are shown independently to indicate different characteristic functions, and do not mean that each component is composed of separate hardware or one software component. That is, for convenience of description, each component is listed as each component, and at least two components of each component may be combined to form one component, or one component may be divided into a plurality of components to perform a function. The integrated and separated embodiments of each of these components are also included in the scope of the present invention without departing from the essence of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다. 본 발명의 구성 및 그에 따른 작용 효과는 이하의 상세한 설명을 통해 명확하게 이해될 것이다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. The configuration of the present invention and the effect of the action will be clearly understood through the following detailed description.

도 1은 초음파 송수신기의 초음파 송신 신호와 초음파 수신 신호의 상관 관계 이미지이다.1 is a correlation image of an ultrasonic transmission signal and an ultrasonic reception signal of an ultrasonic transceiver.

초음파 송수신기는 초음파 신호를 송신하기 위한 송신기(transmitter) 및 송신된 신호가 사용자 등으로부터 반사된 반사파를 수신하기 위한 수신기(receiver)를 포함할 수 있다. 이와 같이 송신기에서 송신된 초음파 신호 및 수신기에서 수신된 초음파 신호의 상관 관계(correlation)와 관련된 정보에 기초하여 도 1에서와 같은 상관 관계 이미지를 얻을 수 있다.The ultrasonic transceiver may include a transmitter for transmitting ultrasonic signals and a receiver for receiving reflected waves from which the transmitted signal is reflected from a user. As described above, a correlation image as shown in FIG. 1 may be obtained based on information related to correlation between the ultrasonic signal transmitted from the transmitter and the ultrasonic signal received from the receiver.

도 1에서 가로축은 시간(t)이며, 세로축은 송신 신호와 수신 신호 사이의 지연 시간(delay)(τ)을 의미한다. 도 1에서 도시된 상관 관계 이미지에서와 같이 송수신기에서 입출력된 초음파 신호의 값에 대한 상관 관계를 도시화할 수 있으며, 사용자의 호흡에 의한 상관 관계 패턴 이외 에도 다양한 잡음(noise)에 의한 상관 관계 패턴이 나타날 수 있기 때문에 사용자의 호흡에 의한 상관 관계 패턴을 찾기가 용이하지 않다.In FIG. 1, the horizontal axis represents time (t), and the vertical axis represents the delay time (τ) between the transmission signal and the reception signal. As in the correlation image shown in FIG. 1, a correlation with respect to the value of the ultrasonic signal input / output from the transceiver can be illustrated, and in addition to the correlation pattern due to the user's breath, various correlation patterns due to noise are also provided. Since it may appear, it is not easy to find a correlation pattern by the user's breath.

따라서, 호흡 속도, 호흡 주기, 들숨 날숨의 호흡 패턴을 보다 효율적이고 정확하게 찾기 위해, 도 1에서와 같은 상관 관계 이미지에 이미지 세그멘테이션(image segmentation) 기법을 활용하여 몸의 움직임을 파악하고, 그로부터 호흡을 측정할 수 있을 것이다.Therefore, in order to more efficiently and accurately find the breathing pattern of the breathing rate, the breathing cycle, and the inhalation, the motion of the body is grasped using the image segmentation technique on the correlation image as shown in FIG. It will be measurable.

도 2는 본 발명의 일 실시예에 따른 초음파를 이용한 호흡 측정 장치의 구성을 설명하기 위한 개념도이다.Figure 2 is a conceptual diagram for explaining the configuration of a respiratory measuring apparatus using ultrasound according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 초음파를 이용한 호흡 측정 장치(100)는 초음파 송수신기(110), 이미지 획득부(120), 이미지 세그멘테이션 처리부(130) 및 호흡 측정부(140)을 포함할 수 있다.The apparatus 100 for measuring breathing using ultrasound according to an embodiment of the present invention may include an ultrasound transceiver 110, an image acquiring unit 120, an image segmentation processing unit 130, and a breathing measuring unit 140.

초음파 송수신기(110)는 초음파 신호를 발생시켜 송신하고, 사용자 등으로부터 반사된 초음파 신호를 수신하도록 구성될 수 있다.The ultrasonic transceiver 110 may be configured to generate and transmit ultrasonic signals, and to receive ultrasonic signals reflected from a user.

이미지 획득부(120)는 초음파 송수신기에서 송신된 초음파 신호와 반사되어 수신된 초음파 신호의 상관 관계(correlation)와 관련된 상관 관계 이미지를 획득하도록 구성될 수 있다. 이와 같이 이미지 획득부(120)에서 생성한 상관 관계 이미지는 도 1에서와 같이 시간축과 지연 시간(delay)에 기초하여 생성될 수 있으며, 이와 같은 상관 관계 이미지로부터 호흡 패턴을 구할 수 있다. 이는 사람의 호흡 시에 예컨대 들숨 시에 배가 나옴으로써 초음파 신호의 왕복 이동 거리가 짧아지고 날숨 시에 배가 들어감으로써 초음파 신호의 왕복 이동 거리가 길어짐으로써 송신된 시점으로부터 반사된 신호의 도달 시간까지의 지연 시간의 주기적인 패턴 변화가 발생하기 때문이다.The image acquiring unit 120 may be configured to acquire a correlation image related to correlation between the ultrasonic signal transmitted from the ultrasonic transceiver and the ultrasonic signal reflected and received. As described above, the correlation image generated by the image acquisition unit 120 may be generated based on a time axis and a delay time as shown in FIG. 1, and a breathing pattern may be obtained from the correlation image. This is a delay from the time of transmission to the time of arrival of the reflected signal, as the reciprocation distance of the ultrasonic signal becomes shorter due to the abdomen when exhaling, for example, when the person breathes, and the reciprocation distance of the ultrasonic signal increases as the belly enters upon exhalation. This is because periodic pattern changes in time occur.

이미지 세그멘테이션 처리부(130)는 획득한 상관 관계 이미지를 이미지 세그멘테이션(image segmentation) 처리하도록 구성될 수 있다. 여기서, 이미지 세그멘테이션은 딥 러닝 기술 중 이미지 분석에 적용가능한 CNN(Convolutional Neural Network, 합성곱 신경망)을 이용할 수 있다. 또한, 예컨대 CNN 딥 러닝 알고리즘 중에서 의료 영상과 같은 복잡한 패턴을 가진 영상 분석에 적합한 유 넷(u net)을 이용할 수 있다. 유 넷(u net)의 구성 및 효과에 대한 보다 자세한 설명은 도 5를 참조하여 후술할 것이다.The image segmentation processing unit 130 may be configured to process the obtained correlation image by image segmentation. Here, the image segmentation may use a convolutional neural network (CNN) applicable to image analysis among deep learning technologies. In addition, among the CNN deep learning algorithms, a u net suitable for image analysis having a complex pattern such as a medical image may be used. A more detailed description of the configuration and effect of u net will be described later with reference to FIG. 5.

이미지 세그멘테이션 처리부(130)의 이미지 세그멘테이션 처리를 통해서 호흡 패턴과 관련된 세그멘트(segment) 조각의 기울기 및 세기(intensity) 값이 측정될 수 있다. 이와 같이 상관 관계 이미지로부터 이미지 세그멘테이션 처리로 인해 얻은 세그멘트의 기울기 및 세기 정보를 내부 정보로 칭할 수 있다.Through the image segmentation processing of the image segmentation processing unit 130, the slope and intensity values of the segment pieces related to the breathing pattern may be measured. As described above, the slope and intensity information of the segment obtained by the image segmentation process from the correlation image may be referred to as internal information.

이미지 세그멘테이션 처리부(130)는 손실 함수(loss function)의 값을 가장 작게 하도록 학습되며, 손실 함수는 이미지 세그멘테이션과 관련되어 설정된 값에 기초할 수 있으며, 이를 통해 이미지 세그멘테이션을 학습할 수 있다.The image segmentation processing unit 130 is trained to minimize the value of the loss function, and the loss function may be based on a value set in relation to the image segmentation, thereby learning the image segmentation.

호흡 측정부(140)는 이미지 세그멘테이션 처리부(130)에서 이미지 세그멘테이션을 통해 얻은 세그먼트의 기울기 및 세기 등의 내부 정보를 이용하여 호흡 속도(respiration rate)를 측정하고, 이를 통해 들숨 날숨의 호흡 패턴을 측정하도록 구성될 수 있다.The respiration measurement unit 140 measures the respiration rate using the internal information such as the slope and intensity of the segment obtained through the image segmentation in the image segmentation processing unit 130, and thereby measures the respiration pattern of inhalation and exhalation It can be configured to.

또한, 호흡 측정부(140)는 위의 내부 정보 및 미리 알려진 예상 범위, 예컨대 일반인의 호흡 속도 및 주기와 관련된 정보, 들숨 날숨의 패턴과 관련된 정보, 해당 사용자의 호흡 패턴과 관련된 정보 등과 관련된 외부 정보를 이용하여 보다 정확하고 효율적으로 호흡을 측정할 수 있다. In addition, the respiration measurement unit 140 is external information related to the above internal information and a known and predicted range, for example, information related to the respiratory rate and period of the general public, information related to the pattern of inhalation and exhalation, information related to the user's respiratory pattern, and the like. You can measure breathing more accurately and efficiently.

일 예로 호흡 측정부(140)는 내부 정보 및 외부 정도 등을 활용하여 호흡 속도를 측정하는 호흡 속도 측정부(141) 및 들숨 날숨을 판단하기 위한 들숨 날숨 판단부(142)를 포함할 수 있다.For example, the respiratory measurement unit 140 may include a respiratory rate measurement unit 141 for measuring a respiratory rate using internal information and external degree, and an inhalation exhalation determination unit 142 for determining an inhalation exhalation.

다른 예로서, 이미지 세그멘테이션 처리부(130)에서 이미지 세그멘테이션 처리뿐만 아니라 이에 기초하여 들숨 날숨을 판단하도록 학습되어 엔트투엔드(end-to-end) 학습 방식을 활용할 수 있다. 이와 같은 경우 이미지 세그멘테이션 처리부(130)의 손실 함수(loss function)는 이미지 세그멘테이션과 관련된 값 및 들숨 날숨 판단과 관련된 값에 기초하여, 예컨대 이미지 세그멘테이션 판단의 손실(loss)과 관련된 값과 들숨 날숨 판단의 손실(loss)과 관련된 값의 합이 최소화되도록 학습할 수 있다.As another example, the image segmentation processing unit 130 may be trained to determine inhalation and exhalation based on this as well as image segmentation processing, so that an end-to-end learning method may be utilized. In this case, the loss function of the image segmentation processing unit 130 is based on a value related to the image segmentation and a value related to the inhalation exhalation determination, for example, a value related to the loss of the image segmentation determination and an inhalation exhalation determination. You can learn to minimize the sum of the values associated with loss.

본 발명의 일 실시예는 이와 같은 구성을 통해 초음파 신호의 상관 관계 이미지와 CNN(Convolutional Neural Network)을 이용하여 이미지 세그멘테이션 처리를 통해 호흡 속도(respiration rate) 및 들숨 날숨을 보다 효과적으로 자동화하여 판단 및 측정할 수 있다. 또한, 의료 영상 분석에 적합한 유 넷(u net) 기반의 CNN을 이용하여 호흡 속도와 들숨 날숨과 관련된 특징들을 보다 효율적으로 측정할 수 있는 호흡 측정 장치를 제공할 수 있다.According to an embodiment of the present invention, through this configuration, the correlation rate of the ultrasound signal and the image segmentation process using a convolutional neural network (CNN) are used to more effectively automate respiration rate and inhalation exhalation to determine and measure can do. In addition, it is possible to provide a respiratory measuring apparatus capable of more efficiently measuring respiratory rate and inspiration exhalation characteristics using a U net-based CNN suitable for medical image analysis.

도 3은 본 발명의 일 실시예에 따른 초음파를 이용한 호흡 측정 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method of measuring breathing using ultrasound according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 초음파를 이용한 호흡 측정 방법은 초음파 송수신기(110)에서 사용자로부터 반사된 초음파 신호를 수신하는 단계를 포함한다.(S310)A method of measuring breathing using ultrasound according to an embodiment of the present invention includes receiving an ultrasound signal reflected from a user at the ultrasound transceiver 110 (S310).

다음으로, 이미지 획득부(120)에 의해, 초음파 송수신기에서 송신된 초음파 신호와 반사되어 수신된 초음파 신호의 상관 관계(correlation)와 관련된 상관 관계 이미지를 획득할 수 있다.(S320)Next, by the image acquisition unit 120, it is possible to obtain a correlation image related to correlation between the ultrasonic signal transmitted from the ultrasonic transceiver and the received ultrasonic signal. (S320)

다음으로, 이미지 세그멘테이션 처리부(130)에 의해, 이미지 획득부(120)에 의해 획득한 상관 관계 이미지를 이미지 세그멘테이션(image segmentation) 처리할 수 있다.(S330) 여기서, 이미지 세그멘테이션은 CNN(Convolutional Neural Network) 중 복잡한 의료 영상 분석에 적합한 유 넷(u net) 등을 이용한 이미지 분석 기법을 활용할 수 있다.Next, the image segmentation processing of the correlation image obtained by the image acquisition unit 120 may be performed by the image segmentation processing unit 130. (S330) Here, the image segmentation is CNN (Convolutional Neural Network). ), An image analysis technique using u net suitable for complex medical image analysis may be used.

다음으로 호흡 측정부(140)에 의해, 이미지 세그멘테이션을 통해 얻은 내부 정보 및 미리 알려진 외부 정보를 이용할 수 있으며(S340), 이를 통해 사용자의 호흡 속도 및 주기 등을 측정할 수 있다.(S350) 여기서, 내부 정보는 이미지 세그멘테이션에 의한 적어도 일부 세그먼트의 기울기 및 세기(intensity)를 포함하며, 외부 정보는 사용자의 호흡 속도 및 주기와 관련된 정보, 들숨 날숨의 패턴과 관련된 미리 알려진 정보 등을 포함할 수 있다.Next, the respiratory measurement unit 140 may use internal information and previously known external information obtained through image segmentation (S340), through which the user's respiratory rate and cycle may be measured. (S350) , The internal information includes the slope and intensity of at least some segments by image segmentation, and the external information may include information related to a user's breathing speed and period, and information related to a pattern of exhalation and exhalation. .

또한, 사용자의 호흡과 관련하여 들숨 날숨 등을 판단하여 호흡 패턴을 측정할 수 있다.(S360)In addition, it is possible to measure the breathing pattern by determining inhalation, exhalation, etc. in relation to the user's breathing. (S360)

도 4는 본 발명의 일 실시예에 따른 초음파를 이용한 호흡 측정 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a method of measuring breathing using ultrasound according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 초음파를 이용한 호흡 측정 방법은 초음파 송수신기(110)에서 사용자로부터 반사된 초음파 신호를 수신하는 단계를 포함한다.(S410)The method for measuring respiration using ultrasound according to an embodiment of the present invention includes receiving an ultrasound signal reflected from a user at the ultrasound transceiver 110 (S410).

다음으로, 이미지 획득부(120)에 의해, 초음파 송수신기에서 송신된 초음파 신호와 반사되어 수신된 초음파 신호의 상관 관계(correlation)와 관련된 상관 관계 이미지를 획득할 수 있다.(S420)Next, by the image acquisition unit 120, a correlation image related to correlation between the ultrasound signal transmitted from the ultrasound transceiver and the received ultrasound signal may be obtained (S420).

다음으로, 이미지 세그멘테이션 처리부(130)에 의해, 이미지 획득부(120)에 의해 획득한 상관 관계 이미지를 이미지 세그멘테이션(image segmentation) 처리할 수 있다.(S430) 여기서, 이미지 세그멘테이션은 CNN(Convolutional Neural Network) 중 하나인 유 넷(u net) 등을 이용한 이미지 분석 기법을 활용할 수 있다.Next, the image segmentation processing of the correlation image obtained by the image acquisition unit 120 may be performed by the image segmentation processing unit 130. (S430) Here, the image segmentation is CNN (Convolutional Neural Network). ), You can use an image analysis technique using u net.

또한, 이미지 세그멘테이션 처리부(130)는 이미지 세그멘테이션 처리뿐만 아니라 이에 기초하여 들숨 날숨을 판단하도록 학습되어 엔트투엔드(end-to-end) 학습 방식으로 훈련될 수 있다. 이와 같은 경우 이미지 세그멘테이션 처리부(130)의 손실 함수(loss function)는 이미지 세그멘테이션과 관련된 값 및 들숨 날숨 판단과 관련된 값에 기초하여, 예컨대 손실 함수의 값이 최소화되도록 학습될 수 있다.In addition, the image segmentation processing unit 130 may be trained in an end-to-end learning method by learning not only image segmentation processing but also learning to determine inhalation and exhalation based thereon. In this case, the loss function of the image segmentation processing unit 130 may be learned to minimize, for example, the value of the loss function based on a value related to image segmentation and a value related to inhalation determination.

이와 같은 학습 결과에 따라 사용자의 호흡과 관련하여 들숨 날숨 등을 판단하여 호흡 패턴을 측정할 수 있다.(S440)According to the learning result, it is possible to measure the breathing pattern by determining inhalation and exhalation in relation to the user's breathing. (S440)

도 5a는 유 넷(u net)의 아키텍쳐 및 동작을 설명하기 위한 개념도이다.5A is a conceptual diagram for explaining the architecture and operation of u net.

이미지 세그멘테이션 관련하여 다양한 방법이 있지만 복잡한 패턴을 가지는 의료 영상에 적합한 유 넷(u net)을 이용할 수 있다.There are various methods related to image segmentation, but u nets suitable for medical images having complex patterns can be used.

도 5a를 참조하면, 유 넷 아키텍쳐는 conv(convolution, 컨볼루션), 액티베이션(acrivation) 함수 중 하나인 ReLU(Rectified linear unit), max pool(max pooling, 맥스 풀링), up-conv(up convolution, 업 컨볼루션)로 구성되어 있으며, 이것을 조합을 해서 상세한 특징(feature)를 만들어 내는 인코더(encoder) 부분과 특징(feature)를 조합해서 이미지를 만들어 내는 디코더(decoder) 부분으로 구성될 수 있다. Referring to FIG. 5A, the Unet architecture includes conv (convolution), one of the activation functions, ReLU (Rectified linear unit), max pool (max pooling), and up-conv (up convolution). Up Convolution), and it can be composed of an encoder part that combines them to create detailed features and a decoder part that creates images by combining features.

도 5b는 유 넷(u net)으로 세그멘테이션 처리한 의료 영상을 나타내는 도면이다.5B is a view showing a medical image segmented by u net.

위와 같은 구조를 가진 유 넷은 의료 영상의 분석에서 많이 사용되며, 도 6b는 유 넷으로 세그멘테이션한 의료영상을 나타내며, 이와 같이 같이 복잡한 패턴을 가진 의료 영상들의 세그멘테이션 처리에 좋은 효과를 낼 수 있다.The U-net having the above structure is frequently used in the analysis of medical images, and FIG. 6B shows the medical image segmented into the U-net, and thus can have a good effect on the segmentation processing of the medical images having such a complex pattern.

도 6은 본 발명의 일 실시예에 따른 이미지 세그멘테이션의 결과를 나타내는 도면이다.6 is a diagram showing the results of image segmentation according to an embodiment of the present invention.

도 6을 참조하면 들숨(610)과 날숨(620)의 패턴이 명확히 구분되고 있으며, 예컨대 기울기가 발생하는 세그먼트(611)에서 세그멘트의 기울기 및 세기를 측정할 수 있다. 또한, 들숨 날숨 판단 학습에 의해 들숨 날숨을 판단하여 호흡 패턴을 자동으로 측정할 수 있다.Referring to FIG. 6, the patterns of the inhalation 610 and the exhalation 620 are clearly divided, and for example, the inclination and intensity of the segment can be measured in the segment 611 where the inclination occurs. In addition, it is possible to automatically determine the breathing pattern by determining the inhalation exhalation by learning the inhalation exhalation determination.

종래 기술에 의하면, 도 1에서와 같은 상관 관계 이미지에서 호흡 특징(feature)를 메뉴얼(manual)하게 수동으로 찾아야 한다. 그러나, 본 발명에서와 같이 CNN을 이용한 이미지 세그멘테이션 처리를 이용한다면 이와 같은 호흡 속도 및 패턴과 관련된 특징(feature)들을 자동으로 보다 빠르고 효과적으로 찾을 수 있다.According to the prior art, it is necessary to manually find the breathing feature manually in the correlation image as shown in FIG. 1. However, if the image segmentation process using CNN is used as in the present invention, it is possible to automatically and quickly find features related to such a breathing rate and pattern.

발명의 명세서에 개시된 실시예들은 예시에 불과한 것으로서, 본 발명은 이에 한정되지 않는 것이다. 본 발명의 범위는 아래의 특허청구범위에 의해 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술도 본 발명의 범위에 포함되는 것으로 해석해야 할 것이다.The embodiments disclosed in the specification of the invention are only examples, and the present invention is not limited thereto. The scope of the present invention should be interpreted by the following claims, and all technologies within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

100: 초음파 호흡 측정기
110: 초음파 송수신기
120: 이미지 획득부
130: 이미지 세그멘테이션 처리부
140: 호흡 측정부
141: 호흡 속도 측정부
142: 들숨 날숨 판단부
100: ultrasonic breathing meter
110: ultrasonic transceiver
120: image acquisition unit
130: image segmentation processing unit
140: breath measurement unit
141: respiratory rate measuring unit
142: exhalation exhalation judgment

Claims (10)

초음파를 이용한 호흡 측정 장치에 있어서,
초음파 신호를 송신하고, 사용자로부터 반사된 초음파 신호를 수신하도록 구성된 초음파 송수신기;
상기 초음파 송수신기에서 송신된 초음파 신호와 반사되어 수신된 초음파 신호의 상관 관계(correlation)와 관련된 상관 관계 이미지를 획득하도록 구성된 이미지 획득부;
상기 상관 관계 이미지를 이미지 세그멘테이션(image segmentation) 처리하도록 구성된 이미지 세그멘테이션 처리부; 및
상기 이미지 세그멘테이션을 통해 얻은 내부 정보를 이용하여 호흡을 측정하도록 구성된 호흡 측정부를 포함하고,
상기 호흡 측정부는 상기 내부 정보 및 미리 알려진 예상 범위와 관련된 외부 정보를 이용하여 호흡 속도(respiration rate)를 측정하는 호흡 속도 측정부 및 들숨 날숨을 판단하기 위한 들숨 날숨 판단부를 포함하는 것인, 호흡 측정 장치.
In the respiratory measuring apparatus using ultrasound,
An ultrasonic transceiver configured to transmit ultrasonic signals and receive ultrasonic signals reflected from a user;
An image acquiring unit configured to acquire a correlation image related to correlation between the ultrasonic signal transmitted from the ultrasonic transceiver and the ultrasonic signal reflected and received;
An image segmentation processing unit configured to process the correlation image by image segmentation; And
It includes a breath measuring unit configured to measure the breath using the internal information obtained through the image segmentation,
The respiration measurement unit includes a respiration rate measurement unit for measuring a respiration rate using the internal information and external information related to a predetermined expected range, and an inhalation exhalation determination unit for determining inhalation exhalation. Device.
제1항에 있어서, 상기 이미지 세그멘테이션은 CNN(Convolutional Neural Network)을 이용하는 것인, 호흡 측정 장치.
The respiratory measurement apparatus of claim 1, wherein the image segmentation uses a convolutional neural network (CNN).
삭제delete 제1항에 있어서, 상기 내부 정보는 상기 이미지 세그멘테이션에 의한 적어도 일부 세그먼트의 기울기 및 세기(intensity)를 포함하는 것인, 호흡 측정 장치.
The respiratory measurement apparatus of claim 1, wherein the internal information includes a slope and an intensity of at least some segments by the image segmentation.
제1항에 있어서, 상기 이미지 세그멘테이션 처리부는 손실 함수(loss function)의 값을 이용하여 학습되며, 상기 손실 함수는 이미지 세그멘테이션과 관련된 값 및 들숨 날숨 판단과 관련된 값에 기초하는 것인, 호흡 측정 장치.
The apparatus of claim 1, wherein the image segmentation processing unit is learned using a value of a loss function, and the loss function is based on a value related to image segmentation and a value related to inhalation determination. .
초음파를 이용한 호흡 측정 방법에 있어서,
초음파 송수신기에서 사용자로부터 반사된 초음파 신호를 수신하는 단계;
이미지 획득부에 의해, 상기 초음파 송수신기에서 송신된 초음파 신호와 반사되어 수신된 초음파 신호의 상관 관계(correlation)와 관련된 상관 관계 이미지를 획득하는 단계;
이미지 세그멘테이션 처리부에 의해, 상기 상관 관계 이미지를 이미지 세그멘테이션(image segmentation) 처리하는 단계; 및
호흡 측정부에 의해, 상기 이미지 세그멘테이션을 통해 얻은 내부 정보를 이용하여 호흡을 측정하는 단계를 포함하고,
상기 호흡을 측정하는 단계는 상기 내부 정보 및 미리 알려진 예상 범위와 관련된 외부 정보를 이용하여 호흡 속도(respiration rate)를 측정하는 단계를 포함하는 것인, 호흡 측정 방법.
In the respiratory measurement method using ultrasound,
Receiving an ultrasonic signal reflected from a user at the ultrasonic transceiver;
Obtaining, by the image acquisition unit, a correlation image related to a correlation between the ultrasonic signal transmitted from the ultrasonic transceiver and the ultrasonic signal reflected and received;
An image segmentation process of the correlation image by the image segmentation processing unit; And
And measuring, by a breathing measurement unit, breathing using internal information obtained through the image segmentation.
The measuring of respiration includes measuring a respiration rate by using the internal information and external information related to a previously known expected range.
제6항에 있어서, 상기 이미지 세그멘테이션은 CNN(Convolutional Neural Network)을 이용하는 것인, 호흡 측정 방법.
The method of claim 6, wherein the image segmentation uses a convolutional neural network (CNN).
삭제delete 제6항에 있어서, 상기 내부 정보는 상기 이미지 세그멘테이션에 의한 적어도 일부 세그먼트의 기울기 및 세기(intensity)를 포함하는 것인, 호흡 측정 방법.
The method of claim 6, wherein the internal information includes slope and intensity of at least some segments due to the image segmentation.
제6항에 있어서, 상기 이미지 세그멘테이션 처리부는 손실 함수(loss function)의 값을 이용하여 학습되며, 상기 손실 함수는 이미지 세그멘테이션과 관련된 값 및 들숨 날숨 판단과 관련된 값에 기초하는 것인, 호흡 측정 방법.
The method of claim 6, wherein the image segmentation processing unit is learned using a value of a loss function, and the loss function is based on a value related to image segmentation and a value related to inhalation and exhalation determination. .
KR1020180088526A 2018-07-30 2018-07-30 Method for respiration measurement using ultrasonic wave based on image segmentation and device for the same KR102108630B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180088526A KR102108630B1 (en) 2018-07-30 2018-07-30 Method for respiration measurement using ultrasonic wave based on image segmentation and device for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180088526A KR102108630B1 (en) 2018-07-30 2018-07-30 Method for respiration measurement using ultrasonic wave based on image segmentation and device for the same

Publications (2)

Publication Number Publication Date
KR20200013380A KR20200013380A (en) 2020-02-07
KR102108630B1 true KR102108630B1 (en) 2020-05-07

Family

ID=69570007

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180088526A KR102108630B1 (en) 2018-07-30 2018-07-30 Method for respiration measurement using ultrasonic wave based on image segmentation and device for the same

Country Status (1)

Country Link
KR (1) KR102108630B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023275163A1 (en) * 2021-06-30 2023-01-05 Koninklijke Philips N.V. Breathing pattern extraction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004174219A (en) 2002-10-01 2004-06-24 Japan Science & Technology Agency Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method
JP2010158517A (en) 2008-12-11 2010-07-22 Hokushin Electronics:Kk Ultrasonic body monitor
US20150094606A1 (en) * 2013-10-02 2015-04-02 Xerox Corporation Breathing pattern identification for respiratory function assessment
KR101857624B1 (en) 2017-08-21 2018-05-14 동국대학교 산학협력단 Medical diagnosis method applied clinical information and apparatus using the same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101145646B1 (en) 2010-06-25 2012-05-24 한국생산기술연구원 Device and Method for Measuring biological signal of noncontact
KR101070389B1 (en) 2010-12-30 2011-10-06 김용중 System for monitoring patient condition
KR101887438B1 (en) * 2016-07-20 2018-09-06 현대오트론 주식회사 Apparatus and method for deciding tire deflation
KR101881397B1 (en) * 2016-12-09 2018-07-24 주식회사 모두의연구소 Device for integral respiration measurement and method for the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004174219A (en) 2002-10-01 2004-06-24 Japan Science & Technology Agency Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method
JP2010158517A (en) 2008-12-11 2010-07-22 Hokushin Electronics:Kk Ultrasonic body monitor
US20150094606A1 (en) * 2013-10-02 2015-04-02 Xerox Corporation Breathing pattern identification for respiratory function assessment
KR101857624B1 (en) 2017-08-21 2018-05-14 동국대학교 산학협력단 Medical diagnosis method applied clinical information and apparatus using the same

Also Published As

Publication number Publication date
KR20200013380A (en) 2020-02-07

Similar Documents

Publication Publication Date Title
RU2663175C2 (en) Device for obtaining respiratory information of patient
CN103717124B (en) For obtaining and process the apparatus and method for of the survey measurements of biology
EP3373804B1 (en) Device, system and method for sensor position guidance
JP5628520B2 (en) Cardiopulmonary parameter monitoring system
WO2019169864A1 (en) Csi signal in wi-fi-based human body movement and respiration detection method and system
US11779231B2 (en) Multiple source-detector pair photoplethysmography (PPG) sensor
US10524725B2 (en) Device, system and method for detecting apnoea of a subject
CN105792734A (en) Improved signal selection for obtaining a remote photoplethysmographic waveform
CN105190691A (en) Device for obtaining a vital sign of a subject
CN107928674B (en) Non-contact type respiration detection method based on acoustic ranging
US20200121214A1 (en) Systems and methods for detecting physiological information using multi-modal sensors
EP2962282B1 (en) Apparatus and method for detecting subjects on the basis of vital signs
KR102108630B1 (en) Method for respiration measurement using ultrasonic wave based on image segmentation and device for the same
KR20150089371A (en) Apparatus for analyzing human motion
CN113456061A (en) Sleep posture monitoring method and system based on wireless signals
CN111685760B (en) Human body respiratory frequency calculation method based on radar measurement
KR101881397B1 (en) Device for integral respiration measurement and method for the same
Chara et al. Respiratory biofeedback using acoustic sensing with smartphones
CN108143404A (en) A kind of measurement heart rate data method and system
JP7388199B2 (en) Biological information collection system, biological information collection method and program
AU2020346386A1 (en) Method for determining respiratory rate
CN116965800A (en) Respiratory state evaluation method based on electrocardiographic data
KR100912539B1 (en) Distance correction system and method using linear regression and smoothing for ambient display
CN113855018A (en) Method for emotion recognition based on continuous wave sound signals

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant