KR20230057489A - Method and apparatus for training a diagnostic module for quantitative analysis of emphysema - Google Patents

Method and apparatus for training a diagnostic module for quantitative analysis of emphysema Download PDF

Info

Publication number
KR20230057489A
KR20230057489A KR1020210133064A KR20210133064A KR20230057489A KR 20230057489 A KR20230057489 A KR 20230057489A KR 1020210133064 A KR1020210133064 A KR 1020210133064A KR 20210133064 A KR20210133064 A KR 20210133064A KR 20230057489 A KR20230057489 A KR 20230057489A
Authority
KR
South Korea
Prior art keywords
medical image
lung region
learning
emphysema
training
Prior art date
Application number
KR1020210133064A
Other languages
Korean (ko)
Inventor
김한석
유영성
스리니바산 기리시
피재우
Original Assignee
주식회사 피맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피맥스 filed Critical 주식회사 피맥스
Priority to KR1020210133064A priority Critical patent/KR20230057489A/en
Publication of KR20230057489A publication Critical patent/KR20230057489A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/468Arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Pulmonology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

The present disclosure relates to a learning method of a diagnostic module for quantitative analysis of emphysema and a device therefor. According to an embodiment of the present disclosure, the method includes the steps of: obtaining at least one training medical image generated corresponding to a continuous volume of a body part including a chest; and using a preprocessing module including at least one learned network function, extracting a lung area from the training medical image, correcting the volume and brightness of the lung area, and preprocessing the training medical image.

Description

폐기종의 정량적 분석을 위한 진단 모듈의 학습 방법 및 이를 위한 장치{METHOD AND APPARATUS FOR TRAINING A DIAGNOSTIC MODULE FOR QUANTITATIVE ANALYSIS OF EMPHYSEMA}Diagnostic module learning method for quantitative analysis of emphysema and device therefor

본 개시(disclosure)의 기술적 사상은 폐기종의 정량적 분석을 위한 진단 모듈의 학습 방법 및 이를 위한 장치에 관한 것이다.The technical idea of the present disclosure relates to a learning method of a diagnostic module for quantitative analysis of emphysema and an apparatus therefor.

컴퓨터 단층촬영(CT, Computed Tomography)은 X선 촬영과 달리 인체를 가로로 자른 횡단면상을 획득한다. CT는 단순 X선 촬영에 비해 구조물이 겹쳐지는 것이 적어 구조물 및 병변을 좀더 명확히 볼 수 있는 장점이 있다. 또한 CT 촬영은 MRI에 비하여 검사비가 싸고, 검사 시간이 짧기 때문에, 대부분의 장기 및 질환에서 병변이 의심되고 정밀검사를 시행해야 할 필요가 있을 때 기본이 되는 검사법이다.Unlike X-ray imaging, computed tomography (CT) obtains a cross-sectional image of the human body cut horizontally. Compared to simple X-ray imaging, CT has the advantage of being able to see structures and lesions more clearly because structures are less overlapped. In addition, CT imaging is a basic examination method when there is a need for precise examination when lesions are suspected in most organs and diseases because the examination cost is cheaper and the examination time is shorter than that of MRI.

최근에는 다중채널 CT(MDCT, multi-detector CT)가 보급되면서 촬영 후 영상을 재구성하여 MRI처럼 원하는 단면상 및 입체적인 3차원(3D) 영상도 자유로이 얻을 수 있게 되었고, CT 촬영영상을 의료기관에서 수집할 수도 있다.Recently, with the spread of multi-channel CT (MDCT, multi-detector CT), images can be reconstructed after imaging to freely obtain desired cross-sectional and three-dimensional (3D) images like MRI, and CT scan images can also be collected at medical institutions. there is.

한편, 만성 폐색성 폐질환(COPD)은 폐 내부의 폐포가 영구적으로 손상되는 여러 임상적 증상을 의미하는 것으로, 대표적으로 폐포를 구성하는 조직이 파괴되어 정상적으로 기능하지 못하는 폐기종(emphysema)이 있다. 최근에는 이러한 폐기종을 정량적으로 진단하기 위해 소프트웨어로 CT 촬영 영상의 명암을 계산하고 특정 명암값 이하의 영역을 폐기종 영역으로 자동/반자동으로 분석하는 기술이 등장하였다.On the other hand, chronic obstructive pulmonary disease (COPD) refers to various clinical symptoms in which the alveoli inside the lungs are permanently damaged, and representatively includes emphysema, in which tissues constituting the alveoli are destroyed and do not function normally. Recently, in order to quantitatively diagnose such emphysema, a technology has emerged that calculates the contrast of a CT scan image with software and automatically/semi-automatically analyzes an area below a specific contrast value as an emphysema area.

그런데, 폐기종에 해당하는 부분을 검출하기 위한 명암 임계값(threshold)은 영상의 재구성 알고리즘이나 영상 장비의 특성에 따라 달라지게 되는데, 임계값이 너무 낮은 경우 주변 조직이나 영상의 배경이 함께 인식될 가능성이 높으며, 반대로 너무 높은 경우 폐기종이 일어난 부분이 정상적으로 인식되지 않아 진단 수치를 신뢰하기 어렵게 되는 문제가 있다. 또한, 임계값이 적정 범위 내라 하더라도, 임계값에 따라 진단 수치가 달라지므로 유효한 정량화를 달성하기 어렵다는 문제가 있다.However, the contrast threshold for detecting the part corresponding to emphysema varies depending on the image reconstruction algorithm or the characteristics of the imaging equipment. If the threshold is too low, the surrounding tissue or the background of the image may be recognized together. Conversely, if it is too high, the part where emphysema has occurred is not normally recognized, making it difficult to trust the diagnostic value. In addition, even if the threshold value is within an appropriate range, it is difficult to achieve effective quantification because the diagnostic value varies depending on the threshold value.

이러한 문제를 해결하기 위해 통계적 또는 학습적 방법을 이용하여 명암 임계값을 자동으로 설정하는 방법이 등장하였으나, 영상 장비의 특성, 또는 영상을 재구성하는 알고리즘에 따라 CT 촬영 영상의 명암이나 폐의 크기가 달라지게 되므로, 학습이 일관되게 이루어지지 못하고 정량적인 수치화가 정확하게 이루어지는 것을 기대하기는 어렵다는 문제가 존재한다.In order to solve this problem, a method of automatically setting the contrast threshold using a statistical or learning method has emerged, but the contrast of the CT scan image or the size of the lungs has been changed depending on the characteristics of the imaging equipment or the algorithm for reconstructing the image. Since it is different, there is a problem that learning is not consistently performed and it is difficult to expect quantitative digitization to be performed accurately.

본 개시의 기술적 사상은 상기 문제점을 해결하기 위한 폐기종의 정량적 분석을 위한 진단 모듈의 학습 방법 및 이를 위한 장치를 제공하는 것을 그 목적으로 한다.An object of the present disclosure is to provide a learning method of a diagnostic module for quantitative analysis of emphysema and an apparatus therefor to solve the above problems.

본 개시의 기술적 사상에 따른 폐기종의 정량적 분석을 위한 진단 모듈의 학습 방법 및 이를 위한 장치가 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical tasks to be achieved by the learning method of the diagnostic module for quantitative analysis of emphysema according to the technical idea of the present disclosure and the apparatus therefor are not limited to the above-mentioned technical tasks, and other technical tasks not mentioned are as follows It will be clear to those skilled in the art from the descriptions.

본 개시의 기술적 사상에 의한 일 양태에 따르면, 폐기종(emphysema)의 정량적 분석을 위한 진단 모듈의 학습 방법은, 흉부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 적어도 하나의 학습용 의료 영상을 획득하는 단계; 및 적어도 하나의 학습된 네트워크 함수를 포함하는 전처리 모듈을 이용하여, 상기 학습용 의료 영상으로부터 폐 영역을 추출하고, 상기 폐 영역의 볼륨 및 밝기를 보정함으로써, 상기 학습용 의료 영상을 전처리하는 단계를 포함할 수 있다.According to one aspect of the technical concept of the present disclosure, a learning method of a diagnostic module for quantitative analysis of emphysema includes at least one training medical image generated corresponding to a continuous volume of a body part including the chest. obtaining; and preprocessing the learning medical image by extracting a lung region from the learning medical image and correcting the volume and brightness of the lung region using a preprocessing module including at least one learned network function. can

예시적인 실시예에 따르면, 상기 전처리하는 단계는, 상기 학습용 의료 영상으로부터 폐 영역을 추출하는 단계; 상기 폐 영역이 추출된 학습용 의료 영상에서 좌측 폐 영역 및 우측 폐 영역을 분할하는 단계; 상기 좌측 폐 영역 및 상기 우측 폐 영역의 볼륨을 소정 범위 이내로 조정하는 단계; 및 히스토그램 정규화(Histogram Normalization)를 통해 상기 볼륨이 조정된 상기 폐 영역의 밝기를 소정 범위 이내로 변환하는 단계를 포함할 수 있다.According to an exemplary embodiment, the preprocessing may include extracting a lung region from the training medical image; segmenting a left lung region and a right lung region from the training medical image from which the lung region is extracted; adjusting the volume of the left lung region and the right lung region within a predetermined range; and converting the brightness of the lung region whose volume is adjusted within a predetermined range through histogram normalization.

예시적인 실시예에 따르면, 상기 전처리가 완료된 학습용 의료 영상에 폐기종의 심각도 클래스를 레이블링하는 단계를 더 포함할 수 있다.According to an exemplary embodiment, the method may further include labeling a severity class of emphysema in the training medical image for which the preprocessing is completed.

예시적인 실시예에 따르면, 상기 심각도 클래스는, 정상(normal), 경증(mild), 중등(moderate) 및 중증(severe)로 구분될 수 있다.According to an exemplary embodiment, the severity class may be classified into normal, mild, moderate, and severe.

예시적인 실시예에 따르면, 상기 레이블링된 학습용 의료 영상을 기반으로, 상기 진단 모듈의 적어도 하나의 네트워크 함수를 학습시키는 단계를 더 포함할 수 있다.According to an exemplary embodiment, the method may further include learning at least one network function of the diagnostic module based on the labeled training medical images.

본 개시의 기술적 사상에 의한 일 양태에 따르면, 폐기종(emphysema)의 정량적 분석을 위한 진단 모듈을 학습시키기 위한 장치는, 적어도 하나의 프로세서; 및 상기 프로세서에 의해 실행 가능한 프로그램을 저장하는 메모리를 포함하고, 상기 프로세서는, 상기 프로그램을 실행함으로써, 흉부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 적어도 하나의 학습용 의료 영상을 획득하고, 적어도 하나의 학습된 네트워크 함수를 포함하는 전처리 모듈을 이용하여, 상기 학습용 의료 영상으로부터 폐 영역을 추출하고, 상기 폐 영역의 볼륨 및 밝기를 소정 범위 이내로 변환함으로써, 상기 학습용 의료 영상을 전처리할 수 있다.According to one aspect of the technical idea of the present disclosure, an apparatus for learning a diagnostic module for quantitative analysis of emphysema includes at least one processor; and a memory storing a program executable by the processor, wherein the processor acquires at least one training medical image generated corresponding to the continuous volume of the body part including the chest by executing the program, , By using a pre-processing module including at least one learned network function, the lung region is extracted from the training medical image, and the volume and brightness of the lung region are converted within a predetermined range to pre-process the training medical image. there is.

본 개시의 기술적 사상에 의한 실시예들에 따른 폐기종의 정량적 분석을 위한 진단 모듈의 학습 방법 및 이를 위한 장치에 따르면, 학습용 의료 영상에 전처리를 거쳐 일정한 크기 및 밝기 범위 내로 변환한 다음 이를 기반으로 진단 모듈을 학습시키게 되므로, 환자 별 다른 폐의 크기와 모양, 영상 획득 장비나 영상 구성 알고리즘의 종류에 따라 진단 모듈의 학습 결과가 영향을 받지 않도록 할 수 있다.According to a method for learning a diagnostic module for quantitative analysis of emphysema and an apparatus therefor according to embodiments according to the technical idea of the present disclosure, a medical image for learning is preprocessed to be converted into a certain size and brightness range, and then diagnosed based thereon. Since the module is learned, the learning result of the diagnosis module can be prevented from being affected by the size and shape of the lungs of each patient, and the type of image acquisition equipment or image composition algorithm.

본 개시의 기술적 사상에 의한 실시예들에 따른 폐기종의 정량적 분석을 위한 진단 모듈의 학습 방법 및 이를 위한 장치에 따르면, 진단 모듈의 학습 데이터의 생성 시, 전문의가 심각도 클래스만을 판단하여 레이블링하면 되므로, 레이블링의 효율성이 증가하여 다량의 학습 데이터를 효율적으로 습득할 수 있게 된다.According to the diagnostic module learning method and apparatus for quantitative analysis of emphysema according to embodiments according to the technical idea of the present disclosure, when generating learning data of the diagnostic module, the specialist only needs to determine and label the severity class, The efficiency of labeling is increased so that a large amount of training data can be efficiently acquired.

본 개시의 기술적 사상에 의한 실시예들에 따른 폐기종의 정량적 분석을 위한 진단 모듈의 학습 방법 및 이를 위한 장치가 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable by the learning method of the diagnostic module for quantitative analysis of emphysema and the apparatus therefor according to embodiments according to the technical idea of the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned are From the description below, it will be clear to those skilled in the art to which this disclosure belongs.

본 개시에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 개시의 실시예에 따른 폐기종의 정량적 분석 방법의 흐름도이다.
도 2는 본 개시의 실시예에 따른 폐기종의 정량적 분석을 위한 진단 모듈의 학습 방법의 흐름도이다.
도 3은 본 개시의 실시예에 따른 전처리하는 단계의 흐름도이다.
도 4는 본 개시의 실시예에 따른 전처리하는 단계를 설명하기 위한 도면이다.
도 5 및 도 6은 본 개시의 실시예에 따른 진단 모듈의 적어도 하나의 네트워크 함수를 학습시키는 단계를 설명하기 위한 도면이다.
도 7은 본 개시의 실시예에 따른 장치의 블록도이다.
A brief description of each figure is provided in order to more fully understand the figures cited in this disclosure.
1 is a flowchart of a method for quantitative analysis of emphysema according to an embodiment of the present disclosure.
2 is a flowchart of a learning method of a diagnostic module for quantitative analysis of emphysema according to an embodiment of the present disclosure.
3 is a flowchart of a preprocessing step according to an embodiment of the present disclosure.
4 is a diagram for explaining a preprocessing step according to an embodiment of the present disclosure.
5 and 6 are views for explaining a step of learning at least one network function of a diagnosis module according to an embodiment of the present disclosure.
7 is a block diagram of a device according to an embodiment of the present disclosure.

본 개시의 기술적 사상은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 그러나, 이는 본 개시의 기술적 사상을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 기술적 사상의 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the technical spirit of the present disclosure may be subject to various changes and may have various embodiments, specific embodiments are illustrated in the drawings and described in detail. However, this is not intended to limit the technical spirit of the present disclosure to specific embodiments, and should be understood to include all changes, equivalents, or substitutes included in the scope of the technical spirit of the present disclosure.

본 개시의 기술적 사상을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 개시의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.In describing the technical idea of the present disclosure, if it is determined that a detailed description of a related known technology may unnecessarily obscure the subject matter of the present disclosure, the detailed description will be omitted. In addition, numbers (eg, first, second, etc.) used in the description process of the present disclosure are only identifiers for distinguishing one component from another component.

또한, 본 개시에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.In addition, in the present disclosure, when one component is referred to as "connected" or "connected" to another component, the one component may be directly connected or directly connected to the other component, but in particular Unless otherwise described, it should be understood that they may be connected or connected via another component in the middle.

또한, 본 개시에 기재된 "~부", "~기", "~자", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 프로세서(Processor), 마이크로 프로세서(Micro Processer), 마이크로 컨트롤러(Micro Controller), CPU(Central Processing Unit), GPU(Graphics Processing Unit), APU(Accelerate Processor Unit), DSP(Digital Signal Processor), ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등과 같은 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, terms such as "~ unit", "~ group", "~ character", and "~ module" described in the present disclosure mean a unit that processes at least one function or operation, which includes a processor, a micro Processor (Micro Processor), Micro Controller, CPU (Central Processing Unit), GPU (Graphics Processing Unit), APU (Accelerate Processor Unit), DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array) may be implemented by hardware or software or a combination of hardware and software.

그리고 본 개시에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.In addition, it is intended to make it clear that the classification of components in the present disclosure is merely a classification for each main function in charge of each component. That is, two or more components to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function. In addition, each component to be described below may additionally perform some or all of the functions of other components in addition to its main function, and some of the main functions of each component may be performed by other components. Of course, it may be dedicated and performed by .

이하, 본 개시의 실시예들을 차례로 상세히 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail in turn.

본 명세서에 걸쳐, 네트워크 함수는 신경망 네트워크 및/또는 뉴럴 네트워크(neural network)와 동일한 의미로 사용될 수 있다. 여기서, 뉴럴 네트워크(신경망)는 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있고, 이러한 노드들은 뉴런으로 지칭될 수 있다. 뉴럴 네트워크는 일반적으로 복수의 노드들을 포함하여 구성된다. 뉴럴 네트워크를 구성하는 노드들은 하나 이상의 링크에 의해 상호 연결될 수 있다.Throughout this specification, network function may be used interchangeably with neural network and/or neural network. Here, a neural network (neural network) may be composed of a set of interconnected computational units, which may be generally referred to as nodes, and these nodes may be referred to as neurons. A neural network is generally composed of a plurality of nodes. Nodes constituting a neural network may be interconnected by one or more links.

뉴럴 네트워크를 구성하는 노드들 중 일부는 최초 입력 노드로부터의 거리들에 기초하여 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은 n 레이어를 구성할 수 있다.Some of the nodes constituting the neural network may form one layer based on distances from the first input node. For example, a set of nodes having a distance of n from the first input node may constitute n layers.

본 명세서에서 설명하는 뉴럴 네트워크는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 딥 뉴럴 네트워크(Deep Neural Network, DNN)를 포함할 수 있다The neural network described herein may include a deep neural network (DNN) including a plurality of hidden layers in addition to an input layer and an output layer.

도 1은 본 개시의 실시예에 따른 폐기종의 정량적 분석 방법의 흐름도이다.1 is a flowchart of a method for quantitative analysis of emphysema according to an embodiment of the present disclosure.

본 개시의 실시예에 따른 방법(100)은 연산 능력을 구비한 개인용 컴퓨터(Personal Computer), 워크스테이션(work station), 서버용 컴퓨터 장치 등에서 수행되거나 이를 위한 별도의 장치에서 수행될 수 있다.The method 100 according to an embodiment of the present disclosure may be performed in a personal computer having computing capability, a workstation, a computer device for a server, or a separate device for this purpose.

또한, 방법(100)은 하나 이상의 연산 장치들에서 수행될 수도 있다. 예를 들어, 본 개시의 실시예에 따른 방법(100) 중 적어도 하나 이상의 단계들은 클라이언트 디바이스에서, 다른 단계들은 서버 디바이스에서 수행될 수 있다. 이러한 경우, 클라이언트 디바이스와 서버 디바이스는 네트워크로 연결되어 연산 결과를 송수신할 수 있다. 또는, 방법(100)은 분산 컴퓨팅 기술에 의해 수행될 수도 있다.Additionally, method 100 may be performed on one or more computing devices. For example, at least one or more steps of the method 100 according to an embodiment of the present disclosure may be performed in a client device and other steps may be performed in a server device. In this case, the client device and the server device may be connected through a network to transmit and receive calculation results. Alternatively, method 100 may be performed by distributed computing technology.

또한, 방법(100)을 수행하기 위한 장치는 각 단계를 수행하기 위한 적어도 하나의 모듈을 포함할 수 있다. 예를 들어, 각각의 모듈은 프로세서와 통신부 및/또는 메모리에 의해 구현되거나 이와 연동하여 동작하도록 구현될 수 있으며, 적어도 하나의 학습된 네트워크 함수에 의해 동작하도록 구현될 수 있으나, 이에 한정하는 것은 아니다. 실시예에서, 장치는 전처리 모듈 및 진단 모듈을 포함할 수 있고, 이에 한정하지 않고 학습 모듈 등 다양한 형태의 모듈을 추가적으로 포함할 수 있다.Also, an apparatus for performing the method 100 may include at least one module for performing each step. For example, each module may be implemented by a processor, a communication unit and/or a memory, or implemented to operate in conjunction therewith, and may be implemented to operate by at least one learned network function, but is not limited thereto. . In an embodiment, the device may include a preprocessing module and a diagnosis module, but is not limited thereto and may additionally include various types of modules such as a learning module.

S110 단계에서, 장치는 흉부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 의료 영상을 획득할 수 있다. 실시예에서, 의료 영상은 대상자의 흉부를 단층 촬영하여 생성된 CT(Computed Tomography) 영상일 수 있다. 즉, 의료 영상은 컴퓨터 단층 촬영 방법을 통해 대상의 흉부를 일 방향으로 연속하여 촬영한 복수의 슬라이스로 구성될 수 있다. 또한, 실시예에서, 의료 영상은 CT 영상을 구성하는 복수의 슬라이스를 적층하여 생성된 두경부의 3차원 영상일 수 있다.In step S110, the device may obtain a medical image generated corresponding to the continuous volume of the body part including the chest. In an embodiment, the medical image may be a computed tomography (CT) image generated by tomography of a subject's chest. That is, the medical image may consist of a plurality of slices obtained by continuously photographing the chest of a subject in one direction through a computed tomography method. Also, in an embodiment, the medical image may be a 3D image of the head and neck generated by stacking a plurality of slices constituting a CT image.

S120 단계에서, 장치는 적어도 하나의 학습된 네트워크 함수를 포함하는 전처리 모듈을 이용하여, 의료 영상을 전처리할 수 있다. 이때, 예를 들어, 전처리 모듈은 의료 영상으로부터 폐 영역을 추출하고, 폐 영역의 볼륨 및 밝기를 보정함으로써, 의료 영상을 전처리할 수 있다. 이에 따라, 환자 별 다른 폐의 크기와 모양, 영상 획득 장비나 영상 구성 알고리즘의 종류에 따라 정량적 진단이 영향을 받지 않을 수 있다.In step S120, the device may pre-process the medical image using a pre-processing module including at least one learned network function. In this case, for example, the preprocessing module may preprocess the medical image by extracting a lung region from the medical image and correcting volume and brightness of the lung region. Accordingly, quantitative diagnosis may not be affected by the size and shape of lungs different for each patient, and the type of image acquisition equipment or image composition algorithm.

S130 단계에서, 장치는 적어도 하나의 학습된 네트워크 함수를 포함하는 진단 모듈을 이용하여, 폐기종에 관한 진단 정보를 생성할 수 있다. 이때, 예를 들어, 진단 모듈은 의료 영상에서 폐기종 영역을 검출하고, 폐기종 영역의 개수 및 비율을 기반으로 폐기종의 심각도 클래스를 산출함으로써, 폐기종에 관한 진단 정보를 생성할 수 있다.In step S130, the device may generate diagnostic information about emphysema using a diagnostic module including at least one learned network function. In this case, for example, the diagnosis module may generate diagnosis information about emphysema by detecting emphysema regions in the medical image and calculating a severity class of emphysema based on the number and ratio of emphysema regions.

실시예에서, 진단 모듈의 네트워크 함수는, 심각도 클래스가 각각 레이블링된 복수의 학습 데이터를 기반으로 학습된 것일 수 있다. 이때, 심각도 클래스는, 정상(normal), 경증(mild), 중등(moderate) 및 중증(severe)으로 구분될 수 있다. 이에 관한 구체적인 내용은 도 2에 관한 설명에서 후술하기로 한다.In an embodiment, the network function of the diagnosis module may be learned based on a plurality of learning data each labeled with a severity class. In this case, the severity class may be classified into normal, mild, moderate, and severe. Details regarding this will be described later in the description of FIG. 2 .

실시예에 따라, 방법(100)은 장치가 진단 정보를 의료 영상에 정합하여 표시하는 단계를 더 포함할 수 있다. 이때, 의료 영상에 정합하여 표시되는 진단 정보는, 폐기종 영역의 개수, 비율 및 심각도 클래스 중 적어도 하나를 포함할 수 있다. 구체적으로, 예를 들어, 3차원 의료 영상에 폐기종 영역이 소정의 방식(특정 색상, 음영, 경계선 등)으로 표시되고, 이에 더하여 폐기종 영역의 개수, 비율 및 심각도 클래스가 텍스트의 형태 등으로 표시되어 진단자에게 제공될 수 있다. 다만, 이에 한정하는 것은 아니다.Depending on embodiments, the method 100 may further include matching diagnostic information to the medical image and displaying the diagnostic information. In this case, the diagnostic information matched to the medical image and displayed may include at least one of the number, ratio, and severity class of emphysema regions. Specifically, for example, emphysema areas are displayed in a 3D medical image in a predetermined manner (specific color, shade, border, etc.), and in addition, the number, ratio, and severity class of emphysema areas are displayed in the form of text, etc. It can be provided to the diagnostician. However, it is not limited thereto.

도 2는 본 개시의 실시예에 따른 폐기종의 정량적 분석을 위한 진단 모듈의 학습 방법의 흐름도이다.2 is a flowchart of a learning method of a diagnostic module for quantitative analysis of emphysema according to an embodiment of the present disclosure.

본 개시의 실시예에 따른 방법(200)은 연산 능력을 구비한 개인용 컴퓨터(Personal Computer), 워크스테이션(work station), 서버용 컴퓨터 장치 등에서 수행되거나 이를 위한 별도의 장치에서 수행될 수 있다.The method 200 according to an embodiment of the present disclosure may be performed in a personal computer having computing capability, a workstation, a computer device for a server, or a separate device for this purpose.

또한, 방법(200)은 하나 이상의 연산 장치들에서 수행될 수도 있다. 예를 들어, 본 개시의 실시예에 따른 방법(200) 중 적어도 하나 이상의 단계들은 클라이언트 디바이스에서, 다른 단계들은 서버 디바이스에서 수행될 수 있다. 이러한 경우, 클라이언트 디바이스와 서버 디바이스는 네트워크로 연결되어 연산 결과를 송수신할 수 있다. 또는, 방법(200)은 분산 컴퓨팅 기술에 의해 수행될 수도 있다.Additionally, method 200 may be performed on one or more computing devices. For example, at least one or more steps of the method 200 according to an embodiment of the present disclosure may be performed in a client device and other steps may be performed in a server device. In this case, the client device and the server device may be connected through a network to transmit and receive calculation results. Alternatively, method 200 may be performed by distributed computing technology.

또한, 방법(200)을 수행하기 위한 장치는 각 단계를 수행하기 위한 적어도 하나의 모듈을 포함할 수 있다. 예를 들어, 각각의 모듈은 프로세서와 통신부 및/또는 메모리에 의해 구현되거나 이와 연동하여 동작하도록 구현될 수 있으며, 적어도 하나의 학습된 네트워크 함수에 의해 동작하도록 구현될 수 있으나, 이에 한정하는 것은 아니다. 실시예에서, 장치는 전처리 모듈을 포함할 수 있고, 이에 한정하지 않고 학습 데이터 생성 모듈 등 다양한 형태의 모듈을 추가적으로 포함할 수 있다.Also, an apparatus for performing the method 200 may include at least one module for performing each step. For example, each module may be implemented by a processor, a communication unit and/or a memory, or implemented to operate in conjunction therewith, and may be implemented to operate by at least one learned network function, but is not limited thereto. . In an embodiment, the device may include a preprocessing module, but is not limited thereto and may additionally include various types of modules such as a learning data generation module.

S210 단계에서, 장치는 흉부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 적어도 하나의 학습용 의료 영상을 획득할 수 있다. 실시예에서, 학습용 의료 영상은 대상자의 흉부를 단층 촬영하여 생성된 CT(Computed Tomography) 영상일 수 있다. 즉, 학습용 의료 영상은 컴퓨터 단층 촬영 방법을 통해 대상의 흉부를 일 방향으로 연속하여 촬영한 복수의 슬라이스로 구성될 수 있다. 또한, 실시예에서, 학습용 의료 영상은 CT 영상을 구성하는 복수의 슬라이스를 적층하여 생성된 두경부의 3차원 영상일 수 있다.In step S210, the device may acquire at least one training medical image generated corresponding to the continuous volume of the body part including the chest. In an embodiment, the medical image for learning may be a computed tomography (CT) image generated by tomography of a subject's chest. That is, the medical image for learning may be composed of a plurality of slices obtained by sequentially photographing the chest of an object in one direction through a computed tomography method. Also, in an embodiment, the medical image for learning may be a 3D image of the head and neck generated by stacking a plurality of slices constituting a CT image.

S220 단계에서, 장치는 적어도 하나의 학습된 네트워크 함수를 포함하는 전처리 모듈을 이용하여, 학습용 의료 영상을 전처리할 수 있다. 이때, 예를 들어, 전처리 모듈은 학습용 의료 영상으로부터 폐 영역을 추출하고, 폐 영역의 볼륨 및 밝기를 보정함으로써, 학습용 의료 영상을 전처리할 수 있다. 이에 따라, 환자 별 다른 폐의 크기와 모양, 영상 획득 장비나 영상 구성 알고리즘의 종류에 따라 진단 모듈의 학습 결과가 영향을 받지 않을 수 있다.In step S220, the device may pre-process the training medical image using a pre-processing module including at least one learned network function. In this case, for example, the preprocessing module may preprocess the learning medical image by extracting a lung region from the learning medical image and correcting the volume and brightness of the lung region. Accordingly, the learning result of the diagnostic module may not be affected by the size and shape of lungs different for each patient, and the type of image acquisition equipment or image composition algorithm.

S230 단계에서, 장치는 전처리가 완료된 학습용 의료 영상에 폐기종의 심각도 클래스를 레이블링할 수 있다. 이를 통해 진단 모듈을 학습시키기 위한 학습 데이터가 생성될 수 있으며, 여기서 심각도 클래스는 방법(100)에서 설명된 것과 동일하게 설명될 수 있다. 이때, 예를 들어, 레이블링을 위한 심각도 클래스의 판단은 전문의에 의해 수행될 수 있다. 이 경우, 진단 모듈의 학습 데이터의 생성 시 전문의가 심각도 클래스만을 판단하면 되므로, 레이블링의 효율성이 증가하여 다량의 학습 데이터를 효율적으로 습득할 수 있게 된다. 다만, 이에 한정하는 것은 아니다.In step S230, the device may label the severity class of emphysema in the preprocessed training medical images. Through this, learning data for learning the diagnosis module may be generated, where the severity class may be described in the same way as described in the method 100 . At this time, for example, the determination of the severity class for labeling may be performed by a specialist. In this case, since the specialist only needs to determine the severity class when generating the training data of the diagnostic module, the efficiency of labeling increases and a large amount of training data can be efficiently acquired. However, it is not limited thereto.

S240 단계에서, 장치는 레이블링된 학습용 의료 영상(즉, 학습 데이터)을 기반으로, 진단 모듈의 적어도 하나의 네트워크 함수를 학습시킬 수 있다. 학습 데이터는 복수 개 생성되어 네트워크 함수의 학습에 사용될 수 있고, 진단 모듈의 학습에 사용된 학습 데이터의 개수가 많을수록, 진단의 정확성이 향상될 수 있다.In step S240, the device may learn at least one network function of the diagnosis module based on the labeled training medical images (ie, training data). A plurality of learning data can be generated and used to learn the network function, and the accuracy of diagnosis can be improved as the number of learning data used to learn the diagnosis module increases.

도 3은 본 개시의 실시예에 따른 전처리하는 단계의 흐름도이고, 도 4는 본 개시의 실시예에 따른 전처리하는 단계를 설명하기 위한 도면이다.3 is a flowchart of a preprocessing step according to an embodiment of the present disclosure, and FIG. 4 is a diagram for explaining a preprocessing step according to an embodiment of the present disclosure.

방법(300)은 방법(100)의 S120 단계 또는 방법(200)의 S220 단계를 수행하기 위한 것으로, 이하에서 설명되는 의료 영상은 방법(100)의 의료 영상 및 방법(200)의 학습용 의료 영상을 포괄하는 개념이며, 장치는 방법(100)을 수행하기 위한 장치와 방법(200)을 수행하기 위한 장치를 포괄하는 개념이다. 또한, 방법(300)은 방법(100)의 전처리 모듈 또는 방법(200)의 전처리 모듈에 의해 수행될 수 있다.The method 300 is for performing step S120 of the method 100 or step S220 of the method 200, and the medical images described below include the medical image of the method 100 and the medical image for learning of the method 200. It is a concept encompassing, and the device is a concept encompassing a device for performing the method 100 and a device for performing the method 200 . Additionally, method 300 may be performed by a preprocessing module of method 100 or a preprocessing module of method 200 .

S310 단계에서, 장치는 의료 영상으로부터 폐 영역을 추출할 수 있다. S310 단계는, 예를 들어 전처리 모듈에 포함된 제 1 네트워크 함수에 의해 이루어질 수 있으나, 이에 한정하는 것은 아니다.In step S310, the device may extract a lung region from the medical image. Step S310 may be performed by, for example, the first network function included in the preprocessing module, but is not limited thereto.

S320 단계에서, 장치는 폐 영역이 추출된 의료 영상에서 좌측 폐 영역 및 우측 폐 영역을 분할할 수 있다. 이를 통해 하나의 의료 영상에서 좌측 폐 영역 및 우측 폐 영역의 명암이나 볼륨이 다르더라도, 소정 범위 이내의 명암 및 볼륨으로 보정할 수 있다. S320 단계는, 예를 들어 전처리 모듈에 포함된 제 2 네트워크 함수에 의해 이루어질 수 있으나, 이에 한정하는 것은 아니다.In step S320, the device may segment the left lung region and the right lung region in the medical image from which the lung region is extracted. Through this, even if the contrast or volume of the left lung region and the right lung region are different in one medical image, it is possible to correct the contrast and volume within a predetermined range. Step S320 may be performed by, for example, a second network function included in the preprocessing module, but is not limited thereto.

S330 단계에서, 장치는 좌측 폐 영역 및 우측 폐 영역의 볼륨을 소정 범위 이내로 조정할 수 있다. 이는 환자 별 다른 폐의 크기와 모양과 관계없이 폐 영역의 크기를 일정 크기 범위 이내로 정규화시킴으로써, 학습 결과 또는 진단 결과를 균일하게 유지하기 위한 것이다. S330 단계는, 예를 들어 전처리 모듈에 포함된 제 3 네트워크 함수에 의해 이루어질 수 있으나, 이에 한정하는 것은 아니다.In step S330, the device may adjust the volume of the left lung region and the right lung region within a predetermined range. This is to maintain a uniform learning result or diagnosis result by normalizing the size of the lung area within a certain size range regardless of the size and shape of the different lungs for each patient. Step S330 may be performed by, for example, a third network function included in the preprocessing module, but is not limited thereto.

S340 단계에서, 장치는 히스토그램 정규화(Histogram Normalization)를 통해 볼륨이 조정된 상기 폐 영역의 밝기를 소정 범위 이내로 변환할 수 있다. 이는 영상 획득 장비나 영상 구성 알고리즘의 종류와 관계없이 의료 영상의 명암을 소정 범위 이내로 정규화시킴으로써, 학습 결과 또는 진단 결과를 균일하게 유지하기 위한 것이다. S340 단계는, 예를 들어 전처리 모듈에 포함된 제 4 네트워크 함수에 의해 이루어질 수 있으나, 이에 한정하는 것은 아니다.In step S340, the device may convert the brightness of the lung region whose volume is adjusted within a predetermined range through histogram normalization. This is to maintain a uniform learning result or diagnosis result by normalizing the contrast of a medical image within a predetermined range regardless of the type of image acquisition equipment or image composition algorithm. Step S340 may be performed by, for example, the fourth network function included in the preprocessing module, but is not limited thereto.

한편, 도 3에서는 S310 단계 내지 S340 단계가 순차적으로 수행되는 것으로 도시되어 있으나, 실시예에 따라, S310 단계 내지 S340 단계는 적어도 일부가 동시에 수행되거나, 수행 순서가 서로 변경될 수 있다. 예를 들어, S310 단계가 수행된 이후에 S340 단계가 수행되고, 이어서 S320 단계 및 S330 단계가 수행되는 등 수행 순서는 다양하게 변경될 수 있다.Meanwhile, in FIG. 3 , steps S310 to S340 are shown to be sequentially performed, but according to embodiments, at least some of steps S310 to S340 may be simultaneously performed or the order of performing them may be changed. For example, after step S310 is performed, step S340 is performed, and then steps S320 and S330 are performed.

도 5 및 도 6은 본 개시의 실시예에 따른 진단 모듈의 동작을 설명하기 위한 도면이다. 구체적으로, 도 5는 학습용 의료 영상(510)에 심각도 클래스를 레이블링하여 학습 데이터를 생성한 후 이를 기초로 진단 모듈(520)을 학습시키는 과정을 예시적으로 도시하고, 도 6은 의료 영상(610)을 학습된 진단 모듈(620)에 입력하여 심각도 클래스가 포함된 진단 정보를 출력하는 과정을 예시적으로 도시한다.5 and 6 are views for explaining the operation of a diagnostic module according to an embodiment of the present disclosure. Specifically, FIG. 5 illustratively illustrates a process of labeling a medical image 510 for learning with a severity class to generate learning data and then learning the diagnosis module 520 based on the learning data. FIG. ) into the learned diagnosis module 620 to output diagnosis information including a severity class.

도 5를 참조하면, 학습 데이터에는 레이블로서 심각도 클래스 별 True/False 값이 입력될 수 있다. 예를 들어, 도 5에서 도시되는 것처럼, 정상(Normal), 경증(Mild), 중증(Severe)은 0이 입력되고, 중등(Moderate)은 1이 입력되어 있을 수 있다. 즉, 전문의는 학습용 의료 영상(510)에 대하여 정상(Normal), 경증(Mild), 중등(Moderate) 및 중증(Severe)으로 구분되는 심각도 클래스를 진단하여 True/False 값을 레이블로서 입력할 수 있다. 다만 이는 예시적인 것에 불과하고, 본 개시의 기술적 사상이 이에 한정되는 것은 아니다.Referring to FIG. 5 , a true/false value for each severity class may be input as a label to the training data. For example, as shown in FIG. 5 , 0 may be input for Normal, Mild, and Severe, and 1 may be input for Moderate. That is, the specialist diagnoses severity classes classified into Normal, Mild, Moderate, and Severe for the training medical image 510 and inputs True/False values as labels. . However, this is merely exemplary, and the technical spirit of the present disclosure is not limited thereto.

도 6을 참조하면, 복수의 학습 데이터를 통해 학습된 진단 모듈(620)에 의료 영상을 입력할 경우, 각 심각도 클래스 별 확률이 출력될 수 있다. 예를 들어, 도 6에서 도시되는 것처럼, 의료 영상을 진단 모듈(620)에 입력할 경우, 정상(Normal) 0.012, 경증(Mild) 0.041, 중증(Severe) 0.135, 중등(Moderate) 0.812가 각각 출력될 수 있다. 이 경우, 심각도가 중등일 확률이 81.2%이므로, 심각도는 중등으로 진단될 수 있다. 다만 이는 예시적인 것에 불과하고, 본 개시의 기술적 사상이 이에 한정되는 것은 아니다.Referring to FIG. 6 , when a medical image is input to the diagnosis module 620 learned through a plurality of learning data, a probability for each severity class may be output. For example, as shown in FIG. 6 , when a medical image is input to the diagnosis module 620, Normal 0.012, Mild 0.041, Severe 0.135, and Moderate 0.812 are respectively output. It can be. In this case, since the probability that the severity is moderate is 81.2%, the severity can be diagnosed as moderate. However, this is merely exemplary, and the technical spirit of the present disclosure is not limited thereto.

도 7는 본 개시의 실시예에 따른 장치의 블록도이다.7 is a block diagram of a device according to an embodiment of the present disclosure.

도 7에 따른 장치(700)는 도 1의 방법(100)을 수행하기 위한 폐기종의 정량적 분석 장치 및/또는 도 2의 방법(200)을 수행하기 위한 폐기종의 정량적 분석을 위한 진단 모듈의 학습 장치의 구성을 개략적으로 도시한 것으로, 장치(700)는 통신부(710), 입력부(720), 메모리(730) 및 적어도 하나의 프로세서(740)를 포함하도록 구현될 수 있다. 이때, 예를 들어, 하나의 장치가 도 1의 방법(100) 및 도 2의 방법(200)을 동시에 구동하도록 구현될 수도 있고, 두개 이상의 장치가 도 1의 방법(100) 및/또는 도 2의 방법(200)의 적어도 하나의 단계를 각각 구동하도록 구현될 수도 있다.The apparatus 700 according to FIG. 7 is a device for quantitative analysis of emphysema for performing the method 100 of FIG. 1 and/or a learning device for a diagnostic module for quantitative analysis of emphysema for performing the method 200 of FIG. 2 As schematically showing the configuration of, the device 700 may be implemented to include a communication unit 710, an input unit 720, a memory 730 and at least one processor 740. At this time, for example, one device may be implemented to simultaneously drive the method 100 of FIG. 1 and the method 200 of FIG. 2, or two or more devices may be implemented to simultaneously drive the method 100 of FIG. It may also be implemented to drive at least one step of the method 200 of each.

통신부(710)는 폐기종을 진단하기 위한 입력 데이터(흉부 CT 영상 등) 및/또는 폐기종의 진단 모듈을 학습시키기 위한 입력 데이터(흉부 CT 형상 등)를 수신할 수 있다. 통신부(710)는 유무선 통신부를 포함할 수 있다. 통신부(710)가 유선 통신부를 포함하는 경우, 통신부(710)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 통하여 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 또한, 통신부(710)가 무선 통신부를 포함하는 경우, 통신부(710)는 셀룰러 통신, 무선랜(예를 들어, 와이-파이(Wi-Fi)) 등을 이용하여 무선으로 데이터 또는 신호를 송수신할 수 있다. 실시예에서, 통신부는 프로세서(740)의 제어에 의해 외부 장치 또는 외부 서버와 데이터 또는 신호를 송수신할 수 있다. The communication unit 710 may receive input data for diagnosing emphysema (chest CT image, etc.) and/or input data for learning an emphysema diagnosis module (chest CT shape, etc.). The communication unit 710 may include a wired/wireless communication unit. When the communication unit 710 includes a wired communication unit, the communication unit 710 may include a local area network (LAN), a wide area network (WAN), a value added network (VAN), and a mobile communication network ( mobile radio communication network), a satellite communication network, and one or more components that enable communication through a mutual combination thereof. In addition, when the communication unit 710 includes a wireless communication unit, the communication unit 710 transmits and receives data or signals wirelessly using cellular communication, a wireless LAN (eg, Wi-Fi), and the like. can In an embodiment, the communication unit may transmit/receive data or signals with an external device or an external server under the control of the processor 740 .

입력부(720)는 외부의 조작을 통해 다양한 사용자 명령을 수신할 수 있다. 이를 위해, 입력부(720)는 하나 이상의 입력 장치를 포함하거나 연결할 수 있다. 예를 들어, 입력부(720)는 키패드, 마우스 등 다양한 입력을 위한 인터페이스와 연결되어 사용자 명령을 수신할 수 있다. 이를 위해, 입력부(720)는 USB 포트 뿐만 아니라 선더볼트 등의 인터페이스를 포함할 수도 있다. 또한, 입력부(720)는 터치스크린, 버튼 등의 다양한 입력 장치를 포함하거나 이들과 결합하여 외부의 사용자 명령을 수신할 수 있다.The input unit 720 may receive various user commands through external manipulation. To this end, the input unit 720 may include or connect one or more input devices. For example, the input unit 720 may be connected to an interface for various inputs such as a keypad and a mouse to receive user commands. To this end, the input unit 720 may include an interface such as a thunderbolt as well as a USB port. In addition, the input unit 720 may receive an external user command by including or combining various input devices such as a touch screen and buttons.

메모리(730)는 프로세서(740)의 동작을 위한 프로그램 및/또는 프로그램 명령을 저장할 수 있고, 입/출력되는 데이터들을 임시 또는 영구 저장할 수 있다. 메모리(730)는 플래시 메모리(flash memory) 타입, 하드디스크(hard disk) 타입, 멀티미디어 카드 마이크로(multimedia card micro) 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM), SRAM, 롬(ROM), EEPROM, PROM, 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 730 may store programs and/or program commands for operation of the processor 740 and may temporarily or permanently store input/output data. The memory 730 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), RAM , SRAM, ROM (ROM), EEPROM, PROM, magnetic memory, a magnetic disk, it may include at least one type of storage medium.

또한, 메모리(730)는 다양한 네트워크 함수 및 알고리즘을 저장할 수 있으며, 장치(700)를 구동하고 제어하기 위한 다양한 데이터, 프로그램(하나 이상이 인스트럭션들), 어플리케이션, 소프트웨어, 명령, 코드 등을 저장할 수 있다.In addition, the memory 730 may store various network functions and algorithms, and may store various data, programs (one or more instructions), applications, software, commands, codes, etc. for driving and controlling the device 700. there is.

프로세서(740)는 장치(700)의 전반적인 동작을 제어할 수 있다. 프로세서(740)는 메모리(730)에 저장되는 하나 이상의 프로그램들을 실행할 수 있다. 프로세서(740)는 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphics Processing Unit, GPU) 또는 본 개시의 기술적 사상에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다.The processor 740 may control the overall operation of the device 700 . Processor 740 may execute one or more programs stored in memory 730 . The processor 740 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to the technical idea of the present disclosure are performed.

실시예에서, 프로세서(740)는 흉부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 적어도 하나의 학습용 의료 영상을 획득하고, 적어도 하나의 학습된 네트워크 함수를 포함하는 전처리 모듈을 이용하여, 상기 학습용 의료 영상으로부터 폐 영역을 추출하고, 상기 폐 영역의 볼륨 및 밝기를 보정함으로써, 상기 학습용 의료 영상을 전처리할 수 있다.In an embodiment, the processor 740 acquires at least one training medical image generated corresponding to the continuous volume of a body part including the chest, and uses a pre-processing module including at least one learned network function, The medical image for training may be pre-processed by extracting a lung region from the training medical image and correcting the volume and brightness of the lung region.

실시예에서, 프로세서(740)는 전처리 모듈을 이용하여 상기 학습용 의료 영상으로부터 폐 영역을 추출하고, 상기 폐 영역이 추출된 학습용 의료 영상에서 좌측 폐 영역 및 우측 폐 영역을 분할하며, 상기 좌측 폐 영역 및 상기 우측 폐 영역의 볼륨을 소정 범위 이내로 조정하고, 히스토그램 정규화(Histogram Normalization)를 통해 상기 볼륨이 조정된 상기 폐 영역의 밝기를 소정 범위 이내로 변환할 수 있다.In an embodiment, the processor 740 extracts a lung region from the training medical image using a preprocessing module, divides a left lung region and a right lung region from the training medical image from which the lung region is extracted, and the left lung region. and adjust the volume of the right lung region within a predetermined range, and convert the brightness of the lung region whose volume is adjusted within a predetermined range through histogram normalization.

실시예에서, 프로세서(740)는 상기 전처리가 완료된 학습용 의료 영상에 폐기종의 심각도 클래스를 레이블링할 수 있다.In an embodiment, the processor 740 may label a severity class of emphysema in the medical image for training on which the preprocessing is completed.

실시예에서, 프로세서(740)는 상기 레이블링된 학습용 의료 영상을 기반으로, 상기 진단 모듈의 적어도 하나의 네트워크 함수를 학습시킬 수 있다.In an embodiment, the processor 740 may learn at least one network function of the diagnosis module based on the labeled training medical images.

실시예에서, 프로세서(740)는 흉부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 의료 영상을 획득하고, 적어도 하나의 학습된 네트워크 함수를 포함하는 진단 모듈을 이용하여, 상기 의료 영상에서 폐기종 영역을 검출하고, 상기 폐기종 영역의 개수 및 비율을 기반으로 폐기종의 심각도 클래스를 산출함으로써, 폐기종에 관한 진단 정보를 생성할 수 있다.In an embodiment, the processor 740 obtains a medical image generated corresponding to the continuous volume of a body part including the chest, and uses a diagnosis module including at least one learned network function to obtain a medical image from the medical image. Emphysema areas are detected, and a severity class of emphysema is calculated based on the number and ratio of the emphysema areas, thereby generating diagnosis information on emphysema.

실시예에서, 프로세서(740)는 상기 진단 정보를 상기 의료 영상에 정합하여 표시할 수 있다.In an embodiment, the processor 740 may display the diagnosis information matched to the medical image.

실시예에서, 프로세서(740)는 흉부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 적어도 하나의 학습용 의료 영상을 획득하고, 적어도 하나의 학습된 네트워크 함수를 포함하는 전처리 모듈을 이용하여, 상기 학습용 의료 영상으로부터 폐 영역을 추출하고, 상기 폐 영역의 볼륨 및 밝기를 보정함으로써, 상기 학습용 의료 영상을 전처리할 수 있다.In an embodiment, the processor 740 acquires at least one training medical image generated corresponding to the continuous volume of a body part including the chest, and uses a pre-processing module including at least one learned network function, The medical image for training may be pre-processed by extracting a lung region from the training medical image and correcting the volume and brightness of the lung region.

실시예에서, 프로세서(740)는 전처리 모듈을 이용하여 상기 학습용 의료 영상으로부터 폐 영역을 추출하고, 상기 폐 영역이 추출된 학습용 의료 영상에서 좌측 폐 영역 및 우측 폐 영역을 분할하며, 상기 좌측 폐 영역 및 상기 우측 폐 영역의 볼륨을 소정 범위 이내로 조정하고, 히스토그램 정규화(Histogram Normalization)를 통해 상기 볼륨이 조정된 상기 폐 영역의 밝기를 소정 범위 이내로 변환할 수 있다.In an embodiment, the processor 740 extracts a lung region from the training medical image using a preprocessing module, divides a left lung region and a right lung region from the training medical image from which the lung region is extracted, and the left lung region. and adjust the volume of the right lung region within a predetermined range, and convert the brightness of the lung region whose volume is adjusted within a predetermined range through histogram normalization.

실시예에서, 프로세서(740)는 상기 전처리가 완료된 학습용 의료 영상에 폐기종의 심각도 클래스를 레이블링할 수 있다.In an embodiment, the processor 740 may label a severity class of emphysema in the medical image for training on which the preprocessing is completed.

실시예에서, 프로세서(740)는 상기 레이블링된 학습용 의료 영상을 기반으로, 상기 진단 모듈의 적어도 하나의 네트워크 함수를 학습시킬 수 있다.In an embodiment, the processor 740 may learn at least one network function of the diagnosis module based on the labeled training medical images.

본 개시의 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 개시를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to an embodiment of the present disclosure may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the present disclosure, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

또한, 개시된 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.In addition, the method according to the disclosed embodiments may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities.

컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.A computer program product may include a S/W program and a computer-readable storage medium in which the S/W program is stored. For example, a computer program product may include a product in the form of a S/W program (eg, a downloadable app) that is distributed electronically through a manufacturer of an electronic device or an electronic marketplace (eg, Google Play Store, App Store). there is. For electronic distribution, at least a part of the S/W program may be stored in a storage medium or temporarily generated. In this case, the storage medium may be a storage medium of a manufacturer's server, an electronic market server, or a relay server temporarily storing SW programs.

컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제 3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제 3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제 3 장치로 전송되거나, 제 3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.A computer program product may include a storage medium of a server or a storage medium of a client device in a system composed of a server and a client device. Alternatively, if there is a third device (eg, a smart phone) that is communicatively connected to the server or the client device, the computer program product may include a storage medium of the third device. Alternatively, the computer program product may include a S/W program itself transmitted from the server to the client device or the third device or from the third device to the client device.

이 경우, 서버, 클라이언트 장치 및 제 3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제 3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.In this case, one of the server, the client device and the third device may execute the computer program product to perform the method according to the disclosed embodiments. Alternatively, two or more of the server, the client device, and the third device may execute the computer program product to implement the method according to the disclosed embodiments in a distributed manner.

예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.For example, a server (eg, a cloud server or an artificial intelligence server) may execute a computer program product stored in the server to control a client device communicatively connected to the server to perform a method according to the disclosed embodiments.

이상에서 실시예들에 대하여 상세하게 설명하였지만 본 개시의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 개시의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 개시의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present disclosure is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present disclosure defined in the following claims are also within the scope of the present disclosure. belongs to

Claims (7)

폐기종(emphysema)의 정량적 분석을 위한 진단 모듈의 학습 방법으로서,
흉부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 적어도 하나의 학습용 의료 영상을 획득하는 단계; 및
적어도 하나의 학습된 네트워크 함수를 포함하는 전처리 모듈을 이용하여, 상기 학습용 의료 영상으로부터 폐 영역을 추출하고, 상기 폐 영역의 볼륨 및 밝기를 보정함으로써, 상기 학습용 의료 영상을 전처리하는 단계를 포함하는, 방법.
As a learning method of a diagnostic module for quantitative analysis of emphysema,
acquiring at least one training medical image generated corresponding to a continuous volume of a body part including the chest; and
Extracting a lung region from the learning medical image using a preprocessing module including at least one learned network function, and preprocessing the learning medical image by correcting the volume and brightness of the lung region, method.
제 1 항에 있어서,
상기 전처리하는 단계는,
상기 학습용 의료 영상으로부터 폐 영역을 추출하는 단계;
상기 폐 영역이 추출된 학습용 의료 영상에서 좌측 폐 영역 및 우측 폐 영역을 분할하는 단계;
상기 좌측 폐 영역 및 상기 우측 폐 영역의 볼륨을 소정 범위 이내로 조정하는 단계; 및
히스토그램 정규화(Histogram Normalization)를 통해 상기 볼륨이 조정된 상기 폐 영역의 밝기를 소정 범위 이내로 변환하는 단계를 포함하는, 방법.
According to claim 1,
In the preprocessing step,
extracting a lung region from the training medical image;
segmenting a left lung region and a right lung region from the training medical image from which the lung region is extracted;
adjusting the volume of the left lung region and the right lung region within a predetermined range; and
And converting the brightness of the lung region, the volume of which is adjusted, within a predetermined range through histogram normalization.
제 1 항에 있어서,
상기 전처리가 완료된 학습용 의료 영상에 폐기종의 심각도 클래스를 레이블링하는 단계를 더 포함하는, 방법.
According to claim 1,
The method further comprising the step of labeling the severity class of emphysema in the training medical image for which the preprocessing is completed.
제 3 항에 있어서,
상기 심각도 클래스는, 정상(normal), 경증(mild), 중등(moderate) 및 중증(severe)로 구분되는, 방법.
According to claim 3,
The severity class is divided into normal, mild, moderate and severe.
제 3 항에 있어서,
상기 레이블링된 학습용 의료 영상을 기반으로, 상기 진단 모듈의 적어도 하나의 네트워크 함수를 학습시키는 단계를 더 포함하는, 방법.
According to claim 3,
The method further comprising learning at least one network function of the diagnosis module based on the labeled training medical images.
폐기종(emphysema)의 정량적 분석을 위한 진단 모듈을 학습시키기 위한 장치로서,
적어도 하나의 프로세서; 및
상기 프로세서에 의해 실행 가능한 프로그램을 저장하는 메모리를 포함하고,
상기 프로세서는, 상기 프로그램을 실행함으로써, 흉부를 포함하는 신체 부위의 연속적인 부피에 대응하여 생성된 적어도 하나의 학습용 의료 영상을 획득하고, 적어도 하나의 학습된 네트워크 함수를 포함하는 전처리 모듈을 이용하여, 상기 학습용 의료 영상으로부터 폐 영역을 추출하고, 상기 폐 영역의 볼륨 및 밝기를 보정함으로써, 상기 학습용 의료 영상을 전처리하는, 장치.
As a device for learning a diagnostic module for quantitative analysis of emphysema,
at least one processor; and
A memory for storing a program executable by the processor;
The processor, by executing the program, obtains at least one training medical image generated corresponding to the continuous volume of the body part including the chest, and uses a preprocessing module including at least one learned network function. , An apparatus for pre-processing the medical image for learning by extracting a lung region from the medical image for learning and correcting the volume and brightness of the lung region.
제 1 항 내지 제 5 항 중 어느 한 항의 방법을 실행하기 위하여 기록 매체에 저장된 컴퓨터 프로그램.A computer program stored in a recording medium to execute the method of any one of claims 1 to 5.
KR1020210133064A 2021-10-07 2021-10-07 Method and apparatus for training a diagnostic module for quantitative analysis of emphysema KR20230057489A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210133064A KR20230057489A (en) 2021-10-07 2021-10-07 Method and apparatus for training a diagnostic module for quantitative analysis of emphysema

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210133064A KR20230057489A (en) 2021-10-07 2021-10-07 Method and apparatus for training a diagnostic module for quantitative analysis of emphysema

Publications (1)

Publication Number Publication Date
KR20230057489A true KR20230057489A (en) 2023-05-02

Family

ID=86387664

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210133064A KR20230057489A (en) 2021-10-07 2021-10-07 Method and apparatus for training a diagnostic module for quantitative analysis of emphysema

Country Status (1)

Country Link
KR (1) KR20230057489A (en)

Similar Documents

Publication Publication Date Title
US10980493B2 (en) Medical image display device, method, and program
US10198669B2 (en) Image classifying apparatus, image classifying method, and image classifying program
EP3355273B1 (en) Coarse orientation detection in image data
EP3806035A1 (en) Reducing false positive detections of malignant lesions using multi-parametric magnetic resonance imaging
WO2021186592A1 (en) Diagnosis assistance device and model generation device
CN112435341B (en) Training method and device for three-dimensional reconstruction network, and three-dimensional reconstruction method and device
US20140270447A1 (en) Systems, methods and computer readable storage media storing instructions for automatically segmenting images of a region of interest
KR102097743B1 (en) Apparatus and Method for analyzing disease based on artificial intelligence
EP2401719A1 (en) Methods for segmenting images and detecting specific structures
US11596371B2 (en) Tomographic image processing apparatus and method of separating material of object in spectral tomographic image, and computer program product
US20220222812A1 (en) Device and method for pneumonia detection based on deep learning
KR20220097859A (en) Method and apparatus for distinguishing lesion
KR20230049938A (en) Method and apparatus for quantitative analysis of emphysema
US11416994B2 (en) Method and system for detecting chest x-ray thoracic diseases utilizing multi-view multi-scale learning
KR20230057489A (en) Method and apparatus for training a diagnostic module for quantitative analysis of emphysema
KR102454374B1 (en) Method for detecting pleurl effusion and apparatus therof
KR20220143187A (en) Method and apparatus for automatically extracting emphysema using deep learning
KR20210001233A (en) Method for Blood Vessel Segmentation
KR102525396B1 (en) Method and apparatus for analyzing medical image
US11776121B2 (en) Method and apparatus for providing information needed for diagnosis of lymph node metastasis of thyroid cancer
KR102444581B1 (en) Method and apparatus for detecting diaphragm from chest image
KR20220143189A (en) Method and apparatus for reading idiopathic pulmonary fibrosis and severity thereof
KR20220143185A (en) Method and apparatus for automatically segmenting ground-glass opacity and consolidation region using deep learning
KR20240076022A (en) Method and apparatus for evaluating mild air trapping in lung
KR20230174786A (en) Medical image analysis method for evaluating cardiomegaly and apparatus thereof

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
E601 Decision to refuse application
E801 Decision on dismissal of amendment