KR20220143187A - Method and apparatus for automatically extracting emphysema using deep learning - Google Patents

Method and apparatus for automatically extracting emphysema using deep learning Download PDF

Info

Publication number
KR20220143187A
KR20220143187A KR1020210048273A KR20210048273A KR20220143187A KR 20220143187 A KR20220143187 A KR 20220143187A KR 1020210048273 A KR1020210048273 A KR 1020210048273A KR 20210048273 A KR20210048273 A KR 20210048273A KR 20220143187 A KR20220143187 A KR 20220143187A
Authority
KR
South Korea
Prior art keywords
image
emphysema
deep learning
image information
present
Prior art date
Application number
KR1020210048273A
Other languages
Korean (ko)
Inventor
김한석
유영성
피재우
스리니바산 기리시
페루말라 아킬라
제드온 멘가라 멘가라 엑셀
난다쿠마르 가우담
Original Assignee
주식회사 피맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피맥스 filed Critical 주식회사 피맥스
Priority to KR1020210048273A priority Critical patent/KR20220143187A/en
Publication of KR20220143187A publication Critical patent/KR20220143187A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0073Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by tomography, i.e. reconstruction of 3D images from 2D projections
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • A61B5/1135Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing by monitoring thoracic expansion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Abstract

The present invention relates to a method for automatically extracting images of emphysema using deep learning and an apparatus therefor, which can obtain accurate information on improvement or aggravation of a condition. According to one embodiment of the present invention, the method for automatically extracting images of emphysema using deep learning may include: a step of acquiring an image group including a plurality of images generated in response to consecutive thoracic volumes; a step of generating first image information, which has extracted images of a lung area from each image, by inputting the image group to a trained first network function; a step of generating second image information, which has detected a predetermined lesion area from each image, by inputting the image group to a trained second network function; and a step of generating a second image including the lesion area based on the first image information and the second image information.

Description

딥러닝을 이용한 폐기종 자동 추출 방법 및 장치{ METHOD AND APPARATUS FOR AUTOMATICALLY EXTRACTING EMPHYSEMA USING DEEP LEARNING}Method and apparatus for automatic emphysema extraction using deep learning

본 발명은 딥러닝을 이용하여 폐기종 부위를 자동 추출하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for automatically extracting an emphysema site using deep learning.

컴퓨터 단층촬영(CT, Computed Tomography)은 X선 촬영과 달리 인체를 가로로 자른 횡단면상을 획득한다. CT는 단순 X선 촬영에 비해 구조물이 겹쳐지는 것이 적어 구조물 및 병변을 좀더 명확히 볼 수 있는 장점이 있다. 또한 CT 촬영은 MRI에 비하여 검사비가 싸고, 검사 시간이 짧기 때문에, 대부분의 장기 및 질환에서 병변이 의심되고 정밀검사를 시행해야 할 필요가 있을 때 기본이 되는 검사법이다. Unlike X-ray imaging, computed tomography (CT) acquires a transverse cross-sectional image of the human body. Compared to simple X-ray imaging, CT has the advantage of being able to see structures and lesions more clearly because there is less overlap of structures. In addition, CT scan is a basic examination method when a lesion is suspected in most organs and diseases and a detailed examination is necessary because the examination cost is cheaper and examination time is shorter than that of MRI.

최근에는 다중채널 CT(MDCT, multi-detector CT)가 보급되면서 촬영 후 영상을 재구성하여 MRI처럼 원하는 단면상 및 입체적인 3차원(3D) 영상도 자유로이 얻을 수 있게 되었고, CT 촬영영상을 의료기관에서 수집할 수도 있다.Recently, with the spread of multi-channel CT (MDCT, multi-detector CT), it is possible to freely obtain desired cross-sectional and three-dimensional (3D) images like MRI by reconstructing the image after imaging. have.

하지만, CT 영상을 판독하는 전문의는 한정적이고, 의료 영상 판독을 의뢰할 수 있는 시스템이 갖춰져 있지 않은 실정이다. 이로 인해 개인이 CT 촬영영상을 소유하더라도 온라인으로 신뢰성 있는 판독을 의뢰할 수 없다. However, the number of specialists who read CT images is limited, and there is no system capable of requesting medical image reading. Because of this, even if an individual owns a CT image, reliable reading cannot be requested online.

특히, 코로나 바이러스 등의 바이러스 감염에 의한 폐렴은 단기간에 중증 상태로 진행이 가능하기 때문에 신속하고 정확한 진단이 요청되는데, 전문의의 판독을 기다리다 증상이 급속히 악화될 수 있는 문제점 또한 있다.In particular, since pneumonia caused by a viral infection such as coronavirus can progress to a severe state in a short period of time, a prompt and accurate diagnosis is requested, but there is also a problem that symptoms can rapidly worsen while waiting for a doctor's reading.

이에 한국등록특허공보 제1887194호에는 피검체의 흉부 영상이 입력되면 딥러닝 모델에 기초하여 흉부 영상을 판독하는 기술이 도입된 바 있다.Accordingly, Korea Patent Publication No. 1887194 has introduced a technique for reading a chest image based on a deep learning model when a chest image of a subject is input.

본 발명은 상기 문제점을 해결하기 위한 것으로서, 딥러닝을 이용한 폐기종 부위 자동 추출 방법 및 장치를 제공하는 것을 그 목적으로 한다.The present invention is to solve the above problems, and an object of the present invention is to provide a method and apparatus for automatic extraction of emphysema sites using deep learning.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따라, 딥러닝을 이용한 폐기종 부위 자동 추출 방법 이 제공된다. 상기 방법은, 흉부의 연속적인 부피에 대응하여 생성된 복수의 영상을 포함하는 영상군을 획득하는 단계; 상기 영상군을 학습된 제 1 네트워크 함수에 입력하여 각각의 상기 영상으로부터 폐 영역을 추출한 제 1 영상 정보를 생성하는 단계; 상기 영상군을 학습된 제 2 네트워크 함수에 입력하여 각각의 상기 영상으로부터 소정의 병변 영역을 검출한 제 2 영상 정보를 생성하는 단계; 및 상기 제 1 영상 정보와 상기 제 2 영상 정보를 기초로 상기 병변 영역이 포함된 제 2 영상을 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method for automatic extraction of emphysema sites using deep learning. The method may include: acquiring an image group including a plurality of images generated corresponding to successive volumes of the chest; generating first image information obtained by extracting a lung region from each image by inputting the image group into a learned first network function; generating second image information obtained by detecting a predetermined lesion region from each image by inputting the image group into a learned second network function; and generating a second image including the lesion region based on the first image information and the second image information.

본 발명에 따르면, 흉막 삼출 존재 부위를 자동으로 추출하고 이를 다른 연조직이 아닌 폐의 일부로 인식하게 하여 자동 폐 추출(lung segmentation) 정확도를 높일 수 있다. According to the present invention, the accuracy of automatic lung segmentation can be increased by automatically extracting the site where the pleural effusion exists and recognizing it as a part of the lung rather than other soft tissues.

또한, 본 발명에 따르면, 추출된 폐 영역이 정확하게 되면 폐의 전체 용적을 더욱 정확하게 계산하는 것이 가능하며, 이를 통해 다른 병변이 폐에서 차지하는 용적을 통해 CT영상을 획득한 시점의 환자 상태를 더욱 정확하게 분석, 진단할 수 있을 뿐 아니라, 상태의 호전이나 악화 정보 또한 정확하게 획득이 가능하다.In addition, according to the present invention, if the extracted lung region is accurate, it is possible to more accurately calculate the total volume of the lung. Not only can it be analyzed and diagnosed, but also information about improvement or deterioration of the condition can be accurately acquired.

본 발명의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.

본 발명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 실시예에 따른 딥러닝을 이용한 폐기종 부위 자동 추출 방법을 설명하기 위한 흐름도이다.
도 2는 본 발명의 실시예에 따른 딥러닝을 이용한 폐기종 부위 자동 추출 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 실시예에 따른 딥러닝을 이용한 폐기종 부위 자동 추출 방법에 있어서 네트워크 함수의 동작을 예시적으로 도시한다.
도 4는 본 발명의 실시예에 따른 딥러닝을 이용한 폐기종 부위 자동 추출 방법을 통해 생성된 영상을 예시적으로 도시한다.
도 5 및 도 6은 본 발명의 실시예에 따른 딥러닝을 이용한 폐기종 부위 자동 추출 방법을 통해 생성된 영상을 예시적으로 도시한다.
도 7은 본 발명의 실시예에 따른 장치의 구성을 간략히 도시한 블록도이다.
In order to more fully understand the drawings cited herein, a brief description of each drawing is provided.
1 is a flowchart for explaining a method for automatically extracting an emphysema site using deep learning according to an embodiment of the present invention.
2 is a flowchart for explaining a method for automatically extracting an emphysema site using deep learning according to an embodiment of the present invention.
3 exemplarily shows the operation of a network function in the method for automatic extraction of emphysema sites using deep learning according to an embodiment of the present invention.
4 exemplarily shows an image generated through the automatic extraction method for emphysema site using deep learning according to an embodiment of the present invention.
5 and 6 exemplarily show images generated through the automatic extraction method for emphysema sites using deep learning according to an embodiment of the present invention.
7 is a block diagram schematically illustrating the configuration of an apparatus according to an embodiment of the present invention.

본 발명의 기술적 사상은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 그러나, 이는 본 발명의 기술적 사상을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 기술적 사상의 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the technical spirit of the present invention may have various changes and may have various embodiments, specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the technical spirit of the present invention to specific embodiments, and it should be understood to include all changes, equivalents or substitutes included in the scope of the technical spirit of the present invention.

본 발명의 기술적 사상을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 발명의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.In describing the technical idea of the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. In addition, numbers (eg, first, second, etc.) used in the description of the present invention are merely identification symbols for distinguishing one component from another.

또한, 본 발명에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.In addition, in the present invention, when a component is referred to as “connected” or “connected” with another component, the component may be directly connected or directly connected to the other component, but in particular It should be understood that, unless there is a description to the contrary, it may be connected or connected through another element in the middle.

또한, 본 발명에 기재된 "~부", "~기", "~자", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 프로세서(Processor), 마이크로 프로세서(Micro Processer), 마이크로 컨트롤러(Micro Controller), CPU(Central Processing Unit), GPU(Graphics Processing Unit), APU(Accelerate Processor Unit), DSP(Digital Signal Processor), ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등과 같은 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, terms such as "~ unit", "~ group", "~ character", and "~ module" described in the present invention mean a unit that processes at least one function or operation, which is a processor, a micro Processor (Micro Processor), Micro Controller (Micro Controller), CPU (Central Processing Unit), GPU (Graphics Processing Unit), APU (Accelerate Processor Unit), DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), FPGA It may be implemented by hardware or software such as (Field Programmable Gate Array), or a combination of hardware and software.

그리고 본 발명에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.And it is intended to clarify that the classification of the constituent parts in the present invention is merely a division for each main function that each constituent unit is responsible for. That is, two or more components to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function. In addition, each of the constituent units to be described below may additionally perform some or all of the functions of other constituent units in addition to the main function it is responsible for. Of course, it can also be performed by being dedicated to it.

이하, 본 발명의 실시예들을 차례로 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail in turn.

본 명세서에 걸쳐, 네트워크 함수는 신경망 네트워크 및/또는 뉴럴 네트워크(neural network)와 동일한 의미로 사용될 수 있다. 여기서, 뉴럴 네트워크(신경망)는 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있고, 이러한 노드들은 뉴런으로 지칭될 수 있다. 뉴럴 네트워크는 일반적으로 복수의 노드들을 포함하여 구성된다. 뉴럴 네트워크를 구성하는 노드들은 하나 이상의 링크에 의해 상호 연결될 수 있다.Throughout this specification, a network function may be used synonymously with a neural network and/or a neural network. Here, a neural network (neural network) may be composed of a set of interconnected computational units that may be generally referred to as nodes, and these nodes may be referred to as neurons. A neural network is generally configured to include a plurality of nodes. Nodes constituting the neural network may be interconnected by one or more links.

뉴럴 네트워크를 구성하는 노드들 중 일부는 최초 입력 노드로부터의 거리들에 기초하여 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은 n 레이어를 구성할 수 있다.Some of the nodes constituting the neural network may configure one layer based on distances from the initial input node. For example, a set of nodes having a distance of n from the initial input node may constitute n layers.

본 명세서에서 설명하는 뉴럴 네트워크는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 딥 뉴럴 네트워크(Deep Neural Network, DNN)를 포함할 수 있다The neural network described herein may include a deep neural network (DNN) including a plurality of hidden layers in addition to an input layer and an output layer.

도 1은 본 발명의 실시예에 따른 딥러닝을 이용한 폐기종 부위 자동 추출 방법을 설명하기 위한 흐름도이다.1 is a flowchart for explaining a method for automatically extracting an emphysema site using deep learning according to an embodiment of the present invention.

본 발명의 실시예에 따른 딥러닝을 이용한 폐기종 부위 자동 추출 방법(100)은 연산 능력을 구비한 개인용 컴퓨터(Personal Computer), 워크스테이션(work station), 서버용 컴퓨터 장치 등에서 수행되거나 이를 위한 별도의 장치에서 수행될 수 있다. The method 100 for automatic extraction of emphysema site using deep learning according to an embodiment of the present invention is performed on a personal computer, a workstation, a computer device for a server, etc. with computing power, or a separate device for this can be performed in

또한, 딥러닝을 이용한 폐기종 부위 자동 추출 방법(100)은 하나 이상의 연산 장치들에서 수행될 수도 있다. 예를 들어, 본 발명의 일 실시예에 따른 딥러닝을 이용한 폐기종 부위 자동 추출 방법(100) 중 적어도 하나 이상의 단계들은 클라이언트 디바이스에서, 다른 단계들은 서버 디바이스에서 수행될 수 있다. 이러한 경우, 클라이언트 디바이스와 서버 디바이스는 네트워크로 연결되어 연산 결과를 송수신할 수 있다. 또는, 딥러닝을 이용한 폐기종 부위 자동 추출 방법(100)은 분산 컴퓨팅 기술에 의해 수행될 수도 있다.In addition, the emphysema site automatic extraction method 100 using deep learning may be performed in one or more computing devices. For example, at least one or more steps of the automatic emphysema site extraction method 100 using deep learning according to an embodiment of the present invention may be performed in a client device, and other steps may be performed in a server device. In this case, the client device and the server device may be connected through a network to transmit/receive calculation results. Alternatively, the emphysema site automatic extraction method 100 using deep learning may be performed by distributed computing technology.

S110 단계에서, 장치는 흉부의 연속적인 부피에 대응하여 생성된 복수의 2차원 영상을 포함하는 영상군을 획득할 수 있다. 예를 들어, 영상군은 대상자의 흉부 CT(Computed Tomography) 촬영 영상일 수 있다. 즉, 영상군을 구성하는 복수의 2차원 영상은 컴퓨터 단층 촬영 방법을 통해 폐를 포함하는 흉부의 단면을 일 방향으로 연속하여 촬영한 복수의 슬라이스일 수 있다. 이러한 2차원 영상을 적층함으로써, 흉부에 대한 3차원 영상 정보를 획득할 수 있게 된다.In operation S110 , the device may acquire an image group including a plurality of 2D images generated corresponding to the continuous volume of the chest. For example, the image group may be a computed tomography (CT) image of the subject's chest. That is, the plurality of 2D images constituting the image group may be a plurality of slices obtained by continuously photographing a cross section of the chest including the lungs in one direction through the computed tomography method. By stacking these two-dimensional images, it is possible to acquire three-dimensional image information on the chest.

S120 단계에서, 장치는 영상군을 학습된 제 1 네트워크 함수에 입력하여 각각의 2차원 영상으로부터 폐 영역을 추출하고, 폐 영역을 복수의 로브 영역(lobe region)으로 분할한 제 1 영상 정보를 생성할 수 있다. 제 1 네트워크 함수는 학습 데이터(예를 들어, 전문가 등에 의해 폐 영역 추출 및 로브 영역 분할이 수행된 흉부 CT 영상)를 통해 사전에 폐 영역 추출 및 로브 영역의 분할에 대한 학습이 수행된 것일 수 있다.In step S120, the device inputs the image group to the learned first network function, extracts a lung region from each 2D image, and generates first image information obtained by dividing the lung region into a plurality of lobe regions can do. The first network function may be one in which learning of lung region extraction and lobe region segmentation has been performed in advance through learning data (eg, chest CT image on which lung region extraction and lobe region segmentation have been performed by an expert, etc.) .

실시예에서, 제 1 영상 정보는 복수의 2차원 영상에 폐 영역 및/또는 로브 영역을 마스킹한 다른 2차원 영상이거나, 폐 영역 및/또는 로브 영역에 대한 좌표 정보를 포함하는 데이터일 수 있다.In an embodiment, the first image information may be another 2D image obtained by masking the lung region and/or lobe region in a plurality of 2D images, or may be data including coordinate information for the lung region and/or lobe region.

S130 단계에서, 장치는 영상군을 학습된 제 2 네트워크 함수에 입력하여 각각의 2차원 영상으로부터 소정의 병변 영역을 검출한 제 2 영상 정보를 생성할 수 있다. 제 2 네트워크 함수는 학습 데이터(예를 들어, 전문가 등에 의해 병변 영역 검출이 수행된 흉부 CT 영상)를 통해 사전에 병변 영역 검출에 대한 학습이 수행된 것일 수 있다.In operation S130 , the device may generate second image information obtained by detecting a predetermined lesion region from each 2D image by inputting the image group into the learned second network function. The second network function may be one in which learning for lesion region detection has been performed in advance through learning data (eg, a chest CT image on which lesion region detection is performed by an expert, etc.).

실시예에서, 제 2 영상 정보는 복수의 2차원 영상에 병변 영역을 마스킹한 다른 2차원 영상이거나, 병변 영역에 대한 좌표 정보를 포함하는 데이터일 수 있다. In an embodiment, the second image information may be another two-dimensional image obtained by masking a lesion region on a plurality of two-dimensional images, or data including coordinate information on the lesion region.

실시예에서, 병변 영역은 바이러스 감염에 의한 폐렴 영역을 포함할 수 있다.In embodiments, the lesion region may include a region of pneumonia caused by a viral infection.

S140 단계에서, 장치는 제 1 영상 정보와 제 2 영상 정보를 기초로 병변 영역이 포함된 3차원 영상을 생성 및/또는 표시할 수 있다. 예를 들어, 3차원 영상은 제 1 영상 정보를 기초로 생성된 3차원 폐 영상에, 제 2 영상을 기초로 생성된 3차원의 병변 영역을 중첩하여 표시한 것일 수 있다.In operation S140 , the device may generate and/or display a 3D image including the lesion region based on the first image information and the second image information. For example, the 3D image may be displayed by superimposing a 3D lesion area generated based on the second image on a 3D lung image generated based on the first image information.

실시예에서, 3차원 영상에는 분할된 복수의 로브 영역(lobe region)에 대한 정보를 포함할 수 있다. 예를 들어, S120 단계에서 분할된 로브 영역에 대응하는 복수의 3차원 로브 영역이 3차원 영상에 상이한 색상 등을 통해 표시될 수 있다.In an embodiment, the 3D image may include information on a plurality of divided lobe regions. For example, a plurality of 3D lobe regions corresponding to the lobe regions divided in step S120 may be displayed in a 3D image through different colors.

한편, 도시되어 있지 않지만, 방법(100)은 3차원 로브 영역 각각에 대하여 병변 영역의 비율을 산출하는 단계를 더 포함할 수 있다. 이러한 비율은, 특정 바이러스에 기초한 폐렴 등의 병변이 폐의 어느 부위에 집중이 되는지, 중증 정도에 따라 병변이 집중되는 부위가 어디인지, 환자의 신체적 특징 등에 따라 병변이 집중되는 부위가 어디인지 등을 판단 또는 추정하기 위한 통계적 데이터로 활용이 가능하다. Meanwhile, although not shown, the method 100 may further include calculating a ratio of the lesion area to each of the three-dimensional lobe areas. This ratio is based on which part of the lung lesions such as pneumonia based on a specific virus are concentrated, where the lesions are concentrated according to the severity, where the lesions are concentrated according to the patient's physical characteristics, etc. It can be used as statistical data for judging or estimating

도 2는 본 발명의 실시예에 따른 딥러닝을 이용한 폐기종 부위 자동 추출 방법을 설명하기 위한 흐름도이다.2 is a flowchart for explaining a method for automatically extracting an emphysema site using deep learning according to an embodiment of the present invention.

도 2의 방법(200)은 도 1의 방법(100)에 추가하여 S210 단계 내지 S240 단계를 더 포함할 수 있다.The method 200 of FIG. 2 may further include steps S210 to S240 in addition to the method 100 of FIG. 1 .

S210 단계에서, 장치는 제 1 영상 정보 및 제 2 영상 정보 중 적어도 하나를 기초로 복수의 2차원 영상에 대응하는 복수의 제 2 영상을 생성할 수 있다.In operation S210 , the device may generate a plurality of second images corresponding to the plurality of 2D images based on at least one of the first image information and the second image information.

예를 들어, 제 2 영상은 2차원 영상 각각에 대하여 폐 영역 및/또는 로브 영역을 표시한 영상이거나, 병변 영역을 표시한 영상일 수 있다. 또한, 예를 들어, 제 2 영상은 2차원 영상 각각에 대하여, 폐 영역(및/또는 로브 영역)과 병변 영역을 모두 표시한 영상일 수 있다.For example, the second image may be an image in which a lung region and/or a lobe region is displayed on each of the 2D images, or an image in which a lesion region is displayed. Also, for example, the second image may be an image in which both a lung region (and/or a lobe region) and a lesion region are displayed with respect to each of the 2D images.

S220 단계에서, 장치는 기준 좌표의 설정을 위한 사용자 입력을 수신할 수 있다. 기준 좌표는 3차원 영상과 정합하여 표시될 2차원의 제 2 영상을 선택하기 위한 기준이 되는 것으로서, 생성된 3차원 영상이 맵핑되는 3차원 좌표 공간 상의 수직 좌표 값일 수 있다.In step S220, the device may receive a user input for setting the reference coordinates. The reference coordinate serves as a reference for selecting a two-dimensional second image to be displayed by matching the three-dimensional image, and may be a vertical coordinate value in a three-dimensional coordinate space to which the generated three-dimensional image is mapped.

예를 들어, 사용자 입력은 디스플레이 장치에 표시된 3차원 영상의 일 영역을 클릭하거나, 스크롤하는 등의 입력일 수 있다.For example, the user input may be an input such as clicking or scrolling an area of a 3D image displayed on the display device.

실시예에서, 장치는 기준 좌표에 대한 사용자 입력이 수신되기 전에는 장치는 디폴트 값으로 설정된 기준 좌표에 대응하는 제 2 영상을 3차원 영상과 정합하여 표시하도록 설정될 수 있다.In an embodiment, the device may be set to display the second image corresponding to the reference coordinate set as a default value by matching the 3D image before the user input for the reference coordinate is received.

S230 단계에서, 장치는 기준 좌표에 대응하는 제 2 영상을 검색할 수 있다. In step S230, the device may search for a second image corresponding to the reference coordinates.

예를 들어, 3차원 영상은 입력된 영상군에 포함된 2차원 영상으로부터 획득된 제 1 영상 정보와 제 2 영상 정보를 수직 방향으로 적층하여 소정의 3차원 좌표 공간에 생성된 것일 수 있으며, 3차원 영상의 수직 좌표 중 하나에 대응하는 기준 좌표가 입력되면, 장치는 복수의 제 2 영상 중에서 해당 위치에 대응하는 제 2 영상을 검색할 수 있다.For example, the 3D image may be generated in a predetermined 3D coordinate space by vertically stacking the first image information and the second image information obtained from the 2D image included in the input image group, 3 When the reference coordinate corresponding to one of the vertical coordinates of the dimensional image is input, the device may search for a second image corresponding to the corresponding position from among the plurality of second images.

S240 단계에서, 장치는 검색된 제 2 영상을 기준 좌표를 기초로 3차원 영상에 정합하여 표시할 수 있다. In operation S240 , the device may display the searched second image by matching it with the 3D image based on the reference coordinates.

예를 들어, 장치는 검색된 제 2 영상을 3차원 공간의 수직 좌표 축에 수직되도록 배치하고, 제 2 영상의 폐 영역을 3차원 영상(폐 영상)의 수평 단면과 정합하여 표시할 수 있다.For example, the device may arrange the found second image to be perpendicular to the vertical coordinate axis of the 3D space, and display the lung region of the second image by matching the horizontal section of the 3D image (lung image).

한편, 사용자 입력에 의해 기준 좌표가 변경되면, 장치는 제 2 영상을 갱신하여 표시할 수 있다. 즉, 장치는 변경된 기준 좌표에 대응하는 새로운 제 2 영상을 검색하고, 이를 3차원 영상과 정합하여 다시 표시할 수 있다.Meanwhile, when the reference coordinates are changed by the user input, the device may update and display the second image. That is, the device may search for a new second image corresponding to the changed reference coordinates, match it with the 3D image, and display it again.

도 3은 본 발명의 실시예에 따른 딥러닝을 이용한 폐기종 부위 자동 추출 방법에 있어서 네트워크 함수의 동작을 예시적으로 도시한다.3 exemplarily shows the operation of a network function in the method for automatic extraction of emphysema sites using deep learning according to an embodiment of the present invention.

도 3을 참조하면, 복수의 2차원 단층 영상을 포함하는 흉부 CT 영상이 학습된 제 1 네트워크 함수와 제 2 네트워크 함수에 각각 입력될 수 있다.Referring to FIG. 3 , a chest CT image including a plurality of two-dimensional tomography images may be input to a learned first network function and a second network function, respectively.

이에 따라, 제 1 네트워크 함수는 입력된 복수의 2차원 단층 영상 각각으로부터 폐 영역을 추출하거나, 이에 더하여, 폐 영역을 복수의 로브 영역으로 분리하고, 추출 및/또는 분리된 영역을 2차원 단층 영상에 각각 마스킹함으로써 제 1 영상 정보를 생성할 수 있다.Accordingly, the first network function extracts a lung region from each of a plurality of input two-dimensional tomography images, or in addition, divides the lung region into a plurality of lobe regions, and divides the extracted and/or separated regions into a two-dimensional tomography image. The first image information may be generated by masking each of the .

한편, 제 2 네트워크 함수는 입력된 복수의 2차원 단층 영상 각각으로부터 폐렴에 해당하는 병변 영역을 검출하고, 검출된 병변 영역을 2차원 단층 영상에 각각 마스킹함으로써 제 2 영상 정보를 생성할 수 있다.Meanwhile, the second network function may generate second image information by detecting a lesion area corresponding to pneumonia from each of the plurality of input 2D tomography images, and masking the detected lesion area to the 2D tomography image, respectively.

도 4는 본 발명의 실시예에 따른 딥러닝을 이용한 폐기종 부위 자동 추출 방법을 통해 생성된 영상을 예시적으로 도시한다.4 exemplarily shows an image generated through an automatic extraction method for emphysema sites using deep learning according to an embodiment of the present invention.

도 4를 참조하면, 제 1 네트워크 함수와 제 2 네트워크 함수에 의해 각각 생성된 제 1 영상 정보와 제 2 영상 정보를 기초로 장치는 3차원의 폐 영상을 생성할 수 있다.Referring to FIG. 4 , the apparatus may generate a 3D lung image based on first image information and second image information generated by the first network function and the second network function, respectively.

실시예에서, 3차원 폐 영상은, 도 4의 (a)에서 도시되는 바와 같이, 5개의 3차원 로브 영역(410)과 해당 영역 각각에 분포된 3차원의 병변 영역(420)을 포함할 수 있다.In an embodiment, the three-dimensional lung image may include five three-dimensional lobe regions 410 and a three-dimensional lesion region 420 distributed in each of the corresponding regions, as shown in (a) of FIG. 4 . have.

또한, 실시예에서, 3차원 폐 영상은, 로브 영역의 구분 없이 전체의 폐 영역에 분포된 3차원의 병변 영역(420)을 포함할 수 있다. Also, in an embodiment, the 3D lung image may include the 3D lesion area 420 distributed over the entire lung area without distinction of the lobe area.

도 5 및 도 6은 본 발명의 실시예에 따른 딥러닝을 이용한 폐기종 부위 자동 추출 방법을 통해 생성된 영상을 예시적으로 도시한다.5 and 6 exemplarily show images generated through the automatic extraction method for emphysema sites using deep learning according to an embodiment of the present invention.

먼저, 도 5를 참조하면, 장치는 제 1 영상 정보 및/또는 제 2 영상 정보를 기초로 각각의 2차원 단층 영상에 대응하는 복수의 제 2 영상을 생성하고, 이들 중 하나를 3차원 폐 영상과 정합하여 표시할 수 있다. 여기서, 각각의 제 2 영상은 폐 영역, 로브 영역 및/또는 병변 영역에 대한 정보를 포함할 수 있다.First, referring to FIG. 5 , the device generates a plurality of second images corresponding to each 2D tomography image based on the first image information and/or the second image information, and converts one of them into a 3D lung image It can be displayed by matching with . Here, each second image may include information on a lung region, a lobe region, and/or a lesion region.

도시되는 바와 같이, 사용자가 입력한 또는 디폴트 값으로 설정된 기준 좌표에 대응하는 제 2 영상을 선택하고, 3차원 폐 영상이 수직 좌표축과 수직되도록 수평 방향으로 제 2 영상을 배치하되, 제 2 영상의 폐 영역이 3차원 폐 영상이 수평 단면과 정합되도록 표시될 수 있다.As shown, a second image corresponding to a reference coordinate input by the user or set as a default value is selected, and the second image is arranged in a horizontal direction so that the three-dimensional lung image is perpendicular to the vertical coordinate axis, but The lung region may be displayed so that the 3D lung image is matched with the horizontal section.

한편, 사용자가 기준 좌표를 변경하는 소정의 사용자 입력을 수행하면, 도 6에서 도시되는 바와 같이, 제 2 영상이 갱신되어 표시될 수 있다.Meanwhile, when the user performs a predetermined user input for changing the reference coordinates, as shown in FIG. 6 , the second image may be updated and displayed.

예를 들어, 사용자가 3차원 폐 영상이 표시된 영역 또는 그 주변 영역을 상측으로 스크롤하면, 기준 좌표가 증가하면서, 이에 대응하는 제 2 영상이 순차적으로 검출되고, 검출된 제 2 영상이 수직 방향으로 보다 상측으로 이동하면서 3차원 폐 영상과 정합하여 표시될 수 있다.For example, if the user scrolls upwardly in the area on which the 3D lung image is displayed or the area around it, the reference coordinates increase, second images corresponding thereto are sequentially detected, and the detected second image is displayed in the vertical direction. It can be displayed in alignment with the 3D lung image while moving upward.

도 7은 본 발명의 실시예에 따른 장치의 구성을 간략히 도시한 블록도이다.7 is a block diagram schematically illustrating the configuration of an apparatus according to an embodiment of the present invention.

통신부(710)는 병변을 판독하기 위한 입력 데이터(흉부 CT 영상 등)를 수신할 수 있다. 통신부(710)는 유무선 통신부를 포함할 수 있다. 통신부(710)가 유선 통신부를 포함하는 경우, 통신부(710)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 통하여 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 또한, 통신부(710)가 무선 통신부를 포함하는 경우, 통신부(710)는 셀룰러 통신, 무선랜(예를 들어, 와이-파이(Wi-Fi)) 등을 이용하여 무선으로 데이터 또는 신호를 송수신할 수 있다. 일 실시예에서, 통신부는 프로세서(740)의 제어에 의해 외부 장치 또는 외부 서버와 데이터 또는 신호를 송수신할 수 있다. The communication unit 710 may receive input data (such as a chest CT image) for reading the lesion. The communication unit 710 may include a wired/wireless communication unit. When the communication unit 710 includes a wired communication unit, the communication unit 710 is a local area network (LAN), a wide area network (WAN), a value added network (VAN), a mobile communication network ( mobile radio communication network), a satellite communication network, and one or more components that allow communication through a combination thereof. In addition, when the communication unit 710 includes a wireless communication unit, the communication unit 710 wirelessly transmits and receives data or signals using cellular communication, a wireless LAN (eg, Wi-Fi). can In an embodiment, the communication unit may transmit/receive data or signals to and from an external device or an external server under the control of the processor 740 .

입력부(720)는 외부의 조작을 통해 다양한 사용자 명령을 수신할 수 있다. 이를 위해, 입력부(720)는 하나 이상의 입력 장치를 포함하거나 연결할 수 있다. 예를 들어, 입력부(720)는 키패드, 마우스 등 다양한 입력을 위한 인터페이스와 연결되어 사용자 명령을 수신할 수 있다. 이를 위해, 입력부(720)는 USB 포트 뿐만 아니라 선더볼트 등의 인터페이스를 포함할 수도 있다. 또한, 입력부(720)는 터치스크린, 버튼 등의 다양한 입력 장치를 포함하거나 이들과 결합하여 외부의 사용자 명령을 수신할 수 있다.The input unit 720 may receive various user commands through external manipulation. To this end, the input unit 720 may include or connect one or more input devices. For example, the input unit 720 may be connected to an interface for various inputs, such as a keypad and a mouse, to receive a user command. To this end, the input unit 720 may include an interface such as a Thunderbolt as well as a USB port. Also, the input unit 720 may include or combine various input devices such as a touch screen and a button to receive an external user command.

메모리(730)는 프로세서(740)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들을 임시 또는 영구 저장할 수 있다. 메모리(730)는 플래시 메모리(flash memory) 타입, 하드디스크(hard disk) 타입, 멀티미디어 카드 마이크로(multimedia card micro) 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM), SRAM, 롬(ROM), EEPROM, PROM, 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 730 may store a program for the operation of the processor 740 and may temporarily or permanently store input/output data. The memory 730 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), and a RAM (RAM). , SRAM, ROM, EEPROM, PROM, magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium.

또한, 메모리(730)는 다양한 네트워크 함수 및 알고리즘을 저장할 수 있으며, 장치(700)를 구동하고 제어하기 위한 다양한 데이터, 프로그램(하나 이상이 인스트럭션들), 어플리케이션, 소프트웨어, 명령, 코드 등을 저장할 수 있다.In addition, the memory 730 may store various network functions and algorithms, and may store various data, programs (one or more instructions), applications, software, commands, codes, etc. for driving and controlling the device 700 . have.

프로세서(740)는 장치(700)의 전반적인 동작을 제어할 수 있다. 프로세서(740)는 메모리(730)에 저장되는 하나 이상의 프로그램들을 실행할 수 있다. 프로세서(740)는 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphics Processing Unit, GPU) 또는 본 발명의 기술적 사상에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다.The processor 740 may control the overall operation of the device 700 . The processor 740 may execute one or more programs stored in the memory 730 . The processor 740 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to the inventive concept are performed.

일 실시예에서, 프로세서(740)는 흉부의 연속적인 부피에 대응하여 생성된 복수의 2차원 영상을 포함하는 영상군을 획득하고, 상기 영상군을 학습된 제 1 네트워크 함수에 입력하여 각각의 상기 2차원 영상으로부터 폐 영역을 추출한 제 1 영상 정보를 생성하며, 상기 영상군을 학습된 제 2 네트워크 함수에 입력하여 각각의 상기 2차원 영상으로부터 소정의 병변 영역을 검출한 제 2 영상 정보를 생성하고, 상기 제 1 영상 정보와 상기 제 2 영상 정보를 기초로 상기 병변 영역이 포함된 3차원 영상을 생성할 수 있다.In one embodiment, the processor 740 obtains an image group including a plurality of two-dimensional images generated corresponding to the continuous volume of the chest, and inputs the image group to the learned first network function to each A first image information obtained by extracting a lung region from a two-dimensional image is generated, and the image group is input to a learned second network function to generate second image information obtained by detecting a predetermined lesion region from each of the two-dimensional images, , a 3D image including the lesion region may be generated based on the first image information and the second image information.

일 실시예에 따른 딥러닝을 이용한 폐기종 부위 자동 추출 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The emphysema site automatic extraction method using deep learning according to an embodiment may be implemented in the form of a program command that can be performed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

또한, 개시된 실시예들에 따른 딥러닝을 이용한 폐기종 부위 자동 추출 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.In addition, the automatic extraction method for emphysema site using deep learning according to the disclosed embodiments may be provided included in a computer program product (computer program product). Computer program products may be traded between sellers and buyers as commodities.

컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.The computer program product may include a S/W program and a computer-readable storage medium in which the S/W program is stored. For example, computer program products may include products (eg, downloadable apps) in the form of S/W programs distributed electronically through manufacturers of electronic devices or electronic markets (eg, Google Play Store, App Store). have. For electronic distribution, at least a portion of the S/W program may be stored in a storage medium or may be temporarily generated. In this case, the storage medium may be a server of a manufacturer, a server of an electronic market, or a storage medium of a relay server temporarily storing a SW program.

컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제 3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제 3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제 3 장치로 전송되거나, 제 3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.The computer program product, in a system consisting of a server and a client device, may include a storage medium of the server or a storage medium of the client device. Alternatively, if there is a third device (eg, a smart phone) that is communicatively connected to the server or the client device, the computer program product may include a storage medium of the third device. Alternatively, the computer program product may include the S/W program itself transmitted from the server to the client device or the third device, or transmitted from the third device to the client device.

이 경우, 서버, 클라이언트 장치 및 제 3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제 3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.In this case, one of the server, the client device and the third device may execute the computer program product to perform the method according to the disclosed embodiments. Alternatively, two or more of a server, a client device, and a third device may execute a computer program product to distribute the method according to the disclosed embodiments.

예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.For example, a server (eg, a cloud server or an artificial intelligence server) may execute a computer program product stored in the server to control a client device communicatively connected with the server to perform the method according to the disclosed embodiments.

이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also included in the scope of the present invention. belongs to

Claims (1)

딥러닝을 이용한 폐기종 부위 자동 추출 방법에 있어서,
흉부의 연속적인 부피에 대응하여 생성된 복수의 영상을 포함하는 영상군을 획득하는 단계;
상기 영상군을 학습된 제 1 네트워크 함수에 입력하여 각각의 상기 영상으로부터 폐 영역을 추출한 제 1 영상 정보를 생성하는 단계;
상기 영상군을 학습된 제 2 네트워크 함수에 입력하여 각각의 상기 영상으로부터 소정의 병변 영역을 검출한 제 2 영상 정보를 생성하는 단계; 및
상기 제 1 영상 정보와 상기 제 2 영상 정보를 기초로 상기 병변 영역이 포함된 제 2 영상을 생성하는 단계를 포함하는, 방법.
In the automatic extraction method of emphysema site using deep learning,
acquiring an image group including a plurality of images generated corresponding to a continuous volume of the chest;
generating first image information obtained by extracting a lung region from each image by inputting the image group into a learned first network function;
generating second image information obtained by detecting a predetermined lesion region from each image by inputting the image group into a learned second network function; and
and generating a second image including the lesion region based on the first image information and the second image information.
KR1020210048273A 2021-04-14 2021-04-14 Method and apparatus for automatically extracting emphysema using deep learning KR20220143187A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210048273A KR20220143187A (en) 2021-04-14 2021-04-14 Method and apparatus for automatically extracting emphysema using deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210048273A KR20220143187A (en) 2021-04-14 2021-04-14 Method and apparatus for automatically extracting emphysema using deep learning

Publications (1)

Publication Number Publication Date
KR20220143187A true KR20220143187A (en) 2022-10-25

Family

ID=83803782

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210048273A KR20220143187A (en) 2021-04-14 2021-04-14 Method and apparatus for automatically extracting emphysema using deep learning

Country Status (1)

Country Link
KR (1) KR20220143187A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117078686A (en) * 2023-10-17 2023-11-17 万里云医疗信息科技(北京)有限公司 Method, apparatus and storage medium for constructing samples for training bone suppression model

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117078686A (en) * 2023-10-17 2023-11-17 万里云医疗信息科技(北京)有限公司 Method, apparatus and storage medium for constructing samples for training bone suppression model
CN117078686B (en) * 2023-10-17 2024-01-23 万里云医疗信息科技(北京)有限公司 Method, apparatus and storage medium for constructing samples for training bone suppression model

Similar Documents

Publication Publication Date Title
US10980493B2 (en) Medical image display device, method, and program
US10452957B2 (en) Image classification apparatus, method, and program
US10734107B2 (en) Image search device, image search method, and image search program
CN104217418B (en) The segmentation of calcification blood vessel
US20200226752A1 (en) Apparatus and method for processing medical image
US10650282B2 (en) Medical image classification apparatus, method, and program
US10039501B2 (en) Computer-aided diagnosis (CAD) apparatus and method using consecutive medical images
KR20220097859A (en) Method and apparatus for distinguishing lesion
US20120220855A1 (en) Method and System for MR Scan Range Planning
KR20220143187A (en) Method and apparatus for automatically extracting emphysema using deep learning
KR102454374B1 (en) Method for detecting pleurl effusion and apparatus therof
KR102325970B1 (en) Method and apparatus for calculating fat mass using images of head and neck
KR20220143186A (en) Method for determining pleural effusion and increasing accuracy of automatic extraction of lungs with pleural effusion
KR20230049938A (en) Method and apparatus for quantitative analysis of emphysema
US20210319210A1 (en) Region specification apparatus, region specification method, and region specification program
KR20220143188A (en) Method and apparatus for matching coronal projection image with one or more lung x-ray images
KR20220142570A (en) Method and apparatus for automatically extracting lung and segmenting lung regions
KR20220143189A (en) Method and apparatus for reading idiopathic pulmonary fibrosis and severity thereof
US20210383164A1 (en) Region specification apparatus, region specification method, region specification program, learning apparatus, learning method, learning program, and discriminator
KR20220143185A (en) Method and apparatus for automatically segmenting ground-glass opacity and consolidation region using deep learning
EP4296945A1 (en) Labeling method and computing device therefor
KR20220143190A (en) Method of displaying related data of training results based on a plurality of medical images
KR102444581B1 (en) Method and apparatus for detecting diaphragm from chest image
KR102525396B1 (en) Method and apparatus for analyzing medical image
KR102513565B1 (en) Method and apparatus for matching lung areas autimatically