KR20230051374A - Method and apparatus for providing information to monitor lung disease progression - Google Patents

Method and apparatus for providing information to monitor lung disease progression Download PDF

Info

Publication number
KR20230051374A
KR20230051374A KR1020210134230A KR20210134230A KR20230051374A KR 20230051374 A KR20230051374 A KR 20230051374A KR 1020210134230 A KR1020210134230 A KR 1020210134230A KR 20210134230 A KR20210134230 A KR 20210134230A KR 20230051374 A KR20230051374 A KR 20230051374A
Authority
KR
South Korea
Prior art keywords
lung
region
image
lung region
chest
Prior art date
Application number
KR1020210134230A
Other languages
Korean (ko)
Inventor
김한석
유영성
스리니바산 기리시
피재우
난다쿠마르 가우담
테이쇼크 아터
Original Assignee
주식회사 피맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 피맥스 filed Critical 주식회사 피맥스
Priority to KR1020210134230A priority Critical patent/KR20230051374A/en
Publication of KR20230051374A publication Critical patent/KR20230051374A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Abstract

The present disclosure relates to a method of providing information for tracking the progression of lung disease and a device, therefore. The method of providing information for tracking the progress of lung disease according to an embodiment of the present disclosure comprises the steps of: extracting a 3D first lung area from a 3D chest tomography (CT) image through a learned first network function; detecting a lesion area from the first lung area extracted through a learned second network function; generating a 2D image of a second lung area by projecting the first lung area including the detected lesion area onto a coronal plane; extracting a third lung area from a chest radiography (X-ray) image through a learned third network function; transforming the second lung area based on the third lung area and calculating an output value of a loss function for similarity to the third lung area; and matching a second closed area with a third closed area by optimizing the second closed area based on the output value of the loss function. According to the present invention, a process of manually or semi-automatically performing matching for comparison with the image is automated, thereby saving the required manpower and time.

Description

폐 질환 경과 추적을 위한 정보 제공 방법 및 이를 위한 장치{METHOD AND APPARATUS FOR PROVIDING INFORMATION TO MONITOR LUNG DISEASE PROGRESSION}Method for providing information for tracking the progress of lung disease and apparatus therefor

본 개시(disclosure)의 기술적 사상은 폐 질환 경과 추적을 위한 정보 제공 방법 및 이를 위한 장치에 관한 것이다.The technical idea of the present disclosure (disclosure) relates to a method for providing information for tracking the progress of lung diseases and an apparatus therefor.

만성적인 폐렴, 만성 폐색성 폐질환(COPD), 특발성 폐섬유화증(IPF)이 발생하여 지속적인 관찰이 요구되는 환자의 진단 및 치료에 있어, 영상을 통해 질병의 악화나 개선을 판단할 때 다른 시간에 얻어진 다수의 영상을 판독하여 진단을 내린다. In the diagnosis and treatment of patients with chronic pneumonia, chronic obstructive pulmonary disease (COPD), and idiopathic pulmonary fibrosis (IPF) requiring continuous observation, when determining the worsening or improvement of the disease through imaging, different time A diagnosis is made by reading a number of images obtained in

예를 들어, 흉부 단층 촬영(CT)은 일반적으로 방사선량이 높아 반복적으로 사용되지 않지만, 질병이 발병한 위치를 정확하게 알 수 있으며, 때문에 1-2건의 단층 촬영 영상을 기준으로 하고 상대적으로 방사선량이 적은 다수의 흉부 방사선(X-ray) 영상을 질병 진행 경과를 판단하는 데 사용할 수 있다.For example, chest tomography (CT) is generally not used repeatedly due to its high radiation dose, but it can pinpoint the location of disease onset, so it is based on 1-2 tomographic images and has a relatively low radiation dose. Multiple chest X-ray images can be used to determine the course of disease progression.

이때, 이미지 획득 장치의 위치, 촬영 기기의 설정, 그리고 치료 과정에 필요한 여러 구조물에 의해 영상상에 나타난 대상의 위치와 크기가 달라지는 것은 불가피하기 때문에, 보다 손쉽게 질병 경과를 관찰하기 위해서는 이들을 기준 크기 및 위치로 상호 일치시키는 과정, 즉, 정합 과정이 필요하다. At this time, since it is inevitable that the location and size of the object shown on the image will change due to the location of the image acquisition device, the setting of the imaging device, and various structures required for the treatment process, in order to more easily observe the disease process, they are set to a standard size and A process of matching each other by location, that is, a matching process is required.

종래에는 이러한 정합을 수동 또는 반자동의 방식을 이용하여 수행하였다.Conventionally, such matching was performed using a manual or semi-automatic method.

구체적으로, 수동 정합은 사용자가 입력 장치와 수동 정합 소프트웨어를 이용하여 영상에 기하학적인 변환(이동, 회전, 확대 및 축소)을 수행하며, 반자동 정합은 사용자가 해부학적으로 의미가 있고 시각적으로 구분하기 쉬운 부분(키 포인트)을 정합 원본(source)영상과 정합 대상(target)영상에서 동일하게 3개 이상 선택하여 원본 영상과 일치하도록 대상 영상에 기하학적 변환을 수행한다. Specifically, in manual registration, the user performs geometric transformation (movement, rotation, enlargement and reduction) on the image using an input device and manual registration software, and semi-automatic registration allows the user to make an anatomically meaningful and visually distinguishable images. Three or more easy parts (key points) are equally selected from the matching original (source) image and matching target (target) image, and geometric transformation is performed on the target image to match the original image.

그런데, 이러한 종래의 방식은 질환의 진행에 따른 영상상의 음영의 차이, 치료를 위한 구조물 (동맥관, 정맥관, 또는 기도 삽관 등)에 따른 영상 차이, 영상 획득을 위한 기기의 파라미터 설정(선량 등)에 따라 정합 오차 또는 오류가 발생한다는 문제점이 있다. 또한, 하나의 정합 원본에 다수의 영상을 정합하는 데 있어, 사용자가 반자동 또는 자동 정합에 의해 발생한 오차를 정정하는 데 많은 시간과 인력이 소요됨은 물론, 이를 위한 사용자 교육에 따른 비용이 발생한다는 문제점 역시 가지고 있었다.However, this conventional method is dependent on the difference in the shade of the image according to the progression of the disease, the difference in the image according to the structure for treatment (arterial tube, venous tube, or airway intubation, etc.), and the parameter setting (dose, etc.) of the device for image acquisition. Accordingly, there is a problem in that matching errors or errors occur. In addition, in registering multiple images to one original registration, it takes a lot of time and manpower for the user to correct errors caused by semi-automatic or automatic registration, as well as the cost of user training for this problem. also had

본 개시의 기술적 사상에 따른 폐 질환 경과 추적을 위한 정보 제공 방법 및 이를 위한 장치가 이루고자 하는 기술적 과제는, 단층 촬영(CT) 영상과 방사선(X-ray) 영상을 자동 정합함으로써 만성 폐질환 환자의 경과 추적을 위한 정보를 제공할 수 있는 방법 및 이를 위한 장치를 제공하는 데에 있다.A technical task to be achieved by a method for providing information for tracing the progress of lung disease and an apparatus therefor according to the technical idea of the present disclosure is to automatically match a CT image and an X-ray image to improve the quality of patients with chronic lung disease. An object of the present invention is to provide a method capable of providing information for progress tracking and a device therefor.

본 개시의 기술적 사상에 따른 폐 질환 경과 추적을 위한 정보 제공 방법 및 이를 위한 장치가 이루고자 하는 기술적 과제는 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제는 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Technical tasks to be achieved by a method for providing information for tracking the progress of lung diseases and an apparatus therefor according to the technical idea of the present disclosure are not limited to the tasks mentioned above, and other tasks not mentioned will be clear to those skilled in the art from the description below. will be understandable.

본 개시의 기술적 사상에 의한 일 양태에 따르면, 폐 질환 경과 추적을 위한 정보 제공 방법은, 학습된 제 1 네트워크 함수를 통해 3차원 흉부 단층 촬영(CT) 영상으로부터 3차원의 제 1 폐 영역을 추출하는 단계; 학습된 제 2 네트워크 함수를 통해 추출된 상기 제 1 폐 영역으로부터 병변 영역을 검출하는 단계; 검출된 상기 병변 영역을 포함하는 상기 제 1 폐 영역을 관상면에 투영함으로써 제 2 폐 영역에 대한 2차원 영상을 생성하는 단계; 학습된 제 3 네트워크 함수를 통해 흉부 방사선(X-ray) 영상으로부터 제 3 폐 영역을 추출하는 단계; 상기 제 3 폐 영역을 기준으로 상기 제 2 폐 영역을 변형하면서, 상기 제 3 폐 영역과의 유사도에 대한 손실 함수의 출력값을 산출하는 단계; 및 상기 손실 함수의 출력값을 기초로 상기 제 2 폐 영역을 최적화함으로써, 상기 제 2 폐 영역을 상기 제 3 폐 영역과 정합하는 단계를 포함할 수 있다.According to one aspect of the technical concept of the present disclosure, a method for providing information for tracking the progress of lung diseases includes extracting a first 3-dimensional lung region from a 3-dimensional chest tomography (CT) image through a learned first network function. doing; detecting a lesion area from the first lung area extracted through a learned second network function; generating a two-dimensional image of a second lung region by projecting the first lung region including the detected lesion region onto a coronal plane; extracting a third lung region from a chest X-ray image through a learned third network function; calculating an output value of a loss function for similarity with the third closed region while modifying the second closed region based on the third closed region; and matching the second closed region with the third closed region by optimizing the second closed region based on the output value of the loss function.

예시적인 실시예에 따르면, 상기 제 3 폐 영역과의 유사도에 대한 손실 함수의 출력값을 산출하는 단계는, 상기 제 2 폐 영역에 대한 이동, 회전, 확대 및 축소 중 적어도 하나를 수행하고, 상기 손실 함수의 출력값을 산출함으로써 수행될 수 있다.According to an exemplary embodiment, the calculating of the output value of the loss function for the similarity with the third lung region may include performing at least one of movement, rotation, enlargement, and reduction of the second lung region, and the loss This can be done by calculating the output value of the function.

예시적인 실시예에 따르면, 상기 제 3 폐 영역과 정합하는 단계는, 상기 손실 함수의 출력값이 최소값에 도달하도록, 상기 제 3 폐 영역과의 유사도에 대한 손실 함수의 출력값을 산출하는 단계를 반복함으로써 수행될 수 있다.According to an exemplary embodiment, the matching with the third closed region may include repeating the step of calculating an output value of a loss function for similarity with the third closed region so that the output value of the loss function reaches a minimum value. can be performed

예시적인 실시예에 따르면, 상기 흉부 단층 촬영 영상 및 상기 흉부 방사선 영상의 촬영 시, 피검자의 위치에 대한 표준 프로토콜에 기초하여 이동, 회전, 확대 및 축소 중 적어도 하나에 대한 탐색 범위를 설정하는 단계를 더 포함하고, 상기 제 3 폐 영역과의 유사도에 대한 손실 함수의 출력값을 산출하는 단계는, 상기 탐색 범위 내에서 이동량, 회전량, 확대량 및 축소량 중 적어도 하나를 변경함으로써 수행될 수 있다.According to an exemplary embodiment, when the chest tomography image and the chest radiographic image are captured, setting a search range for at least one of movement, rotation, enlargement, and reduction based on a standard protocol for the location of the subject. Further, the calculating of the output value of the loss function for the similarity with the third lung region may be performed by changing at least one of a movement amount, a rotation amount, an enlargement amount, and a reduction amount within the search range.

예시적인 실시예에 따르면, 최적화된 상기 제 2 폐 영역을 상기 흉부 방사선 영상의 상기 제 3 폐 영역에 대응하는 위치에 합성하는 단계를 더 포함할 수 있다.According to an exemplary embodiment, the method may further include synthesizing the optimized second lung region at a position corresponding to the third lung region of the chest radiographic image.

본 개시의 기술적 사상에 의한 일 양태에 따르면, 폐 질환 경과 추적을 위한 정보 제공 장치는, 적어도 하나의 프로세서; 상기 프로세서에 의해 실행 가능한 프로그램을 저장하는 메모리; 및 상기 프로세서는, 상기 프로그램을 실행함으로써, 학습된 제 1 네트워크 함수를 통해 3차원 흉부 단층 촬영(CT) 영상으로부터 3차원의 제 1 폐 영역을 추출하고, 학습된 제 2 네트워크 함수를 통해 추출된 상기 제 1 폐 영역으로부터 병변 영역을 검출하며, 검출된 상기 병변 영역을 포함하는 상기 제 1 폐 영역을 관상면에 투영함으로써 제 2 폐 영역에 대한 2차원 영상을 생성하고, 학습된 제 3 네트워크 함수를 통해 흉부 방사선(X-ray) 영상으로부터 제 3 폐 영역을 추출하며, 상기 제 3 폐 영역을 기준으로 상기 제 2 폐 영역을 변형하고, 상기 제 3 폐 영역과의 유사도에 대한 손실 함수의 출력값을 산출하고, 상기 손실 함수의 출력값을 기초로 상기 제 2 폐 영역을 최적화함으로써, 상기 제 2 폐 영역을 상기 제 3 폐 영역과 정합할 수 있다.According to one aspect according to the technical idea of the present disclosure, an information providing device for tracking the progress of a lung disease includes at least one processor; a memory for storing a program executable by the processor; and by executing the program, the processor extracts a 3D first lung region from a 3D chest tomography (CT) image through the learned first network function, and extracts the extracted first lung region through the learned second network function. A lesion area is detected from the first lung area, a 2D image of the second lung area is generated by projecting the first lung area including the detected lesion area onto a coronal plane, and the learned third network function extracts a third lung region from a chest X-ray image, transforms the second lung region based on the third lung region, and outputs a loss function for similarity with the third lung region The second closed region may be matched with the third closed region by calculating and optimizing the second closed region based on the output value of the loss function.

본 개시의 기술적 사상에 의한 실시예들에 따른 폐 질환 경과 추적을 위한 정보 제공 방법 및 이를 위한 장치에 따르면, 사용자(영상의학과 의사)가 만성 폐질환 환자 영상을 판독하는 데 있어, 과거 영상과의 비교가 용이해지게 되므로, 판독 및 진단에 소요되는 시간과 노력을 대폭 줄일 수 있다.According to the information providing method and apparatus for tracing the progress of lung disease according to embodiments according to the technical idea of the present disclosure, when a user (radiologist) reads an image of a patient with chronic lung disease, Since comparison becomes easy, the time and effort required for reading and diagnosis can be greatly reduced.

본 개시의 기술적 사상에 의한 실시예들에 따른 폐 질환 경과 추적을 위한 정보 제공 방법 및 이를 위한 장치에 따르면, 영상과의 비교를 위해 수동 또는 반자동으로 정합을 수행하던 과정이 자동화되어 필요한 인력과 시간을 절감할 수 있다.According to the information providing method and apparatus for tracing the progress of lung diseases according to embodiments according to the technical idea of the present disclosure, the process of performing manual or semi-automatic registration for comparison with images is automated, requiring manpower and time. can save

본 개시의 기술적 사상에 의한 실시예들에 따른 폐 질환 경과 추적을 위한 정보 제공 방법 및 이를 위한 장치에 따르면, 기존 영상 전체를 대상으로 정합하는 과정과는 다르게 폐 영역만을 기준으로 잡기 때문에 연산량을 큰 폭으로 줄일 수 있음과 동시에, 영상의 변환 오차를 줄일 수 있다.According to the information providing method and apparatus for tracking the progress of lung diseases according to embodiments according to the technical idea of the present disclosure, unlike the process of matching the entire existing image, since only the lung region is used as a criterion, the amount of calculation is large. The width can be reduced, and at the same time, the conversion error of the image can be reduced.

본 개시의 기술적 사상에 따른 폐 질환 경과 추적을 위한 정보 제공 방법 및 이를 위한 장치가 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable by a method for providing information for tracking the progress of lung diseases and a device therefor according to the technical idea of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned are the present disclosure from the description below. It will be clearly understood by those skilled in the art.

본 개시에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 개시의 실시예에 따른 방법을 설명하기 위한 흐름도이다.
도 2는 도 1의 S150 단계에 대한 일 실시예를 설명하기 위한 흐름도이다.
도 3 내지 도 6은 본 개시의 실시예에 따라 폐 영역의 정합이 수행되는 과정을 예시적으로 설명하기 위한 도면이다.
도 7은 본 개시의 실시예에 따른 장치의 구성을 간략히 도시한 블록도이다.
In order to more fully understand the drawings cited in this disclosure, a brief description of each drawing is provided.
1 is a flowchart illustrating a method according to an embodiment of the present disclosure.
FIG. 2 is a flowchart illustrating an embodiment of step S150 of FIG. 1 .
3 to 6 are views for illustratively explaining a process of matching lung regions according to an embodiment of the present disclosure.
7 is a block diagram briefly showing the configuration of a device according to an embodiment of the present disclosure.

본 개시의 기술적 사상은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 그러나, 이는 본 개시의 기술적 사상을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 기술적 사상의 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the technical spirit of the present disclosure may be subject to various changes and may have various embodiments, specific embodiments are illustrated in the drawings and described in detail. However, this is not intended to limit the technical spirit of the present disclosure to specific embodiments, and should be understood to include all changes, equivalents, or substitutes included in the scope of the technical spirit of the present disclosure.

본 개시의 기술적 사상을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 개시의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.In describing the technical idea of the present disclosure, if it is determined that a detailed description of a related known technology may unnecessarily obscure the subject matter of the present disclosure, the detailed description will be omitted. In addition, numbers (eg, first, second, etc.) used in the description process of the present disclosure are only identifiers for distinguishing one component from another component.

또한, 본 개시에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.In addition, in the present disclosure, when one component is referred to as "connected" or "connected" to another component, the one component may be directly connected or directly connected to the other component, but in particular Unless otherwise described, it should be understood that they may be connected or connected via another component in the middle.

또한, 본 개시에 기재된 "~부", "~기", "~자", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 프로세서(Processor), 마이크로 프로세서(Micro Processer), 마이크로 컨트롤러(Micro Controller), CPU(Central Processing Unit), GPU(Graphics Processing Unit), APU(Accelerate Processor Unit), DSP(Digital Signal Processor), ASIC(Application Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등과 같은 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, terms such as "~ unit", "~ group", "~ character", and "~ module" described in the present disclosure mean a unit that processes at least one function or operation, which includes a processor, a micro Processor (Micro Processor), Micro Controller, CPU (Central Processing Unit), GPU (Graphics Processing Unit), APU (Accelerate Processor Unit), DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array) may be implemented by hardware or software or a combination of hardware and software.

그리고 본 개시에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.In addition, it is intended to make it clear that the classification of components in the present disclosure is merely a classification for each main function in charge of each component. That is, two or more components to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function. In addition, each component to be described below may additionally perform some or all of the functions of other components in addition to its main function, and some of the main functions of each component may be performed by other components. Of course, it may be dedicated and performed by .

본 명세서에 걸쳐, 네트워크 함수는 신경망 네트워크 및/또는 뉴럴 네트워크(neural network)와 동일한 의미로 사용될 수 있다. 여기서, 뉴럴 네트워크(신경망)는 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있고, 이러한 노드들은 뉴런으로 지칭될 수 있다. 뉴럴 네트워크는 일반적으로 복수의 노드들을 포함하여 구성된다. 뉴럴 네트워크를 구성하는 노드들은 하나 이상의 링크에 의해 상호 연결될 수 있다.Throughout this specification, network function may be used interchangeably with neural network and/or neural network. Here, a neural network (neural network) may be composed of a set of interconnected computational units, which may be generally referred to as nodes, and these nodes may be referred to as neurons. A neural network is generally composed of a plurality of nodes. Nodes constituting a neural network may be interconnected by one or more links.

뉴럴 네트워크를 구성하는 노드들 중 일부는 최초 입력 노드로부터의 거리들에 기초하여 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은 n 레이어를 구성할 수 있다.Some of the nodes constituting the neural network may form one layer based on distances from the first input node. For example, a set of nodes having a distance of n from the first input node may constitute n layers.

본 명세서에서 설명하는 뉴럴 네트워크는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 딥 뉴럴 네트워크(Deep Neural Network, DNN)를 포함할 수 있다The neural network described herein may include a deep neural network (DNN) including a plurality of hidden layers in addition to an input layer and an output layer.

또한, 본 개시의 실시예에 따른 방법은 연산 능력을 구비한 개인용 컴퓨터(Personal Computer), 워크스테이션(work station), 서버용 컴퓨터 장치 등에서 수행되거나 이를 위한 별도의 장치에서 수행될 수 있다. In addition, the method according to an embodiment of the present disclosure may be performed in a personal computer having computing capability, a workstation, a computer device for a server, or a separate device for this purpose.

또한, 방법은 하나 이상의 연산 장치들에서 수행될 수도 있다. 예를 들어, 본 개시의 실시예에 따른 방법(100) 중 적어도 하나 이상의 단계들은 클라이언트 디바이스에서, 다른 단계들은 서버 디바이스에서 수행될 수 있다. 이러한 경우, 클라이언트 디바이스와 서버 디바이스는 네트워크로 연결되어 연산 결과를 송수신할 수 있다. 또는, 방법(100)은 분산 컴퓨팅 기술에 의해 수행될 수도 있다.Also, the method may be performed on one or more computing devices. For example, at least one or more steps of the method 100 according to an embodiment of the present disclosure may be performed in a client device and other steps may be performed in a server device. In this case, the client device and the server device may be connected through a network to transmit and receive calculation results. Alternatively, method 100 may be performed by distributed computing technology.

이하, 본 개시의 실시예들을 차례로 상세히 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail in turn.

도 1은 본 개시의 실시예에 따른 방법을 설명하기 위한 흐름도이다.1 is a flowchart illustrating a method according to an embodiment of the present disclosure.

S110 단계에서, 장치는 학습된 제 1 네트워크 함수를 통해 3차원 흉부 단층 촬영(CT) 영상으로부터 3차원의 제 1 폐 영역을 추출(segmentation)할 수 있다.In step S110, the device may extract (segmentation) a 3D first lung region from a 3D chest tomography (CT) image through the learned first network function.

흉부 단층 촬영 영상은 외부의 데이터 베이스 서버로부터 수신되거나, 장치와 유, 무선 통신을 통해 연결된 촬영 장치로부터 촬영을 통해 획득될 수 있다.The chest tomography image may be received from an external database server or may be acquired through imaging from an imaging device connected to the device through wired or wireless communication.

예를 들어, 흉부 단층 촬영 영상은 컴퓨터 단층 촬영 방법을 통해 피검자에 대하여 흉부를 포함하는 신체 부위를 일 방향으로 연속하여 촬영함으로써 생성되는 3차원 영상일 수 있다. 또는, 실시예에 따라, 흉부 단층 촬영 영상은 연속 촬영을 통해 생성된 복수의 2차원 슬라이스 영상을 적층하여 생성된 것일 수 있다.For example, the chest tomography image may be a 3D image generated by continuously imaging a body part including the chest of the subject in one direction through a computed tomography method. Alternatively, according to embodiments, the chest tomography image may be generated by stacking a plurality of 2D slice images generated through continuous imaging.

제 1 네트워크 함수는 학습 데이터(예를 들어, 전문가, 검사 등을 통해 폐 영역이 라벨링된 흉부 단층 촬영 영상)를 통해 사전에 폐 영역 추출에 대한 학습이 수행된 것일 수 있다.The first network function may be one in which lung region extraction has been previously learned through learning data (eg, a chest tomography image in which lung regions are labeled through experts, examinations, etc.).

추출된 제 1 폐 영역에 관한 정보에는 3차원의 위치 좌표에 대한 정보가 포함될 수 있다. 여기서 폐 영역의 위치 좌표는 3차원의 흉부 단층 촬영 영상과 동일한 기준 좌표에 대응하여 생성된 것일 수 있다.The information about the extracted first lung region may include information about 3-dimensional position coordinates. Here, the location coordinates of the lung region may be generated corresponding to the same reference coordinates as those of the 3D chest tomography image.

S120 단계에서, 추출된 제 1 폐 영역을 관상면에 투영함으로써 제 2 폐 영역에 대한 2차원 영상을 생성할 수 있다.In step S120, a 2D image of the second lung region may be generated by projecting the extracted first lung region onto the coronal plane.

실시예에서, S120 단계는 추출된 3차원의 제 1 폐 영역을 관상면에 대하여 DRR 투영(Digitally Reconstructed Radiographic-projection)함으로써 수행될 수 있다. 다만, 이는 예시적인 것으로서, 다양한 방식이 적용되어 제 2 폐 영역에 대한 2차원 영상이 생성될 수 있다.In an embodiment, step S120 may be performed by digitally reconstructed radiographic-projection (DRR) projection of the extracted 3-dimensional first lung region on the coronal plane. However, this is an example, and various methods may be applied to generate a 2D image of the second lung region.

생성된 제 2 폐 영역에 관한 정보에는 2차원의 위치 좌표에 대한 정보가 포함될 수 있다.Information on the generated second lung region may include information on 2-dimensional position coordinates.

한편, 도시되어 있지는 않지만, 방법(100)은 S120 단계 전에, S110 단계를 통해 추출된 제 1 폐 영역으로부터 병변 영역을 검출하는 단계를 더 포함할 수 있다. 예를 들어, 장치는 학습된 제 2 네트워크 함수를 통해 제 1 폐 영역으로부터 병변 영역을 검출할 수 있다.Meanwhile, although not shown, the method 100 may further include, before step S120, detecting a lesion area from the first lung region extracted through step S110. For example, the device may detect the lesion area from the first lung area through the learned second network function.

이때, 제 2 네트워크 함수는 학습 데이터(예를 들어, 전문가, 검사 등을 통해 병변 영역이 라벨링된 3차원 폐 영역 영상)를 통해 사전에 병변 영역 검출에 대한 학습이 수행된 것일 수 있다. 검출된 병변 영역에 대한 정보에는 3차원의 위치 좌표에 대한 정보가 포함될 수 있다.In this case, the second network function may be learning for detection of the lesion region in advance through learning data (eg, a 3D lung region image in which the lesion region is labeled through an expert, examination, etc.). Information on the detected lesion area may include information on 3-dimensional position coordinates.

실시예에서, S120 단계는, 검출된 병변 영역을 포함하는 제 1 폐 영역에 대하여 수행될 수 있다. 이 경우, 생성된 2차원의 제 2 폐 영역에는 2차원 변환된 병변 영역에 대한 정보가 포함될 수 있다.In an embodiment, step S120 may be performed on the first lung region including the detected lesion region. In this case, the generated 2D second lung area may include information about the 2D transformed lesion area.

S130 단계에서, 장치는 학습된 제 3 네트워크 함수를 통해 적어도 하나의 흉부 방사선(X-ray) 영상으로부터 제 3 폐 영역을 추출할 수 있다.In step S130, the apparatus may extract a third lung region from at least one chest X-ray image through the learned third network function.

흉부 방사선 영상은 외부의 데이터 베이스 서버로부터 수신되거나, 장치와 유, 무선 통신을 통해 연결된 촬영 장치로부터 촬영을 통해 획득될 수 있다. 또한, 흉부 방사선 영상은 시간의 경과에 따라 상이한 시점에 촬영된 복수의 영상을 포함할 수 있다.The chest radiographic image may be received from an external database server or acquired through imaging from an imaging device connected to the device through wired or wireless communication. Also, the chest radiographic image may include a plurality of images captured at different time points over time.

제 3 네트워크 함수는 학습 데이터(예를 들어, 전문가, 검사 등을 통해 폐 영역이 라벨링된 흉부 방사선 영상)를 통해 사전에 폐 영역 추출에 대한 학습이 수행된 것일 수 있다.The third network function may be one in which lung region extraction has been previously learned through learning data (eg, a chest radiographic image in which lung regions are labeled through experts, examinations, etc.).

추출된 제 3 폐 영역에 관한 정보에는 2차원의 위치 좌표에 대한 정보가 포함될 수 있다. 여기서 폐 영역의 위치 좌표는 2차원의 흉부 방사선 영상과 동일한 기준 좌표에 대응하여 생성된 것일 수 있다.The extracted information on the third lung region may include information on 2-dimensional position coordinates. Here, the location coordinates of the lung region may be generated corresponding to the same reference coordinates as those of the 2-dimensional chest radiographic image.

한편, 도시되어 있지 않으나, 방법(100)은 추출된 제 3 폐 영역으로부터 병변 영역을 검출하는 단계를 더 포함할 수 있다. 예를 들어, 장치는 학습된 제 4 네트워크 함수를 통해 제 3 폐 영역으로부터 병변 영역을 검출할 수 있다. 제 3 폐 영역에서 검출된 병변 영역에 관한 정보는 추후 복수의 영상 비교를 통해 폐 질환의 경과를 파악하는데 이용될 수 있다.Meanwhile, although not shown, the method 100 may further include detecting a lesion area from the extracted third lung area. For example, the device may detect the lesion area from the third lung area through the learned fourth network function. The information on the lesion area detected in the third lung region may be used to determine the progress of the lung disease through a plurality of image comparisons later.

S140 단계에서, 장치는 제 2 폐 영역과 제 3 폐 영역 중 하나를 기준 영상으로 설정할 수 있다. 기준 영상은 정합의 기준이 되는 영상을 지칭하는 것으로서, 이하 상술되는 바와 같이, 기준 영상을 기준으로 다른 영상을 변형함으로써, 정합(또는, 최적화)을 수행하게 된다.In step S140, the device may set one of the second lung region and the third lung region as a reference image. The reference image refers to an image that is a reference image for matching, and as described below, matching (or optimization) is performed by transforming another image based on the reference image.

실시예에서, S140 단계는 사용자의 선택 입력에 기초하여 설정될 수 있다. 다만, 이는 예시적인 것으로, 장치는 제 2 폐 영역과 제 3 폐 영역 중 기본 값으로 설정된 영상을 기준 영상으로 자동 설정하도록 구성될 수 있다.In an embodiment, step S140 may be set based on a user's selection input. However, this is exemplary, and the device may be configured to automatically set an image set as a basic value among the second lung region and the third lung region as the reference image.

S150 단계에서, 장치는 기준 영상을 기준으로 제 2 폐 영역 또는 제 3 폐 영역을 변형하여, 제 2 폐 영역 또는 제 3 폐 영역을 최적화함으로써 기준 영상과 정합시킬 수 있다.In step S150, the device may transform the second or third lung region based on the reference image and optimize the second or third lung region to match the reference image.

도 2에서 도시되는 바와 같이, 실시예에서, S150 단계는 S151 단계 내지 S153 단계를 포함할 수 있다.As shown in FIG. 2 , in an embodiment, step S150 may include steps S151 to S153.

S151 단계에서, 장치는 피검자의 위치에 대한 표준 프로토콜에 기초하여 이동, 회전, 확대 및 축소 중 적어도 하나에 대한 탐색 범위를 설정할 수 있다. In step S151, the device may set a search range for at least one of movement, rotation, enlargement, and reduction based on a standard protocol for the location of the subject.

즉, 다양한 의료 영상의 획득 과정에 있어서 환자의 자세나 위치는 표준 프로토콜을 따르므로, 장치는 흉부 단층 촬영 영상 및 흉부 방사선 영상의 촬영 시, 피검자의 위치에 대한 표준 프로토콜에 기초하여 이동, 회전, 확대 및 축소 중 적어도 하나에 대한 탐색 범위를 설정할 수 있다.That is, since the posture or position of the patient follows the standard protocol in the acquisition process of various medical images, the device moves, rotates, A search range for at least one of enlargement and reduction may be set.

S152 단계 및 S153 단계에서, 장치는 탐색 범위 내에서 제 2 폐 영역 또는 제 3 폐 영역에 대한 변형을 수행하면서, 손실 함수의 출력값에 기초하여 제 2 폐 영역 또는 제 3 폐 영역을 최적화 할 수 있다. In steps S152 and S153, the device may optimize the second closed region or the third closed region based on the output value of the loss function while performing transformation on the second closed region or the third closed region within the search range. .

구체적으로, 장치는 탐색 범위 내에서 제 2 폐 영역 또는 제 3 폐 영역에 대한 이동량, 회전량, 확대량 및 축소량 중 적어도 하나를 변경하면서, 기준 영상과의 유사도에 대한 손실 함수의 출력값을 산출할 수 있다. 이어서, 손실 함수의 출력값이 최소값에 도달하는지를 판단하며, 최소값이 도달할 때까지 제 2 폐 영역 또는 제 3 폐 영역에 대한 변환과 손실 함수의 출력값 산출 과정을 반복 수행할 수 있다.Specifically, the device calculates the output value of the loss function for the similarity with the reference image while changing at least one of the movement amount, the rotation amount, the enlargement amount, and the reduction amount of the second lung region or the third lung region within the search range. can do. Subsequently, it is determined whether the output value of the loss function reaches a minimum value, and the process of converting the second closed region or the third closed region and calculating the output value of the loss function may be repeatedly performed until the minimum value is reached.

즉, 손실 함수는 변형된 제 2 폐 영역 또는 제 3 폐 영역이 기준 영상과 유사해질수록 낮은 값을 출력하게 되며, 이러한 손실 함수의 출력값을 감소시키는 반복적인 과정(변형 -> 손실 함수의 출력값 측정)을 통해 제 2 폐 영역 또는 제 3 폐 영역을 최적화함으로써, 기준 영상과 정합을 수행할 수 있다.That is, the loss function outputs a lower value as the modified second lung region or third lung region becomes more similar to the reference image, and an iterative process of reducing the output value of the loss function (transformation -> measuring the output value of the loss function) ), it is possible to perform matching with the reference image by optimizing the second lung region or the third lung region.

이를 위해, 확률적 경사 하강법(stochastic gradient descent) 등이 적용될 수 있으나, 이에 한정되는 것은 아니며, 다양한 통계적 방식이 적용될 수 있다.To this end, stochastic gradient descent or the like may be applied, but is not limited thereto, and various statistical methods may be applied.

특히, 본 개시에 따르면, 제 2 폐 영역 또는 제 3 폐 영역을 표준 프로토콜에 기초하여 일정한 범위에서만 변형을 가하도록 탐색 범위를 제한함으로써, 최적화를 위한 연산량을 획기적으로 감소시킬 수 있다.In particular, according to the present disclosure, the amount of computation for optimization can be drastically reduced by limiting the search range so that the second lung region or the third lung region is modified only within a certain range based on a standard protocol.

S160 단계에서, 최적화된 제 2 폐 영역 또는 제 3 폐 영역을 기준 영상과 관련된 2차원 원본 영상에 합성할 수 있다.In step S160, the optimized second lung region or third lung region may be combined with the 2D original image related to the reference image.

실시예에서, 기준 영상인 제 3 폐 영역인 경우, 장치는 최적화된 제 2 폐 영역을 흉부 방사선 영상의 상기 제 3 폐 영역에 대응하는 위치에 합성할 수 있다.In an embodiment, in the case of the third lung region, which is the reference image, the device may synthesize the optimized second lung region at a location corresponding to the third lung region of the chest radiographic image.

실시예에서, 기준 영상이 제 2 폐 영역인 경우, 장치는 3차원 흉부 단층 촬영 영상을 2차원 영상으로 변환하여 생성된 흉부 영상을 생성하고, 최적화된 제 3 폐 영역을 흉부 영상의 상기 제 2 폐 영역에 대응하는 위치에 합성할 수 있다. 이때, 흉부 영상의 생성은 3차원 흉부 단층 촬영 영상을 관상면에 대하여 DRR 투영(Digitally Reconstructed Radiographic-projection)함으로써 수행될 수 있다.In an embodiment, when the reference image is the second lung region, the device generates a chest image generated by converting a 3D chest tomography image into a 2D image, and converts an optimized third lung region into the second lung region of the chest image. It can be synthesized at a location corresponding to the lung region. In this case, generation of the chest image may be performed by digitally reconstructed radiographic-projection (DRR) projection of the 3D chest tomography image on the coronal plane.

본 개시에 따르면, S160 단계에 의해 생성된 합성 영상을, 시간 경과에 따라 상이한 시점에 촬영된 복수의 흉부 방사선 영상과 용이하게 비교가 가능하게 됨으로써, 폐 질환의 진행 정도에 대하여 용이하게 판독이 가능해진다.According to the present disclosure, it is possible to easily compare the synthesized image generated in step S160 with a plurality of chest radiographic images taken at different time points over time, so that the degree of lung disease progression can be easily read. It happens.

실시예에서, 제 2 폐 영역에 대한 생성은 3차원 흉부 단층 영상을 투영하여 생성한 흉부 영상에 기초하여 수행될 수 있다. 즉, 장치는 학습된 네트워크 함수를 통해 흉부 영상으로부터 2차원의 제 2 폐 영역을 추출함으로써, 제 2 폐 영역에 대한 영상을 생성할 수 있다.In an embodiment, the generation of the second lung region may be performed based on a chest image generated by projecting a 3D chest tomography image. That is, the device may generate an image of the second lung region by extracting the 2D second lung region from the chest image through the learned network function.

한편, 도시되어 있지는 않으나, 방법(100)은 제 1 폐 영역으로부터 검출되어 제 2 폐 영역에 포함된 제 1 병변 영역과 제 3 폐 영역으로부터 검출된 제 2 병변 영역을 상호 비교하여 경과 진행 정보를 제공하는 단계를 더 포함할 수 있다. 예를 들어, 장치는 제 1 병변 영역과 제 2 병변 영역의 크기, 위치, 형태 변화 등의 정보를 제공하고, 해당 정보를 기초로 폐 질병의 경과 정도를 판단하도록 구성될 수 있다.Meanwhile, although not shown, the method 100 compares the first lesion area detected from the first lung area and included in the second lung area with the second lesion area detected from the third lung area to obtain progress information. The step of providing may be further included. For example, the device may be configured to provide information such as the size, location, shape change, etc. of the first lesion area and the second lesion area, and determine the progress of the lung disease based on the corresponding information.

도 3 내지 도 6은 본 개시의 실시예에 따라 폐 영역의 정합이 수행되는 과정을 예시적으로 설명하기 위한 도면이다.3 to 6 are views for illustratively explaining a process of matching lung regions according to an embodiment of the present disclosure.

먼저, 도 3을 참조하면, 흉부 단층 촬영 영상을 학습된 네트워크 함수에 입력하여 3차원의 제 1 폐 영역을 추출할 수 있다. 흉부 단층 촬영 영상은 3차원의 데이터로, 예를 들어, 복수의 슬라이스 영상을 적층하여 생성된 것일 수 있다.First, referring to FIG. 3 , a 3D first lung region may be extracted by inputting a chest tomography image to a learned network function. The chest tomography image is 3D data, and may be generated by, for example, stacking a plurality of slice images.

이어서, 도 4를 참조하면, 추출된 3차원의 제 1 폐 영역에 대한 영상을 DRR 투영을 통해 제 1 폐 영역에 대응하는 제 2 폐 영역이 포함된 2차원 영상으로 변환할 수 있다. 전체의 흉부 단층 촬영 영상이 아닌 폐 영역을 추출하고 이에 대한 2차원 변환을 수행함으로써, 연산량을 큰 폭으로 감소시킬 수 있다.Subsequently, referring to FIG. 4 , the extracted 3D image of the first lung region may be converted into a 2D image including a second lung region corresponding to the first lung region through DRR projection. By extracting the lung region rather than the entire chest tomography image and performing 2D transformation on it, the amount of computation can be greatly reduced.

이어서, 도 5를 참조하면, 학습된 네트워크 함수를 통해 흉부 방사선(X-ray) 영상으로부터 제 3 폐 영역을 추출할 수 있다. 흉부 방사선(X-ray) 영상은 2차원의 데이터로, 시간의 경과에 따라 상이한 시점에 촬영된 복수의 영상을 포함할 수 있다.Subsequently, referring to FIG. 5 , a third lung region may be extracted from an X-ray image through the learned network function. A chest X-ray image is two-dimensional data and may include a plurality of images captured at different points in time.

이어서, 도 6을 참조하면, 제 2 폐 영역과 제 3 폐 영역을 상호 정합하여, 합성 영상을 생성할 수 있다. 예를 들어, 제 2 폐 영역을 기준 영상으로 하고, 기준 영상과의 유사도에 대한 손실 함수의 출력값이 최소값에 도달할 때까지 제 3 폐 영역을 변형함으로써, 최적화(또는, 정합)를 수행할 수 있다. 이후, 최적화된 제 3 폐 영역에 대한 영상은 흉부 단층 촬영 영상을 투영하여 생성된 흉부 영상에 합성될 수 있다.Next, referring to FIG. 6 , a synthesized image may be generated by matching the second lung region and the third lung region with each other. For example, optimization (or matching) may be performed by using the second lung region as a reference image and transforming the third lung region until the output value of the loss function for similarity with the reference image reaches a minimum value. there is. Thereafter, the optimized image of the third lung region may be combined with a chest image generated by projecting the chest tomography image.

한편, 도 6에서는, 제 2 폐 영역을 기준 영상으로 하고 흉부 단층 촬영 영상을 투영하여 생성된 2차원 흉부 영상에 최적화된 제 3 폐 영역을 합성하도록 도시되어 있으나, 상술한 바와 같이, 제 3 폐 영역을 기준 영상으로 한 다음 제 2 폐 영역을 최적화하여, 흉부 방사선 영상에 최적화된 제 2 폐 영역을 합성할 수 있음은 물론이다.Meanwhile, in FIG. 6 , a third lung region optimized for a 2-dimensional chest image generated by projecting a chest tomography image using the second lung region as a reference image is illustrated, but as described above, the third lung region is synthesized. Of course, the second lung region optimized for the chest radiographic image may be synthesized by using the region as a reference image and then optimizing the second lung region.

도 7은 본 개시의 실시예에 따른 장치의 구성을 간략히 도시한 블록도이다.7 is a block diagram briefly showing the configuration of a device according to an embodiment of the present disclosure.

통신부(710)는 폐 영역 정합 및/또는 폐 질환의 경과 추적을 위한 정보 제공을 수행하기 위한 입력 데이터(흉부 CT 영상 등)를 수신할 수 있다. 통신부(710)는 유무선 통신부를 포함할 수 있다. 통신부(710)가 유선 통신부를 포함하는 경우, 통신부(710)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 통하여 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 또한, 통신부(710)가 무선 통신부를 포함하는 경우, 통신부(710)는 셀룰러 통신, 무선랜(예를 들어, 와이-파이(Wi-Fi)) 등을 이용하여 무선으로 데이터 또는 신호를 송수신할 수 있다. 실시예에서, 통신부는 프로세서(740)의 제어에 의해 외부 장치 또는 외부 서버와 데이터 또는 신호를 송수신할 수 있다. The communication unit 710 may receive input data (such as a CT image of the chest) for providing information for matching lung regions and/or tracking the progress of lung diseases. The communication unit 710 may include a wired/wireless communication unit. When the communication unit 710 includes a wired communication unit, the communication unit 710 may include a local area network (LAN), a wide area network (WAN), a value added network (VAN), and a mobile communication network ( mobile radio communication network), a satellite communication network, and one or more components that enable communication through a mutual combination thereof. In addition, when the communication unit 710 includes a wireless communication unit, the communication unit 710 transmits and receives data or signals wirelessly using cellular communication, a wireless LAN (eg, Wi-Fi), and the like. can In an embodiment, the communication unit may transmit/receive data or signals with an external device or an external server under the control of the processor 740 .

입력부(720)는 외부의 조작을 통해 다양한 사용자 명령을 수신할 수 있다. 이를 위해, 입력부(720)는 하나 이상의 입력 장치를 포함하거나 연결할 수 있다. 예를 들어, 입력부(720)는 키패드, 마우스 등 다양한 입력을 위한 인터페이스와 연결되어 사용자 명령을 수신할 수 있다. 이를 위해, 입력부(720)는 USB 포트 뿐만 아니라 선더볼트 등의 인터페이스를 포함할 수도 있다. 또한, 입력부(720)는 터치스크린, 버튼 등의 다양한 입력 장치를 포함하거나 이들과 결합하여 외부의 사용자 명령을 수신할 수 있다.The input unit 720 may receive various user commands through external manipulation. To this end, the input unit 720 may include or connect one or more input devices. For example, the input unit 720 may be connected to an interface for various inputs such as a keypad and a mouse to receive user commands. To this end, the input unit 720 may include an interface such as a thunderbolt as well as a USB port. In addition, the input unit 720 may receive an external user command by including or combining various input devices such as a touch screen and buttons.

메모리(730)는 프로세서(740)의 동작을 위한 프로그램 및/또는 프로그램 명령을 저장할 수 있고, 입/출력되는 데이터들을 임시 또는 영구 저장할 수 있다. 메모리(730)는 플래시 메모리(flash memory) 타입, 하드디스크(hard disk) 타입, 멀티미디어 카드 마이크로(multimedia card micro) 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM), SRAM, 롬(ROM), EEPROM, PROM, 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 730 may store programs and/or program commands for operation of the processor 740 and may temporarily or permanently store input/output data. The memory 730 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), RAM , SRAM, ROM (ROM), EEPROM, PROM, magnetic memory, a magnetic disk, it may include at least one type of storage medium.

또한, 메모리(730)는 다양한 네트워크 함수 및 알고리즘을 저장할 수 있으며, 장치(700)를 구동하고 제어하기 위한 다양한 데이터, 프로그램(하나 이상이 인스트럭션들), 어플리케이션, 소프트웨어, 명령, 코드 등을 저장할 수 있다.In addition, the memory 730 may store various network functions and algorithms, and may store various data, programs (one or more instructions), applications, software, commands, codes, etc. for driving and controlling the device 700. there is.

프로세서(740)는 장치(700)의 전반적인 동작을 제어할 수 있다. 프로세서(740)는 메모리(730)에 저장되는 하나 이상의 프로그램들을 실행할 수 있다. 프로세서(740)는 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphics Processing Unit, GPU) 또는 본 개시의 기술적 사상에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다.The processor 740 may control the overall operation of the device 700 . Processor 740 may execute one or more programs stored in memory 730 . The processor 740 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to the technical idea of the present disclosure are performed.

실시예에서, 프로세서(740)는 학습된 제 1 네트워크 함수를 통해 3차원 흉부 단층 촬영(CT) 영상으로부터 3차원의 제 1 폐 영역을 추출하고, 추출된 상기 제 1 폐 영역을 관상면에 투영함으로써 제 2 폐 영역에 대한 2차원 영상을 생성하며, 학습된 제 2 네트워크 함수를 통해 흉부 방사선(X-ray) 영상으로부터 제 3 폐 영역을 추출하고, 상기 제 2 폐 영역과 상기 제 3 폐 영역 중 하나를 기준 영상으로 설정하며, 상기 기준 영상을 기준으로 상기 제 2 폐 영역 또는 상기 제 3 폐 영역을 변형하고, 상기 기준 영상과의 유사도에 대한 손실 함수의 출력값을 산출하고, 상기 손실 함수의 출력값을 기초로 상기 제 2 폐 영역 또는 상기 제 3 폐 영역을 최적화함으로써, 상기 제 2 폐 영역 또는 상기 제 3 폐 영역을 상기 기준 영상과 정합할 수 있다.In an embodiment, the processor 740 extracts a 3D first lung region from a 3D chest tomography (CT) image through a learned first network function, and projects the extracted first lung region onto a coronal plane. By doing so, a 2D image of the second lung region is generated, a third lung region is extracted from a chest X-ray image through the learned second network function, and the second lung region and the third lung region are extracted. set one of them as a reference image, transform the second lung region or the third lung region based on the reference image, calculate an output value of a loss function for similarity with the reference image, and calculate The second lung region or the third lung region may be matched with the reference image by optimizing the second lung region or the third lung region based on the output value.

실시예에서, 프로세서(740)는 상기 3차원 흉부 단층 촬영 영상을 관상면에 투영함으로써 2차원 흉부 영상을 생성하고, 학습된 제 3 네트워크 함수를 통해 상기 흉부 영상으로부터 상기 제 2 폐 영역을 추출할 수 있다.In an embodiment, the processor 740 generates a 2D chest image by projecting the 3D chest tomography image onto a coronal plane, and extracts the second lung region from the chest image through a learned third network function. can

실시예에서, 프로세서(740)는 학습된 제 4 네트워크 함수를 통해 추출된 상기 제 1 폐 영역으로부터 병변 영역을 검출하며, 검출된 상기 병변 영역을 포함하는 상기 제 1 폐 영역을 관상면에 투영함으로써 제 2 폐 영역에 대한 2차원 영상을 생성할 수 있다.In an embodiment, the processor 740 detects a lesion region from the first lung region extracted through the learned fourth network function, and projects the first lung region including the detected lesion region onto a coronal plane. A 2D image of the second lung region may be generated.

실시예에서, 프로세서(740)는 상기 제 2 폐 영역 또는 상기 제 3 폐 영역에 대한 이동, 회전, 확대 및 축소 중 적어도 하나를 수행하고, 상기 기준 영상과의 유사도에 대한 손실 함수의 출력값을 산출할 수 있다.In an embodiment, the processor 740 performs at least one of movement, rotation, enlargement, and reduction of the second lung region or the third lung region, and calculates an output value of a loss function for similarity with the reference image. can do.

실시예에서, 프로세서(740)는 상기 손실 함수의 출력값이 최소값에 도달하도록, 상기 기준 영상과의 유사도에 대한 손실 함수의 출력값을 산출하는 단계를 반복함으로써, 상기 기준 영상과의 정합을 수행할 수 있다.In an embodiment, the processor 740 may perform matching with the reference image by repeating the step of calculating the output value of the loss function for the degree of similarity with the reference image so that the output value of the loss function reaches a minimum value. there is.

실시예에서, 프로세서(740)는 상기 흉부 단층 촬영 영상 및 상기 흉부 방사선 영상의 촬영 시, 피검자의 위치에 대한 표준 프로토콜에 기초하여 이동, 회전, 확대 및 축소 중 적어도 하나에 대한 탐색 범위를 설정하고, 상기 탐색 범위 내에서 이동량, 회전량, 확대량 및 축소량 중 적어도 하나를 변경함으로써, 상기 기준 영상과의 유사도에 대한 손실 함수의 출력값을 산출할 수 있다.In an embodiment, the processor 740 sets a search range for at least one of movement, rotation, enlargement, and reduction based on a standard protocol for the location of the subject when the chest tomography image and the chest radiographic image are captured, and , an output value of a loss function for similarity with the reference image may be calculated by changing at least one of a movement amount, a rotation amount, an enlargement amount, and a reduction amount within the search range.

실시예에서, 프로세서(740)는 상기 기준 영상이 상기 제 3 폐 영역인 경우, 최적화된 상기 제 2 폐 영역을 상기 흉부 방사선 영상의 상기 제 3 폐 영역에 대응하는 위치에 합성할 수 있다.In an embodiment, when the reference image is the third lung region, the processor 740 may synthesize the optimized second lung region at a position corresponding to the third lung region of the chest radiographic image.

실시예에서, 프로세서(740)는 상기 기준 영상이 상기 제 2 폐 영역인 경우, 상기 3차원 흉부 단층 촬영 영상을 관상면에 투영함으로써 2차원 흉부 영상을 생성하고, 최적화된 상기 제 3 폐 영역을 상기 흉부 영상의 상기 제 2 폐 영역에 대응하는 위치에 합성할 수 있다.In an embodiment, when the reference image is the second lung region, the processor 740 generates a 2D chest image by projecting the 3D chest tomography image onto a coronal plane, and generates the optimized third lung region. It may be synthesized at a location corresponding to the second lung region of the chest image.

본 개시의 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 개시를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to an embodiment of the present disclosure may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the present disclosure, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

또한, 개시된 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.In addition, the method according to the disclosed embodiments may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities.

컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.A computer program product may include a S/W program and a computer-readable storage medium in which the S/W program is stored. For example, a computer program product may include a product in the form of a S/W program (eg, a downloadable app) that is distributed electronically through a manufacturer of an electronic device or an electronic marketplace (eg, Google Play Store, App Store). there is. For electronic distribution, at least a part of the S/W program may be stored in a storage medium or temporarily generated. In this case, the storage medium may be a storage medium of a manufacturer's server, an electronic market server, or a relay server temporarily storing SW programs.

컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제 3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제 3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제 3 장치로 전송되거나, 제 3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.A computer program product may include a storage medium of a server or a storage medium of a client device in a system composed of a server and a client device. Alternatively, if there is a third device (eg, a smart phone) that is communicatively connected to the server or the client device, the computer program product may include a storage medium of the third device. Alternatively, the computer program product may include a S/W program itself transmitted from the server to the client device or the third device or from the third device to the client device.

이 경우, 서버, 클라이언트 장치 및 제 3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제 3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.In this case, one of the server, the client device and the third device may execute the computer program product to perform the method according to the disclosed embodiments. Alternatively, two or more of the server, the client device, and the third device may execute the computer program product to implement the method according to the disclosed embodiments in a distributed manner.

예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.For example, a server (eg, a cloud server or an artificial intelligence server) may execute a computer program product stored in the server to control a client device communicatively connected to the server to perform a method according to the disclosed embodiments.

이상에서 실시예들에 대하여 상세하게 설명하였지만 본 개시의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 개시의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 개시의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present disclosure is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present disclosure defined in the following claims are also within the scope of the present disclosure. belongs to

Claims (7)

폐 질환 경과 추적을 위한 정보 제공 방법에 있어서,
학습된 제 1 네트워크 함수를 통해 3차원 흉부 단층 촬영(CT) 영상으로부터 3차원의 제 1 폐 영역을 추출하는 단계;
학습된 제 2 네트워크 함수를 통해 추출된 상기 제 1 폐 영역으로부터 병변 영역을 검출하는 단계;
검출된 상기 병변 영역을 포함하는 상기 제 1 폐 영역을 관상면에 투영함으로써 제 2 폐 영역에 대한 2차원 영상을 생성하는 단계;
학습된 제 3 네트워크 함수를 통해 흉부 방사선(X-ray) 영상으로부터 제 3 폐 영역을 추출하는 단계;
상기 제 3 폐 영역을 기준으로 상기 제 2 폐 영역을 변형하면서, 상기 제 3 폐 영역과의 유사도에 대한 손실 함수의 출력값을 산출하는 단계; 및
상기 손실 함수의 출력값을 기초로 상기 제 2 폐 영역을 최적화함으로써, 상기 제 2 폐 영역을 상기 제 3 폐 영역과 정합하는 단계를 포함하는, 방법.
In the information providing method for tracking the progress of lung disease,
extracting a 3-dimensional first lung region from a 3-dimensional chest tomography (CT) image through a learned first network function;
detecting a lesion area from the first lung area extracted through a learned second network function;
generating a two-dimensional image of a second lung region by projecting the first lung region including the detected lesion region onto a coronal plane;
extracting a third lung region from a chest X-ray image through a learned third network function;
calculating an output value of a loss function for similarity with the third closed region while modifying the second closed region based on the third closed region; and
matching the second closed region with the third closed region by optimizing the second closed region based on the output of the loss function.
제 1 항에 있어서,
상기 제 3 폐 영역과의 유사도에 대한 손실 함수의 출력값을 산출하는 단계는,
상기 제 2 폐 영역에 대한 이동, 회전, 확대 및 축소 중 적어도 하나를 수행하고, 상기 손실 함수의 출력값을 산출함으로써 수행되는, 방법.
According to claim 1,
Calculating the output value of the loss function for the similarity with the third closed region,
The method is performed by performing at least one of movement, rotation, enlargement, and reduction of the second lung region, and calculating an output value of the loss function.
제 2 항에 있어서,
상기 제 3 폐 영역과 정합하는 단계는,
상기 손실 함수의 출력값이 최소값에 도달하도록, 상기 제 3 폐 영역과의 유사도에 대한 손실 함수의 출력값을 산출하는 단계를 반복함으로써 수행되는, 방법.
According to claim 2,
The step of matching with the third lung region,
The method is performed by repeating the step of calculating the output value of the loss function for the similarity with the third closed region so that the output value of the loss function reaches a minimum value.
제 2 항에 있어서,
상기 흉부 단층 촬영 영상 및 상기 흉부 방사선 영상의 촬영 시, 피검자의 위치에 대한 표준 프로토콜에 기초하여 이동, 회전, 확대 및 축소 중 적어도 하나에 대한 탐색 범위를 설정하는 단계를 더 포함하고,
상기 제 3 폐 영역과의 유사도에 대한 손실 함수의 출력값을 산출하는 단계는,
상기 탐색 범위 내에서 이동량, 회전량, 확대량 및 축소량 중 적어도 하나를 변경함으로써 수행되는, 방법.
According to claim 2,
Further comprising setting a search range for at least one of movement, rotation, enlargement, and reduction based on a standard protocol for a location of the subject when the chest tomography image and the chest radiographic image are captured;
Calculating the output value of the loss function for the similarity with the third closed region,
A method performed by changing at least one of a movement amount, a rotation amount, an enlargement amount, and a reduction amount within the search range.
제 1 항에 있어서,
최적화된 상기 제 2 폐 영역을 상기 흉부 방사선 영상의 상기 제 3 폐 영역에 대응하는 위치에 합성하는 단계를 더 포함하는, 방법.
According to claim 1,
The method further comprising synthesizing the optimized second lung region at a position corresponding to the third lung region of the chest radiographic image.
폐 질환 경과 추적을 위한 정보 제공 장치에 있어서,
적어도 하나의 프로세서;
상기 프로세서에 의해 실행 가능한 프로그램을 저장하는 메모리; 및
상기 프로세서는, 상기 프로그램을 실행함으로써, 학습된 제 1 네트워크 함수를 통해 3차원 흉부 단층 촬영(CT) 영상으로부터 3차원의 제 1 폐 영역을 추출하고, 학습된 제 2 네트워크 함수를 통해 추출된 상기 제 1 폐 영역으로부터 병변 영역을 검출하며, 검출된 상기 병변 영역을 포함하는 상기 제 1 폐 영역을 관상면에 투영함으로써 제 2 폐 영역에 대한 2차원 영상을 생성하고, 학습된 제 3 네트워크 함수를 통해 흉부 방사선(X-ray) 영상으로부터 제 3 폐 영역을 추출하며, 상기 제 3 폐 영역을 기준으로 상기 제 2 폐 영역을 변형하고, 상기 제 3 폐 영역과의 유사도에 대한 손실 함수의 출력값을 산출하고, 상기 손실 함수의 출력값을 기초로 상기 제 2 폐 영역을 최적화함으로써, 상기 제 2 폐 영역을 상기 제 3 폐 영역과 정합하는, 장치.
In the information providing device for tracking the progress of lung disease,
at least one processor;
a memory for storing a program executable by the processor; and
The processor, by executing the program, extracts a 3-dimensional first lung region from a 3-dimensional chest tomography (CT) image through the learned first network function, and extracts the extracted lung region through the learned second network function. A lesion area is detected from the first lung area, a 2D image of the second lung area is generated by projecting the first lung area including the detected lesion area onto a coronal plane, and a learned third network function is generated. A third lung region is extracted from a chest radiograph (X-ray) image, the second lung region is transformed based on the third lung region, and the output value of the loss function for the similarity with the third lung region is and matching the second closed region with the third closed region by optimizing the second closed region based on an output value of the loss function.
제 1 항 내지 제 5 항 중 어느 한 항의 방법을 실행하기 위하여 기록 매체에 저장된 컴퓨터 프로그램.A computer program stored in a recording medium to execute the method of any one of claims 1 to 5.
KR1020210134230A 2021-10-08 2021-10-08 Method and apparatus for providing information to monitor lung disease progression KR20230051374A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210134230A KR20230051374A (en) 2021-10-08 2021-10-08 Method and apparatus for providing information to monitor lung disease progression

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210134230A KR20230051374A (en) 2021-10-08 2021-10-08 Method and apparatus for providing information to monitor lung disease progression

Publications (1)

Publication Number Publication Date
KR20230051374A true KR20230051374A (en) 2023-04-18

Family

ID=86100651

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210134230A KR20230051374A (en) 2021-10-08 2021-10-08 Method and apparatus for providing information to monitor lung disease progression

Country Status (1)

Country Link
KR (1) KR20230051374A (en)

Similar Documents

Publication Publication Date Title
US9524582B2 (en) Method and system for constructing personalized avatars using a parameterized deformable mesh
US10452957B2 (en) Image classification apparatus, method, and program
US10362941B2 (en) Method and apparatus for performing registration of medical images
US20200226752A1 (en) Apparatus and method for processing medical image
US20140212014A1 (en) Method and apparatus for medical image registration
JP2013071016A (en) Non-rigid 2d/3d registration of coronary artery model with live fluoroscopic image
US9588666B2 (en) Image processing apparatus, image processing method, and storage medium
EP3550515A1 (en) Cross-modality image synthesis
CN108198235B (en) Three-dimensional ultrasonic reconstruction method, device, equipment and storage medium
JP2021524631A (en) Medical image conversion
KR20220097859A (en) Method and apparatus for distinguishing lesion
US20240127613A1 (en) Disease label creation device, disease label creation method, disease label creation program, learning device, and disease detection model
KR102513565B1 (en) Method and apparatus for matching lung areas autimatically
KR20230051374A (en) Method and apparatus for providing information to monitor lung disease progression
KR102454374B1 (en) Method for detecting pleurl effusion and apparatus therof
US11837352B2 (en) Body representations
KR20220143187A (en) Method and apparatus for automatically extracting emphysema using deep learning
US20210256741A1 (en) Region correction apparatus, region correction method, and region correction program
KR20230049938A (en) Method and apparatus for quantitative analysis of emphysema
KR102444581B1 (en) Method and apparatus for detecting diaphragm from chest image
KR20220143185A (en) Method and apparatus for automatically segmenting ground-glass opacity and consolidation region using deep learning
JP5706933B2 (en) Processing apparatus, processing method, and program
US20230260141A1 (en) Deep learning for registering anatomical to functional images
KR20220143189A (en) Method and apparatus for reading idiopathic pulmonary fibrosis and severity thereof
KR20220143188A (en) Method and apparatus for matching coronal projection image with one or more lung x-ray images

Legal Events

Date Code Title Description
E902 Notification of reason for refusal