KR20230147589A - Presence or absence of lesion prediction method using 2 dimensional images extracted from 3 dimensional computed tomography image - Google Patents

Presence or absence of lesion prediction method using 2 dimensional images extracted from 3 dimensional computed tomography image Download PDF

Info

Publication number
KR20230147589A
KR20230147589A KR1020230137191A KR20230137191A KR20230147589A KR 20230147589 A KR20230147589 A KR 20230147589A KR 1020230137191 A KR1020230137191 A KR 1020230137191A KR 20230137191 A KR20230137191 A KR 20230137191A KR 20230147589 A KR20230147589 A KR 20230147589A
Authority
KR
South Korea
Prior art keywords
image
images
analysis device
sub
model
Prior art date
Application number
KR1020230137191A
Other languages
Korean (ko)
Inventor
김경수
정명진
오성제
Original Assignee
사회복지법인 삼성생명공익재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사회복지법인 삼성생명공익재단 filed Critical 사회복지법인 삼성생명공익재단
Priority to KR1020230137191A priority Critical patent/KR20230147589A/en
Publication of KR20230147589A publication Critical patent/KR20230147589A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image

Abstract

3D CT 영상에서 추출한 2D 영상들을 이용하여 병변을 예측하는 방법은 분석장치가 대상자의 관심 영역에 대한 3D CT 영상을 입력받는 단계, 상기 분석 장치가 상기 관심 영역에서 해부학적으로 분리된 서브 영역들을 분리하는 단계, 상기 분석장치가 상기 서브 영역들 각각에 대하여 서로 다른 시작 지점에서 투사하여 복수의 2D 영상들을 산출하는 단계, 상기 분석장치가 상기 복수의 2D 영상들 중 상기 서브 영역들 각각에서 산출한 복수의 영상을 결합하는 단계 및 상기 분석장치가 상기 결합한 영상을 분류 모델에 입력하여 상기 관심 영역의 병변을 예측하는 단계를 포함한다.A method of predicting a lesion using 2D images extracted from a 3D CT image includes the steps of an analysis device receiving a 3D CT image of a subject's region of interest, and the analysis device separating anatomically separate sub-regions from the region of interest. A step of calculating, by the analysis device, a plurality of 2D images by projecting from different starting points for each of the sub-areas, by the analysis device a plurality of images calculated from each of the sub-areas among the plurality of 2D images. Combining the images and inputting the combined images into a classification model by the analysis device to predict lesions in the region of interest.

Description

3D CT 영상에서 추출한 2D 영상들을 이용하여 병변을 예측하는 방법{PRESENCE OR ABSENCE OF LESION PREDICTION METHOD USING 2 DIMENSIONAL IMAGES EXTRACTED FROM 3 DIMENSIONAL COMPUTED TOMOGRAPHY IMAGE}Method for predicting lesions using 2D images extracted from 3D CT images {PRESENCE OR ABSENCE OF LESION PREDICTION METHOD USING 2 DIMENSIONAL IMAGES EXTRACTED FROM 3 DIMENSIONAL COMPUTED TOMOGRAPHY IMAGE}

이하 설명하는 기술은 3D(dimensional) CT(Computed Tomography) 영상에서 산출되는 2D 영상들을 이용하여 병변을 예측하는 기법에 관한 것이다.The technology described below relates to a technique for predicting lesions using 2D images generated from 3D (dimensional) CT (Computed Tomography) images.

전통적으로 의료 기관은 환자의 CT 영상 등을 이용하여 질병의 진단을 하고 있다. 최근 AI(Artificial Intelligence)를 이용하여 의료 영상을 분석하여 병변을 진단하는 다양한 연구가 진행되고 있다.Traditionally, medical institutions use patients' CT images to diagnose diseases. Recently, various studies are being conducted to diagnose lesions by analyzing medical images using AI (Artificial Intelligence).

한국공개특허 제10-2021-0035381호Korean Patent Publication No. 10-2021-0035381

CT 영상은 복수의 슬라이드 영상이 적층되어 3차원 영상으로 제공된다. 종래 AI 모델은 2차원 영상에서 특징을 추출하여 일정한 정보를 산출한다. CT 영상을 입력받는 AI 모델은 하나 또는 복수의 슬라이드를 분석하여 병변을 평가하였다. 따라서 종래 기술은 다수의 슬라이드 중 일부 슬라이드에 병변이 있는 경우 분석이 쉽지 않았다. 또한, 폐와 같은 장기의 3차원 구조를 갖는데 종래 기술은 3차원 공간에서 전체 정보를 활용하는데 한계가 있었다.CT images are provided as three-dimensional images by stacking multiple slide images. Conventional AI models extract features from two-dimensional images and produce certain information. The AI model that received CT images evaluated lesions by analyzing one or multiple slides. Therefore, in the prior art, it was not easy to analyze when some of the slides among a plurality of slides had lesions. In addition, although organs such as the lungs have a three-dimensional structure, the prior art had limitations in utilizing the entire information in a three-dimensional space.

이하 설명하는 기술은 3D CT 영상에서 서로 다른 시점의 2D 영상을 생성하여 3차원 공간에서 주어지는 포괄적인 정보를 기계학습모델에 전달하고자 한다. 이하 설명하는 기술은 복수의 2D 영상을 이용하여 대상자의 병변을 예측하는 기법을 제공하고자 한다.The technology described below generates 2D images from different viewpoints from 3D CT images and seeks to convey comprehensive information given in 3D space to a machine learning model. The technology described below seeks to provide a technique for predicting a subject's lesion using multiple 2D images.

3D CT 영상에서 추출한 2D 영상들을 이용하여 병변을 예측하는 방법은 분석장치가 대상자의 관심 영역에 대한 3D CT 영상을 입력받는 단계, 상기 분석 장치가 상기 관심 영역에서 해부학적으로 분리된 서브 영역들을 분리하는 단계, 상기 분석장치가 상기 서브 영역들 각각에 대하여 서로 다른 시작 지점에서 투사하여 복수의 2D 영상들을 산출하는 단계, 상기 분석장치가 상기 복수의 2D 영상들 중 상기 서브 영역들 각각에서 산출한 복수의 영상을 결합하는 단계 및 상기 분석장치가 상기 결합한 영상을 분류 모델에 입력하여 상기 관심 영역의 병변을 예측하는 단계를 포함한다.A method of predicting a lesion using 2D images extracted from a 3D CT image includes the steps of an analysis device receiving a 3D CT image of a subject's region of interest, and the analysis device separating anatomically separate sub-regions from the region of interest. A step of calculating, by the analysis device, a plurality of 2D images by projecting from different starting points for each of the sub-areas, by the analysis device a plurality of images calculated from each of the sub-areas among the plurality of 2D images. Combining the images and inputting the combined images into a classification model by the analysis device to predict lesions in the region of interest.

다른 측면에서 3D CT 영상에서 추출한 2D 영상들을 이용하여 병변을 예측하는 방법은 분석장치가 대상자의 관심 영역에 대한 3D CT 영상을 입력받는 단계, 상기 분석 장치가 상기 관심 영역에서 해부학적으로 분리된 서브 영역들을 분리하는 단계, 상기 분석장치가 상기 서브 영역들 각각에 대하여 서로 다른 시작 지점에서 투사하여 복수의 2D 영상들을 산출하는 단계, 상기 분석장치가 상기 복수의 2D 영상들 중 상기 서브 영역들 각각에 대한 적어도 하나의 2D 영상을 서로 다른 분류모델들에 입력하는 단계 및 상기 분석장치가 상기 서로 다른 분류모델들에서 출력하는 값을 기준으로 상기 관심 영역의 병변을 예측하는 단계를 포함한다.In another aspect, a method of predicting a lesion using 2D images extracted from a 3D CT image includes the steps of an analysis device receiving a 3D CT image of a subject's region of interest, and the analysis device Separating regions, calculating a plurality of 2D images by projecting the analysis device from different starting points for each of the sub-regions, and calculating a plurality of 2D images by the analysis device in each of the sub-regions among the plurality of 2D images. The method includes inputting at least one 2D image into different classification models and predicting a lesion in the region of interest based on values output by the analysis device from the different classification models.

이하 설명하는 기술은 고정된 하나의 시점이 아닌 다양한 시점의 2D 영상을 사용하여 강인한 병변 예측이 가능하다. 나아가 이하 설명하는 기술은 복수의 2D 영상들을 처리하는 앙상블(ensemble) 모델을 이용하여 보다 정확도 높은 병변 예측이 가능하다.The technology described below enables robust lesion prediction by using 2D images from various viewpoints rather than a single fixed viewpoint. Furthermore, the technology described below enables more accurate lesion prediction by using an ensemble model that processes multiple 2D images.

도 1은 3D CT 영상에서 추출한 2D 영상을 이용한 병변 예측 시스템에 대한 예이다.
도 2는 3D CT 영상에서 추출한 2D 영상을 이용한 병변 예측 과정에 대한 예이다.
도 3은 3D CT 영상에서 폐 영역을 분리하는 과정에 대한 예이다.
도 4는 3D CT 영상에서 특정 시점의 투사를 통해 2D 영상을 획득하는 예이다.
도 5는 3D CT 영상에서 절단 최댓값 투사에 따른 2D 영상 생성 과정의 예이다.
도 6은 2D CT 영상들을 이용하여 병변을 예측하는 분류 모델에 대한 예이다.
도 7은 2D CT 영상들을 이용하여 병변을 예측하는 분류 모델에 대한 다른 예이다.
도 8은 3D CT 영상에서 추출한 2D 영상을 이용하여 병변을 예측하는 분석장치의 예이다.
Figure 1 is an example of a lesion prediction system using 2D images extracted from 3D CT images.
Figure 2 is an example of a lesion prediction process using a 2D image extracted from a 3D CT image.
Figure 3 is an example of the process of separating the lung region from a 3D CT image.
Figure 4 is an example of acquiring a 2D image through projection of a specific viewpoint from a 3D CT image.
Figure 5 is an example of a 2D image generation process according to truncation maximum projection from a 3D CT image.
Figure 6 is an example of a classification model that predicts lesions using 2D CT images.
Figure 7 is another example of a classification model that predicts lesions using 2D CT images.
Figure 8 is an example of an analysis device that predicts lesions using 2D images extracted from 3D CT images.

이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The technology described below may be subject to various changes and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the technology described below to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the technology described below.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Terms such as first, second, A, B, etc. may be used to describe various components, but the components are not limited by the terms, and are only used for the purpose of distinguishing one component from other components. It is used only as For example, without departing from the scope of the technology described below, the first component will be referred to as the second component, and the technology described below may be modified in various ways and may have several embodiments. Examples will be illustrated in the drawings and explained in detail. However, this is not intended to limit the technology described below to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the technology described below.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, B, etc. may be used to describe various components, but the components are not limited by the terms, and are only used for the purpose of distinguishing one component from other components. It is used only as For example, a first component may be named a second component without departing from the scope of the technology described below, and similarly, the second component may also be named a first component. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.

본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설명된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.In terms used in this specification, singular expressions should be understood to include plural expressions, unless clearly interpreted differently from the context, and terms such as “including” refer to the described features, numbers, steps, operations, and components. , it means the existence of parts or a combination thereof, but should be understood as not excluding the possibility of the presence or addition of one or more other features, numbers, step operation components, parts, or combinations thereof.

도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.Before providing a detailed description of the drawings, it would be clarified that the division of components in this specification is merely a division according to the main function each component is responsible for. That is, two or more components, which will be described below, may be combined into one component, or one component may be divided into two or more components for more detailed functions. In addition to the main functions it is responsible for, each of the components described below may additionally perform some or all of the functions handled by other components, and some of the main functions handled by each component may be performed by other components. Of course, it can also be carried out exclusively by .

또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, when performing a method or operation method, each process forming the method may occur in a different order from the specified order unless a specific order is clearly stated in the context. That is, each process may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the opposite order.

이하 설명하는 기술은 3D CT 영상에서 특정 시점의 2D 영상(들)을 추출하고, 추출한 2D 영상을 이용하여 병변을 예측하는 기법이다.The technology described below is a technique that extracts 2D image(s) at a specific point in time from a 3D CT image and predicts lesions using the extracted 2D image.

3D CT 영상은 CT 장비에서 산출되며 일정한 포맷의 디지털 데이터로 제공된다. CT 장비가 3D 영상을 재구성하는 알고리즘이나 모델은 다양할 수 있다. 이하 설명은 일정한 3D CT 영상이 제공되는 것을 전제로 하며, 3D CT 영상의 구성 방법을 한정하지 않는다.3D CT images are produced by CT equipment and provided as digital data in a certain format. The algorithms or models by which CT equipment reconstructs 3D images can vary. The following description assumes that a certain 3D CT image is provided, and does not limit the method of configuring the 3D CT image.

이하 분석장치가 일정한 기계학습모델을 이용하여 영상에서 병변을 예측한다고 설명한다. 분석 장치는 데이터 처리가 가능한 다양한 장치로 구현될 수 있다. 예컨대, 분석 장치는 PC, 네트워크상의 서버, 스마트 기기, 전용 프로그램이 임베딩된 칩셋 등으로 구현될 수 있다.Below, it is explained that the analysis device predicts lesions in the image using a certain machine learning model. The analysis device can be implemented as a variety of devices capable of processing data. For example, an analysis device can be implemented as a PC, a server on a network, a smart device, or a chipset with a dedicated program embedded therein.

기계 학습 모델은 결정 트리, 랜덤 포레스트(random forest), KNN(K-nearest neighbor), 나이브 베이즈(Naive Bayes), SVM(support vector machine), ANN(artificial neural network) 등이 있다. 특히 이하 설명하는 기술은 ANN을 이용하여 CT 영상에서 병변을 예측할 수 있다. Machine learning models include decision trees, random forest, KNN (K-nearest neighbor), Naive Bayes, SVM (support vector machine), and ANN (artificial neural network). In particular, the technology described below can predict lesions in CT images using ANN.

ANN은 생물의 신경망을 모방한 통계학적 학습 알고리즘이다. 다양한 신경망 모델이 연구되고 있다. 최근 딥러닝 신경망(deep learning network, DNN)이 주목받고 있다. DNN은 입력 계층(input layer)과 출력 계층(output layer) 사이에 여러 개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망 모델이다. DNN은 일반적인 인공신경망과 마찬가지로 복잡한 비선형 관계(non-linear relationship)들을 모델링할 수 있다. DNN은 다양한 유형의 모델이 연구되었다. 예컨대, CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), RBM(Restricted Boltzmann Machine), DBN(Deep Belief Network), GAN(Generative Adversarial Network), RL(Relation Networks) 등이 있다.ANN is a statistical learning algorithm that mimics biological neural networks. Various neural network models are being studied. Recently, deep learning network (DNN) has been attracting attention. DNN is an artificial neural network model consisting of several hidden layers between the input layer and the output layer. DNN, like general artificial neural networks, can model complex non-linear relationships. Various types of DNN models have been studied. For example, there are Convolutional Neural Network (CNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Generative Adversarial Network (GAN), and Relation Networks (RL).

도 1은 3D CT 영상에서 추출한 2D 영상을 이용한 병변 예측 시스템(100)에 대한 예이다. 도 1에서 분석장치는 컴퓨터 단말(130) 및 서버(140)인 예를 도시하였다.Figure 1 is an example of a lesion prediction system 100 using a 2D image extracted from a 3D CT image. Figure 1 shows an example in which the analysis device is a computer terminal 130 and a server 140.

CT 장비(110)는 대상자에 대한 CT 영상을 생성한다. 이때, CT 장비(110)가 최종 생성하는 영상은 3D CT 영상이다. 대상자의 3D CT 영상은 EMR(Electronic Medical Record, 120)에 저장될 수 있다.The CT equipment 110 generates CT images for the subject. At this time, the final image generated by the CT equipment 110 is a 3D CT image. The subject's 3D CT image can be stored in EMR (Electronic Medical Record, 120).

도 1에서 사용자(A)는 컴퓨터 단말(130)을 이용하여 대상자의 영상을 이용하여 병변을 예측할 수 있다. 컴퓨터 단말(130)은 대상자의 3D CT 영상을 입력받는다. 컴퓨터 단말(130)은 유선 또는 무선 네트워크를 통해 CT 장비(110) 또는 EMR(120)로부터 3D CT 영상을 입력받을 수 있다. 경우에 따라 컴퓨터 단말(130)은 CT 장비(110)와 물리적으로 연결된 장치일 수도 있다.In FIG. 1, a user (A) can predict a lesion using a subject's image using the computer terminal 130. The computer terminal 130 receives the 3D CT image of the subject. The computer terminal 130 can receive 3D CT images from the CT equipment 110 or the EMR 120 through a wired or wireless network. In some cases, the computer terminal 130 may be a device physically connected to the CT equipment 110.

컴퓨터 단말(130)은 대상자의 3D CT 영상에서 2D 영상(들)을 생성한다. 이때 2D 영상(들)은 3차원 공간에서 일정한 방향에 대한 영상에 해당한다. 컴퓨터 단말(130)은 기계학습모델을 이용하여 2D 영상을 분석하고, 병변을 예측한다. 사용자 A는 분석 결과를 확인할 수 있다. The computer terminal 130 generates 2D image(s) from the 3D CT image of the subject. At this time, the 2D image(s) correspond to an image in a certain direction in three-dimensional space. The computer terminal 130 analyzes 2D images and predicts lesions using a machine learning model. User A can check the analysis results.

서버(140)는 CT 장비(110) 또는 EMR(120)로부터 대상자의 3D CT 영상을 수신할 수 있다. 서버(140)는 대상자의 3D CT 영상에서 2D 영상(들)을 생성한다. 이때 2D 영상(들)은 3차원 공간에서 일정한 방향에 대한 영상에 해당한다. 서버(140)는 기계학습모델을 이용하여 2D 영상을 분석하고, 병변을 예측한다. 서버(140)는 분석 결과는 사용자 A의 단말에 전송할 수 있다. 사용자 A는 분석 결과를 확인할 수 있다. The server 140 may receive a 3D CT image of a subject from the CT equipment 110 or the EMR 120. The server 140 generates 2D image(s) from the 3D CT image of the subject. At this time, the 2D image(s) correspond to an image in a certain direction in three-dimensional space. The server 140 analyzes 2D images and predicts lesions using a machine learning model. The server 140 may transmit the analysis results to user A's terminal. User A can check the analysis results.

컴퓨터 단말(130) 및/또는 서버(140)는 분석 결과를 EMR(120)에 저장할 수도 있다. The computer terminal 130 and/or server 140 may store the analysis results in the EMR 120.

이하 설명하는 기술은 3D CT 영상에서 추출한 2D 영상(들)을 이용하여 대상자의 병변을 예측하거나 확인하는 기술이다. 따라서, 이하 설명하는 기술은 해부학적 특정 부위의 종류에 관계없이 3D CT 영상에 대하여 적용 가능하다. 예컨대, 뇌, 폐, 복부 등 다양한 부위의 영상에 대하여 적용 가능하다. 다만, 이하 설명의 편의를 위하여 폐를 기준으로 설명한다. The technology described below is a technology that predicts or confirms a subject's lesion using 2D image(s) extracted from 3D CT images. Therefore, the technology described below can be applied to 3D CT images regardless of the type of specific anatomical region. For example, it can be applied to images of various areas such as the brain, lungs, and abdomen. However, for convenience of explanation, the explanation will be based on the lungs.

도 2는 3D CT 영상에서 추출한 2D 영상을 이용한 병변 예측 과정(200)에 대한 예이다. 분석장치가 전체 과정을 수행한다고 가정한다. 다만, 실시 형태에 따라서 3D CT 영상에서 2D 영상을 생성하는 장치와 2D 영상을 기준으로 병변을 분류하는 장치가 서로 다를 수도 있다. Figure 2 is an example of a lesion prediction process 200 using a 2D image extracted from a 3D CT image. It is assumed that the analysis device performs the entire process. However, depending on the embodiment, the device that generates a 2D image from a 3D CT image and the device that classifies the lesion based on the 2D image may be different.

분석장치는 폐 3D CT 영상을 입력받는다. 분석장치는 3D CT 영상에서 폐 영역을 분리(segmentation)한다(210). 분석장치는 영상에서 특정 객체를 분리하는 모델(세그멘테이션 모델)을 사용하여 3D 영상에서 폐 영역을 분리할 수 있다. The analysis device receives 3D CT images of the lung. The analysis device separates the lung region from the 3D CT image (210). The analysis device can separate lung areas from 3D images using a model (segmentation model) that separates specific objects in the image.

세그멘테이션 모델은 다양한 모델이 연구되었다. 예컨대, 세그멘테이션 모델은 FCN(Fully Convolutinal Network), DeebLab, U-net 등과 같은 모델이 있다. 도 2는 FCN 기반 모델의 구조를 예시하였다. 폐 영역을 분리(segmentation)하는 과정은 도 3에서 상세하게 설명한다.Various segmentation models have been studied. For example, segmentation models include FCN (Fully Convolutinal Network), DeebLab, U-net, etc. Figure 2 illustrates the structure of an FCN-based model. The process of segmenting the lung region is explained in detail in FIG. 3.

분석장치는 폐 3D CT에서 폐 영역을 분리하고, 3차원 공간에서 특정 시점으로 투사를 하여 원하는 2D 영상(들)을 획득한다(220). 특정 시점은 사용자가 설정할 수 있다. 사용자가 원하는 특정 시점의 2D 영상을 관심 2D 영상이라고 명명한다. 관심 2D 영상을 생성하는 과정은 도 4 및 도 5에서 상세하게 설명한다.The analysis device separates the lung region from the lung 3D CT and projects it to a specific viewpoint in 3D space to obtain the desired 2D image(s) (220). The specific point in time can be set by the user. The 2D image at a specific viewpoint desired by the user is named the 2D image of interest. The process of generating a 2D image of interest is explained in detail in FIGS. 4 and 5.

분석장치는 관심 2D 영상(들)을 기반으로 대상자의 병변을 예측한다(230). 예측 결과는 정상 또는 병변 검출일 수 있다. 분석장치는 사전에 학습된 분류 모델에 관심 2D 영상(들)을 입력하고, 분류 모델이 산출하는 확률값을 기준으로 병변을 예측할 수 있다. 분류 모델은 입력된 영상의 특징을 기준으로 출력값을 산출하는 모델이다. 대표적인 분류 모델은 CNN 등이 있다. 예컨대, CNN은 컨볼루션 계층이 입력 영상의 특징을 추출하고, 전연결 계층이 입력된 특징에서 일정한 확률값을 산출한다.The analysis device predicts the subject's lesion based on the 2D image(s) of interest (230). The predicted result may be normal or lesion detection. The analysis device can input 2D image(s) of interest into a pre-trained classification model and predict lesions based on the probability value calculated by the classification model. A classification model is a model that calculates output values based on the characteristics of the input image. Representative classification models include CNN. For example, in CNN, the convolutional layer extracts features of the input image, and the pre-connection layer calculates a certain probability value from the input features.

도 3은 3D CT 영상에서 폐 영역을 분리하는 과정에 대한 예이다. 먼저, 분석장치는 3D CT 영상에서 관심 영역(폐 영역)을 분리하기 위하여 마스크(mask)를 생성한다. 이후 분석장치는 마스크를 이용하여 3D CT 영상에서 폐 영역을 분리할 수 있다.Figure 3 is an example of the process of separating the lung region from a 3D CT image. First, the analysis device creates a mask to separate the area of interest (lung area) from the 3D CT image. Afterwards, the analysis device can separate the lung area from the 3D CT image using a mask.

도 3(A)는 폐 마스크를 생성하는 과정에 대한 예이다. 분석장치는 폐 3D CT 영상을 세그멘테이션 모델에 입력하여 폐 마스크를 생성할 수 있다. FCN은 컨볼루션 계층(Conv)이 입력 영상에서 특징을 추출하고, 디컨볼루션 계층(Deconv)이 특징으로부터 영상을 복원하는 과정으로 폐 영역을 검출한다. 한편, 입력되는 영상이 3D CT 영상이므로 컨볼루션 계층 전에 3D 영상을 2D 형태로 샘플링하는 계층 및 디컨볼루션 계층 후에 2D 영상을 3D 영상으로 구성하는 계층이 더 사용될 수도 있다. 나아가, 분석장치는 3D 영상의 세그멘테이션을 위한 다양한 신경망 모델 중 어느 하나를 이용하여 폐 마스크를 산출할 수 있다.Figure 3(A) is an example of the process of creating a waste mask. The analysis device can generate a lung mask by inputting the lung 3D CT image into the segmentation model. FCN detects lung areas through a process where the convolution layer (Conv) extracts features from the input image and the deconvolution layer (Deconv) restores the image from the features. Meanwhile, since the input image is a 3D CT image, a layer that samples the 3D image in 2D form before the convolution layer and a layer that configures the 2D image into a 3D image after the deconvolution layer may be further used. Furthermore, the analysis device can calculate the lung mask using any one of various neural network models for segmentation of 3D images.

도 3(B)는 폐 마스크를 이용하여 폐 3D CT 영상에서 폐 영역을 분리하는 예이다. 분석장치는 폐 마스크를 기준으로 폐 3D CT 영상에서 폐 영역을 분리할 수 있다. 폐는 좌 폐 및 우 폐로 구성된다. 이후 2D 영상을 생성하는 투사 과정에서 양쪽 폐가 겹치는 것을 방지하기 위하여, 분석장치는 분리된 폐 영역을 다시 좌 폐와 우 폐로 분리할 수 있다.Figure 3(B) is an example of separating the lung area from a lung 3D CT image using a lung mask. The analysis device can separate lung areas from lung 3D CT images based on the lung mask. The lungs are made up of the left lung and right lung. In order to prevent both lungs from overlapping during the projection process of generating a 2D image, the analysis device can separate the separated lung area into left lung and right lung.

도 3은 좌우 구조를 갖는 폐를 대상으로 설명한 예이다. 좌뇌와 우뇌로 구성되는 뇌의 경우, 분석장치는 도 3과 유사한 과정으로 좌뇌와 우뇌를 분리할 수 있다. 한편, 대칭적 구조가 아닌 해부학적 부위의 경우 분석장치는 좌우를 분리하는 과정을 수행하지 않을 수 있다.Figure 3 is an example explaining lungs with left and right structures. In the case of a brain consisting of a left brain and a right brain, the analysis device can separate the left brain and the right brain through a process similar to FIG. 3. Meanwhile, in the case of anatomical areas that do not have a symmetrical structure, the analysis device may not perform the process of separating the left and right sides.

분석장치가 폐 3D CT에서 좌 폐와 우 폐를 분리한 상태라고 가정한다. 현재 좌 폐와 우 폐는 각각 3D 영상 객체이다. 따라서 3차원 공간에서 일정한 방향(시점)을 기준으로 투사가 가능하다. Assume that the analysis device has separated the left lung and right lung in the lung 3D CT. Currently, the left lung and right lung are each 3D image objects. Therefore, projection is possible based on a certain direction (viewpoint) in three-dimensional space.

도 4는 3D CT 영상에서 특정 시점의 투사를 통해 2D 영상을 획득하는 예이다. Figure 4 is an example of acquiring a 2D image through projection of a specific viewpoint from a 3D CT image.

도 4(A)는 좌 폐와 우 폐에 대하여 3차원 공간에서 투사 지점을 설정하는 예이다. 각 폐 영역은 해당 폐 영역을 둘러싸는 구를 갖는다. 이때 구내에서 폐 영역의 위치는 다양할 수 있다. 예컨대, 폐 영역의 무게 중심과 구의 중심이 일치할 수 있다. 도 4에서 점(point)은 투사 시작 위치를 나타낸다. 투사는 시작 위치에서 구의 중심을 향한 직선 방향으로 진행될 수 있다. 또는 투사는 시작 위치에서 폐 영역의 무게 중심을 향한 직선 방향으로 진행될 수도 있다.Figure 4(A) is an example of setting projection points in three-dimensional space for the left and right lungs. Each lung region has a sphere surrounding it. At this time, the location of the lung area within the oral cavity may vary. For example, the center of gravity of the lung area may coincide with the center of the sphere. In Figure 4, a point indicates the projection start position. The projection can proceed in a straight line from the starting position towards the center of the sphere. Alternatively, the projection may proceed in a straight line from the starting position toward the center of gravity of the lung region.

도 4(B)는 하나의 폐 영역을 기준으로 다양한 투사 시작 지점을 설정하여 다양한 관심 2D 영상을 획득하는 예이다. Figure 4(B) is an example of acquiring various 2D images of interest by setting various projection start points based on one lung area.

분석장치는 분리한 폐 영역을 화면에 출력할 수 있다. 이 경우 분석장치는 폐 영역과 가상의 구 표면을 이동하는 투사 시작 지점을 출력할 수 있다. 사용자는 입력장치를 이용하여 출력되는 화면을 보면서 투사 시작 지점을 설정할 수 있다. 이를 통해 사용자는 원하는 방향의 영상(들)을 확보할 수 있다. 사용자는 특정 방향에 있는 영상들을 중첩되도록 투사 시작 지점을 설정할 수 있다. 또는 사용자는 2D 영상이 중첩되지 않도록 다양한 방향에서 투사 시작 지점을 설정할 수도 있다.The analysis device can output the separated lung area on the screen. In this case, the analysis device can output a projection starting point that moves between the lung area and the surface of a virtual sphere. The user can set the projection start point while viewing the output screen using an input device. Through this, the user can secure image(s) in the desired direction. Users can set the projection start point so that images in a specific direction overlap. Alternatively, users can set the projection start point in various directions to prevent 2D images from overlapping.

투시 시작 지점은 폐의 해부학적 구조를 고려하여 정면, 상측면, 우측면, 좌측면 및 배면과 같이 일정한 방향이 설정될 수도 있다. 이 경우, 분석장치가 자동으로 폐 영역의 모양 내지 형태를 분석하여 특정 방향의 2D 영상이 생성되도록 투사 지점을 설정할 수도 있다.The fluoroscopy starting point may be set in a certain direction, such as front, upper side, right side, left side, and back, considering the anatomical structure of the lung. In this case, the analysis device may automatically analyze the shape or form of the lung area and set the projection point so that a 2D image in a specific direction is generated.

3D CT 영상을 투사하여 2D 영상을 생성하는 다양한 기법이 있다. 시작 지점에서 투사를 시작하면 하나의 직선에서 다수의 픽셀들을 지나게 된다. 2D 영상은 이 직선상에 있는 다수의 픽셀들을 하나의 픽셀값으로 표현해야 한다. 몇 가지 기법을 설명하면 다음과 같다. 아래 기법은 다수의 픽셀의 값을 어떤 값으로 선택 내지 연산할지에 대한 지침에 해당한다. CT 영상에서 픽셀의 값은 명암을 나타내는 값일 수 있다.There are various techniques for generating 2D images by projecting 3D CT images. If you start projection from the starting point, it will pass through a number of pixels in a single straight line. A 2D image must express multiple pixels on this straight line as a single pixel value. Some techniques are explained as follows. The techniques below correspond to guidelines for selecting or calculating the values of multiple pixels. The value of a pixel in a CT image may be a value representing brightness and darkness.

(1) 평균 투사(average projection) 기법 (1) Average projection technique

투사로 생성된 2D 영상의 각 픽셀 값은 해당 픽셀을 생성하기 위한 3차원 폐 영역 내의 투사 각도의 픽셀 벡터 어레이(array) 내에 해당하는 값들의 평균(average)으로 주어진다. 어레이는 하나의 직선에 위치하는 픽셀들로 구성된다.Each pixel value of a 2D image generated by projection is given as the average of the values corresponding to the pixel vector array of the projection angle within the 3D closed area for generating the corresponding pixel. The array consists of pixels located in a straight line.

(2) 최댓값 투사(max projection) 기법 (2) max projection technique

투사로 생성된 2D 영상의 각 픽셀 값은 해당 픽셀을 생성하기 위한 3차원 폐 영역 내의 해당 투사 각도의 픽셀 벡터 어레이 내의 값들 중에서 가장 큰 값(max)으로 주어진다. Each pixel value of a 2D image generated by projection is given as the largest value (max) among the values in the pixel vector array of the corresponding projection angle within the 3D closed area for generating the corresponding pixel.

(3) 절단 최댓값 투사(truncated max projection) 기법(3) Truncated max projection technique

이 기법은 일정한 조건을 만족하는 픽셀의 값만을 사용하는 방법이다. 이 기법은 픽셀 벡터 어레이에서 일정한 범위 [a,b]의 값을 갖는 픽셀만을 사용한다. 투사로 생성된 2D 영상의 각 픽셀 값은 해당 픽셀을 생성하기 위한 3차원 폐 영역 내의 해당 투사 각도의 픽셀 벡터 어레이에서 a~b 사이 값 중에서 가장 큰 값으로 주어진다. This technique uses only pixel values that satisfy certain conditions. This technique uses only pixels with values in a certain range [a,b] in the pixel vector array. Each pixel value of a 2D image generated by projection is given as the largest value among the values between a and b in the pixel vector array of the corresponding projection angle within the 3D closed area for generating the pixel.

(4) 절단 평균 투사(truncated average projection) 기법(4) truncated average projection technique

이 기법은 일정한 조건을 만족하는 픽셀의 값만을 사용하는 방법이다. 이 기법은 픽셀 벡터 어레이에서 일정한 범위 [a,b]의 값을 갖는 픽셀만을 사용한다. 투사로 생성된 2D 영상의 각 픽셀 값은 해당 픽셀을 생성하기 위한 3차원 폐 영역 내의 해당 투사 각도의 픽셀 벡터 어레이에서 a~b 사이 값을 갖는 픽셀들의 평균값으로 주어진다.This technique uses only pixel values that satisfy certain conditions. This technique uses only pixels with values in a certain range [a,b] in the pixel vector array. Each pixel value of a 2D image generated by projection is given as the average value of pixels with values between a and b in the pixel vector array of the corresponding projection angle within the 3D closed area for generating the pixel.

도 5는 3D CT 영상에서 절단 최댓값 투사에 따른 2D 영상 생성 과정(300)의 예이다. 도 5는 픽셀 벡터 어레이 내에 위치하는 값들 중 특정함 범위를 -800 ~ 0으로 설정한 경우이다. 이때 범위는 사용자가 선택할 수 있다. 또는 범위는 CT 장비나 해부학적 부위 특성에 따라 사전에 설정된 값으로 설정될 수도 있다.FIG. 5 is an example of a 2D image generation process 300 based on truncation maximum projection from a 3D CT image. Figure 5 shows a case where the specific range among the values located in the pixel vector array is set to -800 to 0. At this time, the range can be selected by the user. Alternatively, the range may be set to a preset value depending on the CT equipment or anatomical region characteristics.

분석장치는 하나의 픽셀값을 결정하기 위한 픽셀 벡터 어레이를 선택(310)한다. 픽셀 벡터 어레이는 투사 방향에 평행하게 2D 평면 기준으로 모든 픽셀들에 대하여 설정된다. 분석장치는 선택한 픽셀 벡터 어레이 중 -800 ~ 0의 값을 갖는 픽셀들 중 가장 큰 값을 2D 영상에서 해당 픽셀의 값으로 설정한다(320). 분석장치는 2D 평면의 모든 픽셀에 대하여 동일한 과정을 수행한다. The analysis device selects (310) a pixel vector array to determine one pixel value. A pixel vector array is set for all pixels relative to the 2D plane parallel to the projection direction. The analysis device sets the largest value among pixels with values between -800 and 0 among the selected pixel vector array as the value of the corresponding pixel in the 2D image (320). The analysis device performs the same process for all pixels in the 2D plane.

나아가 분석장치는 이와 같은 과정으로 산출된 2D 영상에 대하여 일정하게 정규화를 할 수 있다(330). 예컨대, 분석장치는 산출된 2D 영상에 대하여 최솟값-최댓값(Min-Max) 정규화를 수행할 수 있다. 널리 알려진 바와 같이 최솟값-최댓값 정규화는 전체 영상에서 픽셀의 값 중 가장 큰 값과 가장 작은 값을 기준으로 다른 값들을 일정하게 스케일링하여 정규화하는 방식이다. 물론, 분석장치는 2D 영상에 대하여 다른 정규화 기법을 적용할 수도 있다.Furthermore, the analysis device can regularly normalize the 2D image calculated through this process (330). For example, the analysis device may perform minimum-maximum (Min-Max) normalization on the calculated 2D image. As is widely known, minimum-maximum normalization is a method of normalizing other values by uniformly scaling them based on the largest and smallest pixel values in the entire image. Of course, the analysis device may apply other normalization techniques to the 2D image.

전술한 바와 같이 분석장치는 폐 3D CT로부터 다수의 2D 영상들을 생성할 수 있다. 분석장치는 분류모델을 이용하여 2D 영상을 분류한다. 이때 분석장치는 다수의 2D 영상들을 개별 분류모델에 입력하는 방식(앙상블 모델)을 활용할 수 있다. 이하 설명의 편의를 위하여 폐 영역에 대하여 좌 폐 정면, 좌 폐 측면, 우 폐 정면 및 우 폐 측면의 영상을 생성했다고 가정한다.As described above, the analysis device can generate multiple 2D images from a 3D CT of the lung. The analysis device classifies 2D images using a classification model. At this time, the analysis device can utilize a method of inputting multiple 2D images into an individual classification model (ensemble model). For convenience of explanation below, it is assumed that images of the front of the left lung, the side of the left lung, the front of the right lung, and the side of the right lung were created for the lung region.

도 6은 2D CT 영상들을 이용하여 병변을 예측하는 분류 모델에 대한 예이다. 도 6은 3개의 모델을 도시한다. 모델 1(model 1), 모델 2(model 2) 및 모델 3(model 3)은 각각 개별 분류 모델에 해당한다. 한편, 도 6의 개별 모델들은 학습 데이터를 이용하여 정상 또는 비정상(병변 존재)에 대한 확률값을 산출하도록 사전에 학습되어야 한다. 연구자는 정상인 데이터 및 환자 데이터를 모두 이용하여 도 6의 모델을 학습하였다.Figure 6 is an example of a classification model that predicts lesions using 2D CT images. Figure 6 shows three models. Model 1, model 2, and model 3 each correspond to individual classification models. Meanwhile, the individual models in FIG. 6 must be trained in advance to calculate probability values for normal or abnormal (presence of lesion) using training data. The researcher learned the model in Figure 6 using both normal and patient data.

폐의 정면 경우 좌 폐 및 우 폐를 하나의 영상에 나타낼 수 있다. 따라서, 정면 폐 영상을 좌 폐와 우 폐를 결합한 하나의 영상으로 구성할 수 있다. 모델 1은 하나의 정면 영상을 이용하는 모델의 예이다. 모델 1은 좌우 중 하나의 폐에만 병변이 있는 환자들 분류에 유용할 수 있다. 모델 1은 정면 폐 영상들로 구성된 학습 데이터와 해당 영상들의 라벨값을 이용하여 사전에 학습되어야 한다. 예측 과정에서 모델 1은 대상자의 정면 폐 영상(좌 폐 + 우 폐)을 입력받아 특징을 추출하고, 추출된 특징에 기반하여 병변에 대한 확률값(예컨대, 0~1 사이의 값)을 산출한다. 분석장치는 모델 1이 출력하는 값을 기준으로 대상자의 영상에 대한 병변을 예측한다. 예컨대, 분석장치는 모델 1이 출력하는 값이 0에 가까우면 정상, 1에 가까우면 병변이라고 예측할 수 있다.In the case of the front view of the lungs, the left lung and right lung can be displayed in one image. Therefore, the frontal lung image can be composed of one image combining the left lung and right lung. Model 1 is an example of a model that uses a single frontal image. Model 1 may be useful for classifying patients with lesions in only one of the left and right lungs. Model 1 must be trained in advance using training data consisting of frontal lung images and the label values of the corresponding images. In the prediction process, Model 1 receives the subject's frontal lung image (left lung + right lung), extracts features, and calculates a probability value for the lesion (e.g., a value between 0 and 1) based on the extracted features. The analysis device predicts lesions on the subject's image based on the value output by Model 1. For example, the analysis device can predict that if the value output by Model 1 is close to 0, it is normal, and if it is close to 1, it can be predicted that it is a lesion.

측면의 폐의 영상은 양쪽의 폐의 정보를 한 영상으로 결합하기 어렵다. 따라서, 좌 폐와 우 폐에 대해서는 개별 분류 모델을 이용할 수 있다. 모델 2은 두 개의 측면 영상을 이용하는 모델의 예이다. 모델 2는 동일 대상자에 대한 2개의 측면 폐 영상(좌 폐 및 우 폐)들로 구성된 학습 데이터와 해당 영상들의 라벨값을 이용하여 사전에 학습되어야 한다. 모델 2는 좌 폐 측면 영상과 우 폐 측면 영상을 입력받아 병변에 대한 확률값을 산출한다. 두 개의 입력 영상을 이용하는 경우 모델은 다양한 구조로 구현될 수 있다. 모델 2는 2개의 입력 계층과 컨볼루션 계층을 갖는 모델 구조를 도시한다. 하나의 입력 계층에서 좌 폐 측면 영상을 입력받아 컨볼루션 계층을 통하여 특징을 추출한다. 또 다른 입력 계층에서 우 폐 측면 영상을 입력받아 컨볼루션 계층을 통하여 특징을 추출한다. 좌 폐 측면 영상의 특징들과 우 폐 측면 영상의 특징들을 결합하여 일련의 특징 벡터들을 구성할 수 있다. 전연결계층은 특징 벡터들을 입력받아 병변에 대한 확률값(예컨대, 0~1 사이의 값)을 산출한다. 분석장치는 모델 2가 출력하는 값을 기준으로 대상자의 영상에 대한 병변을 예측한다. 예컨대, 분석장치는 모델 2가 출력하는 값이 0에 가까우면 정상, 1에 가까우면 병변이라고 예측할 수 있다.For lateral lung images, it is difficult to combine information from both lungs into one image. Therefore, separate classification models can be used for the left and right lungs. Model 2 is an example of a model that uses two side images. Model 2 must be trained in advance using training data consisting of two side lung images (left lung and right lung) of the same subject and the label values of the corresponding images. Model 2 receives the left lung side image and the right lung side image and calculates the probability value for the lesion. When using two input images, the model can be implemented in various structures. Model 2 shows a model structure with two input layers and a convolution layer. The left lung side image is input from one input layer and features are extracted through a convolutional layer. In another input layer, the right lung side image is input and features are extracted through a convolution layer. A series of feature vectors can be constructed by combining the features of the left lung lateral image and the features of the right lung lateral image. The pre-connection layer receives feature vectors and calculates a probability value for the lesion (e.g., a value between 0 and 1). The analysis device predicts lesions on the subject's image based on the value output by Model 2. For example, the analysis device can predict that if the value output by Model 2 is close to 0, it is normal, and if it is close to 1, it is a lesion.

나아가, 모델 1과 모델 2를 모두 활용하는 앙상블 모델을 이용하여 대상자의 병변을 예측할 수도 있다. 모델 3은 모델 1이 출력하는 제1 값과 모델 2가 출력하는 제2 값을 모두 이용하여 최종적으로 대상자의 병변에 대한 예측 값을 출력할 수 있다. 예컨대, 모델 3은 제1 값 또는 제2 값 중 작은 값 또는 큰 값을 기준으로 병변에 대한 예측을 할 수 있다. 또는 모델 3은 제1 값 및 제2 값의 평균값을 기준으로 병변에 대한 예측을 할 수도 있다. 또는 모델 3은 제1 값 또는 제2 값 중 하나라도 비정상이라는 값이라면 병변이 있다고 분류할 수도 있다.Furthermore, the subject's lesion can be predicted using an ensemble model that utilizes both Model 1 and Model 2. Model 3 can use both the first value output by Model 1 and the second value output by Model 2 to finally output a predicted value for the subject's lesion. For example, Model 3 can predict lesions based on the smaller or larger value of the first value or the second value. Alternatively, Model 3 may predict lesions based on the average of the first and second values. Alternatively, Model 3 may be classified as having a lesion if either the first or second value is abnormal.

분석장치는 복수의 2D 영상들 중 일부를 결합한 영상(예컨대, 정면 영상)을 하나의 모델에 입력하여 산출되는 값과 복수의 2D 영상들 중 적어도 하나의 영상(예컨대, 좌 폐 측면 영상, 우 폐 측면 영상 또는 좌 폐 측면 영상 및 우 폐 측면 영상)을 제2 분류 모델에 입력하여 산출되는 값을 모두 이용하여 병변을 예측할 수도 있다.The analysis device inputs a combined image (e.g., frontal image) of some of the plurality of 2D images into one model, calculates the value, and at least one image (e.g., left lung lateral image, right lung image) of the plurality of 2D images. The lesion may be predicted using all values calculated by inputting the lateral image (lateral image or left lung lateral image and right lung lateral image) into the second classification model.

연구자는 도 6과 같은 모델을 구성하여 모델을 검증하였다. 연구자는 정상인 500명과 결핵(Tuberculosis) 환자 255의 CT 데이터를 이용하여 검증을 하였다. 모델 3은 모델 1 또는 모델 2 중 하나라도 비정상이라고 판단하면 해당 영상에 대하여 비정상이라고 예측하는 것으로 설정하였다. 아래 표 1은 모델들에 대한 검증 결과이다.The researcher constructed a model as shown in Figure 6 and verified the model. The researcher verified the results using CT data from 500 normal people and 255 tuberculosis patients. Model 3 was set to predict that the image was abnormal if either Model 1 or Model 2 was judged to be abnormal. Table 1 below shows the verification results for the models.

AccuracyAccuracy TB-SensitivityTB-Sensitivity 모델 1model 1 90%90% 79%79% 모델 2model 2 92%92% 79%79% 모델 3model 3 92%92% 87%87%

모델 1의 결과 정확도(accuracy) 90%와 결핵의 민감도(sensitivity) 79%를 보였다. 모델 2는 결과 정확도 92%와 결핵의 민감도 79%를 보였다. 모델 3은 결과 정확도 92%와 결핵의 민감도 87%를 보였다. 앙상블 모델인 모델 3이 개별 모델에 비하여 나은 성능을 보였다.The results of Model 1 showed an accuracy of 90% and a tuberculosis sensitivity of 79%. Model 2 showed an accuracy of 92% and a sensitivity of 79% for tuberculosis. Model 3 showed an accuracy of 92% and a sensitivity of 87% for tuberculosis. Model 3, an ensemble model, showed better performance than individual models.

도 7은 2D CT 영상들을 이용하여 병변을 예측하는 분류 모델에 대한 다른 예이다. 도 7은 4개의 영상(좌 폐 정면, 좌 폐 측면, 우 폐 정면 및 우 폐 측면)을 이용한 앙상블 모델에 대한 예이다. 도 7은 4개의 개별 영상을 각각 처리하는 4개의 분류 모델(모델 1, 모델 2, 모델 3 및 모델 4)을 도시한다.Figure 7 is another example of a classification model that predicts lesions using 2D CT images. Figure 7 is an example of an ensemble model using four images (left lung front, left lung lateral, right lung front, and right lung lateral). Figure 7 shows four classification models (Model 1, Model 2, Model 3, and Model 4) each processing four individual images.

모델 1은 우 폐 정면을 이용하는 모델의 예이다. 모델 1은 하나의 정면 폐 영상들로 구성된 학습 데이터와 해당 영상들의 라벨값을 이용하여 사전에 학습되어야 한다. 예측 과정에서 모델 1은 대상자의 우 폐 정면을 입력받아 특징을 추출하고, 추출된 특징에 기반하여 병변에 대한 확률값(예컨대, 0~1 사이의 값)을 산출한다. 모델 1가 산출하는 값을 일정한 점수(score)라고 할 수 있다.Model 1 is an example of a model using the right lung front. Model 1 must be trained in advance using training data consisting of one frontal lung image and the label values of the corresponding images. In the prediction process, Model 1 receives the subject's right lung front as input, extracts features, and calculates a probability value for the lesion (e.g., a value between 0 and 1) based on the extracted features. The value calculated by Model 1 can be called a certain score.

모델 2는 우 폐 측면을 이용하는 모델의 예이다. 모델 2는 하나의 측면 폐 영상들로 구성된 학습 데이터와 해당 영상들의 라벨값을 이용하여 사전에 학습되어야 한다. 예측 과정에서 모델 2는 대상자의 우 폐 측면을 입력받아 특징을 추출하고, 추출된 특징에 기반하여 병변에 대한 확률값(예컨대, 0~1 사이의 값)을 산출한다. 모델 2가 산출하는 값을 일정한 점수(score)라고 할 수 있다.Model 2 is an example of a model using the right lung side. Model 2 must be trained in advance using training data consisting of one side lung image and the label values of the corresponding images. In the prediction process, Model 2 receives the subject's right lung side as input, extracts features, and calculates a probability value for the lesion (e.g., a value between 0 and 1) based on the extracted features. The value calculated by Model 2 can be called a certain score.

모델 3은 좌 폐 정면을 이용하는 모델의 예이다. 모델 3은 하나의 정면 폐 영상들로 구성된 학습 데이터와 해당 영상들의 라벨값을 이용하여 사전에 학습되어야 한다. 예측 과정에서 모델 3은 대상자의 좌 폐 정면을 입력받아 특징을 추출하고, 추출된 특징에 기반하여 병변에 대한 확률값(예컨대, 0~1 사이의 값)을 산출한다. 모델 3이 산출하는 값을 일정한 점수(score)라고 할 수 있다.Model 3 is an example of a model using the left lung front. Model 3 must be trained in advance using training data consisting of one frontal lung image and the label values of the corresponding images. In the prediction process, Model 3 receives the subject's left lung front as input, extracts features, and calculates a probability value for the lesion (e.g., a value between 0 and 1) based on the extracted features. The value calculated by Model 3 can be called a certain score.

모델 4는 좌 폐 측면을 이용하는 모델의 예이다. 모델 4는 하나의 측면 폐 영상들로 구성된 학습 데이터와 해당 영상들의 라벨값을 이용하여 사전에 학습되어야 한다. 예측 과정에서 모델 4는 대상자의 좌 폐 측면을 입력받아 특징을 추출하고, 추출된 특징에 기반하여 병변에 대한 확률값(예컨대, 0~1 사이의 값)을 산출한다. 모델 4가 산출하는 값을 일정한 점수(score)라고 할 수 있다.Model 4 is an example of a model using the left lung aspect. Model 4 must be trained in advance using training data consisting of one side lung image and the label values of the corresponding images. In the prediction process, Model 4 receives the left lung side of the subject as input, extracts features, and calculates a probability value for the lesion (e.g., a value between 0 and 1) based on the extracted features. The value calculated by Model 4 can be called a certain score.

분석장치는 모델 1, 모델 2, 모델 3 및 모델 4가 출력하는 점수를 종합하여 최종적으로 대상자가 정상인지 비정상인지 판단할 수 있다. 분석장치는 4개의 모델이 출력하는 점수를 합산한 값과 임계값을 비교하여 병변을 예측할 수 있다. 또는 분석장치는 4개의 모델이 출력하는 점수를 평균한 값과 임계값을 비교하여 병변을 예측할 수도 있다. 또는 분석장치는 모델 1 내지 모델 4가 출력하는 값에 따라 개별적으로 서로 다른 가중치를 부여하여 합산한 값과 임계값을 비교하여 병변을 예측할 수도 있다.The analysis device can finally determine whether the subject is normal or abnormal by combining the scores output by Model 1, Model 2, Model 3, and Model 4. The analysis device can predict lesions by comparing the sum of the scores output by the four models and the threshold. Alternatively, the analysis device may predict lesions by comparing the average of the scores output by the four models with the threshold. Alternatively, the analysis device may predict lesions by individually assigning different weights according to the values output by Models 1 to 4 and comparing the summed value with the threshold.

도 6 및 도 7에서 2D CT 영상들을 이용하여 병변을 분류하는 앙상블 모델을 설명하였다. 앙상블 모델은 도 6 또는 도 7과 다른 구조를 가질 수도 있다. 앙상블 모델은 다른 시점(각도)의 영상을 입력받을 수도 있고, 입력받는 영상의 개수가 다를 수도 있다.In Figures 6 and 7, an ensemble model for classifying lesions using 2D CT images is explained. The ensemble model may have a structure different from that of Figure 6 or Figure 7. The ensemble model may receive input images from different viewpoints (angles), and the number of input images may be different.

도 7의 개별 모델들도 학습 데이터를 이용하여 사전에 학습되어야 하며, 하며 도 6과 도 7의 모델 학습 방식은 다양할 수 있다. 예컨대, 도 6 또는 도 7의 개별 모델은 정상인 데이터와 환자 데이터를 이용하여 혹은 정상인 데이터만을 이용하여 정상과 비정상을 분류하도록 학습될 수 있다. 연구자는 도 7과 같은 구조의 모델을 구성하면서, 정상인 데이터만을 이용하여 개별 모델들을 학습하였다. 즉, 개별 모델이 정상인 데이터에 대하여 특정 값(점수)을 산출하도록 학습하였다. 이 경우 개별 모델은 비정상 데이터에 대해서는 정상 데이터와는 다른 값을 산출하게 된다.The individual models in Figure 7 must also be trained in advance using training data, and the model learning methods in Figures 6 and 7 may vary. For example, the individual model in FIG. 6 or FIG. 7 may be learned to classify normal and abnormal using normal data and patient data or only normal data. The researcher constructed a model with the structure shown in Figure 7 and learned individual models using only normal data. In other words, individual models were learned to calculate specific values (scores) for normal data. In this case, the individual model produces different values for abnormal data than for normal data.

한편, 개별 모델들은 입력 데이터에 대하여 정상에 가까울 확률로 0~1 사이의 값을 출력할 수 있다(0에 가까우면 정상이고, 1에 가까우면 비정상). 연구자는 개별 모델들이 출력하는 값의 평균값을 기준으로 최종적으로 정상 여부를 분류하였다. 물론, 앙상블 모델이 출력하는 값을 이용하여 입력 데이터를 분류하는 기준은 다양할 수 있다.Meanwhile, individual models can output values between 0 and 1 with a probability of being close to normal for input data (close to 0 is normal, and if close to 1 is abnormal). The researcher finally classified the results as normal based on the average value of the values output by individual models. Of course, the criteria for classifying input data using the values output by the ensemble model may vary.

연구자는 구축한 도 7의 앙상블 모델에 대한 성능도 검증하였다. 도 7의 앙상블 모델 검증은 도 6의 모델 검증에서 사용한 데이터와 동일한 데이터를 사용하였다. 연구자는 도 6의 모델 검증 데이터에 결핵 환자뿐만 아니라 폐렴 환자 데이터를 추가하여, 정상과 비정상(결핵+폐렴)을 구분한 결과를 검증하였다. 검증 결과 도 7의 구조를 갖는 앙상블 모델은 신뢰도가 AUC(Area under the Curve)= 0.948로 상당히 높은 성능을 보였다.The researcher also verified the performance of the ensemble model shown in Figure 7. The ensemble model verification in Figure 7 used the same data as the data used in the model verification in Figure 6. The researcher added data from pneumonia patients as well as tuberculosis patients to the model verification data in Figure 6 and verified the results of distinguishing between normal and abnormal (tuberculosis + pneumonia). As a result of the verification, the ensemble model with the structure shown in Figure 7 showed significantly high reliability with AUC (Area under the Curve) = 0.948.

도 8은 3D CT 영상에서 추출한 2D 영상을 이용하여 병변을 예측하는 분석장치(400)의 예이다. 분석장치(400)는 전술한 분석장치(도 1의 130 및 140)에 해당한다. 분석장치(400)는 물리적으로 다양한 형태로 구현될 수 있다. 예컨대, 분석장치(400)는 PC와 같은 컴퓨터 장치, 네트워크의 서버, 데이터 처리 전용 칩셋 등의 형태를 가질 수 있다.Figure 8 is an example of an analysis device 400 that predicts a lesion using a 2D image extracted from a 3D CT image. The analysis device 400 corresponds to the above-described analysis devices (130 and 140 in FIG. 1). The analysis device 400 may be physically implemented in various forms. For example, the analysis device 400 may take the form of a computer device such as a PC, a network server, or a chipset dedicated to data processing.

분석장치(400)는 저장장치(410), 메모리(420), 연산장치(430), 인터페이스 장치(440), 통신장치(450) 및 출력장치(460)를 포함할 수 있다.The analysis device 400 may include a storage device 410, a memory 420, an arithmetic device 430, an interface device 440, a communication device 450, and an output device 460.

저장장치(410)는 두부 계측 방사선 영상에서 계측점 검출 위한 강화학습모델을 저장할 수 있다. The storage device 410 can store a reinforcement learning model for detecting measurement points in cephalometric radiology images.

저장장치(410)는 대상자의 3D CT 영상을 저장할 수 있다.The storage device 410 can store a 3D CT image of a subject.

저장장치(410)는 영상 처리를 위한 다른 프로그램 내지 코드를 저장할 수 있다. 저장장치(410)는 3D CT 영상에서 2D CT 영상(들)을 추출하기 위한 프로그램을 저장할 수 있다. 저장장치(410)는 3D CT 영상에서 2D CT 영상(들)을 분리하는 신경망 모델을 저장할 수 있다. 저장장치(410)는 3D CT 영상에서 관심 영역을 분리하는 마스크를 생성하기 위한 세그멘테이션 모델을 저장할 수 있다.The storage device 410 may store other programs or codes for image processing. The storage device 410 may store a program for extracting 2D CT image(s) from a 3D CT image. The storage device 410 may store a neural network model that separates 2D CT image(s) from 3D CT images. The storage device 410 may store a segmentation model for creating a mask that separates a region of interest in a 3D CT image.

저장장치(410)는 3D CT 영상에서 추출한 2D CT 영상(들)을 저장할 수 있다.The storage device 410 can store 2D CT image(s) extracted from 3D CT images.

저장장치(410)는 2D CT 영상(들)을 입력받아 대상자의 병변을 예측하는 분류 모델을 저장할 수 있다. 분류 모델은 전술한 바와 같이 다수의 모델을 포함하는 앙상블 모델일 수도 있다.The storage device 410 may receive 2D CT image(s) and store a classification model that predicts the subject's lesion. The classification model may be an ensemble model including multiple models as described above.

저장장치(410)는 분석 결과(영상, 텍스트 등)를 저장할 수 있다. The storage device 410 can store analysis results (video, text, etc.).

메모리(420)는 분석장치(400)가 3D CT 영상에서 2D CT 영상(들)을 생성하는 과정 및 2D CT 영상(들)을 이용하여 병변을 예측하는 과정에서 생성되는 데이터 및 정보 등을 저장할 수 있다.The memory 420 can store data and information generated during the process of the analysis device 400 generating a 2D CT image(s) from a 3D CT image and the process of predicting a lesion using the 2D CT image(s). there is.

인터페이스 장치(440)는 외부로부터 일정한 명령 및 데이터를 입력받는 장치이다. 인터페이스 장치(440)는 물리적으로 연결된 입력 장치 또는 외부 저장장치로부터 분석 대상의 3D CT 영상을 입력받을 수 있다. 인터페이스 장치(440)는 분석 결과(영상, 텍스트 등)를 외부 객체에 전달할 수도 있다.The interface device 440 is a device that receives certain commands and data from the outside. The interface device 440 may receive a 3D CT image of the analysis target from a physically connected input device or an external storage device. The interface device 440 may transmit analysis results (video, text, etc.) to an external object.

통신장치(450)는 유선 또는 무선 네트워크를 통해 일정한 정보를 수신하고 전송하는 구성을 의미한다. 통신장치(450)는 외부 객체로부터 분석 대상의 3D CT 영상을 수신할 수 있다. 또는 통신장치(450)는 분석 결과(영상, 텍스트 등)를 사용자 단말과 같은 외부 객체에 송신할 수도 있다.The communication device 450 refers to a configuration that receives and transmits certain information through a wired or wireless network. The communication device 450 may receive a 3D CT image of the analysis target from an external object. Alternatively, the communication device 450 may transmit the analysis results (video, text, etc.) to an external object such as a user terminal.

인터페이스 장치(440) 및 통신장치(450)는 사용자 또는 다른 물리적 객체로부터 일정한 데이터를 주고받는 구성이므로, 포괄적으로 입출력장치라고도 명명할 수 있다. 3D CT 영상을 입력받는 기능에 한정하면 인터페이스 장치(440) 및 통신장치(450)는 입력장치라고 할 수도 있다. Since the interface device 440 and the communication device 450 are components that exchange certain data with a user or other physical object, they can also be collectively referred to as input/output devices. If limited to the function of receiving 3D CT images, the interface device 440 and communication device 450 may be referred to as input devices.

출력장치(460)는 일정한 정보를 출력하는 장치이다. 출력장치(460)는 데이터 처리 과정에 필요한 인터페이스, 분석 결과 등을 출력할 수 있다. The output device 460 is a device that outputs certain information. The output device 460 can output interfaces, analysis results, etc. required for the data processing process.

연산 장치(430)는 저장장치(410)에 저장된 명령어 내지 프로그램 코드를 이용하여 3D CT 영상을 입력받아 대상자의 병변을 예측할 수 있다.The computing device 430 can receive the 3D CT image and predict the subject's lesion using commands or program codes stored in the storage device 410.

연산 장치(430)는 3D CT 영상을 사전에 학습된 세그멘테이션 모델에 입력하여 관심 영역 검출을 위한 마스크를 생성할 수 있다. 연산 장치(430)는 3D CT 영상에 마스크를 적용하여 3D CT 영상에서 관심 영역(예컨대, 폐 영역)을 분리할 수 있다. 나아가 연산 장치(430)는 필요한 경우 관심 영역을 서브 영역(예컨대, 좌 폐 및 우 폐)로 분리할 수도 있다.The computing device 430 may generate a mask for detecting a region of interest by inputting the 3D CT image into a pre-trained segmentation model. The computing device 430 may separate a region of interest (eg, lung region) from the 3D CT image by applying a mask to the 3D CT image. Furthermore, the computing device 430 may separate the region of interest into sub-regions (eg, left lung and right lung), if necessary.

연산 장치(430)는 도 4에서 설명한 바와 같이 분리한 관심 영역 내지 서브 영역에 대하여 일정한 시점(각도)로 투사하여 2D 영상(들)을 생성할 수 있다.As described in FIG. 4, the computing device 430 may generate 2D image(s) by projecting the separated region of interest or sub-region at a certain viewpoint (angle).

연산 장치(430)는 생성한 2D 영상(들)을 분류 모델에 입력하여 대상자의 병변을 예측할 수 있다. 연산 장치(430)는 도 6 또는 도 7에서 설명한 모델과 같은 앙상블 모델을 이용하여 대상자의 병변을 예측할 수도 있다.The computing device 430 may input the generated 2D image(s) into a classification model to predict the subject's lesion. The computing device 430 may predict the subject's lesion using an ensemble model such as the model described in FIG. 6 or FIG. 7 .

연산 장치(430)는 데이터를 처리하고, 일정한 연산을 처리하는 프로세서, AP, 프로그램이 임베디드된 칩과 같은 장치일 수 있다.The computing device 430 may be a device such as a processor that processes data and performs certain operations, an AP, or a chip with an embedded program.

또한, 상술한 바와 같은 3D CT 영상에서 2D 영상을 생성하는 방법, 2D CT 영상을 이용한 병변 분류 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램(또는 어플리케이션)으로 구현될 수 있다. 상기 프로그램은 일시적 또는 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.Additionally, the method of generating a 2D image from a 3D CT image and the method of classifying lesions using a 2D CT image as described above may be implemented as a program (or application) including an executable algorithm that can be executed on a computer. The program may be stored and provided in a temporary or non-transitory computer readable medium.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM (read-only memory), PROM (programmable read only memory), EPROM(Erasable PROM, EPROM) 또는 EEPROM(Electrically EPROM) 또는 플래시 메모리 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories. Specifically, the various applications or programs described above include CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM (read-only memory), PROM (programmable read only memory), and EPROM (Erasable PROM, EPROM). Alternatively, it may be stored and provided in a non-transitory readable medium such as EEPROM (Electrically EPROM) or flash memory.

일시적 판독 가능 매체는 스태틱 램(Static RAM,SRAM), 다이내믹 램(Dynamic RAM,DRAM), 싱크로너스 디램 (Synchronous DRAM,SDRAM), 2배속 SDRAM(Double Data Rate SDRAM,DDR SDRAM), 증강형 SDRAM(Enhanced SDRAM,ESDRAM), 동기화 DRAM(Synclink DRAM,SLDRAM) 및 직접 램버스 램(Direct Rambus RAM,DRRAM) 과 같은 다양한 RAM을 의미한다.Temporarily readable media include Static RAM (SRAM), Dynamic RAM (DRAM), Synchronous DRAM (SDRAM), Double Data Rate SDRAM (DDR SDRAM), and Enhanced SDRAM (Enhanced RAM). It refers to various types of RAM, such as SDRAM (ESDRAM), Synchronous DRAM (Synclink DRAM, SLDRAM), and Direct Rambus RAM (DRRAM).

본 실시예 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시례는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.This embodiment and the drawings attached to this specification only clearly show some of the technical ideas included in the above-described technology, and those skilled in the art can easily understand them within the scope of the technical ideas included in the specification and drawings of the above-described technology. It is self-evident that all inferable variations and specific embodiments are included in the scope of rights of the above-mentioned technology.

Claims (6)

분석장치가 대상자의 관심 영역에 대한 3D(dimensional) CT(Computed Tomography) 영상을 입력받는 단계;
상기 분석 장치가 상기 관심 영역에서 해부학적으로 분리된 서브 영역들을 분리하는 단계;
상기 분석장치가 상기 서브 영역들 각각에 대하여 서로 다른 시작 지점에서 투사하여 복수의 2D 영상들을 산출하는 단계;
상기 분석장치가 상기 복수의 2D 영상들 중 상기 서브 영역들 각각에서 산출한 복수의 영상을 결합하는 단계; 및
상기 분석장치가 상기 결합한 영상을 분류 모델에 입력하여 상기 관심 영역의 병변을 예측하는 단계를 포함하는 3D CT 영상에서 추출한 2D 영상들을 이용하여 병변을 예측하는 방법.
A step where the analysis device receives a 3D (dimensional) CT (Computed Tomography) image of the subject's area of interest;
separating, by the analysis device, anatomically separate sub-regions from the region of interest;
generating, by the analysis device, a plurality of 2D images by projecting from different starting points for each of the sub-areas;
combining, by the analysis device, a plurality of images calculated from each of the sub-areas among the plurality of 2D images; and
A method of predicting a lesion using 2D images extracted from a 3D CT image, including the step of the analysis device inputting the combined image into a classification model to predict a lesion in the region of interest.
제1항에 있어서,
상기 서브 영역들을 분리하는 단계는
상기 분석장치가 세그멘테이션 모델을 이용하여 상기 3D CT 영상에서 상기 서브 영역들 각각의 마스크를 생성하는 단계; 및
상기 분석장치가 상기 각각의 마스크를 이용하여 상기 3D CT 영상으로부터 상기 서브 영역들을 분리하는 단계를 포함하는 3D CT 영상에서 추출한 2D 영상들을 이용하여 병변을 예측하는 방법.
According to paragraph 1,
The step of separating the sub-regions is
generating, by the analysis device, a mask for each of the sub-regions in the 3D CT image using a segmentation model; and
A method of predicting a lesion using 2D images extracted from a 3D CT image, including the step of the analysis device separating the sub-regions from the 3D CT image using each mask.
제1항에 있어서,
상기 분석장치가 상기 상기 서브 영역들 각각에 대하여 서브 영역을 포함하는 구의 표면에 위치하는 시작 지점에서 상기 구의 중심으로 방향으로 투사하여 생성되는 평면에서 상기 평면의 각 픽셀값을 평균 투사 기법, 최댓값 투사 기법, 절단 평균 투사 기법 및 절단 최댓값 투사 기법 중 어느 하나를 이용하여 복수의 2D 영상들을 산출하는 3D CT 영상에서 추출한 2D 영상들을 이용하여 병변을 예측하는 방법.
According to paragraph 1,
The analysis device projects, for each of the sub-regions, a direction from a starting point located on the surface of the sphere including the sub-region to the center of the sphere, and calculates each pixel value of the plane in an average projection technique, maximum value projection. A method of predicting a lesion using 2D images extracted from a 3D CT image that calculates a plurality of 2D images using any one of a truncated average projection technique and a truncated maximum projection technique.
분석장치가 대상자의 관심 영역에 대한 3D(dimensional) CT(Computed Tomography) 영상을 입력받는 단계;
상기 분석 장치가 상기 관심 영역에서 해부학적으로 분리된 서브 영역들을 분리하는 단계;
상기 분석장치가 상기 서브 영역들 각각에 대하여 서로 다른 시작 지점에서 투사하여 복수의 2D 영상들을 산출하는 단계;
상기 분석장치가 상기 복수의 2D 영상들 중 상기 서브 영역들 각각에 대한 적어도 하나의 2D 영상을 서로 다른 분류모델들에 입력하는 단계; 및
상기 분석장치가 상기 서로 다른 분류모델들에서 출력하는 값을 기준으로 상기 관심 영역의 병변을 예측하는 단계를 포함하는 3D CT 영상에서 추출한 2D 영상들을 이용하여 병변을 예측하는 방법.
A step where the analysis device receives a 3D (dimensional) CT (Computed Tomography) image of the subject's area of interest;
separating, by the analysis device, anatomically separate sub-regions from the region of interest;
generating, by the analysis device, a plurality of 2D images by projecting from different starting points for each of the sub-areas;
inputting, by the analysis device, at least one 2D image for each of the sub-regions among the plurality of 2D images into different classification models; and
A method of predicting a lesion using 2D images extracted from a 3D CT image, comprising predicting a lesion in the region of interest based on values output by the analysis device from the different classification models.
제4항에 있어서,
상기 서브 영역들을 분리하는 단계는
상기 분석장치가 세그멘테이션 모델을 이용하여 상기 3D CT 영상에서 상기 서브 영역들 각각의 마스크를 생성하는 단계; 및
상기 분석장치가 상기 각각의 마스크를 이용하여 상기 3D CT 영상으로부터 상기 서브 영역들을 분리하는 단계를 포함하는 3D CT 영상에서 추출한 2D 영상들을 이용하여 병변을 예측하는 방법.
According to paragraph 4,
The step of separating the sub-regions is
generating, by the analysis device, a mask for each of the sub-regions in the 3D CT image using a segmentation model; and
A method of predicting a lesion using 2D images extracted from a 3D CT image, including the step of the analysis device separating the sub-regions from the 3D CT image using each mask.
제4항에 있어서,
상기 분석장치가 상기 상기 서브 영역들 각각에 대하여 서브 영역을 포함하는 구의 표면에 위치하는 시작 지점에서 상기 구의 중심으로 방향으로 투사하여 생성되는 평면에서 상기 평면의 각 픽셀값을 평균 투사 기법, 최댓값 투사 기법, 절단 평균 투사 기법 및 절단 최댓값 투사 기법 중 어느 하나를 이용하여 복수의 2D 영상들을 산출하는 3D CT 영상에서 추출한 2D 영상들을 이용하여 병변을 예측하는 방법.
According to paragraph 4,
The analysis device projects, for each of the sub-regions, a direction from a starting point located on the surface of the sphere including the sub-region to the center of the sphere, and calculates each pixel value of the plane in an average projection technique, maximum value projection. A method of predicting a lesion using 2D images extracted from a 3D CT image that calculates a plurality of 2D images using any one of a truncated average projection technique and a truncated maximum projection technique.
KR1020230137191A 2021-10-18 2023-10-13 Presence or absence of lesion prediction method using 2 dimensional images extracted from 3 dimensional computed tomography image KR20230147589A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230137191A KR20230147589A (en) 2021-10-18 2023-10-13 Presence or absence of lesion prediction method using 2 dimensional images extracted from 3 dimensional computed tomography image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210138268A KR20230055035A (en) 2021-10-18 2021-10-18 Presence or absence of lesion prediction method using 2 dimensional images extracted from 3 dimensional computed tomography image and analysis apparatus
KR1020230137191A KR20230147589A (en) 2021-10-18 2023-10-13 Presence or absence of lesion prediction method using 2 dimensional images extracted from 3 dimensional computed tomography image

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210138268A Division KR20230055035A (en) 2021-10-18 2021-10-18 Presence or absence of lesion prediction method using 2 dimensional images extracted from 3 dimensional computed tomography image and analysis apparatus

Publications (1)

Publication Number Publication Date
KR20230147589A true KR20230147589A (en) 2023-10-23

Family

ID=86101419

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210138268A KR20230055035A (en) 2021-10-18 2021-10-18 Presence or absence of lesion prediction method using 2 dimensional images extracted from 3 dimensional computed tomography image and analysis apparatus
KR1020230137191A KR20230147589A (en) 2021-10-18 2023-10-13 Presence or absence of lesion prediction method using 2 dimensional images extracted from 3 dimensional computed tomography image

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020210138268A KR20230055035A (en) 2021-10-18 2021-10-18 Presence or absence of lesion prediction method using 2 dimensional images extracted from 3 dimensional computed tomography image and analysis apparatus

Country Status (1)

Country Link
KR (2) KR20230055035A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210035381A (en) 2019-09-23 2021-04-01 삼성에스디에스 주식회사 Apparatus and method for medical diagnostic

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210035381A (en) 2019-09-23 2021-04-01 삼성에스디에스 주식회사 Apparatus and method for medical diagnostic

Also Published As

Publication number Publication date
KR20230055035A (en) 2023-04-25

Similar Documents

Publication Publication Date Title
US10482603B1 (en) Medical image segmentation using an integrated edge guidance module and object segmentation network
US10650518B2 (en) Computer aided diagnosis (CAD) apparatus and method
Al-masni et al. Detection and classification of the breast abnormalities in digital mammograms via regional convolutional neural network
US10366491B2 (en) Deep image-to-image recurrent network with shape basis for automatic vertebra labeling in large-scale 3D CT volumes
Nogas et al. Deepfall: Non-invasive fall detection with deep spatio-temporal convolutional autoencoders
JP7208408B2 (en) Detection model training method, apparatus, computer device and computer program
EP3480786A1 (en) Medical image object detection with dense feature pyramid network architecture in machine learning
KR101879207B1 (en) Method and Apparatus for Recognizing Objects in a Weakly Supervised Learning Manner
Baumann et al. Recognizing human actions using novel space-time volume binary patterns
CN109145765B (en) Face detection method and device, computer equipment and storage medium
Jain et al. Lung nodule segmentation using salp shuffled shepherd optimization algorithm-based generative adversarial network
Ashhar et al. Comparison of deep learning convolutional neural network (CNN) architectures for CT lung cancer classification
Zhang et al. Pulmonary nodule detection based on 3D feature pyramid network with incorporated squeeze‐and‐excitation‐attention mechanism
Lai et al. Detection of lung nodules on ct images based on the convolutional neural network with attention mechanism
Heeneman et al. Lung nodule detection by using Deep Learning
Vasanthselvakumar et al. Automatic detection and classification of chronic kidney diseases using CNN architecture
KR20230147589A (en) Presence or absence of lesion prediction method using 2 dimensional images extracted from 3 dimensional computed tomography image
US11875898B2 (en) Automatic condition diagnosis using an attention-guided framework
Sriram et al. Deep Learning Approaches for Pneumonia Classification in Healthcare
Hossain et al. Recognition of tuberculosis on medical X-ray images utilizing MobileNet transfer learning
Sangeetha et al. Diagnosis of Pneumonia using Image Recognition Techniques
KR102650919B1 (en) Medical image classifying method using contrastive learning based on patch and analysis apparatus
KR102608203B1 (en) Dementia prediction method based on 2-dimensional magnetic resonance imaging and analysis apparatus
US11903730B1 (en) Body fat measurements from a two-dimensional image
Hassan et al. Detecting Breast Tumors in Tomosynthesis Images Utilizing Deep Learning-Based Dynamic Ensemble Approach. Computers 2023, 12, 220

Legal Events

Date Code Title Description
A107 Divisional application of patent