KR20210020629A - Tumor automatic segmentation based on deep learning in a medical image - Google Patents

Tumor automatic segmentation based on deep learning in a medical image Download PDF

Info

Publication number
KR20210020629A
KR20210020629A KR1020190100380A KR20190100380A KR20210020629A KR 20210020629 A KR20210020629 A KR 20210020629A KR 1020190100380 A KR1020190100380 A KR 1020190100380A KR 20190100380 A KR20190100380 A KR 20190100380A KR 20210020629 A KR20210020629 A KR 20210020629A
Authority
KR
South Korea
Prior art keywords
tumor
neural network
images
deep neural
segmentation
Prior art date
Application number
KR1020190100380A
Other languages
Korean (ko)
Other versions
KR102349515B1 (en
Inventor
홍헬렌
변소현
김봉석
Original Assignee
서울여자대학교 산학협력단
한국보훈복지의료공단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울여자대학교 산학협력단, 한국보훈복지의료공단 filed Critical 서울여자대학교 산학협력단
Priority to KR1020190100380A priority Critical patent/KR102349515B1/en
Publication of KR20210020629A publication Critical patent/KR20210020629A/en
Application granted granted Critical
Publication of KR102349515B1 publication Critical patent/KR102349515B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/92Computer assisted medical diagnostics
    • Y10S128/922Computer assisted medical diagnostics including image analysis

Abstract

The present invention provides a deep learning-based automatic tumor segmentation method in a medical image which can accurately perform automatic segmentation of a tumor. The deep learning-based automatic tumor segmentation method in a medical image comprises: a step of inputting a plurality of sagittal images, a plurality of coronal images, and a plurality of axial images of a two-dimensional medical video including a tumor into a two-dimensional deep neural network to generate a plurality of prediction maps and a plurality of label data of a region of interest through the two-dimensional deep neural network; a step of combining the generated plurality of label data and the generated plurality of prediction maps by using a distance probability map to generate a preliminary shape model of the region of interest; and a step of inputting the preliminary shape model and a three-dimensional medical video including the tumor into a three-dimensional deep neural network to acquire a segmentation result of the region of interest through the three-dimensional deep neural network.

Description

의료 영상에서 딥러닝에 기반한 종양 자동분할 방법{TUMOR AUTOMATIC SEGMENTATION BASED ON DEEP LEARNING IN A MEDICAL IMAGE}Automatic tumor segmentation method based on deep learning in medical images{TUMOR AUTOMATIC SEGMENTATION BASED ON DEEP LEARNING IN A MEDICAL IMAGE}

본 발명은 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법에 관한 것으로, 보다 자세하게는 2차원 딥 뉴럴 네트워크와 3차원 딥 뉴럴 네트워크를 이용한 종양 자동분할 방법에 관한 것이다.The present invention relates to a method for automatic tumor segmentation based on deep learning in medical images, and more particularly, to a method for automatic tumor segmentation using a 2D deep neural network and a 3D deep neural network.

방사선 치료는 종양의 주변 정상 조직에 방사선 투입량을 최소화하면서 종양에 정확하게 방사선을 투입하는 것이 중요하다. 이를 위해 치료 직전 환자의 영상을 다시 얻어 치료계획 당시의 환자 자세 및 종양 위치와 비교하여 환자의 위치를 보정하거나 치료계획을 수정하여 치료의 정확성을 높이는 영상유도 방사선 치료가 많이 사용되고 있다.In radiation therapy, it is important to accurately inject radiation into the tumor while minimizing the amount of radiation injected into the surrounding normal tissues. To this end, image-guided radiation therapy is widely used in which an image of a patient immediately before treatment is re-acquired and compared with the patient's posture and tumor position at the time of treatment plan to correct the patient's position or correct the treatment plan to increase the accuracy of treatment.

암의 예후 및 치료 반응 평가를 위해서는 종양 크기를 측정하는 것이 필수적이다. 종양 크기는 현재 도 1에 도시된 바와 같이 (a) 일차원 RECIST (b) 2차원 WHO 또는 (c) 3D volume을 사용하여 정량화되지만, 종양의 3D 측정과 비교하여 선-길이 측정이 오도될 수 있음을 암시하는 입증되지 않은 증거가 계속 나오고 있다. 또한, 이미지 특징을 분석하고 치료 계획을 위해 종양 볼륨(volume)을 파악하기 위해서는 용적 분할(volumetric segmentation)이 필요하다. 그러나 종양은 도 2에 도시된 바와 같이 종양이 배치된 위치((a) apex of the lung, (b) chest wall, (c) mediastinum, (d) base of the lung)가 다양하고 종양의 크기가 1cm에서 18cm까지 다양함에 따라 분할 작업을 수행하기 어려운 문제점이 있었다.It is essential to measure the tumor size in order to evaluate the prognosis and treatment response of cancer. Tumor size is currently quantified using (a) one-dimensional RECIST (b) two-dimensional WHO or (c) 3D volume as shown in FIG. 1, but line-length measurement may be misleading compared to 3D measurement of tumor. There is still unproven evidence suggesting that. In addition, volumetric segmentation is required to analyze image features and determine tumor volume for treatment planning. However, as shown in FIG. 2, tumors have various locations ((a) apex of the lung, (b) chest wall, (c) mediastinum, (d) base of the lung) and the size of the tumor. As it varies from 1cm to 18cm, it is difficult to perform the division work.

"Chest computed tomography display preferences: survey of thoracic radiologists.", Investigate

Figure pat00001
iηek et al., "3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation", MICCAI 2016. "Chest computed tomography display preferences: survey of thoracic radiologists.", Investigate
Figure pat00001
iηek et al., "3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation", MICCAI 2016.

본 발명이 해결하고자 하는 과제는 2차원 딥 뉴럴 네트워크를 통해 생성된 사전형상모델과 복부의 바운딩 볼륨(bounding volume)을 3차원 딥 뉴럴 네트워크에 입력함으로써 종양을 위치와 크기에 관계 없이 주변과의 경계부위에서 정확하게 분할하는 종양 자동분할 방법을 제공하는 것이다.The problem to be solved by the present invention is to input the pre-shape model generated through the 2D deep neural network and the bounding volume of the abdomen into the 3D deep neural network, so that the tumor is located at the boundary between It is to provide an automatic tumor segmentation method that accurately divides the stomach.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법은 종양이 포함된 2차원 의료 영상의 복수의 축상(Axial) 이미지, 복수의 관상(Coronal) 이미지 및 복수의 시상(Sagittal) 이미지를 2차원 딥 뉴럴 네트워크에 입력하여. 상기 2차원 딥 뉴럴 네트워크를 통해 관심 영역(region of interest)의 복수의 레이블(Label) 데이터 및 복수의 예측맵(Prediction map)을 생성하는 단계; 상기 생성된 복수의 레이블 데이터와 상기 복수의 예측맵을 거리 확률맵(distance probability map)을 이용하여 결합시킴으로써 상기 관심 영역의 사전형상모델을 생성하는 단계; 및 상기 종양이 포함된 3차원 의료 영상과 상기 사전형상모델을 3차원 딥 뉴럴 네트워크에 입력하여. 상기 3차원 딥 뉴럴 네트워크를 통해 상기 관심 영역의 분할 결과를 획득하는 단계;를 포함한다.In the medical image according to an aspect of the present invention for solving the above-described problems, a method for automatic tumor segmentation based on deep learning includes a plurality of axial images and a plurality of coronal images of a 2D medical image including a tumor. And inputting a plurality of sagittal images into a two-dimensional deep neural network. Generating a plurality of label data and a plurality of prediction maps of a region of interest through the 2D deep neural network; Generating a prior shape model of the region of interest by combining the generated plurality of label data and the plurality of prediction maps using a distance probability map; And inputting the 3D medical image including the tumor and the pre-shape model to a 3D deep neural network. And obtaining a result of segmentation of the region of interest through the 3D deep neural network.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the present invention are included in the detailed description and drawings.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, it has various effects as follows.

본 발명은 종양의 자동 분할을 정확하게 수행할 수 있다.The present invention can accurately perform automatic segmentation of tumors.

또한, 본 발명은 사전형상모델을 이용하여 3차원 딥 뉴럴 네트워크에서의 과분할(over-segmentation)을 방지할 수 있다.In addition, the present invention can prevent over-segmentation in a 3D deep neural network by using a pre-shape model.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1 및 도 2는 종래 종양이 포함된 의료 영상을 나타낸 도면이다.
도 3은 본 발명의 일 실시 예에 따른 종양 자동분할 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시 예에 따른 종양 자동분할 방법을 설명하기 위한 블록도이다.
도 5는 본 발명의 일 실시 예에 따른 2D 및 3D U-Net을 설명하기 위한 예시도이다.
도 6은 본 발명의 일 실시 예에 따른 거리 확률맵을 설명하기 위한 예시도이다.
도 7은 본 발명의 일 실시 예에 따른 종양 자동분할 방법의 효과를 설명하기 위한 테이블이다.
도 8은 본 발명의 일 실시 예에 따른 종양 자동분할 방법의 효과를 설명하기 위한 예시도이다.
1 and 2 are diagrams showing a medical image including a conventional tumor.
3 is a flowchart illustrating a method of automatically segmenting a tumor according to an embodiment of the present invention.
4 is a block diagram illustrating a method of automatically segmenting a tumor according to an embodiment of the present invention.
5 is an exemplary diagram for explaining 2D and 3D U-Net according to an embodiment of the present invention.
6 is an exemplary diagram illustrating a distance probability map according to an embodiment of the present invention.
7 is a table for explaining the effect of the automatic tumor segmentation method according to an embodiment of the present invention.
8 is an exemplary diagram for explaining the effect of a method for auto-segmenting a tumor according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, It is provided to fully inform the technician of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and “and/or” includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc., as shown in the figure It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to orientation.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

의미적 영상 분할(sementic segmentation)은 일반적인 영상 분할과 같이 단순히 어떤 특징이나 계산된 속성의 관점에서 유사한 영역으로 나누는데 그치는 것이 아니라, 의미적으로 같은 부분까지 나누고 그 부분이 어떠한 범주에 속하는지 판별하는 기술을 말한다.Semantic segmentation, like general image segmentation, is not limited to simply dividing into similar areas in terms of certain features or calculated attributes, but a technology that divides semantically the same part and determines which category the part belongs to. Say.

즉, 영상의 모든 픽셀에 대해서 미리 정의된 범주안에서 어떤 범주에 속하는지 분류하는 기술에 상응할 수 있고, 픽셀단위 분류(pixelwise classification)에 상응할 수도 있다.That is, it may correspond to a technology for classifying which category of all pixels of an image belongs within a predefined category, and may correspond to pixelwise classification.

의미적 영상 분할하는 방법은 크게 2가지 분류로 나뉜다. 첫째는 입력된 영상에서 수제 특징(Hand-craft features)를 뽑아서 수퍼 픽셀(Super-pixel) 단위로 분할한 뒤, 의미기반으로 영상을 분할하는 기법이다. 보다 상세하게는, 주어진 영상 데이터를 분석하여 단서가 될 수 있는 특징(Feature)들을 사용자가 직접 설계하여 추출할 수 있다. 이후 추출된 특징들의 패턴을 근거로 수퍼 픽셀 단위로 세그맨테이션을 수행할 수 있다. 이 과정은 정확도와 속도의 향상을 이끌어 낼 수 있다. 이후, 각각의 수퍼 픽셀 단위로 서포트 벡터 머신 (Support Vector Machine)을 이용하여 의미적 영상 분할을 진행하여 해당하는 픽셀 혹은 수퍼 픽셀이 어떤 분류에 속하는 지 판단할 수 있다. 이러한 방법은 시스템에 입력되는 영상의 종류가 달라지면 그에 맞는 수제 특징을 매번 다시 설계해야 하기 때문에 시스템 활용 범위에 제한이 있다는 단점이 있으며, 수제 특징 추출은 처리 속도가 느리다는 단점도 있다.The semantic image segmentation method is largely divided into two categories. The first is a technique of extracting hand-craft features from the input image, dividing it into super-pixel units, and then dividing the image based on meaning. In more detail, a user may directly design and extract features that may serve as clues by analyzing given image data. Thereafter, segmentation may be performed in units of super pixels based on patterns of the extracted features. This process can lead to improved accuracy and speed. Thereafter, semantic image segmentation is performed using a support vector machine for each super pixel, and it is possible to determine which classification a corresponding pixel or super pixel belongs to. This method has a disadvantage in that the range of use of the system is limited because, when the type of image input to the system is changed, a corresponding handmade feature must be redesigned each time, and the manual feature extraction has a disadvantage in that the processing speed is slow.

둘째는 딥 러닝(Deep Learning)을 이용하여 특징(Features)를 추출한 뒤, 이것을 기반으로 픽셀(pixel) 단위로 분류(Classification)하는 기법이다. 딥 러닝(Deep Learning) 기반 분류의 성능이 우수함이 입증됨에 따라 의미 기반 영상 분할에서도 콘볼루션 인공신경망(Convolutional Neutral Network, CNN) 구조를 이용한 접근법이 제시되고 있다. 이러한 CNN 구조를 변경한 FCN(Fully Convolutional Networks)는 영상 분할(Image Segmentation)에도 뛰어난 성능을 보인다. 수퍼픽셀 단위의 분할을 진행한 후, 학습 데이터셋을 이용하여 CNN 필터를 학습하고 영상을 분할한 후 CRF (Conditional Random Field)와 같은 후 처리를 거칠 수 있다.The second is a technique of extracting features using deep learning, and then classifying them in pixel units. As the performance of deep learning-based classification has been proven to be excellent, an approach using a convolutional neural network (CNN) structure has been proposed for semantic-based image segmentation. FCN (Fully Convolutional Networks), which has changed the CNN structure, shows excellent performance in image segmentation. After the superpixel division is performed, the CNN filter is trained using the training dataset, the image is segmented, and post-processing such as CRF (Conditional Random Field) can be performed.

이하에서, 본 발명에서 설명하는 분할은 의미적 영상 분할을 의미할 수 있고, 딥 러닝에 기반한 의미적 영상 분할 방법이 적용될 수 있다.Hereinafter, the segmentation described in the present invention may mean semantic image segmentation, and a semantic image segmentation method based on deep learning may be applied.

도 3은 본 발명의 일 실시 예에 따른 종양 자동분할 방법을 설명하기 위한 흐름도이다. 도 4는 본 발명의 일 실시 예에 따른 종양 자동분할 방법을 설명하기 위한 블록도이다. 도 5는 본 발명의 일 실시 예에 따른 2D 및 3D U-Net을 설명하기 위한 예시도이다. 도 6은 본 발명의 일 실시 예에 따른 거리 확률맵을 설명하기 위한 예시도이다. 도 7은 본 발명의 일 실시 예에 따른 종양 자동분할 방법의 효과를 설명하기 위한 테이블이다. 도 8은 본 발명의 일 실시 예에 따른 종양 자동분할 방법의 효과를 설명하기 위한 예시도이다.3 is a flowchart illustrating a method of automatically segmenting a tumor according to an embodiment of the present invention. 4 is a block diagram illustrating a method of automatically segmenting a tumor according to an embodiment of the present invention. 5 is an exemplary diagram for explaining 2D and 3D U-Net according to an embodiment of the present invention. 6 is an exemplary diagram illustrating a distance probability map according to an embodiment of the present invention. 7 is a table for explaining the effect of the automatic tumor segmentation method according to an embodiment of the present invention. 8 is an exemplary diagram for explaining the effect of the method of automatically segmenting a tumor according to an embodiment of the present invention.

본 발명은 종양 자동분할 시스템으로 구현될 수 있고, 영상 입력부, 2차원 딥러닝부, 사전형상모델 생성부, 영상 편집부 및 3차원 딥러닝부를 포함할 수 있다.The present invention may be implemented as an automatic tumor segmentation system, and may include an image input unit, a 2D deep learning unit, a pre-shape model generation unit, an image editing unit, and a 3D deep learning unit.

도 3 내지 도 8을 참조하면, 일 실시 예에서, 동작 31에서, 영상 편집부는 의료 영상에 강도 평준화(Intensity normalization) 및 공간 평준화(spacing normalization)를 적용함으로써 복수의 축상(Axial) 이미지, 복수의 관상(Coronal) 이미지 및 복수의 시상(Sagittal) 이미지를 획득할 수 있다. 예를 들어, 종양이 배치된 위치가 폐일 경우, 폐 특성상 주변 영역과의 식별을 위한 전처리가 필요할 수 있고, 흉강 내부를 상부 / 흉격동 / 흉벽부착부 / 하부의 4개 영역으로 분할하고, 영역 특성에 적합한 처리 과정을 수행할 수 있다. 예컨대, 의료 영상에 windowing width 1500, windowing level -600 수치에 기반하여 강도 평준화(Intensity normalization)를 적용할 수 있고, 의료 영상의 모든 사이즈를 0.54X0.54mm2로 공간 평준화(spacing normalization)를 적용할 수 있다.3 to 8, in an embodiment, in operation 31, the image editing unit applies intensity normalization and spacing normalization to a medical image, thereby providing a plurality of axial images, It is possible to obtain a coronal image and a plurality of sagittal images. For example, if the location where the tumor is placed is the lung, pre-treatment may be required to identify the surrounding area due to the nature of the lung, and the inside of the chest cavity is divided into four areas: upper / chest cavity / chest wall attachment / lower area, and It is possible to perform a treatment process suitable for the characteristics. For example, intensity normalization can be applied to medical images based on the values of windowing width 1500 and windowing level -600, and spacing normalization can be applied to all sizes of medical images with 0.54X0.54mm 2. I can.

일 실시 예에서, 동작 32에서, 영상 입력부가 종양이 포함된 의료 영상(100)의 복수의 축상(Axial) 이미지(110), 복수의 관상(Coronal) 이미지(120) 및 복수의 시상(Sagittal) 이미지(130)를 2차원 딥 뉴럴 네트워크(200)에 입력하여, 2차원 딥러닝부가 2차원 딥 뉴럴 네트워크(200)를 통해 관심 영역(region of interest)의 복수의 레이블(Label) 데이터(310, 320, 330) 및 복수의 예측맵(410, 420, 430, Prediction map)을 생성할 수 있다. 예를 들어, 2차원 딥 뉴럴 네트워크(200)는 2D FCN(fully convolutional network) 및 2D U-net 중 적어도 하나를 포함할 수 있다. 예를 들어, 의료 영상은 2차원 의료 영상(예: x-ray 이미지) 및/또는 3차원 의료 영상(예: CT 이미지, MRI, PET 이미지)을 포함하며, 의료 영상이라면 특별한 제한은 없다. "영상"은 전산화 단층 촬영(CT; computed tomography), 자기 공명 영상(MRI; magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템에 의하여 수집된 피검체(subject)의 의료 영상일 수 있다. 의료 영상(100)은 복셀 데이터로서, 복수의 슬라이스 즉, 복수 개의 단위 이미지들로 이루어진다. 예를 들어, 관심 영역은 종양이 배치된 영역일 수 있다.In an embodiment, in operation 32, the image input unit includes a plurality of axial images 110, a plurality of coronal images 120, and a plurality of sagittals of the medical image 100 including the tumor. By inputting the image 130 to the 2D deep neural network 200, the 2D deep learning unit provides a plurality of label data 310 of a region of interest through the 2D deep neural network 200. 320 and 330 and a plurality of prediction maps 410, 420, and 430 may be generated. For example, the 2D deep neural network 200 may include at least one of a 2D fully convolutional network (FCN) and a 2D U-net. For example, the medical image includes a 2D medical image (eg, x-ray image) and/or a 3D medical image (eg, CT image, MRI, PET image), and there is no particular limitation if it is a medical image. “Image” refers to a subject collected by computed tomography (CT), magnetic resonance imaging (MRI), ultrasound, or any other medical imaging system known in the art. It may be a medical image of. The medical image 100 is voxel data and is composed of a plurality of slices, that is, a plurality of unit images. For example, the region of interest may be a region in which a tumor is placed.

일 실시 예에서, 도 5에 도시된 바와 같이 2D U-net은 “3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation", MICCAI 2016. 에서 제안하는 콘볼루션 네트워크 구조에 상응할 수 있다. 예를 들어, 2D U-Net은 왼쪽에 도시된 수축 경로(40, contracting path) 및 오른쪽에 도시된 팽창 경로(50, expansive path)를 포함할 수 있다. 수축 경로는 합성곱 신경망의 전형적인 구조를 따르고 있는바, 이는 2번의 3x3 합성곱(unpadded convolutions; 패딩되지 않은 합성곱)의 반복적 적용을 포함하는데, 그 각각의 합성곱에는 보정 선형 유닛(rectified linear unit; ReLU) 및 다운샘플링(downsampling)을 위한 스트라이드(stride) 2의 2x2 최대 풀링 연산이 뒤따른다. 각각의 다운샘플링 단계에 있어서 특징 채널(feature channel)들의 개수는 2배가 취해진다. 팽창 경로에 있어서의 모든 단계는 특징 맵(feature map)의 업샘플링(upsampling) 및 이에 뒤따르는 특징 채널들의 개수를 절반으로 줄이는 2x2 합성곱(“up-convolution”), 이에 대응되도록 절단된(cropped) 수축 경로로부터의 특징 맵과의 결합(concatenation), 및 2번의 3x3 합성곱으로 구성되는데, 2번의 3x3 합성곱 각각에는 ReLU가 뒤따른다. 전술한 절단은 모든 합성곱에 있어서의 경계선 픽셀들(border pixels)의 손실 때문에 필수적이다. 최종 층(final layer)에서 1x1 합성곱이 각각의 64 차원(64-component) 특징 벡터를 원하는 개수의 클래스(class)에 맵핑하는 데에 이용된다. 이 예시적 신경망에서는 모두 22개의 합성곱 층들이 포함되었는데, 이개수는 임의적인 것이다. 출력으로 나오는 분할 맵(segmentation map)이 깔끔하게 이어지도록, 모든 2x2 최대 풀링 연산(max-pooling operation)이 짝수의 x 크기 및 y 크기를 가지는 층에 적용되도록 입력 타일의 크기(input tile size)를 선택하는 것이 중요하다는 것을 통상의 기술자는 이해할 수 있을 것이다.In one embodiment, as shown in Fig. 5, the 2D U-net may correspond to the convolutional network structure proposed in “3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation”, MICCAI 2016. For example For example, the 2D U-Net may include a contracting path 40 shown on the left and an expansive path 50 shown on the right, which follows a typical structure of a convolutional neural network. Bar, this involves the iterative application of two 3x3 convolutions (unpadded convolutions), each of which contains a rectified linear unit (ReLU) and stride for downsampling. A 2x2 maximum pooling operation of (stride) 2 follows: In each downsampling step, the number of feature channels is doubled, and every step in the expansion path ups the feature map. A 2x2 convolution (“up-convolution”) that cuts the number of upsampling and subsequent feature channels in half, concatenation with feature maps from the correspondingly cropped contraction path, and 2 It consists of 3x3 convolutions of times, each of which is followed by a ReLU of 3x3 convolutions of 2. The aforementioned truncation is necessary because of the loss of border pixels in all convolutions, in the final layer. A 1x1 convolution is used to map each 64 dimensional (64-component) feature vector to a desired number of classes In this example neural network, 22 convolutional layers are included, which are arbitrary. So that the segmentation map in the output is neatly connected, It will be appreciated by those skilled in the art that it is important to select the input tile size so that all 2x2 max-pooling operations are applied to layers with even x and y sizes.

일 실시 예에서, 복수의 예측맵(410, 420, 430, Prediction map)은 입력된 의료 영상보다 해상도는 낮지만 다수의 채널을 가질 수 있다. 생성된 복수의 예측맵(410, 420, 430, Prediction map)을 통해 영역 구분 단계와 물체 검출 단계에서 서로 공유하여 영역을 구분하고 관심 영역(복부 장기 중 어느 하나의 장기)을 검출할 수 있다. 즉, 복수의 예측맵(410, 420, 430, Prediction map)으로부터 픽셀 레이블링을 수행하여 영상의 영역을 구분할 수 있다. 이때, 픽셀 레이블링은 입력 영상의 유사한 특징(feature)을 가지는 인접 픽셀에 모두 같은 번호(lable)를 붙이는 방법으로 수행할 수 있다. 또한, 복수의 레이블(Label) 데이터(310, 320, 330)에 포함된 픽셀 레이블링 결과는 영상의 분류할 클래스에 대한 각 픽셀별 확률 분포 정보를 포함할 수 있다.In an embodiment, the plurality of prediction maps 410, 420, 430, and prediction maps have a lower resolution than the input medical image, but may have a plurality of channels. Through the generated prediction maps 410, 420, 430, and prediction maps, they are shared with each other in the region classification step and the object detection step to classify the region and detect the region of interest (any one of the abdominal organs). That is, pixel labeling may be performed from a plurality of prediction maps 410, 420, 430, and prediction maps to distinguish an image region. In this case, pixel labeling may be performed by attaching the same number to all adjacent pixels having similar features of the input image. In addition, the pixel labeling result included in the plurality of label data 310, 320, and 330 may include probability distribution information for each pixel of a class to be classified of an image.

일 실시 예에서, 복수의 레이블(Label) 데이터(310, 320, 330) 및 복수의 예측맵(410, 420, 430, Prediction map)의 생성은 컨볼루션 신경망(Convolution Neural Network, CNN)을 사용할 수 있으나, 이에 한정되지 않으며 심층 신경망(Deep Neural Network, DNN), 순환 신경망(Recurrent Neural Network, RNN)등 영상처리장치의 사용 목적에 따라 달라질 수 있다. 여기에서 일 예로서 2D FCN(fully convolutional network)에 따라 복수의 레이블(Label) 데이터(310, 320, 330) 및 복수의 예측맵(410, 420, 430, Prediction map)이 생성될 수 있다.In one embodiment, the generation of a plurality of label data (310, 320, 330) and a plurality of prediction maps (410, 420, 430, Prediction map) may use a convolution neural network (CNN). However, the present invention is not limited thereto, and may vary depending on the purpose of use of the image processing apparatus, such as a deep neural network (DNN) or a recurrent neural network (RNN). Here, as an example, a plurality of label data 310, 320, 330 and a plurality of prediction maps 410, 420, 430, and prediction maps may be generated according to a 2D fully convolutional network (FCN).

일 실시 예에서, 동작 33에서, 사전형상모델 생성부는 생성된 복수의 레이블 데이터(310, 320, 330)와 복수의 예측맵(410, 420, 430)을 거리 확률맵(500, distance probability map)을 이용하여 결합시킴으로써 관심 영역의 사전형상모델(700)을 생성할 수 있다. 예를 들어, 사전형상모델(700)은 관심 영역의 3차원 공간적 형상 정보를 확률맵(probability map) 형태로 포함할 수 있다. 예컨대, 사전형상모델(700)은 의료 영상(100)에서 영역을 구분하고 물체를 검출하는데 의미 있는 정보를 포함할 수 있으며 예컨대, 의료 영상(100)의 광도, 색채, 윤곽 등을 포함할 수 있다.In an embodiment, in operation 33, the pre-shape model generation unit converts the generated label data 310, 320, 330 and the plurality of prediction maps 410, 420, and 430 into a distance probability map 500. By combining by using, the pre-shape model 700 of the region of interest may be generated. For example, the pre-shape model 700 may include 3D spatial shape information of the region of interest in the form of a probability map. For example, the pre-shape model 700 may include information that is meaningful for classifying an area in the medical image 100 and detecting an object, and may include, for example, luminous intensity, color, outline, etc. of the medical image 100. .

일 실시 예에서, 거리 확률맵(500)은 최대 확률값 투표(max probability value voting) 방식이 적용되며, 사전형상모델(700)은 기준 확률값 이상을 갖는 복수의 예측맵(Prediction map) 중에서 최대 확률값을 갖는 복수의 예측맵들을 결합함으로써 생성될 수 있다. 예를 들어, 기준 확률값은 0.5일 수 있고, 사전형상모델(700)은 0.5 이상이면서 최대 확률값들만으로 레이블링된 구성들을 연결함으로써 생성될 수 있다. 종양은 위치와 크기가 다양하므로 평균 확률을 이용하지 않고 최대 확률값을 이용함으로써 오차 범위를 줄일 수 있다. 한편 여기서 확률값이란 도 6에 도시된 바와 같이 종양에 가까운 확률값을 의미할 수 있다.In an embodiment, the distance probability map 500 is applied with a maximum probability value voting method, and the pre-shape model 700 selects a maximum probability value among a plurality of prediction maps having a reference probability value or more. It can be generated by combining a plurality of prediction maps. For example, the reference probability value may be 0.5, and the pre-shape model 700 may be generated by connecting components labeled with only maximum probability values while being 0.5 or more. Since tumors vary in location and size, the error range can be reduced by using the maximum probability value instead of using the average probability. Meanwhile, the probability value here may mean a probability value close to a tumor as shown in FIG. 6.

일 실시 예에서, 동작 34에서, 영상 편집부는 3차원 의료 영상(800)에서 관심 영역을 제외한 나머지 영역의 적어도 일부를 크롭(crop)할 수 있다. 예를 들어, 3차원 딥 뉴럴 네트워크(900)의 연산 과정을 줄이기 위해 3차원 의료 영상(800)에서 경계 영역의 일부를 크롭할 수 있다. 구체적으로, 예를 들어, 밝기값 정보를 이용하여 종양과 주변 기관들이 갖는 밝기값 정보와 전혀 다른 경계 부분을 크롭할 수 있다.In an embodiment, in operation 34, the image editing unit may crop at least a portion of the remaining area of the 3D medical image 800 except for the ROI. For example, in order to reduce the operation process of the 3D deep neural network 900, a part of the boundary area in the 3D medical image 800 may be cropped. Specifically, for example, by using the brightness value information, a border portion completely different from the brightness value information of the tumor and surrounding organs may be cropped.

일 실시 예에서, 동작 35에서, 영상 입력부는 복부 장기가 포함된 3차원 의료 영상(800)과 사전형상모델(700)을 3차원 딥 뉴럴 네트워크(900)에 입력할 수 있다. 예를 들어, 3차원 딥 뉴럴 네트워크(900)는 3D U-net을 포함할 수 있다. 또한 이와 달리 크롭한 사전형상모델과 크롭한 3차원 의료 영상(810)을 3차원 딥 뉴럴 네트워크(900)에 입력할 수 있다. 한편, 3차원 딥 뉴럴 네트워크(900)의 3D U-net은 상기 도 5의 설명내용과 중복되므로 생략한다.In an embodiment, in operation 35, the image input unit may input a 3D medical image 800 including abdominal organs and a pre-shape model 700 to the 3D deep neural network 900. For example, the 3D deep neural network 900 may include a 3D U-net. Also, unlike this, the cropped pre-shape model and the cropped 3D medical image 810 may be input to the 3D deep neural network 900. Meanwhile, the 3D U-net of the 3D deep neural network 900 is omitted because it overlaps with the description of FIG. 5.

일 실시 예에서, 동작 36에서, 3차원 딥러닝부는 3차원 딥 뉴럴 네트워크(900)를 통해 관심 영역의 분할 결과(10)를 획득할 수 있다. 여기서 분할 결과(10)는 관심 영역에 해당하는 종양이 분할된 영상일 수 있다.In an embodiment, in operation 36, the 3D deep learning unit may obtain the segmentation result 10 of the ROI through the 3D deep neural network 900. Here, the segmentation result 10 may be an image in which a tumor corresponding to the region of interest is segmented.

즉, 본 발명은 2차원 딥 뉴럴 네트워크(200)와 사전형상모델(700)을 통해 관심영역이 배치된 영역의 전체 맥락 정보를 고려하고, 사전형상모델(700)을 이용하여 3차원 의료 영상을 통해 관심 영역이 위치한 지역 맥락 정보를 파악하는 연산을 줄임으로써 종양 분할의 속도와 정확도를 높일 수 있다.That is, the present invention considers the entire context information of the region in which the region of interest is arranged through the 2D deep neural network 200 and the pre-shape model 700, and uses the pre-shape model 700 to generate a 3D medical image. Through this, it is possible to increase the speed and accuracy of tumor segmentation by reducing the operation to grasp the regional context information where the region of interest is located.

한편, 본 발명의 효과를 확인하기 위해 사용된 데이터 세트는 환자에서 방사선 치료를 위해 얻은 222 개의 의료 영상을 포함하고, 이 중에서 150개는 학습용, 38개는 유효성 검증용, 34개는 테스트용으로 나뉘었다.On the other hand, the data set used to confirm the effect of the present invention includes 222 medical images obtained for radiation therapy in patients, of which 150 are for learning, 38 for validation, and 34 for testing. Divided.

상기 분할 결과(10)의 정확성 평가를 위해 다이스 유사계수(Dice similarity coefficient, DSC)를 수학식 1을 통해 계산하여 비교하였다.In order to evaluate the accuracy of the division result (10), a Dice similarity coefficient (DSC) was calculated and compared through Equation 1.

[수학식 1][Equation 1]

Figure pat00002
Figure pat00002

이때 TP(True Positive)는 수동 분할한 장기 영역에서 자동 분할된 영역의 화소 개수, TN(True Negative)는 수동 분할한 장기 영역이 아닌 영역에서 자동 분할되지 않은 영역의 화소 개수, FP(False Positive)는 수동 분할한 장기 영역이 아닌 곳에서 자동 분할된 영역의 화소 개수, FN(False Negative)는 수동 분할한 장기 영역에서 자동 분할되지 않은 영역의 화소 개수를 의미한다.At this time, TP (True Positive) is the number of pixels in the automatically segmented region in the manually segmented long-term region, TN (True Negative) is the number of pixels in the region that is not automatically segmented in the non-manually segmented long term region, and FP (False Positive). Denotes the number of pixels in a region that is automatically divided in a non-manually divided long-term region, and FN (False Negative) denotes the number of pixels in a region that is not automatically divided in the manually divided long-term region.

도 7 및 도 8을 참조하면, Class 1은 고립된 종양이고, Class 2는 chest wall에 붙어있는 종양이고, Class 3은 mediastinum에 붙어있는 종양이고, Class 4는 폐 상하단에 주변 구조물로 둘러 쌓인 종양이다. 도 7에 도시된 바와 같이 본 발명의 coupling-Net(2.5D+3D with shape-enhanced prior(사전형상모델))의 DSC는 모든 클래스를 고려할 경우 70.71%로 가장 높음을 확인할 수 있다. 한편, 여기서 2.5D는 2차원 딥 뉴럴 네트워크를 통해 레이블 데이터 및 예측맵을 형성하는 것을 의미할 수 있다.7 and 8, Class 1 is an isolated tumor, Class 2 is a tumor attached to the chest wall, Class 3 is a tumor attached to mediastinum, and Class 4 is a tumor surrounded by surrounding structures at the upper and lower ends of the lung. to be. As shown in FIG. 7, it can be seen that the DSC of the coupling-Net (2.5D+3D with shape-enhanced prior (pre-shape model)) of the present invention is the highest at 70.71% when all classes are considered. Meanwhile, here, 2.5D may mean forming label data and a prediction map through a 2D deep neural network.

또한, 도 8((a) Original image, (b) 2D segmentation result (c) 2.5D segmentation result, (d) 3D segmentation result, (e) Coupling-net)에 도시된 바와 같이, 빨간색은 ground-truth를 의미하고, 파란색은 over segmentation를 의미하고, 녹색은 under segmentation를 의미하므로 녹색과 파란색이 가장 적고 빨간색으로 경계가 가장 선명한 본 발명의 coupling-Net이 모든 클래스에서 종양 분할을 가장 높은 수준으로 산출함을 확인할 수 있다.In addition, as shown in Figure 8 ((a) Original image, (b) 2D segmentation result (c) 2.5D segmentation result, (d) 3D segmentation result, (e) Coupling-net), red is ground-truth. Blue means over segmentation, and green means under segmentation, so the coupling-Net of the present invention with the smallest green and blue lines and the clearest boundary in red yields the highest level of tumor segmentation in all classes. can confirm.

본 발명의 일 실시예에 따른 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법은, 종양이 포함된 2차원 의료 영상의 복수의 축상(Axial) 이미지, 복수의 관상(Coronal) 이미지 및 복수의 시상(Sagittal) 이미지를 2차원 딥 뉴럴 네트워크에 입력하여. 상기 2차원 딥 뉴럴 네트워크를 통해 관심 영역(region of interest)의 복수의 레이블(Label) 데이터 및 복수의 예측맵(Prediction map)을 생성하는 단계; 상기 생성된 복수의 레이블 데이터와 상기 복수의 예측맵을 거리 확률맵(distance probability map)을 이용하여 결합시킴으로써 상기 관심 영역의 사전형상모델을 생성하는 단계; 및 상기 종양이 포함된 3차원 의료 영상과 상기 사전형상모델을 3차원 딥 뉴럴 네트워크에 입력하여. 상기 3차원 딥 뉴럴 네트워크를 통해 상기 관심 영역의 분할 결과를 획득하는 단계;를 포함할 수 있다.In a medical image according to an embodiment of the present invention, a method for automatic tumor segmentation based on deep learning includes a plurality of axial images, a plurality of coronal images, and a plurality of thalamus ( Sagittal) by inputting images into a 2D deep neural network. Generating a plurality of label data and a plurality of prediction maps of a region of interest through the 2D deep neural network; Generating a prior shape model of the region of interest by combining the generated plurality of label data and the plurality of prediction maps using a distance probability map; And inputting the 3D medical image including the tumor and the pre-shape model to a 3D deep neural network. And obtaining a result of dividing the region of interest through the 3D deep neural network.

다양한 실시 예에 따르면, 상기 2차원 의료 영상에 강도 평준화(Intensity normalization) 및 공간 평준화(spacing normalization)를 적용함으로써 상기 복수의 축상(Axial) 이미지, 상기 복수의 관상(Coronal) 이미지 및 상기 복수의 시상(Sagittal) 이미지를 획득하는 단계를 더 포함할 수 있다.According to various embodiments, by applying intensity normalization and spacing normalization to the 2D medical image, the plurality of axial images, the plurality of coronal images, and the plurality of sagittal images are applied. It may further include the step of obtaining the (Sagittal) image.

다양한 실시 예에 따르면, 상기 3차원 의료 영상에서 상기 관심 영역을 제외한 나머지 영역의 적어도 일부를 크롭(crop)하는 단계; 및 상기 크롭한 3차원 의료 영상을 상기 3차원 딥 뉴럴 네트워크에 입력하는 단계;를 더 포함할 수 있다.According to various embodiments of the present disclosure, the step of cropping at least a portion of a region other than the region of interest in the 3D medical image; And inputting the cropped 3D medical image to the 3D deep neural network.

다양한 실시 예에 따르면, 상기 사전형상모델과 상기 크롭한 3차원 의료 영상을 상기 3차원 딥 뉴럴 네트워크에 입력하여. 상기 3차원 딥 뉴럴 네트워크를 통해 상기 관심 영역의 분할 결과를 획득하는 단계;를 포함할 수 있다.According to various embodiments of the present disclosure, by inputting the pre-shape model and the cropped 3D medical image into the 3D deep neural network. And obtaining a result of dividing the region of interest through the 3D deep neural network.

다양한 실시 예에 따르면, 상기 거리 확률맵은 최대 확률값 투표(max probability value voting) 방식이 적용되며, 상기 사전형상모델은 기준 확률값 이상을 갖는 복수의 예측맵(Prediction map) 중에서 최대 확률값을 갖는 복수의 예측맵들을 결합함으로써 생성될 수 있다.According to various embodiments, a maximum probability value voting method is applied to the distance probability map, and the prior shape model is a plurality of prediction maps having a maximum probability value among a plurality of prediction maps having a reference probability value or more. It can be created by combining prediction maps.

다양한 실시 예에 따르면, 상기 관심 영역은 상기 종양이 배치된 영역일 수 있다.According to various embodiments, the region of interest may be a region in which the tumor is disposed.

다양한 실시 예에 따르면, 상기 사전형상모델은 상기 관심 영역의 3차원 공간적 형상 정보를 확률맵(probability map) 형태로 포함할 수 있다.According to various embodiments, the pre-shape model may include 3D spatial shape information of the ROI in the form of a probability map.

다양한 실시 예에 따르면, 상기 2차원 딥 뉴럴 네트워크는 2D FCN(fully convolutional network) 및 2D U-net 중 적어도 하나를 포함할 수 있다.According to various embodiments, the 2D deep neural network may include at least one of a 2D fully convolutional network (FCN) and a 2D U-net.

다양한 실시 예에 따르면, 상기 3차원 딥 뉴럴 네트워크는 3D U-net을 포함할 수 있다.According to various embodiments, the 3D deep neural network may include a 3D U-net.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. Software modules include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You can understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.

100 : 의료영상
200 : 2차원 딥 뉴럴 네트워크
310,320,330: 레이블 데이터
410,420,430: 예측맵
700: 사전형상모델
800: 3차원 의료영상
900: 3차원 딥 뉴럴 네트워크
100: medical image
200: 2D deep neural network
310,320,330: label data
410,420,430: prediction map
700: pre-shape model
800: 3D medical image
900: 3D deep neural network

Claims (10)

의료 영상에서 딥러닝에 기반한 종양 자동분할 방법에 있어서,
종양이 포함된 2차원 의료 영상의 복수의 축상(Axial) 이미지, 복수의 관상(Coronal) 이미지 및 복수의 시상(Sagittal) 이미지를 2차원 딥 뉴럴 네트워크에 입력하여, 상기 2차원 딥 뉴럴 네트워크를 통해 관심 영역(region of interest)의 복수의 레이블(Label) 데이터 및 복수의 예측맵(Prediction map)을 생성하는 단계;
상기 생성된 복수의 레이블 데이터와 상기 복수의 예측맵을 거리 확률맵(distance probability map)을 이용하여 결합시킴으로써 상기 관심 영역의 사전형상모델을 생성하는 단계; 및
상기 종양이 포함된 3차원 의료 영상과 상기 사전형상모델을 3차원 딥 뉴럴 네트워크에 입력하여, 상기 3차원 딥 뉴럴 네트워크를 통해 상기 관심 영역의 분할 결과를 획득하는 단계;를 포함하는 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
In the method of automatic tumor segmentation based on deep learning in medical images,
By inputting a plurality of axial images, a plurality of coronal images, and a plurality of sagittal images of a 2D medical image containing a tumor into a 2D deep neural network, through the 2D deep neural network. Generating a plurality of label data and a plurality of prediction maps of a region of interest;
Generating a prior shape model of the region of interest by combining the generated plurality of label data and the plurality of prediction maps using a distance probability map; And
And inputting the 3D medical image including the tumor and the pre-shape model to a 3D deep neural network, and obtaining a result of segmentation of the region of interest through the 3D deep neural network. Automatic tumor segmentation method based on deep learning in medical imaging.
제1 항에 있어서,
상기 2차원 의료 영상에 강도 평준화(Intensity normalization) 및 공간 평준화(spacing normalization)를 적용함으로써 상기 복수의 축상(Axial) 이미지, 상기 복수의 관상(Coronal) 이미지 및 상기 복수의 시상(Sagittal) 이미지를 획득하는 단계를 더 포함하는 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
The method of claim 1,
The plurality of axial images, the plurality of coronal images, and the plurality of sagittal images are obtained by applying intensity normalization and spacing normalization to the 2D medical image. Automatic tumor segmentation method based on deep learning in medical images, further comprising the step of:
제1 항에 있어서,
상기 3차원 의료 영상에서 상기 관심 영역을 제외한 나머지 영역의 적어도 일부를 크롭(crop)하는 단계; 및
상기 크롭한 3차원 의료 영상을 상기 3차원 딥 뉴럴 네트워크에 입력하는 단계;를 더 포함하는 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
The method of claim 1,
Cropping at least a portion of the remaining area other than the ROI in the 3D medical image; And
And inputting the cropped 3D medical image to the 3D deep neural network. A method for automatically segmenting tumors based on deep learning in medical images, further comprising.
제3 항에 있어서,
상기 사전형상모델과 상기 크롭한 3차원 의료 영상을 상기 3차원 딥 뉴럴 네트워크에 입력하여, 상기 3차원 딥 뉴럴 네트워크를 통해 상기 관심 영역의 분할 결과를 획득하는 단계;를 포함하는 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
The method of claim 3,
And inputting the pre-shape model and the cropped 3D medical image to the 3D deep neural network, and obtaining a result of segmentation of the ROI through the 3D deep neural network. Automatic tumor segmentation method based on deep learning in images.
제1 항에 있어서,
상기 거리 확률맵은 최대 확률값 투표(max probability value voting) 방식이 적용되며,
상기 사전형상모델은 기준 확률값 이상을 갖는 복수의 예측맵(Prediction map) 중에서 최대 확률값을 갖는 복수의 예측맵들을 결합함으로써 생성되는 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
The method of claim 1,
The distance probability map is applied with a maximum probability value voting method,
The pre-shape model is generated by combining a plurality of prediction maps having a maximum probability value among a plurality of prediction maps having a reference probability value or more.
제1 항에 있어서,
상기 관심 영역은 상기 종양이 배치된 영역인 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
The method of claim 1,
The region of interest is a region in which the tumor is placed. A method of automatically segmenting tumors based on deep learning in medical images.
제1 항에 있어서,
상기 사전형상모델은 상기 관심 영역의 3차원 공간적 형상 정보를 확률맵(probability map) 형태로 포함하는 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
The method of claim 1,
The pre-shape model includes 3D spatial shape information of the region of interest in the form of a probability map. A method for automating tumor segmentation based on deep learning in medical images.
제1 항에 있어서,
상기 2차원 딥 뉴럴 네트워크는 2D FCN(fully convolutional network) 및 2D U-net 중 적어도 하나를 포함하는 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
The method of claim 1,
The 2D deep neural network includes at least one of a 2D fully convolutional network (FCN) and a 2D U-net. A method for automating tumor segmentation based on deep learning in medical images.
제1 항에 있어서,
상기 3차원 딥 뉴럴 네트워크는 3D U-net을 포함하는 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
The method of claim 1,
The 3D deep neural network is a method of automatically segmenting tumors based on deep learning in medical images, characterized in that the 3D U-net is included.
하드웨어인 컴퓨터와 결합되어, 제1항 내지 제9항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 의료 영상에서 딥러닝에 기반한 종양 자동분할 프로그램.
A tumor auto-segmentation program based on deep learning in medical images, which is combined with a computer that is hardware and stored in a medium to execute the method of any one of claims 1 to 9.
KR1020190100380A 2019-08-16 2019-08-16 Tumor automatic segmentation based on deep learning in a medical image KR102349515B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190100380A KR102349515B1 (en) 2019-08-16 2019-08-16 Tumor automatic segmentation based on deep learning in a medical image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190100380A KR102349515B1 (en) 2019-08-16 2019-08-16 Tumor automatic segmentation based on deep learning in a medical image

Publications (2)

Publication Number Publication Date
KR20210020629A true KR20210020629A (en) 2021-02-24
KR102349515B1 KR102349515B1 (en) 2022-01-10

Family

ID=74688954

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190100380A KR102349515B1 (en) 2019-08-16 2019-08-16 Tumor automatic segmentation based on deep learning in a medical image

Country Status (1)

Country Link
KR (1) KR102349515B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230059454A (en) * 2021-10-26 2023-05-03 이화여자대학교 산학협력단 Deep learning based vascular invasion classification method for pancreatic cancer using endoscopic ultrasound image and analysis apparatus
CN116109605A (en) * 2023-02-13 2023-05-12 北京医智影科技有限公司 Medical image tumor segmentation system, training set construction method and model training method
KR20230090378A (en) 2021-12-14 2023-06-22 사회복지법인 삼성생명공익재단 Bone metastasis detecting method using ct image and analysis apparatus

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
"Chest computed tomography display preferences: survey of thoracic radiologists.", Investigate
Hänsch et al., Journal of Medical Imaging Vol.6, No.1, 011005 (2018.10.) *
iηek et al., "3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation", MICCAI 2016.
Mlynarski et al., Computerized Medical Imaging and Graphics, Vol.73, pp.60-72 (2019.04) *
김진필 등, Journal of Digital Contents Society, 제19권, 제11호, 페이지 2035-2040 (2018.12) *
김형석 등, Korean Chem. Eng. Res., Vol. 57., No. 2, pp. 274-282 (2019.04) *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230059454A (en) * 2021-10-26 2023-05-03 이화여자대학교 산학협력단 Deep learning based vascular invasion classification method for pancreatic cancer using endoscopic ultrasound image and analysis apparatus
KR20230090378A (en) 2021-12-14 2023-06-22 사회복지법인 삼성생명공익재단 Bone metastasis detecting method using ct image and analysis apparatus
CN116109605A (en) * 2023-02-13 2023-05-12 北京医智影科技有限公司 Medical image tumor segmentation system, training set construction method and model training method
CN116109605B (en) * 2023-02-13 2024-04-02 北京医智影科技有限公司 Medical image tumor segmentation system, training set construction method and model training method

Also Published As

Publication number Publication date
KR102349515B1 (en) 2022-01-10

Similar Documents

Publication Publication Date Title
KR102410955B1 (en) Method and computer program for automatic segmentation of abnominal organs based on deep learning in medical images
US9996922B2 (en) Image processing of organs depending on organ intensity characteristics
US9349184B2 (en) Method and apparatus for identifying regions of interest in a medical image
US20110158491A1 (en) Method and system for lesion segmentation
US7822254B2 (en) Automatic positioning of matching multi-planar image reformatting (MPR) views of multiple 3D medical images
US9129391B2 (en) Semi-automated preoperative resection planning
US9098912B2 (en) Method, system and computer readable medium for automatic segmentation of a medical image
KR102349515B1 (en) Tumor automatic segmentation based on deep learning in a medical image
KR102332032B1 (en) Abdominal organ status diagnosis based on abnominal organ volume change analysis using abnominal organ automatic segmentation
US8165376B2 (en) System and method for automatic detection of rib metastasis in computed tomography volume
CN110706241B (en) Three-dimensional focus region extraction method and device
US9317926B2 (en) Automatic spinal canal segmentation using cascaded random walks
EP1782384B1 (en) System and method for colon wall extraction in the presence of tagged fecal matter or collapsed colon regions
US8306354B2 (en) Image processing apparatus, method, and program
US9361701B2 (en) Method and system for binary and quasi-binary atlas-based auto-contouring of volume sets in medical images
CN110738633B (en) Three-dimensional image processing method and related equipment for organism tissues
KR102332472B1 (en) Tumor automatic segmentation using deep learning based on dual window setting in a medical image
WO2022207238A1 (en) Methods and systems for biomedical image segmentation based on a combination of arterial and portal image information
KR102311472B1 (en) Method for predicting regions of normal tissue and device for predicting regions of normal tissue using the same
EP4272635A1 (en) Method for providing diagnosis assistance information, and device performing same

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant