KR102349515B1 - Tumor automatic segmentation based on deep learning in a medical image - Google Patents

Tumor automatic segmentation based on deep learning in a medical image Download PDF

Info

Publication number
KR102349515B1
KR102349515B1 KR1020190100380A KR20190100380A KR102349515B1 KR 102349515 B1 KR102349515 B1 KR 102349515B1 KR 1020190100380 A KR1020190100380 A KR 1020190100380A KR 20190100380 A KR20190100380 A KR 20190100380A KR 102349515 B1 KR102349515 B1 KR 102349515B1
Authority
KR
South Korea
Prior art keywords
medical image
region
tumor
neural network
interest
Prior art date
Application number
KR1020190100380A
Other languages
Korean (ko)
Other versions
KR20210020629A (en
Inventor
홍헬렌
변소현
김봉석
Original Assignee
서울여자대학교 산학협력단
한국보훈복지의료공단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울여자대학교 산학협력단, 한국보훈복지의료공단 filed Critical 서울여자대학교 산학협력단
Priority to KR1020190100380A priority Critical patent/KR102349515B1/en
Publication of KR20210020629A publication Critical patent/KR20210020629A/en
Application granted granted Critical
Publication of KR102349515B1 publication Critical patent/KR102349515B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/92Computer assisted medical diagnostics
    • Y10S128/922Computer assisted medical diagnostics including image analysis

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

의료 영상에서 딥러닝에 기반한 종양 자동분할 방법이 제공된다. 상기 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법은 종양이 포함된 2차원 의료 영상의 복수의 축상(Axial) 이미지, 복수의 관상(Coronal) 이미지 및 복수의 시상(Sagittal) 이미지를 2차원 딥 뉴럴 네트워크에 입력하여. 상기 2차원 딥 뉴럴 네트워크를 통해 관심 영역(region of interest)의 복수의 레이블(Label) 데이터 및 복수의 예측맵(Prediction map)을 생성하는 단계; 상기 생성된 복수의 레이블 데이터와 상기 복수의 예측맵을 거리 확률맵(distance probability map)을 이용하여 결합시킴으로써 상기 관심 영역의 사전형상모델을 생성하는 단계; 및 상기 종양이 포함된 3차원 의료 영상과 상기 사전형상모델을 3차원 딥 뉴럴 네트워크에 입력하여. 상기 3차원 딥 뉴럴 네트워크를 통해 상기 관심 영역의 분할 결과를 획득하는 단계;를 포함 한다.An automatic tumor segmentation method based on deep learning in medical images is provided. The automatic tumor segmentation method based on deep learning in the medical image is a two-dimensional deep neural by entering into the network. generating a plurality of label data and a plurality of prediction maps of a region of interest through the two-dimensional deep neural network; generating a prior shape model of the ROI by combining the generated plurality of label data and the plurality of prediction maps using a distance probability map; and inputting the 3D medical image including the tumor and the pre-shape model into a 3D deep neural network. and obtaining a segmentation result of the region of interest through the 3D deep neural network.

Description

의료 영상에서 딥러닝에 기반한 종양 자동분할 방법{TUMOR AUTOMATIC SEGMENTATION BASED ON DEEP LEARNING IN A MEDICAL IMAGE}Automated tumor segmentation method based on deep learning in medical images {TUMOR AUTOMATIC SEGMENTATION BASED ON DEEP LEARNING IN A MEDICAL IMAGE}

본 발명은 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법에 관한 것으로, 보다 자세하게는 2차원 딥 뉴럴 네트워크와 3차원 딥 뉴럴 네트워크를 이용한 종양 자동분할 방법에 관한 것이다.The present invention relates to an automatic tumor segmentation method based on deep learning in a medical image, and more particularly, to a tumor automatic segmentation method using a two-dimensional deep neural network and a three-dimensional deep neural network.

방사선 치료는 종양의 주변 정상 조직에 방사선 투입량을 최소화하면서 종양에 정확하게 방사선을 투입하는 것이 중요하다. 이를 위해 치료 직전 환자의 영상을 다시 얻어 치료계획 당시의 환자 자세 및 종양 위치와 비교하여 환자의 위치를 보정하거나 치료계획을 수정하여 치료의 정확성을 높이는 영상유도 방사선 치료가 많이 사용되고 있다.In radiation therapy, it is important to accurately inject radiation into the tumor while minimizing the amount of radiation to the surrounding normal tissue. To this end, image-guided radiation therapy, which obtains an image of the patient immediately before treatment and compares it with the patient's posture and tumor position at the time of the treatment plan, corrects the patient's position or revises the treatment plan to improve the accuracy of treatment.

암의 예후 및 치료 반응 평가를 위해서는 종양 크기를 측정하는 것이 필수적이다. 종양 크기는 현재 도 1에 도시된 바와 같이 (a) 일차원 RECIST (b) 2차원 WHO 또는 (c) 3D volume을 사용하여 정량화되지만, 종양의 3D 측정과 비교하여 선-길이 측정이 오도될 수 있음을 암시하는 입증되지 않은 증거가 계속 나오고 있다. 또한, 이미지 특징을 분석하고 치료 계획을 위해 종양 볼륨(volume)을 파악하기 위해서는 용적 분할(volumetric segmentation)이 필요하다. 그러나 종양은 도 2에 도시된 바와 같이 종양이 배치된 위치((a) apex of the lung, (b) chest wall, (c) mediastinum, (d) base of the lung)가 다양하고 종양의 크기가 1cm에서 18cm까지 다양함에 따라 분할 작업을 수행하기 어려운 문제점이 있었다.It is essential to measure the tumor size for the evaluation of cancer prognosis and treatment response. Tumor size is currently quantified using (a) one-dimensional RECIST (b) two-dimensional WHO or (c) 3D volume as shown in Figure 1, but compared to 3D measurements of tumors, line-length measurements may be misleading. There is still unsubstantiated evidence suggesting that In addition, volumetric segmentation is required to analyze image features and determine tumor volume for treatment planning. However, as shown in FIG. 2, the tumor is located in various locations ((a) apex of the lung, (b) chest wall, (c) mediastinum, (d) base of the lung) and the size of the tumor is As it varied from 1 cm to 18 cm, there was a problem in that it was difficult to perform the division operation.

"Chest computed tomography display preferences: survey of thoracic radiologists.", Investigate

Figure 112019084120414-pat00001
iηek et al., "3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation", MICCAI 2016. "Chest computed tomography display preferences: survey of thoracic radiologists.", Investigate
Figure 112019084120414-pat00001
iηek et al., “3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation”, MICCAI 2016.

본 발명이 해결하고자 하는 과제는 2차원 딥 뉴럴 네트워크를 통해 생성된 사전형상모델과 복부의 바운딩 볼륨(bounding volume)을 3차원 딥 뉴럴 네트워크에 입력함으로써 종양을 위치와 크기에 관계 없이 주변과의 경계부위에서 정확하게 분할하는 종양 자동분할 방법을 제공하는 것이다.The problem to be solved by the present invention is to input the pre-shape model generated through the two-dimensional deep neural network and the bounding volume of the abdomen into the three-dimensional deep neural network, so that the tumor is located at the boundary with the surroundings regardless of the location and size. It is to provide an automatic tumor segmentation method that accurately divides the stomach.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법은 종양이 포함된 2차원 의료 영상의 복수의 축상(Axial) 이미지, 복수의 관상(Coronal) 이미지 및 복수의 시상(Sagittal) 이미지를 2차원 딥 뉴럴 네트워크에 입력하여. 상기 2차원 딥 뉴럴 네트워크를 통해 관심 영역(region of interest)의 복수의 레이블(Label) 데이터 및 복수의 예측맵(Prediction map)을 생성하는 단계; 상기 생성된 복수의 레이블 데이터와 상기 복수의 예측맵을 거리 확률맵(distance probability map)을 이용하여 결합시킴으로써 상기 관심 영역의 사전형상모델을 생성하는 단계; 및 상기 종양이 포함된 3차원 의료 영상과 상기 사전형상모델을 3차원 딥 뉴럴 네트워크에 입력하여. 상기 3차원 딥 뉴럴 네트워크를 통해 상기 관심 영역의 분할 결과를 획득하는 단계;를 포함한다.A method for automatically segmenting a tumor based on deep learning in a medical image according to an aspect of the present invention for solving the above-mentioned problems is a plurality of axial images and a plurality of coronal images of a two-dimensional medical image including a tumor. and inputting multiple sagittal images into a two-dimensional deep neural network. generating a plurality of label data and a plurality of prediction maps of a region of interest through the two-dimensional deep neural network; generating a prior shape model of the ROI by combining the generated plurality of label data and the plurality of prediction maps using a distance probability map; and inputting the 3D medical image including the tumor and the pre-shape model into a 3D deep neural network. and obtaining a segmentation result of the region of interest through the 3D deep neural network.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, it has various effects as follows.

본 발명은 종양의 자동 분할을 정확하게 수행할 수 있다.The present invention can accurately perform automatic segmentation of tumors.

또한, 본 발명은 사전형상모델을 이용하여 3차원 딥 뉴럴 네트워크에서의 과분할(over-segmentation)을 방지할 수 있다.In addition, the present invention can prevent over-segmentation in a 3D deep neural network by using a pre-shape model.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1 및 도 2는 종래 종양이 포함된 의료 영상을 나타낸 도면이다.
도 3은 본 발명의 일 실시 예에 따른 종양 자동분할 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시 예에 따른 종양 자동분할 방법을 설명하기 위한 블록도이다.
도 5는 본 발명의 일 실시 예에 따른 2D 및 3D U-Net을 설명하기 위한 예시도이다.
도 6은 본 발명의 일 실시 예에 따른 거리 확률맵을 설명하기 위한 예시도이다.
도 7은 본 발명의 일 실시 예에 따른 종양 자동분할 방법의 효과를 설명하기 위한 테이블이다.
도 8은 본 발명의 일 실시 예에 따른 종양 자동분할 방법의 효과를 설명하기 위한 예시도이다.
1 and 2 are diagrams showing a conventional medical image including a tumor.
3 is a flowchart illustrating an automatic tumor segmentation method according to an embodiment of the present invention.
4 is a block diagram illustrating an automatic tumor segmentation method according to an embodiment of the present invention.
5 is an exemplary diagram for explaining 2D and 3D U-Net according to an embodiment of the present invention.
6 is an exemplary diagram for explaining a distance probability map according to an embodiment of the present invention.
7 is a table for explaining the effect of the automatic tumor segmentation method according to an embodiment of the present invention.
8 is an exemplary view for explaining the effect of the automatic tumor segmentation method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, when a component shown in the drawing is turned over, a component described as “beneath” or “beneath” of another component may be placed “above” of the other component. can Accordingly, the exemplary term “below” may include both directions below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

의미적 영상 분할(sementic segmentation)은 일반적인 영상 분할과 같이 단순히 어떤 특징이나 계산된 속성의 관점에서 유사한 영역으로 나누는데 그치는 것이 아니라, 의미적으로 같은 부분까지 나누고 그 부분이 어떠한 범주에 속하는지 판별하는 기술을 말한다.Semantic segmentation, like general image segmentation, does not stop at dividing into similar regions in terms of certain features or calculated properties, but also semantically divides the same parts and determines what category the parts belong to. say

즉, 영상의 모든 픽셀에 대해서 미리 정의된 범주안에서 어떤 범주에 속하는지 분류하는 기술에 상응할 수 있고, 픽셀단위 분류(pixelwise classification)에 상응할 수도 있다.That is, it may correspond to a technique of classifying all pixels of an image to which category they belong within a predefined category, and may correspond to pixelwise classification.

의미적 영상 분할하는 방법은 크게 2가지 분류로 나뉜다. 첫째는 입력된 영상에서 수제 특징(Hand-craft features)를 뽑아서 수퍼 픽셀(Super-pixel) 단위로 분할한 뒤, 의미기반으로 영상을 분할하는 기법이다. 보다 상세하게는, 주어진 영상 데이터를 분석하여 단서가 될 수 있는 특징(Feature)들을 사용자가 직접 설계하여 추출할 수 있다. 이후 추출된 특징들의 패턴을 근거로 수퍼 픽셀 단위로 세그맨테이션을 수행할 수 있다. 이 과정은 정확도와 속도의 향상을 이끌어 낼 수 있다. 이후, 각각의 수퍼 픽셀 단위로 서포트 벡터 머신 (Support Vector Machine)을 이용하여 의미적 영상 분할을 진행하여 해당하는 픽셀 혹은 수퍼 픽셀이 어떤 분류에 속하는 지 판단할 수 있다. 이러한 방법은 시스템에 입력되는 영상의 종류가 달라지면 그에 맞는 수제 특징을 매번 다시 설계해야 하기 때문에 시스템 활용 범위에 제한이 있다는 단점이 있으며, 수제 특징 추출은 처리 속도가 느리다는 단점도 있다.Methods for semantic image segmentation are largely divided into two categories. The first is a technique of extracting hand-crafted features from an input image, dividing it into super-pixel units, and then segmenting the image based on meaning. More specifically, the user can design and extract features that can be clues by analyzing the given image data. Thereafter, segmentation may be performed in units of super pixels based on the pattern of the extracted features. This process can lead to improvements in accuracy and speed. Thereafter, semantic image segmentation may be performed using a support vector machine in units of each super-pixel to determine which category the corresponding pixel or super-pixel belongs to. This method has a disadvantage in that the range of system utilization is limited because homemade features must be redesigned every time the type of image input to the system changes, and homemade feature extraction also has a disadvantage in that the processing speed is slow.

둘째는 딥 러닝(Deep Learning)을 이용하여 특징(Features)를 추출한 뒤, 이것을 기반으로 픽셀(pixel) 단위로 분류(Classification)하는 기법이다. 딥 러닝(Deep Learning) 기반 분류의 성능이 우수함이 입증됨에 따라 의미 기반 영상 분할에서도 콘볼루션 인공신경망(Convolutional Neutral Network, CNN) 구조를 이용한 접근법이 제시되고 있다. 이러한 CNN 구조를 변경한 FCN(Fully Convolutional Networks)는 영상 분할(Image Segmentation)에도 뛰어난 성능을 보인다. 수퍼픽셀 단위의 분할을 진행한 후, 학습 데이터셋을 이용하여 CNN 필터를 학습하고 영상을 분할한 후 CRF (Conditional Random Field)와 같은 후 처리를 거칠 수 있다.The second is a technique for extracting features using deep learning and then classifying them in units of pixels based on this. As the performance of deep learning-based classification has been proven to be excellent, an approach using a convolutional neural network (CNN) structure has been proposed in semantic-based image segmentation. Fully Convolutional Networks (FCNs), which have changed the CNN structure, show excellent performance in image segmentation. After segmentation in units of superpixels, a CNN filter is trained using the training dataset, and the image is segmented, followed by post-processing such as CRF (Conditional Random Field).

이하에서, 본 발명에서 설명하는 분할은 의미적 영상 분할을 의미할 수 있고, 딥 러닝에 기반한 의미적 영상 분할 방법이 적용될 수 있다.Hereinafter, segmentation described in the present invention may mean semantic image segmentation, and a deep learning-based semantic image segmentation method may be applied.

도 3은 본 발명의 일 실시 예에 따른 종양 자동분할 방법을 설명하기 위한 흐름도이다. 도 4는 본 발명의 일 실시 예에 따른 종양 자동분할 방법을 설명하기 위한 블록도이다. 도 5는 본 발명의 일 실시 예에 따른 2D 및 3D U-Net을 설명하기 위한 예시도이다. 도 6은 본 발명의 일 실시 예에 따른 거리 확률맵을 설명하기 위한 예시도이다. 도 7은 본 발명의 일 실시 예에 따른 종양 자동분할 방법의 효과를 설명하기 위한 테이블이다. 도 8은 본 발명의 일 실시 예에 따른 종양 자동분할 방법의 효과를 설명하기 위한 예시도이다.3 is a flowchart illustrating an automatic tumor segmentation method according to an embodiment of the present invention. 4 is a block diagram illustrating an automatic tumor segmentation method according to an embodiment of the present invention. 5 is an exemplary diagram for explaining 2D and 3D U-Net according to an embodiment of the present invention. 6 is an exemplary diagram for explaining a distance probability map according to an embodiment of the present invention. 7 is a table for explaining the effect of the automatic tumor segmentation method according to an embodiment of the present invention. 8 is an exemplary view for explaining the effect of the automatic tumor segmentation method according to an embodiment of the present invention.

본 발명은 종양 자동분할 시스템으로 구현될 수 있고, 영상 입력부, 2차원 딥러닝부, 사전형상모델 생성부, 영상 편집부 및 3차원 딥러닝부를 포함할 수 있다.The present invention may be implemented as an automatic tumor segmentation system, and may include an image input unit, a two-dimensional deep learning unit, a pre-shape model generation unit, an image editing unit, and a three-dimensional deep learning unit.

도 3 내지 도 8을 참조하면, 일 실시 예에서, 동작 31에서, 영상 편집부는 의료 영상에 강도 평준화(Intensity normalization) 및 공간 평준화(spacing normalization)를 적용함으로써 복수의 축상(Axial) 이미지, 복수의 관상(Coronal) 이미지 및 복수의 시상(Sagittal) 이미지를 획득할 수 있다. 예를 들어, 종양이 배치된 위치가 폐일 경우, 폐 특성상 주변 영역과의 식별을 위한 전처리가 필요할 수 있고, 흉강 내부를 상부 / 흉격동 / 흉벽부착부 / 하부의 4개 영역으로 분할하고, 영역 특성에 적합한 처리 과정을 수행할 수 있다. 예컨대, 의료 영상에 windowing width 1500, windowing level -600 수치에 기반하여 강도 평준화(Intensity normalization)를 적용할 수 있고, 의료 영상의 모든 사이즈를 0.54X0.54mm2로 공간 평준화(spacing normalization)를 적용할 수 있다.3 to 8 , in an embodiment, in operation 31 , the image editing unit applies intensity normalization and spacing normalization to a medical image to obtain a plurality of axial images, a plurality of A coronal image and a plurality of sagittal images may be acquired. For example, if the location of the tumor is the lung, pretreatment for identification with the surrounding area may be required due to the characteristics of the lung, and the inside of the chest cavity is divided into 4 areas: upper / thoracic sinus / chest wall attachment / lower region A treatment process suitable for the characteristics may be performed. For example, intensity normalization can be applied to the medical image based on the windowing width 1500 and windowing level -600 values, and spatial normalization can be applied to all sizes of the medical image to 0.54X0.54mm 2 . can

일 실시 예에서, 동작 32에서, 영상 입력부가 종양이 포함된 의료 영상(100)의 복수의 축상(Axial) 이미지(110), 복수의 관상(Coronal) 이미지(120) 및 복수의 시상(Sagittal) 이미지(130)를 2차원 딥 뉴럴 네트워크(200)에 입력하여, 2차원 딥러닝부가 2차원 딥 뉴럴 네트워크(200)를 통해 관심 영역(region of interest)의 복수의 레이블(Label) 데이터(310, 320, 330) 및 복수의 예측맵(410, 420, 430, Prediction map)을 생성할 수 있다. 예를 들어, 2차원 딥 뉴럴 네트워크(200)는 2D FCN(fully convolutional network) 및 2D U-net 중 적어도 하나를 포함할 수 있다. 예를 들어, 의료 영상은 2차원 의료 영상(예: x-ray 이미지) 및/또는 3차원 의료 영상(예: CT 이미지, MRI, PET 이미지)을 포함하며, 의료 영상이라면 특별한 제한은 없다. "영상"은 전산화 단층 촬영(CT; computed tomography), 자기 공명 영상(MRI; magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템에 의하여 수집된 피검체(subject)의 의료 영상일 수 있다. 의료 영상(100)은 복셀 데이터로서, 복수의 슬라이스 즉, 복수 개의 단위 이미지들로 이루어진다. 예를 들어, 관심 영역은 종양이 배치된 영역일 수 있다.In an embodiment, in operation 32 , the image input unit performs a plurality of axial images 110 , a plurality of coronal images 120 , and a plurality of sagittal images of the medical image 100 including the tumor. By inputting the image 130 into the two-dimensional deep neural network 200, the two-dimensional deep learning unit uses a plurality of label data 310 of a region of interest through the two-dimensional deep neural network 200; 320 and 330) and a plurality of prediction maps 410, 420, 430, and prediction maps may be generated. For example, the 2D deep neural network 200 may include at least one of a 2D fully convolutional network (FCN) and a 2D U-net. For example, the medical image includes a 2D medical image (eg, an x-ray image) and/or a 3D medical image (eg, a CT image, an MRI, or a PET image), and there is no particular limitation if it is a medical image. "Image" means a subject collected by computed tomography (CT), magnetic resonance imaging (MRI), ultrasound or any other medical imaging system known in the art. may be a medical image of The medical image 100 is voxel data and includes a plurality of slices, that is, a plurality of unit images. For example, the region of interest may be a region in which a tumor is disposed.

일 실시 예에서, 도 5에 도시된 바와 같이 2D U-net은 “3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation", MICCAI 2016. 에서 제안하는 콘볼루션 네트워크 구조에 상응할 수 있다. 예를 들어, 2D U-Net은 왼쪽에 도시된 수축 경로(40, contracting path) 및 오른쪽에 도시된 팽창 경로(50, expansive path)를 포함할 수 있다. 수축 경로는 합성곱 신경망의 전형적인 구조를 따르고 있는바, 이는 2번의 3x3 합성곱(unpadded convolutions; 패딩되지 않은 합성곱)의 반복적 적용을 포함하는데, 그 각각의 합성곱에는 보정 선형 유닛(rectified linear unit; ReLU) 및 다운샘플링(downsampling)을 위한 스트라이드(stride) 2의 2x2 최대 풀링 연산이 뒤따른다. 각각의 다운샘플링 단계에 있어서 특징 채널(feature channel)들의 개수는 2배가 취해진다. 팽창 경로에 있어서의 모든 단계는 특징 맵(feature map)의 업샘플링(upsampling) 및 이에 뒤따르는 특징 채널들의 개수를 절반으로 줄이는 2x2 합성곱(“up-convolution”), 이에 대응되도록 절단된(cropped) 수축 경로로부터의 특징 맵과의 결합(concatenation), 및 2번의 3x3 합성곱으로 구성되는데, 2번의 3x3 합성곱 각각에는 ReLU가 뒤따른다. 전술한 절단은 모든 합성곱에 있어서의 경계선 픽셀들(border pixels)의 손실 때문에 필수적이다. 최종 층(final layer)에서 1x1 합성곱이 각각의 64 차원(64-component) 특징 벡터를 원하는 개수의 클래스(class)에 맵핑하는 데에 이용된다. 이 예시적 신경망에서는 모두 22개의 합성곱 층들이 포함되었는데, 이개수는 임의적인 것이다. 출력으로 나오는 분할 맵(segmentation map)이 깔끔하게 이어지도록, 모든 2x2 최대 풀링 연산(max-pooling operation)이 짝수의 x 크기 및 y 크기를 가지는 층에 적용되도록 입력 타일의 크기(input tile size)를 선택하는 것이 중요하다는 것을 통상의 기술자는 이해할 수 있을 것이다.In one embodiment, as shown in Fig. 5, 2D U-net may correspond to the convolutional network structure proposed in "3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation", MICCAI 2016. Example For example, a 2D U-Net may include a contracting path (40, contracting path) shown on the left and an expansive path (50, expansive path) shown on the right. Bar, this involves the iterative application of two 3x3 convolutions (unpadded convolutions), each of which has a rectified linear unit (ReLU) and a stride for downsampling. This is followed by a 2x2 max pooling operation of (stride) 2. For each downsampling step, the number of feature channels is doubled.Every step in the dilation path is an upsampling of the feature map. 2x2 convolution (“up-convolution”) that halves the sampling and subsequent number of feature channels, corresponding concatenation with the feature map from the cropped shrinkage path, and 2 It consists of 3x3 convolutions of 2 times, each of which is followed by a ReLU. The aforementioned truncation is necessary because of the loss of border pixels in every convolution. A 1x1 convolution is used to map each 64-component feature vector to a desired number of classes In this example neural network, 22 convolutional layers are included, which are arbitrary. So that the segmentation map that comes out as an output is connected neatly, One of ordinary skill in the art will appreciate that it is important to choose the input tile size so that all 2x2 max-pooling operations are applied to layers with an even number of x and y sizes.

일 실시 예에서, 복수의 예측맵(410, 420, 430, Prediction map)은 입력된 의료 영상보다 해상도는 낮지만 다수의 채널을 가질 수 있다. 생성된 복수의 예측맵(410, 420, 430, Prediction map)을 통해 영역 구분 단계와 물체 검출 단계에서 서로 공유하여 영역을 구분하고 관심 영역(복부 장기 중 어느 하나의 장기)을 검출할 수 있다. 즉, 복수의 예측맵(410, 420, 430, Prediction map)으로부터 픽셀 레이블링을 수행하여 영상의 영역을 구분할 수 있다. 이때, 픽셀 레이블링은 입력 영상의 유사한 특징(feature)을 가지는 인접 픽셀에 모두 같은 번호(lable)를 붙이는 방법으로 수행할 수 있다. 또한, 복수의 레이블(Label) 데이터(310, 320, 330)에 포함된 픽셀 레이블링 결과는 영상의 분류할 클래스에 대한 각 픽셀별 확률 분포 정보를 포함할 수 있다.In an embodiment, the plurality of prediction maps 410 , 420 , 430 , may have a plurality of channels although the resolution is lower than that of the input medical image. Through the plurality of generated prediction maps 410, 420, 430, prediction maps, the regions are shared in the region classification step and the object detection step to classify regions, and a region of interest (one organ among abdominal organs) can be detected. That is, by performing pixel labeling from a plurality of prediction maps 410 , 420 , 430 and prediction maps, regions of an image may be divided. In this case, pixel labeling may be performed by attaching the same number to all adjacent pixels having similar features of the input image. In addition, the pixel labeling result included in the plurality of label data 310 , 320 , and 330 may include probability distribution information for each pixel with respect to the class to be classified of the image.

일 실시 예에서, 복수의 레이블(Label) 데이터(310, 320, 330) 및 복수의 예측맵(410, 420, 430, Prediction map)의 생성은 컨볼루션 신경망(Convolution Neural Network, CNN)을 사용할 수 있으나, 이에 한정되지 않으며 심층 신경망(Deep Neural Network, DNN), 순환 신경망(Recurrent Neural Network, RNN)등 영상처리장치의 사용 목적에 따라 달라질 수 있다. 여기에서 일 예로서 2D FCN(fully convolutional network)에 따라 복수의 레이블(Label) 데이터(310, 320, 330) 및 복수의 예측맵(410, 420, 430, Prediction map)이 생성될 수 있다.In one embodiment, the generation of a plurality of label data (310, 320, 330) and a plurality of prediction maps (410, 420, 430, prediction map) may use a convolutional neural network (CNN). However, the present invention is not limited thereto and may vary depending on the purpose of use of the image processing apparatus, such as a deep neural network (DNN) or a recurrent neural network (RNN). Here, as an example, a plurality of label data 310 , 320 , 330 and a plurality of prediction maps 410 , 420 , 430 and prediction maps may be generated according to a 2D fully convolutional network (FCN).

일 실시 예에서, 동작 33에서, 사전형상모델 생성부는 생성된 복수의 레이블 데이터(310, 320, 330)와 복수의 예측맵(410, 420, 430)을 거리 확률맵(500, distance probability map)을 이용하여 결합시킴으로써 관심 영역의 사전형상모델(700)을 생성할 수 있다. 예를 들어, 사전형상모델(700)은 관심 영역의 3차원 공간적 형상 정보를 확률맵(probability map) 형태로 포함할 수 있다. 예컨대, 사전형상모델(700)은 의료 영상(100)에서 영역을 구분하고 물체를 검출하는데 의미 있는 정보를 포함할 수 있으며 예컨대, 의료 영상(100)의 광도, 색채, 윤곽 등을 포함할 수 있다.In an embodiment, in operation 33, the pre-shape model generator uses the generated plurality of label data 310, 320, 330 and the plurality of prediction maps 410, 420, 430 as a distance probability map (500). By combining using , the pre-shape model 700 of the region of interest can be generated. For example, the prior shape model 700 may include 3D spatial shape information of the ROI in the form of a probability map. For example, the pre-shape model 700 may include information meaningful for classifying regions and detecting an object in the medical image 100 , and may include, for example, luminance, color, outline, etc. of the medical image 100 . .

일 실시 예에서, 거리 확률맵(500)은 최대 확률값 투표(max probability value voting) 방식이 적용되며, 사전형상모델(700)은 기준 확률값 이상을 갖는 복수의 예측맵(Prediction map) 중에서 최대 확률값을 갖는 복수의 예측맵들을 결합함으로써 생성될 수 있다. 예를 들어, 기준 확률값은 0.5일 수 있고, 사전형상모델(700)은 0.5 이상이면서 최대 확률값들만으로 레이블링된 구성들을 연결함으로써 생성될 수 있다. 종양은 위치와 크기가 다양하므로 평균 확률을 이용하지 않고 최대 확률값을 이용함으로써 오차 범위를 줄일 수 있다. 한편 여기서 확률값이란 도 6에 도시된 바와 같이 종양에 가까운 확률값을 의미할 수 있다.In an embodiment, a maximum probability value voting method is applied to the distance probability map 500 , and the dictionary shape model 700 selects a maximum probability value from among a plurality of prediction maps having a reference probability value or more. It can be generated by combining a plurality of prediction maps having For example, the reference probability value may be 0.5, and the pre-shape model 700 may be generated by connecting components labeled with only the maximum probability values that are 0.5 or more. Since tumors vary in location and size, the margin of error can be reduced by using the maximum probability value rather than the average probability. Meanwhile, as shown in FIG. 6 , the probability value may mean a probability value close to a tumor.

일 실시 예에서, 동작 34에서, 영상 편집부는 3차원 의료 영상(800)에서 관심 영역을 제외한 나머지 영역의 적어도 일부를 크롭(crop)할 수 있다. 예를 들어, 3차원 딥 뉴럴 네트워크(900)의 연산 과정을 줄이기 위해 3차원 의료 영상(800)에서 경계 영역의 일부를 크롭할 수 있다. 구체적으로, 예를 들어, 밝기값 정보를 이용하여 종양과 주변 기관들이 갖는 밝기값 정보와 전혀 다른 경계 부분을 크롭할 수 있다.In an embodiment, in operation 34 , the image editing unit may crop at least a portion of a region other than a region of interest in the 3D medical image 800 . For example, in order to reduce the operation process of the 3D deep neural network 900 , a portion of the boundary region in the 3D medical image 800 may be cropped. Specifically, for example, a boundary portion completely different from the brightness value information of the tumor and surrounding organs may be cropped using brightness value information.

일 실시 예에서, 동작 35에서, 영상 입력부는 복부 장기가 포함된 3차원 의료 영상(800)과 사전형상모델(700)을 3차원 딥 뉴럴 네트워크(900)에 입력할 수 있다. 예를 들어, 3차원 딥 뉴럴 네트워크(900)는 3D U-net을 포함할 수 있다. 또한 이와 달리 크롭한 사전형상모델과 크롭한 3차원 의료 영상(810)을 3차원 딥 뉴럴 네트워크(900)에 입력할 수 있다. 한편, 3차원 딥 뉴럴 네트워크(900)의 3D U-net은 상기 도 5의 설명내용과 중복되므로 생략한다.In an embodiment, in operation 35 , the image input unit may input the 3D medical image 800 including the abdominal organs and the pre-shape model 700 to the 3D deep neural network 900 . For example, the 3D deep neural network 900 may include a 3D U-net. Alternatively, the cropped pre-shape model and the cropped 3D medical image 810 may be input to the 3D deep neural network 900 . On the other hand, the 3D U-net of the 3D deep neural network 900 overlaps with the description of FIG. 5 and thus is omitted.

일 실시 예에서, 동작 36에서, 3차원 딥러닝부는 3차원 딥 뉴럴 네트워크(900)를 통해 관심 영역의 분할 결과(10)를 획득할 수 있다. 여기서 분할 결과(10)는 관심 영역에 해당하는 종양이 분할된 영상일 수 있다.In an embodiment, in operation 36 , the 3D deep learning unit may obtain the segmentation result 10 of the ROI through the 3D deep neural network 900 . Here, the segmentation result 10 may be an image in which the tumor corresponding to the region of interest is segmented.

즉, 본 발명은 2차원 딥 뉴럴 네트워크(200)와 사전형상모델(700)을 통해 관심영역이 배치된 영역의 전체 맥락 정보를 고려하고, 사전형상모델(700)을 이용하여 3차원 의료 영상을 통해 관심 영역이 위치한 지역 맥락 정보를 파악하는 연산을 줄임으로써 종양 분할의 속도와 정확도를 높일 수 있다.That is, the present invention considers the entire context information of the region in which the region of interest is arranged through the two-dimensional deep neural network 200 and the pre-shape model 700, and uses the pre-shape model 700 to generate a 3D medical image. Through this, it is possible to increase the speed and accuracy of tumor segmentation by reducing the computation of understanding the contextual information of the region where the region of interest is located.

한편, 본 발명의 효과를 확인하기 위해 사용된 데이터 세트는 환자에서 방사선 치료를 위해 얻은 222 개의 의료 영상을 포함하고, 이 중에서 150개는 학습용, 38개는 유효성 검증용, 34개는 테스트용으로 나뉘었다.Meanwhile, the data set used to confirm the effect of the present invention includes 222 medical images obtained for radiation treatment in patients, of which 150 are used for learning, 38 are used for validation, and 34 are used for testing. split

상기 분할 결과(10)의 정확성 평가를 위해 다이스 유사계수(Dice similarity coefficient, DSC)를 수학식 1을 통해 계산하여 비교하였다.In order to evaluate the accuracy of the division result (10), a Dice similarity coefficient (DSC) was calculated through Equation 1 and compared.

[수학식 1][Equation 1]

Figure 112019084120414-pat00002
Figure 112019084120414-pat00002

이때 TP(True Positive)는 수동 분할한 장기 영역에서 자동 분할된 영역의 화소 개수, TN(True Negative)는 수동 분할한 장기 영역이 아닌 영역에서 자동 분할되지 않은 영역의 화소 개수, FP(False Positive)는 수동 분할한 장기 영역이 아닌 곳에서 자동 분할된 영역의 화소 개수, FN(False Negative)는 수동 분할한 장기 영역에서 자동 분할되지 않은 영역의 화소 개수를 의미한다.In this case, TP (True Positive) is the number of pixels in the auto-segmented region in the manually divided organ region, TN (True Negative) is the number of pixels in the non-auto-divided region in the non-manually divided organ region, FP (False Positive) is the number of pixels in an automatically segmented region other than the manually segmented organ region, and FN (False Negative) denotes the number of pixels in the non-automatically segmented region in the manually segmented organ region.

도 7 및 도 8을 참조하면, Class 1은 고립된 종양이고, Class 2는 chest wall에 붙어있는 종양이고, Class 3은 mediastinum에 붙어있는 종양이고, Class 4는 폐 상하단에 주변 구조물로 둘러 쌓인 종양이다. 도 7에 도시된 바와 같이 본 발명의 coupling-Net(2.5D+3D with shape-enhanced prior(사전형상모델))의 DSC는 모든 클래스를 고려할 경우 70.71%로 가장 높음을 확인할 수 있다. 한편, 여기서 2.5D는 2차원 딥 뉴럴 네트워크를 통해 레이블 데이터 및 예측맵을 형성하는 것을 의미할 수 있다.7 and 8, Class 1 is an isolated tumor, Class 2 is a tumor attached to the chest wall, Class 3 is a tumor attached to the mediastinum, and Class 4 is a tumor surrounded by surrounding structures in the upper and lower parts of the lung to be. As shown in FIG. 7 , it can be confirmed that the DSC of the coupling-Net (2.5D+3D with shape-enhanced prior) of the present invention is the highest at 70.71% when all classes are considered. Meanwhile, here, 2.5D may mean forming label data and a prediction map through a two-dimensional deep neural network.

또한, 도 8((a) Original image, (b) 2D segmentation result (c) 2.5D segmentation result, (d) 3D segmentation result, (e) Coupling-net)에 도시된 바와 같이, 빨간색은 ground-truth를 의미하고, 파란색은 over segmentation를 의미하고, 녹색은 under segmentation를 의미하므로 녹색과 파란색이 가장 적고 빨간색으로 경계가 가장 선명한 본 발명의 coupling-Net이 모든 클래스에서 종양 분할을 가장 높은 수준으로 산출함을 확인할 수 있다.In addition, as shown in FIG. 8 ((a) Original image, (b) 2D segmentation result (c) 2.5D segmentation result, (d) 3D segmentation result, (e) Coupling-net), red is ground-truth , blue means over segmentation, and green means under segmentation, so the coupling-Net of the present invention has the highest level of tumor segmentation in all classes, with the fewest green and blue and sharpest red borders. can confirm.

본 발명의 일 실시예에 따른 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법은, 종양이 포함된 2차원 의료 영상의 복수의 축상(Axial) 이미지, 복수의 관상(Coronal) 이미지 및 복수의 시상(Sagittal) 이미지를 2차원 딥 뉴럴 네트워크에 입력하여. 상기 2차원 딥 뉴럴 네트워크를 통해 관심 영역(region of interest)의 복수의 레이블(Label) 데이터 및 복수의 예측맵(Prediction map)을 생성하는 단계; 상기 생성된 복수의 레이블 데이터와 상기 복수의 예측맵을 거리 확률맵(distance probability map)을 이용하여 결합시킴으로써 상기 관심 영역의 사전형상모델을 생성하는 단계; 및 상기 종양이 포함된 3차원 의료 영상과 상기 사전형상모델을 3차원 딥 뉴럴 네트워크에 입력하여. 상기 3차원 딥 뉴럴 네트워크를 통해 상기 관심 영역의 분할 결과를 획득하는 단계;를 포함할 수 있다.In a method for automatic tumor segmentation based on deep learning in a medical image according to an embodiment of the present invention, a plurality of axial images, a plurality of coronal images, and a plurality of sagittal ( Sagittal) by inputting the image into a two-dimensional deep neural network. generating a plurality of label data and a plurality of prediction maps of a region of interest through the two-dimensional deep neural network; generating a prior shape model of the ROI by combining the generated plurality of label data and the plurality of prediction maps using a distance probability map; and inputting the 3D medical image including the tumor and the pre-shape model into a 3D deep neural network. and obtaining a segmentation result of the region of interest through the 3D deep neural network.

다양한 실시 예에 따르면, 상기 2차원 의료 영상에 강도 평준화(Intensity normalization) 및 공간 평준화(spacing normalization)를 적용함으로써 상기 복수의 축상(Axial) 이미지, 상기 복수의 관상(Coronal) 이미지 및 상기 복수의 시상(Sagittal) 이미지를 획득하는 단계를 더 포함할 수 있다.According to various embodiments, by applying intensity normalization and spacing normalization to the 2D medical image, the plurality of axial images, the plurality of coronal images, and the plurality of sagittal images are applied. (Sagittal) may further include the step of acquiring an image.

다양한 실시 예에 따르면, 상기 3차원 의료 영상에서 상기 관심 영역을 제외한 나머지 영역의 적어도 일부를 크롭(crop)하는 단계; 및 상기 크롭한 3차원 의료 영상을 상기 3차원 딥 뉴럴 네트워크에 입력하는 단계;를 더 포함할 수 있다.According to various embodiments of the present disclosure, the method may include cropping at least a portion of a region other than the ROI in the 3D medical image; and inputting the cropped 3D medical image to the 3D deep neural network.

다양한 실시 예에 따르면, 상기 사전형상모델과 상기 크롭한 3차원 의료 영상을 상기 3차원 딥 뉴럴 네트워크에 입력하여. 상기 3차원 딥 뉴럴 네트워크를 통해 상기 관심 영역의 분할 결과를 획득하는 단계;를 포함할 수 있다.According to various embodiments, by inputting the pre-shape model and the cropped 3D medical image to the 3D deep neural network. and obtaining a segmentation result of the region of interest through the 3D deep neural network.

다양한 실시 예에 따르면, 상기 거리 확률맵은 최대 확률값 투표(max probability value voting) 방식이 적용되며, 상기 사전형상모델은 기준 확률값 이상을 갖는 복수의 예측맵(Prediction map) 중에서 최대 확률값을 갖는 복수의 예측맵들을 결합함으로써 생성될 수 있다.According to various embodiments, a maximum probability value voting method is applied to the distance probability map, and the dictionary shape model includes a plurality of prediction maps having a maximum probability value from among a plurality of prediction maps having a reference probability value or more. It can be generated by combining prediction maps.

다양한 실시 예에 따르면, 상기 관심 영역은 상기 종양이 배치된 영역일 수 있다.According to various embodiments, the region of interest may be a region in which the tumor is disposed.

다양한 실시 예에 따르면, 상기 사전형상모델은 상기 관심 영역의 3차원 공간적 형상 정보를 확률맵(probability map) 형태로 포함할 수 있다.According to various embodiments, the pre-shape model may include 3D spatial shape information of the ROI in the form of a probability map.

다양한 실시 예에 따르면, 상기 2차원 딥 뉴럴 네트워크는 2D FCN(fully convolutional network) 및 2D U-net 중 적어도 하나를 포함할 수 있다.According to various embodiments, the 2D deep neural network may include at least one of a 2D fully convolutional network (FCN) and a 2D U-net.

다양한 실시 예에 따르면, 상기 3차원 딥 뉴럴 네트워크는 3D U-net을 포함할 수 있다.According to various embodiments, the 3D deep neural network may include a 3D U-net.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in relation to an embodiment of the present invention may be implemented directly in hardware, as a software module executed by hardware, or by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. As mentioned above, although embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains know that the present invention may be embodied in other specific forms without changing the technical spirit or essential features thereof. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100 : 의료영상
200 : 2차원 딥 뉴럴 네트워크
310,320,330: 레이블 데이터
410,420,430: 예측맵
700: 사전형상모델
800: 3차원 의료영상
900: 3차원 딥 뉴럴 네트워크
100: medical image
200: 2D deep neural network
310,320,330: label data
410,420,430: prediction map
700: pre-shape model
800: 3D medical image
900: 3D deep neural network

Claims (10)

의료 영상에서 딥러닝에 기반한 종양 자동분할 방법에 있어서,
종양이 포함된 2차원 의료 영상의 복수의 축상(Axial) 이미지, 복수의 관상(Coronal) 이미지 및 복수의 시상(Sagittal) 이미지를 2차원 딥 뉴럴 네트워크에 입력하여, 상기 2차원 딥 뉴럴 네트워크를 통해 관심 영역(region of interest)의 복수의 레이블(Label) 데이터 및 복수의 예측맵(Prediction map)을 생성하는 단계;
상기 생성된 복수의 레이블 데이터와 상기 복수의 예측맵을 거리 확률맵(distance probability map)을 이용하여 결합시킴으로써 상기 관심 영역의 사전형상모델을 생성하는 단계;
상기 종양이 포함된 3차원 의료 영상에서 상기 관심 영역을 제외한 나머지 영역의 일부를 크롭(crop)하는 단계; 및
상기 사전형상모델 및 상기 크롭한 3차원 의료 영상의 일부를 3차원 딥 뉴럴 네트워크에 입력하여, 상기 3차원 딥 뉴럴 네트워크를 통해 상기 관심 영역의 분할 결과를 획득하는 단계;를 포함하고,
상기 크롭 단계는,
상기 3차원 딥 뉴럴 네트워크의 연산 과정을 줄이기 위해, 상기 3차원 의료 영상에서 상기 관심 영역이 갖는 밝기값 정보와 전혀 다른 상기 나머지 영역의 일부의 경계 부분을 크롭하고,
상기 사전형상모델은, 상기 의료 영상에서 영역을 구분하고 물체를 검출하는데 의미있는 정보인 상기 의료 영상의 광도, 색체 및 윤곽에 대한 정보를 포함하고,
상기 분할 결과는, 상기 관심 영역에 해당하는 종양이 분할된 영상이고,
상기 획득 단계는,
상기 2차원 딥 뉴럴 네트워크와 상기 사전형상모델을 통해 상기 관심 영역이 배치된 영역의 전체 맥락 정보를 고려하고, 상기 사전형상모델을 이용하여 상기 3차원 의료 영상을 통해 상기 관심 영역이 위치한 지역 맥락 정보를 파악하는 연산을 줄여서 상기 종양 분할의 속도와 정확도를 높인 상기 분할 결과를 획득하는 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
In the automatic tumor segmentation method based on deep learning in medical images,
A plurality of axial images, a plurality of coronal images, and a plurality of sagittal images of a two-dimensional medical image containing a tumor are input to a two-dimensional deep neural network, and through the two-dimensional deep neural network generating a plurality of label data and a plurality of prediction maps of a region of interest;
generating a prior shape model of the ROI by combining the generated plurality of label data and the plurality of prediction maps using a distance probability map;
cropping a portion of a region other than the region of interest in the 3D medical image including the tumor; and
inputting the pre-shape model and a part of the cropped 3D medical image into a 3D deep neural network, and obtaining a segmentation result of the region of interest through the 3D deep neural network;
The cropping step is
In order to reduce the calculation process of the 3D deep neural network, a boundary portion of a portion of the remaining region that is completely different from brightness value information of the region of interest in the 3D medical image is cropped,
The pre-shape model includes information on luminance, color, and outline of the medical image, which is information meaningful for classifying regions and detecting an object in the medical image,
The segmentation result is an image in which the tumor corresponding to the region of interest is segmented,
The acquisition step is
The entire context information of the region in which the region of interest is disposed is considered through the two-dimensional deep neural network and the dictionary shape model, and contextual information of the region in which the region of interest is located through the 3D medical image using the dictionary shape model An automatic tumor segmentation method based on deep learning in a medical image, characterized in that the segmentation result is obtained by increasing the speed and accuracy of the tumor segmentation by reducing the operation to identify the tumor.
제1 항에 있어서,
상기 2차원 의료 영상에 강도 평준화(Intensity normalization) 및 공간 평준화(spacing normalization)를 적용함으로써 상기 복수의 축상(Axial) 이미지, 상기 복수의 관상(Coronal) 이미지 및 상기 복수의 시상(Sagittal) 이미지를 획득하는 단계를 더 포함하는 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
According to claim 1,
Obtaining the plurality of axial images, the plurality of coronal images and the plurality of sagittal images by applying intensity normalization and spacing normalization to the two-dimensional medical image An automatic tumor segmentation method based on deep learning in a medical image, characterized in that it further comprises the step of:
삭제delete 삭제delete 제1 항에 있어서,
상기 거리 확률맵은 최대 확률값 투표(max probability value voting) 방식이 적용되며,
상기 사전형상모델은 기준 확률값 이상을 갖는 복수의 예측맵(Prediction map) 중에서 최대 확률값을 갖는 복수의 예측맵들을 결합함으로써 생성되는 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
According to claim 1,
In the distance probability map, a maximum probability value voting method is applied,
The dictionary shape model is an automatic tumor segmentation method based on deep learning in a medical image, characterized in that it is generated by combining a plurality of prediction maps having a maximum probability value among a plurality of prediction maps having a reference probability value or more.
제1 항에 있어서,
상기 관심 영역은 상기 종양이 배치된 영역인 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
According to claim 1,
The region of interest is an automatic tumor segmentation method based on deep learning in a medical image, characterized in that the region in which the tumor is disposed.
제1 항에 있어서,
상기 사전형상모델은 상기 관심 영역의 3차원 공간적 형상 정보를 확률맵(probability map) 형태로 포함하는 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
According to claim 1,
wherein the pre-shape model includes the three-dimensional spatial shape information of the region of interest in the form of a probability map.
제1 항에 있어서,
상기 2차원 딥 뉴럴 네트워크는 2D FCN(fully convolutional network) 및 2D U-net 중 적어도 하나를 포함하는 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
According to claim 1,
The two-dimensional deep neural network is a 2D fully convolutional network (FCN) and a 2D U-net automatic tumor segmentation method based on deep learning in a medical image, characterized in that it comprises at least one.
제1 항에 있어서,
상기 3차원 딥 뉴럴 네트워크는 3D U-net을 포함하는 것을 특징으로 하는 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법.
According to claim 1,
The 3D deep neural network is an automatic tumor segmentation method based on deep learning in a medical image, characterized in that it includes a 3D U-net.
하드웨어인 컴퓨터와 결합되어, 제1항의 방법을 실행시키기 위하여 매체에 저장된, 의료 영상에서 딥러닝에 기반한 종양 자동분할 프로그램.In combination with a computer that is hardware, stored in a medium to execute the method of claim 1, an automatic tumor segmentation program based on deep learning in a medical image.
KR1020190100380A 2019-08-16 2019-08-16 Tumor automatic segmentation based on deep learning in a medical image KR102349515B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190100380A KR102349515B1 (en) 2019-08-16 2019-08-16 Tumor automatic segmentation based on deep learning in a medical image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190100380A KR102349515B1 (en) 2019-08-16 2019-08-16 Tumor automatic segmentation based on deep learning in a medical image

Publications (2)

Publication Number Publication Date
KR20210020629A KR20210020629A (en) 2021-02-24
KR102349515B1 true KR102349515B1 (en) 2022-01-10

Family

ID=74688954

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190100380A KR102349515B1 (en) 2019-08-16 2019-08-16 Tumor automatic segmentation based on deep learning in a medical image

Country Status (1)

Country Link
KR (1) KR102349515B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102587670B1 (en) * 2021-10-26 2023-10-10 이화여자대학교 산학협력단 Deep learning based vascular invasion classification method for pancreatic cancer using endoscopic ultrasound image and analysis apparatus
KR20230090378A (en) 2021-12-14 2023-06-22 사회복지법인 삼성생명공익재단 Bone metastasis detecting method using ct image and analysis apparatus
CN116109605B (en) * 2023-02-13 2024-04-02 北京医智影科技有限公司 Medical image tumor segmentation system, training set construction method and model training method
KR102662401B1 (en) * 2023-09-26 2024-05-03 메디컬아이피 주식회사 Medical image segmentation method and apparatus

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Hänsch et al., Journal of Medical Imaging Vol.6, No.1, 011005 (2018.10.)
Mlynarski et al., Computerized Medical Imaging and Graphics, Vol.73, pp.60-72 (2019.04)
김진필 등, Journal of Digital Contents Society, 제19권, 제11호, 페이지 2035-2040 (2018.12)
김형석 등, Korean Chem. Eng. Res., Vol. 57., No. 2, pp. 274-282 (2019.04)

Also Published As

Publication number Publication date
KR20210020629A (en) 2021-02-24

Similar Documents

Publication Publication Date Title
KR102410955B1 (en) Method and computer program for automatic segmentation of abnominal organs based on deep learning in medical images
KR102349515B1 (en) Tumor automatic segmentation based on deep learning in a medical image
US10769791B2 (en) Systems and methods for cross-modality image segmentation
CN108010021B (en) Medical image processing system and method
US9990712B2 (en) Organ detection and segmentation
EP3480786A1 (en) Medical image object detection with dense feature pyramid network architecture in machine learning
EP1719080B1 (en) A system and method for toboggan based object segmentation using divergent gradient field response in images
US20110158491A1 (en) Method and system for lesion segmentation
KR102332032B1 (en) Abdominal organ status diagnosis based on abnominal organ volume change analysis using abnominal organ automatic segmentation
US7822254B2 (en) Automatic positioning of matching multi-planar image reformatting (MPR) views of multiple 3D medical images
CN107103605B (en) Breast tissue segmentation method
CN110706241B (en) Three-dimensional focus region extraction method and device
US20230005140A1 (en) Automated detection of tumors based on image processing
WO2011093921A1 (en) Automated vascular region separation in medical imaging
US8306354B2 (en) Image processing apparatus, method, and program
US20060047227A1 (en) System and method for colon wall extraction in the presence of tagged fecal matter or collapsed colon regions
US20140161329A1 (en) Method and system for binary and quasi-binary atlas-based auto-contouring of volume sets in medical images
Skounakis et al. ATD: A multiplatform for semiautomatic 3-D detection of kidneys and their pathology in real time
CN110992310A (en) Method and device for determining partition where mediastinal lymph node is located
KR102332472B1 (en) Tumor automatic segmentation using deep learning based on dual window setting in a medical image
US20240169544A1 (en) Methods and systems for biomedical image segmentation based on a combination of arterial and portal image information
US11282193B2 (en) Systems and methods for tumor characterization
Sreelekshmi et al. A Review on Multimodal Medical Image Fusion
Alirr Dual attention U-net for liver tumor segmentation in CT images
CN118302791A (en) Machine learning based segmentation of biological objects in medical images

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant