KR20230030935A - Medical image segmentation apparatus and method for segmentating medical image - Google Patents

Medical image segmentation apparatus and method for segmentating medical image Download PDF

Info

Publication number
KR20230030935A
KR20230030935A KR1020210113202A KR20210113202A KR20230030935A KR 20230030935 A KR20230030935 A KR 20230030935A KR 1020210113202 A KR1020210113202 A KR 1020210113202A KR 20210113202 A KR20210113202 A KR 20210113202A KR 20230030935 A KR20230030935 A KR 20230030935A
Authority
KR
South Korea
Prior art keywords
medical images
medical
medical image
image
probability map
Prior art date
Application number
KR1020210113202A
Other languages
Korean (ko)
Other versions
KR102591587B1 (en
Inventor
홍헬렌
윤현담
Original Assignee
서울여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울여자대학교 산학협력단 filed Critical 서울여자대학교 산학협력단
Priority to KR1020210113202A priority Critical patent/KR102591587B1/en
Publication of KR20230030935A publication Critical patent/KR20230030935A/en
Priority to KR1020230137826A priority patent/KR20230148139A/en
Application granted granted Critical
Publication of KR102591587B1 publication Critical patent/KR102591587B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Abstract

Provided are a medical image segmenting device and a medical image segmenting method. The medical image segmenting method comprises: a step of obtaining different types of medical images in which abdominal organs are photographed; a step of outputting a specific organ information probability map for each medical image by inputting the different types of medical images to a 2D convolutional neural network, and performing positioning of a specific organ through a first majority vote for a plurality of obtained specific organ information probability maps; a step of converting the plurality of positioned medical images into a 3D medical image, inputting a plurality of converted medical images to a 3D convolutional neural network, and individually outputting a probability map and an uncertainty probability map of an average value for the plurality of 3D medical images; and a step of performing cooperative learning by using the probability map and the uncertainty probability map of the average value for the plurality of 3D medical images, and segmenting the specific organ through a second majority vote for a cooperative learned result. The present invention accurately segments pancreas by using a 3D segmenting network.

Description

의료 영상 분할 장치 및 의료 영상 분할 방법{MEDICAL IMAGE SEGMENTATION APPARATUS AND METHOD FOR SEGMENTATING MEDICAL IMAGE}Medical image segmentation apparatus and medical image segmentation method

본 발명은 의료 영상 분할 장치 및 의료 영상 분할 방법에 관한 것으로, 보다 구체적으로, 복부 CT 영상에서 췌장의 불확실성을 고려한 계층적 네트워크 및 협동학습 기반의 자동 췌장 분할 방법 및 이를 구현하는 장치에 관한 것이다. The present invention relates to a medical image segmentation apparatus and a medical image segmentation method, and more particularly, to an automatic pancreas segmentation method based on a hierarchical network and cooperative learning considering uncertainty of the pancreas in an abdominal CT image, and an apparatus implementing the same.

2019년 보건복지부와 중앙암등록본부에서 발표한 2017년 국가암등록 통계자료에 따르면 췌장암은 전체 암종 중 발생률 3%로 8위를 차지하였고, 최근 10년간 발생률은 지속적으로 증가 추세를 보이고 있다. According to the 2017 National Cancer Registry statistics released by the Ministry of Health and Welfare and the Central Cancer Registry Headquarters in 2019, pancreatic cancer ranked 8th with an incidence rate of 3% among all cancer types, and the incidence rate has been continuously increasing over the past 10 years.

췌장암은 초기부터 진행된 시기까지 특징적인 증상이 없고, 암종의 성장 속도가 빠르며, 주위 조직으로의 전이가 쉬워 대부분 수술적 절제를 수행하여 장기 생존율을 높인다. 췌장암 절제 전, 췌장을 파악하고 췌장암을 검출하기 위해 췌장의 형태에 대한 사전 정보가 중요하므로 복부 CT 영상에서 췌장 분할은 필수적인 사전 단계이다.Pancreatic cancer has no characteristic symptoms from the beginning to the advanced stage, the growth rate of carcinoma is fast, and metastasis to surrounding tissues is easy, and most of them are surgically resected to increase long-term survival rate. Before pancreatic cancer resection, pancreatic segmentation is an essential preliminary step in abdominal CT imaging because prior information on pancreatic morphology is important for identifying the pancreas and detecting pancreatic cancer.

도 3은 복부 CT 영상에서 췌장의 특성을 나타낸 것으로 도 3의 (a)와 같이 췌장은 위, 간, 비장, 소장, 간문맥 등의 주변 장기와 유사한 밝기값을 가지며, 도 3의 (b)와 같이 각 영상 슬라이스에서 보이는 췌장의 형태가 상이하며, 도 3의 (c)와 같이 환자마다 췌장의 형태가 다양하다는 특징이 있다.FIG. 3 shows the characteristics of the pancreas in an abdominal CT image. As shown in FIG. Similarly, the shape of the pancreas seen in each image slice is different, and as shown in FIG. 3 (c), there is a feature that the shape of the pancreas varies for each patient.

딥 컨볼루션 신경망(Convolutional Neural Network; CNN) 기반의 다양한 연구들이 있지만 공통적으로 췌장의 불확실한 경계 부분에서 과소분할 및 과대분할 문제가 발생하는 한계가 있다.There are various studies based on deep convolutional neural networks (CNNs), but in common, there are limitations in that under-segmentation and over-segmentation problems occur in the uncertain boundary part of the pancreas.

본 발명이 해결하고자 하는 과제는 최적화된 방법으로 의료 영상에서 특정 장치를 분할하는 것이 가능한 의료 영상 분할 장치 및 방법을 제공하는데 있다.An object to be solved by the present invention is to provide a medical image segmentation apparatus and method capable of segmenting a specific device in a medical image in an optimized manner.

본 발명의 해결하고자 하는 과제는, 딥 컨볼루션 신경망을 기반으로 위치화 단계를 통해 복부 CT 영상에서 췌장 위치를 효과적으로 검출하고, 해당 영역 내에서 불확실한 영역에 대한 정보를 고려하여 췌장의 분할 정확도를 개선하는 것이 가능한 의료 영상 분할 장치 및 방법을 제공하는데 있다.The problem to be solved by the present invention is to effectively detect the location of the pancreas in an abdominal CT image through a positioning step based on a deep convolutional neural network, and to improve pancreas segmentation accuracy by considering information about an uncertain region within the corresponding region. It is an object of the present invention to provide a medical image segmentation apparatus and method capable of doing this.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 의료 영상 분할 방법은, 장치에 의해 수행되는 방법에 있어서, 복부 장기가 촬영된 서로 다른 종류의 의료 영상들을 획득하는 단계, 상기 서로 다른 종류의 의료 영상들을 2차원 컨볼루션 신경망에 입력하여 각 의료 영상들에 대한 특정 장기 정보 확률맵을 출력하고, 획득된 복수의 특정 장기 정보 확률맵에 대한 제1 다수투표를 통해 특정 장기의 위치화를 수행하는 단계, 위치화된 복수의 의료 영상들을 3차원 의료 영상으로 변환하고, 변환된 복수의 3차원 의료 영상들을 3차원 컨볼루션 신경망에 입력하여, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 각각 출력하는 단계 및 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 이용하여 협동 학습을 수행하고, 협동 학습된 결과에 대한 제2 다수투표를 통해 특정 장기를 분할하는 단계를 포함한다.A method for segmenting a medical image according to an aspect of the present invention for solving the above problems is a method performed by an apparatus, comprising the steps of acquiring different types of medical images in which abdominal organs are photographed, and the different types of medical images. By inputting medical images into a 2D convolutional neural network, a probability map of specific organ information for each medical image is output, and positioning of a specific organ is performed through a first majority vote on the obtained plurality of specific organ information probability maps. converting the plurality of localized medical images into 3D medical images, inputting the converted plurality of 3D medical images to a 3D convolutional neural network, and obtaining a probability map of average values of the plurality of 3D medical images. and outputting a probability map of uncertainty, performing cooperative learning using the probability map of the average value of a plurality of 3D medical images and the probability map of uncertainty, and through a second majority vote on the cooperatively learned result. Segmenting a specific organ.

실시 예에 있어서, 상기 서로 다른 종류의 의료 영상들은, 횡단면, 관상면 및 시상면의 2차원 의료 영상을 포함하는 것을 특징으로 한다.In an embodiment, the different types of medical images include cross-section, coronal, and sagittal two-dimensional medical images.

실시 예에 있어서, 상기 서로 다른 종류의 의료 영상들에 대하여 데이터 전처리를 수행하는 단계를 더 포함하고, 상기 데이터 전처리를 수행하는 단계는, 상기 서로 다른 종류의 의료 영상들에 대하여 밝기값 정규화 및 공간 정규화를 수행하는 것을 특징으로 한다.In an embodiment, the method may further include performing data pre-processing on the different types of medical images, wherein the performing of the data pre-processing may include normalizing brightness values and spatial resolution values of the different types of medical images. It is characterized by performing normalization.

실시 예에 있어서, 상기 공간 정규화는, 원본 영상의 화소 크기에서 최소 화소 값을 나누어 최근린 보간법을 이용하여 영상을 변환하는 것을 특징으로 한다.In an embodiment, the spatial normalization is characterized in that the image is transformed using a nearest-nearest interpolation method by dividing a minimum pixel value from the pixel size of the original image.

실시 예에 있어서, 상기 2차원 컨볼루션 신경망 및 3차원 컨볼루션 신경망은, 수축 경로 및 확장 경로로 구성되는 것을 특징으로 한다.In an embodiment, the 2D convolutional neural network and the 3D convolutional neural network are characterized in that they consist of a contraction path and an expansion path.

실시 예에 있어서, 상기 수축 경로에서는, 상기 입력된 의료 영상들에 대하여, 컨볼루션, 배치 정규화, 활성화 함수 수행 및 맥스 풀링을 순차적으로 수행하는 것을 특징으로 한다.In an embodiment, in the contraction path, convolution, batch normalization, activation function execution, and max pooling are sequentially performed on the input medical images.

실시 예에 있어서, 상기 확장 경로에서는, 업 컨볼루션 및 연결 연산을 수행하여, 상기 수축 경로에서 줄어든 영상의 크기를 늘리고, 상기 수축 경로에서 증가된 채널 수를 감소시키는 것을 특징으로 한다.In an embodiment, in the expansion path, up convolution and concatenation operations are performed to increase the size of the reduced image in the contraction path and reduce the increased number of channels in the contraction path.

실시 예에 있어서, 상기 서로 다른 종류의 의료 영상들은, 삼단면 영상 정보이고, 상기 위치화를 수행하는 단계는, 상기 삼단면 영상 정보에 대한 공간적인 정보를 이용하여 상기 특정 장기의 위치화를 수행하는 것을 특징으로 한다.In an embodiment, the different types of medical images are three-section image information, and the positioning of the specific organ is performed using spatial information on the three-section image information. It is characterized by doing.

실시 예에 있어서, 상기 3차원 컨볼루션 신경망에 입력되는 복수의 3차원 의료 영상들은, 위치화가 수행된 서로 다른 종류의 의료 영상들을 각각 3차원 의료 영상으로 변환한 영상들인 것을 특징으로 한다.In an embodiment, the plurality of 3D medical images input to the 3D convolutional neural network are images obtained by converting different types of medical images on which localization is performed into 3D medical images, respectively.

실시 예에 있어서, 상기 출력하는 단계는, 복수의 3차원 의료 영상들을 드롭아웃 레이어에 입력하여 상기 3차원 컨볼루션 신경망에 입력한 영상과 동일한 크기의 N개(N은 자연수)의 드롭아웃 결과를 출력하고, 상기 드롭아웃 결과를 이용하여 평균값의 확률맵 및 불확실성의 확률맵을 추출하는 것을 특징으로 한다.In an embodiment, the outputting may include N (N is a natural number) dropout results having the same size as the image input to the 3D convolutional neural network by inputting a plurality of 3D medical images to a dropout layer. and extracting a probability map of average values and a probability map of uncertainty using the dropout result.

실시 예에 있어서, 상기 특정 장기를 분할하는 단계는, 상기 불확실성의 확률맵에 근거하여, 의료 영상에서 특정 장기를 분할할 때 발생되는 불확실한 영역을 감소시키고, 협동 학습을 통해 불확실한 영역에서의 분할 정확도를 증가시키는 것을 특징으로 한다.In an embodiment, the segmenting of the specific organ reduces an uncertain region generated when segmenting a specific organ in a medical image based on the probability map of uncertainty, and segmentation accuracy in the uncertain region through cooperative learning. It is characterized by increasing.

본 발명의 다른 실시 예에 따른 의료 영상 분할 장치는, 복부 장기가 촬영된 서로 다른 종류의 의료 영상들을 획득하는 의료 영상 획득부 및 상기 서로 다른 종류의 의료 영상들을 2차원 컨볼루션 신경망에 입력하여 각 의료 영상들에 대한 특정 장기 정보 확률맵을 출력하고, 획득된 복수의 특정 장기 정보 확률맵에 대한 제1 다수투표를 통해 특정 장기의 위치화를 수행하는 제어부를 포함하고, 상기 제어부는, 위치화된 복수의 의료 영상들을 3차원 의료 영상으로 변환하고, 변환된 복수의 3차원 의료 영상들을 3차원 컨볼루션 신경망에 입력하여, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 각각 출력하며, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 이용하여 협동 학습을 수행하고, 협동 학습된 결과에 대한 제2 다수투표를 통해 특정 장기를 분할하는 것을 특징으로 한다.An apparatus for segmenting a medical image according to another embodiment of the present invention includes a medical image acquisition unit that acquires different types of medical images of abdominal organs and inputs the different types of medical images to a 2D convolutional neural network to obtain each of the different types of medical images. A control unit outputting a probability map of specific organ information for medical images and performing localization of a specific organ through a first majority vote on the obtained plurality of specific organ information probability maps, wherein the control unit comprises: The plurality of 3D medical images obtained are converted into 3D medical images, and the converted plurality of 3D medical images are input to a 3D convolutional neural network to obtain a probability map of average values and a probability map of uncertainty for the plurality of 3D medical images. , performing cooperative learning using a probability map of the average value and a probability map of uncertainty for a plurality of 3D medical images, and dividing a specific organ through a second majority vote on the cooperatively learned result. to be characterized

실시 예에 있어서, 상기 특정 장기는, 췌장을 포함하고, 상기 서로 다른 종류의 의료 영상들은, 횡단면, 관상면 및 시상면의 2차원 의료 영상을 포함하는 것을 특징으로 한다.In an embodiment, the specific organ includes the pancreas, and the different types of medical images include transverse, coronal, and sagittal two-dimensional medical images.

실시 예에 있어서, 상기 제어부는, 상기 서로 다른 종류의 의료 영상들에 대하여 데이터 전처리를 수행하며, 상기 서로 다른 종류의 의료 영상들에 대하여 밝기값 정규화 및 공간 정규화를 수행하는 것을 특징으로 한다.In an embodiment, the controller may perform data pre-processing on the different types of medical images, and perform brightness value normalization and space normalization on the different types of medical images.

실시 예에 있어서, 상기 공간 정규화는, 원본 영상의 화소 크기에서 최소 화소 값을 나누어 최근린 보간법을 이용하여 영상을 변환하는 것을 특징으로 한다.In an embodiment, the spatial normalization is characterized in that the image is transformed using a nearest-nearest interpolation method by dividing a minimum pixel value from the pixel size of the original image.

실시 예에 있어서, 상기 2차원 컨볼루션 신경망 및 3차원 컨볼루션 신경망은, 수축 경로 및 확장 경로로 구성되는 것을 특징으로 한다.In an embodiment, the 2D convolutional neural network and the 3D convolutional neural network are characterized in that they consist of a contraction path and an expansion path.

실시 예에 있어서, 상기 수축 경로에서는, 상기 입력된 의료 영상들에 대하여, 컨볼루션, 배치 정규화, 활성화 함수 수행 및 맥스 풀링을 순차적으로 수행하는 것을 특징으로 한다.In an embodiment, in the contraction path, convolution, batch normalization, activation function execution, and max pooling are sequentially performed on the input medical images.

실시 예에 있어서, 상기 확장 경로에서는, 업 컨볼루션 및 연결 연산을 수행하여, 상기 수축 경로에서 줄어든 영상의 크기를 늘리고, 상기 수축 경로에서 증가된 채널 수를 감소시키는 것을 특징으로 한다.In an embodiment, in the expansion path, up convolution and concatenation operations are performed to increase the size of the reduced image in the contraction path and reduce the increased number of channels in the contraction path.

실시 예에 있어서, 상기 서로 다른 종류의 의료 영상들은, 삼단면 영상 정보이고, 상기 제어부는, 상기 삼단면 영상 정보에 대한 공간적인 정보를 이용하여 상기 특정 장기의 위치화를 수행하는 것을 특징으로 한다.In an embodiment, the different types of medical images are three-section image information, and the controller performs positioning of the specific organ using spatial information on the three-section image information. .

실시 예에 있어서, 상기 3차원 컨볼루션 신경망에 입력되는 복수의 3차원 의료 영상들은, 위치화가 수행된 서로 다른 종류의 의료 영상들을 각각 3차원 의료 영상으로 변환한 영상들인 것을 특징으로 한다.In an embodiment, the plurality of 3D medical images input to the 3D convolutional neural network are images obtained by converting different types of medical images on which localization is performed into 3D medical images, respectively.

실시 예에 있어서, 상기 제어부는, 복수의 3차원 의료 영상들을 드롭아웃 레이어에 입력하여 상기 3차원 컨볼루션 신경망에 입력한 영상과 동일한 크기의 N개(N은 자연수)의 드롭아웃 결과를 출력하고, 상기 드롭아웃 결과를 이용하여 평균값의 확률맵 및 불확실성의 확률맵을 추출하는 것을 특징으로 한다.In an embodiment, the controller inputs a plurality of 3D medical images to a dropout layer and outputs N (N is a natural number) dropout results having the same size as the image input to the 3D convolutional neural network. , It is characterized in that a probability map of the average value and a probability map of uncertainty are extracted using the dropout result.

실시 예에 있어서, 상기 제어부는, 상기 불확실성의 확률맵에 근거하여, 의료 영상에서 특정 장기를 분할할 때 발생되는 불확실한 영역을 감소시키고, 협동 학습을 통해 불확실한 영역에서의 분할 정확도를 증가시키는 것을 특징으로 한다.In an embodiment, the control unit reduces an uncertain region generated when a specific organ is segmented in a medical image based on the probability map of uncertainty, and increases segmentation accuracy in the uncertain region through cooperative learning. to be

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system, and a computer readable recording medium recording a computer program for executing the method may be further provided.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명에 따르면, 본 발명에서는 2.5차원 분할 네트워크로 췌장의 위치 정보를 자동으로 추출한 뒤 위치화된 영역에서 불확실한 영역에 대한 정보를 고려한 3차원 분할 네트워크를 이용해 췌장을 정확하게 분할할 수 있는 새로운 의료 영상 분할 방법을 제공할 수 있다.According to the present invention, in the present invention, after automatically extracting location information of the pancreas with a 2.5-dimensional segmentation network, a new medical image capable of accurately segmenting the pancreas using a 3-dimensional segmentation network that takes into account information on uncertain regions in the localized area Split method can be provided.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 일 실시 예에 따른 의료 영상 분할 장치를 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시 예에 따른 의료 영상 분할 방법을 설명하기 위한 흐름도이다.
도 3은 의료 영상 중 하나인 복부 CT 영상에서 췌장의 특성을 설명하기 위한 개념도이다.
도 4a, 도 4b, 도 4c, 도 5, 도 6 및 도 7은 도 2에서 살펴본 의료 영상 분할 방법을 설명하기 위한 개념도이다.
1 is a conceptual diagram illustrating an apparatus for segmenting a medical image according to an embodiment of the present invention.
2 is a flowchart illustrating a method for segmenting a medical image according to an embodiment of the present invention.
3 is a conceptual diagram for explaining characteristics of the pancreas in an abdominal CT image, which is one of medical images.
4A, 4B, 4C, 5, 6, and 7 are conceptual diagrams for explaining the medical image segmentation method described in FIG. 2 .

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only these embodiments are intended to complete the disclosure of the present invention, and are common in the art to which the present invention belongs. It is provided to fully inform the person skilled in the art of the scope of the invention, and the invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements. Like reference numerals throughout the specification refer to like elements, and “and/or” includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

설명에 앞서 본 명세서에서 사용하는 용어의 의미를 간략히 설명한다. 그렇지만 용어의 설명은 본 명세서의 이해를 돕기 위한 것이므로, 명시적으로 본 발명을 한정하는 사항으로 기재하지 않은 경우에 본 발명의 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.Prior to the description, the meaning of the terms used in this specification will be briefly described. However, it should be noted that the description of terms is intended to help the understanding of the present specification, and is not used in the sense of limiting the technical spirit of the present invention unless explicitly described as limiting the present invention.

본 명세서에서 '의료 영상 분할 장치'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. In this specification, the 'medical image segmentation device' includes all various devices capable of providing results to users by performing calculation processing.

예를 들어, ' 의료 영상 분할 장치'는 컴퓨터, 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. For example, a 'medical image segmentation device' is not only a computer, desktop PC, and notebook (note book), but also a smart phone, tablet PC, cellular phone, and PC phone (Personal Communication). Service phone), synchronous/asynchronous IMT-2000 (International Mobile Telecommunication-2000) mobile terminal, Palm PC (Palm Personal Computer), Personal Digital Assistant (PDA), etc. may also be applicable.

또한, '의료 영상 분할 장치'는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버와 통신을 수행할 수 있다.Also, the 'medical image segmentation device' may receive a request from a client and communicate with a server that processes information.

본 발명의 일 실시 예에 따른 의료 영상 분할 장치는, 도 1에서 설명하는 구성요소들 중 적어도 하나를 포함하도록 구현될 수 있다.A medical image segmentation apparatus according to an embodiment of the present invention may be implemented to include at least one of the components described in FIG. 1 .

도 1은 본 발명의 일 실시 예에 따른 의료 영상 분할 장치를 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating an apparatus for segmenting a medical image according to an embodiment of the present invention.

도 1을 살펴보면, 본 발명의 의료 영상 분할 장치(100)는, 복부 장기가 촬영된 의료 영상을 획득하는 의료 영상 획득부(110)를 포함할 수 있다.Referring to FIG. 1 , the medical image segmentation apparatus 100 according to the present invention may include a medical image capture unit 110 that acquires a medical image of an abdominal organ photographed.

여기서, 복부 장기가 촬영된 의료 영상은, 복부 CT(Computed Tomography) 영상을 포함할 수 있다.Here, the medical image of the abdominal organs may include an abdominal computed tomography (CT) image.

구체적으로, 상기 의료 영상 획득부(110)는, 복부 장기가 촬영된 서로 다른 종류의 의료 영상들을 획득(수집, 촬영)할 수 있다.Specifically, the medical image acquisition unit 110 may acquire (collect, photograph) different types of medical images in which abdominal organs are imaged.

여기서, 상기 서로 다른 종류의 의료 영상들은, 횡단면(axial plane), 관상면(coronal plane), 시상면(sagittal plane)의 2차원 의료 영상(2차원 복부 CT 영상)을 포함할 수 있다.Here, the different types of medical images may include axial plane, coronal plane, and sagittal plane 2D medical images (2D abdominal CT images).

의료 영상 획득부(110)는, 의료 영상을 촬영하도록 형성된 촬영 장치 또는 촬영된 의료 영상을 외부 장치로부터 수신하도록 형성된 통신부를 포함할 수 있다.The medical image acquisition unit 110 may include a photographing device configured to capture a medical image or a communication unit configured to receive the captured medical image from an external device.

메모리(120)는, 의료 영상 획득부(110) 및 제어부(130)에서 생성/관리된 데이터, 이미지, 각종 정보 및 응용 프로그램 등을 저장하도록 형성될 수 있다.The memory 120 may be configured to store data, images, various types of information, and application programs generated/managed by the medical image acquisition unit 110 and the controller 130 .

메모리(120)는, 제어부(130)와 전기적으로 연결된다. 메모리(120)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(120)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(120)는 제어부(130)의 처리 또는 제어를 위한 프로그램 등, 의료 영상 분할 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The memory 120 is electrically connected to the control unit 130 . The memory 120 may store basic data for the unit, control data for controlling the operation of the unit, and input/output data. The memory 120 may be a variety of storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc. in terms of hardware. The memory 120 may store various data for overall operations of the medical image segmentation apparatus 100, such as programs for processing or control by the controller 130.

제어부(130)는 응용 프로그램과 관련된 동작 외에도, 통상적으로 의료 영상 분할 장치(100)의 전반적인 동작을 제어한다. 제어부(130)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The controller 130 controls general operations of the medical image segmentation apparatus 100 in addition to operations related to application programs. The control unit 130 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the components described above or by driving an application program stored in a memory.

이하에서는, 의료 영상에서 특정 장기를 분할하는 방법에 대하여 첨부된 도면을 참조하여 보다 구체적으로 살펴보기로 한다.Hereinafter, a method of segmenting a specific organ in a medical image will be described in more detail with reference to the accompanying drawings.

도 2는 본 발명의 일 실시 예에 따른 의료 영상 분할 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method for segmenting a medical image according to an embodiment of the present invention.

도 3은 의료 영상 중 하나인 복부 CT 영상에서 췌장의 특성을 설명하기 위한 개념도이고, 도 4a, 도 4b, 도 4c, 도 5, 도 6 및 도 7은 도 2에서 살펴본 의료 영상 분할 방법을 설명하기 위한 개념도이다.3 is a conceptual diagram for explaining the characteristics of the pancreas in an abdominal CT image, which is one of the medical images, and FIGS. 4a, 4b, 4c, 5, 6, and 7 explain the medical image segmentation method described in FIG. 2. It is a concept for

도 2를 참조하면, 의료 영상 분할 장치의 제어부(130)는, 복부 장치가 촬영된 서로 다른 종류의 의료 영상(복부 CT 영상)들을 획득하도록 의료 영상 획득부(110)를 제어할 수 있다(S210).Referring to FIG. 2 , the controller 130 of the medical image segmentation device may control the medical image acquisition unit 110 to acquire different types of medical images (abdominal CT images) captured by the abdominal device (S210). ).

제어부(130)는, 상기 서로 다른 종류의 의료 영상들을 2차원 컨볼루션 신경망에 입력하여 각 의료 영상들에 대한 특정 장기 정보 확률맵을 출력하고, 획득된 복수의 특정 장기 정보 확률맵에 대한 제1 다수투표를 통해 특정 장기의 위치화를 수행할 수 있다(S220).The controller 130 inputs the different types of medical images to a 2D convolutional neural network, outputs a probability map of specific organ information for each medical image, and generates a first information probability map for a plurality of obtained specific organ information probability maps. Positioning of a specific organ can be performed through a majority vote (S220).

제어부(130)는, 위치화된 복수의 의료 영상들을 3차원 의료 영상으로 변환하고, 변환된 복수의 3차원 의료 영상들을 3차원 컨볼루션 신경망에 입력하여, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 각각 출력할 수 있다(S230).The controller 130 converts the plurality of positioned medical images into 3D medical images, inputs the converted plurality of 3D medical images to the 3D convolutional neural network, and inputs an average value of the plurality of 3D medical images. A probability map of and a probability map of uncertainty may be output respectively (S230).

제어부(130)는, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 이용하여 협동 학습을 수행하고, 협동 학습된 결과에 대한 제2 다수투표를 통해 특정 장기를 분할할 수 있다(S240).The control unit 130 performs cooperative learning using a probability map of average values and a probability map of uncertainty for a plurality of 3D medical images, and divides a specific organ through a second majority vote on the cooperatively learned result. It can (S240).

이하에서는, 설명의 편의를 위해, 의료 영상과 복부 CT 영상을 혼용하여 사용하고, 특정 장기가 췌장인 것으로 예를 들어 설명하기로 한다.Hereinafter, for convenience of description, a medical image and an abdominal CT image will be used interchangeably, and a specific organ will be described as being the pancreas as an example.

도 3에 도시된 것과 같이, 췌장은 (a)와 같이 위, 간, 비장, 소장, 간문맥 등의 주변 장기와 유사한 밝기값을 가지며, (b)와 같이 각 영상 슬라이스에서 보이는 췌장의 형태가 상이하며, (c)와 같이 환자마다 췌장의 형태가 다양하다는 특징이 있다.As shown in FIG. 3, the pancreas has a brightness value similar to that of the surrounding organs such as the stomach, liver, spleen, small intestine, and portal vein as shown in (a), and the shape of the pancreas seen in each image slice is different as shown in (b). As shown in (c), the shape of the pancreas varies from patient to patient.

이에, 본 발명의 복부 CT 영상에서 췌장을 최적화된 방법으로 분할하는 방법을 제공할 수 있다.Accordingly, the method of segmenting the pancreas in an optimized method in an abdominal CT image of the present invention can be provided.

의료 영상 분할 장치의 제어부(130)는, 복부 CT 영상에서 췌장 자동 분할을 수행할 수 있다.The controller 130 of the medical image segmentation apparatus may automatically segment the pancreas in the abdominal CT image.

도 4a를 참조하면, 본 발명의 의료 영상 분할 장치는, 네트워크 입력 영상 전처리, 딥 컨볼루션 신경망을 기반으로 한 2차원 분할 네트워크를 이용하여 췌장 자동 위치화를 수행할 수 있다. 또한, 의료 영상 분할 장치는, 불확실한 영역에 대한 정보를 함께 고려한 3차원 분할 네트워크를 이용하여 췌장 자동 분할을 수행할 수 있다.Referring to FIG. 4A , the apparatus for segmenting a medical image according to the present invention may perform automatic positioning of the pancreas using network input image preprocessing and a 2D segmentation network based on a deep convolutional neural network. In addition, the medical image segmentation apparatus may perform automatic segmentation of the pancreas using a 3D segmentation network in which information on an uncertain region is also considered.

한편, 본 발명은, 영상에서 발생할 수 있는 불확실성의 정도를 정량화하여 분할 모델에 적용하고, 협동학습을 통해 분할 성능을 개선할 수 있다.Meanwhile, in the present invention, the degree of uncertainty that may occur in an image is quantified and applied to a segmentation model, and segmentation performance can be improved through cooperative learning.

예를 들어, 도 4b에 도시된 것과 같이, 본 발명은, 영상에서 불확실한 영역에 대한 정보를 정량화하기 위해 특정 장치의 불확실성을 고려한 3D U-net(3차원 분할 네트워크)를 이용하여 불확실성을 정량화하고, 이를 분할 모델(즉, 췌장 자동 분할)에 반영할 수 있다. 또한, 도 4c에 도시된 것과 같이, 본 발명은, 서로 다른 종류의 영상(예를 들어, 횡단면(axial plane), 관상면(coronal plane), 시상면(sagittal plane))에 대하여 각각 특정 장기(예를 들어, 췌장)의 위치에 대한 불확실성을 정량화하고, 각 영상에 대하여 협동 학습(co-training’s prediction)을 통해 췌장 자동 분할을 수행할 수 있다.For example, as shown in FIG. 4B, the present invention quantifies uncertainty using a 3D U-net (three-dimensional segmentation network) considering the uncertainty of a specific device in order to quantify information about an uncertain region in an image, and , it can be reflected in the segmentation model (ie, automatic segmentation of the pancreas). In addition, as shown in FIG. 4C, the present invention provides specific organs (for example, axial plane, coronal plane, and sagittal plane) of different types of images. For example, uncertainty about the location of the pancreas may be quantified, and automatic segmentation of the pancreas may be performed for each image through co-training's prediction.

이를 통해, 본 발명은, 불확실성에 대한 정량화를 수행하고, 협동학습을 수행함으로써, 분할 성능을 개선할 수 있다.Through this, the present invention can improve segmentation performance by performing quantification of uncertainty and performing cooperative learning.

우선, 데이터 전처리 과정에 대하여 살펴보면 다음과 같다.First, the data pre-processing process will be described as follows.

제어부(130)는, 획득된 서로 다른 종류의 의료 영상들에 대하여 데이터 전처리를 수행할 수 있다.The controller 130 may perform data pre-processing on acquired medical images of different types.

복부 CT 영상의 촬영 장비와 영상 촬영 프로토콜의 차이로 인해 발생하는 데이터 간의 차이는 네트워크의 분할 성능을 감소시킬 수 있다. Differences between data caused by differences in imaging equipment and imaging protocols for abdominal CT images can reduce the segmentation performance of the network.

이에 제어부(130)는, 자동 분할을 수행하기 전 복부 CT 영상 간 차이를 감소시키기 위해 밝기값 정규화 및 공간 정규화를 수행한다.Accordingly, the controller 130 performs brightness normalization and spatial normalization to reduce the difference between abdominal CT images before performing automatic segmentation.

즉, 앞서 살핀 바와 같이, 제어부(130)는, 서로 다른 종류의 의료 영상들인 횡단면, 관상면 및 시상면의 2차원 의료 영상들에 대하여 밝기값 정규화 및 공간 정규화를 수행할 수 있다.That is, as described above, the controller 130 may perform brightness normalization and space normalization on 2D medical images of different types, such as transverse, coronal, and sagittal planes.

복부 CT 영상에서 서로 다른 분포를 갖고 있는 영상의 밝기값 간 범위를 맞춰주기 위해 영상의 밝기값을 수학식 1을 통해 0~255 사이로 정규화한다.In the abdominal CT image, in order to match the range of brightness values of images having different distributions, the brightness values of the images are normalized to between 0 and 255 through Equation 1.

Figure pat00001
Figure pat00001

이 때, I_org는 원본 영상의 밝기값, I_max와 I_min은 각각 최소 임계치와 최대 임계치로써, 최소 임계치는 배경 영역의 밝기값이 포함되도록 설정하고, 최대 임계치는 뼈 영역의 밝기값이 포함되도록 설정한다. 임계치에 해당하는 값은 실험을 통하여 각각 ?174HU, 326HU로 산정될 수 있다.At this time, I_org is the brightness value of the original image, and I_max and I_min are the minimum and maximum thresholds, respectively. The minimum threshold is set to include the brightness value of the background area, and the maximum threshold is set to include the brightness value of the bone area. . Values corresponding to the threshold may be calculated as -174HU and 326HU, respectively, through experiments.

환자 간 화소 공간 범위의 차이를 줄이기 위해 실험데이터의 화소 간격 범위인 0.6641mm~0.9766mm에서 최소 화소 크기에 해당하는 0.6641mm로 실험 데이터 셋의 공간 정규화를 수행한다. In order to reduce the difference in pixel space range between patients, spatial normalization of the experimental data set is performed from the pixel spacing range of 0.6641 mm to 0.9766 mm in the experimental data to 0.6641 mm corresponding to the minimum pixel size.

공간 정규화는 원본 영상의 화소 크기에서 최소 화소 값을 나누어 최근린 보간법(nearest interpolation)을 이용하여 영상을 변환한다.Spatial normalization transforms an image by dividing the minimum pixel value from the pixel size of the original image using nearest interpolation.

이후, 제어부(130)는, 삼단면 2.5D U-NET 기반의 췌장 자동 위치화를 수행할 수 있다.Thereafter, the controller 130 may perform pancreas automatic positioning based on the three-section 2.5D U-NET.

상기 U-net은, 생물 의학 이미지 세분화(Segmentation)를 위해 개발된 컨볼루션 신경망을 의미하며, 2차원 컨볼루션 신경망(2D U-net) 및 3차원 컨볼루션 신경망(3D U-net)을 포함한다.The U-net refers to a convolutional neural network developed for biomedical image segmentation, and includes a 2D convolutional neural network (2D U-net) and a 3D convolutional neural network (3D U-net). .

U-net은, 도 5에 도시된 것과 같이, 네트워크 형태가 알파벳 U와 형태가 비슷하게 형성될 수 있다.As shown in FIG. 5, U-net may have a network shape similar to the alphabet U.

U-net은 생물 의학 이미지 세분화에서 탁월한 효과를 보이는 세그멘테이션 네트워크(분할 네트워크)이다. U-net is a segmentation network (segmentation network) that shows excellent effects in biomedical image segmentation.

기존의 CNN이 주로 단순 분류(Classification)에 쓰였다면, U-net은 분류뿐만 아니라 분할(Segmentation)도 가능하다는 강점을 가진다.If existing CNNs were mainly used for simple classification, U-net has the strength of being able to perform segmentation as well as classification.

또한, U-net은 Segmentation 시 오버랩 타일(Overlab-tile) 전략을 사용하여 기존의 Segmentation 방식의 문제점을 해결할 수 있다는 장점을 가진다.In addition, U-net has the advantage of being able to solve the problems of the existing segmentation method by using an overlap-tile strategy during segmentation.

상기 오버랩 타일 전략은 사이즈가 큰 영상을 Patch 단위로 잘라 입력(input)으로 넣는 것을 말한다.The overlap tile strategy refers to cutting a large-sized image in patch units and inputting it as an input.

또한, U-net은, Patch 사이즈에 따른 트레이드 오프(trade-off)에 빠지지 않는다는 장점을 갖는다.In addition, U-net has the advantage of not falling into a trade-off according to the patch size.

일반적으로, 큰 사이즈의 Patch를 사용할 경우, 넓은 범위의 이미지를 한번에 인식하여 콘텍스트(context) 인식에는 큰 효과가 있지만, 위치화(localization) 정확도가 감소되고, 작은 사이즈의 Patch를 사용할 경우, localization 정확도는 증가하지만 인식할 수 있는 Context가 협소해진다.In general, when large-sized patches are used, a wide range of images are recognized at once, which has a great effect on context recognition, but localization accuracy is reduced. When small-sized patches are used, localization accuracy is greatly reduced. increases, but the recognizable context narrows.

그러나, U-net의 네트워크 구조에서는, 수축 경로(Contracting Path)에서는 콘텍스트(context) 인식을, 확장 경로(expanding path)에서는 위치화(localization)을 수행하여, 패치(Patch) 사이즈에 따른 트레이드 오프(trade-off)에 빠지지 않는다는 장점이 있다.However, in the network structure of U-net, context recognition is performed on the contracting path and localization is performed on the expanding path, resulting in a trade-off according to the patch size ( It has the advantage of not falling into a trade-off.

본 명세서에서 설명하는 컨볼루션 신경망은, 딥 컨볼루션 인공 신경망(Deep Convolutional Neural Network; DCNN)을 의미할 수 있으며, 위에서 설명한 U-net일 수 있다.The convolutional neural network described herein may mean a deep convolutional neural network (DCNN), and may be the U-net described above.

도 5를 참조하여 상기 컨볼루션 신경망, 즉 U-net에 대하여 설명하면 다음과 같다.Referring to FIG. 5, the convolutional neural network, that is, U-net, will be described as follows.

U-net 네트워크는, convolution encoder에 해당하는 수축 경로(Contracting Path, 빨간 박스)와, convolution decoder에 해당하는 확장 경로(Expanding Path)가 가운데를 중심으로 대칭형태를 이룰 수 있다.In the U-net network, a contracting path (red box) corresponding to the convolution encoder and an expanding path corresponding to the convolution decoder may form a symmetrical shape around the center.

U-net 네트워크는, 확장 경로에서 업 샘플링(Upsampling)을 수행할 때, 정확한 위치화(Localization)을 위해, 수축 경로의 특징(Feature)를 카피 앤 크롭(Copy and Crop)하여, 연속화(Concatenation)하는 구조를 이를 수 있다.When upsampling is performed in the expansion path, the U-net network copies and crops the features of the contraction path for accurate localization, and concatenation structure can be achieved.

구체적으로, 수축 경로(Contracting Path)는, Convolution network 구조를 가지며, 활성화 함수로 ReLU 함수를 사용하고, 2x2 맥스 풀링(max pooling)을 이용해 사이즈를 줄이며 다음 block으로 넘어간다.Specifically, the contracting path has a convolution network structure, uses the ReLU function as an activation function, reduces the size using 2x2 max pooling, and moves on to the next block.

U-net 네트워크는, 다음 block로 넘어간 후 이전 feature channel 개수보다 2배 많은 channel을 feature 추출에 사용한다.After moving to the next block, the U-net network uses twice as many channels as the number of previous feature channels for feature extraction.

확장 경로(Expanding Path)는 Contracting 과정에서 줄어든 사이즈를 키우는 Up-convolution block을 사용한다.The expanding path uses an up-convolution block that increases the size reduced in the contracting process.

2x2 up-convolution(업 컨볼루션)을 사용하고, 활성화 함수로 ReLU를 사용할 수 있다.You can use 2x2 up-convolution and use ReLU as the activation function.

U-net 네트워크는, 다음 block로 넘어간 후 이전 feature channel 개수보다 2배 적은 channel을 Localization에 사용할 수 있다.After moving to the next block, the U-net network can use twice as many channels for localization as the number of previous feature channels.

또한, U-net 네트워크는, Contracting Path의 Feature를 Copy and Crop하여 Concatenation 함으로써 이미지 보상처리와 더 정확한 Localization을 하는 구조를 가지고 있다. In addition, the U-net network has a structure that performs image compensation processing and more accurate localization by copying and cropping the features of the contracting path and concatenating them.

U-net 네트워크는, 마지막 Final Layer에서 1x1 convolution을 사용하여 2개의 클래스로 이미지를 분류할 수 있다.The U-net network can classify images into two classes using 1x1 convolution in the last final layer.

본 발명의 의료 영상 분할 장치 및 방법은, 앞서 설명한 U-net을 포함하는 컨볼루션 신경망을 이용하여, 복부 CT 영상에서 췌장을 자동으로 분할할 수 있다.The medical image segmentation apparatus and method of the present invention can automatically segment the pancreas in an abdominal CT image using the convolutional neural network including the U-net described above.

종래에는, 복부 CT 영상에서 췌장이 차지하는 영역이 작아 복부 CT 영상의 전 영역을 이용해 췌장 분할을 진행할 경우 췌장이 과소분할되는 한계가 있다. Conventionally, since the area occupied by the pancreas in an abdominal CT image is small, when pancreas segmentation is performed using the entire area of the abdominal CT image, there is a limitation in that the pancreas is undersegmented.

이에 복부 CT 영상에서 췌장 위치를 효과적으로 검출한 후 분할 단계에 지역적 문맥 정보에 집중할 수 있는 췌장 영역 정보를 제공하는 것이 필요하다. Therefore, it is necessary to provide pancreatic region information that can focus on regional context information in the segmentation step after effectively detecting the location of the pancreas in the abdominal CT image.

본 발명의 의료 영상 분할 장치 및 방법은, 췌장의 공간적 형태를 유추할 수 있는 2.5차원 평면 정보를 활용할 수 있는 복부 CT 영상을 사용한 2차원 U-Net 기반 분할 네트워크로 췌장 위치 정보를 추출하는 방법을 제공할 수 있다.The medical image segmentation apparatus and method of the present invention is a method for extracting pancreas location information with a 2D U-Net based segmentation network using an abdominal CT image capable of utilizing 2.5D plane information capable of inferring the spatial shape of the pancreas. can provide

제어부(130)는, 전처리된 의료 영상들을 생물 의학 이미지 세분화를 위한 컨볼루션 신경망(예를 들어, U-net 네트워크)에 입력하고, 입력된 의료 영상들에 대하여 상기 컨볼루션 신경망으로부터 특정 장기(예를 들어, 췌장)의 형상 정보 확률맵을 출력할 수 있다.The controller 130 inputs the preprocessed medical images to a convolutional neural network (eg, U-net network) for biomedical image segmentation, and from the convolutional neural network to the input medical images, a specific organ (eg, For example, a shape information probability map of the pancreas) may be output.

도 4b의 stage 1을 참조하면, 제어부(130)는, 상기 서로 다른 종류의 의료 영상들을 2차원 컨볼루션 신경망에 입력하여 각 의료 영상들에 대한 특정 장기 정보 확률맵을 출력하고, 획득된 복수의 특정 장기 정보 확률맵에 대한 제1 다수투표를 통해 특정 장기의 위치화를 수행할 수 있다.제어부(130)는, 입력 영상으로 데이터 전처리를 수행한 512×512 해상도의 횡단면(axial plane), 관상면(coronal plane), 시상면(sagittal plane)의 2차원 복부 CT 영상을 사용할 수 있다.Referring to stage 1 of FIG. 4B, the control unit 130 inputs the different types of medical images to a 2D convolutional neural network, outputs a probability map of specific organ information for each medical image, and outputs a plurality of acquired The positioning of a specific organ can be performed through a first majority vote on the specific organ information probability map. The control unit 130 performs data preprocessing on the input image, 512×512 resolution axial plane, coronal Two-dimensional abdominal CT images of the coronal plane and the sagittal plane can be used.

상기 컨볼루션 신경망은, 2차원 U-net일 수 있다.The convolutional neural network may be a two-dimensional U-net.

상기 컨볼루션 신경망은, 수축 경로 및 확장 경로로 구성될 수 있다.The convolutional neural network may include a contraction path and an expansion path.

상기 수축 경로에서는, 입력된 의료 영상에 대하여, 컨볼루션, 배치 정규화, 활성화 함수 수행 및 맥스 풀링을 순차적으로 수행할 수 있다.In the contraction path, convolution, batch normalization, activation function execution, and max pooling may be sequentially performed on the input medical image.

구체적으로, 2차원 U-Net은 수축 경로(contracting path)와 확장 경로(expanding path)로 구성될 수 있다.Specifically, the 2D U-Net may be composed of a contracting path and an expanding path.

제어부(130)는, 수축 경로에서 두 번의 3×3 컨볼루션, 배치 정규화(batch normalization; BN), rectified linear unit(ReLU) 함수를 수행한 후 스트라이드(stride) 2인 2×2 맥스 풀링(max-pooling)을 순차적으로 수행하는 단계를 여섯 번 반복할 수 있다.The control unit 130 performs two 3 × 3 convolutions, batch normalization (BN), and rectified linear unit (ReLU) functions in the contraction path, and then performs 2 × 2 max pooling (max with a stride of 2) -pooling) can be repeated six times.

수축 경로의 각 단계에서 수행하는 2×2 맥스 풀링을 통해 특징맵의 크기는 절반씩 감소하며 특징맵의 채널(channel) 수는 두 배씩 증가한다. Through 2×2 max pooling performed at each stage of the contraction path, the size of the feature map is reduced by half and the number of channels of the feature map is doubled.

확장 경로에서는, 업 컨볼루션 및 연결 연산을 수행하여, 상기 수축 경로에서 줄어든 영상의 크기를 늘리고, 상기 수축 경로에서 증가된 채널 수를 감소시킬 수 있다.In the expansion path, up convolution and concatenation operations are performed to increase the size of the reduced image in the contraction path and reduce the increased number of channels in the contraction path.

구체적으로, 제어부(130)는, 확장 경로에서 2×2 업 컨볼루션(up-convolution)을 수행한 후, 확장 경로와 대등한 수축 경로의 마지막 특징 맵을 결합하는 연결 연산(skip connection)을 수행하고 두 번의 3×3 컨볼루션, 배치 정규화, ReLU 함수를 수행하는 단계를 여섯 번 반복할 수 있다.Specifically, the control unit 130 performs a 2×2 up-convolution on the expansion path, and then performs a skip connection combining the last feature map of the expansion path and the equivalent contraction path. and performing two 3×3 convolutions, batch normalization, and the ReLU function can be repeated six times.

확장 경로의 각 단계에서 수행하는 2×2 업 컨볼루션을 통해 특징맵의 크기는 두 배씩 증가되며 특징맵의 채널 수는 절반씩 감소한다. Through 2×2 up convolution performed at each stage of the extension path, the size of the feature map is doubled and the number of channels of the feature map is reduced by half.

제어부(130)는, 최종으로 1×1 컨볼루션을 수행하여 입력 영상과 동일한 크기의 췌장 형상 정보 확률맵을 출력한다. 확률맵은 0에서 1 사이의 확률값을 가진다.The controller 130 finally performs 1×1 convolution and outputs a pancreas shape information probability map having the same size as the input image. The probability map has a probability value between 0 and 1.

제어부(130)는, 입력된 의료 영상들에 대하여 제1 다수 투표(Majority Voting)을 적용하여 상기 특정 장기의 위치화를 수행할 수 있다.The controller 130 may perform the positioning of the specific organ by applying a first majority vote to input medical images.

구체적으로, 제어부(130)는, 횡단면, 관상면, 시상면의 입력 영상을 사용하여 획득한 N개(N은 자연수)(예를 들어, 세 개)의 분할 결과를 다수투표(majority voting; MV) 기법을 이용하여 췌장 위치화를 수행할 수 있다. Specifically, the controller 130 performs a majority vote (MV) on N (N is a natural number) (e.g., three) division results obtained using input images of a transverse plane, a coronal plane, and a sagittal plane. ) technique can be used to perform pancreatic localization.

제어부(130)는, 다수투표 결과에서 발생하는 과소적합으로 인한 위치화 오류를 줄이기 위해 여백이 포함되도록 위치화 영역을 설정할 수 있다.The control unit 130 may set the positioning area to include blank spaces in order to reduce positioning errors due to underfitting resulting from the majority vote.

이 때, 여백에 해당하는 값은 실험을 통하여 각 축 당 30-픽셀로 설정한다. 도 6은 복부 CT 영상에서의 췌장 자동 위치화 결과로 도 6(a), 도 6(b), 도 6(c)는 각각 횡단면, 관상면, 시상면 입력 영상만을 사용하였을 때의 위치화 결과를 나타내고, 도 6(d)는 삼단면 영상 정보를 다수 투표 방식을 사용하였을 때의 위치화 결과를 나타낸다. At this time, the value corresponding to the margin is set to 30-pixels for each axis through experiments. Figure 6 shows the result of pancreas automatic positioning in the abdominal CT image, and Figures 6(a), 6(b), and 6(c) show the positioning results when using only transverse, coronal, and sagittal input images, respectively. 6(d) shows the positioning result when the majority voting method is used for the three-section image information.

한 단면의 2차원 평면 정보만을 이용하여 위치화를 수행하는 경우 공간 정보를 고려하지 않아 발생하는 다른 영역으로의 잘못된 분할로 인해 낮은 위치화 정확도를 보이는 반면, 본 발명은, 도 6(d)에 도시된 것과 같이, 다수 투표 방식을 이용해 공간적인 정보를 추가적으로 고려하여 췌장 영역으로의 정확한 위치화를 수행할 수 있다.In the case of performing positioning using only 2D plane information of one cross section, low positioning accuracy is shown due to incorrect segmentation into other regions caused by not considering spatial information, whereas the present invention, in FIG. 6(d) As shown, accurate positioning to the pancreatic region can be performed by additionally considering spatial information using a majority voting method.

이후, 본 발명의 의료 영상 분할 장치 및 방법은, 불확실성을 고려하여 췌장을 자동으로 분할하는 방법을 제공할 수 있다.Then, the medical image segmentation apparatus and method of the present invention may provide a method of automatically segmenting the pancreas in consideration of uncertainty.

도 4b의 Stage 2를 참조하면, 본 발명의 제어부(130)는, 위치화된 복수의 의료 영상들을 3차원 의료 영상으로 변환하고, 변환된 복수의 3차원 의료 영상들을 3차원 컨볼루션 신경망에 입력하여, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 각각 출력할 수 있다.Referring to Stage 2 of FIG. 4B, the controller 130 of the present invention converts a plurality of positioned medical images into a 3D medical image, and inputs the converted plurality of 3D medical images to a 3D convolutional neural network. Thus, a probability map of an average value and a probability map of uncertainty for a plurality of 3D medical images may be output, respectively.

또한, 제어부(130)는, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 이용하여 협동 학습을 수행하고, 협동 학습된 결과에 대한 제2 다수투표를 통해 특정 장기를 분할할 수 있다.In addition, the controller 130 performs cooperative learning using a probability map of an average value and a probability map of uncertainty for a plurality of 3D medical images, and selects a specific organ through a second majority vote on the cooperatively learned result. can be divided

앞서 설명한 서로 다른 종류의 의료 영상들은, 3차원 의료 영상일 수 있다.The different types of medical images described above may be 3D medical images.

이 때, 상기 컨볼루션 신경망은, 3차원 컨볼루션 신경망(즉, 3차원 U-net)일 수 있다.In this case, the convolutional neural network may be a 3D convolutional neural network (ie, a 3D U-net).

상기 3차원 컨볼루션 신경망에 입력되는 복수의 3차원 의료 영상들은, 위치화가 수행된 서로 다른 종류의 의료 영상들을 각각 3차원 의료 영상으로 변환한 영상들일 수 있다. 즉, 상기 복수의 3차원 의료 영상들은, 위치화된 횡단면의 3차원 영상, 위치화된 관상면의 3차원 영상 및 위치화된 시상면의 3차원 영상을 포함할 수 있다.The plurality of 3D medical images input to the 3D convolutional neural network may be images obtained by converting medical images of different types on which localization is performed into 3D medical images, respectively. That is, the plurality of 3D medical images may include a positioned 3D image of a cross section, a 3D image of a positioned coronal plane, and a 3D image of a positioned sagittal plane.

종래 기술인 도 4a에 비해, 본 발명은, 도 4b를 참조하면, 하나의 3차원 의료 영상만을 3차원 컨볼루션 신경망(또는 드롭아웃 레이어)에 입력하는 것이 아닌, 협동 학습을 위해, 복수의 3차원 의료 영상을 3차원 컨볼루션 신경망(또는 드롭아웃 레이어)에 입력하고, 각 3차원 의료 영상에 대하여 평균값의 확률맵 및 불확실성의 확률맵을 출력할 수 있다.Compared to the prior art of FIG. 4A, the present invention, referring to FIG. 4B, does not input only one 3D medical image to a 3D convolutional neural network (or dropout layer), but instead uses a plurality of 3D medical images for cooperative learning. A medical image may be input to a 3D convolutional neural network (or dropout layer), and a probability map of an average value and a probability map of uncertainty may be output for each 3D medical image.

구체적으로, 제어부(130)는, 복수의 3차원 의료 영상들을 드롭아웃 레이어에 입력하여 상기 3차원 컨볼루션 신경망에 입력한 영상과 동일한 크기의 N개(N은 자연수)의 드롭아웃 결과를 출력하고, 상기 드롭아웃 결과를 이용하여 평균값의 확률맵 및 불확실성의 확률맵을 추출할 수 있다.도 4c를 참조하면, 본 발명의 제어부(130)는, 각 3차원 의료 영상들(Axial plane, Coronal plane, Sagittal plane)에 대하여 산출된 평균값의 확률맵과 불확실성의 확률맵을 이용하여 협동 학습을 수행할 수 있다.Specifically, the controller 130 inputs a plurality of 3D medical images to the dropout layer and outputs N (N is a natural number) dropout results having the same size as the image input to the 3D convolutional neural network. , a probability map of average values and a probability map of uncertainty may be extracted using the dropout result. Referring to FIG. , Sagittal plane), cooperative learning can be performed using the probability map of the calculated average value and the probability map of uncertainty.

각 3차원 의료 영상들에서 추출된 평균값의 확률맵과 불확실성의 확률맵을 이용하여 각 3차원 의료 영상들에 대한 예측값(prediction)을 산출하고, 이를 이용하여 협동 학습을 수행하여 협동 학습 예측값(Co-traingins’ prediction)을 산출할 수 있다.A prediction value for each 3D medical image is calculated using the probability map of the average value and the probability map of uncertainty extracted from each 3D medical image, and cooperative learning is performed using the predicted value (Co). -trainingins' prediction) can be calculated.

제어부(130)는, 상기 불확실성의 확률맵에 근거하여, 의료 영상에서 특정 장기를 분할할 때 발생되는 불확실한 영역을 감소시키고, 협동 학습을 통해 불확실한 영역에서의 분할 정확도를 증가시킬 수 있다.Based on the probability map of uncertainty, the control unit 130 may reduce an uncertain region generated when segmenting a specific organ in a medical image, and increase segmentation accuracy in an uncertain region through cooperative learning.

구체적으로, 본 발명은 불확실성을 고려한 3D U-Net 기반의 췌장 자동 분할 방법을 제공할 수 있다.Specifically, the present invention can provide a method for automatically segmenting the pancreas based on 3D U-Net in consideration of uncertainty.

공간 정보를 고려하지 않는 2차원 네트워크를 이용하여 췌장을 분할할 경우 각 슬라이스에서 보이는 췌장의 형태가 상이하여 췌장 머리 혹은 꼬리 부분에서 과소 분할이 발생하며 췌장의 경계 부분에서의 분할 정확도가 떨어지는 한계가 있다. When the pancreas is segmented using a 2D network that does not consider spatial information, the shape of the pancreas seen in each slice is different, resulting in under-segmentation in the head or tail of the pancreas, and poor segmentation accuracy at the border of the pancreas. there is.

또한, 3차원 네트워크로 췌장을 분할하는 경우 췌장과 형태가 유사한 주변 장기로 누출이 발생하고 췌장의 불확실한 경계 부분에서 과소 또는 과대 분할이 발생한다. In addition, when the pancreas is divided into a 3D network, leakage occurs to surrounding organs having a shape similar to that of the pancreas, and under- or over-segmentation occurs at an uncertain boundary portion of the pancreas.

따라서 본 발명에서는 췌장 주변의 공간적 정보를 고려하고 유사한 형태를 띠는 주변 장기로의 누출을 방지하며, 췌장의 위치적, 형태적 다양성으로 인해 발생하는 췌장의 불확실한 영역에서의 과소 분할 및 과대 분할을 방지하기 위해 불확실한 영역에 대한 정보를 함께 고려하는 3차원 분할네트워크를 이용하여 췌장을 분할할 수 있다.Therefore, in the present invention, the spatial information around the pancreas is considered, leakage to nearby organs having a similar shape is prevented, and under- and over-segmentation in the uncertain region of the pancreas caused by the positional and morphological diversity of the pancreas is prevented. To prevent this, the pancreas can be segmented using a 3D segmentation network that also considers information about uncertain regions.

이를 위해, 본 발명의 의료 영상 분할 장치는, 입력 영상으로 2차원 U-Net 기반 네트워크를 이용하여 위치화된 복부 CT영상을 96×96×96 해상도로 변환한 3차원 복부 CT 영상을 사용할 수 있다. To this end, the medical image segmentation apparatus of the present invention may use a 3D abdominal CT image obtained by converting an abdominal CT image positioned using a 2D U-Net-based network to a resolution of 96×96×96 as an input image. .

3차원 U-Net은 2차원 U-Net과 동일하게 수축 경로와 확장 경로로 구성될 수 있다.A 3D U-Net can be composed of a contraction path and an expansion path in the same way as a 2D U-Net.

수축 경로에서는 두 번의 3×3×3 컨볼루션, 배치 정규화, ReLU 함수를 수행한 후 스트라이드 2인 2×2×2 맥스 풀링을 순차적으로 수행하는 단계를 네 번 반복한다. In the contraction path, the step of sequentially performing 2x2x2 max pooling with a stride of 2 is repeated four times after performing two 3x3x3 convolutions, batch normalization, and the ReLU function.

수축 경로의 각 단계에서 수행하는 2×2×2 맥스 풀링을 통해 특징맵의 크기는 절반씩 감소하며 특징맵의 채널 수는 두 배씩 증가한다. Through 2×2×2 max pooling performed at each stage of the contraction path, the size of the feature map is reduced by half and the number of channels of the feature map is doubled.

확장 경로에서는 2×2×2 업 컨볼루션을 수행한 후, 확장 경로와 대등한 수축 경로의 마지막 특징 맵을 결합하는 연결 연산을 수행하고 두 번의 3×3×3 컨볼루션, 배치 정규화, ReLU 함수를 수행하는 단계를 네 번 반복한다.In the extension path, after performing a 2×2×2 up convolution, a concatenation operation that combines the last feature map of the expansion path and the equivalent contraction path, two 3×3×3 convolutions, batch normalization, and the ReLU function Repeat the steps to perform four times.

췌장 분할 시 발생하는 불확실한 영역을 감소시키기 위해 최종으로 1×1×1 컨볼루션을 수행하여 입력 영상과 동일한 크기의 3차원 췌장 형상 확률맵을 출력하기 전, 드롭아웃(dropout) 레이어를 추가하여 입력 영상과 동일한 크기의 N개(N은 자연수)의 드롭아웃 결과를 출력한다. 출력된 N개(N은 자연수)의 드롭아웃 결과는 각 3차원 의료 영상들에서 추출된 평균값의 확률맵과 불확실성의 확률맵을 출력하는 데에 사용된다.In order to reduce the uncertain region generated during pancreas segmentation, a 1×1×1 convolution is finally performed to output a 3D pancreas shape probability map of the same size as the input image, before adding a dropout layer to input the input image. Output N (N is a natural number) dropout results of the same size as the image. The output N dropout results (N is a natural number) are used to output a probability map of average values extracted from each 3D medical image and a probability map of uncertainty.

평균값의 확률맵은 도 4c의 (1) 수식, 불확실성의 확률맵은 도 4c의 (2) 수식을 통해 도출될 수 있다.The probability map of the average value can be derived through Equation (1) in FIG. 4C, and the probability map of uncertainty can be derived through Equation (2) in FIG. 4C.

각 3차원 의료 영상들에서 추출된 평균값의 확률맵과 불확실성의 확률맵을 이용하여 각 3차원 의료 영상들에 대한 예측값(prediction)(도 4c의 (3) 수식)을 산출하고, 이를 이용하여 협동 학습을 수행하여 협동 학습 예측값(Co-traingins’ prediction)(도 4c의 (4) 수식)을 산출할 수 있다. Using the probability map of the average value and the probability map of uncertainty extracted from each 3D medical image, a prediction value (Equation (3) in FIG. 4C) is calculated for each 3D medical image, and the cooperation is used to Learning can be performed to calculate a cooperative learning prediction value (Co-trainingins' prediction) (Equation (4) in FIG. 4C).

본 발명은 이러한 구성을 통해, 불확실성을 고려한 3차원 분할 네트워크를 이용하여 췌장을 분할하는 경우 지역적 문맥 정보 및 공간적 정보를 고려할 수 있을 뿐만 아니라 불확실한 영역에서 발생하는 과소 분할 및 과대 분할 문제를 감소시킬 수 있다.Through this configuration, when the pancreas is segmented using a 3D segmentation network considering uncertainty, the present invention can consider regional context information and spatial information, as well as reduce under-segmentation and over-segmentation problems that occur in uncertain regions. there is.

본 발명은, 복부 CT 영상에서 췌장의 위치적, 형태적 변이성으로 인한 불확실한 영역을 고려한 D CNN 기반의 자동 췌장 분할 방법을 제공할 수 있다.The present invention can provide a D CNN-based automatic pancreas segmentation method that considers the uncertain region due to the positional and morphological variability of the pancreas in an abdominal CT image.

본 발명에 따르면, 본 발명은 3개의 직교 평면 이미지를 기반으로 하는 2.5D 네트워크가 복부 장기의 췌장을 자동으로 찾을 수 있다.According to the present invention, a 2.5D network based on three orthogonal plane images can automatically find the pancreas of an abdominal organ.

또한, 본 발명에 따르면, 본 발명의 불확실성을 고려한 3D 네트워크는 췌장의 불확실한 영역에서 세분화를 통해 감소시킬 수 있다.In addition, according to the present invention, the 3D network considering the uncertainty of the present invention can be reduced through segmentation in the uncertain region of the pancreas.

또한, 본 발명의 공동 훈련을 고려한 3D 네트워크는 췌장의 불확실한 영역에서 분할 정확도를 개선할 수 있다.In addition, the 3D network considering the joint training of the present invention can improve the segmentation accuracy in the uncertain region of the pancreas.

즉, 본 발명은 복부 CT 영상에서 췌장의 불확실성을 고려한 계단식 네트워크를 이용한 췌장 자동 분할 방법을 제공할 수 있으며, 3개의 직교 평면 정보를 고려하여 췌장을 정확하게 위치시킬 수 있는 2D 앙상블 네트워크를 제공할 수 있다. 또한, 본 발명의 3D 네트워크는 국부적인 공간 정보, 췌장 불확실성 및 공동 훈련을 고려하여 세분화된 영역 아래 및 초과 영역을 줄일 수 있다.That is, the present invention can provide an automatic pancreas segmentation method using a cascade network in consideration of pancreatic uncertainty in an abdominal CT image, and can provide a 2D ensemble network that can accurately position the pancreas in consideration of three orthogonal plane information. there is. In addition, the 3D network of the present invention can reduce the area under and over the subdivided area by considering local spatial information, pancreatic uncertainty and joint training.

이러한 구성에 대하여 다음과 같은 실험 및 결과 분석을 수행하였다.For this configuration, the following experiments and result analysis were performed.

실험에 사용된 데이터는 미국 국립 보건원(The National Istitutes of Health Clinical Center; NIH)에서 배포한 총 82명 환자의 정맥기(portal-venous) 복부 CT 영상으로, 각 환자의 연령은 18~76세, 남자 53명, 여자 27명으로 구성된다. 모든 데이터는 Phillips와 Siemens에서 관전압(tube voltage) 120 kVp으로 촬영된 3차원 횡단면 복부 CT 영상을 사용하였다. 총 82명의 복부 CT 영상의 슬라이스 개수는 181~466장, 영상 해상도는 512×512, 화소 크기는 0.6641~0.9766mm2, 슬라이스 간격은 0.5mm~1.0mm으로 구성된다.The data used in the experiment were portal-venous abdominal CT images of a total of 82 patients distributed by The National Institutes of Health Clinical Center (NIH). It consists of 53 males and 27 females. For all data, three-dimensional cross-sectional abdominal CT images taken by Phillips and Siemens at a tube voltage of 120 kVp were used. The number of slices in the abdominal CT images of 82 patients was 181 to 466, the image resolution was 512 × 512, the pixel size was 0.6641 to 0.9766 mm2, and the slice interval was 0.5 mm to 1.0 mm.

실험을 위한 환경은 Windows 10 (64-bit) 운영체제에\서 Inter(R) Core(TM) i7-8700 3.20Hz CPU, 32GB 메모리, NVIDIA GeForce RTX 2080Ti 그래픽 카드를 장착한 PC를 사용하여 실험하였다. 본 제안 방법은 파이썬(python) 기반의 딥러닝 라이브러리인 텐서플로우(Tensorflow) 및 케라스(Keras)를 이용하여 구현하였으며, 2차원 및 3차원 U-Net은 오픈 소스 패키지를 변형하여 사용하였다. 2차원 분할 네트워크 학습에 사용된 학습률(learning rate)은 0.0001, 배치 크기는 1을 사용하였고, 최적화를 위해 아담 옵티마이저(Adam optimizer)를 사용하여 총 100번의 반복 학습을 수행하였다. 손실 함수는 교차 엔트로피(cross-entropy)를 사용하였다. 3차원 분할 네트워크 학습에 사용된 학습률의 초기값은 0.0001로 검증 데이터 셋의 손실 함수가 줄어들지 않는 경우 0.8배씩 감소되며, 배치 크기는 1을 사용하였고, 최적화를 위해 아담 옵티마이저를 사용하였다. 실험은 홀드아웃(hold-out) 교차 검증 방식을 수행하였다. 실험을 위하여 훈련 데이터 셋 52개, 테스트 데이터 셋 16개로 데이터 셋을 구성하였고, 과적합(overfitting) 방지를 위하여 검증(validation) 데이터 셋 14개로 나누어 구성하였다.The environment for the experiment was conducted using a PC equipped with Inter(R) Core(TM) i7-8700 3.20Hz CPU, 32GB memory, and NVIDIA GeForce RTX 2080Ti graphics card under Windows 10 (64-bit) operating system. This proposed method was implemented using Python-based deep learning libraries Tensorflow and Keras, and 2D and 3D U-Nets were used by modifying open source packages. A learning rate of 0.0001 and a batch size of 1 were used for 2D segmentation network learning, and a total of 100 iterations of learning were performed using the Adam optimizer for optimization. The loss function used cross-entropy. The initial value of the learning rate used in learning the 3D segmentation network is 0.0001, which is reduced by 0.8 times if the loss function of the verification data set does not decrease, the batch size was 1, and the Adam optimizer was used for optimization. The experiment was performed in a hold-out cross-validation method. For the experiment, the data set was composed of 52 training data sets and 16 test data sets, and was divided into 14 validation data sets to prevent overfitting.

본 제안 방법의 성능 평가를 위해 정량적 평가와 정성적 평가를 수행하였다. 정량적 평가를 위해 수동 분할 결과와 비교방법, 제안 방법 결과 간 DSC, 민감도(Recall), 양성예측도(Precision)를 수학식 2와 같이 측정하였다.Quantitative and qualitative evaluations were performed to evaluate the performance of the proposed method. For quantitative evaluation, DSC, sensitivity (recall), and positive predictive value (precision) between the results of manual segmentation, comparison method, and proposed method were measured as shown in Equation 2.

Figure pat00002
Figure pat00002

이 때, TP는 췌장으로 수동 분할된 영역에서 췌장으로 자동 분할된 영역이고, TN은 췌장이 아닌 영역으로 수동 분할된 영역에서 췌장이 아닌 영역으로 자동 분할된 영역이고, FP는 췌장이 아닌 영역으로 수동 분할된 영역에서 췌장으로 자동 분할된 영역이며, FN은 췌장으로 수동 분할된 영역에서 췌장이 아닌 영역으로 자동 분할된 영역을 의미한다.At this time, TP is the region automatically divided into the pancreas from the region manually divided into the pancreas, TN is the region manually divided into the non-pancreatic region and automatically divided into the non-pancreatic region, and FP is the region divided into the non-pancreatic region. It is a region automatically divided into a pancreas in a manually divided region, and FN means a region automatically divided into a non-pancreatic region in a manually divided region into a pancreas.

비교 방법으로는 2차원 U-Net 구조에서 횡단면, 관상면, 시상면을 이용한 췌장 분할 방법을 각각 Method A, Method B, Method C로 하고, 2차원 U-Net 구조에서 횡단면, 관상면, 시상면을 이용한 췌장 분할 결과의 다수 투표 방법(Method D)과 다수투표 방법을 통해 위치화된 3차원 입력 영상을 이용한 췌장 분할 방법(Method E)과 불확실도를 고려한 제안 방법(Method F)의 성능을 비교 분석하였다.As a comparison method, the method of dividing the pancreas using the cross section, coronal plane, and sagittal plane in the 2D U-Net structure is Method A, Method B, and Method C, respectively. Comparison and analysis of the performance of the majority voting method (Method D) of pancreas segmentation results using the majority voting method, the pancreas segmentation method (Method E) using the 3D input image positioned through the majority voting method, and the proposed method (Method F) considering uncertainty did

표 1은 췌장 분할 결과의 정량적 평가 결과이다. Table 1 shows the results of quantitative evaluation of pancreas segmentation results.

Figure pat00003
Figure pat00003

단면 영상을 사용하여 2차원 분할 네트워크를 훈련시킨 Method A, Method B, Method C의 경우, 평균 DSC가 74.41%로 전반적으로 낮은 성능을 보였다. 반면 Method D의 경우, 단일 단면의 2차원 평면 정보를 결합해 2.5차원 공간 정보를 유추하고 다수 투표 방식을 사용함으로써 과대 분할 영역이 감소하여 Method A, Method B, Method C 보다 민감도 측면에서 각각 1.94%p, 5.58%p, 3.42%p 향상된 성능을 보였으나 과소분할 경향을 보여 가장 높은 양성예측도를 보였다. Method E의 경우, Method D 대비 제한된 영역에서의 공간적 정보를 함께 고려함으로써 과소 분할이 방지되어 민감도가 3.29%p 상승하였으나 췌장의 불확실한 경계 부분에서의 과대 분할로 인해 양성예측도가 8.19%p 하락한 것을 확인할 수 있었고, Method F를 적용하였을 때 불확실한 영역에 대한 정보를 함께 고려해 줌으로써 Method E 대비 DSC, 민감도, 양성예측도가 각각 3.95%p, 2.83%p, 4.13%p 상승함을 확인할 수 있었다.In the case of Method A, Method B, and Method C, which trained a 2D segmentation network using cross-sectional images, the average DSC was 74.41%, showing low overall performance. On the other hand, in the case of Method D, 2.5-dimensional space information is inferred by combining 2-dimensional plane information of a single cross section, and the over-segmentation area is reduced by using a majority voting method, resulting in 1.94% sensitivity compared to Method A, Method B, and Method C, respectively. p, 5.58%p, 3.42%p improved performance, but showed the highest positive predictive value, showing a tendency to under-split. In the case of Method E, under-segmentation was prevented by considering spatial information in a limited area compared to Method D, and the sensitivity increased by 3.29%p. It was confirmed, and when Method F was applied, it was confirmed that DSC, sensitivity, and positive predictive value increased by 3.95%p, 2.83%p, and 4.13%p, respectively, compared to Method E by considering the information on the uncertain area together.

도 7은 복부 CT 영상에서 췌장 위치에 따른 비교 방법별 분할 결과이다. 본 제안 방법의 정성적 평가를 위해 비교 방법 및 제안 방법의 결과 각각을 수동 결과와 비교하였다. 7 is a result of segmentation by comparison method according to pancreas location in an abdominal CT image. For the qualitative evaluation of the proposed method, the results of the comparison method and the proposed method were compared with manual results.

도 7에서 (a) 내지 (g)는, Method A 내지 Method G에 각각 대응되는 정성적 평가를 나타내며, 빨간색은 수동 분할 결과와 겹치는 영역, 파란색은 과대 분할 영역, 초록색은 과소 분할 영역을 나타낸다.7, (a) to (g) show qualitative evaluations corresponding to Methods A to Method G, respectively, where red indicates an area overlapping with the manual segmentation result, blue indicates an over-segmented area, and green indicates an under-segmented area.

Method A, Method B, Method C의 경우 흉곽, 간, 비장, 소장 등 유사한 형태 및 밝기값을 갖는 주변 영역으로 누출이 발생하였고, 췌장 머리, 꼬리 부분에서 과소 분할이 발생하였다. Method D의 경우 다수 투표를 통해 횡단면, 관상면, 시상면에서의 분할 결과에서 발생한 주변 장기로의 누출을 해결하였으나, 췌장 꼬리 부분에서 과소 분할이 여전히 존재하는 것을 확인할 수 있었다. Method E의 경우 제한된 영역 내의 공간 정보를 이용해 주변 장기로의 누출을 감소시켰으나, 췌장과 유사한 형태를 갖는 소장으로의 누출이 존재하며 췌장의 불확실한 경계 부분에서 과소 분할 및 과대 분할된 것을 확인할 수 있었다. Method F의 경우 Method A, Method B, Method C에서 발생하는 주변 장기로의 누출을 방지하고 Method E에서 과소 분할된 영역을 분할함으로써 수동 분할 결과와 가장 유사함을 확인할 수 있었다.In the case of Method A, Method B, and Method C, leakage occurred to surrounding areas with similar shapes and brightness values, such as the thorax, liver, spleen, and small intestine, and under-segmentation occurred in the head and tail of the pancreas. In the case of Method D, leakage to the surrounding organs that occurred in the transverse, coronal, and sagittal slices was resolved through a majority vote, but it was confirmed that under-segmentation still existed in the tail of the pancreas. In the case of Method E, leakage into the surrounding organs was reduced using spatial information within a limited area, but leakage into the small intestine, which has a shape similar to that of the pancreas, was present, and under- and over-segmentation was confirmed at the uncertain border portion of the pancreas. In the case of Method F, leakage to the surrounding organs that occurred in Methods A, Method B, and Method C was prevented, and the under-segmented area was segmented in Method E, so it was confirmed that the result was the most similar to the manual segmentation result.

이러한 실험 및 구성을 통해, 본 발명은, 2.5차원 분할 네트워크로 췌장의 위치 정보를 자동으로 추출한 뒤 위치화된 영역에서 불확실한 영역에 대한 정보를 고려한 3차원 분할 네트워크를 이용해 췌장을 정확하게 분할하는 방법을 제공할 수 있다.Through these experiments and configurations, the present invention provides a method for accurately segmenting the pancreas using a 3-dimensional segmentation network that automatically extracts location information of the pancreas with a 2.5-dimensional segmentation network and then considers information on uncertain regions in the localized area. can provide

또한, 본 발명은, 2차원 분할 네트워크를 이용해 복부 CT 영상에서 췌장의 정확한 위치 정보를 획득하기 위해 횡단면, 관상면, 시상면의 복부 CT 영상에서 획득한 N개(N은 자연수)의 분할 결과를 다수투표를 통해 개선하였고, 불확실도에 따라 손실함수의 가중치를 변경해줌으로써 위치화된 3차원 복부 CT 영상에서 췌장의 형태적 특징으로 인해 발생하는 불확실한 영역에서의 과소 분할을 극복할 수 있다.In addition, the present invention, in order to obtain accurate location information of the pancreas in an abdominal CT image using a 2-dimensional segmentation network, N (N is a natural number) segmentation results obtained from transverse, coronal, and sagittal abdominal CT images It was improved through a majority vote, and by changing the weight of the loss function according to the uncertainty, it is possible to overcome the under-segmentation in the uncertain region caused by the morphological features of the pancreas in the localized 3D abdominal CT image.

또한, 본 발명은, 비교 방법 대비 제안 방법의 췌장 분할 결과와 수동 분할 결과 간 DSC는 83.50%를 보였고 다른 비교 방법들에 비해 췌장의 정확한 분할이 가능함을 확인할 수 있다.In addition, in the present invention, compared to the comparison method, the DSC between the pancreas division result of the proposed method and the manual division result showed 83.50%, and it could be confirmed that the pancreas division was possible more accurately than other comparative methods.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.Steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (23)

장치에 의해 수행되는 방법에 있어서,
복부 장기가 촬영된 서로 다른 종류의 의료 영상들을 획득하는 단계;
상기 서로 다른 종류의 의료 영상들을 2차원 컨볼루션 신경망에 입력하여 각 의료 영상들에 대한 특정 장기 정보 확률맵을 출력하고, 획득된 복수의 특정 장기 정보 확률맵에 대한 제1 다수투표를 통해 특정 장기의 위치화를 수행하는 단계;
위치화된 복수의 의료 영상들을 3차원 의료 영상으로 변환하고, 변환된 복수의 3차원 의료 영상들을 3차원 컨볼루션 신경망에 입력하여, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 각각 출력하는 단계; 및
복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 이용하여 협동 학습을 수행하고, 협동 학습된 결과에 대한 제2 다수투표를 통해 특정 장기를 분할하는 단계를 포함하는 의료 영상 분할 방법.
In the method performed by the device,
acquiring different types of medical images in which abdominal organs are imaged;
The different types of medical images are input into a 2D convolutional neural network to output a probability map of specific organ information for each medical image, and a specific organ information probability map is obtained through a first majority vote on a plurality of specific organ information probability maps. performing positioning of;
A plurality of localized medical images are converted into 3D medical images, and the converted plurality of 3D medical images are input to a 3D convolutional neural network, and a probability map of an average value of the plurality of 3D medical images and uncertainty outputting probability maps, respectively; and
A medical image comprising performing cooperative learning using a probability map of average values and a probability map of uncertainty for a plurality of 3D medical images, and segmenting a specific organ through a second majority vote on a cooperatively learned result. Split method.
제 1 항에 있어서,
상기 서로 다른 종류의 의료 영상들은, 횡단면, 관상면 및 시상면의 2차원 의료 영상을 포함하는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 1,
The medical image segmentation method of claim 1 , wherein the different types of medical images include 2-dimensional medical images of a transverse plane, a coronal plane, and a sagittal plane.
제 1 항에 있어서,
상기 서로 다른 종류의 의료 영상들에 대하여 데이터 전처리를 수행하는 단계를 더 포함하고,
상기 데이터 전처리를 수행하는 단계는,
상기 서로 다른 종류의 의료 영상들에 대하여 밝기값 정규화 및 공간 정규화를 수행하는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 1,
Further comprising performing data pre-processing on the different types of medical images;
The step of performing the data preprocessing,
The method of segmenting a medical image, characterized in that performing brightness value normalization and spatial normalization on the different types of medical images.
제 3 항에 있어서,
상기 공간 정규화는,
원본 영상의 화소 크기에서 최소 화소 값을 나누어 최근린 보간법을 이용하여 영상을 변환하는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 3,
The spatial normalization,
A method of segmenting a medical image, characterized in that the image is converted using a nearest-nearest interpolation method by dividing a minimum pixel value from a pixel size of an original image.
제 1 항에 있어서,
상기 2차원 컨볼루션 신경망 및 3차원 컨볼루션 신경망은, 수축 경로 및 확장 경로로 구성되는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 1,
The medical image segmentation method, characterized in that the 2-dimensional convolutional neural network and the 3-dimensional convolutional neural network are composed of a contraction path and an expansion path.
제 5 항에 있어서,
상기 수축 경로에서는,
상기 입력된 의료 영상들에 대하여, 컨볼루션, 배치 정규화, 활성화 함수 수행 및 맥스 풀링을 순차적으로 수행하는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 5,
In the contraction path,
The method of segmenting a medical image, characterized in that sequentially performing convolution, batch normalization, execution of an activation function, and max pooling on the input medical images.
제 5 항에 있어서,
상기 확장 경로에서는,
업 컨볼루션 및 연결 연산을 수행하여, 상기 수축 경로에서 줄어든 영상의 크기를 늘리고, 상기 수축 경로에서 증가된 채널 수를 감소시키는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 5,
In the extension path,
The method of segmenting a medical image, characterized in that by performing an up-convolution and concatenation operation, the size of the reduced image in the contraction path is increased, and the increased number of channels in the contraction path is reduced.
제 1 항에 있어서,
상기 서로 다른 종류의 의료 영상들은, 삼단면 영상 정보이고,
상기 위치화를 수행하는 단계는,
상기 삼단면 영상 정보에 대한 공간적인 정보를 이용하여 상기 특정 장기의 위치화를 수행하는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 1,
The different types of medical images are three-section image information,
The step of performing the positioning is,
The method of segmenting a medical image, characterized in that performing the positioning of the specific organ using spatial information of the three-section image information.
제 1 항에 있어서,
상기 3차원 컨볼루션 신경망에 입력되는 복수의 3차원 의료 영상들은,
위치화가 수행된 서로 다른 종류의 의료 영상들을 각각 3차원 의료 영상으로 변환한 영상들인 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 1,
A plurality of 3D medical images input to the 3D convolutional neural network,
A medical image segmentation method characterized in that the images are images obtained by converting different types of medical images on which positioning has been performed into 3D medical images, respectively.
제 9 항에 있어서,
상기 출력하는 단계는,
복수의 3차원 의료 영상들을 드롭아웃 레이어에 입력하여 상기 3차원 컨볼루션 신경망에 입력한 영상과 동일한 크기의 N개(N은 자연수)의 드롭아웃 결과를 출력하고, 상기 드롭아웃 결과를 이용하여 평균값의 확률맵 및 불확실성의 확률맵을 추출하는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 9,
The outputting step is
A plurality of 3D medical images are input to the dropout layer, N (N is a natural number) dropout results having the same size as the image input to the 3D convolutional neural network are output, and an average value is obtained using the dropout results. A medical image segmentation method characterized by extracting a probability map of and a probability map of uncertainty.
제 10 항에 있어서,
상기 특정 장기를 분할하는 단계는,
상기 불확실성의 확률맵에 근거하여, 의료 영상에서 특정 장기를 분할할 때 발생되는 불확실한 영역을 감소시키고,
협동 학습을 통해 불확실한 영역에서의 분할 정확도를 증가시키는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 10,
The step of dividing the specific organ,
Based on the probability map of uncertainty, reducing an uncertain region generated when segmenting a specific organ in a medical image;
A medical image segmentation method characterized by increasing segmentation accuracy in an uncertain area through cooperative learning.
복부 장기가 촬영된 서로 다른 종류의 의료 영상들을 획득하는 의료 영상 획득부; 및
상기 서로 다른 종류의 의료 영상들을 2차원 컨볼루션 신경망에 입력하여 각 의료 영상들에 대한 특정 장기 정보 확률맵을 출력하고, 획득된 복수의 특정 장기 정보 확률맵에 대한 제1 다수투표를 통해 특정 장기의 위치화를 수행하는 제어부를 포함하고,
상기 제어부는,
위치화된 복수의 의료 영상들을 3차원 의료 영상으로 변환하고, 변환된 복수의 3차원 의료 영상들을 3차원 컨볼루션 신경망에 입력하여, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 각각 출력하며,
복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 이용하여 협동 학습을 수행하고, 협동 학습된 결과에 대한 제2 다수투표를 통해 특정 장기를 분할하는 것을 특징으로 하는 의료 영상 분할 장치.
a medical image acquisition unit that acquires different types of medical images in which abdominal organs are photographed; and
The different types of medical images are input into a 2D convolutional neural network to output a probability map of specific organ information for each medical image, and a specific organ information probability map is obtained through a first majority vote on a plurality of specific organ information probability maps. Including a control unit for performing the positioning of,
The control unit,
A plurality of localized medical images are converted into 3D medical images, and the converted plurality of 3D medical images are input to a 3D convolutional neural network, and a probability map of an average value of the plurality of 3D medical images and uncertainty Each probability map is output,
A medical image characterized by performing cooperative learning using a probability map of average values and a probability map of uncertainty for a plurality of 3D medical images, and segmenting a specific organ through a second majority vote on the cooperatively learned result. split device.
제 12 항에 있어서,
상기 특정 장기는, 췌장을 포함하고,
상기 서로 다른 종류의 의료 영상들은, 횡단면, 관상면 및 시상면의 2차원 의료 영상을 포함하는 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 12,
The specific organ includes the pancreas,
The medical image segmentation apparatus of claim 1 , wherein the different types of medical images include 2-dimensional medical images of a transverse plane, a coronal plane, and a sagittal plane.
제 12 항에 있어서,
상기 제어부는,
상기 서로 다른 종류의 의료 영상들에 대하여 데이터 전처리를 수행하며,
상기 서로 다른 종류의 의료 영상들에 대하여 밝기값 정규화 및 공간 정규화를 수행하는 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 12,
The control unit,
performing data pre-processing on the different types of medical images;
The medical image segmentation device characterized in that performing brightness normalization and spatial normalization on the different types of medical images.
제 14 항에 있어서,
상기 공간 정규화는,
원본 영상의 화소 크기에서 최소 화소 값을 나누어 최근린 보간법을 이용하여 영상을 변환하는 것을 특징으로 하는 의료 영상 분할 장치.
15. The method of claim 14,
The spatial normalization,
A medical image segmentation device characterized by converting an image by dividing a minimum pixel value from a pixel size of an original image using a nearest-nearest interpolation method.
제 12 항에 있어서,
상기 2차원 컨볼루션 신경망 및 3차원 컨볼루션 신경망은, 수축 경로 및 확장 경로로 구성되는 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 12,
The medical image segmentation apparatus, characterized in that the 2-dimensional convolutional neural network and the 3-dimensional convolutional neural network are composed of a contraction path and an expansion path.
제 16 항에 있어서,
상기 수축 경로에서는,
상기 입력된 의료 영상들에 대하여, 컨볼루션, 배치 정규화, 활성화 함수 수행 및 맥스 풀링을 순차적으로 수행하는 것을 특징으로 하는 의료 영상 분할 장치.
17. The method of claim 16,
In the contraction path,
The medical image segmentation apparatus characterized in that it sequentially performs convolution, batch normalization, execution of an activation function, and max pooling on the input medical images.
제 16 항에 있어서,
상기 확장 경로에서는,
업 컨볼루션 및 연결 연산을 수행하여, 상기 수축 경로에서 줄어든 영상의 크기를 늘리고, 상기 수축 경로에서 증가된 채널 수를 감소시키는 것을 특징으로 하는 의료 영상 분할 장치.
17. The method of claim 16,
In the extension path,
The medical image segmentation apparatus, characterized in that, by performing up convolution and concatenation operations, the size of the reduced image in the contraction path is increased, and the increased number of channels in the contraction path is reduced.
제 12 항에 있어서,
상기 서로 다른 종류의 의료 영상들은, 삼단면 영상 정보이고,
상기 제어부는,
상기 삼단면 영상 정보에 대한 공간적인 정보를 이용하여 상기 특정 장기의 위치화를 수행하는 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 12,
The different types of medical images are three-section image information,
The control unit,
The medical image segmentation apparatus characterized in that the localization of the specific organ is performed using spatial information of the three-section image information.
제 12 항에 있어서,
상기 3차원 컨볼루션 신경망에 입력되는 복수의 3차원 의료 영상들은,
위치화가 수행된 서로 다른 종류의 의료 영상들을 각각 3차원 의료 영상으로 변환한 영상들인 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 12,
A plurality of 3D medical images input to the 3D convolutional neural network,
An apparatus for segmenting medical images, characterized in that they are images obtained by converting different types of medical images on which positioning has been performed into 3D medical images.
제 20 항에 있어서,
상기 제어부는,
복수의 3차원 의료 영상들을 드롭아웃 레이어에 입력하여 상기 3차원 컨볼루션 신경망에 입력한 영상과 동일한 크기의 N개(N은 자연수)의 드롭아웃 결과를 출력하고, 상기 드롭아웃 결과를 이용하여 평균값의 확률맵 및 불확실성의 확률맵을 추출하는 것을 특징으로 하는 의료 영상 분할 장치.
21. The method of claim 20,
The control unit,
A plurality of 3D medical images are input to the dropout layer, N (N is a natural number) dropout results having the same size as the image input to the 3D convolutional neural network are output, and an average value is obtained using the dropout results. A medical image segmentation device characterized in that for extracting a probability map of and a probability map of uncertainty.
제 21 항에 있어서,
상기 제어부는,
상기 불확실성의 확률맵에 근거하여, 의료 영상에서 특정 장기를 분할할 때 발생되는 불확실한 영역을 감소시키고,
협동 학습을 통해 불확실한 영역에서의 분할 정확도를 증가시키는 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 21,
The control unit,
Based on the probability map of uncertainty, reducing an uncertain region generated when segmenting a specific organ in a medical image;
A medical image segmentation device characterized by increasing segmentation accuracy in an uncertain area through cooperative learning.
하드웨어인 컴퓨터와 결합되어, 제1항 내지 제11항 중 어느 한 항의 방법을 수행하도록 컴퓨터에서 판독가능한 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable recording medium to perform the method of any one of claims 1 to 11 by being combined with a computer that is hardware.
KR1020210113202A 2021-08-26 2021-08-26 Medical image segmentation apparatus and method for segmentating medical image KR102591587B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210113202A KR102591587B1 (en) 2021-08-26 2021-08-26 Medical image segmentation apparatus and method for segmentating medical image
KR1020230137826A KR20230148139A (en) 2021-08-26 2023-10-16 Device, method and program for segmenting medical images based on artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210113202A KR102591587B1 (en) 2021-08-26 2021-08-26 Medical image segmentation apparatus and method for segmentating medical image

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230137826A Division KR20230148139A (en) 2021-08-26 2023-10-16 Device, method and program for segmenting medical images based on artificial intelligence

Publications (2)

Publication Number Publication Date
KR20230030935A true KR20230030935A (en) 2023-03-07
KR102591587B1 KR102591587B1 (en) 2023-10-18

Family

ID=85512845

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210113202A KR102591587B1 (en) 2021-08-26 2021-08-26 Medical image segmentation apparatus and method for segmentating medical image
KR1020230137826A KR20230148139A (en) 2021-08-26 2023-10-16 Device, method and program for segmenting medical images based on artificial intelligence

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230137826A KR20230148139A (en) 2021-08-26 2023-10-16 Device, method and program for segmenting medical images based on artificial intelligence

Country Status (1)

Country Link
KR (2) KR102591587B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196680A (en) * 2012-03-22 2013-09-30 Nec (China) Co Ltd Concept recognition method and concept recognition device based on co-learning
KR20200137768A (en) * 2019-05-31 2020-12-09 서울여자대학교 산학협력단 A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network
KR20210020619A (en) * 2019-08-16 2021-02-24 서울여자대학교 산학협력단 Abdominal organ status diagnosis based on abnominal organ volume change analysis using abnominal organ automatic segmentation
US20210125707A1 (en) * 2019-10-23 2021-04-29 GE Precision Healthcare LLC Method, system and computer readable medium for automatic segmentation of a 3d medical image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196680A (en) * 2012-03-22 2013-09-30 Nec (China) Co Ltd Concept recognition method and concept recognition device based on co-learning
KR20200137768A (en) * 2019-05-31 2020-12-09 서울여자대학교 산학협력단 A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network
KR20210020619A (en) * 2019-08-16 2021-02-24 서울여자대학교 산학협력단 Abdominal organ status diagnosis based on abnominal organ volume change analysis using abnominal organ automatic segmentation
US20210125707A1 (en) * 2019-10-23 2021-04-29 GE Precision Healthcare LLC Method, system and computer readable medium for automatic segmentation of a 3d medical image

Also Published As

Publication number Publication date
KR20230148139A (en) 2023-10-24
KR102591587B1 (en) 2023-10-18

Similar Documents

Publication Publication Date Title
JP7069359B2 (en) Methods and systems for improving cancer detection using deep learning
KR102410955B1 (en) Method and computer program for automatic segmentation of abnominal organs based on deep learning in medical images
US11367185B2 (en) Deep learning-based medical image quality evaluation and virtual clinical trial
CN110472629B (en) Pathological image automatic identification system based on deep learning and training method thereof
CN110415792B (en) Image detection method, image detection device, computer equipment and storage medium
CN109378068B (en) Automatic evaluation method and system for curative effect of nasopharyngeal carcinoma
KR102228087B1 (en) Method and apparatus for segmentation of specific cartilage in medical image
US20230052133A1 (en) Medical image processing method and apparatus, device, storage medium, and product
CN113436173A (en) Abdomen multi-organ segmentation modeling and segmentation method and system based on edge perception
EP4177828A1 (en) Method and system for domain knowledge augmented multi-head attention based robust universal lesion detection
CN116563252A (en) Esophageal early cancer lesion segmentation method based on attention double-branch feature fusion
KR20210020619A (en) Abdominal organ status diagnosis based on abnominal organ volume change analysis using abnominal organ automatic segmentation
US8306354B2 (en) Image processing apparatus, method, and program
KR102349515B1 (en) Tumor automatic segmentation based on deep learning in a medical image
Pal et al. A fully connected reproducible SE-UResNet for multiorgan chest radiographs segmentation
KR102591587B1 (en) Medical image segmentation apparatus and method for segmentating medical image
CN116051470A (en) Liver CT postoperative tumor segmentation method and device based on data enhancement
CN115908449A (en) 2.5D medical CT image segmentation method and device based on improved UNet model
Pocė et al. Pancreas segmentation in CT images: state of the art in clinical practice
KR102332472B1 (en) Tumor automatic segmentation using deep learning based on dual window setting in a medical image
Ibrahim et al. Liver Multi-class Tumour Segmentation and Detection Based on Hyperion Pre-trained Models.
US11449995B2 (en) Method of providing diagnosis assistance information and method of performing the same
US11282193B2 (en) Systems and methods for tumor characterization
CN115132357B (en) Device for predicting target disease index state based on medical image map
Kalisz et al. Methods for reduction of blur effect in the denoising autoencoder model for rib suppression in CXR images

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant