KR102591587B1 - Medical image segmentation apparatus and method for segmentating medical image - Google Patents

Medical image segmentation apparatus and method for segmentating medical image Download PDF

Info

Publication number
KR102591587B1
KR102591587B1 KR1020210113202A KR20210113202A KR102591587B1 KR 102591587 B1 KR102591587 B1 KR 102591587B1 KR 1020210113202 A KR1020210113202 A KR 1020210113202A KR 20210113202 A KR20210113202 A KR 20210113202A KR 102591587 B1 KR102591587 B1 KR 102591587B1
Authority
KR
South Korea
Prior art keywords
medical images
medical
medical image
probability map
image segmentation
Prior art date
Application number
KR1020210113202A
Other languages
Korean (ko)
Other versions
KR20230030935A (en
Inventor
홍헬렌
윤현담
Original Assignee
서울여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울여자대학교 산학협력단 filed Critical 서울여자대학교 산학협력단
Priority to KR1020210113202A priority Critical patent/KR102591587B1/en
Publication of KR20230030935A publication Critical patent/KR20230030935A/en
Priority to KR1020230137826A priority patent/KR20230148139A/en
Application granted granted Critical
Publication of KR102591587B1 publication Critical patent/KR102591587B1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Physiology (AREA)
  • Pulmonology (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

의료 영상 분할 장치 및 의료 영상 분할 방법이 제공된다. 상기 의료 영상 분할 방법은 복부 장기가 촬영된 서로 다른 종류의 의료 영상들을 획득하는 단계, 상기 서로 다른 종류의 의료 영상들을 2차원 컨볼루션 신경망에 입력하여 각 의료 영상들에 대한 특정 장기 정보 확률맵을 출력하고, 획득된 복수의 특정 장기 정보 확률맵에 대한 제1 다수투표를 통해 특정 장기의 위치화를 수행하는 단계, 위치화된 복수의 의료 영상들을 3차원 의료 영상으로 변환하고, 변환된 복수의 3차원 의료 영상들을 3차원 컨볼루션 신경망에 입력하여, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 각각 출력하는 단계 및 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 이용하여 협동 학습을 수행하고, 협동 학습된 결과에 대한 제2 다수투표를 통해 특정 장기를 분할하는 단계를 포함한다.A medical image segmentation apparatus and a medical image segmentation method are provided. The medical image segmentation method includes acquiring different types of medical images of abdominal organs, inputting the different types of medical images into a two-dimensional convolutional neural network to generate a probability map of specific organ information for each medical image. Outputting and performing localization of a specific organ through a first majority vote on the obtained plurality of specific organ information probability maps, converting the plurality of localized medical images into 3D medical images, and converting the plurality of converted medical images into 3D medical images. Inputting 3D medical images into a 3D convolutional neural network and outputting a probability map of the average value and a probability map of uncertainty for a plurality of 3D medical images, respectively, and the probability of the average value of the plurality of 3D medical images. It includes performing cooperative learning using a map and probability map of uncertainty, and dividing a specific organ through a second majority vote on the cooperatively learned result.

Description

의료 영상 분할 장치 및 의료 영상 분할 방법{MEDICAL IMAGE SEGMENTATION APPARATUS AND METHOD FOR SEGMENTATING MEDICAL IMAGE}Medical image segmentation apparatus and medical image segmentation method {MEDICAL IMAGE SEGMENTATION APPARATUS AND METHOD FOR SEGMENTATING MEDICAL IMAGE}

본 발명은 의료 영상 분할 장치 및 의료 영상 분할 방법에 관한 것으로, 보다 구체적으로, 복부 CT 영상에서 췌장의 불확실성을 고려한 계층적 네트워크 및 협동학습 기반의 자동 췌장 분할 방법 및 이를 구현하는 장치에 관한 것이다. The present invention relates to a medical image segmentation device and a medical image segmentation method. More specifically, it relates to an automatic pancreas segmentation method based on hierarchical networks and cooperative learning that takes into account uncertainty of the pancreas in abdominal CT images, and a device implementing the same.

2019년 보건복지부와 중앙암등록본부에서 발표한 2017년 국가암등록 통계자료에 따르면 췌장암은 전체 암종 중 발생률 3%로 8위를 차지하였고, 최근 10년간 발생률은 지속적으로 증가 추세를 보이고 있다. According to the 2017 National Cancer Registry statistics published by the Ministry of Health and Welfare and the Central Cancer Registry in 2019, pancreatic cancer ranked 8th with an incidence rate of 3% among all cancer types, and the incidence rate has been continuously increasing over the past 10 years.

췌장암은 초기부터 진행된 시기까지 특징적인 증상이 없고, 암종의 성장 속도가 빠르며, 주위 조직으로의 전이가 쉬워 대부분 수술적 절제를 수행하여 장기 생존율을 높인다. 췌장암 절제 전, 췌장을 파악하고 췌장암을 검출하기 위해 췌장의 형태에 대한 사전 정보가 중요하므로 복부 CT 영상에서 췌장 분할은 필수적인 사전 단계이다.Pancreatic cancer has no characteristic symptoms from the beginning to the advanced stage, the tumor growth rate is fast, and it is easy to metastasize to surrounding tissues. In most cases, surgical resection is performed to increase the long-term survival rate. Before pancreatic cancer resection, prior information on the shape of the pancreas is important to identify the pancreas and detect pancreatic cancer, so pancreas segmentation in abdominal CT images is an essential preliminary step.

도 3은 복부 CT 영상에서 췌장의 특성을 나타낸 것으로 도 3의 (a)와 같이 췌장은 위, 간, 비장, 소장, 간문맥 등의 주변 장기와 유사한 밝기값을 가지며, 도 3의 (b)와 같이 각 영상 슬라이스에서 보이는 췌장의 형태가 상이하며, 도 3의 (c)와 같이 환자마다 췌장의 형태가 다양하다는 특징이 있다.Figure 3 shows the characteristics of the pancreas in an abdominal CT image. As shown in (a) of Figure 3, the pancreas has a brightness value similar to surrounding organs such as the stomach, liver, spleen, small intestine, and portal vein, and (b) of Figure 3 Likewise, the shape of the pancreas seen in each image slice is different, and as shown in Figure 3 (c), the shape of the pancreas varies from patient to patient.

딥 컨볼루션 신경망(Convolutional Neural Network; CNN) 기반의 다양한 연구들이 있지만 공통적으로 췌장의 불확실한 경계 부분에서 과소분할 및 과대분할 문제가 발생하는 한계가 있다.There are various studies based on deep convolutional neural networks (CNN), but they have common limitations in that under-segmentation and over-segmentation problems occur in the uncertain border area of the pancreas.

본 발명이 해결하고자 하는 과제는 최적화된 방법으로 의료 영상에서 특정 장치를 분할하는 것이 가능한 의료 영상 분할 장치 및 방법을 제공하는데 있다.The problem to be solved by the present invention is to provide a medical image segmentation apparatus and method capable of segmenting a specific device in a medical image in an optimized manner.

본 발명의 해결하고자 하는 과제는, 딥 컨볼루션 신경망을 기반으로 위치화 단계를 통해 복부 CT 영상에서 췌장 위치를 효과적으로 검출하고, 해당 영역 내에서 불확실한 영역에 대한 정보를 고려하여 췌장의 분할 정확도를 개선하는 것이 가능한 의료 영상 분할 장치 및 방법을 제공하는데 있다.The problem to be solved by the present invention is to effectively detect the location of the pancreas in abdominal CT images through a localization step based on a deep convolutional neural network, and improve the segmentation accuracy of the pancreas by considering information about uncertain areas within the area. The aim is to provide a medical image segmentation apparatus and method capable of doing so.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 의료 영상 분할 방법은, 장치에 의해 수행되는 방법에 있어서, 복부 장기가 촬영된 서로 다른 종류의 의료 영상들을 획득하는 단계, 상기 서로 다른 종류의 의료 영상들을 2차원 컨볼루션 신경망에 입력하여 각 의료 영상들에 대한 특정 장기 정보 확률맵을 출력하고, 획득된 복수의 특정 장기 정보 확률맵에 대한 제1 다수투표를 통해 특정 장기의 위치화를 수행하는 단계, 위치화된 복수의 의료 영상들을 3차원 의료 영상으로 변환하고, 변환된 복수의 3차원 의료 영상들을 3차원 컨볼루션 신경망에 입력하여, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 각각 출력하는 단계 및 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 이용하여 협동 학습을 수행하고, 협동 학습된 결과에 대한 제2 다수투표를 통해 특정 장기를 분할하는 단계를 포함한다.A medical image segmentation method according to one aspect of the present invention for solving the above-described problem is a method performed by an apparatus, comprising: acquiring different types of medical images in which abdominal organs are imaged; Input medical images into a two-dimensional convolutional neural network to output a probability map of specific organ information for each medical image, and perform localization of specific organs through first majority voting on the obtained probability maps of multiple specific organ information. Step: Converting a plurality of localized medical images into 3D medical images, inputting the converted 3D medical images into a 3D convolutional neural network, and generating a probability map of the average value of the plurality of 3D medical images. and outputting a probability map of uncertainty, respectively, and performing collaborative learning using the probability map of the average value and the probability map of uncertainty for a plurality of 3D medical images, through a second majority vote on the cooperatively learned results. It involves dividing specific organs.

실시 예에 있어서, 상기 서로 다른 종류의 의료 영상들은, 횡단면, 관상면 및 시상면의 2차원 의료 영상을 포함하는 것을 특징으로 한다.In an embodiment, the different types of medical images include two-dimensional medical images in a transverse plane, a coronal plane, and a sagittal plane.

실시 예에 있어서, 상기 서로 다른 종류의 의료 영상들에 대하여 데이터 전처리를 수행하는 단계를 더 포함하고, 상기 데이터 전처리를 수행하는 단계는, 상기 서로 다른 종류의 의료 영상들에 대하여 밝기값 정규화 및 공간 정규화를 수행하는 것을 특징으로 한다.In an embodiment, the method further includes performing data preprocessing on the different types of medical images, and performing the data preprocessing includes brightness value normalization and spatial normalization on the different types of medical images. It is characterized by performing normalization.

실시 예에 있어서, 상기 공간 정규화는, 원본 영상의 화소 크기에서 최소 화소 값을 나누어 최근린 보간법을 이용하여 영상을 변환하는 것을 특징으로 한다.In an embodiment, the spatial normalization is characterized by dividing the minimum pixel value from the pixel size of the original image and converting the image using nearest interpolation.

실시 예에 있어서, 상기 2차원 컨볼루션 신경망 및 3차원 컨볼루션 신경망은, 수축 경로 및 확장 경로로 구성되는 것을 특징으로 한다.In an embodiment, the 2D convolutional neural network and the 3D convolutional neural network are characterized by being composed of a contraction path and an expansion path.

실시 예에 있어서, 상기 수축 경로에서는, 상기 입력된 의료 영상들에 대하여, 컨볼루션, 배치 정규화, 활성화 함수 수행 및 맥스 풀링을 순차적으로 수행하는 것을 특징으로 한다.In an embodiment, the contraction path sequentially performs convolution, batch normalization, activation function, and max pooling on the input medical images.

실시 예에 있어서, 상기 확장 경로에서는, 업 컨볼루션 및 연결 연산을 수행하여, 상기 수축 경로에서 줄어든 영상의 크기를 늘리고, 상기 수축 경로에서 증가된 채널 수를 감소시키는 것을 특징으로 한다.In an embodiment, in the expansion path, up-convolution and concatenation operations are performed to increase the size of the image reduced in the contraction path and to reduce the number of channels increased in the contraction path.

실시 예에 있어서, 상기 서로 다른 종류의 의료 영상들은, 삼단면 영상 정보이고, 상기 위치화를 수행하는 단계는, 상기 삼단면 영상 정보에 대한 공간적인 정보를 이용하여 상기 특정 장기의 위치화를 수행하는 것을 특징으로 한다.In an embodiment, the different types of medical images are three-section image information, and the step of performing the localization involves localizing the specific organ using spatial information about the three-section image information. It is characterized by:

실시 예에 있어서, 상기 3차원 컨볼루션 신경망에 입력되는 복수의 3차원 의료 영상들은, 위치화가 수행된 서로 다른 종류의 의료 영상들을 각각 3차원 의료 영상으로 변환한 영상들인 것을 특징으로 한다.In an embodiment, the plurality of 3D medical images input to the 3D convolutional neural network are images obtained by converting different types of localized medical images into 3D medical images.

실시 예에 있어서, 상기 출력하는 단계는, 복수의 3차원 의료 영상들을 드롭아웃 레이어에 입력하여 상기 3차원 컨볼루션 신경망에 입력한 영상과 동일한 크기의 N개(N은 자연수)의 드롭아웃 결과를 출력하고, 상기 드롭아웃 결과를 이용하여 평균값의 확률맵 및 불확실성의 확률맵을 추출하는 것을 특징으로 한다.In an embodiment, the output step involves inputting a plurality of 3D medical images into a dropout layer to produce N dropout results (N is a natural number) of the same size as the image input to the 3D convolutional neural network. It is characterized by outputting and extracting a probability map of the average value and a probability map of uncertainty using the dropout result.

실시 예에 있어서, 상기 특정 장기를 분할하는 단계는, 상기 불확실성의 확률맵에 근거하여, 의료 영상에서 특정 장기를 분할할 때 발생되는 불확실한 영역을 감소시키고, 협동 학습을 통해 불확실한 영역에서의 분할 정확도를 증가시키는 것을 특징으로 한다.In an embodiment, the step of segmenting the specific organ reduces the uncertain region that occurs when segmenting a specific organ in a medical image based on the probability map of uncertainty, and improves segmentation accuracy in the uncertain region through cooperative learning. It is characterized by increasing .

본 발명의 다른 실시 예에 따른 의료 영상 분할 장치는, 복부 장기가 촬영된 서로 다른 종류의 의료 영상들을 획득하는 의료 영상 획득부 및 상기 서로 다른 종류의 의료 영상들을 2차원 컨볼루션 신경망에 입력하여 각 의료 영상들에 대한 특정 장기 정보 확률맵을 출력하고, 획득된 복수의 특정 장기 정보 확률맵에 대한 제1 다수투표를 통해 특정 장기의 위치화를 수행하는 제어부를 포함하고, 상기 제어부는, 위치화된 복수의 의료 영상들을 3차원 의료 영상으로 변환하고, 변환된 복수의 3차원 의료 영상들을 3차원 컨볼루션 신경망에 입력하여, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 각각 출력하며, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 이용하여 협동 학습을 수행하고, 협동 학습된 결과에 대한 제2 다수투표를 통해 특정 장기를 분할하는 것을 특징으로 한다.A medical image segmentation device according to another embodiment of the present invention includes a medical image acquisition unit that acquires different types of medical images of abdominal organs, and inputs the different types of medical images into a two-dimensional convolutional neural network to A control unit outputting a specific organ information probability map for medical images and performing localization of a specific organ through a first majority vote on the obtained plurality of specific organ information probability maps, wherein the control unit performs localization. Convert the plurality of medical images into 3D medical images, input the converted 3D medical images into a 3D convolutional neural network, and create a probability map of the average value and a probability map of uncertainty for the plurality of 3D medical images. Output each, perform cooperative learning using the probability map of the average value and the probability map of uncertainty for a plurality of 3D medical images, and segment specific organs through a second majority vote on the cooperatively learned results. It is characterized by

실시 예에 있어서, 상기 특정 장기는, 췌장을 포함하고, 상기 서로 다른 종류의 의료 영상들은, 횡단면, 관상면 및 시상면의 2차원 의료 영상을 포함하는 것을 특징으로 한다.In an embodiment, the specific organ includes a pancreas, and the different types of medical images include two-dimensional medical images of a transverse section, a coronal section, and a sagittal section.

실시 예에 있어서, 상기 제어부는, 상기 서로 다른 종류의 의료 영상들에 대하여 데이터 전처리를 수행하며, 상기 서로 다른 종류의 의료 영상들에 대하여 밝기값 정규화 및 공간 정규화를 수행하는 것을 특징으로 한다.In an embodiment, the control unit performs data preprocessing on the different types of medical images, and performs brightness value normalization and spatial normalization on the different types of medical images.

실시 예에 있어서, 상기 공간 정규화는, 원본 영상의 화소 크기에서 최소 화소 값을 나누어 최근린 보간법을 이용하여 영상을 변환하는 것을 특징으로 한다.In an embodiment, the spatial normalization is characterized by dividing the minimum pixel value from the pixel size of the original image and converting the image using nearest interpolation.

실시 예에 있어서, 상기 2차원 컨볼루션 신경망 및 3차원 컨볼루션 신경망은, 수축 경로 및 확장 경로로 구성되는 것을 특징으로 한다.In an embodiment, the 2D convolutional neural network and the 3D convolutional neural network are characterized by being composed of a contraction path and an expansion path.

실시 예에 있어서, 상기 수축 경로에서는, 상기 입력된 의료 영상들에 대하여, 컨볼루션, 배치 정규화, 활성화 함수 수행 및 맥스 풀링을 순차적으로 수행하는 것을 특징으로 한다.In an embodiment, the contraction path sequentially performs convolution, batch normalization, activation function, and max pooling on the input medical images.

실시 예에 있어서, 상기 확장 경로에서는, 업 컨볼루션 및 연결 연산을 수행하여, 상기 수축 경로에서 줄어든 영상의 크기를 늘리고, 상기 수축 경로에서 증가된 채널 수를 감소시키는 것을 특징으로 한다.In an embodiment, in the expansion path, up-convolution and concatenation operations are performed to increase the size of the image reduced in the contraction path and to reduce the number of channels increased in the contraction path.

실시 예에 있어서, 상기 서로 다른 종류의 의료 영상들은, 삼단면 영상 정보이고, 상기 제어부는, 상기 삼단면 영상 정보에 대한 공간적인 정보를 이용하여 상기 특정 장기의 위치화를 수행하는 것을 특징으로 한다.In an embodiment, the different types of medical images are three-section image information, and the control unit localizes the specific organ using spatial information about the three-section image information. .

실시 예에 있어서, 상기 3차원 컨볼루션 신경망에 입력되는 복수의 3차원 의료 영상들은, 위치화가 수행된 서로 다른 종류의 의료 영상들을 각각 3차원 의료 영상으로 변환한 영상들인 것을 특징으로 한다.In an embodiment, the plurality of 3D medical images input to the 3D convolutional neural network are images obtained by converting different types of localized medical images into 3D medical images.

실시 예에 있어서, 상기 제어부는, 복수의 3차원 의료 영상들을 드롭아웃 레이어에 입력하여 상기 3차원 컨볼루션 신경망에 입력한 영상과 동일한 크기의 N개(N은 자연수)의 드롭아웃 결과를 출력하고, 상기 드롭아웃 결과를 이용하여 평균값의 확률맵 및 불확실성의 확률맵을 추출하는 것을 특징으로 한다.In an embodiment, the control unit inputs a plurality of 3D medical images into a dropout layer and outputs N dropout results (N is a natural number) of the same size as the image input to the 3D convolutional neural network. , Characterized in extracting a probability map of the average value and a probability map of uncertainty using the dropout result.

실시 예에 있어서, 상기 제어부는, 상기 불확실성의 확률맵에 근거하여, 의료 영상에서 특정 장기를 분할할 때 발생되는 불확실한 영역을 감소시키고, 협동 학습을 통해 불확실한 영역에서의 분할 정확도를 증가시키는 것을 특징으로 한다.In an embodiment, the control unit reduces the uncertain region that occurs when segmenting a specific organ in a medical image based on the probability map of uncertainty and increases segmentation accuracy in the uncertain region through cooperative learning. Do it as

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system, and a computer-readable recording medium recording a computer program for executing the method may be further provided.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명에 따르면, 본 발명에서는 2.5차원 분할 네트워크로 췌장의 위치 정보를 자동으로 추출한 뒤 위치화된 영역에서 불확실한 영역에 대한 정보를 고려한 3차원 분할 네트워크를 이용해 췌장을 정확하게 분할할 수 있는 새로운 의료 영상 분할 방법을 제공할 수 있다.According to the present invention, a new medical image that can automatically extract the location information of the pancreas using a 2.5-dimensional segmentation network and then accurately segment the pancreas using a 3-dimensional segmentation network that takes into account information about uncertain areas in the localized area. A partitioning method can be provided.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 일 실시 예에 따른 의료 영상 분할 장치를 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시 예에 따른 의료 영상 분할 방법을 설명하기 위한 흐름도이다.
도 3은 의료 영상 중 하나인 복부 CT 영상에서 췌장의 특성을 설명하기 위한 개념도이다.
도 4a, 도 4b, 도 4c, 도 5, 도 6 및 도 7은 도 2에서 살펴본 의료 영상 분할 방법을 설명하기 위한 개념도이다.
1 is a conceptual diagram illustrating a medical image segmentation apparatus according to an embodiment of the present invention.
Figure 2 is a flowchart explaining a medical image segmentation method according to an embodiment of the present invention.
Figure 3 is a conceptual diagram for explaining the characteristics of the pancreas in an abdominal CT image, which is one of the medical images.
FIGS. 4A, 4B, 4C, 5, 6, and 7 are conceptual diagrams for explaining the medical image segmentation method shown in FIG. 2.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide a general understanding of the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing embodiments and is not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be a second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

설명에 앞서 본 명세서에서 사용하는 용어의 의미를 간략히 설명한다. 그렇지만 용어의 설명은 본 명세서의 이해를 돕기 위한 것이므로, 명시적으로 본 발명을 한정하는 사항으로 기재하지 않은 경우에 본 발명의 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.Prior to explanation, the meaning of terms used in this specification will be briefly explained. However, since the explanation of terms is intended to aid understanding of the present specification, it should be noted that if it is not explicitly described as limiting the present invention, it is not used in the sense of limiting the technical idea of the present invention.

본 명세서에서 '의료 영상 분할 장치'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. In this specification, 'medical image segmentation device' includes all various devices that can perform computational processing and provide results to the user.

예를 들어, ' 의료 영상 분할 장치'는 컴퓨터, 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. For example, 'medical image segmentation device' is used not only for computers, desktop PCs, and laptops (Note Books), but also for smart phones, tablet PCs, cellular phones, and PCS phones (Personal Communication). Service phone), synchronous/asynchronous IMT-2000 (International Mobile Telecommunication-2000) mobile terminal, Palm PC (Palm Personal Computer), personal digital assistant (PDA), etc. may also be applicable.

또한, '의료 영상 분할 장치'는 클라이언트로부터 요청을 수신하여 정보처리를 수행하는 서버와 통신을 수행할 수 있다.Additionally, the 'medical image segmentation device' can receive requests from clients and communicate with a server that performs information processing.

본 발명의 일 실시 예에 따른 의료 영상 분할 장치는, 도 1에서 설명하는 구성요소들 중 적어도 하나를 포함하도록 구현될 수 있다.A medical image segmentation apparatus according to an embodiment of the present invention may be implemented to include at least one of the components described in FIG. 1 .

도 1은 본 발명의 일 실시 예에 따른 의료 영상 분할 장치를 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating a medical image segmentation apparatus according to an embodiment of the present invention.

도 1을 살펴보면, 본 발명의 의료 영상 분할 장치(100)는, 복부 장기가 촬영된 의료 영상을 획득하는 의료 영상 획득부(110)를 포함할 수 있다.Referring to FIG. 1 , the medical image segmentation apparatus 100 of the present invention may include a medical image acquisition unit 110 that acquires a medical image in which abdominal organs are imaged.

여기서, 복부 장기가 촬영된 의료 영상은, 복부 CT(Computed Tomography) 영상을 포함할 수 있다.Here, the medical image of abdominal organs may include an abdominal CT (Computed Tomography) image.

구체적으로, 상기 의료 영상 획득부(110)는, 복부 장기가 촬영된 서로 다른 종류의 의료 영상들을 획득(수집, 촬영)할 수 있다.Specifically, the medical image acquisition unit 110 may acquire (collect, photograph) different types of medical images in which abdominal organs are imaged.

여기서, 상기 서로 다른 종류의 의료 영상들은, 횡단면(axial plane), 관상면(coronal plane), 시상면(sagittal plane)의 2차원 의료 영상(2차원 복부 CT 영상)을 포함할 수 있다.Here, the different types of medical images may include two-dimensional medical images (two-dimensional abdominal CT images) in the transverse plane, coronal plane, and sagittal plane.

의료 영상 획득부(110)는, 의료 영상을 촬영하도록 형성된 촬영 장치 또는 촬영된 의료 영상을 외부 장치로부터 수신하도록 형성된 통신부를 포함할 수 있다.The medical image acquisition unit 110 may include an imaging device configured to capture a medical image or a communication unit configured to receive the captured medical image from an external device.

메모리(120)는, 의료 영상 획득부(110) 및 제어부(130)에서 생성/관리된 데이터, 이미지, 각종 정보 및 응용 프로그램 등을 저장하도록 형성될 수 있다.The memory 120 may be configured to store data, images, various information, and application programs created/managed by the medical image acquisition unit 110 and the control unit 130.

메모리(120)는, 제어부(130)와 전기적으로 연결된다. 메모리(120)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(120)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(120)는 제어부(130)의 처리 또는 제어를 위한 프로그램 등, 의료 영상 분할 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The memory 120 is electrically connected to the control unit 130. The memory 120 can store basic data for the unit, control data for controlling the operation of the unit, and input/output data. In terms of hardware, the memory 120 may be a variety of storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc. The memory 120 may store various data for the overall operation of the medical image segmentation device 100, such as programs for processing or controlling the control unit 130.

제어부(130)는 응용 프로그램과 관련된 동작 외에도, 통상적으로 의료 영상 분할 장치(100)의 전반적인 동작을 제어한다. 제어부(130)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to operations related to application programs, the control unit 130 typically controls the overall operation of the medical image segmentation device 100. The control unit 130 can provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components discussed above, or by running an application program stored in memory.

이하에서는, 의료 영상에서 특정 장기를 분할하는 방법에 대하여 첨부된 도면을 참조하여 보다 구체적으로 살펴보기로 한다.Hereinafter, a method for segmenting specific organs in a medical image will be examined in more detail with reference to the attached drawings.

도 2는 본 발명의 일 실시 예에 따른 의료 영상 분할 방법을 설명하기 위한 흐름도이다.Figure 2 is a flowchart explaining a medical image segmentation method according to an embodiment of the present invention.

도 3은 의료 영상 중 하나인 복부 CT 영상에서 췌장의 특성을 설명하기 위한 개념도이고, 도 4a, 도 4b, 도 4c, 도 5, 도 6 및 도 7은 도 2에서 살펴본 의료 영상 분할 방법을 설명하기 위한 개념도이다.Figure 3 is a conceptual diagram for explaining the characteristics of the pancreas in an abdominal CT image, which is one of the medical images, and Figures 4a, 4b, 4c, 5, 6, and 7 illustrate the medical image segmentation method seen in Figure 2. This is a concept diagram for doing this.

도 2를 참조하면, 의료 영상 분할 장치의 제어부(130)는, 복부 장치가 촬영된 서로 다른 종류의 의료 영상(복부 CT 영상)들을 획득하도록 의료 영상 획득부(110)를 제어할 수 있다(S210).Referring to FIG. 2, the control unit 130 of the medical image segmentation device may control the medical image acquisition unit 110 to acquire different types of medical images (abdominal CT images) captured by an abdominal device (S210). ).

제어부(130)는, 상기 서로 다른 종류의 의료 영상들을 2차원 컨볼루션 신경망에 입력하여 각 의료 영상들에 대한 특정 장기 정보 확률맵을 출력하고, 획득된 복수의 특정 장기 정보 확률맵에 대한 제1 다수투표를 통해 특정 장기의 위치화를 수행할 수 있다(S220).The control unit 130 inputs the different types of medical images into a two-dimensional convolutional neural network, outputs a specific organ information probability map for each medical image, and generates a first probability map for the plurality of acquired specific organ information probability maps. Localization of specific organs can be performed through majority voting (S220).

제어부(130)는, 위치화된 복수의 의료 영상들을 3차원 의료 영상으로 변환하고, 변환된 복수의 3차원 의료 영상들을 3차원 컨볼루션 신경망에 입력하여, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 각각 출력할 수 있다(S230).The control unit 130 converts a plurality of localized medical images into 3D medical images, inputs the converted 3D medical images into a 3D convolutional neural network, and calculates the average value of the plurality of 3D medical images. The probability map of and the probability map of uncertainty can be output respectively (S230).

제어부(130)는, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 이용하여 협동 학습을 수행하고, 협동 학습된 결과에 대한 제2 다수투표를 통해 특정 장기를 분할할 수 있다(S240).The control unit 130 performs cooperative learning using a probability map of the average value and a probability map of uncertainty for a plurality of 3D medical images, and divides a specific organ through a second majority vote on the cooperatively learned results. (S240).

이하에서는, 설명의 편의를 위해, 의료 영상과 복부 CT 영상을 혼용하여 사용하고, 특정 장기가 췌장인 것으로 예를 들어 설명하기로 한다.Hereinafter, for convenience of explanation, medical images and abdominal CT images will be used interchangeably, and the specific organ will be described as an example of the pancreas.

도 3에 도시된 것과 같이, 췌장은 (a)와 같이 위, 간, 비장, 소장, 간문맥 등의 주변 장기와 유사한 밝기값을 가지며, (b)와 같이 각 영상 슬라이스에서 보이는 췌장의 형태가 상이하며, (c)와 같이 환자마다 췌장의 형태가 다양하다는 특징이 있다.As shown in Figure 3, the pancreas has a similar brightness value to surrounding organs such as the stomach, liver, spleen, small intestine, and portal vein, as shown in (a), and the shape of the pancreas visible in each image slice is different, as shown in (b). As shown in (c), the shape of the pancreas varies from patient to patient.

이에, 본 발명의 복부 CT 영상에서 췌장을 최적화된 방법으로 분할하는 방법을 제공할 수 있다.Accordingly, the present invention can provide a method for segmenting the pancreas in an optimized manner from an abdominal CT image.

의료 영상 분할 장치의 제어부(130)는, 복부 CT 영상에서 췌장 자동 분할을 수행할 수 있다.The control unit 130 of the medical image segmentation device may perform automatic pancreas segmentation in the abdominal CT image.

도 4a를 참조하면, 본 발명의 의료 영상 분할 장치는, 네트워크 입력 영상 전처리, 딥 컨볼루션 신경망을 기반으로 한 2차원 분할 네트워크를 이용하여 췌장 자동 위치화를 수행할 수 있다. 또한, 의료 영상 분할 장치는, 불확실한 영역에 대한 정보를 함께 고려한 3차원 분할 네트워크를 이용하여 췌장 자동 분할을 수행할 수 있다.Referring to FIG. 4A, the medical image segmentation apparatus of the present invention can perform automatic pancreas localization using network input image preprocessing and a two-dimensional segmentation network based on a deep convolutional neural network. Additionally, the medical image segmentation device can perform automatic pancreas segmentation using a 3D segmentation network that also considers information about uncertain regions.

한편, 본 발명은, 영상에서 발생할 수 있는 불확실성의 정도를 정량화하여 분할 모델에 적용하고, 협동학습을 통해 분할 성능을 개선할 수 있다.Meanwhile, the present invention can quantify the degree of uncertainty that may occur in an image, apply it to a segmentation model, and improve segmentation performance through cooperative learning.

예를 들어, 도 4b에 도시된 것과 같이, 본 발명은, 영상에서 불확실한 영역에 대한 정보를 정량화하기 위해 특정 장치의 불확실성을 고려한 3D U-net(3차원 분할 네트워크)를 이용하여 불확실성을 정량화하고, 이를 분할 모델(즉, 췌장 자동 분할)에 반영할 수 있다. 또한, 도 4c에 도시된 것과 같이, 본 발명은, 서로 다른 종류의 영상(예를 들어, 횡단면(axial plane), 관상면(coronal plane), 시상면(sagittal plane))에 대하여 각각 특정 장기(예를 들어, 췌장)의 위치에 대한 불확실성을 정량화하고, 각 영상에 대하여 협동 학습(co-training’s prediction)을 통해 췌장 자동 분할을 수행할 수 있다.For example, as shown in FIG. 4B, the present invention quantifies uncertainty using a 3D U-net (3D segmentation network) that considers the uncertainty of a specific device to quantify information about the uncertain area in the image. , this can be reflected in the segmentation model (i.e., automatic pancreas segmentation). In addition, as shown in FIG. 4C, the present invention provides information on specific organs (e.g., axial plane, coronal plane, sagittal plane) for different types of images (eg, axial plane, coronal plane, sagittal plane). For example, uncertainty about the location of the pancreas can be quantified, and automatic pancreas segmentation can be performed for each image through co-training's prediction.

이를 통해, 본 발명은, 불확실성에 대한 정량화를 수행하고, 협동학습을 수행함으로써, 분할 성능을 개선할 수 있다.Through this, the present invention can improve segmentation performance by quantifying uncertainty and performing cooperative learning.

우선, 데이터 전처리 과정에 대하여 살펴보면 다음과 같다.First, let's look at the data preprocessing process as follows.

제어부(130)는, 획득된 서로 다른 종류의 의료 영상들에 대하여 데이터 전처리를 수행할 수 있다.The controller 130 may perform data preprocessing on different types of acquired medical images.

복부 CT 영상의 촬영 장비와 영상 촬영 프로토콜의 차이로 인해 발생하는 데이터 간의 차이는 네트워크의 분할 성능을 감소시킬 수 있다. Differences between data resulting from differences in imaging equipment and imaging protocols for abdominal CT images may reduce the segmentation performance of the network.

이에 제어부(130)는, 자동 분할을 수행하기 전 복부 CT 영상 간 차이를 감소시키기 위해 밝기값 정규화 및 공간 정규화를 수행한다.Accordingly, the control unit 130 performs brightness value normalization and spatial normalization to reduce differences between abdominal CT images before performing automatic segmentation.

즉, 앞서 살핀 바와 같이, 제어부(130)는, 서로 다른 종류의 의료 영상들인 횡단면, 관상면 및 시상면의 2차원 의료 영상들에 대하여 밝기값 정규화 및 공간 정규화를 수행할 수 있다.That is, as seen above, the controller 130 can perform brightness value normalization and spatial normalization on different types of two-dimensional medical images, namely, the transverse, coronal, and sagittal planes.

복부 CT 영상에서 서로 다른 분포를 갖고 있는 영상의 밝기값 간 범위를 맞춰주기 위해 영상의 밝기값을 수학식 1을 통해 0~255 사이로 정규화한다.In order to match the range between the brightness values of images with different distributions in abdominal CT images, the brightness values of the images are normalized to between 0 and 255 through Equation 1.

이 때, I_org는 원본 영상의 밝기값, I_max와 I_min은 각각 최소 임계치와 최대 임계치로써, 최소 임계치는 배경 영역의 밝기값이 포함되도록 설정하고, 최대 임계치는 뼈 영역의 밝기값이 포함되도록 설정한다. 임계치에 해당하는 값은 실험을 통하여 각각 ?174HU, 326HU로 산정될 수 있다.At this time, I_org is the brightness value of the original image, I_max and I_min are the minimum and maximum threshold values, respectively. The minimum threshold is set to include the brightness value of the background area, and the maximum threshold is set to include the brightness value of the bone area. . The values corresponding to the threshold can be calculated as -174HU and 326HU, respectively, through experiment.

환자 간 화소 공간 범위의 차이를 줄이기 위해 실험데이터의 화소 간격 범위인 0.6641mm~0.9766mm에서 최소 화소 크기에 해당하는 0.6641mm로 실험 데이터 셋의 공간 정규화를 수행한다. To reduce the difference in pixel space range between patients, spatial normalization of the experimental data set is performed from the pixel spacing range of the experimental data, 0.6641mm to 0.9766mm, to 0.6641mm, which corresponds to the minimum pixel size.

공간 정규화는 원본 영상의 화소 크기에서 최소 화소 값을 나누어 최근린 보간법(nearest interpolation)을 이용하여 영상을 변환한다.Spatial normalization divides the minimum pixel value from the pixel size of the original image and transforms the image using nearest interpolation.

이후, 제어부(130)는, 삼단면 2.5D U-NET 기반의 췌장 자동 위치화를 수행할 수 있다.Thereafter, the control unit 130 may perform automatic pancreas localization based on the three-section 2.5D U-NET.

상기 U-net은, 생물 의학 이미지 세분화(Segmentation)를 위해 개발된 컨볼루션 신경망을 의미하며, 2차원 컨볼루션 신경망(2D U-net) 및 3차원 컨볼루션 신경망(3D U-net)을 포함한다.The U-net refers to a convolutional neural network developed for biomedical image segmentation and includes a two-dimensional convolutional neural network (2D U-net) and a three-dimensional convolutional neural network (3D U-net). .

U-net은, 도 5에 도시된 것과 같이, 네트워크 형태가 알파벳 U와 형태가 비슷하게 형성될 수 있다.As shown in FIG. 5, U-net may have a network shape similar to that of the alphabet U.

U-net은 생물 의학 이미지 세분화에서 탁월한 효과를 보이는 세그멘테이션 네트워크(분할 네트워크)이다. U-net is a segmentation network that shows excellent effectiveness in biomedical image segmentation.

기존의 CNN이 주로 단순 분류(Classification)에 쓰였다면, U-net은 분류뿐만 아니라 분할(Segmentation)도 가능하다는 강점을 가진다.While the existing CNN was mainly used for simple classification, U-net has the advantage of being capable of not only classification but also segmentation.

또한, U-net은 Segmentation 시 오버랩 타일(Overlab-tile) 전략을 사용하여 기존의 Segmentation 방식의 문제점을 해결할 수 있다는 장점을 가진다.In addition, U-net has the advantage of being able to solve the problems of the existing segmentation method by using an overlap-tile strategy during segmentation.

상기 오버랩 타일 전략은 사이즈가 큰 영상을 Patch 단위로 잘라 입력(input)으로 넣는 것을 말한다.The overlap tile strategy refers to cutting large-sized images into patches and inputting them as input.

또한, U-net은, Patch 사이즈에 따른 트레이드 오프(trade-off)에 빠지지 않는다는 장점을 갖는다.Additionally, U-net has the advantage of not falling into a trade-off depending on patch size.

일반적으로, 큰 사이즈의 Patch를 사용할 경우, 넓은 범위의 이미지를 한번에 인식하여 콘텍스트(context) 인식에는 큰 효과가 있지만, 위치화(localization) 정확도가 감소되고, 작은 사이즈의 Patch를 사용할 경우, localization 정확도는 증가하지만 인식할 수 있는 Context가 협소해진다.In general, when using a large-sized patch, it has a great effect on context recognition by recognizing a wide range of images at once, but localization accuracy is reduced, and when using a small-sized patch, localization accuracy is reduced. increases, but the context that can be recognized becomes narrower.

그러나, U-net의 네트워크 구조에서는, 수축 경로(Contracting Path)에서는 콘텍스트(context) 인식을, 확장 경로(expanding path)에서는 위치화(localization)을 수행하여, 패치(Patch) 사이즈에 따른 트레이드 오프(trade-off)에 빠지지 않는다는 장점이 있다.However, in U-net's network structure, context recognition is performed on the contracting path and localization is performed on the expanding path, resulting in trade-offs depending on patch size ( It has the advantage of not falling into a trade-off.

본 명세서에서 설명하는 컨볼루션 신경망은, 딥 컨볼루션 인공 신경망(Deep Convolutional Neural Network; DCNN)을 의미할 수 있으며, 위에서 설명한 U-net일 수 있다.The convolutional neural network described in this specification may refer to a deep convolutional neural network (DCNN) and may be the U-net described above.

도 5를 참조하여 상기 컨볼루션 신경망, 즉 U-net에 대하여 설명하면 다음과 같다.The convolutional neural network, that is, U-net, will be described with reference to FIG. 5 as follows.

U-net 네트워크는, convolution encoder에 해당하는 수축 경로(Contracting Path, 빨간 박스)와, convolution decoder에 해당하는 확장 경로(Expanding Path)가 가운데를 중심으로 대칭형태를 이룰 수 있다.In a U-net network, the contracting path (red box) corresponding to the convolution encoder and the expanding path (expanding path) corresponding to the convolution decoder can be symmetrical around the center.

U-net 네트워크는, 확장 경로에서 업 샘플링(Upsampling)을 수행할 때, 정확한 위치화(Localization)을 위해, 수축 경로의 특징(Feature)를 카피 앤 크롭(Copy and Crop)하여, 연속화(Concatenation)하는 구조를 이를 수 있다.When performing upsampling in the expansion path, the U-net network copies and crops the features of the contraction path for accurate localization and concatenation. A structure that does this can be achieved.

구체적으로, 수축 경로(Contracting Path)는, Convolution network 구조를 가지며, 활성화 함수로 ReLU 함수를 사용하고, 2x2 맥스 풀링(max pooling)을 이용해 사이즈를 줄이며 다음 block으로 넘어간다.Specifically, the contracting path has a convolution network structure, uses the ReLU function as an activation function, reduces the size using 2x2 max pooling, and moves on to the next block.

U-net 네트워크는, 다음 block로 넘어간 후 이전 feature channel 개수보다 2배 많은 channel을 feature 추출에 사용한다.The U-net network uses twice as many channels as the previous number of feature channels to extract features after moving to the next block.

확장 경로(Expanding Path)는 Contracting 과정에서 줄어든 사이즈를 키우는 Up-convolution block을 사용한다.The Expanding Path uses an Up-convolution block to increase the size reduced during the contracting process.

2x2 up-convolution(업 컨볼루션)을 사용하고, 활성화 함수로 ReLU를 사용할 수 있다.You can use 2x2 up-convolution and use ReLU as the activation function.

U-net 네트워크는, 다음 block로 넘어간 후 이전 feature channel 개수보다 2배 적은 channel을 Localization에 사용할 수 있다.The U-net network can use channels twice as small as the number of previous feature channels for localization after moving to the next block.

또한, U-net 네트워크는, Contracting Path의 Feature를 Copy and Crop하여 Concatenation 함으로써 이미지 보상처리와 더 정확한 Localization을 하는 구조를 가지고 있다. In addition, the U-net network has a structure that performs image compensation processing and more accurate localization by copying and cropping the features of the contracting path and concatenating them.

U-net 네트워크는, 마지막 Final Layer에서 1x1 convolution을 사용하여 2개의 클래스로 이미지를 분류할 수 있다.The U-net network can classify images into two classes using 1x1 convolution in the last final layer.

본 발명의 의료 영상 분할 장치 및 방법은, 앞서 설명한 U-net을 포함하는 컨볼루션 신경망을 이용하여, 복부 CT 영상에서 췌장을 자동으로 분할할 수 있다.The medical image segmentation apparatus and method of the present invention can automatically segment the pancreas from an abdominal CT image using a convolutional neural network including the U-net described above.

종래에는, 복부 CT 영상에서 췌장이 차지하는 영역이 작아 복부 CT 영상의 전 영역을 이용해 췌장 분할을 진행할 경우 췌장이 과소분할되는 한계가 있다. Conventionally, the area occupied by the pancreas in an abdominal CT image is small, so there is a limit to under-segmentation of the pancreas when pancreas segmentation is performed using the entire area of the abdominal CT image.

이에 복부 CT 영상에서 췌장 위치를 효과적으로 검출한 후 분할 단계에 지역적 문맥 정보에 집중할 수 있는 췌장 영역 정보를 제공하는 것이 필요하다. Therefore, it is necessary to effectively detect the location of the pancreas in abdominal CT images and then provide pancreatic region information that can focus on regional context information in the segmentation step.

본 발명의 의료 영상 분할 장치 및 방법은, 췌장의 공간적 형태를 유추할 수 있는 2.5차원 평면 정보를 활용할 수 있는 복부 CT 영상을 사용한 2차원 U-Net 기반 분할 네트워크로 췌장 위치 정보를 추출하는 방법을 제공할 수 있다.The medical image segmentation device and method of the present invention is a method of extracting pancreas location information using a 2-dimensional U-Net-based segmentation network using abdominal CT images that can utilize 2.5-dimensional plan information that can infer the spatial shape of the pancreas. can be provided.

제어부(130)는, 전처리된 의료 영상들을 생물 의학 이미지 세분화를 위한 컨볼루션 신경망(예를 들어, U-net 네트워크)에 입력하고, 입력된 의료 영상들에 대하여 상기 컨볼루션 신경망으로부터 특정 장기(예를 들어, 췌장)의 형상 정보 확률맵을 출력할 수 있다.The control unit 130 inputs the preprocessed medical images into a convolutional neural network (e.g., U-net network) for biomedical image segmentation, and selects a specific organ (e.g., a specific organ) from the convolutional neural network for the input medical images. For example, a probability map of shape information of the pancreas can be output.

도 4b의 stage 1을 참조하면, 제어부(130)는, 상기 서로 다른 종류의 의료 영상들을 2차원 컨볼루션 신경망에 입력하여 각 의료 영상들에 대한 특정 장기 정보 확률맵을 출력하고, 획득된 복수의 특정 장기 정보 확률맵에 대한 제1 다수투표를 통해 특정 장기의 위치화를 수행할 수 있다.제어부(130)는, 입력 영상으로 데이터 전처리를 수행한 512×512 해상도의 횡단면(axial plane), 관상면(coronal plane), 시상면(sagittal plane)의 2차원 복부 CT 영상을 사용할 수 있다.Referring to stage 1 of FIG. 4B, the control unit 130 inputs the different types of medical images into a two-dimensional convolutional neural network, outputs a probability map of specific organ information for each medical image, and outputs a probability map of specific organ information for each medical image. The location of a specific organ can be performed through a first majority vote on the probability map of specific organ information. The control unit 130 performs data preprocessing on the input image, transverse section (axial plane) and coronal plane with 512 × 512 resolution. Two-dimensional abdominal CT images in the coronal plane and sagittal plane can be used.

상기 컨볼루션 신경망은, 2차원 U-net일 수 있다.The convolutional neural network may be a two-dimensional U-net.

상기 컨볼루션 신경망은, 수축 경로 및 확장 경로로 구성될 수 있다.The convolutional neural network may be composed of a contraction path and an expansion path.

상기 수축 경로에서는, 입력된 의료 영상에 대하여, 컨볼루션, 배치 정규화, 활성화 함수 수행 및 맥스 풀링을 순차적으로 수행할 수 있다.In the contraction path, convolution, batch normalization, activation function performance, and max pooling can be sequentially performed on the input medical image.

구체적으로, 2차원 U-Net은 수축 경로(contracting path)와 확장 경로(expanding path)로 구성될 수 있다.Specifically, a 2D U-Net can be composed of a contracting path and an expanding path.

제어부(130)는, 수축 경로에서 두 번의 3×3 컨볼루션, 배치 정규화(batch normalization; BN), rectified linear unit(ReLU) 함수를 수행한 후 스트라이드(stride) 2인 2×2 맥스 풀링(max-pooling)을 순차적으로 수행하는 단계를 여섯 번 반복할 수 있다.The control unit 130 performs two 3×3 convolutions, batch normalization (BN), and rectified linear unit (ReLU) functions on the shrinkage path, and then performs 2×2 max pooling (max) with a stride of 2. The step of sequentially performing -pooling can be repeated six times.

수축 경로의 각 단계에서 수행하는 2×2 맥스 풀링을 통해 특징맵의 크기는 절반씩 감소하며 특징맵의 채널(channel) 수는 두 배씩 증가한다. Through 2×2 max pooling performed at each stage of the contraction path, the size of the feature map is reduced by half and the number of channels in the feature map is doubled.

확장 경로에서는, 업 컨볼루션 및 연결 연산을 수행하여, 상기 수축 경로에서 줄어든 영상의 크기를 늘리고, 상기 수축 경로에서 증가된 채널 수를 감소시킬 수 있다.In the expansion path, up-convolution and concatenation operations may be performed to increase the size of the image reduced in the contraction path and reduce the number of channels increased in the contraction path.

구체적으로, 제어부(130)는, 확장 경로에서 2×2 업 컨볼루션(up-convolution)을 수행한 후, 확장 경로와 대등한 수축 경로의 마지막 특징 맵을 결합하는 연결 연산(skip connection)을 수행하고 두 번의 3×3 컨볼루션, 배치 정규화, ReLU 함수를 수행하는 단계를 여섯 번 반복할 수 있다.Specifically, the control unit 130 performs a 2×2 up-convolution on the expansion path and then performs a skip connection to combine the last feature map of the expansion path and the equivalent contraction path. And the steps of performing two 3×3 convolutions, batch normalization, and the ReLU function can be repeated six times.

확장 경로의 각 단계에서 수행하는 2×2 업 컨볼루션을 통해 특징맵의 크기는 두 배씩 증가되며 특징맵의 채널 수는 절반씩 감소한다. Through the 2×2 up convolution performed at each stage of the expansion path, the size of the feature map is doubled and the number of channels in the feature map is reduced by half.

제어부(130)는, 최종으로 1×1 컨볼루션을 수행하여 입력 영상과 동일한 크기의 췌장 형상 정보 확률맵을 출력한다. 확률맵은 0에서 1 사이의 확률값을 가진다.The control unit 130 finally performs 1×1 convolution and outputs a probability map of pancreas shape information of the same size as the input image. Probability maps have probability values between 0 and 1.

제어부(130)는, 입력된 의료 영상들에 대하여 제1 다수 투표(Majority Voting)을 적용하여 상기 특정 장기의 위치화를 수행할 수 있다.The control unit 130 may localize the specific organ by applying first majority voting to the input medical images.

구체적으로, 제어부(130)는, 횡단면, 관상면, 시상면의 입력 영상을 사용하여 획득한 N개(N은 자연수)(예를 들어, 세 개)의 분할 결과를 다수투표(majority voting; MV) 기법을 이용하여 췌장 위치화를 수행할 수 있다. Specifically, the control unit 130 performs majority voting (MV) on N (N is a natural number) (e.g., three) segmentation results obtained using input images of the transverse, coronal, and sagittal planes. ) technique can be used to localize the pancreas.

제어부(130)는, 다수투표 결과에서 발생하는 과소적합으로 인한 위치화 오류를 줄이기 위해 여백이 포함되도록 위치화 영역을 설정할 수 있다.The control unit 130 may set the positioning area to include a blank space to reduce positioning errors due to underfitting that occurs in the majority voting results.

이 때, 여백에 해당하는 값은 실험을 통하여 각 축 당 30-픽셀로 설정한다. 도 6은 복부 CT 영상에서의 췌장 자동 위치화 결과로 도 6(a), 도 6(b), 도 6(c)는 각각 횡단면, 관상면, 시상면 입력 영상만을 사용하였을 때의 위치화 결과를 나타내고, 도 6(d)는 삼단면 영상 정보를 다수 투표 방식을 사용하였을 때의 위치화 결과를 나타낸다. At this time, the value corresponding to the margin is set to 30 pixels for each axis through experiment. Figure 6 is the result of automatic pancreas localization in the abdominal CT image, and Figure 6(a), Figure 6(b), and Figure 6(c) are the localization results when only transverse, coronal, and sagittal input images are used, respectively. , and Figure 6(d) shows the localization results when using the multiple voting method for three-section image information.

한 단면의 2차원 평면 정보만을 이용하여 위치화를 수행하는 경우 공간 정보를 고려하지 않아 발생하는 다른 영역으로의 잘못된 분할로 인해 낮은 위치화 정확도를 보이는 반면, 본 발명은, 도 6(d)에 도시된 것과 같이, 다수 투표 방식을 이용해 공간적인 정보를 추가적으로 고려하여 췌장 영역으로의 정확한 위치화를 수행할 수 있다.When localization is performed using only two-dimensional plane information of one cross-section, low localization accuracy is shown due to incorrect division into other areas caused by not considering spatial information. However, the present invention shows low localization accuracy in FIG. 6(d). As shown, accurate localization to the pancreas region can be performed by additionally considering spatial information using a majority voting method.

이후, 본 발명의 의료 영상 분할 장치 및 방법은, 불확실성을 고려하여 췌장을 자동으로 분할하는 방법을 제공할 수 있다.Thereafter, the medical image segmentation apparatus and method of the present invention can provide a method for automatically segmenting the pancreas by taking uncertainty into account.

도 4b의 Stage 2를 참조하면, 본 발명의 제어부(130)는, 위치화된 복수의 의료 영상들을 3차원 의료 영상으로 변환하고, 변환된 복수의 3차원 의료 영상들을 3차원 컨볼루션 신경망에 입력하여, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 각각 출력할 수 있다.Referring to Stage 2 of FIG. 4B, the controller 130 of the present invention converts a plurality of located medical images into 3D medical images and inputs the converted 3D medical images into a 3D convolutional neural network. Thus, a probability map of the average value and a probability map of uncertainty for a plurality of 3D medical images can be output, respectively.

또한, 제어부(130)는, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 이용하여 협동 학습을 수행하고, 협동 학습된 결과에 대한 제2 다수투표를 통해 특정 장기를 분할할 수 있다.In addition, the control unit 130 performs cooperative learning using a probability map of the average value and a probability map of uncertainty for a plurality of 3D medical images, and selects a specific organ through a second majority vote on the cooperatively learned results. It can be divided.

앞서 설명한 서로 다른 종류의 의료 영상들은, 3차원 의료 영상일 수 있다.The different types of medical images described above may be 3D medical images.

이 때, 상기 컨볼루션 신경망은, 3차원 컨볼루션 신경망(즉, 3차원 U-net)일 수 있다.At this time, the convolutional neural network may be a 3D convolutional neural network (i.e., 3D U-net).

상기 3차원 컨볼루션 신경망에 입력되는 복수의 3차원 의료 영상들은, 위치화가 수행된 서로 다른 종류의 의료 영상들을 각각 3차원 의료 영상으로 변환한 영상들일 수 있다. 즉, 상기 복수의 3차원 의료 영상들은, 위치화된 횡단면의 3차원 영상, 위치화된 관상면의 3차원 영상 및 위치화된 시상면의 3차원 영상을 포함할 수 있다.The plurality of 3D medical images input to the 3D convolutional neural network may be images obtained by converting different types of localized medical images into 3D medical images. That is, the plurality of 3D medical images may include a 3D image of a positioned transverse section, a 3D image of a located coronal plane, and a 3D image of a located sagittal plane.

종래 기술인 도 4a에 비해, 본 발명은, 도 4b를 참조하면, 하나의 3차원 의료 영상만을 3차원 컨볼루션 신경망(또는 드롭아웃 레이어)에 입력하는 것이 아닌, 협동 학습을 위해, 복수의 3차원 의료 영상을 3차원 컨볼루션 신경망(또는 드롭아웃 레이어)에 입력하고, 각 3차원 의료 영상에 대하여 평균값의 확률맵 및 불확실성의 확률맵을 출력할 수 있다.Compared to the prior art of FIG. 4A, the present invention, referring to FIG. 4B, does not input only one 3D medical image into a 3D convolutional neural network (or dropout layer), but instead inputs a plurality of 3D medical images for cooperative learning. Medical images can be input into a 3D convolutional neural network (or dropout layer), and a probability map of the average value and a probability map of uncertainty can be output for each 3D medical image.

구체적으로, 제어부(130)는, 복수의 3차원 의료 영상들을 드롭아웃 레이어에 입력하여 상기 3차원 컨볼루션 신경망에 입력한 영상과 동일한 크기의 N개(N은 자연수)의 드롭아웃 결과를 출력하고, 상기 드롭아웃 결과를 이용하여 평균값의 확률맵 및 불확실성의 확률맵을 추출할 수 있다.도 4c를 참조하면, 본 발명의 제어부(130)는, 각 3차원 의료 영상들(Axial plane, Coronal plane, Sagittal plane)에 대하여 산출된 평균값의 확률맵과 불확실성의 확률맵을 이용하여 협동 학습을 수행할 수 있다.Specifically, the control unit 130 inputs a plurality of 3D medical images into a dropout layer and outputs N dropout results (N is a natural number) of the same size as the image input to the 3D convolutional neural network. , a probability map of the average value and a probability map of uncertainty can be extracted using the dropout result. Referring to FIG. 4c, the control unit 130 of the present invention controls each 3D medical image (Axial plane, Coronal plane). Collaborative learning can be performed using the probability map of the average value and the probability map of uncertainty calculated for the sagittal plane.

각 3차원 의료 영상들에서 추출된 평균값의 확률맵과 불확실성의 확률맵을 이용하여 각 3차원 의료 영상들에 대한 예측값(prediction)을 산출하고, 이를 이용하여 협동 학습을 수행하여 협동 학습 예측값(Co-traingins’ prediction)을 산출할 수 있다.Using the probability map of the average value and the probability map of uncertainty extracted from each 3D medical image, a prediction value for each 3D medical image is calculated, and cooperative learning is performed using this to obtain a cooperative learning prediction value (Co -trainins' prediction) can be calculated.

제어부(130)는, 상기 불확실성의 확률맵에 근거하여, 의료 영상에서 특정 장기를 분할할 때 발생되는 불확실한 영역을 감소시키고, 협동 학습을 통해 불확실한 영역에서의 분할 정확도를 증가시킬 수 있다.Based on the probability map of uncertainty, the control unit 130 can reduce the uncertain region that occurs when segmenting a specific organ in a medical image and increase segmentation accuracy in the uncertain region through cooperative learning.

구체적으로, 본 발명은 불확실성을 고려한 3D U-Net 기반의 췌장 자동 분할 방법을 제공할 수 있다.Specifically, the present invention can provide a 3D U-Net-based automatic pancreas segmentation method that takes uncertainty into account.

공간 정보를 고려하지 않는 2차원 네트워크를 이용하여 췌장을 분할할 경우 각 슬라이스에서 보이는 췌장의 형태가 상이하여 췌장 머리 혹은 꼬리 부분에서 과소 분할이 발생하며 췌장의 경계 부분에서의 분할 정확도가 떨어지는 한계가 있다. When segmenting the pancreas using a 2D network that does not consider spatial information, the shape of the pancreas visible in each slice is different, resulting in under-segmentation in the head or tail of the pancreas and lower segmentation accuracy at the border of the pancreas. there is.

또한, 3차원 네트워크로 췌장을 분할하는 경우 췌장과 형태가 유사한 주변 장기로 누출이 발생하고 췌장의 불확실한 경계 부분에서 과소 또는 과대 분할이 발생한다. Additionally, when the pancreas is divided into a 3D network, leakage occurs into surrounding organs that have a similar shape to the pancreas, and under- or over-segmentation occurs at the uncertain border of the pancreas.

따라서 본 발명에서는 췌장 주변의 공간적 정보를 고려하고 유사한 형태를 띠는 주변 장기로의 누출을 방지하며, 췌장의 위치적, 형태적 다양성으로 인해 발생하는 췌장의 불확실한 영역에서의 과소 분할 및 과대 분할을 방지하기 위해 불확실한 영역에 대한 정보를 함께 고려하는 3차원 분할네트워크를 이용하여 췌장을 분할할 수 있다.Therefore, the present invention considers spatial information around the pancreas, prevents leakage to surrounding organs with similar shapes, and prevents under-segmentation and over-segmentation in uncertain areas of the pancreas caused by the positional and morphological diversity of the pancreas. To prevent this, the pancreas can be segmented using a 3D segmentation network that also considers information about uncertain regions.

이를 위해, 본 발명의 의료 영상 분할 장치는, 입력 영상으로 2차원 U-Net 기반 네트워크를 이용하여 위치화된 복부 CT영상을 96×96×96 해상도로 변환한 3차원 복부 CT 영상을 사용할 수 있다. For this purpose, the medical image segmentation device of the present invention can use a 3D abdominal CT image converted to 96×96×96 resolution from a localized abdominal CT image using a 2D U-Net-based network as an input image. .

3차원 U-Net은 2차원 U-Net과 동일하게 수축 경로와 확장 경로로 구성될 수 있다.A 3D U-Net can be composed of a contraction path and an expansion path in the same way as a 2D U-Net.

수축 경로에서는 두 번의 3×3×3 컨볼루션, 배치 정규화, ReLU 함수를 수행한 후 스트라이드 2인 2×2×2 맥스 풀링을 순차적으로 수행하는 단계를 네 번 반복한다. In the contraction path, the steps of performing two 3×3×3 convolutions, batch normalization, and the ReLU function, followed by sequentially performing 2×2×2 max pooling with a stride of 2, are repeated four times.

수축 경로의 각 단계에서 수행하는 2×2×2 맥스 풀링을 통해 특징맵의 크기는 절반씩 감소하며 특징맵의 채널 수는 두 배씩 증가한다. Through 2×2×2 max pooling performed at each stage of the contraction path, the size of the feature map is reduced by half and the number of channels in the feature map is doubled.

확장 경로에서는 2×2×2 업 컨볼루션을 수행한 후, 확장 경로와 대등한 수축 경로의 마지막 특징 맵을 결합하는 연결 연산을 수행하고 두 번의 3×3×3 컨볼루션, 배치 정규화, ReLU 함수를 수행하는 단계를 네 번 반복한다.In the expansion path, a 2×2×2 up-convolution is performed, followed by a concatenation operation that combines the last feature maps of the expansion path and the equivalent contraction path, followed by two 3×3×3 convolutions, batch normalization, and the ReLU function. Repeat the steps four times.

췌장 분할 시 발생하는 불확실한 영역을 감소시키기 위해 최종으로 1×1×1 컨볼루션을 수행하여 입력 영상과 동일한 크기의 3차원 췌장 형상 확률맵을 출력하기 전, 드롭아웃(dropout) 레이어를 추가하여 입력 영상과 동일한 크기의 N개(N은 자연수)의 드롭아웃 결과를 출력한다. 출력된 N개(N은 자연수)의 드롭아웃 결과는 각 3차원 의료 영상들에서 추출된 평균값의 확률맵과 불확실성의 확률맵을 출력하는 데에 사용된다.In order to reduce the uncertain area that occurs when dividing the pancreas, a dropout layer is added to the input before performing a final 1×1×1 convolution and outputting a 3D pancreas shape probability map of the same size as the input image. Output N dropout results (N is a natural number) of the same size as the image. The output N dropout results (N is a natural number) are used to output a probability map of the average value and a probability map of uncertainty extracted from each 3D medical image.

평균값의 확률맵은 도 4c의 (1) 수식, 불확실성의 확률맵은 도 4c의 (2) 수식을 통해 도출될 수 있다.The probability map of the average value can be derived through formula (1) in FIG. 4C, and the probability map of uncertainty can be derived through formula (2) in FIG. 4C.

각 3차원 의료 영상들에서 추출된 평균값의 확률맵과 불확실성의 확률맵을 이용하여 각 3차원 의료 영상들에 대한 예측값(prediction)(도 4c의 (3) 수식)을 산출하고, 이를 이용하여 협동 학습을 수행하여 협동 학습 예측값(Co-traingins’ prediction)(도 4c의 (4) 수식)을 산출할 수 있다. Using the probability map of the average value and the probability map of uncertainty extracted from each 3D medical image, a prediction value (formula (3) in Figure 4c) is calculated for each 3D medical image, and this is used to cooperate By performing learning, a cooperative learning prediction value (Co-trainings' prediction) (equation (4) in FIG. 4C) can be calculated.

본 발명은 이러한 구성을 통해, 불확실성을 고려한 3차원 분할 네트워크를 이용하여 췌장을 분할하는 경우 지역적 문맥 정보 및 공간적 정보를 고려할 수 있을 뿐만 아니라 불확실한 영역에서 발생하는 과소 분할 및 과대 분할 문제를 감소시킬 수 있다.Through this configuration, the present invention not only takes into account local context information and spatial information when segmenting the pancreas using a 3D segmentation network that takes uncertainty into account, but also reduces the problems of under-segmentation and over-segmentation that occur in uncertain areas. there is.

본 발명은, 복부 CT 영상에서 췌장의 위치적, 형태적 변이성으로 인한 불확실한 영역을 고려한 D CNN 기반의 자동 췌장 분할 방법을 제공할 수 있다.The present invention can provide a D CNN-based automatic pancreas segmentation method that takes into account uncertain regions due to the positional and morphological variability of the pancreas in abdominal CT images.

본 발명에 따르면, 본 발명은 3개의 직교 평면 이미지를 기반으로 하는 2.5D 네트워크가 복부 장기의 췌장을 자동으로 찾을 수 있다.According to the present invention, a 2.5D network based on three orthogonal planar images can automatically locate the pancreas of the abdominal organ.

또한, 본 발명에 따르면, 본 발명의 불확실성을 고려한 3D 네트워크는 췌장의 불확실한 영역에서 세분화를 통해 감소시킬 수 있다.Additionally, according to the present invention, the 3D network considering the uncertainty of the present invention can be reduced through segmentation in the uncertain region of the pancreas.

또한, 본 발명의 공동 훈련을 고려한 3D 네트워크는 췌장의 불확실한 영역에서 분할 정확도를 개선할 수 있다.Additionally, the 3D network considering joint training of the present invention can improve segmentation accuracy in uncertain regions of the pancreas.

즉, 본 발명은 복부 CT 영상에서 췌장의 불확실성을 고려한 계단식 네트워크를 이용한 췌장 자동 분할 방법을 제공할 수 있으며, 3개의 직교 평면 정보를 고려하여 췌장을 정확하게 위치시킬 수 있는 2D 앙상블 네트워크를 제공할 수 있다. 또한, 본 발명의 3D 네트워크는 국부적인 공간 정보, 췌장 불확실성 및 공동 훈련을 고려하여 세분화된 영역 아래 및 초과 영역을 줄일 수 있다.In other words, the present invention can provide an automatic pancreas segmentation method using a stepped network that takes into account uncertainty of the pancreas in abdominal CT images, and can provide a 2D ensemble network that can accurately position the pancreas by considering information in three orthogonal planes. there is. Additionally, our 3D network can consider local spatial information, pancreatic uncertainty, and joint training to reduce under- and over-segmented areas.

이러한 구성에 대하여 다음과 같은 실험 및 결과 분석을 수행하였다.The following experiments and result analysis were performed for this configuration.

실험에 사용된 데이터는 미국 국립 보건원(The National Istitutes of Health Clinical Center; NIH)에서 배포한 총 82명 환자의 정맥기(portal-venous) 복부 CT 영상으로, 각 환자의 연령은 18~76세, 남자 53명, 여자 27명으로 구성된다. 모든 데이터는 Phillips와 Siemens에서 관전압(tube voltage) 120 kVp으로 촬영된 3차원 횡단면 복부 CT 영상을 사용하였다. 총 82명의 복부 CT 영상의 슬라이스 개수는 181~466장, 영상 해상도는 512×512, 화소 크기는 0.6641~0.9766mm2, 슬라이스 간격은 0.5mm~1.0mm으로 구성된다.The data used in the experiment were portal-venous abdominal CT images of a total of 82 patients distributed by the National Institutes of Health Clinical Center (NIH). The age of each patient was 18 to 76 years old. It consists of 53 men and 27 women. All data were obtained from 3D cross-sectional abdominal CT images taken by Phillips and Siemens at a tube voltage of 120 kVp. The number of slices in the abdominal CT images of a total of 82 people was 181~466, the image resolution was 512×512, the pixel size was 0.6641~0.9766mm2, and the slice interval was 0.5mm~1.0mm.

실험을 위한 환경은 Windows 10 (64-bit) 운영체제에\서 Inter(R) Core(TM) i7-8700 3.20Hz CPU, 32GB 메모리, NVIDIA GeForce RTX 2080Ti 그래픽 카드를 장착한 PC를 사용하여 실험하였다. 본 제안 방법은 파이썬(python) 기반의 딥러닝 라이브러리인 텐서플로우(Tensorflow) 및 케라스(Keras)를 이용하여 구현하였으며, 2차원 및 3차원 U-Net은 오픈 소스 패키지를 변형하여 사용하였다. 2차원 분할 네트워크 학습에 사용된 학습률(learning rate)은 0.0001, 배치 크기는 1을 사용하였고, 최적화를 위해 아담 옵티마이저(Adam optimizer)를 사용하여 총 100번의 반복 학습을 수행하였다. 손실 함수는 교차 엔트로피(cross-entropy)를 사용하였다. 3차원 분할 네트워크 학습에 사용된 학습률의 초기값은 0.0001로 검증 데이터 셋의 손실 함수가 줄어들지 않는 경우 0.8배씩 감소되며, 배치 크기는 1을 사용하였고, 최적화를 위해 아담 옵티마이저를 사용하였다. 실험은 홀드아웃(hold-out) 교차 검증 방식을 수행하였다. 실험을 위하여 훈련 데이터 셋 52개, 테스트 데이터 셋 16개로 데이터 셋을 구성하였고, 과적합(overfitting) 방지를 위하여 검증(validation) 데이터 셋 14개로 나누어 구성하였다.The environment for the experiment was a PC equipped with an Inter(R) Core(TM) i7-8700 3.20Hz CPU, 32GB memory, and an NVIDIA GeForce RTX 2080Ti graphics card under the Windows 10 (64-bit) operating system. This proposed method was implemented using Python-based deep learning libraries Tensorflow and Keras, and 2D and 3D U-Net were used by modifying open source packages. The learning rate used to learn the 2D segmentation network was 0.0001 and the batch size was 1, and for optimization, a total of 100 iterative learning was performed using the Adam optimizer. The loss function used cross-entropy. The initial value of the learning rate used for learning the 3D segmentation network was 0.0001, and if the loss function of the validation data set did not decrease, it was decreased by 0.8 times. The batch size was 1, and the Adam optimizer was used for optimization. The experiment was conducted using a hold-out cross-validation method. For the experiment, the data set was composed of 52 training data sets and 16 test data sets, and was divided into 14 validation data sets to prevent overfitting.

본 제안 방법의 성능 평가를 위해 정량적 평가와 정성적 평가를 수행하였다. 정량적 평가를 위해 수동 분할 결과와 비교방법, 제안 방법 결과 간 DSC, 민감도(Recall), 양성예측도(Precision)를 수학식 2와 같이 측정하였다.Quantitative and qualitative evaluations were performed to evaluate the performance of this proposed method. For quantitative evaluation, DSC, sensitivity (recall), and positive predictive value (Precision) between the manual segmentation results, comparison method, and proposed method results were measured as shown in Equation 2.

이 때, TP는 췌장으로 수동 분할된 영역에서 췌장으로 자동 분할된 영역이고, TN은 췌장이 아닌 영역으로 수동 분할된 영역에서 췌장이 아닌 영역으로 자동 분할된 영역이고, FP는 췌장이 아닌 영역으로 수동 분할된 영역에서 췌장으로 자동 분할된 영역이며, FN은 췌장으로 수동 분할된 영역에서 췌장이 아닌 영역으로 자동 분할된 영역을 의미한다.At this time, TP is the area automatically divided into the pancreas from the area manually divided into the pancreas, TN is the area automatically divided from the area manually segmented into the non-pancreas to the non-pancreas area, and FP is the area automatically divided into the non-pancreas area. The area is automatically segmented from the manually segmented area into the pancreas, and FN refers to the area automatically segmented from the area manually segmented into the pancreas to the non-pancreas area.

비교 방법으로는 2차원 U-Net 구조에서 횡단면, 관상면, 시상면을 이용한 췌장 분할 방법을 각각 Method A, Method B, Method C로 하고, 2차원 U-Net 구조에서 횡단면, 관상면, 시상면을 이용한 췌장 분할 결과의 다수 투표 방법(Method D)과 다수투표 방법을 통해 위치화된 3차원 입력 영상을 이용한 췌장 분할 방법(Method E)과 불확실도를 고려한 제안 방법(Method F)의 성능을 비교 분석하였다.As a comparison method, the pancreas segmentation methods using transverse, coronal, and sagittal planes in a two-dimensional U-Net structure are Method A, Method B, and Method C, respectively, and method C is used to segment the pancreas using transverse, coronal, and sagittal planes in a two-dimensional U-Net structure. Comparative analysis of the performance of the majority voting method (Method D) of the pancreas segmentation results using , the pancreas segmentation method (Method E) using a 3D input image located through the majority voting method, and the proposed method (Method F) considering uncertainty. did.

표 1은 췌장 분할 결과의 정량적 평가 결과이다. Table 1 shows the quantitative evaluation results of pancreatic segmentation results.

단면 영상을 사용하여 2차원 분할 네트워크를 훈련시킨 Method A, Method B, Method C의 경우, 평균 DSC가 74.41%로 전반적으로 낮은 성능을 보였다. 반면 Method D의 경우, 단일 단면의 2차원 평면 정보를 결합해 2.5차원 공간 정보를 유추하고 다수 투표 방식을 사용함으로써 과대 분할 영역이 감소하여 Method A, Method B, Method C 보다 민감도 측면에서 각각 1.94%p, 5.58%p, 3.42%p 향상된 성능을 보였으나 과소분할 경향을 보여 가장 높은 양성예측도를 보였다. Method E의 경우, Method D 대비 제한된 영역에서의 공간적 정보를 함께 고려함으로써 과소 분할이 방지되어 민감도가 3.29%p 상승하였으나 췌장의 불확실한 경계 부분에서의 과대 분할로 인해 양성예측도가 8.19%p 하락한 것을 확인할 수 있었고, Method F를 적용하였을 때 불확실한 영역에 대한 정보를 함께 고려해 줌으로써 Method E 대비 DSC, 민감도, 양성예측도가 각각 3.95%p, 2.83%p, 4.13%p 상승함을 확인할 수 있었다.Method A, Method B, and Method C, which trained a 2D segmentation network using cross-sectional images, showed overall low performance with an average DSC of 74.41%. On the other hand, in the case of Method D, 2.5-dimensional spatial information is inferred by combining 2-dimensional plane information of a single cross-section and by using a majority voting method, the over-segmented area is reduced, resulting in a sensitivity of 1.94% compared to Method A, Method B, and Method C, respectively. p, 5.58%p, and 3.42%p improved performance, but showed a tendency for under-segmentation, showing the highest positive predictive value. In the case of Method E, sensitivity increased by 3.29%p by preventing undersegmentation by considering spatial information in a limited area compared to Method D, but the positive predictive value decreased by 8.19%p due to oversegmentation at the uncertain border of the pancreas. It was confirmed that when Method F was applied, the DSC, sensitivity, and positive predictive value increased by 3.95%p, 2.83%p, and 4.13%p, respectively, compared to Method E by considering information about the uncertain area.

도 7은 복부 CT 영상에서 췌장 위치에 따른 비교 방법별 분할 결과이다. 본 제안 방법의 정성적 평가를 위해 비교 방법 및 제안 방법의 결과 각각을 수동 결과와 비교하였다. Figure 7 shows the segmentation results by comparison method according to the location of the pancreas in the abdominal CT image. For qualitative evaluation of this proposed method, the results of the comparative method and the proposed method were compared with the manual results, respectively.

도 7에서 (a) 내지 (g)는, Method A 내지 Method G에 각각 대응되는 정성적 평가를 나타내며, 빨간색은 수동 분할 결과와 겹치는 영역, 파란색은 과대 분할 영역, 초록색은 과소 분할 영역을 나타낸다.In Figure 7, (a) to (g) show qualitative evaluations corresponding to Method A to Method G, respectively, where red indicates the area overlapping with the manual segmentation result, blue indicates the over-segmented area, and green indicates the under-segmented area.

Method A, Method B, Method C의 경우 흉곽, 간, 비장, 소장 등 유사한 형태 및 밝기값을 갖는 주변 영역으로 누출이 발생하였고, 췌장 머리, 꼬리 부분에서 과소 분할이 발생하였다. Method D의 경우 다수 투표를 통해 횡단면, 관상면, 시상면에서의 분할 결과에서 발생한 주변 장기로의 누출을 해결하였으나, 췌장 꼬리 부분에서 과소 분할이 여전히 존재하는 것을 확인할 수 있었다. Method E의 경우 제한된 영역 내의 공간 정보를 이용해 주변 장기로의 누출을 감소시켰으나, 췌장과 유사한 형태를 갖는 소장으로의 누출이 존재하며 췌장의 불확실한 경계 부분에서 과소 분할 및 과대 분할된 것을 확인할 수 있었다. Method F의 경우 Method A, Method B, Method C에서 발생하는 주변 장기로의 누출을 방지하고 Method E에서 과소 분할된 영역을 분할함으로써 수동 분할 결과와 가장 유사함을 확인할 수 있었다.In Method A, Method B, and Method C, leakage occurred in surrounding areas with similar shapes and brightness values, such as the chest, liver, spleen, and small intestine, and undersegmentation occurred in the head and tail of the pancreas. In the case of Method D, leakage to surrounding organs arising from segmentation results in the transverse, coronal, and sagittal planes was resolved through majority voting, but it was confirmed that undersegmentation still existed in the tail of the pancreas. In the case of Method E, leakage to surrounding organs was reduced using spatial information within a limited area, but it was confirmed that there was leakage into the small intestine, which has a shape similar to the pancreas, and that the pancreas was under- and over-segmented at the uncertain border. In the case of Method F, it was confirmed that it was most similar to the manual segmentation results by preventing leakage to surrounding organs that occurred in Method A, Method B, and Method C and dividing the under-segmented area in Method E.

이러한 실험 및 구성을 통해, 본 발명은, 2.5차원 분할 네트워크로 췌장의 위치 정보를 자동으로 추출한 뒤 위치화된 영역에서 불확실한 영역에 대한 정보를 고려한 3차원 분할 네트워크를 이용해 췌장을 정확하게 분할하는 방법을 제공할 수 있다.Through these experiments and configurations, the present invention provides a method of automatically extracting the location information of the pancreas using a 2.5-dimensional segmentation network and then accurately segmenting the pancreas using a 3-dimensional segmentation network that takes into account information about uncertain areas in the located area. can be provided.

또한, 본 발명은, 2차원 분할 네트워크를 이용해 복부 CT 영상에서 췌장의 정확한 위치 정보를 획득하기 위해 횡단면, 관상면, 시상면의 복부 CT 영상에서 획득한 N개(N은 자연수)의 분할 결과를 다수투표를 통해 개선하였고, 불확실도에 따라 손실함수의 가중치를 변경해줌으로써 위치화된 3차원 복부 CT 영상에서 췌장의 형태적 특징으로 인해 발생하는 불확실한 영역에서의 과소 분할을 극복할 수 있다.In addition, the present invention uses a two-dimensional segmentation network to obtain N segmentation results (N is a natural number) obtained from abdominal CT images in the transverse, coronal, and sagittal planes in order to obtain accurate location information of the pancreas in the abdominal CT image. It was improved through majority voting, and by changing the weight of the loss function according to uncertainty, it is possible to overcome under-segmentation in uncertain areas caused by morphological characteristics of the pancreas in localized 3D abdominal CT images.

또한, 본 발명은, 비교 방법 대비 제안 방법의 췌장 분할 결과와 수동 분할 결과 간 DSC는 83.50%를 보였고 다른 비교 방법들에 비해 췌장의 정확한 분할이 가능함을 확인할 수 있다.In addition, the present invention showed a DSC of 83.50% between the pancreas segmentation results of the proposed method and the manual segmentation results compared to the comparative method, and it can be confirmed that accurate segmentation of the pancreas is possible compared to other comparative methods.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of the method or algorithm described in connection with embodiments of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. The software module may be RAM (Random Access Memory), ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. Above, embodiments of the present invention have been described with reference to the attached drawings, but those skilled in the art will understand that the present invention can be implemented in other specific forms without changing its technical idea or essential features. You will be able to understand it. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

Claims (23)

장치에 의해 수행되는 방법에 있어서,
복부 장기가 촬영된 서로 다른 종류의 의료 영상들을 획득하는 단계;
상기 서로 다른 종류의 의료 영상들을 2차원 컨볼루션 신경망에 입력하여 각 의료 영상들에 대한 특정 장기 정보 확률맵을 출력하고, 획득된 복수의 특정 장기 정보 확률맵에 대한 제1 다수투표를 통해 특정 장기의 위치화를 수행하는 단계;
위치화된 복수의 의료 영상들을 3차원 의료 영상으로 변환하고, 변환된 복수의 3차원 의료 영상들을 3차원 컨볼루션 신경망에 입력하여, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 각각 출력하는 단계; 및
복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 이용하여 협동 학습을 수행하고, 협동 학습된 결과에 대한 제2 다수투표를 통해 특정 장기를 분할하는 단계를 포함하며,
상기 출력하는 단계는,
복수의 3차원 의료 영상들을 드롭아웃 레이어에 입력하여 상기 3차원 컨볼루션 신경망에 입력한 영상과 동일한 크기의 N개(N은 자연수)의 드롭아웃 결과를 출력하고, 상기 드롭아웃 결과를 이용하여 평균값의 확률맵 및 불확실성의 확률맵을 추출하는 것을 특징으로 하는 의료 영상 분할 방법.
In a method performed by a device,
Obtaining different types of medical images of abdominal organs;
By inputting the different types of medical images into a two-dimensional convolutional neural network, a specific organ information probability map for each medical image is output, and a specific organ is selected through a first majority vote on the obtained plurality of specific organ information probability maps. performing positioning;
Convert multiple localized medical images into 3D medical images, input the multiple converted 3D medical images into a 3D convolutional neural network, and create a probability map of the average value and uncertainty of the multiple 3D medical images. Outputting each probability map; and
It includes performing cooperative learning using a probability map of the average value and a probability map of uncertainty for a plurality of 3D medical images, and dividing a specific organ through a second majority vote on the cooperatively learned result,
The output step is,
Input a plurality of 3D medical images into a dropout layer to output N dropout results (N is a natural number) of the same size as the image input to the 3D convolutional neural network, and use the dropout results to calculate the average value. A medical image segmentation method characterized by extracting a probability map of and a probability map of uncertainty.
제 1 항에 있어서,
상기 서로 다른 종류의 의료 영상들은, 횡단면, 관상면 및 시상면의 2차원 의료 영상을 포함하는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 1,
A medical image segmentation method, wherein the different types of medical images include two-dimensional medical images in the transverse section, coronal section, and sagittal section.
제 1 항에 있어서,
상기 서로 다른 종류의 의료 영상들에 대하여 데이터 전처리를 수행하는 단계를 더 포함하고,
상기 데이터 전처리를 수행하는 단계는,
상기 서로 다른 종류의 의료 영상들에 대하여 밝기값 정규화 및 공간 정규화를 수행하는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 1,
Further comprising performing data preprocessing on the different types of medical images,
The step of performing the data preprocessing is,
A medical image segmentation method characterized by performing brightness value normalization and spatial normalization on the different types of medical images.
제 3 항에 있어서,
상기 공간 정규화는,
원본 영상의 화소 크기에서 최소 화소 값을 나누어 최근린 보간법을 이용하여 영상을 변환하는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 3,
The spatial normalization is,
A medical image segmentation method characterized by dividing the minimum pixel value from the pixel size of the original image and converting the image using nearest neighbor interpolation.
제 1 항에 있어서,
상기 2차원 컨볼루션 신경망 및 3차원 컨볼루션 신경망은, 수축 경로 및 확장 경로로 구성되는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 1,
A medical image segmentation method, wherein the 2D convolutional neural network and the 3D convolutional neural network are composed of a contraction path and an expansion path.
제 5 항에 있어서,
상기 수축 경로에서는,
상기 입력된 의료 영상들에 대하여, 컨볼루션, 배치 정규화, 활성화 함수 수행 및 맥스 풀링을 순차적으로 수행하는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 5,
In the contraction path,
A medical image segmentation method characterized by sequentially performing convolution, batch normalization, activation function performance, and max pooling on the input medical images.
제 5 항에 있어서,
상기 확장 경로에서는,
업 컨볼루션 및 연결 연산을 수행하여, 상기 수축 경로에서 줄어든 영상의 크기를 늘리고, 상기 수축 경로에서 증가된 채널 수를 감소시키는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 5,
In the above expansion path,
A medical image segmentation method comprising performing up-convolution and concatenation operations to increase the size of the image reduced in the contracted path and reduce the number of channels increased in the contracted path.
제 1 항에 있어서,
상기 서로 다른 종류의 의료 영상들은, 삼단면 영상 정보이고,
상기 위치화를 수행하는 단계는,
상기 삼단면 영상 정보에 대한 공간적인 정보를 이용하여 상기 특정 장기의 위치화를 수행하는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 1,
The different types of medical images are three-section image information,
The step of performing the positioning is,
A medical image segmentation method, characterized in that localization of the specific organ is performed using spatial information about the three-section image information.
제 1 항에 있어서,
상기 3차원 컨볼루션 신경망에 입력되는 복수의 3차원 의료 영상들은,
위치화가 수행된 서로 다른 종류의 의료 영상들을 각각 3차원 의료 영상으로 변환한 영상들인 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 1,
A plurality of 3D medical images input to the 3D convolutional neural network are:
A medical image segmentation method characterized by converting different types of medical images on which localization has been performed into three-dimensional medical images.
삭제delete 제 1 항에 있어서,
상기 특정 장기를 분할하는 단계는,
상기 불확실성의 확률맵에 근거하여, 의료 영상에서 특정 장기를 분할할 때 발생되는 불확실한 영역을 감소시키고,
협동 학습을 통해 불확실한 영역에서의 분할 정확도를 증가시키는 것을 특징으로 하는 의료 영상 분할 방법.
According to claim 1,
The step of dividing the specific organ is,
Based on the probability map of uncertainty, the uncertain area that occurs when segmenting a specific organ in a medical image is reduced,
A medical image segmentation method characterized by increasing segmentation accuracy in uncertain areas through cooperative learning.
복부 장기가 촬영된 서로 다른 종류의 의료 영상들을 획득하는 의료 영상 획득부; 및
상기 서로 다른 종류의 의료 영상들을 2차원 컨볼루션 신경망에 입력하여 각 의료 영상들에 대한 특정 장기 정보 확률맵을 출력하고, 획득된 복수의 특정 장기 정보 확률맵에 대한 제1 다수투표를 통해 특정 장기의 위치화를 수행하는 제어부를 포함하고,
상기 제어부는,
위치화된 복수의 의료 영상들을 3차원 의료 영상으로 변환하고, 변환된 복수의 3차원 의료 영상들을 3차원 컨볼루션 신경망에 입력하여, 복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 각각 출력하며,
복수의 3차원 의료 영상들에 대한 평균값의 확률맵 및 불확실성의 확률맵을 이용하여 협동 학습을 수행하고, 협동 학습된 결과에 대한 제2 다수투표를 통해 특정 장기를 분할하고,
복수의 3차원 의료 영상들을 드롭아웃 레이어에 입력하여 상기 3차원 컨볼루션 신경망에 입력한 영상과 동일한 크기의 N개(N은 자연수)의 드롭아웃 결과를 출력하고, 상기 드롭아웃 결과를 이용하여 평균값의 확률맵 및 불확실성의 확률맵을 추출하는 것을 특징으로 하는 의료 영상 분할 장치.
a medical image acquisition unit that acquires different types of medical images of abdominal organs; and
By inputting the different types of medical images into a two-dimensional convolutional neural network, a specific organ information probability map for each medical image is output, and a specific organ is selected through a first majority vote on the obtained plurality of specific organ information probability maps. It includes a control unit that performs positioning,
The control unit,
Convert multiple localized medical images into 3D medical images, input the multiple converted 3D medical images into a 3D convolutional neural network, and create a probability map of the average value and uncertainty of the multiple 3D medical images. Probability maps are output respectively,
Collaborative learning is performed using a probability map of the average value and a probability map of uncertainty for a plurality of 3D medical images, and a specific organ is segmented through a second majority vote on the cooperatively learned results.
Input a plurality of 3D medical images into a dropout layer to output N dropout results (N is a natural number) of the same size as the image input to the 3D convolutional neural network, and use the dropout results to calculate the average value. A medical image segmentation device characterized by extracting a probability map of and a probability map of uncertainty.
제 12 항에 있어서,
상기 특정 장기는, 췌장을 포함하고,
상기 서로 다른 종류의 의료 영상들은, 횡단면, 관상면 및 시상면의 2차원 의료 영상을 포함하는 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 12,
The specific organs include the pancreas,
A medical image segmentation device, wherein the different types of medical images include two-dimensional medical images in the transverse section, coronal section, and sagittal section.
제 12 항에 있어서,
상기 제어부는,
상기 서로 다른 종류의 의료 영상들에 대하여 데이터 전처리를 수행하며,
상기 서로 다른 종류의 의료 영상들에 대하여 밝기값 정규화 및 공간 정규화를 수행하는 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 12,
The control unit,
Perform data preprocessing on the different types of medical images,
A medical image segmentation device that performs brightness value normalization and spatial normalization on the different types of medical images.
제 14 항에 있어서,
상기 공간 정규화는,
원본 영상의 화소 크기에서 최소 화소 값을 나누어 최근린 보간법을 이용하여 영상을 변환하는 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 14,
The spatial normalization is,
A medical image segmentation device characterized by dividing the minimum pixel value from the pixel size of the original image and converting the image using nearest neighbor interpolation.
제 12 항에 있어서,
상기 2차원 컨볼루션 신경망 및 3차원 컨볼루션 신경망은, 수축 경로 및 확장 경로로 구성되는 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 12,
A medical image segmentation device, wherein the 2D convolutional neural network and the 3D convolutional neural network are composed of a contraction path and an expansion path.
제 16 항에 있어서,
상기 수축 경로에서는,
상기 입력된 의료 영상들에 대하여, 컨볼루션, 배치 정규화, 활성화 함수 수행 및 맥스 풀링을 순차적으로 수행하는 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 16,
In the contraction path,
A medical image segmentation device that sequentially performs convolution, batch normalization, activation function, and max pooling on the input medical images.
제 16 항에 있어서,
상기 확장 경로에서는,
업 컨볼루션 및 연결 연산을 수행하여, 상기 수축 경로에서 줄어든 영상의 크기를 늘리고, 상기 수축 경로에서 증가된 채널 수를 감소시키는 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 16,
In the above expansion path,
A medical image segmentation device that performs up-convolution and concatenation operations to increase the size of the image reduced in the contracted path and reduce the number of channels increased in the contracted path.
제 12 항에 있어서,
상기 서로 다른 종류의 의료 영상들은, 삼단면 영상 정보이고,
상기 제어부는,
상기 삼단면 영상 정보에 대한 공간적인 정보를 이용하여 상기 특정 장기의 위치화를 수행하는 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 12,
The different types of medical images are three-section image information,
The control unit,
A medical image segmentation device that localizes the specific organ using spatial information about the three-section image information.
제 12 항에 있어서,
상기 3차원 컨볼루션 신경망에 입력되는 복수의 3차원 의료 영상들은,
위치화가 수행된 서로 다른 종류의 의료 영상들을 각각 3차원 의료 영상으로 변환한 영상들인 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 12,
A plurality of 3D medical images input to the 3D convolutional neural network are:
A medical image segmentation device characterized by converting different types of medical images on which localization has been performed into three-dimensional medical images.
삭제delete 제 12 항에 있어서,
상기 제어부는,
상기 불확실성의 확률맵에 근거하여, 의료 영상에서 특정 장기를 분할할 때 발생되는 불확실한 영역을 감소시키고,
협동 학습을 통해 불확실한 영역에서의 분할 정확도를 증가시키는 것을 특징으로 하는 의료 영상 분할 장치.
According to claim 12,
The control unit,
Based on the probability map of uncertainty, the uncertain area that occurs when segmenting a specific organ in a medical image is reduced,
A medical image segmentation device that increases segmentation accuracy in uncertain areas through cooperative learning.
하드웨어인 컴퓨터와 결합되어, 제1항 내지 제9항 및 제11항 중 어느 한 항의 방법을 수행하도록 컴퓨터에서 판독가능한 기록매체에 저장된 컴퓨터 프로그램.A computer program combined with a computer as hardware and stored in a computer-readable recording medium to perform the method of any one of claims 1 to 9 and 11.
KR1020210113202A 2021-08-26 2021-08-26 Medical image segmentation apparatus and method for segmentating medical image KR102591587B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210113202A KR102591587B1 (en) 2021-08-26 2021-08-26 Medical image segmentation apparatus and method for segmentating medical image
KR1020230137826A KR20230148139A (en) 2021-08-26 2023-10-16 Device, method and program for segmenting medical images based on artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210113202A KR102591587B1 (en) 2021-08-26 2021-08-26 Medical image segmentation apparatus and method for segmentating medical image

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230137826A Division KR20230148139A (en) 2021-08-26 2023-10-16 Device, method and program for segmenting medical images based on artificial intelligence

Publications (2)

Publication Number Publication Date
KR20230030935A KR20230030935A (en) 2023-03-07
KR102591587B1 true KR102591587B1 (en) 2023-10-18

Family

ID=85512845

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210113202A KR102591587B1 (en) 2021-08-26 2021-08-26 Medical image segmentation apparatus and method for segmentating medical image
KR1020230137826A KR20230148139A (en) 2021-08-26 2023-10-16 Device, method and program for segmenting medical images based on artificial intelligence

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230137826A KR20230148139A (en) 2021-08-26 2023-10-16 Device, method and program for segmenting medical images based on artificial intelligence

Country Status (1)

Country Link
KR (2) KR102591587B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196680A (en) * 2012-03-22 2013-09-30 Nec (China) Co Ltd Concept recognition method and concept recognition device based on co-learning
US20210125707A1 (en) 2019-10-23 2021-04-29 GE Precision Healthcare LLC Method, system and computer readable medium for automatic segmentation of a 3d medical image

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102314455B1 (en) * 2019-05-31 2021-10-19 서울여자대학교 산학협력단 A Method and Apparatus for Segmentation of Orbital Bone in Head and Neck CT image by Using Deep Learning and Multi-Graylevel Network
KR102332032B1 (en) * 2019-08-16 2021-11-29 서울여자대학교 산학협력단 Abdominal organ status diagnosis based on abnominal organ volume change analysis using abnominal organ automatic segmentation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196680A (en) * 2012-03-22 2013-09-30 Nec (China) Co Ltd Concept recognition method and concept recognition device based on co-learning
US20210125707A1 (en) 2019-10-23 2021-04-29 GE Precision Healthcare LLC Method, system and computer readable medium for automatic segmentation of a 3d medical image

Also Published As

Publication number Publication date
KR20230030935A (en) 2023-03-07
KR20230148139A (en) 2023-10-24

Similar Documents

Publication Publication Date Title
KR102410955B1 (en) Method and computer program for automatic segmentation of abnominal organs based on deep learning in medical images
WO2021238438A1 (en) Tumor image processing method and apparatus, electronic device, and storage medium
US11367185B2 (en) Deep learning-based medical image quality evaluation and virtual clinical trial
CN110599447B (en) Liver cancer focus data processing method, system and storage medium
CN109389584A (en) Multiple dimensioned rhinopharyngeal neoplasm dividing method based on CNN
CN111583246A (en) Method for classifying liver tumors by utilizing CT (computed tomography) slice images
KR102228087B1 (en) Method and apparatus for segmentation of specific cartilage in medical image
CN113239755A (en) Medical hyperspectral image classification method based on space-spectrum fusion deep learning
CN111179237A (en) Image segmentation method and device for liver and liver tumor
CN113436173A (en) Abdomen multi-organ segmentation modeling and segmentation method and system based on edge perception
KR102349515B1 (en) Tumor automatic segmentation based on deep learning in a medical image
CN114758032A (en) Multiphase phase CT image classification system based on space-time attention model and construction method
CN112884759B (en) Method and related device for detecting metastasis state of axillary lymph nodes of breast cancer
CN112767407A (en) CT image kidney tumor segmentation method based on cascade gating 3DUnet model
KR20210020619A (en) Abdominal organ status diagnosis based on abnominal organ volume change analysis using abnominal organ automatic segmentation
CN115908449A (en) 2.5D medical CT image segmentation method and device based on improved UNet model
CN111192268B (en) Medical image segmentation model construction method and CBCT image bone segmentation method
CN115471512A (en) Medical image segmentation method based on self-supervision contrast learning
Pal et al. A fully connected reproducible SE-UResNet for multiorgan chest radiographs segmentation
CN113096132B (en) Image processing method, image processing device, storage medium and electronic equipment
KR102591587B1 (en) Medical image segmentation apparatus and method for segmentating medical image
CN115631387B (en) Method and device for predicting lung cancer pathology high-risk factor based on graph convolution neural network
CN116994113A (en) Automatic segmentation of liver and tumor in CT image based on residual UNet and efficient multi-scale attention method
Poce et al. Pancreas Segmentation in CT Images: State of the Art in Clinical Practice.
CN116109856A (en) Multi-mode mammary gland energy spectrum image classification method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant