KR102655827B1 - Brain tissue segmentation System and method from the brain MRI data using deep-learning - Google Patents

Brain tissue segmentation System and method from the brain MRI data using deep-learning Download PDF

Info

Publication number
KR102655827B1
KR102655827B1 KR1020220058276A KR20220058276A KR102655827B1 KR 102655827 B1 KR102655827 B1 KR 102655827B1 KR 1020220058276 A KR1020220058276 A KR 1020220058276A KR 20220058276 A KR20220058276 A KR 20220058276A KR 102655827 B1 KR102655827 B1 KR 102655827B1
Authority
KR
South Korea
Prior art keywords
mri data
data set
brain
learning
mri
Prior art date
Application number
KR1020220058276A
Other languages
Korean (ko)
Other versions
KR20230158763A (en
Inventor
이준상
신정은
한정호
김준홍
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020220058276A priority Critical patent/KR102655827B1/en
Publication of KR20230158763A publication Critical patent/KR20230158763A/en
Application granted granted Critical
Publication of KR102655827B1 publication Critical patent/KR102655827B1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/04Babies, e.g. for SIDS detection
    • A61B2503/045Newborns, e.g. premature baby monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Abstract

본 발명은 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법에 관한 것으로서, 뇌 MRI 데이터로부터 밝기값 만으로는 구분하기 어려운 미숙아, 특히 생후 3개월 ~ 3세 영유아의 뇌 영역을 높은 정확도로 분할하고, 이에 대한 체적을 측정할 수 있는 기술에 관한 것이다.The present invention relates to a brain region segmentation system and method from brain MRI data using deep learning, and to segment the brain regions of premature infants, especially infants and toddlers aged 3 months to 3 years old, with high accuracy, which are difficult to distinguish from brain MRI data by brightness values alone. It is about technology that can segment and measure its volume.

Description

딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법 {Brain tissue segmentation System and method from the brain MRI data using deep-learning}Brain tissue segmentation system and method from the brain MRI data using deep-learning}

본 발명은 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는 딥러닝을 활용하여 미숙아의 뇌 MR 영상 데이터로부터 뇌 영역(GM, WM 및 CSF)을 분할하고 분할 영역의 체적을 측정하여, 뇌 발달 양상을 정량적으로 추적할 수 있는 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법에 관한 것이다.The present invention relates to a brain region segmentation system and method from brain MRI data using deep learning, and more specifically, to segmenting brain regions (GM, WM, and CSF) from brain MR image data of premature infants using deep learning. It relates to a brain region segmentation system and method from brain MRI data using deep learning that can quantitatively track brain development patterns by measuring the volume of the segmented region.

MRI(자기 공명 영상, Magnetic Resonance Imaging)는 자력에 의하여 발생하는 자기장을 이용하여, 생체의 임의의 단층상을 얻을 수 있는 영상 기법으로서, 동일 환자에 대해서도 강조하는 영상에 따라, T1 강조 영상, T2 강조 영상, FLAIR 영상 등으로 구분되게 된다. 통상적으로 여러 강조 영상을 동시에 활용하여 병증을 진단하게 된다.MRI (Magnetic Resonance Imaging) is an imaging technique that can obtain arbitrary tomographic images of the living body using magnetic fields generated by magnetism. Depending on the image emphasis, even for the same patient, T1-weighted images, T2-weighted images, etc. It is divided into emphasis video, FLAIR video, etc. Typically, multiple weighted images are used simultaneously to diagnose the condition.

T1 강조 영상은 물은 검게 보이고, 지방은 하얗게 보이며, 해부학적 구조를 가장 잘 파악할 수 있으며, T2 강조 영상은 T1 강조 영상과는 반대로 물은 하얗게 보이고 지방이 검게 보여 병소 발견 용이하다.In T1-weighted images, water appears black and fat appears white, and anatomical structures can be best identified, while T2-weighted images, contrary to T1-weighted images, make water appear white and fat appear black, making it easy to detect lesions.

뇌 영역은 회백질(GM, Gray Matter)이라고 불리는 대뇌피질과 그 안쪽을 이루는 백질(WM, White Matter) 및 뇌척수액(CSF, Cerebrospinal Fluid)으로 이루어져 있다. 형태학적으로 영유아 뇌 발달 패턴과 신경 발달 장애를 판단하기 위해 뇌 영역을 분할하여 활용하게 된다.The brain area consists of the cerebral cortex, called gray matter (GM), and the white matter (WM) and cerebrospinal fluid (CSF) that form the inside. Morphologically, brain regions are divided and utilized to determine infant brain development patterns and neurodevelopmental disorders.

2020년 이후 신종 코로나 바이러스 감염증(COVID-19)이 널리 퍼지고 지속되면서, 미숙아 또는, 영유아의 뇌 발달을 저해한다는 연구 결과가 발표되고 있다. 미국 브라운대에서 발표한 결과에 따르면, 코로나 19가 확산되기 시작한 2020년 이후 생후 3개월 ~ 3세 영유아의 뇌 발달 점수가 이전 대비 급격히 떨어졌음을 알 수 있다. 이는 대면 활동의 억제와 한창 사회성을 배워야 할 시기에 마스크 착용으로 인해 타인의 표정을 볼 수 없어 제대로 된 사회성 학습이 이루어지지 않았기 때문으로 예측되고 있다. 또한, 코로나 19로 인한 임신부의 스트레스도 아이의 뇌 발달 저해 요인으로 지목되고 있다.As the novel coronavirus infection (COVID-19) continues to spread widely since 2020, research results have been published showing that it inhibits the brain development of premature babies or infants. According to results announced by Brown University in the United States, the brain development scores of infants and toddlers aged 3 months to 3 years have fallen sharply compared to before in 2020, when COVID-19 began to spread. This is predicted to be due to the suppression of face-to-face activities and the inability to see the facial expressions of others due to wearing masks at a time when social skills should be learned, preventing proper social skills learning from taking place. In addition, pregnant women's stress due to COVID-19 is also being pointed out as a factor in hindering the child's brain development.

그렇지만, 이러한 미숙아나 생후 6개월 이내의 영유아의 뇌 발달 양상을 판단할 수 있는 MRI 데이터의 경우, T1 강조 영상, T2 강조 영상 모두에서 GM과 WM의 밝기값 차이가 거의 없기 때문에, 이를 육안으로 구분하여 뇌 발달 패턴 또는, 신경 발달 장애 여부를 판단하는 것이 매우 어렵다.However, in the case of MRI data that can determine the brain development patterns of premature infants or infants within 6 months of age, there is little difference in brightness values between GM and WM in both T1-weighted images and T2-weighted images, so they can be distinguished with the naked eye. Therefore, it is very difficult to determine brain development patterns or neurodevelopmental disorders.

이에 따라, 최근들어 사람이 인지하기 어려운 밝기값 뿐 아니라, 여러 가지 특성들을 구분하는 데 효과적인 딥러닝 방식을 적용하여, 미숙아나 생후 6개월 영유아에 대한 MRI를 분석하여 뇌 영역 분할을 수행하는 기술이 개발되고 있다.Accordingly, recently, technology has been developed to perform brain region segmentation by analyzing MRI of premature or 6-month-old infants by applying deep learning methods that are effective in distinguishing various characteristics as well as brightness values that are difficult for humans to perceive. It is being developed.

이와 관련해서, 국내 등록 특허 제10-1718130호("자기공명영상을 이용한 뇌 영역의 분할 방법 및 시스템")에서는 표준 뇌 지도 영상을 이용하여 초기 측뇌실 영역을 생성하고 밝기값 임계치에 기반하여 측뇌실 영역을 갱신하여 뇌 영역 분할의 정확도와 효율성을 향상시킬 수 있는 기술을 개시하고 있다.In this regard, in Korea Registered Patent No. 10-1718130 (“Brain region segmentation method and system using magnetic resonance imaging”), the initial lateral ventricle region is created using a standard brain map image and the lateral ventricle region is divided based on the brightness value threshold. is updating and is launching a technology that can improve the accuracy and efficiency of brain region segmentation.

국내등록특허 제10-1718130호(등록일자 2017.03.14.)Domestic registered patent No. 10-1718130 (registration date 2017.03.14.)

본 발명은 상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 생후 6개월 내외의 미숙아의 뇌 MR 영상 데이터를 통해서는 밝기값을 고려한 GM(회백질 영역, gray matter)과 WM(백질 영역, white matter)의 구분이 어렵기 때문에, 딥러닝을 활용하여 구분하기 어려운 요소들을 효과적으로 분리할 수 있는 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법에 관한 것이다.The present invention was created to solve the problems of the prior art as described above. The purpose of the present invention is to detect GM (gray matter) considering brightness values through brain MR image data of premature infants around 6 months old. Since it is difficult to distinguish between WM and WM (white matter), it relates to a brain region segmentation system and method from brain MRI data using deep learning that can effectively separate elements that are difficult to distinguish using deep learning. .

본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템에 있어서, 딥러닝 학습 처리를 위한, 제1 MRI 데이터 셋과 분할하고자 하는 뇌 영역들이 라벨링되어 있는 제2 MRI 데이터 셋을 입력받는 데이터 입력부(100), 상기 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 전달받아, 기설정된 각 방향에 해당하도록 이미지 처리를 수행하여, 각 방향 별 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 생성하는 데이터 전처리부(200), 각 방향 별 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 입력받아 학습 데이터로 생성하고, 기저장된 딥러닝 네트워크를 이용하여 학습 처리를 수행하여, 각 방향 별 학습 모델을 생성하는 딥러닝 학습부(300), 뇌 영역들을 분할하고자 하는 제3 MRI 데이터 셋을 입력받는 외부 데이터 입력부(400), 상기 제3 MRI 데이터 셋을 전달받아, 기설정된 각 방향에 해당하도록 이미지 처리를 수행하여, 각 방향 별 제3 MRI 데이터 셋을 생성하는 외부 데이터 전처리부(500), 각 방향 별 제3 MRI 데이터 셋을 전달받아, 해당하는 방향 별 학습 모델에 각각 입력하여, 각 방향 별 예측 데이터를 출력하는 딥러닝 추론부(600), 각 방향 별 예측 데이터를 통합 이용하여, 상기 제3 MRI 데이터 셋의 각 픽셀마다 해당하는 뇌 영역을 도출하는 추론 융합부(700) 및 각 픽셀 정보를 이용하여 도출한 각 뇌 영역의 분할 처리를 수행하는 분석부(800)를 포함하되, 상기 제1 MRI 데이터 셋은 동일한 영역을 촬영한 T1 강조 MRI 데이터 셋과 T2 강조 MRI 데이터 셋을 포함하는 것이 바람직하다.In a brain region segmentation system from brain MRI data using deep learning according to an embodiment of the present invention, a first MRI data set for deep learning learning processing and second MRI data in which brain regions to be segmented are labeled A data input unit 100 that receives the first MRI data set and the second MRI data set, performs image processing to correspond to each preset direction, and produces a first MRI data set and a second MRI data set for each direction. The data preprocessor 200, which generates an MRI data set, receives the first MRI data set and the second MRI data set for each direction, generates them as learning data, and performs learning processing using a pre-stored deep learning network, A deep learning learning unit 300 that generates a learning model for each direction, an external data input unit 400 that receives a third MRI data set to segment brain regions, and a preset angle input unit that receives the third MRI data set. An external data preprocessor 500 performs image processing to correspond to the direction and generates a third MRI data set for each direction, receives the third MRI data set for each direction, and inputs each into a learning model for each direction. Thus, a deep learning inference unit 600 that outputs prediction data for each direction, an inference fusion unit 700 that derives a brain region corresponding to each pixel of the third MRI data set by integrating the prediction data in each direction. ) and an analysis unit 800 that performs segmentation processing of each brain region derived using each pixel information, wherein the first MRI data set is a T1-weighted MRI data set and a T2-weighted MRI data obtained by imaging the same region. It is desirable to include three.

더 나아가, 상기 데이터 전처리부(200) 및 외부 데이터 전처리부(500)는 전달되는 각 MRI 데이터 셋에 대해서 3차원 데이터를 생성하고, 각 3차원 데이터에 대해 수평면(Axial) 방향, 관상면(Coronal) 방향 및 시상면(Sagittal) 방향으로 슬라이싱 수행하여, 각 방향 별 MRI 데이터 셋을 생성하는 것이 바람직하다.Furthermore, the data preprocessor 200 and the external data preprocessor 500 generate three-dimensional data for each transmitted MRI data set, and for each three-dimensional data, the horizontal plane (Axial) direction and the coronal plane (Coronal plane) are generated. ) direction and sagittal direction, and generate MRI data sets for each direction.

또는, 상기 데이터 전처리부(200) 및 외부 데이터 전처리부(500)는 전달되는 각 MRI 데이터 셋에 포함되어 있는 정보들을 분석하여, 해당하는 수평면(Axial) 방향, 관상면(Coronal) 방향 및 시상면(Sagittal) 방향으로 분류하여, 각 방향 별 MRI 데이터 셋을 생성하는 것이 바람직하다.Alternatively, the data pre-processing unit 200 and the external data pre-processing unit 500 analyze the information included in each transmitted MRI data set and determine the corresponding horizontal (Axial) direction, Coronal direction (Coronal direction), and Sagittal direction. It is desirable to classify by (sagittal) direction and generate MRI data sets for each direction.

더 나아가, 상기 딥러닝 학습부(300)는 상기 딥러닝 추론부(600)에 의한 각 방향 별 예측 데이터를 전달받아, 상기 각 방향 별 예측 데이터와 상기 제2 MRI 데이터 셋을 이용한 기설정된 손실함수의 계산이 최소화되도록 각 방향 별 학습 모델을 업데이트하여, 각 방향 별 최종 학습 모델을 생성하는 것이 바람직하다.Furthermore, the deep learning learning unit 300 receives prediction data for each direction by the deep learning inference unit 600, and calculates a preset loss function using the prediction data for each direction and the second MRI data set. It is desirable to update the learning model for each direction to minimize the calculation of and generate the final learning model for each direction.

더 나아가, 상기 딥러닝 학습부(300)는 상기 딥러닝 네트워크에서, 활성화 함수로 소프트맥스(softmax) 함수를 적용하여 학습 처리를 수행하여, 상기 딥러닝 추론부(600)는 각 방향 별 제3 MRI 데이터 셋의 픽셀마다 각각의 뇌 영역에 해당할 확률 맵(probabilistic map) 형태로 상기 예측 데이터를 출력하는 것이 바람직하다.Furthermore, the deep learning learning unit 300 performs learning processing by applying a softmax function as an activation function in the deep learning network, and the deep learning inference unit 600 performs a third It is desirable to output the prediction data in the form of a probability map corresponding to each brain region for each pixel of the MRI data set.

더 나아가, 상기 추론 융합부(700)는 각 방향 별 예측 데이터를 이용하여, 상기 제3 MRI 데이터 셋의 각 픽셀마다, 해당하는 각 방향 별 각각의 뇌 영역에 해당할 확률에 대한 평균을 연산하여, 가장 높은 평균값에 해당하는 뇌 영역으로 해당하는 픽셀의 최종 뇌 영역을 도출하는 것이 바람직하다.Furthermore, the inference fusion unit 700 uses the prediction data for each direction to calculate the average of the probability that each pixel of the third MRI data set corresponds to each brain region in each direction. , it is desirable to derive the final brain region of the corresponding pixel as the brain region corresponding to the highest average value.

더 나아가, 상기 분석부(800)는 각 픽셀 정보를 이용하여, 각 뇌 영역의 분할 처리를 수행하는 분할 처리부(810) 및 분할 처리된 각 뇌 영역에 포함되어 있는 픽셀의 개수를 이용하여, 각 뇌 영역의 체적(volume)을 연산하는 체적 연산부(820)를 포함하는 것이 바람직하다.Furthermore, the analysis unit 800 uses each pixel information to perform segmentation processing on each brain region, and the number of pixels included in each segmented brain region. It is desirable to include a volume calculation unit 820 that calculates the volume of the brain region.

더 나아가, 상기 체적 연산부(820)는 분할 처리된 각 뇌 영역에 포함되어 있는 픽셀의 개수에 상기 제3 MRI 데이터 셋에 포함되어 있는 방향 별 실제 픽셀 크기 정보를 반영하여, 각 뇌 영역의 실제 스케일의 체적을 연산하는 것이 바람직하다.Furthermore, the volume calculation unit 820 reflects the actual pixel size information for each direction included in the third MRI data set in the number of pixels included in each segmented brain region to determine the actual scale of each brain region. It is desirable to calculate the volume of .

본 발명의 또 다른 일 실시예에 따른 컴퓨터를 포함하는 연산 처리 수단에 의해 각 단계가 수행되는 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템을 이용한 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 방법으로서, 딥러닝 학습 처리를 위한, 제1 MRI 데이터 셋과 분할하고자 하는 뇌 영역들이 라벨링되어 있는 제2 MRI 데이터 셋을 입력받는 제1 입력 단계(S100), 상기 제1 입력 단계(S100)에 의한 MRI 데이터 셋을 전달받아, 기설정된 각 방향에 해당하도록 이미지 처리를 수행하여, 각 방향 별 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 생성하는 제1 전처리 단계(S200), 기저장된 딥러닝 네트워크에서 상기 제1 전처리 단계(S200)에 의한 각 방향 별 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 학습 데이터로 입력받아, 학습 처리를 수행하여, 각 방향 별 학습 모델을 생성하는 딥러닝 학습 단계(S300), 뇌 영역들을 분할하고자 하는 제3 MRI 데이터 셋을 입력받는 제2 입력 단계(S400), 상기 제2 입력 단계(S400)에 의한 MRI 데이터 셋을 전달받아, 기설정된 각 방향에 해당하도록 이미지 처리를 수행하여, 각 방향 별 제3 MRI 데이터 셋을 생성하는 제2 전처리 단계(S500), 상기 제2 전처리 단계(S500)에 의한 각 방향 별 제3 MRI 데이터 셋을 이용하여, 상기 딥러닝 학습 단계(S300)에 의한 해당하는 방향 별 학습 모델에 입력하여, 각 방향 별 예측 데이터를 출력하는 딥러닝 추론 단계(S600), 각 방향 별 예측 데이터를 통합 이용하여, 상기 제2 입력 단계(S400)에 의한 제3 MRI 데이터 셋의 각 픽셀마다 해당하는 뇌 영역을 도출하는 추론 융합 단계(S700), 상기 추론 융합 단계(S700)에 의해 도출한 각 픽셀 정보를 이용하여, 각 뇌 영역의 분할 처리를 수행하는 분할 단계(S800) 및 상기 분할 단계(S800)에 의해 분할 처리된 각 뇌 영역에 포함되는 픽셀의 개수를 이용하여, 각 뇌 영역의 체적(volume)을 연산하는 체적 연산 단계(S900)를 포함하되, 상기 제1 MRI 데이터 셋은 동일한 영역을 촬영한 T1 강조 MRI 데이터 셋과 T2 강조 MRI 데이터 셋을 포함하는 것이 바람직하다.Brain regions from brain MRI data using deep learning using a brain region segmentation system from brain MRI data using deep learning, each step of which is performed by computational processing means including a computer according to another embodiment of the present invention As a segmentation method, a first input step (S100) of receiving a first MRI data set for deep learning learning processing and a second MRI data set in which brain regions to be segmented are labeled, the first input step (S100) A first pre-processing step (S200) of receiving the MRI data set and performing image processing to correspond to each preset direction to generate a first MRI data set and a second MRI data set for each direction (S200), pre-stored deep Deep learning that receives the first MRI data set and the second MRI data set for each direction in the first preprocessing step (S200) as learning data in the learning network, performs learning processing, and generates a learning model for each direction. A learning step (S300), a second input step (S400) of receiving a third MRI data set for dividing brain regions, and receiving the MRI data set by the second input step (S400), in each preset direction. A second pre-processing step (S500) of performing image processing to generate a third MRI data set for each direction, using the third MRI data set for each direction by the second pre-processing step (S500), A deep learning inference step (S600) of inputting the learning model for each direction in the deep learning learning step (S300) and outputting predicted data for each direction, and using the integrated prediction data for each direction, the second input step. An inference fusion step (S700) of deriving a brain region corresponding to each pixel of the third MRI data set in (S400), and using each pixel information derived by the inference fusion step (S700), each brain region A segmentation step (S800) of performing segmentation processing and a volume calculation step of calculating the volume of each brain region using the number of pixels included in each brain region segmented by the segmentation step (S800) ( S900), wherein the first MRI data set preferably includes a T1-weighted MRI data set and a T2-weighted MRI data set obtained by imaging the same region.

더 나아가, 상기 제1 전처리 단계(S200)와 제2 전처리 단계(S500)는 전달되는 각 MRI 데이터 셋에 대해서 3차원 데이터를 생성하고, 각 3차원 데이터에 대해 수평면(Axial) 방향, 관상면(Coronal) 방향 및 시상면(Sagittal) 방향으로 슬라이싱 수행하여, 각 방향 별 MRI 데이터 셋을 생성하는 것이 바람직하다.Furthermore, the first preprocessing step (S200) and the second preprocessing step (S500) generate three-dimensional data for each transmitted MRI data set, and for each three-dimensional data, the horizontal plane (Axial) direction and the coronal plane ( It is desirable to perform slicing in the coronal and sagittal directions to generate MRI data sets for each direction.

또는, 상기 제1 전처리 단계(S200)와 제2 전처리 단계(S500)는 전달되는 각 MRI 데이터 셋에 포함되어 있는 정보들을 분석하여, 해당하는 수평면(Axial) 방향, 관상면(Coronal) 방향 및 시상면(Sagittal) 방향으로 분류하여, 각 방향 별 MRI 데이터 셋을 생성하는 것이 바람직하다.Alternatively, the first preprocessing step (S200) and the second preprocessing step (S500) analyze the information included in each transmitted MRI data set and determine the corresponding horizontal (Axial) direction, Coronal direction (Coronal direction), and Sagittal direction. It is desirable to classify by sagittal direction and generate MRI data sets for each direction.

더 나아가, 상기 딥러닝 학습 단계(S300)는 상기 딥러닝 추론 단계(S600)에 의한 각 방향 별 예측 데이터와 상기 제1 전처리 단계(S200)에 의한 각 방향 별 제2 MRI 데이터 셋을 이용한 기설정된 손실함수의 계산이 최소화되도록 반복하여 학습 처리를 수행하여, 각 방향 별 학습 모델을 생성하고, 활성화 함수로 소프트맥스(softmax) 함수를 적용하여 학습 처리를 수행하는 것이 바람직하다.Furthermore, the deep learning learning step (S300) uses the prediction data for each direction by the deep learning inference step (S600) and the second MRI data set for each direction by the first preprocessing step (S200). It is desirable to perform the learning process repeatedly to minimize the calculation of the loss function, create a learning model for each direction, and perform the learning process by applying a softmax function as an activation function.

더 나아가, 상기 딥러닝 추론 단계(S600)는 각 방향 별 제3 MRI 데이터 셋의 픽셀마다 각각의 뇌 영역에 해당할 확률 맵(probabilistic map) 형태로 상기 예측 데이터를 출력하는 것이 바람직하다.Furthermore, the deep learning inference step (S600) preferably outputs the prediction data in the form of a probability map corresponding to each brain region for each pixel of the third MRI data set for each direction.

더 나아가, 상기 추론 융합 단계(S700)는 각 방향 별 예측 데이터를 이용하여, 상기 제3 MRI 데이터 셋의 각 픽셀마다, 해당하는 각 방향 별 각각의 뇌 영역에 해당할 확률에 대한 평균을 연산하여, 가장 높은 평균값에 해당하는 뇌 영역으로 해당하는 픽셀의 최종 뇌 영역을 도출하는 것이 바람직하다.Furthermore, the inference fusion step (S700) uses prediction data for each direction to calculate the average of the probability that each pixel of the third MRI data set corresponds to each brain region for each direction. , it is desirable to derive the final brain region of the corresponding pixel as the brain region corresponding to the highest average value.

상기와 같은 구성에 의한 본 발명의 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법은 GM과 WM을 밝기값만으로 구분하기 어려워 육안으로 뇌 발달 양상을 판단하기 어려운 MRI 데이터(미숙아 또는 생후 6개월 영유아의 뇌 MR 영상)에 대해서, 딥러닝 방식을 통해 보다 빠르고 정확하게 GM, WM 및 CSF를 각각 분할하고, 분할된 각 영역의 체적을 측정하여, 뇌 발달 양상을 형태학적으로 추적할 수 있는 정량적 진단 인자를 제시할 수 있는 장점이 있다.The brain region segmentation system and method from brain MRI data using deep learning of the present invention according to the above configuration are difficult to distinguish between GM and WM only by brightness values, so it is difficult to determine the brain development pattern with the naked eye (premature infants or For brain MR images of 6-month-old infants), GM, WM, and CSF can be segmented more quickly and accurately using a deep learning method, and the volume of each segmented region can be measured to morphologically track brain development patterns. It has the advantage of being able to present quantitative diagnostic factors.

또한, 모델 학습 및 예측을 위한 계산 효율을 고려하여 3차원 기반의 모델 대신 2차원 기반의 방식을 활용함으로써, 활용성과 계산 효율은 높일 수 있으며, 입력되는 MR 영상을 Axial 방향, Sagittal 방향 및 Coronal 방향으로 분석하여 각각 학습한 모델의 결과를 융합함으로써, 2차원 기반의 모델에 의해 낮을 수 있는 분할 정확도를 향상시킬 수 있는 장점이 있다.In addition, considering computational efficiency for model learning and prediction, usability and computational efficiency can be increased by using a 2D-based method instead of a 3D-based model, and input MR images can be divided into axial, sagittal, and coronal directions. By analyzing and fusing the results of each learned model, there is an advantage in improving segmentation accuracy, which can be low due to 2D-based models.

이를 통해서, 뇌 MR 영상으로부터 미숙아 또는 생후 6개월 영유아의 뇌 영역 체적을 계산하고, 뇌 발달 양상을 시간에 따라 정량적으로 추적할 수 있어, 조기에 뇌 발달 저해를 진단하고 치료를 수행할 수 있는 장점이 있다.Through this, the brain volume of premature infants or 6-month-old infants can be calculated from brain MR images, and brain development patterns can be quantitatively tracked over time, which has the advantage of diagnosing and treating brain development inhibition at an early stage. There is.

뿐만 아니라, 전 과정이 사용자(의료진, 분석자, 엔지니어 등)의 개입없이 자동으로 이루어지기 때문에, 임상적 활용 가치가 더욱 높을 것으로 예상된다.In addition, because the entire process is performed automatically without the intervention of users (medical staff, analysts, engineers, etc.), the clinical usability value is expected to be even higher.

이러한 글로벌 의료 이미지 분석 소프트웨어 시장은 2017년 3.1 조원 규모에서 연평균 8.2% 성장하여 2022년에는 4.6 조원에 달할 것으로 전망되고 있으며, 의료 영상을 활용한 인공지능/빅데이터 소프트웨어 의료기기 글로벌 시장은 2018년 1,100 억원 규모에서 연평균 42.20% 성장하여 2023년에는 6,200 억원 규모에 달할 것으로 전망되는 바, 대부분의 의료 영상 활용 인공지능 소프트웨어에 선행되어야 하는 본 발명의 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법과 같은 의료 이미지 분석에 대한 수요도 자연스레 증가할 것으로 예상된다.The global medical image analysis software market is expected to grow at an average annual rate of 8.2% from KRW 3.1 trillion in 2017 to reach KRW 4.6 trillion in 2022, and the global market for artificial intelligence/big data software medical devices using medical images is expected to reach KRW 1,100 in 2018. It is expected to grow at an average annual rate of 42.20% from KRW 100 million to reach KRW 620 billion in 2023. Brain region segmentation system and brain region segmentation system from brain MRI data using deep learning of the present invention, which must precede most artificial intelligence software utilizing medical images, Demand for medical image analysis such as that method is expected to naturally increase.

도 1은 본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템을 나타낸 구성 예시도이다.
도 2는 본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법에서 활용한 뇌 단면 방향을 나타낸 예시도이다.
도 3은 본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법에 의한 각 방향 별 학습 데이터를 생성하는 예시도이다.
도 4는 본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법에 의한 각 방향 별 학습 모델을 생성하는 예시도이다.
도 5는 본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법에 의한 각 픽셀마다 해당하는 뇌 영역을 도출하는 예시도이다.
도 6은 본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법에 의한 뇌 영역 분할 및 체적 계산 실시예이다.
도 7은 본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법의 성능 분석표이다.
도 8은 본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 방법을 나타낸 순서 예시도이다.
Figure 1 is an exemplary configuration diagram showing a brain region segmentation system from brain MRI data using deep learning according to an embodiment of the present invention.
Figure 2 is an exemplary diagram showing the brain cross-sectional direction used in the brain region segmentation system and method from brain MRI data using deep learning according to an embodiment of the present invention.
Figure 3 is an example of generating learning data for each direction by a brain region segmentation system and method from brain MRI data using deep learning according to an embodiment of the present invention.
Figure 4 is an example diagram of generating a learning model for each direction by a brain region segmentation system and method from brain MRI data using deep learning according to an embodiment of the present invention.
Figure 5 is an example diagram of deriving a brain region corresponding to each pixel by a brain region segmentation system and method from brain MRI data using deep learning according to an embodiment of the present invention.
Figure 6 is an example of brain region segmentation and volume calculation by a brain region segmentation system and method from brain MRI data using deep learning according to an embodiment of the present invention.
Figure 7 is a performance analysis table of a brain region segmentation system and method from brain MRI data using deep learning according to an embodiment of the present invention.
Figure 8 is a flowchart illustrating a method for segmenting brain regions from brain MRI data using deep learning according to an embodiment of the present invention.

이하 첨부한 도면들을 참조하여 본 발명의 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법을 상세히 설명한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다.Hereinafter, a brain region segmentation system and method from brain MRI data using deep learning of the present invention will be described in detail with reference to the attached drawings. The drawings introduced below are provided as examples so that the idea of the present invention can be sufficiently conveyed to those skilled in the art. Accordingly, the present invention is not limited to the drawings presented below and may be embodied in other forms. Additionally, like reference numerals refer to like elements throughout the specification.

이때, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다.At this time, if there is no other definition in the technical and scientific terms used, they have the meaning commonly understood by those skilled in the art to which this invention pertains, and the gist of the present invention is summarized in the following description and attached drawings. Descriptions of known functions and configurations that may be unnecessarily obscure are omitted.

더불어, 시스템은 필요한 기능을 수행하기 위하여 조직화되고 규칙적으로 상호 작용하는 장치, 기구 및 수단 등을 포함하는 구성 요소들의 집합을 의미한다.In addition, a system refers to a set of components including devices, mechanisms, and means that are organized and interact regularly to perform necessary functions.

본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템 및 그 방법은, 미숙아 또는 생후 6개월 영유아의 뇌 MR 영상으로부터 GM, WM 및 CSF를 각각 분할하고, 분할된 각 영역의 체적을 측정하여, 뇌 발달 양상을 형태학적으로 추적할 수 있는 정량적 진단 인자를 제시할 수 있는 기술에 관한 것이다. 특히, 생후 6개월 영유아 또는 미숙아의 뇌 MR 영상에서 GM과 WM을 밝기값 만으로 구분하기 어렵다는 점을 고려하여, 딥러닝 방식을 채용함으로써, 육안으로 구분이 어려운 다양한 요소들을 효과적으로 분리할 수 있는 장점이 있다.A brain region segmentation system and method from brain MRI data using deep learning according to an embodiment of the present invention divides GM, WM, and CSF from brain MR images of premature infants or 6-month-old infants, respectively, and This relates to a technology that can provide quantitative diagnostic factors that can morphologically track brain development patterns by measuring the volume of an area. In particular, considering that it is difficult to distinguish between GM and WM in brain MR images of 6-month-old infants or premature infants based on brightness values alone, adopting a deep learning method has the advantage of effectively separating various elements that are difficult to distinguish with the naked eye. there is.

일반적으로 3차원 기반의 모델이 2차원 기반의 모델보다 높은 분할 성능을 갖지만, 계산 장비의 컴퓨팅 능력(메모리 크기 등)에 따라 적용 자체가 불가능할 수 있기 때문에, 활용성 측면에서 명확한 한계점이 있다. 이러한 점을 해소하기 위하여, 즉, 모델 학습 및 예측을 위한 계산 효율을 고려하여 3차원 기반의 모델 대신 2차원 기반의 방식을 활용함으로써, 활용성과 계산 효율은 높이되, 입력되는 MR 영상을 Axial 방향, Sagittal 방향 및 Coronal 방향으로 분석하여 각각 학습한 모델의 결과를 융합함으로써, 2차원 기반의 모델에 의해 낮을 수 있는 분할 정확도를 향상시킬 수 있는 장점이 있다.In general, 3D-based models have higher segmentation performance than 2D-based models, but their application may not be possible depending on the computing power (memory size, etc.) of the calculation equipment, so there are clear limitations in terms of usability. To solve this problem, by considering computational efficiency for model learning and prediction, a 2D-based method is used instead of a 3D-based model to increase usability and computational efficiency, but to change the input MR image in the axial direction. , by analyzing the sagittal and coronal directions and fusing the results of each learned model, there is an advantage in improving segmentation accuracy, which can be low due to a 2D-based model.

도 1은 본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템을 나타낸 구성 예시도로서, 도 1을 참조로 하여 본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템을 상세히 설명한다.Figure 1 is an example configuration diagram showing a brain region segmentation system from brain MRI data using deep learning according to an embodiment of the present invention. With reference to Figure 1, a system using deep learning according to an embodiment of the present invention is shown. The brain region segmentation system from brain MRI data is described in detail.

본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템은 도 1에 도시된 바와 같이, 데이터 입력부(100), 데이터 전처리부(200), 딥러닝 학습부(300), 외부 데이터 입력부(400), 외부 데이터 전처리부(500), 딥러닝 추론부(600), 추론 융합부(700) 및 분석부(800)를 포함하여 구성되는 것이 바람직하며, 각 구성들은 컴퓨터를 포함하는 하나의 연산 처리 수단 또는 다수의 연산 처리 수단에 포함되는 것이 바람직하다.As shown in FIG. 1, the brain region segmentation system from brain MRI data using deep learning according to an embodiment of the present invention includes a data input unit 100, a data preprocessing unit 200, and a deep learning learning unit 300. , it is preferable to include an external data input unit 400, an external data pre-processing unit 500, a deep learning inference unit 600, an inference fusion unit 700, and an analysis unit 800, and each component uses a computer. It is preferable that it be included in one calculation processing means or in a plurality of calculation processing means.

각 구성에 대해서 자세히 알아보자면,To learn more about each configuration,

상기 데이터 입력부(100)는 딥러닝 학습 처리를 위한, 제1 MRI 데이터 셋과 분할하고자 하는 뇌 영역들이 라벨링되어 있는 제2 MRI 데이터 셋을 입력받게 된다.The data input unit 100 receives a first MRI data set for deep learning processing and a second MRI data set in which brain regions to be segmented are labeled.

상기 제1 MRI 데이터 셋과 제2 MRI 데이터 셋은 공개(public)된 뇌 MRI 데이터 셋을 입력받게 되며, 환자 1명 당 T1 강조 영상 데이터, T2 강조 영상 데이터 및 라벨링된 영상 데이터를 입력받게 된다.The first MRI data set and the second MRI data set receive a public brain MRI data set, and T1-weighted image data, T2-weighted image data, and labeled image data are input for each patient.

상세하게는, 상기 제1 MRI 데이터 셋은 2 채널의 MRI 데이터로서, T1-Weighted 영상과 T2-Weighted 영상을 쌍으로 입력받게 된다. 즉, 상기 제1 MRI 데이터 셋은 동일한 환자의 동일한 뇌 영역을 촬영한 T1 강조 MRI 셋과 T2 강조 MRI 셋을 포함하여 구성되게 된다. 상기 제2 MRI 데이터 셋은 백그라운드 영역, GM 영역, WM 영역 및 CSF 영역이 라벨링 되어 있는 데이터 셋으로, 상기 제1 MRI 데이터 셋과 동일한 환자의 동일한 뇌 영역을 촬영한 라벨 데이터인 것이 바람직하다.In detail, the first MRI data set is two-channel MRI data, and a T1-weighted image and a T2-weighted image are input as a pair. That is, the first MRI data set includes a T1-weighted MRI set and a T2-weighted MRI set obtained by imaging the same brain region of the same patient. The second MRI data set is a data set in which the background area, GM area, WM area, and CSF area are labeled, and is preferably labeled data obtained from images of the same brain area of the same patient as the first MRI data set.

상기 데이터 전처리부(200)는 상기 데이터 입력부(100)로부터 상기 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 전달받아, 미리 설정된 각 방향에 해당하도록 이미지 처리를 수행하여, 각 방향 별 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 생성하는 것이 바람직하다.The data pre-processing unit 200 receives the first MRI data set and the second MRI data set from the data input unit 100, performs image processing to correspond to each preset direction, and produces a first MRI data set for each direction. It is desirable to generate a data set and a second MRI data set.

이 때, 미리 설정된 각 방향이란, 신체를 어떤 방향으로 나누냐에 따른 수평면 방향(axial), 관상면 방향(Coronal) 및 시상면 방향(Sagittal)을 의미하며, 각 방향은 도 2에 도시된 바와 같다.At this time, each preset direction means the horizontal direction (axial), coronal direction (coronal), and sagittal direction (sagittal) depending on which direction the body is divided, and each direction is as shown in Figure 2. .

상기 데이터 전처리부(200)는 상기 데이터 입력부(100)로부터 전달받은 각각의 제1 MRI 데이터 셋(T1 강조 영상-T2 강조 영상), 제2 MRI 데이터 셋(라벨 데이터)에 대한 이미지 처리를 수행하게 된다.The data pre-processing unit 200 performs image processing on each of the first MRI data set (T1-weighted image - T2-weighted image) and the second MRI data set (label data) received from the data input unit 100. do.

이 때, 상기 데이터 전처리부(200)는 통상적으로 공개된 뇌 MRI 데이터가 수평면 방향의 MRI 데이터이기 때문에, 도 3에 도시된 바와 같이, 전달되는 각 MRI 데이터 셋(T1 강조 MRI 셋, T2 강조 MRI 셋, 제2 MRI 데이터 셋)에 대해서, 2차원 데이터를 각각 쌓아서 각 3차원 데이터로 생성하고, 각 3차원 데이터에 대해서 수평면 방향, 관상면 방향과 시상면 방향으로 슬라이싱을 수행하여, 각 방향 별 MRI 데이터 셋을 생성하게 된다. 이 때, 수평면 방향의 MRI 데이터를 입력받을 경우, 이는 그대로 활용하여 연산 과정을 줄일 수 있다.At this time, the data pre-processing unit 200 processes each transmitted MRI data set (T1-weighted MRI set, T2-weighted MRI set), as shown in FIG. 3, because the generally published brain MRI data is horizontal MRI data. Third, for the second MRI data set), 2-dimensional data are stacked to create each 3-dimensional data, and slicing is performed on each 3-dimensional data in the horizontal, coronal, and sagittal directions, and An MRI data set is created. At this time, if MRI data in the horizontal direction is input, it can be used as is to reduce the calculation process.

이를 통해서, 전처리된 제1 MRI 데이터 셋은 T1-W 수평면, T1-W 관상면, T1-W 시상면, T2-W 수평면, T2-W 관상면 및 T2-W 시상면 방향 각각에 대한 2차원 MRI 이미지 데이터를 획득할 수 있으며, 전처리된 제2 MRI 데이터 셋 역시도 수평면, 관상면 및 시상면 방향 각각에 대한 2차원 MRI 이미지 데이터를 획득하게 된다.Through this, the preprocessed first MRI data set is two-dimensional for each of the T1-W horizontal plane, T1-W coronal plane, T1-W sagittal plane, T2-W horizontal plane, T2-W coronal plane, and T2-W sagittal plane. MRI image data can be acquired, and the preprocessed second MRI data set also acquires two-dimensional MRI image data for each of the horizontal, coronal, and sagittal directions.

이와 같이, 관상면 방향의 MRI 이미지 데이터와 시상면 방향의 MRI 이미지 데이터를 이미지 처리하여 생성하는 것은 상술한 바와 같이, 통상적으로 공개된 뇌 MRI 데이터가 수평면 방향의 MRI 이미지 데이터이기 때문이다.In this way, the reason why coronal MRI image data and sagittal MRI image data are generated through image processing is because, as described above, generally disclosed brain MRI data is horizontal MRI image data.

그렇지만, 촬영 기기의 스펙 등의 외부 환경 조건에 따라, 공개된 뇌 MRI 데이터가 수평면 방향 뿐 아니라, 시상면과 관상면을 포함하고 있을 수 있다.However, depending on external environmental conditions such as the specifications of the imaging device, the published brain MRI data may include not only the horizontal direction, but also the sagittal and coronal planes.

이 경우, 상기 데이터 전처리부(200)는 전달되는 각 MRI 데이터 셋(T1 강조 MRI 셋, T2 강조 MRI 셋, 제2 MRI 데이터 셋)에 포함되어 있는 정보들을 분석하여, 해당하는 방향으로 분류하여 각 방향 별 MRI 데이터 셋을 생성하게 된다.In this case, the data pre-processing unit 200 analyzes the information included in each transmitted MRI data set (T1-weighted MRI set, T2-weighted MRI set, and second MRI data set), classifies it in the corresponding direction, and classifies each MRI data set. MRI data sets for each direction are generated.

이를 위해서, 상기 데이터 입력부(100)는 동일한 환자의 동일한 뇌 영역에 대한 T1-W 수평면, T1-W 관상면, T1-W 시상면, T2-W 수평면, T2-W 관상면 및 T2-W 시상면 방향 각각에 대한 2차원 MRI 이미지 데이터. 라벨 데이터 역시도 수평면, 관상면 및 시상면 방향 각각에 대한 2차원 MRI 이미지 데이터가 입력되는 것이 바람직하다.For this purpose, the data input unit 100 uses the T1-W horizontal plane, T1-W coronal plane, T1-W sagittal plane, T2-W horizontal plane, T2-W coronal plane, and T2-W sagittal plane for the same brain region of the same patient. Two-dimensional MRI image data for each plane direction. It is also desirable for label data to be input as two-dimensional MRI image data for each of the horizontal, coronal, and sagittal directions.

즉, 상기 데이터 입력부(100)를 통해서, 동일한 좌표를 갖는 픽셀에 대한 T1-W 수평면, T1-W 관상면, T1-W 시상면, T2-W 수평면, T2-W 관상면 및 T2-W 시상면, 라벨 수평면, 라벨 관상면 및 라벨 시상면 방향에 대한 MRI 이미지 데이터가 모두 입력되어, 상기 데이터 전처리부(200)는 이를 단순 분류하게 된다.That is, through the data input unit 100, the T1-W horizontal plane, T1-W coronal plane, T1-W sagittal plane, T2-W horizontal plane, T2-W coronal plane, and T2-W sagittal plane for pixels having the same coordinates. MRI image data for the label plane, label horizontal plane, label coronal plane, and label sagittal plane directions are all input, and the data preprocessor 200 simply classifies them.

일 예를 들자면, A 좌표는 T1-W 수평면 방향의 MRI 데이터가 입력되고, B 좌표는 라벨링된 관상면 방향의 MRI 데이터가 입력되고, C 좌표는 T2-W 시상면 방향의 MRI 데이터가 입력될 경우, 이는 단순 분류할 경우, 이를 딥러닝 학습을 위한 데이터로 활용하기 부족하게 된다.For example, the A coordinate is input to MRI data in the T1-W horizontal plane direction, the B coordinate is input to MRI data in the labeled coronal plane direction, and the C coordinate is to input MRI data in the T2-W sagittal direction. In this case, if it is simply classified, it is insufficient to use it as data for deep learning learning.

이러한 점을 고려하여, 상기 데이터 전처리부(200)는 전달되는 각 MRI 데이터 셋(T1 강조 MRI 셋, T2 강조 MRI 셋, 제2 MRI 데이터 셋)에 대해서, 1차적으로 포함되어 있는 정보들을 분석하여, 원하는 모든 방향에 대한 MRI 데이터가 포함되어 있을 경우, 단순 분류를 수행하여, 전처리를 수행하게 되고, 어느 한 방향이라도 MRI 데이터가 빠져있을 경우, 2차원 데이터를 각각 쌓아서 각 3차원 데이터로 생성하고, 각 3차원 데이터에 대한 슬라이싱을 수행하여 각 방향 별 데이터를 생성하게 된다.Considering this, the data preprocessor 200 analyzes the information primarily included in each transmitted MRI data set (T1-weighted MRI set, T2-weighted MRI set, and second MRI data set) and , If MRI data for all desired directions are included, simple classification is performed and preprocessing is performed. If MRI data in any direction is missing, the 2-dimensional data are stacked to create each 3-dimensional data. , slicing is performed on each 3D data to generate data for each direction.

상기 딥러닝 학습부(300)는 각 방향 별 제1 MRI 데이터 셋(T1-W 수평면, T1-W 관상면, T1-W 시상면, T2-W 수평면, T2-W 관상면 및 T2-W 시상면 방향 각각에 대한 2차원 MRI 이미지 데이터), 제2 MRI 데이터 셋(수평면, 관상면 및 시상면 방향 각각에 대한 2차원 MRI 이미지 데이터)을 입력받아 학습 데이터로 생성하고, 미리 저장된 딥러닝 네트워크를 이용하여 각 방향 별 학습 처리를 수행하게 된다.The deep learning learning unit 300 generates a first MRI data set for each direction (T1-W horizontal plane, T1-W coronal plane, T1-W sagittal plane, T2-W horizontal plane, T2-W coronal plane, and T2-W sagittal plane. 2-dimensional MRI image data for each plane direction) and a second MRI data set (2-dimensional MRI image data for each horizontal, coronal, and sagittal direction) are input and generated as learning data, and a pre-stored deep learning network is used. Learning processing for each direction is performed using this method.

상세하게는, 상기 딥러닝 학습부(300)는 도 4에 도시된 바와 같이, 상기 데이터 전처리부(200)에 의한 각 방향 별 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 입력받아, 방향 별로 분류하여 학습 데이터(수평면 방향의 T1-W, T2-W, 라벨 MRI 이미지 데이터/관상면 방향의 T1-W, T2-W, 라벨 MRI 이미지 데이터/시상면 방향의 T1-W, T2-W, 라벨 MRI 이미지 데이터)를 생성하게 된다.In detail, as shown in FIG. 4, the deep learning learning unit 300 receives the first MRI data set and the second MRI data set for each direction from the data preprocessor 200 and Classify learning data (T1-W, T2-W in the horizontal direction, labeled MRI image data/T1-W, T2-W in the coronal direction, labeled MRI image data/T1-W, T2-W in the sagittal direction, label MRI image data) is generated.

이 후, 상기 딥러닝 학습부(300)는 각 방향 별로 학습 처리를 수행하여, 적어도 3개의 학습 모델(수평면 학습 모델, 관상면 학습 모델 및 시상면 학습 모델)을 생성하게 된다. 이 때, 상기 딥러닝 학습부(300)는 2D U-Net 기반의 학습 네트워크를 적용하는 것이 바람직하다.Afterwards, the deep learning learning unit 300 performs learning processing in each direction to generate at least three learning models (horizontal plane learning model, coronal plane learning model, and sagittal plane learning model). At this time, it is preferable that the deep learning learning unit 300 applies a 2D U-Net-based learning network.

또한, 상기 딥러닝 학습부(300)에 의한 학습 모델은 예측을 위한 최종 활성화 함수로 소프트맥스(softmax) 함수를 적용하여 학습 처리를 수행함으로써, 입력되는 이미지 데이터의 각 픽셀마다 각 클래스(백그라운드 영역, GM 영역, WM 영역 및 CSF 영역)에 포함될 확률 맵(probabilistic map) 형태로 결과 데이터(예측 데이터)를 도출하게 된다.In addition, the learning model by the deep learning learning unit 300 performs learning processing by applying the softmax function as the final activation function for prediction, so that each class (background area) is generated for each pixel of the input image data. , the resulting data (predicted data) is derived in the form of a probabilistic map to be included in the GM area, WM area, and CSF area.

이 때, 상기 딥러닝 학습부(300)는 결과(예측)와 정답 간의 손실함수 계산을 통해 이를 최소화하는 방향으로 모델을 학습하게 된다.At this time, the deep learning learning unit 300 learns the model in a way to minimize the loss function between the result (prediction) and the correct answer.

상세하게는, 상기 딥러닝 학습부(300)는 상기 학습 데이터를 통해서 각 방향 별로 학습 처리를 수행하여 적어도 3개의 학습 모델을 생성한 후, 생성한 각 방향 별 학습 모델에 각 방향에 해당하는 제1 MRI 이미지 데이터 셋을 입력하여 확률 맵(probabilistic map) 형태로 결과 데이터(예측 데이터)를 도출하게 된다. 이 후, 결과 데이터(예측 데이터)와 각 방향에 해당하는 제2 MRI 데이터 셋을 이용한 미리 설정된 손실함수의 계산이 최소화되도록 학습 모델을 업데이트하게 된다. 이를 통해서, 각 방향 별 최종 학습 모델을 생성하게 된다.In detail, the deep learning learning unit 300 performs learning processing for each direction through the learning data to generate at least three learning models, and then adds a second corresponding to each direction to the generated learning model for each direction. 1 By inputting the MRI image data set, result data (prediction data) is derived in the form of a probabilistic map. Afterwards, the learning model is updated to minimize the calculation of a preset loss function using the result data (prediction data) and the second MRI data set corresponding to each direction. Through this, the final learning model for each direction is created.

이 때, 손실함수로는 하기의 수학식 1과 같이, FL(Focal Loss)와 GDL(Generalized Dice Loss)를 같은 weight으로 결합한 하이브리드 방식의 함수를 설정하게 된다.At this time, a hybrid function combining FL (Focal Loss) and GDL (Generalized Dice Loss) with the same weight is set as the loss function, as shown in Equation 1 below.

손실함수 = FL + GDLLoss function = FL + GDL

이러한 손실함수는 도 7에 도시된 바와 같이, 다양한 손실함수에 대해 학습 진행 결과하여 분할 성능을 비교한 결과에 따라 가장 적합한 손실함수로 판단하여 선택한 것이다.As shown in Figure 7, this loss function was selected as the most appropriate loss function based on the results of comparing the segmentation performance as a result of learning various loss functions.

이와 같이, 상기 딥러닝 학습부(300)를 통해서 각 방향에 대한 최종 학습 모델이 생성되고 난 후, 상기 외부 데이터 입력부(400)를 통해서 뇌 영역들을 분할하고자 하는 제3 MRI 데이터 셋을 입력받게 된다. 상기 제3 MRI 데이터 셋으로는 동일한 환자의 동일한 영역을 촬영한 T1 강조 MRI 데이터 셋과 T2 강조 MRI 데이터 셋을 쌍을 이루어 입력받는 것이 가장 바람직하나, 이 중 하나에 대해서만 다시 말하자면, T1 강조 MRI 데이터 셋 또는, T2 강조 MRI 데이터 셋만 입력받아도 무방하다.In this way, after the final learning model for each direction is generated through the deep learning learning unit 300, the third MRI data set for dividing brain regions is input through the external data input unit 400. . As the third MRI data set, it is most desirable to receive a pair of T1-weighted MRI data sets and T2-weighted MRI data sets obtained by imaging the same area of the same patient. However, for only one of these, T1-weighted MRI data It is okay to input only three or T2-weighted MRI data sets.

상기 외부 데이터 전처리부(500)는 상기 데이터 전처리부(200)와 마찬가지로, 상기 외부 데이터 입력부(400)를 통해서 상기 제3 MRI 데이터 셋을 전달받아, 미리 설정된 각 방향에 해당하도록 이미지 처리를 수행하여, 각 방향 별 제3 MRI 데이터 셋을 생성하게 된다.Like the data preprocessor 200, the external data preprocessor 500 receives the third MRI data set through the external data input unit 400 and performs image processing to correspond to each preset direction. , a third MRI data set for each direction is generated.

상세하게는, 상기 외부 데이터 전처리부(500)는 통상적으로 뇌 MRI 데이터가 수평면 방향의 MRI 데이터인 점을 감안하여, 상기 외부 데이터 입력부(400)를 통해서 전달되는 제3 MRI 데이터 셋을 쌓아서 3차원 데이터로 생성하고, 3차원 데이터에 대해서 수평면 방향, 관상면 방향과 시상면 방향으로 슬라이싱을 수행하여, 각 방향 별 MRI 데이터 셋을 생성하게 된다. 이 때, 수평면 방향의 MRI 데이터를 입력받을 경우, 이는 그대로 활용하여 연산 과정을 줄일 수 있다.In detail, considering that brain MRI data is usually horizontal MRI data, the external data preprocessor 500 stacks the third MRI data set transmitted through the external data input unit 400 to create a three-dimensional Data is generated, and slicing is performed on the 3D data in the horizontal, coronal, and sagittal directions to generate MRI data sets for each direction. At this time, if MRI data in the horizontal direction is input, it can be used as is to reduce the calculation process.

이를 통해서, 전처리된 제3 MRI 데이터 셋은 T1 강조 MRI 데이터 셋과 T2 강조 MRI 데이터 셋이 모두 입력될 경우, T1-W 수평면, T1-W 관상면, T1-W 시상면, T2-W 수평면, T2-W 관상면 및 T2-W 시상면 방향 각각에 대한 2차원 MRI 이미지 데이터를 획득할 수 있으며, T1 강조 MRI 데이터 셋 또는, T2 강조 MRI 데이터 셋만 입력될 경우, 해당하는 강조 영상 데이터의 수평면, 관상면 및 시상면 방향 각각에 대한 2차원 MRI 이미지 데이터를 획득하게 된다.Through this, the preprocessed third MRI data set is, when both the T1-weighted MRI data set and the T2-weighted MRI data set are input, the T1-W horizontal plane, T1-W coronal plane, T1-W sagittal plane, T2-W horizontal plane, Two-dimensional MRI image data can be acquired for each of the T2-W coronal and T2-W sagittal directions, and when only the T1-weighted MRI data set or the T2-weighted MRI data set is input, the horizontal plane of the corresponding weighted image data, Two-dimensional MRI image data is acquired for each of the coronal and sagittal directions.

물론, 촬영 기기의 스펙 등의 외부 환경 조건에 따라, 전달되는 제3 MRI 데이터 셋이 수평면 방향 뿐 아니라, 시상면과 관상면을 모두 포함하고 있을 수 있다. 이 경우, 상기 외부 데이터 전처리부(500)는 전달되는 제3 MRI 데이터 셋에 포함되어 있는 정보들을 분석하여, 해당하는 방향으로 분류하여 각 방향 별 제3 MRI 데이터 셋을 생성하게 된다.Of course, depending on external environmental conditions such as specifications of the imaging device, the transmitted third MRI data set may include both the sagittal and coronal planes as well as the horizontal plane direction. In this case, the external data preprocessor 500 analyzes the information included in the transmitted third MRI data set, classifies it into the corresponding direction, and generates a third MRI data set for each direction.

이와 같이, 단순 분류 과정을 수행하기 위해서는, 상기 외부 데이터 입력부(400)를 통해서 동일한 좌표를 갖는 픽셀에 대한 수평면, 시상면과 관상면 방향에 대한 MRI 이미지 데이터가 모두 입력되어야 한다.In this way, in order to perform a simple classification process, all MRI image data for the horizontal, sagittal, and coronal directions for pixels with the same coordinates must be input through the external data input unit 400.

상기 딥러닝 추론부(600)는 전처리된 각 방향 별 제3 MRI 데이터 셋을 전달받아, 해당하는 방향(수평면, 시상면 및 관상면) 별 학습 모델에 각각 입력하여, 각 방향 별 예측 데이터(결과 데이터)를 출력하게 된다.The deep learning inference unit 600 receives the preprocessed third MRI data set for each direction, inputs it into a learning model for each direction (horizontal plane, sagittal plane, and coronal plane), and generates prediction data (results) for each direction. data) is output.

이 때, 상기 딥러닝 추론부(600)는 상술한 바와 같이, 학습 모델에 적용된 소프트맥스 최종 활성화 함수로 인해 전처리된 각 방향 별 제3 MRI 데이터 셋에 포함되어 있는 각 픽셀마다 각 클래스(백그라운드 영역, GM 영역, WM 영역 및 CSF 영역), 다시 말하자면, 각각의 뇌 영역에 해당할 확률 맵 형태로 결과 데이터를 출력하게 된다.At this time, as described above, the deep learning inference unit 600 classifies each class (background area) for each pixel included in the third MRI data set for each direction preprocessed due to the softmax final activation function applied to the learning model. , GM area, WM area, and CSF area), in other words, the resulting data is output in the form of a probability map corresponding to each brain area.

또한, 도 7의 다양한 학습 진행을 수행하여 분할 성능을 비교한 결과, 어느 한 방향에 대해서 단독으로 학습을 수행하는 것보다 3 방향 모두에 대한 학습을 수행하여 그 결과를 종합하여 활용하는 것이 보다 높은 성능을 나타냄을 알 수 있다.In addition, as a result of comparing the segmentation performance by performing various learning processes in Figure 7, it was found that performing learning in all three directions and utilizing the results in a comprehensive manner was more effective than learning in any one direction alone. It can be seen that it shows performance.

이를 위한, 상기 추론 융합부(700)는 상기 딥러닝 추론부(600)에 의한 각 방향 별 예측 데이터를 통합 이용하여, 상기 제3 MRI 데이터 셋의 각 팍실에 해당하는 뇌 영역을 도출하게 된다.For this purpose, the inference fusion unit 700 uses the integrated prediction data for each direction by the deep learning inference unit 600 to derive a brain region corresponding to each Paxil in the third MRI data set.

상세하게는, 상기 추론 융합부(700)는 상기 딥러닝 추론부(600)에 의한 각 방향 별 예측 데이터에 대해 같은 위치의 픽셀 별로 평균을 내어 각 픽셀 마다 가장 높은 확률을 나타내는 클래스, 즉, 가장 높은 확률을 갖는 뇌 영역으로 해당 픽셀에 대한 최종 분할 결과를 도출하게 된다.In detail, the inference fusion unit 700 averages the predicted data for each direction by the deep learning inference unit 600 for each pixel at the same location to select the class showing the highest probability for each pixel, that is, the most The final segmentation result for the corresponding pixel is derived as a brain region with a high probability.

즉, 각 방향 별 예측 데이터를 이용하여, 상기 제3 MRI 데이터 셋의 각 픽셀마다, 해당하는 각 방향 별 각각의 뇌 영역에 해당할 확률에 대한 평균을 연산하여, 가장 높은 평균값에 해당하는 뇌 영역으로 해당하는 픽셀의 최종 뇌 영역을 도출하게 된다.That is, using the prediction data for each direction, for each pixel of the third MRI data set, the average of the probability corresponding to each brain region for each direction is calculated, and the brain region corresponding to the highest average value is calculated. The final brain area of the corresponding pixel is derived.

일 예를 들자면, 도 5에 도시된 바와 같이, 전처리된 제3 MRI 데이터 셋의 A 픽셀에 대해서 제1 학습 모델(수평면 학습 모델), 제2 학습 모델(시상면 학습 모델), 제3 학습 모델(관상면 학습 모델)로부터 예측 데이터를 출력받아, 각 예측 데이터에 포함되어 있는 각각의 뇌 영역에 해당한 확률 맵 값을 평균하여, 즉, 제1 학습 모델의 예측 데이터(수평면 기준으로 A 픽셀이 백그라운드 영역에 해당할 확률, GM 영역에 해당할 확률, WM 영역에 해당할 확률, CSF 영역에 해당할 확률), 제2 학습 모델의 예측 데이터(시상면 기준으로 A 픽셀이 백그라운드 영역에 해당할 확률, GM 영역에 해당할 확률, WM 영역에 해당할 확률, CSF 영역에 해당할 확률), 제3 학습 모델의 예측 데이터(관상면 기준으로 A 픽셀이 백그라운드 영역에 해당할 확률, GM 영역에 해당할 확률, WM 영역에 해당할 확률, CSF 영역에 해당할 확률)를 각 영역 별로 평균(A 픽셀이 백그라운드 영역에 해당할 확률(수평면 기준/시상면 기준/관상면 기준), A 픽셀이 GM 영역에 해당할 확률(수평면 기준/시상면 기준/관상면 기준), A 픽셀이 WM 영역에 해당할 확률(수평면 기준/시상면 기준/관상면 기준), A 픽셀이 CSF 영역에 해당할 확률(수평면 기준/시상면 기준/관상면 기준)) 연산하여, 가장 높은 평균값에 해당하는 뇌 영역으로 해당하는 픽셀의 최종 뇌 영역을 도출하게 된다.For example, as shown in FIG. 5, for the A pixel of the preprocessed third MRI data set, a first learning model (horizontal plane learning model), a second learning model (sagittal plane learning model), and a third learning model Predicted data is output from (coronal plane learning model), and the probability map values corresponding to each brain region included in each predicted data are averaged, that is, the predicted data of the first learning model (A pixel on the horizontal plane is Probability of corresponding to the background area, probability of corresponding to the GM area, probability of corresponding to the WM area, probability of corresponding to the CSF area), predicted data of the second learning model (probability of A pixel corresponding to the background area based on the sagittal plane) , probability that the pixel corresponds to the GM area, probability that it corresponds to the WM area, probability that it corresponds to the CSF area), predicted data of the third learning model (probability that the A pixel corresponds to the background area based on the coronal plane, probability that it corresponds to the GM area Probability, probability of corresponding to WM area, probability of corresponding to CSF area) are averaged for each area (probability that A pixel corresponds to background area (based on horizontal plane/sagittal plane/coronal plane), A pixel corresponds to GM region Probability of corresponding (horizontal/sagittal/coronal), probability that A pixel corresponds to WM area (horizontal/sagittal/coronal), probability that A pixel corresponds to CSF area (horizontal) /sagittal plane standard/coronal plane standard)) is calculated, and the final brain region of the pixel corresponding to the brain region corresponding to the highest average value is derived.

이 때, 상기 추론 융합부(700)는 상기 딥러닝 추론부(600)에 의한 각 방향 별 예측 데이터에 오류가 발생하지 않는다는 조건 하에, 각 영역 별 평균 연산을 수행하게 된다.At this time, the inference fusion unit 700 performs an average calculation for each region under the condition that no error occurs in the prediction data for each direction by the deep learning inference unit 600.

그렇지만, 100% 확신할 수 없기 때문에, 상기 추론 융합부(700)는 각 예측 데이터에 의한 각각의 픽셀 별로 가장 낮은 확률 맵 값을 제외한 나머지 2개 확률 맵 값의 평균, 전체 평균보다 소정값 이상 차이나도록 높은 확률 맵 값을 제외한 나머지 2개 확률 맵 값의 평균 또는, 전체 평균보다 소정값 이상 차이나도록 낮은 확률 맵 값을 제외한 나머지 2개 확률 맵 값의 평균을 연산하여, 가장 높은 평균값에 해당하는 뇌 영역으로 해당하는 픽셀의 최종 뇌 영역을 도출하게 된다.However, because it cannot be 100% certain, the inference fusion unit 700 calculates the average of the remaining two probability map values, excluding the lowest probability map value for each pixel of each prediction data, if the difference is more than a predetermined value from the overall average. Calculate the average of the remaining two probability map values excluding the high probability map value, or the average of the remaining two probability map values excluding the low probability map value so that it differs by a predetermined value from the overall average, and calculate the brain corresponding to the highest average value. The final brain area of the pixel corresponding to the area is derived.

상기 분석부(800)는 상기 추론 융합부(700)에 의해 각 픽셀마다 도출한 최종 뇌 영역을 이용하여, 각 뇌 영역의 분할 처리를 수행하게 된다.The analysis unit 800 performs segmentation processing for each brain region using the final brain region derived for each pixel by the inference fusion unit 700.

이러한 상기 분석부(800)는 도 1에 도시된 바와 같이, 분할 처리부(810) 및 체적 연산부(820)를 포함하게 된다.As shown in FIG. 1, the analysis unit 800 includes a segmentation processing unit 810 and a volume calculation unit 820.

상기 분할 처리부(810)는 상기 추론 융합부(700)에 의해 각 픽셀마다 도출한 최종 뇌 영역을 이용하여, 각 뇌 영역의 분할 처리를 수행하여, 도 6의 예측 데이터와 같이, 각 뇌 영역을 분리하게 된다. 이는 하기의 수학식 2와 같다.The segmentation processing unit 810 performs segmentation processing on each brain region using the final brain region derived for each pixel by the inference fusion unit 700, and divides each brain region into become separated. This is equivalent to Equation 2 below.

상기 체적 연산부(820)는 분할 처리된 각 뇌 영역에 포함되어 있는 픽셀의 개수를 이용하여, 도 6의 체적 데이터와 같이, 각 뇌 영역의 체적(volume)을 연산하게 된다.The volume calculation unit 820 uses the number of pixels included in each segmented brain region to calculate the volume of each brain region, like the volume data in FIG. 6.

상세하게는, 상기 체적 연산부(820)는 분할을 수행한 상기 제3 MRI 데이터 셋의 3D 배열이 이루고 있는 단위 복셀의 가로, 세로, 높이를 동일한 크기로 변환하는 복셀 변환 작업을 수행한 후, 3D 배역에서 각 뇌 영역이 차지하고 있는 체적비를 계산하게 된다.In detail, the volume calculation unit 820 performs a voxel conversion operation to convert the width, length, and height of the unit voxels of the 3D array of the third MRI data set on which the segmentation was performed to the same size, and then performs a 3D The volume ratio occupied by each brain region in the cast is calculated.

3D 배열 전체 노드 개수 대비 각 영역에 해당하는 노드의 개수를 그 체적비로 하고, 최종적으로 3D 배역 전체의 실제 부피에 각 영역의 체적비를 곱하여 실제 체적을 계산하게 된다.The volume ratio is the number of nodes corresponding to each area compared to the total number of nodes in the 3D array, and finally, the actual volume is calculated by multiplying the actual volume of the entire 3D array by the volume ratio of each area.

이 때, 의료 영상에는 기본적으로 촬영된 영상의 복셀 크기 정보가 포함되어 있기 때문에, 이를 활용하여 복셀 변환 작업을 수행하게 된다.At this time, since the medical image basically includes voxel size information of the captured image, voxel conversion is performed using this.

즉, 하기의 수학식 3과 같이, 분할된 각 뇌 영역(GM, WM, CSF)을 차지하는 픽셀의 개수를 도출한 후, 하기의 수학식 4와 같이, 제3 MRI 데이터 셋에 기본적으로 포함되어 있는 x, y, z축 방향의 실제 픽셀 크기 정보(dx, dy, dz)를 각 뇌 영역 픽셀 개수에 모두 곱하여 실제 스케일의 체적을 계산하게 된다.That is, after deriving the number of pixels occupying each segmented brain region (GM, WM, CSF) as shown in Equation 3 below, it is basically included in the third MRI data set as shown in Equation 4 below. The actual scale volume is calculated by multiplying the actual pixel size information (dx, dy, dz) in the x, y, and z axes by the number of pixels in each brain region.

도 8은 본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 방법을 나타낸 순서 예시도로서, 도 8을 참조로 하여 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 방법을 상세히 설명한다.FIG. 8 is an example diagram showing a method for segmenting brain regions from brain MRI data using deep learning according to an embodiment of the present invention. Referring to FIG. 8, a method for segmenting brain regions from brain MRI data using deep learning is shown. is explained in detail.

본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 방법은, 컴퓨터를 포함하는 연산 처리 수단에 의해 각 단계가 수행되는 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템을 이용한 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 방법이다.The brain region segmentation method from brain MRI data using deep learning according to an embodiment of the present invention is a brain region segmentation system from brain MRI data using deep learning, in which each step is performed by computational processing means including a computer. This is a brain region segmentation method from brain MRI data using deep learning.

이러한 본 발명의 일 실시예에 따른 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 방법은 도 8에 도시된 바와 같이, 제1 입력 단계(S100), 제1 전처리 단계(S200), 딥러닝 학습 단계(S300), 제2 입력 단계(S400), 제2 전처리 단계(S500), 딥러닝 추론 단계(S600), 추론 융합 단계(S700), 분할 단계(S800) 및 체적 연산 단계(S900)를 포함하여 구성되게 된다.As shown in FIG. 8, the brain region segmentation method using deep learning according to an embodiment of the present invention includes a first input step (S100), a first preprocessing step (S200), and deep learning learning. It includes a step (S300), a second input step (S400), a second preprocessing step (S500), a deep learning inference step (S600), an inference fusion step (S700), a segmentation step (S800), and a volume calculation step (S900). It is composed in this way.

각 단계에 대해서 자세히 알아보자면,To learn more about each step,

상기 제1 입력 단계(S100)는 상기 데이터 입력부(100)에서, 딥러닝 학습 처리를 위한, 제1 MRI 데이터 셋과 분할하고자 하는 뇌 영역들이 라벨링되어 있는 제2 MRI 데이터 셋을 입력받게 된다.In the first input step (S100), the data input unit 100 receives a first MRI data set for deep learning learning processing and a second MRI data set in which brain regions to be segmented are labeled.

상기 제1 MRI 데이터 셋과 제2 MRI 데이터 셋은 공개(public)된 뇌 MRI 데이터 셋을 입력받게 되며, 환자 1명 당 T1 강조 영상 데이터, T2 강조 영상 데이터 및 라벨링된 영상 데이터를 입력받게 된다.The first MRI data set and the second MRI data set receive a public brain MRI data set, and T1-weighted image data, T2-weighted image data, and labeled image data are input for each patient.

상세하게는, 상기 제1 MRI 데이터 셋은 2 채널의 MRI 데이터로서, T1-Weighted 영상과 T2-Weighted 영상을 쌍으로 입력받게 된다. 즉, 상기 제1 MRI 데이터 셋은 동일한 환자의 동일한 뇌 영역을 촬영한 T1 강조 MRI 셋과 T2 강조 MRI 셋을 포함하여 구성되게 된다. 상기 제2 MRI 데이터 셋은 백그라운드 영역, GM 영역, WM 영역 및 CSF 영역이 라벨링 되어 있는 데이터 셋으로, 상기 제1 MRI 데이터 셋과 동일한 환자의 동일한 뇌 영역을 촬영한 라벨 데이터인 것이 바람직하다.In detail, the first MRI data set is two-channel MRI data, and a T1-weighted image and a T2-weighted image are input as a pair. That is, the first MRI data set includes a T1-weighted MRI set and a T2-weighted MRI set obtained by imaging the same brain region of the same patient. The second MRI data set is a data set in which the background area, GM area, WM area, and CSF area are labeled, and is preferably labeled data obtained from images of the same brain area of the same patient as the first MRI data set.

상기 제1 전처리 단계(S200)는 상기 데이터 전처리부(200)에서, 상기 제1 입력 단계(S100)에 의한 상기 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 전달받아, 미리 설정된 각 방향에 해당하도록 이미지 처리를 수행하여, 각 방향 별 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 생성하게 된다.The first pre-processing step (S200) receives the first MRI data set and the second MRI data set from the first input step (S100) from the data pre-processing unit 200, and generates data corresponding to each preset direction. Image processing is performed to generate a first MRI data set and a second MRI data set for each direction.

상기 제1 전처리 단계(S200)는 통상적으로 공개된 뇌 MRI 데이터가 수평면 방향의 MRI 데이터이기 때문에, 도 3에 도시된 바와 같이, 전달되는 각 MRI 데이터 셋(T1 강조 MRI 셋, T2 강조 MRI 셋, 제2 MRI 데이터 셋)에 대해서, 2차원 데이터를 각각 쌓아서 각 3차원 데이터로 생성하고, 각 3차원 데이터에 대해서 수평면 방향, 관상면 방향과 시상면 방향으로 슬라이싱을 수행하여, 각 방향 별 MRI 데이터 셋을 생성하게 된다. 이 때, 수평면 방향의 MRI 데이터를 입력받을 경우, 이는 그대로 활용하여 연산 과정을 줄일 수 있다.In the first preprocessing step (S200), since the generally published brain MRI data is MRI data in the horizontal plane direction, as shown in FIG. 3, each transmitted MRI data set (T1-weighted MRI set, T2-weighted MRI set, For the second MRI data set), 2-dimensional data are stacked to create 3-dimensional data, and each 3-dimensional data is sliced in the horizontal, coronal, and sagittal directions to produce MRI data for each direction. This creates three. At this time, if MRI data in the horizontal direction is input, it can be used as is to reduce the calculation process.

이를 통해서, 전처리된 제1 MRI 데이터 셋은 T1-W 수평면, T1-W 관상면, T1-W 시상면, T2-W 수평면, T2-W 관상면 및 T2-W 시상면 방향 각각에 대한 2차원 MRI 이미지 데이터를 획득할 수 있으며, 전처리된 제2 MRI 데이터 셋 역시도 수평면, 관상면 및 시상면 방향 각각에 대한 2차원 MRI 이미지 데이터를 획득하게 된다.Through this, the preprocessed first MRI data set is two-dimensional for each of the T1-W horizontal plane, T1-W coronal plane, T1-W sagittal plane, T2-W horizontal plane, T2-W coronal plane, and T2-W sagittal plane. MRI image data can be acquired, and the preprocessed second MRI data set also acquires two-dimensional MRI image data for each of the horizontal, coronal, and sagittal directions.

이와 같이, 관상면 방향의 MRI 이미지 데이터와 시상면 방향의 MRI 이미지 데이터를 이미지 처리하여 생성하는 것은 상술한 바와 같이, 통상적으로 공개된 뇌 MRI 데이터가 수평면 방향의 MRI 이미지 데이터이기 때문이다.In this way, the reason why coronal MRI image data and sagittal MRI image data are generated through image processing is because, as described above, generally disclosed brain MRI data is horizontal MRI image data.

그렇지만, 촬영 기기의 스펙 등의 외부 환경 조건에 따라, 공개된 뇌 MRI 데이터가 수평면 방향 뿐 아니라, 시상면과 관상면을 포함하고 있을 수 있다.However, depending on external environmental conditions such as the specifications of the imaging device, the published brain MRI data may include not only the horizontal direction, but also the sagittal and coronal planes.

이 경우, 상기 제1 전처리 단계(S200)는 전달되는 각 MRI 데이터 셋(T1 강조 MRI 셋, T2 강조 MRI 셋, 제2 MRI 데이터 셋)에 포함되어 있는 정보들을 분석하여, 해당하는 방향으로 분류하여 각 방향 별 MRI 데이터 셋을 생성하게 된다.In this case, the first preprocessing step (S200) analyzes the information included in each transmitted MRI data set (T1-weighted MRI set, T2-weighted MRI set, and second MRI data set) and classifies it in the corresponding direction. MRI data sets for each direction are generated.

즉, 상기 제1 입력 단계(S100)를 통해서, 동일한 좌표를 갖는 픽셀에 대한 T1-W 수평면, T1-W 관상면, T1-W 시상면, T2-W 수평면, T2-W 관상면 및 T2-W 시상면, 라벨 수평면, 라벨 관상면 및 라벨 시상면 방향에 대한 MRI 이미지 데이터가 모두 입력될 경우, 상기 제1 전처리 단계(S200)는 이를 단순 분류하게 된다.That is, through the first input step (S100), the T1-W horizontal plane, T1-W coronal plane, T1-W sagittal plane, T2-W horizontal plane, T2-W coronal plane, and T2-W for pixels having the same coordinates. When MRI image data for the W sagittal plane, label horizontal plane, label coronal plane, and label sagittal plane direction are all input, the first preprocessing step (S200) simply classifies them.

일 예를 들자면, A 좌표는 T1-W 수평면 방향의 MRI 데이터가 입력되고, B 좌표는 라벨링된 관상면 방향의 MRI 데이터가 입력되고, C 좌표는 T2-W 시상면 방향의 MRI 데이터가 입력될 경우, 이는 단순 분류할 경우, 이를 딥러닝 학습을 위한 데이터로 활용하기 부족하게 된다.For example, the A coordinate is input to MRI data in the T1-W horizontal plane direction, the B coordinate is input to MRI data in the labeled coronal plane direction, and the C coordinate is to input MRI data in the T2-W sagittal direction. In this case, if it is simply classified, it is insufficient to use it as data for deep learning learning.

이러한 점을 고려하여, 전달되는 각 MRI 데이터 셋(T1 강조 MRI 셋, T2 강조 MRI 셋, 제2 MRI 데이터 셋)에 대해서, 1차적으로 포함되어 있는 정보들을 분석하여, 원하는 모든 방향에 대한 MRI 데이터가 포함되어 있을 경우, 단순 분류를 수행하여, 전처리를 수행하게 되고, 어느 한 방향이라도 MRI 데이터가 빠져있을 경우, 2차원 데이터를 각각 쌓아서 각 3차원 데이터로 생성하고, 각 3차원 데이터에 대한 슬라이싱을 수행하여 각 방향 별 데이터를 생성하게 된다.Taking this into consideration, the information primarily included in each delivered MRI data set (T1-weighted MRI set, T2-weighted MRI set, and second MRI data set) is analyzed to obtain MRI data in all desired directions. If included, simple classification is performed and preprocessing is performed. If MRI data is missing in any direction, the 2-dimensional data are stacked to create 3-dimensional data, and slicing is performed on each 3-dimensional data. is performed to generate data for each direction.

상기 딥러닝 학습 단계(S300)는 상기 딥러닝 학습부(300)에서, 각 방향 별 제1 MRI 데이터 셋(T1-W 수평면, T1-W 관상면, T1-W 시상면, T2-W 수평면, T2-W 관상면 및 T2-W 시상면 방향 각각에 대한 2차원 MRI 이미지 데이터), 제2 MRI 데이터 셋(수평면, 관상면 및 시상면 방향 각각에 대한 2차원 MRI 이미지 데이터)을 입력받아 학습 데이터로 생성하고, 미리 저장된 딥러닝 네트워크를 이용하여 각 방향 별 학습 처리를 수행하게 된다.In the deep learning learning step (S300), the deep learning learning unit 300 generates a first MRI data set for each direction (T1-W horizontal plane, T1-W coronal plane, T1-W sagittal plane, T2-W horizontal plane, Learning data by receiving input of the second MRI data set (two-dimensional MRI image data for each of the T2-W coronal and T2-W sagittal directions) and the second MRI data set (two-dimensional MRI image data for each of the horizontal, coronal, and sagittal directions) It is created and learning processing for each direction is performed using a pre-stored deep learning network.

상세하게는, 도 4에 도시된 바와 같이, 각 방향 별 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 입력받아, 방향 별로 분류하여 학습 데이터(수평면 방향의 T1-W, T2-W, 라벨 MRI 이미지 데이터/관상면 방향의 T1-W, T2-W, 라벨 MRI 이미지 데이터/시상면 방향의 T1-W, T2-W, 라벨 MRI 이미지 데이터)를 생성하게 된다.In detail, as shown in FIG. 4, the first MRI data set and the second MRI data set for each direction are input, classified by direction, and training data (T1-W, T2-W in the horizontal direction, label MRI Image data/T1-W, T2-W in the coronal direction, label MRI image data/T1-W, T2-W, label MRI image data in the sagittal direction) are generated.

이 후, 각 방향 별로 학습 처리를 수행하여, 적어도 3개의 학습 모델(수평면 학습 모델, 관상면 학습 모델 및 시상면 학습 모델)을 생성하게 된다. 이 때, 상기 딥러닝 학습부(300)는 2D U-Net 기반의 학습 네트워크를 적용하는 것이 바람직하다.Afterwards, learning processing is performed for each direction to generate at least three learning models (horizontal plane learning model, coronal plane learning model, and sagittal plane learning model). At this time, it is preferable that the deep learning learning unit 300 applies a 2D U-Net-based learning network.

이 때, 예측을 위한 최종 활성화 함수로 소프트맥스(softmax) 함수를 적용하여 학습 처리를 수행함으로써, 학습 모델은 입력되는 이미지 데이터의 각 픽셀마다 각 클래스(백그라운드 영역, GM 영역, WM 영역 및 CSF 영역)에 포함될 확률 맵(probabilistic map) 형태로 결과 데이터(예측 데이터)를 도출하게 된다.At this time, by performing learning processing by applying the softmax function as the final activation function for prediction, the learning model creates each class (background area, GM area, WM area, and CSF area) for each pixel of the input image data. ), the result data (predicted data) is derived in the form of a probabilistic map.

상기 딥러닝 학습 단계(S300)는 결과(예측)와 정답 간의 손실함수 계산을 통해 이를 최소화하는 방향으로 모델을 학습하게 된다.In the deep learning learning step (S300), the model is learned to minimize the loss function between the result (prediction) and the correct answer.

상세하게는, 상기 학습 데이터를 통해서 각 방향 별로 학습 처리를 수행하여 적어도 3개의 학습 모델을 생성한 후, 생성한 각 방향 별 학습 모델에 각 방향에 해당하는 제1 MRI 이미지 데이터 셋을 입력하여 확률 맵(probabilistic map) 형태로 결과 데이터(예측 데이터)를 도출하게 된다. 이 후, 결과 데이터(예측 데이터)와 각 방향에 해당하는 제2 MRI 데이터 셋을 이용한 미리 설정된 손실함수의 계산이 최소화되도록 학습 모델을 업데이트하게 된다. 이를 통해서, 각 방향 별 최종 학습 모델을 생성하게 된다.In detail, at least three learning models are generated by performing learning processing for each direction through the learning data, and then inputting the first MRI image data set corresponding to each direction into the generated learning model for each direction to determine the probability. Result data (predicted data) is derived in the form of a map (probabilistic map). Afterwards, the learning model is updated to minimize the calculation of a preset loss function using the result data (prediction data) and the second MRI data set corresponding to each direction. Through this, the final learning model for each direction is created.

이 때, 손실함수로는 상기의 수학식 1과 같이, FL(Focal Loss)와 GDL(Generalized Dice Loss)를 같은 weight으로 결합한 하이브리드 방식의 함수를 설정하게 된다.At this time, a hybrid function combining FL (Focal Loss) and GDL (Generalized Dice Loss) with the same weight is set as the loss function, as shown in Equation 1 above.

이와 같이, 각 방향에 대한 최종 학습 모델이 생성되고 난 후, 상기 제2 입력 단계(S400)는 상기 외부 데이터 입력부(400)에서, 뇌 영역들을 분할하고자 하는 제3 MRI 데이터 셋을 입력받게 된다. 상기 제3 MRI 데이터 셋으로는 동일한 환자의 동일한 영역을 촬영한 T1 강조 MRI 데이터 셋과 T2 강조 MRI 데이터 셋을 쌍을 이루어 입력받는 것이 가장 바람직하나, 이 중 하나에 대해서만 다시 말하자면, T1 강조 MRI 데이터 셋 또는, T2 강조 MRI 데이터 셋만 입력받아도 무방하다.In this way, after the final learning model for each direction is generated, the second input step (S400) receives the third MRI data set for dividing brain regions from the external data input unit 400. As the third MRI data set, it is most desirable to receive a pair of T1-weighted MRI data sets and T2-weighted MRI data sets obtained by imaging the same area of the same patient. However, for only one of these, T1-weighted MRI data It is okay to input only three or T2-weighted MRI data sets.

상기 제2 전처리 단계(S500)는 상기 외부 데이터 전처리부(500)에서, 상기 제2 입력 단계(S400)에 의한 상기 제3 MRI 데이터 셋을 전달받아, 미리 설정된 각 방향에 해당하도록 이미지 처리를 수행하여, 각 방향 별 제3 MRI 데이터 셋을 생성하게 된다.The second pre-processing step (S500) receives the third MRI data set from the second input step (S400) from the external data pre-processing unit 500 and performs image processing to correspond to each preset direction. Thus, a third MRI data set for each direction is generated.

상세하게는, 통상적으로 뇌 MRI 데이터가 수평면 방향의 MRI 데이터인 점을 감안하여, 전달되는 제3 MRI 데이터 셋을 쌓아서 3차원 데이터로 생성하고, 3차원 데이터에 대해서 수평면 방향, 관상면 방향과 시상면 방향으로 슬라이싱을 수행하여, 각 방향 별 MRI 데이터 셋을 생성하게 된다. 이 때, 수평면 방향의 MRI 데이터를 입력받을 경우, 이는 그대로 활용하여 연산 과정을 줄일 수 있다.In detail, considering that brain MRI data is usually MRI data in the horizontal direction, the transmitted third MRI data set is stacked to create 3-dimensional data, and the 3-dimensional data is divided into horizontal, coronal, and sagittal directions. By performing slicing in the plane direction, MRI data sets for each direction are created. At this time, if MRI data in the horizontal direction is input, it can be used as is to reduce the calculation process.

이를 통해서, 전처리된 제3 MRI 데이터 셋은 T1 강조 MRI 데이터 셋과 T2 강조 MRI 데이터 셋이 모두 입력될 경우, T1-W 수평면, T1-W 관상면, T1-W 시상면, T2-W 수평면, T2-W 관상면 및 T2-W 시상면 방향 각각에 대한 2차원 MRI 이미지 데이터를 획득할 수 있으며, T1 강조 MRI 데이터 셋 또는, T2 강조 MRI 데이터 셋만 입력될 경우, 해당하는 강조 영상 데이터의 수평면, 관상면 및 시상면 방향 각각에 대한 2차원 MRI 이미지 데이터를 획득하게 된다.Through this, the preprocessed third MRI data set is, when both the T1-weighted MRI data set and the T2-weighted MRI data set are input, the T1-W horizontal plane, T1-W coronal plane, T1-W sagittal plane, T2-W horizontal plane, Two-dimensional MRI image data can be acquired for each of the T2-W coronal and T2-W sagittal directions, and when only the T1-weighted MRI data set or the T2-weighted MRI data set is input, the horizontal plane of the corresponding weighted image data, Two-dimensional MRI image data is acquired for each of the coronal and sagittal directions.

물론, 촬영 기기의 스펙 등의 외부 환경 조건에 따라, 전달되는 제3 MRI 데이터 셋이 수평면 방향 뿐 아니라, 시상면과 관상면을 모두 포함하고 있을 수 있다. 이 경우, 전달되는 제3 MRI 데이터 셋에 포함되어 있는 정보들을 분석하여, 해당하는 방향으로 분류하여 각 방향 별 제3 MRI 데이터 셋을 생성하게 된다.Of course, depending on external environmental conditions such as specifications of the imaging device, the transmitted third MRI data set may include both the sagittal and coronal planes as well as the horizontal plane direction. In this case, the information included in the transmitted third MRI data set is analyzed and classified into corresponding directions to generate a third MRI data set for each direction.

이와 같이, 단순 분류 과정을 수행하기 위해서는, 상기 제2 입력 단계(S400)를 통해서 통해서 동일한 좌표를 갖는 픽셀에 대한 수평면, 시상면과 관상면 방향에 대한 MRI 이미지 데이터가 모두 입력되어야 한다.In this way, in order to perform a simple classification process, all MRI image data for the horizontal, sagittal, and coronal directions for pixels with the same coordinates must be input through the second input step (S400).

상기 딥러닝 추론 단계(S600)는 상기 제2 전처리 단계(S500)에 의한 전처리된 각 방향 별 제3 MRI 데이터 셋을 전달받아, 해당하는 방향(수평면, 시상면 및 관상면) 별 학습 모델에 각각 입력하여, 각 방향 별 예측 데이터(결과 데이터)를 출력하게 된다.The deep learning inference step (S600) receives the third MRI data set for each direction preprocessed by the second preprocessing step (S500) and applies each to a learning model for each direction (horizontal, sagittal, and coronal planes). By inputting, predicted data (result data) for each direction is output.

이 때, 상기 딥러닝 추론 단계(S600)는 학습 모델에 적용된 소프트맥스 최종 활성화 함수로 인해 전처리된 각 방향 별 제3 MRI 데이터 셋에 포함되어 있는 각 픽셀마다 각 클래스(백그라운드 영역, GM 영역, WM 영역 및 CSF 영역), 다시 말하자면, 각각의 뇌 영역에 해당할 확률 맵 형태로 결과 데이터를 출력하게 된다.At this time, the deep learning inference step (S600) is performed for each pixel included in the third MRI data set for each direction preprocessed due to the softmax final activation function applied to the learning model. area and CSF area), in other words, the resulting data is output in the form of a probability map corresponding to each brain region.

상기 추론 융합 단계(S800)는 상기 추론 융합부(700)에서, 상기 딥러닝 추론 단계(S600)에 의한 각 방향 별 예측 데이터를 통합 이용하여, 상기 제2 입력 단계(S400)에 의한 상기 제3 MRI 데이터 셋의 각 팍실에 해당하는 뇌 영역을 도출하게 된다.In the inference fusion step (S800), the inference fusion unit 700 integrates and uses the prediction data for each direction by the deep learning inference step (S600) to generate the third input signal by the second input step (S400). The brain region corresponding to each Paxil in the MRI data set is derived.

상세하게는, 상기 추론 융합 단계(S800)는 각 방향 별 예측 데이터에 대해 같은 위치의 픽셀 별로 평균을 내어 각 픽셀 마다 가장 높은 확률을 나타내는 클래스, 즉, 가장 높은 확률을 갖는 뇌 영역으로 해당 픽셀에 대한 최종 분할 결과를 도출하게 된다.In detail, the inference fusion step (S800) averages the prediction data for each direction for each pixel at the same location, and selects the pixel as the class showing the highest probability for each pixel, that is, the brain region with the highest probability. The final division result is derived.

즉, 각 방향 별 예측 데이터를 이용하여, 상기 제3 MRI 데이터 셋의 각 픽셀마다, 해당하는 각 방향 별 각각의 뇌 영역에 해당할 확률에 대한 평균을 연산하여, 가장 높은 평균값에 해당하는 뇌 영역으로 해당하는 픽셀의 최종 뇌 영역을 도출하게 된다.That is, using the prediction data for each direction, for each pixel of the third MRI data set, the average of the probability corresponding to each brain region for each direction is calculated, and the brain region corresponding to the highest average value is calculated. The final brain area of the corresponding pixel is derived.

일 예를 들자면, 도 5에 도시된 바와 같이, 전처리된 제3 MRI 데이터 셋의 A 픽셀에 대해서 제1 학습 모델(수평면 학습 모델), 제2 학습 모델(시상면 학습 모델), 제3 학습 모델(관상면 학습 모델)로부터 예측 데이터를 출력받아, 각 예측 데이터에 포함되어 있는 각각의 뇌 영역에 해당한 확률 맵 값을 평균하여, 즉, 제1 학습 모델의 예측 데이터(수평면 기준으로 A 픽셀이 백그라운드 영역에 해당할 확률, GM 영역에 해당할 확률, WM 영역에 해당할 확률, CSF 영역에 해당할 확률), 제2 학습 모델의 예측 데이터(시상면 기준으로 A 픽셀이 백그라운드 영역에 해당할 확률, GM 영역에 해당할 확률, WM 영역에 해당할 확률, CSF 영역에 해당할 확률), 제3 학습 모델의 예측 데이터(관상면 기준으로 A 픽셀이 백그라운드 영역에 해당할 확률, GM 영역에 해당할 확률, WM 영역에 해당할 확률, CSF 영역에 해당할 확률)를 각 영역 별로 평균(A 픽셀이 백그라운드 영역에 해당할 확률(수평면 기준/시상면 기준/관상면 기준), A 픽셀이 GM 영역에 해당할 확률(수평면 기준/시상면 기준/관상면 기준), A 픽셀이 WM 영역에 해당할 확률(수평면 기준/시상면 기준/관상면 기준), A 픽셀이 CSF 영역에 해당할 확률(수평면 기준/시상면 기준/관상면 기준)) 연산하여, 가장 높은 평균값에 해당하는 뇌 영역으로 해당하는 픽셀의 최종 뇌 영역을 도출하게 된다.For example, as shown in FIG. 5, for the A pixel of the preprocessed third MRI data set, a first learning model (horizontal plane learning model), a second learning model (sagittal plane learning model), and a third learning model Predicted data is output from (coronal plane learning model), and the probability map values corresponding to each brain region included in each predicted data are averaged, that is, the predicted data of the first learning model (A pixel on the horizontal plane is Probability of corresponding to the background area, probability of corresponding to the GM area, probability of corresponding to the WM area, probability of corresponding to the CSF area), predicted data of the second learning model (probability of A pixel corresponding to the background area based on the sagittal plane) , probability that the pixel corresponds to the GM area, probability that it corresponds to the WM area, probability that it corresponds to the CSF area), predicted data of the third learning model (probability that the A pixel corresponds to the background area based on the coronal plane, probability that it corresponds to the GM area Probability, probability of corresponding to WM area, probability of corresponding to CSF area) are averaged for each area (probability that A pixel corresponds to background area (based on horizontal plane/sagittal plane/coronal plane), A pixel corresponds to GM region Probability of corresponding (horizontal/sagittal/coronal), probability that A pixel corresponds to WM area (horizontal/sagittal/coronal), probability that A pixel corresponds to CSF area (horizontal) /sagittal plane standard/coronal plane standard)) is calculated, and the final brain region of the pixel is derived as the brain region corresponding to the highest average value.

이 때, 상기 추론 융합 단계(S800)는 상기 딥러닝 추론 단계(S600)에 의한 각 방향 별 예측 데이터에 오류가 발생하지 않는다는 조건 하에, 각 영역 별 평균 연산을 수행하게 된다.At this time, the inference fusion step (S800) performs an average calculation for each region under the condition that no error occurs in the prediction data for each direction by the deep learning inference step (S600).

그렇지만, 100% 확신할 수 없기 때문에, 상기 추론 융합 단계(S800)는 외부 사용자(관리자, 엔지니어 등)의 선택에 따라, 각 예측 데이터에 의한 각각의 픽셀 별로 가장 낮은 확률 맵 값을 제외한 나머지 2개 확률 맵 값의 평균, 전체 평균보다 소정값 이상 차이나도록 높은 확률 맵 값을 제외한 나머지 2개 확률 맵 값의 평균 또는, 전체 평균보다 소정값 이상 차이나도록 낮은 확률 맵 값을 제외한 나머지 2개 확률 맵 값의 평균을 연산하여, 가장 높은 평균값에 해당하는 뇌 영역으로 해당하는 픽셀의 최종 뇌 영역을 도출하게 된다.However, because it cannot be 100% certain, the inference fusion step (S800) is performed by excluding the lowest probability map value for each pixel from each prediction data according to the selection of an external user (manager, engineer, etc.). The average of the probability map values, the average of the remaining two probability map values excluding the high probability map value that differs by a predetermined value from the overall average, or the remaining two probability map values excluding the low probability map value that differs by a predetermined value from the overall average. By calculating the average, the final brain region of the pixel corresponding to the brain region corresponding to the highest average value is derived.

상기 분할 단계(S800)는 상기 분석부(800)에서, 상기 추론 융합 단계(S700)에 의해 각 픽셀마다 도출한 최종 뇌 영역을 이용하여, 각 뇌 영역의 분할 처리를 수행하게 된다. 즉, 각 픽셀마다 도출한 최종 뇌 영역을 이용하여, 각 뇌 영역의 분할 처리를 수행하여, 도 6의 예측 데이터와 같이, 각 뇌 영역을 분리하게 된다. 이는 상기의 수학식 2와 같다.In the segmentation step (S800), the analysis unit 800 performs segmentation processing of each brain region using the final brain region derived for each pixel through the inference fusion step (S700). That is, segmentation processing is performed on each brain region using the final brain region derived for each pixel, and each brain region is separated, as shown in the prediction data in FIG. 6. This is the same as Equation 2 above.

상기 체적 연산 단계(S900)는 상기 분석부(800)에서, 상기 분할 단계(S800)에 의해 분할 처리된 각 뇌 영역에 포함되어 있는 픽셀의 개수를 이용하여, 도 6의 체적 데이터와 같이, 각 뇌 영역의 체적(volume)을 연산하게 된다.The volume calculation step (S900) uses the number of pixels included in each brain region divided by the segmentation step (S800) in the analysis unit 800, as in the volume data of FIG. 6, for each brain region. The volume of the brain region is calculated.

상세하게는, 상기 체적 연산 단계(S900)는 분할을 수행한 상기 제3 MRI 데이터 셋의 3D 배열이 이루고 있는 단위 복셀의 가로, 세로, 높이를 동일한 크기로 변환하는 복셀 변환 작업을 수행한 후, 3D 배역에서 각 뇌 영역이 차지하고 있는 체적비를 계산하게 된다.In detail, the volume calculation step (S900) performs a voxel conversion operation to convert the width, length, and height of the unit voxels forming the 3D array of the third MRI data set on which the segmentation was performed to the same size, The volume ratio occupied by each brain region in the 3D model is calculated.

3D 배열 전체 노드 개수 대비 각 영역에 해당하는 노드의 개수를 그 체적비로 하고, 최종적으로 3D 배역 전체의 실제 부피에 각 영역의 체적비를 곱하여 실제 체적을 계산하게 된다.The volume ratio is the number of nodes corresponding to each area compared to the total number of nodes in the 3D array, and finally, the actual volume is calculated by multiplying the actual volume of the entire 3D array by the volume ratio of each area.

이 때, 의료 영상에는 기본적으로 촬영된 영상의 복셀 크기 정보가 포함되어 있기 때문에, 이를 활용하여 복셀 변환 작업을 수행하게 된다.At this time, since the medical image basically includes voxel size information of the captured image, voxel conversion is performed using this.

즉, 상기의 수학식 3과 같이, 분할된 각 뇌 영역(GM, WM, CSF)을 차지하는 픽셀의 개수를 도출한 후, 상기의 수학식 4와 같이, 제3 MRI 데이터 셋에 기본적으로 포함되어 있는 x, y, z축 방향의 실제 픽셀 크기 정보(dx, dy, dz)를 각 뇌 영역 픽셀 개수에 모두 곱하여 실제 스케일의 체적을 계산하게 된다.That is, after deriving the number of pixels occupying each divided brain region (GM, WM, CSF) as in Equation 3 above, it is basically included in the third MRI data set as in Equation 4 above. The actual scale volume is calculated by multiplying the actual pixel size information (dx, dy, dz) in the x, y, and z axes by the number of pixels in each brain region.

이상과 같이 본 발명에서는 구체적인 구성 소자 등과 같은 특정 사항들과 한정된 실시예 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것 일 뿐, 본 발명은 상기의 일 실시예에 한정되는 것이 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described with reference to specific details such as specific components and limited embodiment drawings, but this is only provided to facilitate a more general understanding of the present invention, and the present invention is not limited to the above-mentioned embodiment. No, those skilled in the art can make various modifications and variations from this description.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허 청구 범위뿐 아니라 이 특허 청구 범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the described embodiments, and all matters that are equivalent or equivalent to the claims of this patent as well as the claims described below shall fall within the scope of the spirit of the present invention. .

100 : 데이터 입력부
200 : 데이터 전처리부
300 : 딥러닝 학습부
400 : 외부 데이터 입력부
500 : 외부 데이터 전처리부
600 : 딥러닝 추론부
700 : 추론 융합부
800 : 분석부
810 : 분할 처리부 820 : 체적 연산부
100: data input unit
200: data preprocessing unit
300: Deep learning learning department
400: External data input unit
500: External data preprocessing unit
600: Deep learning inference unit
700: Inference fusion unit
800: analysis department
810: Division processing unit 820: Volume calculation unit

Claims (14)

딥러닝 학습 처리를 위한, 제1 MRI 데이터 셋과 분할하고자 하는 뇌 영역들이 라벨링되어 있는 제2 MRI 데이터 셋을 입력받는 데이터 입력부(100);
상기 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 전달받아, 기설정된 각 방향에 해당하도록 이미지 처리를 수행하여, 각 방향 별 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 생성하는 데이터 전처리부(200);
각 방향 별 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 입력받아 학습 데이터로 생성하고, 기저장된 딥러닝 네트워크를 이용하여 학습 처리를 수행하여, 각 방향 별 학습 모델을 생성하는 딥러닝 학습부(300);
뇌 영역들을 분할하고자 하는 제3 MRI 데이터 셋을 입력받는 외부 데이터 입력부(400);
상기 제3 MRI 데이터 셋을 전달받아, 기설정된 각 방향에 해당하도록 이미지 처리를 수행하여, 각 방향 별 제3 MRI 데이터 셋을 생성하는 외부 데이터 전처리부(500);
각 방향 별 제3 MRI 데이터 셋을 전달받아, 해당하는 방향 별 학습 모델에 각각 입력하여, 각 방향 별 예측 데이터를 출력하는 딥러닝 추론부(600);
각 방향 별 예측 데이터를 통합 이용하여, 상기 제3 MRI 데이터 셋의 각 픽셀마다 해당하는 뇌 영역을 도출하는 추론 융합부(700); 및
각 픽셀 정보를 이용하여 도출한 각 뇌 영역의 분할 처리를 수행하는 분석부(800);
를 포함하되,
상기 제1 MRI 데이터 셋은
동일한 영역을 촬영한 T1 강조 MRI 데이터 셋과 T2 강조 MRI 데이터 셋을 포함하는, 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템.
A data input unit 100 that receives a first MRI data set for deep learning learning processing and a second MRI data set in which brain regions to be segmented are labeled;
A data preprocessor that receives the first MRI data set and the second MRI data set, performs image processing to correspond to each preset direction, and generates a first MRI data set and a second MRI data set for each direction. 200);
A deep learning learning unit (which receives the first MRI data set and the second MRI data set for each direction and generates them as learning data, performs learning processing using a pre-stored deep learning network, and generates a learning model for each direction) 300);
An external data input unit 400 that receives a third MRI data set for dividing brain regions;
an external data preprocessor 500 that receives the third MRI data set, performs image processing to correspond to each preset direction, and generates a third MRI data set for each direction;
A deep learning inference unit 600 that receives the third MRI data set for each direction, inputs it into a learning model for each direction, and outputs prediction data for each direction;
an inference fusion unit 700 that derives a brain region corresponding to each pixel of the third MRI data set by integrating prediction data for each direction; and
An analysis unit 800 that performs segmentation processing on each brain region derived using each pixel information;
Including,
The first MRI data set is
A brain region segmentation system from brain MRI data using deep learning, including a T1-weighted MRI data set and a T2-weighted MRI data set of the same region.
제 1항에 있어서,
상기 데이터 전처리부(200) 및 외부 데이터 전처리부(500)는
전달되는 각 MRI 데이터 셋에 대해서 3차원 데이터를 생성하고, 각 3차원 데이터에 대해 수평면(Axial) 방향, 관상면(Coronal) 방향 및 시상면(Sagittal) 방향으로 슬라이싱 수행하여, 각 방향 별 MRI 데이터 셋을 생성하는, 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템.
According to clause 1,
The data pre-processing unit 200 and the external data pre-processing unit 500
3D data is generated for each transmitted MRI data set, and slicing is performed for each 3D data in the horizontal, coronal, and sagittal directions to produce MRI data for each direction. A brain region segmentation system from brain MRI data using deep learning that generates a set.
제 1항에 있어서,
상기 데이터 전처리부(200) 및 외부 데이터 전처리부(500)는
전달되는 각 MRI 데이터 셋에 포함되어 있는 정보들을 분석하여, 해당하는 수평면(Axial) 방향, 관상면(Coronal) 방향 및 시상면(Sagittal) 방향으로 분류하여, 각 방향 별 MRI 데이터 셋을 생성하는, 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템.
According to clause 1,
The data pre-processing unit 200 and the external data pre-processing unit 500
The information contained in each transmitted MRI data set is analyzed and classified into the corresponding horizontal, coronal, and sagittal directions to generate MRI data sets for each direction. Brain region segmentation system from brain MRI data using deep learning.
제 1항에 있어서,
상기 딥러닝 학습부(300)는
상기 제1 MRI 데이터 셋을 이용한 각 방향 별 예측 데이터와 상기 제2 MRI 데이터 셋을 이용한 기설정된 손실함수의 계산이 최소화되도록 각 방향 별 학습 모델을 업데이트하여, 각 방향 별 최종 학습 모델을 생성하는, 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템.
According to clause 1,
The deep learning learning unit 300
Updating the learning model for each direction to minimize the calculation of prediction data for each direction using the first MRI data set and a preset loss function using the second MRI data set, and generating a final learning model for each direction, Brain region segmentation system from brain MRI data using deep learning.
제 4항에 있어서,
상기 딥러닝 학습부(300)는
상기 딥러닝 네트워크에서, 활성화 함수로 소프트맥스(softmax) 함수를 적용하여 학습 처리를 수행하여,
상기 딥러닝 추론부(600)는
각 방향 별 제3 MRI 데이터 셋의 픽셀마다 각각의 뇌 영역에 해당할 확률 맵(probabilistic map) 형태로 상기 예측 데이터를 출력하는, 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템.
According to clause 4,
The deep learning learning unit 300
In the deep learning network, learning processing is performed by applying the softmax function as an activation function,
The deep learning inference unit 600
A brain region segmentation system from brain MRI data using deep learning that outputs the predicted data in the form of a probability map corresponding to each brain region for each pixel of the third MRI data set in each direction.
제 5항에 있어서,
상기 추론 융합부(700)는
각 방향 별 예측 데이터를 이용하여,
상기 제3 MRI 데이터 셋의 각 픽셀마다, 해당하는 각 방향 별 각각의 뇌 영역에 해당할 확률에 대한 평균을 연산하여, 가장 높은 평균값에 해당하는 뇌 영역으로 해당하는 픽셀의 최종 뇌 영역을 도출하는, 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템.
According to clause 5,
The inference fusion unit 700 is
Using predicted data for each direction,
For each pixel of the third MRI data set, calculating the average of the probability of corresponding to each brain region in each direction, and deriving the final brain region of the pixel corresponding to the brain region corresponding to the highest average value. , Brain region segmentation system from brain MRI data using deep learning.
제 5항에 있어서,
상기 분석부(800)는
각 픽셀 정보를 이용하여, 각 뇌 영역의 분할 처리를 수행하는 분할 처리부(810); 및
분할 처리된 각 뇌 영역에 포함되어 있는 픽셀의 개수를 이용하여, 각 뇌 영역의 체적(volume)을 연산하는 체적 연산부(820);
를 포함하는, 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템.
According to clause 5,
The analysis unit 800 is
A segmentation processing unit 810 that performs segmentation processing of each brain region using each pixel information; and
a volume calculation unit 820 that calculates the volume of each brain region using the number of pixels included in each segmented brain region;
A brain region segmentation system from brain MRI data using deep learning, including.
제 7항에 있어서,
상기 체적 연산부(820)는
분할 처리된 각 뇌 영역에 포함되어 있는 픽셀의 개수에 상기 제3 MRI 데이터 셋에 포함되어 있는 방향 별 실제 픽셀 크기 정보를 반영하여, 각 뇌 영역의 실제 스케일의 체적을 연산하는, 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템.
According to clause 7,
The volume calculation unit 820 is
Deep learning is used to calculate the actual scale volume of each brain region by reflecting the actual pixel size information for each direction included in the third MRI data set in the number of pixels included in each segmented brain region. A brain region segmentation system from one brain MRI data.
컴퓨터를 포함하는 연산 처리 수단에 의해 각 단계가 수행되는 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 시스템을 이용한 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 방법으로서,
딥러닝 학습 처리를 위한, 제1 MRI 데이터 셋과 분할하고자 하는 뇌 영역들이 라벨링되어 있는 제2 MRI 데이터 셋을 입력받는 제1 입력 단계(S100);
상기 제1 입력 단계(S100)에 의한 MRI 데이터 셋을 전달받아, 기설정된 각 방향에 해당하도록 이미지 처리를 수행하여, 각 방향 별 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 생성하는 제1 전처리 단계(S200);
기저장된 딥러닝 네트워크에서 상기 제1 전처리 단계(S200)에 의한 각 방향 별 제1 MRI 데이터 셋과 제2 MRI 데이터 셋을 학습 데이터로 입력받아, 학습 처리를 수행하여, 각 방향 별 학습 모델을 생성하는 딥러닝 학습 단계(S300);
뇌 영역들을 분할하고자 하는 제3 MRI 데이터 셋을 입력받는 제2 입력 단계(S400);
상기 제2 입력 단계(S400)에 의한 MRI 데이터 셋을 전달받아, 기설정된 각 방향에 해당하도록 이미지 처리를 수행하여, 각 방향 별 제3 MRI 데이터 셋을 생성하는 제2 전처리 단계(S500);
상기 제2 전처리 단계(S500)에 의한 각 방향 별 제3 MRI 데이터 셋을 이용하여, 상기 딥러닝 학습 단계(S300)에 의한 해당하는 방향 별 학습 모델에 입력하여, 각 방향 별 예측 데이터를 출력하는 딥러닝 추론 단계(S600);
각 방향 별 예측 데이터를 통합 이용하여, 상기 제2 입력 단계(S400)에 의한 제3 MRI 데이터 셋의 각 픽셀마다 해당하는 뇌 영역을 도출하는 추론 융합 단계(S700);
상기 추론 융합 단계(S700)에 의해 도출한 각 픽셀 정보를 이용하여, 각 뇌 영역의 분할 처리를 수행하는 분할 단계(S800); 및
상기 분할 단계(S800)에 의해 분할 처리된 각 뇌 영역에 포함되는 픽셀의 개수를 이용하여, 각 뇌 영역의 체적(volume)을 연산하는 체적 연산 단계(S900);
를 포함하되,
상기 제1 MRI 데이터 셋은 동일한 영역을 촬영한 T1 강조 MRI 데이터 셋과 T2 강조 MRI 데이터 셋을 포함하는, 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 방법.
A brain region segmentation method from brain MRI data using deep learning using a brain region segmentation system from brain MRI data using deep learning in which each step is performed by computational processing means including a computer, comprising:
A first input step (S100) of receiving a first MRI data set for deep learning learning processing and a second MRI data set in which brain regions to be segmented are labeled;
First preprocessing to receive the MRI data set through the first input step (S100), perform image processing to correspond to each preset direction, and generate a first MRI data set and a second MRI data set for each direction. Step (S200);
In the pre-stored deep learning network, the first MRI data set and the second MRI data set for each direction in the first preprocessing step (S200) are input as learning data, and learning processing is performed to generate a learning model for each direction. deep learning learning step (S300);
A second input step (S400) of receiving a third MRI data set to be divided into brain regions;
A second preprocessing step (S500) of receiving the MRI data set from the second input step (S400), performing image processing to correspond to each preset direction, and generating a third MRI data set for each direction;
Using the third MRI data set for each direction in the second preprocessing step (S500), inputting it into the learning model for each direction in the deep learning learning step (S300) to output prediction data for each direction Deep learning inference step (S600);
An inference fusion step (S700) of deriving a brain region corresponding to each pixel of the third MRI data set from the second input step (S400) by integrating the prediction data for each direction;
A segmentation step (S800) of performing segmentation processing on each brain region using each pixel information derived from the inference fusion step (S700); and
A volume calculation step (S900) of calculating the volume of each brain region using the number of pixels included in each brain region divided by the division step (S800);
Including,
A brain region segmentation method from brain MRI data using deep learning, wherein the first MRI data set includes a T1-weighted MRI data set and a T2-weighted MRI data set obtained by imaging the same region.
제 9항에 있어서,
상기 제1 전처리 단계(S200)와 제2 전처리 단계(S500)는
전달되는 각 MRI 데이터 셋에 대해서 3차원 데이터를 생성하고, 각 3차원 데이터에 대해 수평면(Axial) 방향, 관상면(Coronal) 방향 및 시상면(Sagittal) 방향으로 슬라이싱 수행하여, 각 방향 별 MRI 데이터 셋을 생성하는, 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 방법.
According to clause 9,
The first preprocessing step (S200) and the second preprocessing step (S500) are
3D data is generated for each transmitted MRI data set, and slicing is performed for each 3D data in the horizontal, coronal, and sagittal directions to produce MRI data for each direction. Brain region segmentation method from brain MRI data using deep learning to generate sets.
제 9항에 있어서,
상기 제1 전처리 단계(S200)와 제2 전처리 단계(S500)는
전달되는 각 MRI 데이터 셋에 포함되어 있는 정보들을 분석하여, 해당하는 수평면(Axial) 방향, 관상면(Coronal) 방향 및 시상면(Sagittal) 방향으로 분류하여, 각 방향 별 MRI 데이터 셋을 생성하는, 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 방법.
According to clause 9,
The first preprocessing step (S200) and the second preprocessing step (S500) are
The information contained in each transmitted MRI data set is analyzed and classified into the corresponding horizontal, coronal, and sagittal directions to generate MRI data sets for each direction. Brain region segmentation method from brain MRI data using deep learning.
제 9항에 있어서,
상기 딥러닝 학습 단계(S300)는
상기 제1 MRI 데이터 셋을 이용한 각 방향 별 예측 데이터와 상기 제1 전처리 단계(S200)에 의한 각 방향 별 제2 MRI 데이터 셋을 이용한 기설정된 손실함수의 계산이 최소화되도록 반복하여 학습 처리를 수행하여, 각 방향 별 학습 모델을 생성하고,
활성화 함수로 소프트맥스(softmax) 함수를 적용하여 학습 처리를 수행하는, 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 방법.
According to clause 9,
The deep learning learning step (S300) is
Learning processing is performed repeatedly to minimize the calculation of the prediction data for each direction using the first MRI data set and the preset loss function using the second MRI data set for each direction in the first preprocessing step (S200). , create a learning model for each direction,
A brain region segmentation method from brain MRI data using deep learning, which performs learning processing by applying the softmax function as an activation function.
제 12항에 있어서,
상기 딥러닝 추론 단계(S600)는
각 방향 별 제3 MRI 데이터 셋의 픽셀마다 각각의 뇌 영역에 해당할 확률 맵(probabilistic map) 형태로 상기 예측 데이터를 출력하는, 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 방법.
According to clause 12,
The deep learning inference step (S600) is
A brain region segmentation method from brain MRI data using deep learning, which outputs the predicted data in the form of a probability map corresponding to each brain region for each pixel of the third MRI data set for each direction.
제 13항에 있어서,
상기 추론 융합 단계(S700)는
각 방향 별 예측 데이터를 이용하여,
상기 제3 MRI 데이터 셋의 각 픽셀마다, 해당하는 각 방향 별 각각의 뇌 영역에 해당할 확률에 대한 평균을 연산하여, 가장 높은 평균값에 해당하는 뇌 영역으로 해당하는 픽셀의 최종 뇌 영역을 도출하는, 딥러닝을 활용한 뇌 MRI 데이터로부터 뇌 영역 분할 방법.
According to clause 13,
The inference fusion step (S700) is
Using predicted data for each direction,
For each pixel of the third MRI data set, calculating the average of the probability of corresponding to each brain region in each direction, and deriving the final brain region of the pixel corresponding to the brain region corresponding to the highest average value. , Brain region segmentation method from brain MRI data using deep learning.
KR1020220058276A 2022-05-12 2022-05-12 Brain tissue segmentation System and method from the brain MRI data using deep-learning KR102655827B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220058276A KR102655827B1 (en) 2022-05-12 2022-05-12 Brain tissue segmentation System and method from the brain MRI data using deep-learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220058276A KR102655827B1 (en) 2022-05-12 2022-05-12 Brain tissue segmentation System and method from the brain MRI data using deep-learning

Publications (2)

Publication Number Publication Date
KR20230158763A KR20230158763A (en) 2023-11-21
KR102655827B1 true KR102655827B1 (en) 2024-04-08

Family

ID=88982291

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220058276A KR102655827B1 (en) 2022-05-12 2022-05-12 Brain tissue segmentation System and method from the brain MRI data using deep-learning

Country Status (1)

Country Link
KR (1) KR102655827B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101718130B1 (en) 2016-02-12 2017-03-20 서울대학교산학협력단 Method of dividing and system for brain region using magnetic resonance imaging
KR102173197B1 (en) * 2018-05-21 2020-11-03 고려대학교 산학협력단 Method and apparatus for predicting amyloid positive or negative based on deep learning

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문, Role of deep learning in infant brain MRI analysis, Magnetic Resonance Imaging Vol. 64, (2019.12.)

Also Published As

Publication number Publication date
KR20230158763A (en) 2023-11-21

Similar Documents

Publication Publication Date Title
Yue et al. Auto-detection of Alzheimer's disease using deep convolutional neural networks
Salem et al. Multiple sclerosis lesion synthesis in MRI using an encoder-decoder U-NET
US8244012B2 (en) Computer aided detection of pulmonary embolism with local characteristic features in CT angiography
EP2481349B1 (en) Method, device, and program for processing images obtained from asl mri
CN110415234A (en) Brain tumor dividing method based on multi-parameter magnetic resonance imaging
Hu et al. Automatic segmentation of intracerebral hemorrhage in CT images using encoder–decoder convolutional neural network
KR102458324B1 (en) Data processing method using a learning model
US20200116808A1 (en) Cerebrovascular segmentation from mra images
Altaf et al. Multi-class Alzheimer disease classification using hybrid features
Sun et al. Intracranial hemorrhage detection by 3D voxel segmentation on brain CT images
CN113096137B (en) Adaptive segmentation method and system for OCT (optical coherence tomography) retinal image field
Rachmatullah et al. Convolutional neural network for semantic segmentation of fetal echocardiography based on four-chamber view
Santa Cruz et al. Going deeper with brain morphometry using neural networks
Gayathri et al. Fetal brain segmentation using improved maximum entropy threshold
Kolařík et al. 3D Dense-U-Net for MRI brain tissue segmentation
KR102655827B1 (en) Brain tissue segmentation System and method from the brain MRI data using deep-learning
Kasim et al. Gaussian mixture model-expectation maximization algorithm for brain images
KR102545906B1 (en) Data processing method using a learning model
Bergo et al. FCD segmentation using texture asymmetry of MR-T1 images of the brain
Kop et al. Kidney segmentation from ultrasound images using gradient vector force
Nugroho et al. Thyroid nodules categorization based on margin features using deep learning
KR102267219B1 (en) Method for Blood Vessel Segmentation
Yan et al. Segmentation of pulmonary parenchyma from pulmonary CT based on ResU-Net++ model
Huizinga et al. Differences Between MR Brain Region Segmentation Methods: Impact on Single-Subject Analysis
JP7325310B2 (en) Medical image processing device, medical image analysis device, and standard image creation program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant