KR20220072693A - Brain Neural Network Structure Image Processing System, Brain Neural Network Structure Image Processing Method, and a computer-readable storage medium - Google Patents

Brain Neural Network Structure Image Processing System, Brain Neural Network Structure Image Processing Method, and a computer-readable storage medium Download PDF

Info

Publication number
KR20220072693A
KR20220072693A KR1020200188436A KR20200188436A KR20220072693A KR 20220072693 A KR20220072693 A KR 20220072693A KR 1020200188436 A KR1020200188436 A KR 1020200188436A KR 20200188436 A KR20200188436 A KR 20200188436A KR 20220072693 A KR20220072693 A KR 20220072693A
Authority
KR
South Korea
Prior art keywords
neural network
image
loss function
image processing
label map
Prior art date
Application number
KR1020200188436A
Other languages
Korean (ko)
Other versions
KR102635484B1 (en
Inventor
정원기
박찬민
이강근
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Publication of KR20220072693A publication Critical patent/KR20220072693A/en
Application granted granted Critical
Publication of KR102635484B1 publication Critical patent/KR102635484B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Abstract

본 발명은 뇌신경망 구조 영상처리 방법에 관한 것으로, 입력되는 뇌신경망 영상 이미지에 대해 딥러닝을 활용하여 뇌신경망 구조가 구분되도록 영상처리 하는 시스템, 방법 및 컴퓨터-판독가능매체에 관한 것으로, 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템은, 뇌신경망 영상 촬영장치와 연동되어 뇌신경망 영상 이미지가 입력되는 입력부; 뇌신경망의 학습에 대조군으로 사용하기 위한 뇌신경망의 실측 이미지인 실측 레이블 맵이 구조별로 저장된 실측 레이블 맵 저장부 및 심층 신경망이 구비되어 상기 입력부에 입력된 뇌신경망 영상 이미지를 뇌신경망 구조별로 분할하여 예측 레이블 맵을 생성하며, 각 구조별 예측 레이블 맵을 상기 실측 레이블 맵 저장부에 기저장된 구조별 실측 레이블 맵과 편차를 줄이도록 손실함수를 적용하여 학습하면서 영상 처리하는 영상 처리부를 포함하여 구성될 수 있다.The present invention relates to a method for processing an image of a neural network structure, and to a system, method, and computer-readable medium for image processing so that a neural network structure is distinguished by using deep learning for an input brain image image. An image processing system of a neural network structure according to an embodiment of the present invention includes: an input unit to which a neural network image image is input by interworking with a neural network image photographing apparatus; An actual label map storage unit and a deep neural network are provided in which an actual measurement label map, which is an actual measurement image of a cranial neural network for use as a control in learning of a cranial neural network, is provided by structure, and the cranial neural network image image input to the input unit is divided by cranial neural network structure. It generates a prediction label map, and includes an image processing unit for image processing while learning by applying a loss function to reduce the deviation from the actual measurement label map for each structure stored in the actual measurement label map storage unit for each structure prediction label map. can

Description

뇌신경망 구조 영상처리 시스템, 뇌신경망 구조 영상처리 방법 및 이를 제공하기 위한 컴퓨터 프로그램이 기록된 컴퓨터-판독가능매체{Brain Neural Network Structure Image Processing System, Brain Neural Network Structure Image Processing Method, and a computer-readable storage medium}A brain neural network structure image processing system, a brain neural network structure image processing method, and a computer-readable medium recording a computer program for providing the same storage medium}

본 발명은 딥러닝을 통한 뇌신경망 구조의 영상처리 시스템, 방법 및 컴퓨터-판독가능매체에 관한 것으로, 특히 딥러닝을 수행하는 과정에서 예측 이미지와 실측 이미지간의 편차를 줄이기 위한 학습에 활용되는 손실함수를 적응형 손실함수를 기반으로 하여 보다 실측 이미지에 가깝게 영상처리를 할 수 있도록 하는 뇌신경망 구조의 영상처리 시스템, 방법 및 컴퓨터-판독가능매체에 관한 것이다. The present invention relates to an image processing system, method, and computer-readable medium of a neural network structure through deep learning, and in particular, a loss function used for learning to reduce the deviation between a predicted image and an actual image in the process of performing deep learning. It relates to an image processing system, a method, and a computer-readable medium of a neural network structure that allow image processing closer to the actual image based on the adaptive loss function.

신경계의 단위로서 자극과 흥분을 전달하는 뉴런(neuron)은 일반적으로 세포체 몸체(cell body)로부터 여러 수상돌기(Dendrite)와 단일 축삭돌기(Axon)가 고도로 분극된 구조를 나타내며, 이러한 뉴런의 형태는 시냅스 통합과 신경 흥분성을 포함한 다양한 신경 속성을 파악하는데 중요한 자료로 쓰인다. 일례로, 알츠하이머 병 또는 파키슨 병과 같은 여러 신경 퇴행성 질환은 뉴런 형태의 이상을 통해 관찰되었다.As a unit of the nervous system, a neuron that transmits stimuli and excitation generally represents a highly polarized structure of several dendrites and a single axon from the cell body, and the form of these neurons is It is used as an important data for understanding various neuronal properties, including synaptic integration and neuronal excitability. For example, several neurodegenerative diseases such as Alzheimer's disease or Parkinson's disease have been observed through abnormalities in neuronal morphology.

한편, 기계 학습을 통한 이미징 기술은 많이 발전되어 자동화와 정확한 분석도구를 바탕으로 한 대규모 이미지 데이터 세트가 등장했고, 이들의 데이터 세트는 생물 의학 이미지 영역에 있어서도 상당히 활용되고 있다. On the other hand, imaging technology through machine learning has developed a lot, and large-scale image data sets based on automation and accurate analysis tools have appeared, and these data sets are being used considerably in the field of biomedical imaging.

이때, 사용되는 대부분의 알고리즘은 학습을 위한 깨끗한 레이블(Clean label) 즉, 정확한 정답 레이블을 사용하는 지도 학습에 의존하는데, 뉴런의 경우에는 좁고 얇으며 드물게 분포되어 있어 이미지의 많은 부분에 빈 배경이 포함되어 있고, 서로 얽혀 교차하는 구조 상 종래에 생물 의학 이미지 영역에 사용해왔던 딥러닝 알고리즘으로는 실질적으로 뉴런 이미지에서 픽셀 수준의 정확한 실측 레이블을 만드는 것이 어렵다.At this time, most of the algorithms used rely on supervised learning using clean labels for learning, that is, correct answer labels. It is difficult to actually create an accurate pixel-level actual label from a neuron image with the deep learning algorithm that has been used in the biomedical image area due to the structure that is included and intersects each other.

이 때문에, 최근에는 평균 절대 오차(Mean Absolute Error, MAE), 대칭 교차 엔트로피 학습(Symmetric cross entropy Learning, SL), 역 교차 엔트로피(Reverse Cross Entropy, RCE), 정규화된 교차 엔트로피(Normalized Cross Entropy, NCE), 액티브 및 패시브 손실(Active and Passive Loss, APL), 노이즈드 로버스트 다이스(Noised Robust Dice, NR-Dice) 등 오차가 있는 레이블(Noisy label)에 강한 손실함수들을 사용하였으나, 이들 모두 뉴런의 복잡한 형태를 실측에 가까운 결과로 나타내지는 못하고 있다.For this reason, recently, Mean Absolute Error (MAE), Symmetric Cross Entropy Learning (SL), Reverse Cross Entropy (RCE), Normalized Cross Entropy (NCE) ), Active and Passive Loss (APL), and Noise Robust Dice (NR-Dice), which are strong loss functions, were used for error labels (Noisy labels). It is not possible to represent a complex form as a result close to the actual measurement.

본 발명은 상기의 문제점을 해결하기 위하여 제안되는 것으로, 뇌신경망의 복잡하고 픽셀 단위로 공간이 많은 레이블에 대한 영상 처리에 있어서, 뇌신경망의 구조별로 레이블을 분류하여 각각의 레이블 별로 학습하되, 평균 제곱 오차(Mean Squared Error, MSE)와, 잘못된 레이블 학습을 방지하기 위해 공간적으로 다양한 가중치를 사용하는 적응형 손실함수인 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE)를 혼용하여 보다 실측 이미지에 가깝게 영상처리를 할 수 있도록 하며, 나아가 각 레이블간 학습 완료 후에 병합에 있어 손실을 줄이는 손실함수인 사전 구조 (Structure Prior, STPR) 손실함수를 적용하여 뇌신경망의 실측 이미지에 가깝게 영상처리 할 수 있는 시스템, 방법 및 컴퓨터-판독가능매체를 제공하는 데 목적이 있다.The present invention is proposed to solve the above problems, and in image processing for labels with a lot of space in units of pixels and complex in a neural network, the labels are classified according to the structure of the neural network and learned for each label, but the average By mixing Mean Squared Error (MSE) and Adaptive Mean Squared Error (ADMSE), an adaptive loss function that uses spatially various weights to prevent incorrect label learning, it can be applied to more ground-level images. It enables close image processing, and furthermore, it is possible to process images close to the actual image of the neural network by applying the Structure Prior (STPR) loss function, which is a loss function that reduces the loss in merging after learning between each label is completed. It is an object to provide a system, a method and a computer-readable medium.

상기 과제를 해결하기 위한 본 발명의 실시 예에 따른 뇌신경망 구조의 영상처리 시스템은, 뇌신경망 영상 촬영장치와 연동되어 뇌신경망 영상 이미지가 입력되는 입력부; 뇌신경망의 학습에 대조군으로 사용하기 위한 뇌신경망의 실측 이미지인 실측 레이블 맵이 구조별로 저장된 실측 레이블 맵 저장부 및 심층 신경망이 구비되어 상기 입력부에 입력된 뇌신경망 영상 이미지를 뇌신경망 구조별로 분할하여 예측 레이블 맵을 생성하며, 각 구조별 예측 레이블 맵을 상기 실측 레이블 맵 저장부에 기저장된 구조별 실측 레이블 맵과 편차를 줄이도록 손실함수를 적용하여 학습하면서 영상 처리하는 영상처리부를 포함하여 구성될 수 있다.An image processing system of a cranial neural network structure according to an embodiment of the present invention for solving the above problems includes: an input unit to which a cranial neural network image image is input by interworking with a cranial neural network image photographing apparatus; An actual label map storage unit and a deep neural network are provided in which an actual measurement label map, which is an actual measurement image of a neural network for use as a control for learning of a neural network, is stored for each structure. It generates a prediction label map, and includes an image processing unit that processes the image while learning by applying a loss function to reduce the deviation from the actual measurement label map for each structure stored in the actual measurement label map storage unit for each structure prediction label map. can

여기서, 상기 뇌신경망의 구조는, 상기 뇌신경망 구조 이미지의 배경, 신경세포체 몸체, 수상돌기, 축삭돌기를 포함할 수 있다.Here, the structure of the cranial neural network may include a background of the cranial neural network structure image, a neuronal cell body, dendrites, and axons.

또한, 상기 손실함수의 적용은, 상기 뇌신경망 구조 이미지 배경 및 신경세포체 몸체에 대한 예측 레이블 맵에는 평균 제곱 오차(Mean Squared Error, MSE) 손실함수를 적용하며, 상기 수상돌기 및 축삭돌기에 대한 예측 레이블 맵에는 상기 평균 제곱 오차 손실함수에 픽셀 단위로 예측 값을 판단하여 생성된 가중치가 반영된 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE) 손실함수를 적용하도록 형성될 수 있다.In addition, the application of the loss function applies a mean squared error (MSE) loss function to the prediction label map for the background of the neural network structure image and the neuronal cell body, and predicts the dendrites and axons. The label map may be formed to apply an adaptive mean squared error (ADMSE) loss function in which a weight generated by determining a prediction value in units of pixels to the mean squared error loss function is reflected.

또한, 상기 영상 처리부는, 상기 뇌신경망의 구조별로 분할된 예측 레이블 맵 간의 손실을 줄이는 사전 구조(Structure Prior, STPR) 손실함수를 더 적용하며, 상기 STPR 손실함수는, 뇌신경망 구조의 사전 정보를 기초로 뇌신경망의 구조별 예측 레이블 맵 간의 손실을 MSE 손실함수를 활용하여 줄이도록 형성될 수 있다.In addition, the image processing unit further applies a structure prior (STPR) loss function that reduces the loss between the predicted label maps divided for each structure of the neural network, and the STPR loss function includes prior information of the neural network structure. Based on this, it can be formed to reduce the loss between the predicted label maps for each structure of the neural network by using the MSE loss function.

한편, 본 발명의 실시 예에 따른 뇌신경망 구조 영상 처리 방법은, 뇌신경망 영상 이미지가 입력부에 입력되는 단계; 상기 입력된 뇌신경망 영상 이미지가 영상 처리부로 전달되는 단계; 상기 영상 처리부로 전달된 뇌신경망 영상 이미지가 심층 신경망을 통과하여 뇌신경망의 구조별로 예측 레이블 맵이 생성되는 단계 및 상기 영상 처리부에서 상기 생성된 뇌신경망 구조별 예측 레이블 맵을 실측 레이블 맵 저장부에 기저장된 뇌신경망 구조별 실측 레이블 맵과 비교하여 구조별로 각각 손실함수를 추정하고, 추정된 손실함수를 통해 학습하는 단계를 포함하여 구성될 수 있다.Meanwhile, the method for processing an image of a neural network structure according to an embodiment of the present invention includes: inputting a neural network image image to an input unit; transmitting the input neural network image image to an image processing unit; A step of generating a predicted label map for each structure of the neural network by passing the neural network image transmitted to the image processing unit through the deep neural network, and the generated prediction label map for each structure of the neural network by the image processing unit is stored in an actual measurement label map storage unit. It may be configured to include a step of estimating a loss function for each structure by comparing it with a pre-stored actual label map for each structure of the neural network, and learning through the estimated loss function.

여기서, 상기 손실함수의 적용은, 상기 뇌신경망 구조 이미지 배경 및 신경세포체 몸체에 대한 예측 레이블 맵에는 평균 제곱 오차(Mean Squared Error, MSE) 손실함수를 적용하며, 상기 수상돌기 및 축삭돌기에 대한 예측 레이블 맵에는 상기 평균 제곱 오차 손실함수에 픽셀 단위로 예측 값을 판단하여 생성된 가중치가 반영된 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE) 손실함수를 적용하도록 구성될 수 있다.Here, the application of the loss function applies a mean squared error (MSE) loss function to the prediction label map for the neural network structure image background and the neuronal cell body, and predicts the dendrites and axons. The label map may be configured to apply an adaptive mean squared error (ADMSE) loss function in which a weight generated by determining a prediction value in units of pixels to the mean squared error loss function is reflected.

또한, 상기 손실함수의 적용은, 상기 뇌신경망의 구조별로 분할된 예측 레이블 맵 간의 손실을 줄이는 사전 구조(Structure Prior, STPR) 손실함수를 더 적용하도록 구성될 수 있다.In addition, the application of the loss function may be configured to further apply a structure prior (STPR) loss function that reduces the loss between the predicted label maps divided for each structure of the neural network.

본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템, 방법 및 컴퓨터-판독가능매체는, 도 5 내지 도 7을 참조하면, 결과적으로, ADMSE 및 STPR 손실함수를 사용함으로써 다양한 세분화 품질 메트릭에서 최첨단 노이즈 로버스트 손실함수를 능가하는 것을 확인할 수 있고, 특히 ClDice 점수가 가장 우수하여 뇌신경망 분할 문제에 보다 효과적이라는 것을 확인할 수 있다.The neural network structure image processing system, method, and computer-readable medium according to an embodiment of the present invention, with reference to FIGS. 5 to 7 , as a result, state-of-the-art noise in various segmentation quality metrics by using ADMSE and STPR loss functions It can be confirmed that it outperforms the robust loss function, and in particular, the ClDice score is the best, confirming that it is more effective for the neural network segmentation problem.

도 1은 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템의 구성도이다.
도 2는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법 과정을 보여주는 개략도이다.
도 3은 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법의 흐름도이다.
도 4는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법이 진행되는 과정에서의 이미지 처리 변화를 상세히 보여주는 도면이다.
여기서 (a)는 입력 이미지, (b)는 부분적인 레이블 맵, (c)는 ADMSE 손실함수가 적용된 레이블 맵, (d)는 STPR 손실함수가 적용된 레이블 맵, (e)는 최종 결과 레이블 맵이다.
도 5a 내지 도 5b는 ADMSE 및 STPR 손실함수를 사용하는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법과 다른 손실함수를 사용한 뇌신경망 구조 영상처리 방법에 대한 훈련 이미지의 비교 결과를 나타낸 도면들이다.
여기서, (a)는 입력 이미지, (b)는 부분적인 레이블 맵, (c)는 MSE 손실함수 적용 사례, (d)는 NCE 손실함수 적용 사례, (e)는 RCE 손실함수 적용 사례, (f)는 NR-Dice 손실함수 적용 사례, (g)는 본 발명의 실시 예에 따른 ADMSE 및 STPR 손실함수 적용 사례이다
도 6a 내지 도 6b는 ADMSE 및 STPR 손실함수를 사용하는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법과 다른 손실함수를 사용한 뇌신경망 구조 영상처리 방법에 대한 테스트 이미지의 비교 결과를 나타낸 도면이다.
여기서, (a)는 입력 이미지, (b)는 전체 레이블 맵, (c)는 MSE 손실함수 적용 사례, (d)는 NCE 손실함수 적용 사례, (e)는 RCE 손실함수 적용 사례, (f)는 NR-Dice 손실함수 적용 사례, (g)는 본 발명의 실시 예에 따른 ADMSE 및 STPR 손실함수 적용 사례이다
도 7은 ADMSE 및 STPR 손실함수를 사용하는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법과 다른 손실함수를 사용한 뇌신경망 구조 영상처리 방법에 대한 IoU, 정밀도, 재현율, F1 스코어 및 ClDice 메트릭 결과 비교표이다.
1 is a block diagram of a neural network structure image processing system according to an embodiment of the present invention.
2 is a schematic diagram showing a process of a neural network structure image processing method according to an embodiment of the present invention.
3 is a flowchart of an image processing method of a neural network structure according to an embodiment of the present invention.
4 is a diagram illustrating in detail image processing changes in the course of the neural network structure image processing method according to an embodiment of the present invention.
Here, (a) is the input image, (b) is a partial label map, (c) is the label map to which the ADMSE loss function is applied, (d) is the label map to which the STPR loss function is applied, and (e) is the final result label map. .
5A to 5B are diagrams showing comparison results of training images for the neural network structure image processing method using the ADMSE and STPR loss functions and the neural network structure image processing method using other loss functions according to an embodiment of the present invention. .
Here, (a) is an input image, (b) is a partial label map, (c) is a case of applying the MSE loss function, (d) is a case of applying the NCE loss function, (e) is a case of applying the RCE loss function, (f) ) is an NR-Dice loss function application case, (g) is an ADMSE and STPR loss function application case according to an embodiment of the present invention
6A to 6B are diagrams showing comparison results of test images for the neural network structure image processing method according to an embodiment of the present invention using ADMSE and STPR loss functions and the neural network structure image processing method using other loss functions. .
Here, (a) is the input image, (b) is the full label map, (c) is the case of applying the MSE loss function, (d) is the case of applying the NCE loss function, (e) is the case of applying the RCE loss function, (f) is an NR-Dice loss function application case, (g) is an ADMSE and STPR loss function application case according to an embodiment of the present invention
7 shows the IoU, precision, recall, F1 score, and ClDice metric results for the neural network structure image processing method using a different loss function from the neural network structure image processing method according to an embodiment of the present invention using ADMSE and STPR loss functions. This is a comparison table.

이하, 도면을 참조한 본 발명의 설명은 특정한 실시 형태에 대해 한정되지 않으며, 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있다. 또한, 이하에서 설명하는 내용은 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the description of the present invention with reference to the drawings is not limited to specific embodiments, and various modifications may be made and various embodiments may be provided. In addition, it should be understood that the contents described below include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention.

이하의 설명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용되는 용어로서, 그 자체에 의미가 한정되지 아니하며, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following description, terms such as 1st, 2nd, etc. are terms used to describe various components, meanings are not limited thereto, and are used only for the purpose of distinguishing one component from other components.

본 명세서 전체에 걸쳐 사용되는 동일한 참조번호는 동일한 구성요소를 나타낸다.Like reference numbers used throughout this specification refer to like elements.

본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 이하에서 기재되는 "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로 해석되어야 하며, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As used herein, the singular expression includes the plural expression unless the context clearly dictates otherwise. In addition, terms such as "comprises", "comprises" or "have" described below are intended to designate the existence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. It should be construed as not precluding the possibility of addition or existence of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템, 방법 및 컴퓨터-판독가능매체를 상세히 설명하기로 한다.Hereinafter, a neural network structure image processing system, a method, and a computer-readable medium according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템의 구성도이다.1 is a block diagram of a neural network structure image processing system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템은, 입력부(1), 실측 레이블 맵 저장부(2) 및 영상 처리부(3)를 포함하여 구성될 수 있다.Referring to FIG. 1 , a neural network structure image processing system according to an embodiment of the present invention may include an input unit 1 , a measurement label map storage unit 2 , and an image processing unit 3 .

구체적으로, 입력부(1)는 뇌신경망 영상 이미지가 입력되는 곳으로, 뇌신경망 영상 촬영장치(5)와 연동될 수 있다. 여기서, 뇌신경망 영상 촬영장치(5)는 어느 특정한 형태에 한정되지 않고, CT나 MRI 등 뇌신경망을 촬영할 수 있는 다양한 촬영장치는 모두 구성될 수 있다. Specifically, the input unit 1 is a place where a neural network image is input, and may be linked with the neural network image photographing apparatus 5 . Here, the neural network imaging apparatus 5 is not limited to any specific form, and various imaging apparatuses capable of imaging a neural network, such as CT or MRI, may be configured.

실측 레이블 맵 저장부(2)는 후술하는 영상 처리부(3)에서 학습에 사용할 실측 레이블 맵이 저장될 수 있다. 여기서, 실측 레이블 맵은 뇌신경망의 실측 이미지로서 영상 처리부(3)에서 구조별로 예측 레이블 맵을 생성함에 따라 각 예측 레이블 맵과 대응되도록 뇌신경망의 구조별로 저장될 수 있다. 이렇게 뇌신경망의 구조별로 저장되는 실측 레이블 맵은 예측 레이블 맵의 학습을 위한 대조군으로 사용된다.The actual measurement label map storage unit 2 may store the measurement label map to be used for learning in the image processing unit 3 to be described later. Here, the actual measurement label map is an actual measurement image of the neural network, and as the image processing unit 3 generates the predicted label map for each structure, it may be stored for each structure of the neural network so as to correspond to each predicted label map. The actual label map stored for each structure of the neural network in this way is used as a control for learning the predicted label map.

영상 처리부(3)는 입력부(1)에 입력된 뇌신경망 영상 이미지를 뇌신경망의 구조별로 분할하고 예측 레이블 맵을 생성하는 것으로, 이를 위해 영상 처리부(3)는 심층 신경망(20)을 포함하여 구성될 수 있다.The image processing unit 3 divides the neural network image input into the input unit 1 according to the structure of the neural network and generates a predicted label map. For this purpose, the image processing unit 3 includes a deep neural network 20 can be

보다 구체적으로, 입력부(1)에 입력된 뇌신경망 영상 이미지는, 영상 처리부(3)에 마련된 심층 신경망(20)으로 전달되어 딥러닝이 수행될 수 있고, 심층 신경망(20)에서는 딥러닝을 통해 뇌신경망을 구조별로 분할하여 각 구조별로 예측 레이블 맵을 생성할 수 있는 것이다.More specifically, the neural network image image input to the input unit 1 may be transmitted to the deep neural network 20 provided in the image processing unit 3 to perform deep learning, and in the deep neural network 20 through deep learning By dividing the neural network into structures, it is possible to generate a predictive label map for each structure.

이때, 뇌신경망의 구조는, 뇌신경망의 구조 이미지의 배경, 신경세포체 몸체, 수상돌기, 축삭돌기를 포함하는 구조로서, 뇌신경망 구조는 상술한 네 부분의 구조별로 분할되어 각각 예측 레이블 맵을 생성할 수 있다.At this time, the structure of the cranial neural network is a structure including the background of the structural image of the cranial neural network, the neuronal cell body, dendrites, and axons. can do.

다시 말해, 뇌신경망 구조 이미지 배경에 대한 예측 레이블 맵, 신경세포체 몸체에 대한 예측 레이블 맵, 수상돌기에 대한 예측 레이블 맵, 축삭돌기에 대한 예측 레이블 맵을 각각 생성할 수 있는 것이다.In other words, the predicted label map for the neural network structure image background, the predicted label map for the neuron body, the predicted label map for the dendrites, and the predicted label map for the axon can be generated, respectively.

그러나, 이에 반드시 한정되는 것은 아니며, 뇌신경망 구조는 상기 네 부분 외에도 다른 구조로 나뉠 수도 있으며, 상기 구조보다 더 간소화되거나 더 세분화된 구조로 나뉠 수도 있다.However, the present invention is not necessarily limited thereto, and the neural network structure may be divided into other structures in addition to the above four parts, and may be divided into a more simplified or more subdivided structure than the above structure.

또한, 영상 처리부(3)는 뇌신경망 구조별로 생성된 예측 레이블 맵을 실측 레이블 맵 저장부(2)에 기저장된 구조별 실측 레이블 맵과 편차를 줄이도록 손실함수를 적용하여 학습하면서 영상 처리하도록 구성될 수 있다.In addition, the image processing unit 3 applies a loss function to reduce the deviation from the actual measurement label map stored in the actual measurement label map storage unit 2 in the predicted label map generated for each structure of the neural network, so as to process the image while learning. can be

보다 구체적으로, 영상 처리부(3)는 먼저 예측 레이블 맵을 뇌신경망 구조별로 생성하게 되면, 이를 실측 레이블 맵 저장부(2)에 저장된 실측 레이블 맵과 비교하게 되는데, 이 과정을 통해 손실함수를 추정할 수 있다. 이때, 손실함수가 추정되면 이 손실함수를 역전파하여 적용함으로써, 다시 생성되는 예측 레이블 맵은 보다 실측 레이블 맵에 가까워지게 되는 것이다.More specifically, when the image processing unit 3 first generates the predicted label map for each neural network structure, it compares it with the actual measurement label map stored in the actual measurement label map storage unit 2, and through this process, the loss function is estimated can do. At this time, when the loss function is estimated, the predicted label map generated again becomes closer to the actual measurement label map by applying the loss function by backpropagating it.

상기와 같은 과정을 반복하면, 영상 처리부(3)에서 생성되는 예측 레이블 맵은 얻고자 하는 실측 레이블 맵에 최대한 가깝게 생성이 되는 것이고, 이러한 학습을 통해 보다 강인한 뇌신경망 구분이 이루어질 수 있는 것이다.If the above process is repeated, the predicted label map generated by the image processing unit 3 is generated as close as possible to the actual measurement label map to be obtained, and through this learning, stronger neural network classification can be made.

여기서, 사용되는 손실함수는 평균 제곱 오차(Mean Squared Error, MSE) 손실함수와, 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE) 손실함수가 혼용될 수 있으며, 이들은 뇌신경망 구조에 따라 달리 사용될 수 있다.Here, the loss function used may include a mean squared error (MSE) loss function and an adaptive mean squared error (ADMSE) loss function, which may be used differently depending on the structure of the neural network. can

구체적으로 설명하면, MSE 손실함수는 비교적 명확히 구분되고 구조 사이에 틈이 거의 없는 뇌신경망 구조 이미지의 배경과 신경세포체 몸체에 대한 예측 레이블 맵에 적용될 수 있다. Specifically, the MSE loss function can be applied to the prediction label map for the background and neuronal body of the neural network structure image with relatively clear distinction and few gaps between the structures.

또한, ADMSE 손실함수는 MSE 손실함수에 픽셀 단위로 예측 값을 판단하여 생성된 가중치가 반영된 손실함수로서, 비교적 명확히 구분되지 않고 복잡하게 얽힌 수상돌기 및 축삭돌기에 대한 예측 레이블 맵에 적용될 수 있다.In addition, the ADMSE loss function is a loss function in which the weight generated by determining the prediction value in pixel units is reflected in the MSE loss function, and can be applied to the prediction label map for the dendrites and axons that are not clearly distinguished and are entangled relatively.

이러한, ADMSE 손실함수는 수상돌기 또는 축삭돌기에 대한 예측 레이블 맵의 레이블이 없는 픽셀에서, 예측 값이 더 높게 나타나는 경우 레이블이 있는 것으로 간주하여 가중치를 적용하며, 해당 픽셀에서의 학습을 억제하도록 형성될 수 있다.This, ADMSE loss function is formed to suppress learning in the pixel by considering it as labeled when the predicted value appears higher in unlabeled pixels of the prediction label map for dendrites or axons. can be

여기서 적용되는 가중치는

Figure pat00001
일 수 있으며, ADMSE 손실함수에 대한 설명은 후술하는 뇌신경망 구조 영상처리 방법에서 보다 구체적으로 설명하기로 한다.The weight applied here is
Figure pat00001
, and the description of the ADMSE loss function will be described in more detail in the neural network structure image processing method to be described later.

여기서,

Figure pat00002
Figure pat00003
번째 클래스의 예측 레이블 맵인
Figure pat00004
Figure pat00005
번째 픽셀 값을 의미하며,
Figure pat00006
는 손실함수에 적용되는 가중치의 정도를 제어하는 사용자 정의 매개 변수이고,
Figure pat00007
Figure pat00008
를 수정하기 위한 수렴 전의 학습 초기 단계에서 안정적인 수렴을 보장하기 위한 손실 함수에 추가된 상수 값이다.here,
Figure pat00002
Is
Figure pat00003
The predicted label map of the th class
Figure pat00004
of
Figure pat00005
means the second pixel value,
Figure pat00006
is a user-defined parameter that controls the degree of weight applied to the loss function,
Figure pat00007
Is
Figure pat00008
It is a constant value added to the loss function to ensure stable convergence at the initial stage of learning before convergence to correct for .

한편, 영상 처리부(3)는 상술한 MSE 손실함수 및 ADMSE 손실함수 외에도 STPR 손실함수를 혼용할 수도 있다.Meanwhile, the image processing unit 3 may use the STPR loss function in addition to the MSE loss function and the ADMSE loss function described above.

STPR 손실함수는 본 발명의 뇌신경망 구조 영상 시스템이 뇌신경망 구조별로 예측 레이블 맵을 생성함에 따라 발생되는 예측 레이블 맵 간의 손실을 줄이기 위해 사용되는 손실함수이다.The STPR loss function is a loss function used to reduce the loss between predicted label maps generated when the neural network structure imaging system of the present invention generates a predicted label map for each neural network structure.

여기서, STPR 손실함수는 뇌신경망 구조의 사전 정보를 기초로 구조별 예측 레이블 맵 간의 손실을 MSE 손실함수로 줄이도록 형성될 수 있으며, 이를 통해 차후 통합된 뇌신경망 구조를 표현할 때 뇌신경망 구조 간의 중첩을 피하여 보다 정확한 뇌신경망 구조를 나타내도록 할 수 있다.Here, the STPR loss function can be formed to reduce the loss between the predicted label maps for each structure to the MSE loss function based on the prior information of the neural network structure. can be avoided to represent a more accurate cranial neural network structure.

이러한, STPR 손실함수에 대한 설명도 후술하는 뇌신경망 구조 영상처리 방법에서 보다 구체적으로 설명하기로 한다.Such a description of the STPR loss function will also be described in more detail in the neural network structure image processing method to be described later.

상술한 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템은, 뇌신경망 구조별로 분할하여 예측을 수행하고 학습하면서 MSE 손실함수, ADMSE 손실함수 및 STPR 손실함수를 적용하여 뇌신경망 구조별로 생성되는 각 예측 레이블 맵이 실측 레이블과 편차를 줄이도록 학습하고, 한편으론 분할된 뇌신경망 구조별 예측 레이블 맵 간의 손실을 줄임으로서, 다른 손실함수를 적용하는 뇌신경망 구조 영상처리 시스템 대비, 정확한 영상처리가 가능할 수 있다.The neural network structure image processing system according to the embodiment of the present invention described above applies the MSE loss function, the ADMSE loss function, and the STPR loss function while performing prediction and learning by dividing by the neural network structure, each generated by the neural network structure. By learning the predicted label map to reduce the deviation from the actual label, on the other hand, by reducing the loss between the predicted label maps for each segmented neural network structure, accurate image processing is possible compared to the neural network structure image processing system that applies other loss functions. can

도 2는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법 과정을 보여주는 개략도이며, 도 3은 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법의 흐름도이고, 도 4는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법이 진행되는 과정에서의 이미지 처리 변화를 상세히 보여주는 도면이다. 여기서 (a)는 입력 이미지, (b)는 부분적인 레이블 맵, (c)는 ADMSE 손실함수가 적용된 레이블 맵, (d)는 STPR 손실함수가 적용된 레이블 맵, (e)는 최종 결과 레이블 맵이다.2 is a schematic diagram showing a process of a neural network structure image processing method according to an embodiment of the present invention, FIG. 3 is a flowchart of a neural network structure image processing method according to an embodiment of the present invention, and FIG. 4 is an embodiment of the present invention It is a diagram showing in detail the image processing change in the process of the image processing method of the neural network structure according to FIG. Here, (a) is the input image, (b) is a partial label map, (c) is a label map to which the ADMSE loss function is applied, (d) is a label map to which the STPR loss function is applied, and (e) is the final result label map. .

도 2 내지 도 4를 참조하면, 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법 딥러닝을 활용한 영상처리 방법으로서, 분포

Figure pat00009
로부터 쌍을 이루는 랜덤 변수 (X, Y)를 사용하여
Figure pat00010
로 매개 변수화된 심층 신경망
Figure pat00011
에, 샘플 이미지 X ~
Figure pat00012
(여기서,
Figure pat00013
는 관찰된 이미지의 분포)를 입력하여 뇌신경망 구조를 나타내는 모든 클래스에 대한 응답 맵 Y ~
Figure pat00014
(여기서,
Figure pat00015
는 뇌신경망 구조 레이블의 분포)를 예측하도록 영상처리 하는 방법에 관한 것이다. 2 to 4 , as an image processing method using deep learning, a neural network structure image processing method according to an embodiment of the present invention, distribution
Figure pat00009
Using paired random variables (X, Y) from
Figure pat00010
A deep neural network parameterized by
Figure pat00011
In, sample image X~
Figure pat00012
(here,
Figure pat00013
is the response map Y for all classes representing the neural network structure by inputting the distribution of the observed images.
Figure pat00014
(here,
Figure pat00015
relates to an image processing method to predict the distribution of the neural network structure label).

이 과정에서 본 발명은 평균 제곱 오차(Mean Squared Error, MSE) 손실함수와, 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE) 손실함수를 사용하여 학습하면서 상기 응답 맵이 실측 이미지에 가장 가깝게 예측하도록 영상처리를 수행할 수 있다.In this process, the present invention predicts the response map closest to the actual image while learning using a mean squared error (MSE) loss function and an adaptive mean squared error (ADMSE) loss function. image processing can be performed to

여기서, 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE) 손실함수는 평균 제곱 오차(MSE) 손실함수에 픽셀 단위로 예측 값을 판단하여 생성한 가중치를 적용한 손실함수로서, 보다 상세한 설명은 후술하기로 한다.Here, the adaptive mean squared error (ADMSE) loss function is a loss function obtained by applying a weight generated by determining the predicted value in units of pixels to the mean squared error (MSE) loss function. A more detailed description will be given later. do it with

보다 본 발명에 대해 구체적으로 살펴보면, 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법은, 뇌신경망 영상 이미지가 입력부(1)에 입력되는 단계(S10), 상기 입력된 뇌신경망 영상 이미지가 영상 처리부(3)로 전달되는 단계(S20), 상기 영상 처리부(3)로 전달된 뇌신경망 영상 이미지가 심층 신경망(20)을 통과하여 뇌신경망의 구조별로 예측 레이블 맵이 생성되는 단계(S30) 및 상기 영상 처리부(3)에서 상기 생성된 뇌신경망 구조별 예측 레이블 맵을 실측 레이블 맵 저장부(2)에 기저장된 뇌신경망 구조별 실측 레이블 맵과 비교하여 구조별로 각각 손실함수를 추정하고, 추정된 손실함수를 통해 학습하는 단계(S40)를 포함하여 구성될 수 있다.Looking more specifically at the present invention, in the method for processing an image of a neural network structure according to an embodiment of the present invention, a step (S10) of inputting a neural network image to the input unit 1, the inputted image of a neural network image is an image A step of transmitting to the processing unit 3 (S20), a step of generating a predicted label map for each structure of the cranial neural network by passing the cranial neural network image image transmitted to the image processing unit 3 through the deep neural network 20 (S30) and The loss function is estimated for each structure by comparing the predicted label map for each neural network structure generated in the image processing unit 3 with the actually measured label map for each neural network structure stored in advance in the measured label map storage unit 2, and the estimated It may be configured to include a step (S40) of learning through the loss function.

즉, 본 발명은 딥러닝을 통한 영상처리 과정에서 심층 신경망으로 입력되는 뇌신경망 영상 이미지를 뇌신경망의 구조별로 예측 레이블 맵을 생성하도록 구성될 수 있다. That is, the present invention may be configured to generate a prediction label map for each structure of the neural network based on the neural network image input to the deep neural network in the image processing process through deep learning.

여기서, 뇌신경망의 구조는 뇌신경망 구조 이미지의 배경(Background), 신경세포체 몸체(Cell body), 수상돌기(Dendrite), 축삭돌기(Axon)을 포함하여 이루어지므로, 상기 4개의 구조 각각에 대해 예측 레이블 맵을 생성할 수 있도록 구성되는 것이다.Here, since the structure of the cranial neural network includes the background, the cell body, the dendrite, and the axon of the image of the cranial neural network, prediction for each of the four structures It is configured to be able to create a label map.

이때, 각 예측 레이블 맵에 대해 각각 MSE 손실함수 또는 ADMSE 손실함수를 적용할 수 있다.In this case, an MSE loss function or an ADMSE loss function may be applied to each prediction label map, respectively.

구체적으로, MSE 손실함수는 비교적 구조가 뚜렷이 들어나는 뇌신경망 구조 이미지의 배경과 신경세포체 몸체에 대한 예측 레이블 맵에 사용되고, ADMSE 손실함수는 비교적 구조가 명확하지 않고 복잡하게 얽힌 수상돌기 및 축삭돌기에 대한 예측 레이블 맵에 사용될 수가 있다. Specifically, the MSE loss function is used for the prediction label map of the neural cell body and the background of the neural network structure image, where the structure is relatively clear. It can be used for the prediction label map for

즉, 각 예측 레이블 맵을 순차적으로 0, 1, 2, 3으로 표시하고,

Figure pat00016
를 레이블 인덱스 세트로 정의하면
Figure pat00017
으로 정의되고, 비교적 구조가 명확한 뇌신경망 구조 이미지의 배경과 신경세포체 몸체에 대한 예측 레이블 맵 세트는
Figure pat00018
, 구조가 명확하지 않은 수상돌기 및 축삭돌기에 대한 예측 레이블 맵 세트는
Figure pat00019
,
Figure pat00020
Figure pat00021
로 정의될 수 있는 것이다.That is, mark each prediction label map sequentially as 0, 1, 2, 3,
Figure pat00016
If we define as a set of label indices,
Figure pat00017
The set of predicted label maps for the background and neuronal cell body of the neural network structure image, which is defined as
Figure pat00018
, a set of predictive label maps for dendrites and axons with unclear structures
Figure pat00019
,
Figure pat00020
Figure pat00021
can be defined as

그러나, 이는 바람직한 예시에 불과한 것으로 반드시 한정되는 사항은 아니며, 예측 레이블 맵에 대한 세트의 정의는 설정되는 기준에 따라 달라질 수 있다. 예컨대, 신경세포체 몸체가 수상돌기 또는 축삭돌기와 조합을 이룰 수도 있는 것이고, 뇌신경망 구조 이미지의 배경과 수상돌기 또는 축삭돌기가 서로 조합을 이룰 수도 있는 것이다. However, this is only a preferred example and is not necessarily limited, and the definition of a set for the prediction label map may vary according to a set criterion. For example, the nerve cell body may be combined with dendrites or axons, and the background of the neural network structure image and dendrites or axons may be combined with each other.

한편, 상기와 같이 뇌신경망 구조별 즉, 부분적으로 예측 레이블 맵이 주어지면 레이블이 지정되지 않은 모든 픽셀을 배경(Background) 이미지로 취급할 수는 없다. 이 때문에 배경 이미지는 입력된 이미지에 강도 기반 임계 값(Intensity-based thresholding)을 적용하여 배경 이미지에 대한 레이블

Figure pat00022
를 생성할 수 있다.On the other hand, as described above, when a prediction label map is given for each neural network structure, that is, a partial prediction label map cannot be treated as a background image for all unlabeled pixels. Because of this, the background image is a label for the background image by applying intensity-based thresholding to the input image.
Figure pat00022
can create

복잡한 수상돌기 또는 축삭돌기와 같은 예측 레이블 맵에 적용되는 손실함수인 ADMSE 손실함수는 아래에서 살펴보기로 한다.The ADMSE loss function, which is a loss function applied to predictive label maps such as complex dendrites or axons, will be discussed below.

먼저, ADMSE 손실함수의 바탕이 되는 MSE 손실함수(또는 평균 제곱 오차)는 예측 레이블 맵과 실측 레이블 맵 사이의 거리를 최소화하는 데 널리 사용되는 것으로, 공식은 하기 [수학식 1]과 같다. First, the MSE loss function (or mean square error), which is the basis of the ADMSE loss function, is widely used to minimize the distance between the predicted label map and the measured label map, and the formula is as follows [Equation 1].

[수학식 1][Equation 1]

Figure pat00023
Figure pat00023

여기서,

Figure pat00024
Figure pat00025
로 매개 변수화된 심층 신경망이며, X는 입력되는 이미지이고, Y는 실측 레이블 맵이다.here,
Figure pat00024
Is
Figure pat00025
It is a deep neural network parameterized by , where X is the input image, and Y is the ground truth label map.

상기와 같은 MSE 손실은

Figure pat00026
의 의미에서 큰 오류에 효과적으로 패널티를 주지만 본 발명이 해결하려는 문제에서와 같이 훈련 데이터의 복잡성을 이루는 노이즈(noise)에 대해서는 탄력적이지 않다. The MSE loss as above is
Figure pat00026
Although it effectively penalizes a large error in the sense of , it is not resilient to noise constituting the complexity of the training data as in the problem to be solved by the present invention.

이 때문에, 본 발명에서는 MSE 손실함수에 픽셀 수준의 역전파를 제어하기 위한 적응형 가중치가 적용되는 ADMSE 손실함수를 사용하여 구조적으로 복잡한 수상돌기 및 축삭돌기에 대한 예측 레이블 맵의 학습을 진행할 수 있다.For this reason, in the present invention, using the ADMSE loss function to which an adaptive weight for controlling pixel-level backpropagation is applied to the MSE loss function, the learning of the prediction label map for structurally complex dendrites and axons can be proceeded. .

구체적으로,

Figure pat00027
Figure pat00028
번째 클래스의 레이블 맵이고,
Figure pat00029
Figure pat00030
Figure pat00031
번째 픽셀 값이라 하면, 픽셀별 적응 가중치 함수
Figure pat00032
(·,·)를 사용하는
Figure pat00033
는 하기 [수학식 2]와 같이 정의될 수 있다.Specifically,
Figure pat00027
cast
Figure pat00028
is the label map of the th class,
Figure pat00029
cast
Figure pat00030
of
Figure pat00031
If the th pixel value is the pixel-specific adaptive weight function
Figure pat00032
using (·,·)
Figure pat00033
may be defined as in [Equation 2] below.

[수학식 2][Equation 2]

Figure pat00034
Figure pat00034

이때, ADMSE 손실함수는 하기 [수학식 3]과 같이 구조적으로 복잡한 수상돌기 및 축삭돌기에 대한 예측 레이블 맵의 레이블이 없는 픽셀에서, 예측 값이 높게 나타나는 경우에는 레이블이 없는 픽셀이기 때문에 역전파 중에 가중치를 할당함으로써, 해당 픽셀에서의 학습을 억제하도록 할 수 있다.At this time, the ADMSE loss function is an unlabeled pixel in the prediction label map for structurally complex dendrites and axons as shown in Equation 3 below, and when the predicted value is high, since it is a non-labeled pixel, during back propagation By assigning a weight, learning in the corresponding pixel can be suppressed.

[수학식 3][Equation 3]

Figure pat00035
Figure pat00035

여기서

Figure pat00036
는 손실함수에 적용되는 가중치의 정도를 제어하는 사용자 정의 매개 변수이고,
Figure pat00037
Figure pat00038
를 수정하기 위한 수렴 전의 학습 초기 단계에서 안정적인 수렴을 보장하기 위한 손실 함수에 추가된 상수 값이다.here
Figure pat00036
is a user-defined parameter that controls the degree of weight applied to the loss function,
Figure pat00037
Is
Figure pat00038
It is a constant value added to the loss function to ensure stable convergence at the initial stage of learning before convergence to correct for .

즉, 상기와 같이 픽셀에서 레이블이 없다면 예측 값에 따른 낮은 가중치를 적용한 ADMSE 손실함수를 사용하여 학습하고, 레이블이 있다면 MSE 손실함수로 학습시켜 복잡하게 구성된 레이블에서도 정확하게 영상을 처리할 수 있다.That is, if there is no label in the pixel as described above, it is learned using the ADMSE loss function to which a low weight is applied according to the prediction value, and if there is a label, it is learned using the MSE loss function, so that an image can be processed accurately even with a complex label.

한편, 본 발명은 뇌신경망 영상 이미지가 구조별 예측 레이블 맵으로 생성된 후에 각각의 예측 레이블 맵 간의 손실을 줄이는 사전구조(Structure Prior, STPR) 손실함수를 적용하는 단계(S45)를 더 포함하여 구성될 수 있다.On the other hand, the present invention further comprises the step (S45) of applying a structure prior (STPR) loss function that reduces the loss between each prediction label map after the neural network image image is generated as a prediction label map for each structure. can be

여기서, 사전구조 손실함수를 적용하는 단계(S45)는 바람직하게는 S40 단계와 동시에 진행될 수 있으나, S40 단계 이전이나 S40 단계 이후에 적용되는 것도 가능할 수 있다.Here, the step (S45) of applying the pre-structural loss function may preferably proceed simultaneously with the step S40, but may be applied before the step S40 or after the step S40.

즉, 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법은, 예측 레이블 맵과 실측 레이블 맵 간의 손실을 줄이는 ADMSE 손실함수 외에도 구조별로 예측 레이블 맵 간의 손실을 줄이는 사전구조(Structure Prior, STPR) 손실함수를 활용하여 보다 정확하게 뇌신경망 구조를 영상처리 할 수도 있다.That is, in the neural network structure image processing method according to an embodiment of the present invention, in addition to the ADMSE loss function that reduces the loss between the predicted label map and the actual label map, the structure prior (STPR) loss that reduces the loss between the predicted label maps for each structure Functions can be used to more accurately image the neural network structure.

이를 위해, 본 발명은 먼저 신경 구조의 사전 정보가 저장될 수 있으며, 뇌신경망의 구조별 예측 레이블 맵을, 뇌신경망 구조의 바탕이 되는 첫번째 클래스 예측 레이블 맵 즉, 뇌신경망 구조 이미지의 배경(Background)에 대한 예측 레이블 맵에서 예측하여 추출할 수 있다.To this end, in the present invention, the prior information of the neural structure can be stored first, and the prediction label map for each structure of the neural network is set as the first class prediction label map that is the basis of the neural network structure, that is, the background of the image of the neural network structure. ) can be predicted and extracted from the prediction label map for

즉, 첫번째 클래스 예측 레이블 맵(

Figure pat00039
)으로부터, 두번째(
Figure pat00040
)와, 세번째 또는 네번째(
Figure pat00041
)를 예측하여 추출하는 것이다.That is, the first class prediction label map (
Figure pat00039
) from the second (
Figure pat00040
) and the third or fourth (
Figure pat00041
) to predict and extract.

이때, 도면에 도시된 바와 같이 예측된 레이블 맵 간에 MSE 손실함수를 활용하여 손실을 줄이는 STPR 손실함수를 통해 맵 간의 손실을 줄일 수 있는데, 이는 기저장된 신경 구조의 사전 정보를 기초로 하여 맵 간의 손실을 줄일 수 있다.At this time, as shown in the figure, the loss between maps can be reduced through the STPR loss function, which reduces the loss by using the MSE loss function between the predicted label maps, which is based on the pre-stored neural structure information. can reduce

이는, 주어진 픽셀 위치에 대해 올바른 클래스가 하나만 할당되어야 한다는 조건, 예를 들어 픽셀은 축삭돌기와 수상돌기가 동시에 속할 수 없기 때문에 적용되는 것으로, STPR 손실함수를 통해 뇌신경망의 구조별로 정확히 분류가 이루어질 수 있다.This applies to the condition that only one correct class should be assigned for a given pixel location, for example, since an axon and a dendrite cannot belong to a pixel at the same time. have.

다시 말해, STPR 손실함수는 픽셀이 배경 또는 수상돌기일 확률이 높게 예측되는 경우, 픽셀이 신경세포체 몸체 또는 축삭돌기로 분류되지 않도록 제약할 수 있으며, 이와 같은 과정을 통해 부분적 레이블로부터 뇌신경망 구조에 대한 전체 레이블을 만들어 내면서 서로간 겹치지 않도록 예측 값 간의 정규화를 학습할 수 있다.In other words, the STPR loss function can be constrained so that the pixel is not classified as a neuronal body or an axon when the probability that the pixel is a background or dendrite is predicted to be high. We can learn to normalize between predicted values so that they do not overlap each other while generating full labels for each.

이러한, STPR 손실함수는, 하기 수학식 4에 의해 정의될 수 있으며, 본 발명은 상술한 ADMSE 손실함수와 STPR 손실함수를 활용하며 정확도 높은 예측을 수행하여 실측 이미지에 최대한 가깝게 영상처리를 수행할 수 있다.Such an STPR loss function can be defined by Equation 4 below, and the present invention utilizes the above-described ADMSE loss function and STPR loss function and performs high-accuracy prediction to perform image processing as close to the actual image as possible. have.

[수학식 4][Equation 4]

Figure pat00042
Figure pat00042

여기서,

Figure pat00043
는 샘플이미지 이고,
Figure pat00044
이다.here,
Figure pat00043
is the sample image,
Figure pat00044
to be.

상기 수학식 4는 한 픽셀이 동시에 수상 돌기와 축삭 돌기가 될 수 없기에

Figure pat00045
Figure pat00046
중 하나만 가질 수 있도록 정의되어, 각 픽셀은 정확히 하나의 레이블만을 가질 수 있음을 의미한다.In Equation 4, one pixel cannot be a dendrite and an axon at the same time.
Figure pat00045
Figure pat00046
It is defined to have only one of these, meaning that each pixel can have exactly one label.

아울러, 본 발명은 컴퓨터 판독가능 저장매체에 컴퓨터가 판독 가능한 코드를 저장하여 구현하는 것이 가능하다. 상기 컴퓨터 판독가능 저장매체는 컴퓨터 시스템에 의하여 판독될 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다.In addition, the present invention can be implemented by storing computer-readable codes in a computer-readable storage medium. The computer-readable storage medium includes any type of storage device in which data readable by a computer system is stored.

상기 컴퓨터가 판독 가능한 코드는, 상기 컴퓨터 판독가능 저장매체로부터 입력부(1)로부터 영상 처리부(3)에 의하여 영상 처리될 때, 본 발명에 따른 뇌신경망 구조 영상처리 방법을 구현하는 단계들을 수행하도록 구성된다. 상기 컴퓨터가 판독 가능한 코드는 다양한 프로그래밍 언어들로 구현될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 통상의 기술자들에 의하여 용이하게 프로그래밍될 수 있다.The computer-readable code is configured to perform the steps of implementing the image processing method according to the present invention when the image is processed by the image processing unit 3 from the input unit 1 from the computer-readable storage medium. do. The computer readable code may be implemented in various programming languages. And functional programs, codes, and code segments for implementing the present invention can be easily programmed by those skilled in the art to which the present invention pertains.

컴퓨터 판독 가능 저장 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 반송파(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터 판독가능 저장매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다.Examples of the computer-readable storage medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and includes implementation in the form of a carrier wave (eg, transmission over the Internet). In addition, the computer readable storage medium may be distributed in networked computer systems, so that the computer readable code may be stored and executed in a distributed manner.

이하, 본 발명의 뇌신경망 구조 영상처리 시스템 및 방법에 대해 보다 구체적으로 설명하는 하기 실험예를 제시하나, 하기 실험예는 본 발명의 이해를 돕기 위해 예시하는 것일 뿐, 본 발명이 하기 실험예에 대한 내용에 한정되는 것은 아니다.Hereinafter, the following experimental examples are presented to explain in more detail the brain neural network structure image processing system and method of the present invention, but the following experimental examples are only illustrative to help the understanding of the present invention, It is not limited to the content.

[실험 예][Experimental example]

[실험 조건][Experimental conditions]

본 실험에 사용된 뉴런 이미지 데이터는 총 23개의 단일 세포와 전체 레이블이 있는 3개의 테스트 세트의 합으로부터 부분 주석이 포함되어 쌍을 이루는 학습 데이터로 구성된다. 또한, 각 뉴런 이미지는 128 X 128 크기의 작은 부분들로 나뉘는 1024 X 1024 사이즈를 가지며, 완전히 비어있는 배경(Background) 부분은 버리고 로테이션(rotation) 및 플리핑(flipping)을 사용하여 데이터 증가를 적용했다.The neuron image data used in this experiment consisted of paired training data with partial annotations from a total of 23 single cells and the sum of three fully labeled test sets. In addition, each neuron image has a size of 1024 X 1024 which is divided into small portions of 128 X 128 size, and the completely empty background portion is discarded and data augmentation is applied using rotation and flipping. did.

여기서, 수상돌기의 픽셀 레이블 수가 축삭돌기의 픽셀 레이블 수보다 약 5배가 많았기 때문에 클래스 불균형 문제를 방지하기 위해 축삭돌기의 레이블에 오버 샘플링을 적용했다.Here, since the number of pixel labels in dendrites was about five times greater than the number of pixel labels in axons, oversampling was applied to the labels of axons to prevent class imbalance problems.

본 실험에서 제안된 네트워크는 ResNet-34 백본 인코더를 사용하는 기존 U-Net을 기반으로 하며, 초기 학습률이 3e-3이고 랜덤 배치 크기가 300인 Adam Optimizer를 사용하여 모델을 훈련하며, 코사인 어닐링(cosine annealing) 방법을 사용하여 3e-4의 학습률로 점진적으로 줄였다.The network proposed in this experiment is based on a conventional U-Net using a ResNet-34 backbone encoder, and the model is trained using an Adam Optimizer with an initial learning rate of 3e-3 and a random batch size of 300, followed by cosine annealing ( using the cosine annealing method, which was gradually reduced to a learning rate of 3e-4.

또한, 입력 이미지에 대해서는 임계 값을 0.3으로 설정하여 배경 이미지

Figure pat00047
를 생성하였으며, 손실함수에 적용되는 가중치의 정도를 제어하는 사용자 정의 매개 변수인
Figure pat00048
는 0.01을 구조적으로 복잡한 레이블에 적용하고,
Figure pat00049
를 수정하기 위한 수렴 전의 학습 초기 단계에서 안정적인 수렴을 보장하기 위한 손실 함수에 추가된 상수 값인
Figure pat00050
는 0.03을 적용하여, 초기 학습에서 수렴시켰으며, 10 겹의 교차 검증을 통해 실험을 수행하였다.Also, for the input image, we set the threshold value to 0.3 so that the background image
Figure pat00047
is a user-defined parameter that controls the degree of weight applied to the loss function.
Figure pat00048
applies 0.01 to structurally complex labels,
Figure pat00049
A constant value added to the loss function to ensure stable convergence at the initial stage of learning before convergence to correct
Figure pat00050
was converged in the initial learning by applying 0.03, and the experiment was performed through 10-fold cross-validation.

[실험 평가][Experimental evaluation]

부분 레이블에 대한 효능을 입증하기 위해 뇌신경망 구조를 MSE 손실함수, NCE 손실함수, APL 손실함수, RCE 손실함수, NR-Dice 손실함수로 각각 영상처리 방법을 대조군으로 설정하여 비교하였다.To prove the efficacy of partial labels, the neural network structure was compared with the MSE loss function, NCE loss function, APL loss function, RCE loss function, and NR-Dice loss function by setting the image processing method as a control group, respectively.

각 방법들에 대한 성능을 정량적으로 평가하기 위해 IoU (Intersection over Union), F1 스코어, ClDice와 같은 이미지 세분화에 일반적으로 사용되는 세가지 오류 메트릭을 사용했다.To quantitatively evaluate the performance of each method, we used three error metrics commonly used in image segmentation: IoU (Intersection over Union), F1 score, and ClDice.

[결과 및 고찰][Results and Discussion]

다양한 손실함수 적용에 따른 뇌신경망 구조의 영상처리 방법에 대한 비교 결과는 도 5 및 도 6에 도시되었다. 도 5는 훈련 이미지의 결과를 나타낸 것이고, 도 6은 테스트 이미지의 결과를 나타낸 것이다.The comparison results for the image processing method of the neural network structure according to the application of various loss functions are shown in FIGS. 5 and 6 . Figure 5 shows the results of the training image, Figure 6 shows the results of the test image.

도 5 및 도 6에서 볼 수 있듯이 MSE 손실함수는 불완전한 결과를 생성했고, 다른 손실함수는 MSE 손실함수에 비해 약간의 개선을 보였지만 본 발명의 영상처리 방법에서와 같이 정확한 결과를 생성한 것은 없었다.As can be seen in FIGS. 5 and 6 , the MSE loss function produced incomplete results, and the other loss functions showed slight improvement compared to the MSE loss function, but did not produce accurate results as in the image processing method of the present invention.

또한, 다른 손실함수들은 부분적인 레이블로 인해 학습 도중에 축삭돌기에 대해 배우지 못했지만 본 발명에서 사용되는 손실함수들은 대부분의 축삭돌기를 올바르게 재구성하였다. 이는, 다른 손실함수들은 레이블이 지정되지 않은 픽셀은 음의 레이블로 작용하기 때문인 것으로 판단된다.In addition, other loss functions did not learn about axons during learning due to partial labels, but the loss functions used in the present invention correctly reconstructed most of the axons. This is thought to be because other loss functions act as negative labels for unlabeled pixels.

도 7에 도시된 표 1은 IoU, 정밀도(Precision), 재현율(Recall), F1 스코어 및 ClDice 메트릭을 사용하여 측정된 분할 정확도를 다른 대조군들과 비교하여 보여주는 표이다. 이 표의 마지막 세 행은 본 발명에서 제안된 손실 함수의 연구 결과를 보여준다.Table 1 shown in FIG. 7 is a table showing the segmentation accuracy measured using the IoU, Precision, Recall, F1 score, and ClDice metrics compared with other controls. The last three rows of this table show the study results of the loss function proposed in the present invention.

이 결과에서 축삭 돌기는 0.0954와 0.1676으로 다른 클래스보다 MSE 및 노이즈 로버스트 손실 함수에 대해 극도로 낮은 재현율 값을 보이는 것을 확인할 수 있다.From these results, it can be seen that axons show extremely low recall values for MSE and noise-robust loss functions than other classes, with 0.0954 and 0.1676.

그러나, ADMSE 및 STPR 손실함수는 레이블 노이즈에 더 탄력적이며 재현율을 최대 0.5731을 달성한 것을 확인할 수 있다. However, it can be seen that the ADMSE and STPR loss functions are more resilient to label noise and achieve a maximum recall of 0.5731.

또한, 본 발명의 실시 예에 따른 영상처리 방법은 구조의 선형성을 평가하는 ClDice 메트릭이 다른 방법보다 성능이 훨씬 뛰어나며 이를 통해, 본 발명의 실시 예에 따라 적용되는 ADMSE 및 STPR 손실함수가 다른 손실함수보다 뇌신경망 분할에 더 잘 맞다는 것을 보여준다.In addition, the image processing method according to an embodiment of the present invention performs much better than other methods in which the ClDice metric for evaluating the linearity of a structure is superior to other methods, and through this, loss functions having different ADMSE and STPR loss functions applied according to an embodiment of the present invention It shows that it is a better fit for neural network segmentation.

결과적으로, ADMSE 및 STPR 손실함수를 사용하는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템 및 방법은 다양한 세분화 품질 메트릭에서 최첨단 노이즈 로버스트 손실함수를 능가하는 것을 확인할 수 있고, 특히 ClDice 점수가 가장 우수하여 뇌신경망 분할 문제에 보다 효과적이라는 것을 확인할 수 있었다.As a result, it can be confirmed that the neural network structure image processing system and method according to an embodiment of the present invention using the ADMSE and STPR loss functions outperform the state-of-the-art noise robust loss function in various segmentation quality metrics, and in particular, the ClDice score It was the best, and it was confirmed that it was more effective in the problem of splitting the neural network.

이상으로 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시할 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can practice the present invention in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Accordingly, the embodiments described above are illustrative in all respects and not restrictive.

1 : 입력부
2 : 실측 레이블 맵 저장부
3 : 영상 처리부
5 : 영상 촬영장치
10 : 입력 이미지
20 : 심층 신경망
30 : 예측 레이블 맵
30a : 배경 예측 레이블 맵
30b : 신경세포체 몸체 예측 레이블 맵
30c : 수상돌기 예측 레이블 맵
30d : 축삭돌기 예측 레이블 맵
40 : 실측 레이블 맵
40a : 배경 실측 레이블 맵
40b : 신경세포체 몸체 실측 레이블 맵
40c : 수상돌기 실측 레이블 맵
40d : 축삭돌기 실측 레이블 맵
A1 : MSE 손실함수
A2 : ADMSE 손실함수
A3 : SPTR 손실함수
C : 신경세포체 몸체
D : 수상돌기
A : 축삭돌기
1: input
2: Actual measurement label map storage unit
3: image processing unit
5: video recording device
10: input image
20: Deep Neural Network
30: Prediction Label Map
30a: Background Prediction Label Map
30b: Neuronal body prediction label map
30c: dendrite prediction label map
30d: Axon prediction label map
40: ground truth label map
40a: background ground truth label map
40b: Neuron cell body actual measurement label map
40c: dendrite measurement label map
40d: axon measurement label map
A1 : MSE loss function
A2 : ADMSE loss function
A3: SPTR loss function
C: neuronal cell body
D: dendrite
A: axon

Claims (10)

뇌신경망 영상 촬영장치와 연동되어 뇌신경망 영상 이미지가 입력되는 입력부;
뇌신경망의 학습에 대조군으로 사용하기 위한 뇌신경망의 실측 이미지인 실측 레이블 맵이 구조별로 저장된 실측 레이블 맵 저장부 및
심층 신경망이 구비되어 상기 입력부에 입력된 뇌신경망 영상 이미지를 뇌신경망 구조별로 분할하여 예측 레이블 맵을 생성하며, 각 구조별 예측 레이블 맵을 상기 실측 레이블 맵 저장부에 기저장된 구조별 실측 레이블 맵과 편차를 줄이도록 손실함수를 적용하여 학습하면서 영상 처리하는 영상처리부를 포함하는 뇌신경망 구조 영상처리 시스템.
an input unit that is interlocked with a neural network imaging apparatus to input a neural network image;
An actual measurement label map storage unit in which an actual measurement label map, which is an actual measurement image of a neural network for use as a control for learning of a neural network, is stored for each structure; and
A deep neural network is provided to generate a predicted label map by dividing the neural network image image input to the input unit for each structure of the neural network, and the predicted label map for each structure is stored in the actual label map storage unit for each structure. A neural network structure image processing system comprising an image processing unit that processes an image while learning by applying a loss function to reduce deviation.
제 1 항에 있어서,
상기 뇌신경망의 구조는,
상기 뇌신경망 구조 이미지의 배경, 신경세포체 몸체, 수상돌기, 축삭돌기를 포함하는 뇌신경망 구조 영상처리 시스템.
The method of claim 1,
The structure of the cranial neural network is,
A cranial neural network structure image processing system including a background of the neural network structure image, a nerve cell body, dendrites, and axons.
제 2 항에 있어서,
상기 손실함수의 적용은,
상기 뇌신경망 구조 이미지 배경 및 신경세포체 몸체에 대한 예측 레이블 맵에는 평균 제곱 오차(Mean Squared Error, MSE) 손실함수를 적용하며,
상기 수상돌기 및 축삭돌기에 대한 예측 레이블 맵에는 상기 평균 제곱 오차 손실함수에 픽셀 단위로 예측 값을 판단하여 생성된 가중치가 반영된 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE) 손실함수를 적용하는 것을 특징으로 하는 뇌신경망 구조 영상처리 시스템.
3. The method of claim 2,
The application of the loss function is,
A mean squared error (MSE) loss function is applied to the predicted label map for the neural network structure image background and the neuronal body body,
In the prediction label map for the dendrites and axons, the adaptive mean squared error (ADMSE) loss function in which the weight generated by determining the prediction value in units of pixels is reflected in the mean squared error loss function is applied. Brain neural network structure image processing system, characterized in that.
제 1 항에 있어서,
상기 영상 처리부는,
상기 뇌신경망의 구조별로 분할된 예측 레이블 맵 간의 손실을 줄이는 사전 구조(Structure Prior, STPR) 손실함수를 더 적용하는 것을 특징으로 하는 뇌신경망 구조 영상처리 시스템.
The method of claim 1,
The image processing unit,
The neural network structure image processing system, characterized in that further applying a structure prior (STPR) loss function that reduces the loss between the predicted label maps divided for each structure of the neural network.
제 4 항에 있어서,
상기 STPR 손실함수는,
뇌신경망 구조의 사전 정보를 기초로 뇌신경망의 구조별 예측 레이블 맵 간의 손실을 MSE 손실함수를 활용하여 줄이는 것을 특징으로 하는 뇌신경망 구조 영상처리 시스템.
5. The method of claim 4,
The STPR loss function is
A neural network structure image processing system, characterized in that it reduces the loss between the predicted label maps for each structure of the neural network based on the prior information of the neural network structure by using the MSE loss function.
뇌신경망 영상 이미지가 입력부에 입력되는 단계;
상기 입력된 뇌신경망 영상 이미지가 영상 처리부로 전달되는 단계;
상기 영상 처리부로 전달된 뇌신경망 영상 이미지가 심층 신경망을 통과하여 뇌신경망의 구조별로 예측 레이블 맵이 생성되는 단계 및
상기 영상 처리부에서 상기 생성된 뇌신경망 구조별 예측 레이블 맵을 실측 레이블 맵 저장부에 기저장된 뇌신경망 구조별 실측 레이블 맵과 비교하여 구조별로 각각 손실함수를 추정하고, 추정된 손실함수를 적용하여 학습하는 단계를 포함하는 뇌신경망 구조 영상처리 방법.
A cranial neural network image image is input to the input unit;
transmitting the input neural network image image to an image processing unit;
generating a predicted label map for each structure of the neural network by passing the neural network image transmitted to the image processing unit through the deep neural network; and
By comparing the predicted label map for each structure of the neural network generated in the image processing unit with the actual label map for each structure of the neural network stored in the actual label map storage unit, the loss function is estimated for each structure, and the estimated loss function is applied to learn A brain neural network structure image processing method comprising the step of.
제 6 항에 있어서,
상기 뇌신경망의 구조는,
상기 뇌신경망 구조 이미지의 배경, 신경세포체 몸체, 수상돌기, 축삭돌기를 포함하는 뇌신경망 구조 영상처리 방법,
7. The method of claim 6,
The structure of the cranial neural network is,
A neural network structure image processing method comprising the background of the image of the neural network structure, a neuron cell body, dendrites, and axons;
제 7 항에 있어서,
상기 손실함수의 적용은,
상기 뇌신경망 구조 이미지 배경 및 신경세포체 몸체에 대한 예측 레이블 맵에는 평균 제곱 오차(Mean Squared Error, MSE) 손실함수를 적용하며,
상기 수상돌기 및 축삭돌기에 대한 예측 레이블 맵에는 상기 평균 제곱 오차 손실함수에 픽셀 단위로 예측 값을 판단하여 생성된 가중치가 반영된 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE) 손실함수를 적용하는 것을 특징으로 하는 뇌신경망 구조 영상처리 방법.
8. The method of claim 7,
The application of the loss function is,
A mean squared error (MSE) loss function is applied to the predicted label map for the neural network structure image background and the neuronal body body,
In the prediction label map for the dendrites and axons, the adaptive mean squared error (ADMSE) loss function in which the weight generated by determining the prediction value in units of pixels is reflected in the mean squared error loss function is applied. Brain neural network structure image processing method, characterized in that.
제 7 항에 있어서,
상기 손실함수의 적용은,
상기 뇌신경망의 구조별로 분할된 예측 레이블 맵 간의 손실을 줄이는 사전 구조(Structure Prior, STPR) 손실함수를 더 적용하는 것을 특징으로 하는 뇌신경망 구조 영상처리 방법.
8. The method of claim 7,
The application of the loss function is,
A neural network structure image processing method, characterized in that further applying a structure prior (STPR) loss function that reduces the loss between the predicted label maps divided for each structure of the neural network.
제 1 항 내지 제 9 항 중 어느 하나의 항에 따라 뇌신경망 구조 영상 처리 방법을 제공하는, 컴퓨터 프로그램이 기록된 컴퓨터로 판독가능한 기록매체.A computer-readable recording medium on which a computer program is recorded, which provides a method for processing an image of a neural network structure according to any one of claims 1 to 9.
KR1020200188436A 2020-11-24 2020-12-30 Brain Neural Network Structure Image Processing System, Brain Neural Network Structure Image Processing Method, and a computer-readable storage medium KR102635484B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200158604 2020-11-24
KR1020200158604 2020-11-24

Publications (2)

Publication Number Publication Date
KR20220072693A true KR20220072693A (en) 2022-06-02
KR102635484B1 KR102635484B1 (en) 2024-02-14

Family

ID=81985378

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200188436A KR102635484B1 (en) 2020-11-24 2020-12-30 Brain Neural Network Structure Image Processing System, Brain Neural Network Structure Image Processing Method, and a computer-readable storage medium

Country Status (1)

Country Link
KR (1) KR102635484B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116350227A (en) * 2023-05-31 2023-06-30 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) Individualized detection method, system and storage medium for magnetoencephalography spike

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190137913A (en) * 2017-04-25 2019-12-11 더 보드 어브 트러스티스 어브 더 리랜드 스탠포드 주니어 유니버시티 Dose reduction for medical imaging using deep convolutional neural networks
KR20200063337A (en) * 2018-11-21 2020-06-05 광운대학교 산학협력단 Apparatus and method for learning user's operation intention using artificial neural network
KR20200106602A (en) * 2019-03-05 2020-09-15 뉴로핏 주식회사 Method and apparatus for brain image correction using brain structure

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190137913A (en) * 2017-04-25 2019-12-11 더 보드 어브 트러스티스 어브 더 리랜드 스탠포드 주니어 유니버시티 Dose reduction for medical imaging using deep convolutional neural networks
KR20200063337A (en) * 2018-11-21 2020-06-05 광운대학교 산학협력단 Apparatus and method for learning user's operation intention using artificial neural network
KR20200106602A (en) * 2019-03-05 2020-09-15 뉴로핏 주식회사 Method and apparatus for brain image correction using brain structure

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Andrew Beers 외, DeepNeuro: an open-source deep learning toolbox for neuroimaging, arXiv, 2018.08.14., pp.1-15. *
Philipp J. Schubert 외, Learning cellular morphology with neural networks, Nature Communications, 2019.06.21., Vol.10, No.2736, pp.1-12.* *
Sahand Saberi-Bosari 외, Deep learning-enabled analysis reveals distinct neuronal phenotypes induced by aging and cold-shock, BMC Biology, 2020.09.23., Vol.18, No.130, pp.1-18. *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116350227A (en) * 2023-05-31 2023-06-30 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) Individualized detection method, system and storage medium for magnetoencephalography spike
CN116350227B (en) * 2023-05-31 2023-09-22 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) Individualized detection method, system and storage medium for magnetoencephalography spike

Also Published As

Publication number Publication date
KR102635484B1 (en) 2024-02-14

Similar Documents

Publication Publication Date Title
WO2021138083A1 (en) Neural architecture search based on synaptic connectivity graphs
KR102306658B1 (en) Learning method and device of generative adversarial network for converting between heterogeneous domain data
US11593627B2 (en) Artificial neural network architectures based on synaptic connectivity graphs
US11625611B2 (en) Training artificial neural networks based on synaptic connectivity graphs
DE112020000584T5 (en) PROCEDURE FOR UNSUITIZED PICTURE-TO-PICTURE TRANSLATION WITH FEW IMAGES
WO2021138091A1 (en) Reservoir computing neural networks based on synaptic connectivity graphs
WO2021138085A1 (en) Predicting neuron types based on synaptic connectivity graphs
KR102370910B1 (en) Method and apparatus for few-shot image classification based on deep learning
Suganthe et al. Diagnosis of Alzheimer's disease from brain magnetic resonance imaging images using deep learning algorithms
US20210201131A1 (en) Training artificial neural networks based on synaptic connectivity graphs
KR20220072693A (en) Brain Neural Network Structure Image Processing System, Brain Neural Network Structure Image Processing Method, and a computer-readable storage medium
US20220284288A1 (en) Learning from biological systems how to regularize machine-learning
Burlin et al. Deep image inpainting
Behzadian et al. The 1st data science for pavements challenge
Bunne et al. Studying invariances of trained convolutional neural networks
CN116779160A (en) Self-adaptive cognitive disorder screening system
CN116665039A (en) Small sample target identification method based on two-stage causal intervention
EP3996034A1 (en) Methods and systems for training convolutional neural networks
Das et al. GOGGLES: Automatic training data generation with affinity coding
JP2022540171A (en) More Robust Training of Artificial Neural Networks
Nugyen Robust deep learning for computer vision to counteract data scarcity and label noise
JP7307785B2 (en) Machine learning device and method
EP4030179A1 (en) Method of predicting a field perturbation map for magnetic resonance imaging
Gordon Machine Learning for Molecular Recognition at the Nanoscale
EP3477591B1 (en) Avoiding catastrophic interference while training an artificial neural network on an additional task

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant