KR102635484B1 - Brain Neural Network Structure Image Processing System, Brain Neural Network Structure Image Processing Method, and a computer-readable storage medium - Google Patents

Brain Neural Network Structure Image Processing System, Brain Neural Network Structure Image Processing Method, and a computer-readable storage medium Download PDF

Info

Publication number
KR102635484B1
KR102635484B1 KR1020200188436A KR20200188436A KR102635484B1 KR 102635484 B1 KR102635484 B1 KR 102635484B1 KR 1020200188436 A KR1020200188436 A KR 1020200188436A KR 20200188436 A KR20200188436 A KR 20200188436A KR 102635484 B1 KR102635484 B1 KR 102635484B1
Authority
KR
South Korea
Prior art keywords
neural network
brain neural
image
brain
loss function
Prior art date
Application number
KR1020200188436A
Other languages
Korean (ko)
Other versions
KR20220072693A (en
Inventor
정원기
박찬민
이강근
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Publication of KR20220072693A publication Critical patent/KR20220072693A/en
Application granted granted Critical
Publication of KR102635484B1 publication Critical patent/KR102635484B1/en

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Abstract

본 발명은 뇌신경망 구조 영상처리 방법에 관한 것으로, 입력되는 뇌신경망 영상 이미지에 대해 딥러닝을 활용하여 뇌신경망 구조가 구분되도록 영상처리 하는 시스템, 방법 및 컴퓨터-판독가능매체에 관한 것으로, 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템은, 뇌신경망 영상 촬영장치와 연동되어 뇌신경망 영상 이미지가 입력되는 입력부; 뇌신경망의 학습에 대조군으로 사용하기 위한 뇌신경망의 실측 이미지인 실측 레이블 맵이 구조별로 저장된 실측 레이블 맵 저장부 및 심층 신경망이 구비되어 상기 입력부에 입력된 뇌신경망 영상 이미지를 뇌신경망 구조별로 분할하여 예측 레이블 맵을 생성하며, 각 구조별 예측 레이블 맵을 상기 실측 레이블 맵 저장부에 기저장된 구조별 실측 레이블 맵과 편차를 줄이도록 손실함수를 적용하여 학습하면서 영상 처리하는 영상 처리부를 포함하여 구성될 수 있다.The present invention relates to an image processing method for a brain neural network structure, and to a system, method, and computer-readable medium for image processing an input brain neural network image image to distinguish the brain neural network structure using deep learning. The brain neural network structure image processing system according to the embodiment includes an input unit for inputting a brain nerve network image image in conjunction with a brain nerve network image capture device; A ground truth label map storage unit and a deep neural network are provided in which ground truth label maps, which are ground truth images of the brain neural network to be used as a control group for learning of the brain neural network, are stored by structure, and the brain neural network video image input to the input unit is divided by brain neural network structure. It will be comprised of an image processing unit that generates a predicted label map and processes the image while learning the predicted label map for each structure by applying a loss function to reduce the deviation from the ground truth label map for each structure previously stored in the ground truth label map storage. You can.

Description

뇌신경망 구조 영상처리 시스템, 뇌신경망 구조 영상처리 방법 및 이를 제공하기 위한 컴퓨터 프로그램이 기록된 컴퓨터-판독가능매체{Brain Neural Network Structure Image Processing System, Brain Neural Network Structure Image Processing Method, and a computer-readable storage medium}Brain Neural Network Structure Image Processing System, Brain Neural Network Structure Image Processing Method, and a computer-readable medium on which a computer program for providing the same is recorded. storage medium}

본 발명은 딥러닝을 통한 뇌신경망 구조의 영상처리 시스템, 방법 및 컴퓨터-판독가능매체에 관한 것으로, 특히 딥러닝을 수행하는 과정에서 예측 이미지와 실측 이미지간의 편차를 줄이기 위한 학습에 활용되는 손실함수를 적응형 손실함수를 기반으로 하여 보다 실측 이미지에 가깝게 영상처리를 할 수 있도록 하는 뇌신경망 구조의 영상처리 시스템, 방법 및 컴퓨터-판독가능매체에 관한 것이다. The present invention relates to an image processing system, method, and computer-readable medium with a brain neural network structure through deep learning, and in particular, a loss function used for learning to reduce the deviation between predicted images and actual images in the process of performing deep learning. It relates to an image processing system, method, and computer-readable medium with a brain neural network structure that enables image processing closer to the actual image based on an adaptive loss function.

신경계의 단위로서 자극과 흥분을 전달하는 뉴런(neuron)은 일반적으로 세포체 몸체(cell body)로부터 여러 수상돌기(Dendrite)와 단일 축삭돌기(Axon)가 고도로 분극된 구조를 나타내며, 이러한 뉴런의 형태는 시냅스 통합과 신경 흥분성을 포함한 다양한 신경 속성을 파악하는데 중요한 자료로 쓰인다. 일례로, 알츠하이머 병 또는 파키슨 병과 같은 여러 신경 퇴행성 질환은 뉴런 형태의 이상을 통해 관찰되었다.Neurons, which transmit stimulation and excitement as a unit of the nervous system, generally exhibit a highly polarized structure with several dendrites and a single axon from the cell body, and the form of these neurons is It is used as important data for understanding various neural properties, including synaptic integration and neuronal excitability. For example, several neurodegenerative diseases, such as Alzheimer's disease or Parkinson's disease, have been observed through abnormalities in neuron morphology.

한편, 기계 학습을 통한 이미징 기술은 많이 발전되어 자동화와 정확한 분석도구를 바탕으로 한 대규모 이미지 데이터 세트가 등장했고, 이들의 데이터 세트는 생물 의학 이미지 영역에 있어서도 상당히 활용되고 있다. Meanwhile, imaging technology through machine learning has developed greatly, and large-scale image data sets based on automation and accurate analysis tools have emerged, and these data sets are also being widely used in the biomedical imaging field.

이때, 사용되는 대부분의 알고리즘은 학습을 위한 깨끗한 레이블(Clean label) 즉, 정확한 정답 레이블을 사용하는 지도 학습에 의존하는데, 뉴런의 경우에는 좁고 얇으며 드물게 분포되어 있어 이미지의 많은 부분에 빈 배경이 포함되어 있고, 서로 얽혀 교차하는 구조 상 종래에 생물 의학 이미지 영역에 사용해왔던 딥러닝 알고리즘으로는 실질적으로 뉴런 이미지에서 픽셀 수준의 정확한 실측 레이블을 만드는 것이 어렵다.At this time, most algorithms used rely on supervised learning that uses clean labels for learning, that is, accurate correct answer labels. Neurons are narrow, thin, and sparsely distributed, so many parts of the image have an empty background. Due to their intertwined and intersecting structures, it is difficult to create accurate pixel-level ground truth labels from neuron images using deep learning algorithms that have been used in the biomedical image field.

이 때문에, 최근에는 평균 절대 오차(Mean Absolute Error, MAE), 대칭 교차 엔트로피 학습(Symmetric cross entropy Learning, SL), 역 교차 엔트로피(Reverse Cross Entropy, RCE), 정규화된 교차 엔트로피(Normalized Cross Entropy, NCE), 액티브 및 패시브 손실(Active and Passive Loss, APL), 노이즈드 로버스트 다이스(Noised Robust Dice, NR-Dice) 등 오차가 있는 레이블(Noisy label)에 강한 손실함수들을 사용하였으나, 이들 모두 뉴런의 복잡한 형태를 실측에 가까운 결과로 나타내지는 못하고 있다.For this reason, recently, Mean Absolute Error (MAE), Symmetric cross entropy Learning (SL), Reverse Cross Entropy (RCE), and Normalized Cross Entropy (NCE) have been developed. ), Active and Passive Loss (APL), and Noised Robust Dice (NR-Dice) were used, but all of these loss functions are strong against noisy labels. It is not possible to represent complex shapes with results that are close to actual measurements.

본 발명은 상기의 문제점을 해결하기 위하여 제안되는 것으로, 뇌신경망의 복잡하고 픽셀 단위로 공간이 많은 레이블에 대한 영상 처리에 있어서, 뇌신경망의 구조별로 레이블을 분류하여 각각의 레이블 별로 학습하되, 평균 제곱 오차(Mean Squared Error, MSE)와, 잘못된 레이블 학습을 방지하기 위해 공간적으로 다양한 가중치를 사용하는 적응형 손실함수인 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE)를 혼용하여 보다 실측 이미지에 가깝게 영상처리를 할 수 있도록 하며, 나아가 각 레이블간 학습 완료 후에 병합에 있어 손실을 줄이는 손실함수인 사전 구조 (Structure Prior, STPR) 손실함수를 적용하여 뇌신경망의 실측 이미지에 가깝게 영상처리 할 수 있는 시스템, 방법 및 컴퓨터-판독가능매체를 제공하는 데 목적이 있다.The present invention is proposed to solve the above problems. In image processing of labels in a brain neural network that are complex and have a lot of space per pixel, labels are classified according to the structure of the brain neural network and learned for each label, but the average Mean Squared Error (MSE) and Adaptive Mean Squared Error (ADMSE), an adaptive loss function that uses spatially varying weights to prevent incorrect label learning, are used together to provide better results in real-world images. It allows image processing to be closer to the actual image of the brain neural network by applying the Structure Prior (STPR) loss function, which is a loss function that reduces the loss in merging after completing learning between each label. The purpose is to provide systems, methods, and computer-readable media.

상기 과제를 해결하기 위한 본 발명의 실시 예에 따른 뇌신경망 구조의 영상처리 시스템은, 뇌신경망 영상 촬영장치와 연동되어 뇌신경망 영상 이미지가 입력되는 입력부; 뇌신경망의 학습에 대조군으로 사용하기 위한 뇌신경망의 실측 이미지인 실측 레이블 맵이 구조별로 저장된 실측 레이블 맵 저장부 및 심층 신경망이 구비되어 상기 입력부에 입력된 뇌신경망 영상 이미지를 뇌신경망 구조별로 분할하여 예측 레이블 맵을 생성하며, 각 구조별 예측 레이블 맵을 상기 실측 레이블 맵 저장부에 기저장된 구조별 실측 레이블 맵과 편차를 줄이도록 손실함수를 적용하여 학습하면서 영상 처리하는 영상처리부를 포함하여 구성될 수 있다.An image processing system with a brain neural network structure according to an embodiment of the present invention to solve the above problem includes an input unit that is linked with a brain neural network image capture device and inputs a brain neural network image image; A ground truth label map storage unit and a deep neural network are provided in which ground truth label maps, which are ground truth images of the brain neural network to be used as a control group for learning of the brain neural network, are stored by structure, and the brain neural network video image input to the input unit is divided by brain neural network structure. It will be configured to include an image processing unit that generates a prediction label map and processes the image while learning the prediction label map for each structure by applying a loss function to reduce the deviation of the prediction label map for each structure from the ground truth label map for each structure previously stored in the ground truth label map storage. You can.

여기서, 상기 뇌신경망의 구조는, 상기 뇌신경망 영상 이미지의 배경, 신경세포체 몸체, 수상돌기, 축삭돌기를 포함할 수 있다.Here, the structure of the brain nerve network may include the background of the brain nerve network image image, the neuron cell body, dendrites, and axons.

또한, 상기 손실함수의 적용은, 상기 뇌신경망 영상 이미지의 배경 및 신경세포체 몸체에 대한 예측 레이블 맵에는 평균 제곱 오차(Mean Squared Error, MSE) 손실함수를 적용하며, 상기 수상돌기 및 축삭돌기에 대한 예측 레이블 맵에는 상기 평균 제곱 오차 손실함수에 픽셀 단위로 예측 값을 판단하여 생성된 가중치가 반영된 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE) 손실함수를 적용하도록 형성될 수 있다.In addition, the application of the loss function applies a mean squared error (MSE) loss function to the background of the brain neural network image and the predicted label map for the neuron cell body, and the mean squared error (MSE) loss function is applied to the prediction label map for the neuron cell body and the background of the brain neural network image. The prediction label map may be formed to apply an adaptive mean squared error (ADMSE) loss function that reflects the weight generated by determining the prediction value on a pixel-by-pixel basis.

또한, 상기 영상 처리부는, 상기 뇌신경망의 구조별로 분할된 예측 레이블 맵 간의 손실을 줄이는 사전 구조(Structure Prior, STPR) 손실함수를 더 적용하며, 상기 STPR 손실함수는, 뇌신경망 구조의 사전 정보를 기초로 뇌신경망의 구조별 예측 레이블 맵 간의 손실을 MSE 손실함수를 활용하여 줄이도록 형성될 수 있다.In addition, the image processing unit further applies a structure prior (STPR) loss function that reduces the loss between prediction label maps divided by the structure of the brain neural network, and the STPR loss function uses prior information of the brain neural network structure. As a basis, it can be formed to reduce the loss between the predicted label maps for each structure of the brain neural network by using the MSE loss function.

한편, 본 발명의 실시 예에 따른 뇌신경망 구조 영상 처리 방법은, 뇌신경망 영상 이미지가 입력부에 입력되는 단계; 상기 입력된 뇌신경망 영상 이미지가 영상 처리부로 전달되는 단계; 상기 영상 처리부로 전달된 뇌신경망 영상 이미지가 심층 신경망을 통과하여 뇌신경망의 구조별로 예측 레이블 맵이 생성되는 단계 및 상기 영상 처리부에서 상기 생성된 뇌신경망 구조별 예측 레이블 맵을 실측 레이블 맵 저장부에 기저장된 뇌신경망 구조별 실측 레이블 맵과 비교하여 구조별로 각각 손실함수를 추정하고, 추정된 손실함수를 통해 학습하는 단계를 포함하여 구성될 수 있다.Meanwhile, a brain neural network structure image processing method according to an embodiment of the present invention includes the steps of inputting a brain neural network image to an input unit; transmitting the input brain neural network image to an image processing unit; A brain neural network image transmitted to the image processing unit passes through a deep neural network to generate a predicted label map for each structure of the brain neural network, and the image processing unit stores the generated predicted label map for each brain neural network structure in a ground truth label map storage. It may be configured to include the step of comparing a pre-stored ground truth label map for each brain neural network structure, estimating a loss function for each structure, and learning through the estimated loss function.

여기서, 상기 손실함수의 적용은, 상기 뇌신경망 영상 이미지 배경 및 신경세포체 몸체에 대한 예측 레이블 맵에는 평균 제곱 오차(Mean Squared Error, MSE) 손실함수를 적용하며, 상기 수상돌기 및 축삭돌기에 대한 예측 레이블 맵에는 상기 평균 제곱 오차 손실함수에 픽셀 단위로 예측 값을 판단하여 생성된 가중치가 반영된 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE) 손실함수를 적용하도록 구성될 수 있다.Here, the application of the loss function applies the Mean Squared Error (MSE) loss function to the prediction label map for the brain neural network image background and neuron cell body, and the prediction for the dendrites and axons. The label map may be configured to apply an Adaptive Mean Squared Error (ADMSE) loss function that reflects the weight generated by determining the prediction value on a pixel-by-pixel basis.

또한, 상기 손실함수의 적용은, 상기 뇌신경망의 구조별로 분할된 예측 레이블 맵 간의 손실을 줄이는 사전 구조(Structure Prior, STPR) 손실함수를 더 적용하도록 구성될 수 있다.In addition, the application of the loss function may be configured to further apply a Structure Prior (STPR) loss function that reduces the loss between prediction label maps divided by structure of the brain neural network.

본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템, 방법 및 컴퓨터-판독가능매체는, 도 5 내지 도 7을 참조하면, 결과적으로, ADMSE 및 STPR 손실함수를 사용함으로써 다양한 세분화 품질 메트릭에서 최첨단 노이즈 로버스트 손실함수를 능가하는 것을 확인할 수 있고, 특히 ClDice 점수가 가장 우수하여 뇌신경망 분할 문제에 보다 효과적이라는 것을 확인할 수 있다.Referring to FIGS. 5 to 7, the brain neural network structure image processing system, method, and computer-readable medium according to embodiments of the present invention, as a result, reduce state-of-the-art noise in various segmentation quality metrics by using ADMSE and STPR loss functions. It can be confirmed that it surpasses the robust loss function, and in particular, the ClDice score is the best, making it more effective in brain network segmentation problems.

도 1은 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템의 구성도이다.
도 2는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법 과정을 보여주는 개략도이다.
도 3은 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법의 흐름도이다.
도 4는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법이 진행되는 과정에서의 이미지 처리 변화를 상세히 보여주는 도면이다.
여기서 (a)는 입력 이미지, (b)는 부분적인 레이블 맵, (c)는 ADMSE 손실함수가 적용된 레이블 맵, (d)는 STPR 손실함수가 적용된 레이블 맵, (e)는 최종 결과 레이블 맵이다.
도 5a 내지 도 5b는 ADMSE 및 STPR 손실함수를 사용하는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법과 다른 손실함수를 사용한 뇌신경망 구조 영상처리 방법에 대한 훈련 이미지의 비교 결과를 나타낸 도면들이다.
여기서, (a)는 입력 이미지, (b)는 부분적인 레이블 맵, (c)는 MSE 손실함수 적용 사례, (d)는 NCE 손실함수 적용 사례, (e)는 RCE 손실함수 적용 사례, (f)는 NR-Dice 손실함수 적용 사례, (g)는 본 발명의 실시 예에 따른 ADMSE 및 STPR 손실함수 적용 사례이다
도 6a 내지 도 6b는 ADMSE 및 STPR 손실함수를 사용하는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법과 다른 손실함수를 사용한 뇌신경망 구조 영상처리 방법에 대한 테스트 이미지의 비교 결과를 나타낸 도면이다.
여기서, (a)는 입력 이미지, (b)는 전체 레이블 맵, (c)는 MSE 손실함수 적용 사례, (d)는 NCE 손실함수 적용 사례, (e)는 RCE 손실함수 적용 사례, (f)는 NR-Dice 손실함수 적용 사례, (g)는 본 발명의 실시 예에 따른 ADMSE 및 STPR 손실함수 적용 사례이다
도 7은 ADMSE 및 STPR 손실함수를 사용하는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법과 다른 손실함수를 사용한 뇌신경망 구조 영상처리 방법에 대한 IoU, 정밀도, 재현율, F1 스코어 및 ClDice 메트릭 결과 비교표이다.
1 is a configuration diagram of a brain neural network structure image processing system according to an embodiment of the present invention.
Figure 2 is a schematic diagram showing the process of a brain neural network structure image processing method according to an embodiment of the present invention.
Figure 3 is a flowchart of a brain neural network structure image processing method according to an embodiment of the present invention.
Figure 4 is a diagram showing in detail changes in image processing during the process of the brain neural network structure image processing method according to an embodiment of the present invention.
Here, (a) is the input image, (b) is the partial label map, (c) is the label map to which the ADMSE loss function is applied, (d) is the label map to which the STPR loss function is applied, and (e) is the final result label map. .
5A to 5B are diagrams showing comparison results of training images for a brain neural network structural image processing method according to an embodiment of the present invention using ADMSE and STPR loss functions and a brain neural network structural image processing method using other loss functions. .
Here, (a) is an input image, (b) is a partial label map, (c) is an example of applying the MSE loss function, (d) is an example of applying the NCE loss function, (e) is an example of applying the RCE loss function, (f) ) is an example of application of the NR-Dice loss function, and (g) is an example of application of the ADMSE and STPR loss functions according to an embodiment of the present invention.
6A to 6B are diagrams showing comparison results of test images for a brain neural network structural image processing method according to an embodiment of the present invention using ADMSE and STPR loss functions and a brain neural network structural image processing method using other loss functions. .
Here, (a) is the input image, (b) is the entire label map, (c) is an example of applying the MSE loss function, (d) is an example of applying the NCE loss function, (e) is an example of applying the RCE loss function, (f) is an example of application of the NR-Dice loss function, and (g) is an example of application of the ADMSE and STPR loss functions according to an embodiment of the present invention.
Figure 7 shows IoU, precision, recall, F1 score, and ClDice metric results for the brain neural network structure image processing method according to an embodiment of the present invention using ADMSE and STPR loss functions and the brain neural network structure image processing method using other loss functions. This is a comparison table.

이하, 도면을 참조한 본 발명의 설명은 특정한 실시 형태에 대해 한정되지 않으며, 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있다. 또한, 이하에서 설명하는 내용은 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the description of the present invention with reference to the drawings is not limited to specific embodiments, and various changes may be made and various embodiments may be possible. In addition, the content described below should be understood to include all conversions, equivalents, and substitutes included in the spirit and technical scope of the present invention.

이하의 설명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용되는 용어로서, 그 자체에 의미가 한정되지 아니하며, 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following description, the terms first, second, etc. are terms used to describe various components, and their meaning is not limited, and is used only for the purpose of distinguishing one component from other components.

본 명세서 전체에 걸쳐 사용되는 동일한 참조번호는 동일한 구성요소를 나타낸다.Like reference numerals used throughout this specification refer to like elements.

본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 이하에서 기재되는 "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로 해석되어야 하며, 하나 또는 그 이상의 다른 특징들이나, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As used herein, singular expressions include plural expressions, unless the context clearly dictates otherwise. In addition, terms such as “comprise,” “provide,” or “have” used below are intended to designate the presence of features, numbers, steps, operations, components, parts, or a combination thereof described in the specification. It should be construed and understood as not excluding in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts or combinations thereof.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템, 방법 및 컴퓨터-판독가능매체를 상세히 설명하기로 한다.Hereinafter, a brain neural network structure image processing system, method, and computer-readable medium according to an embodiment of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템의 구성도이다.1 is a configuration diagram of a brain neural network structure image processing system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템은, 입력부(1), 실측 레이블 맵 저장부(2) 및 영상 처리부(3)를 포함하여 구성될 수 있다.Referring to FIG. 1, a brain neural network structure image processing system according to an embodiment of the present invention may be configured to include an input unit 1, a ground truth label map storage unit 2, and an image processing unit 3.

구체적으로, 입력부(1)는 뇌신경망 영상 이미지가 입력되는 곳으로, 뇌신경망 영상 촬영장치(5)와 연동될 수 있다. 여기서, 뇌신경망 영상 촬영장치(5)는 어느 특정한 형태에 한정되지 않고, CT나 MRI 등 뇌신경망을 촬영할 수 있는 다양한 촬영장치는 모두 구성될 수 있다. Specifically, the input unit 1 is a place where a brain neural network image is input, and can be linked with the brain neural network imaging device 5. Here, the brain nerve network imaging device 5 is not limited to any specific type, and can be configured as any of various imaging devices capable of imaging the brain nerve network, such as CT or MRI.

실측 레이블 맵 저장부(2)는 후술하는 영상 처리부(3)에서 학습에 사용할 실측 레이블 맵이 저장될 수 있다. 여기서, 실측 레이블 맵은 뇌신경망의 실측 이미지로서 영상 처리부(3)에서 구조별로 예측 레이블 맵을 생성함에 따라 각 예측 레이블 맵과 대응되도록 뇌신경망의 구조별로 저장될 수 있다. 이렇게 뇌신경망의 구조별로 저장되는 실측 레이블 맵은 예측 레이블 맵의 학습을 위한 대조군으로 사용된다.The ground truth label map storage unit 2 may store a ground truth label map to be used for learning in the image processing unit 3, which will be described later. Here, the ground truth label map is a ground truth image of the brain neural network, and as the image processing unit 3 generates a prediction label map for each structure, it can be stored for each structure of the brain neural network to correspond to each prediction label map. The ground truth label maps stored for each structure of the brain neural network are used as a control for learning the predicted label map.

영상 처리부(3)는 입력부(1)에 입력된 뇌신경망 영상 이미지를 뇌신경망의 구조별로 분할하고 예측 레이블 맵을 생성하는 것으로, 이를 위해 영상 처리부(3)는 심층 신경망(20)을 포함하여 구성될 수 있다.The image processing unit 3 divides the brain neural network image input into the input unit 1 according to the structure of the brain neural network and generates a prediction label map. For this purpose, the image processing unit 3 includes a deep neural network 20. It can be.

보다 구체적으로, 입력부(1)에 입력된 뇌신경망 영상 이미지는, 영상 처리부(3)에 마련된 심층 신경망(20)으로 전달되어 딥러닝이 수행될 수 있고, 심층 신경망(20)에서는 딥러닝을 통해 뇌신경망을 구조별로 분할하여 각 구조별로 예측 레이블 맵을 생성할 수 있는 것이다.More specifically, the brain neural network image input to the input unit 1 may be transmitted to the deep neural network 20 provided in the image processing unit 3 to perform deep learning, and the deep neural network 20 may perform deep learning through deep learning. By dividing the brain neural network into structures, a prediction label map can be generated for each structure.

이때, 뇌신경망의 구조는, 뇌신경망의 영상 이미지의 배경, 신경세포체 몸체, 수상돌기, 축삭돌기를 포함하는 구조로서, 뇌신경망 구조는 상술한 네 부분의 구조별로 분할되어 각각 예측 레이블 맵을 생성할 수 있다.At this time, the structure of the brain neural network is a structure that includes the background of the video image of the brain neural network, the neuron cell body, dendrites, and axons. The brain neural network structure is divided into the four structures described above to generate a predicted label map for each. can do.

다시 말해, 뇌신경망 영상 이미지 배경에 대한 예측 레이블 맵, 신경세포체 몸체에 대한 예측 레이블 맵, 수상돌기에 대한 예측 레이블 맵, 축삭돌기에 대한 예측 레이블 맵을 각각 생성할 수 있는 것이다.In other words, it is possible to generate a predicted label map for the brain neural network image background, a predicted label map for the neuron cell body, a predicted label map for dendrites, and a predicted label map for axons.

그러나, 이에 반드시 한정되는 것은 아니며, 뇌신경망 구조는 상기 네 부분 외에도 다른 구조로 나뉠 수도 있으며, 상기 구조보다 더 간소화되거나 더 세분화된 구조로 나뉠 수도 있다.However, it is not necessarily limited to this, and the brain neural network structure may be divided into other structures in addition to the four parts above, and may be divided into a more simplified or more detailed structure than the above structure.

또한, 영상 처리부(3)는 뇌신경망 구조별로 생성된 예측 레이블 맵을 실측 레이블 맵 저장부(2)에 기저장된 구조별 실측 레이블 맵과 편차를 줄이도록 손실함수를 적용하여 학습하면서 영상 처리하도록 구성될 수 있다.In addition, the image processing unit 3 is configured to process the image while learning by applying a loss function to reduce the deviation of the predicted label map generated for each brain neural network structure from the ground truth label map for each structure previously stored in the ground truth label map storage unit 2. It can be.

보다 구체적으로, 영상 처리부(3)는 먼저 예측 레이블 맵을 뇌신경망 구조별로 생성하게 되면, 이를 실측 레이블 맵 저장부(2)에 저장된 실측 레이블 맵과 비교하게 되는데, 이 과정을 통해 손실함수를 추정할 수 있다. 이때, 손실함수가 추정되면 이 손실함수를 역전파하여 적용함으로써, 다시 생성되는 예측 레이블 맵은 보다 실측 레이블 맵에 가까워지게 되는 것이다.More specifically, the image processing unit 3 first generates a predicted label map for each brain neural network structure and compares it with the ground truth label map stored in the ground truth label map storage unit 2. Through this process, the loss function is estimated. can do. At this time, when the loss function is estimated, this loss function is back-propagated and applied, so that the predicted label map generated again becomes closer to the actual label map.

상기와 같은 과정을 반복하면, 영상 처리부(3)에서 생성되는 예측 레이블 맵은 얻고자 하는 실측 레이블 맵에 최대한 가깝게 생성이 되는 것이고, 이러한 학습을 통해 보다 강인한 뇌신경망 구분이 이루어질 수 있는 것이다.If the above process is repeated, the predicted label map generated by the image processing unit 3 is generated as close as possible to the desired ground truth label map, and through this learning, a more robust brain neural network classification can be achieved.

여기서, 사용되는 손실함수는 평균 제곱 오차(Mean Squared Error, MSE) 손실함수와, 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE) 손실함수가 혼용될 수 있으며, 이들은 뇌신경망 구조에 따라 달리 사용될 수 있다.Here, the loss function used may be a mixture of the Mean Squared Error (MSE) loss function and the Adaptive Mean Squared Error (ADMSE) loss function, which may be used differently depending on the brain neural network structure. You can.

구체적으로 설명하면, MSE 손실함수는 비교적 명확히 구분되고 구조 사이에 틈이 거의 없는 뇌신경망 영상 이미지의 배경과 신경세포체 몸체에 대한 예측 레이블 맵에 적용될 수 있다. Specifically, the MSE loss function can be applied to the predicted label map for the background and neuron cell body of a brain neural network image that is relatively clearly distinguished and has few gaps between structures.

또한, ADMSE 손실함수는 MSE 손실함수에 픽셀 단위로 예측 값을 판단하여 생성된 가중치가 반영된 손실함수로서, 비교적 명확히 구분되지 않고 복잡하게 얽힌 수상돌기 및 축삭돌기에 대한 예측 레이블 맵에 적용될 수 있다.In addition, the ADMSE loss function is a loss function that reflects the weight generated by judging the prediction value on a pixel-by-pixel basis in the MSE loss function, and can be applied to the prediction label map for relatively undistinguished and complex dendrites and axons.

이러한, ADMSE 손실함수는 수상돌기 또는 축삭돌기에 대한 예측 레이블 맵의 레이블이 없는 픽셀에서, 예측 값이 더 높게 나타나는 경우 레이블이 있는 것으로 간주하여 가중치를 적용하며, 해당 픽셀에서의 학습을 억제하도록 형성될 수 있다.This ADMSE loss function is formed to suppress learning at an unlabeled pixel in the prediction label map for dendrites or axons by considering it as labeled if the prediction value is higher. It can be.

여기서 적용되는 가중치는 일 수 있으며, ADMSE 손실함수에 대한 설명은 후술하는 뇌신경망 구조 영상처리 방법에서 보다 구체적으로 설명하기로 한다.The weight applied here is It may be, and the ADMSE loss function will be explained in more detail in the brain neural network structure image processing method described later.

여기서, 번째 클래스의 예측 레이블 맵인 번째 픽셀 값을 의미하며, 는 손실함수에 적용되는 가중치의 정도를 제어하는 사용자 정의 매개 변수이고, 를 수정하기 위한 수렴 전의 학습 초기 단계에서 안정적인 수렴을 보장하기 위한 손실 함수에 추가된 상수 값이다.here, Is The predicted label map of the th class is of It means the second pixel value, is a user-defined parameter that controls the degree of weight applied to the loss function, Is It is a constant value added to the loss function to ensure stable convergence in the early stages of learning before convergence to correct .

한편, 영상 처리부(3)는 상술한 MSE 손실함수 및 ADMSE 손실함수 외에도 STPR 손실함수를 혼용할 수도 있다.Meanwhile, the image processing unit 3 may use the STPR loss function in addition to the MSE loss function and the ADMSE loss function described above.

STPR 손실함수는 본 발명의 뇌신경망 구조 영상 시스템이 뇌신경망 구조별로 예측 레이블 맵을 생성함에 따라 발생되는 예측 레이블 맵 간의 손실을 줄이기 위해 사용되는 손실함수이다.The STPR loss function is a loss function used to reduce the loss between prediction label maps that occurs as the brain neural network structure imaging system of the present invention generates prediction label maps for each brain network structure.

여기서, STPR 손실함수는 뇌신경망 구조의 사전 정보를 기초로 구조별 예측 레이블 맵 간의 손실을 MSE 손실함수로 줄이도록 형성될 수 있으며, 이를 통해 차후 통합된 뇌신경망 구조를 표현할 때 뇌신경망 구조 간의 중첩을 피하여 보다 정확한 뇌신경망 구조를 나타내도록 할 수 있다.Here, the STPR loss function can be formed to reduce the loss between the predicted label maps for each structure to the MSE loss function based on prior information of the brain neural network structure, and through this, when expressing the integrated brain network structure in the future, the overlap between brain neural network structures can be avoided to represent a more accurate brain neural network structure.

이러한, STPR 손실함수에 대한 설명도 후술하는 뇌신경망 구조 영상처리 방법에서 보다 구체적으로 설명하기로 한다.The STPR loss function will be explained in more detail in the brain neural network structure image processing method described later.

상술한 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템은, 뇌신경망 구조별로 분할하여 예측을 수행하고 학습하면서 MSE 손실함수, ADMSE 손실함수 및 STPR 손실함수를 적용하여 뇌신경망 구조별로 생성되는 각 예측 레이블 맵이 실측 레이블과 편차를 줄이도록 학습하고, 한편으론 분할된 뇌신경망 구조별 예측 레이블 맵 간의 손실을 줄임으로서, 다른 손실함수를 적용하는 뇌신경망 구조 영상처리 시스템 대비, 정확한 영상처리가 가능할 수 있다.The brain neural network structure image processing system according to the embodiment of the present invention described above divides each brain neural network structure, performs prediction, learns, and applies the MSE loss function, ADMSE loss function, and STPR loss function to generate each brain neural network structure. By learning to reduce the deviation of the predicted label map from the actual label and, on the other hand, reducing the loss between the predicted label maps for each segmented brain neural network structure, accurate image processing is possible compared to a brain neural network structure image processing system that applies a different loss function. You can.

도 2는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법 과정을 보여주는 개략도이며, 도 3은 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법의 흐름도이고, 도 4는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법이 진행되는 과정에서의 이미지 처리 변화를 상세히 보여주는 도면이다. 여기서 (a)는 입력 이미지, (b)는 부분적인 레이블 맵, (c)는 ADMSE 손실함수가 적용된 레이블 맵, (d)는 STPR 손실함수가 적용된 레이블 맵, (e)는 최종 결과 레이블 맵이다.Figure 2 is a schematic diagram showing the process of a brain neural network structure image processing method according to an embodiment of the present invention, Figure 3 is a flowchart of a brain neural network structure image processing method according to an embodiment of the present invention, and Figure 4 is an embodiment of the present invention. This is a diagram showing in detail the changes in image processing during the process of the brain neural network structure image processing method. Here, (a) is the input image, (b) is the partial label map, (c) is the label map to which the ADMSE loss function is applied, (d) is the label map to which the STPR loss function is applied, and (e) is the final result label map. .

도 2 내지 도 4를 참조하면, 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법 딥러닝을 활용한 영상처리 방법으로서, 분포 로부터 쌍을 이루는 랜덤 변수 (X, Y)를 사용하여 로 매개 변수화된 심층 신경망 에, 샘플 이미지 X ~ (여기서, 는 관찰된 이미지의 분포)를 입력하여 뇌신경망 구조를 나타내는 모든 클래스에 대한 응답 맵 Y ~ (여기서, 는 뇌신경망 구조 레이블의 분포)를 예측하도록 영상처리 하는 방법에 관한 것이다. Referring to Figures 2 to 4, an image processing method using deep learning, a brain neural network structure image processing method according to an embodiment of the present invention, distribution Using paired random variables (X, Y) from A deep neural network parameterized with , sample image (here, is the distribution of the observed images) as input, the response map Y for all classes representing the brain network structure. (here, is about an image processing method to predict the distribution of brain neural network structure labels.

이 과정에서 본 발명은 평균 제곱 오차(Mean Squared Error, MSE) 손실함수와, 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE) 손실함수를 사용하여 학습하면서 상기 응답 맵이 실측 이미지에 가장 가깝게 예측하도록 영상처리를 수행할 수 있다.In this process, the present invention uses the Mean Squared Error (MSE) loss function and the Adaptive Mean Squared Error (ADMSE) loss function to predict the response map closest to the ground truth image while learning. Image processing can be performed to do so.

여기서, 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE) 손실함수는 평균 제곱 오차(MSE) 손실함수에 픽셀 단위로 예측 값을 판단하여 생성한 가중치를 적용한 손실함수로서, 보다 상세한 설명은 후술하기로 한다.Here, the Adaptive Mean Squared Error (ADMSE) loss function is a loss function that applies a weight generated by determining the predicted value on a pixel basis to the Mean Squared Error (MSE) loss function. A more detailed explanation will be provided later. Do this.

보다 본 발명에 대해 구체적으로 살펴보면, 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법은, 뇌신경망 영상 이미지가 입력부(1)에 입력되는 단계(S10), 상기 입력된 뇌신경망 영상 이미지가 영상 처리부(3)로 전달되는 단계(S20), 상기 영상 처리부(3)로 전달된 뇌신경망 영상 이미지가 심층 신경망(20)을 통과하여 뇌신경망의 구조별로 예측 레이블 맵이 생성되는 단계(S30) 및 상기 영상 처리부(3)에서 상기 생성된 뇌신경망 구조별 예측 레이블 맵을 실측 레이블 맵 저장부(2)에 기저장된 뇌신경망 구조별 실측 레이블 맵과 비교하여 구조별로 각각 손실함수를 추정하고, 추정된 손실함수를 통해 학습하는 단계(S40)를 포함하여 구성될 수 있다.Looking at the present invention in detail, the brain neural network structure image processing method according to an embodiment of the present invention includes the step of inputting a brain neural network image image to the input unit 1 (S10), and the input brain neural network image image is converted into an image. A step of transmitting to the processing unit 3 (S20), a step of generating a predicted label map for each structure of the brain neural network by passing the brain neural network image transmitted to the image processing unit 3 through the deep neural network 20 (S30), and The image processing unit 3 compares the generated predicted label map for each brain neural network structure with the ground truth label map for each brain neural network structure previously stored in the ground truth label map storage unit 2 to estimate a loss function for each structure, and estimate the loss function for each structure. It may be configured to include a step (S40) of learning through a loss function.

즉, 본 발명은 딥러닝을 통한 영상처리 과정에서 심층 신경망으로 입력되는 뇌신경망 영상 이미지를 뇌신경망의 구조별로 예측 레이블 맵을 생성하도록 구성될 수 있다. That is, the present invention can be configured to generate a prediction label map for each structure of the brain neural network from a brain neural network image input to a deep neural network during image processing through deep learning.

여기서, 뇌신경망의 구조는 뇌신경망 영상 이미지의 배경(Background), 신경세포체 몸체(Cell body), 수상돌기(Dendrite), 축삭돌기(Axon)을 포함하여 이루어지므로, 상기 4개의 구조 각각에 대해 예측 레이블 맵을 생성할 수 있도록 구성되는 것이다.Here, the structure of the brain nerve network includes the background of the brain nerve network image image, nerve cell body, dendrites, and axon, so predictions are made for each of the four structures above. It is configured to create a label map.

이때, 각 예측 레이블 맵에 대해 각각 MSE 손실함수 또는 ADMSE 손실함수를 적용할 수 있다.At this time, the MSE loss function or the ADMSE loss function can be applied to each prediction label map.

구체적으로, MSE 손실함수는 비교적 구조가 뚜렷이 들어나는 뇌신경망 영상 이미지의 배경과 신경세포체 몸체에 대한 예측 레이블 맵에 사용되고, ADMSE 손실함수는 비교적 구조가 명확하지 않고 복잡하게 얽힌 수상돌기 및 축삭돌기에 대한 예측 레이블 맵에 사용될 수가 있다. Specifically, the MSE loss function is used for the background of the brain neural network image image and the predicted label map for the neuron cell body, which has a relatively clear structure, and the ADMSE loss function is used for the dendrites and axons that have a relatively unclear structure and are complex. It can be used in the prediction label map for

즉, 각 예측 레이블 맵을 순차적으로 0, 1, 2, 3으로 표시하고, 를 레이블 인덱스 세트로 정의하면 으로 정의되고, 비교적 구조가 명확한 뇌신경망 영상 이미지의 배경과 신경세포체 몸체에 대한 예측 레이블 맵 세트는 , 구조가 명확하지 않은 수상돌기 및 축삭돌기에 대한 예측 레이블 맵 세트는 , 로 정의될 수 있는 것이다.That is, each predicted label map is sequentially marked as 0, 1, 2, and 3, If we define as a set of label indices, we get Defined as , the set of predicted label maps for the background and neuronal cell body of the brain neural network image image with a relatively clear structure is , a set of predicted label maps for dendrites and axons with unclear structures is , It can be defined as .

그러나, 이는 바람직한 예시에 불과한 것으로 반드시 한정되는 사항은 아니며, 예측 레이블 맵에 대한 세트의 정의는 설정되는 기준에 따라 달라질 수 있다. 예컨대, 신경세포체 몸체가 수상돌기 또는 축삭돌기와 조합을 이룰 수도 있는 것이고, 뇌신경망 영상 이미지의 배경과 수상돌기 또는 축삭돌기가 서로 조합을 이룰 수도 있는 것이다. However, this is only a preferred example and is not necessarily limited, and the definition of the set for the prediction label map may vary depending on the criteria set. For example, the neuron cell body may be combined with dendrites or axons, and the background of the brain nerve network image may be combined with dendrites or axons.

한편, 상기와 같이 뇌신경망 구조별 즉, 부분적으로 예측 레이블 맵이 주어지면 레이블이 지정되지 않은 모든 픽셀을 배경(Background) 이미지로 취급할 수는 없다. 이 때문에 배경 이미지는 입력된 이미지에 강도 기반 임계 값(Intensity-based thresholding)을 적용하여 배경 이미지에 대한 레이블 를 생성할 수 있다.Meanwhile, if a partial prediction label map is given for each brain neural network structure as described above, all unlabeled pixels cannot be treated as background images. For this reason, the background image is labeled by applying intensity-based thresholding to the input image. can be created.

복잡한 수상돌기 또는 축삭돌기와 같은 예측 레이블 맵에 적용되는 손실함수인 ADMSE 손실함수는 아래에서 살펴보기로 한다.We will look at the ADMSE loss function below, which is a loss function applied to prediction label maps such as complex dendrites or axons.

먼저, ADMSE 손실함수의 바탕이 되는 MSE 손실함수(또는 평균 제곱 오차)는 예측 레이블 맵과 실측 레이블 맵 사이의 거리를 최소화하는 데 널리 사용되는 것으로, 공식은 하기 [수학식 1]과 같다. First, the MSE loss function (or mean square error), which is the basis of the ADMSE loss function, is widely used to minimize the distance between the predicted label map and the ground truth label map, and the formula is as follows [Equation 1].

[수학식 1][Equation 1]

여기서, 로 매개 변수화된 심층 신경망이며, X는 입력되는 이미지이고, Y는 실측 레이블 맵이다.here, Is It is a deep neural network parameterized with , where X is the input image and Y is the ground truth label map.

상기와 같은 MSE 손실은 의 의미에서 큰 오류에 효과적으로 패널티를 주지만 본 발명이 해결하려는 문제에서와 같이 훈련 데이터의 복잡성을 이루는 노이즈(noise)에 대해서는 탄력적이지 않다. The MSE loss as above is In the sense of , it effectively penalizes large errors, but is not resilient to noise that makes up the complexity of the training data, as in the problem that the present invention aims to solve.

이 때문에, 본 발명에서는 MSE 손실함수에 픽셀 수준의 역전파를 제어하기 위한 적응형 가중치가 적용되는 ADMSE 손실함수를 사용하여 구조적으로 복잡한 수상돌기 및 축삭돌기에 대한 예측 레이블 맵의 학습을 진행할 수 있다.For this reason, in the present invention, the prediction label map for structurally complex dendrites and axons can be learned using the ADMSE loss function in which adaptive weights are applied to the MSE loss function to control pixel-level backpropagation. .

구체적으로, 번째 클래스의 레이블 맵이고, 번째 픽셀 값이라 하면, 픽셀별 적응 가중치 함수 (·,·)를 사용하는 는 하기 [수학식 2]와 같이 정의될 수 있다.Specifically, cast is the label map of the th class, cast of As for the second pixel value, the adaptive weight function for each pixel is Using (·,·) Can be defined as [Equation 2] below.

[수학식 2][Equation 2]

이때, ADMSE 손실함수는 하기 [수학식 3]과 같이 구조적으로 복잡한 수상돌기 및 축삭돌기에 대한 예측 레이블 맵의 레이블이 없는 픽셀에서, 예측 값이 높게 나타나는 경우에는 레이블이 없는 픽셀이기 때문에 역전파 중에 가중치를 할당함으로써, 해당 픽셀에서의 학습을 억제하도록 할 수 있다.At this time, the ADMSE loss function is used in the unlabeled pixels of the prediction label map for structurally complex dendrites and axons as shown in [Equation 3] below. If the prediction value appears high, the ADMSE loss function is used during backpropagation because it is an unlabeled pixel. By assigning weights, learning at that pixel can be suppressed.

[수학식 3][Equation 3]

여기서 는 손실함수에 적용되는 가중치의 정도를 제어하는 사용자 정의 매개 변수이고, 를 수정하기 위한 수렴 전의 학습 초기 단계에서 안정적인 수렴을 보장하기 위한 손실 함수에 추가된 상수 값이다.here is a user-defined parameter that controls the degree of weight applied to the loss function, Is It is a constant value added to the loss function to ensure stable convergence in the early stages of learning before convergence to correct .

즉, 상기와 같이 픽셀에서 레이블이 없다면 예측 값에 따른 낮은 가중치를 적용한 ADMSE 손실함수를 사용하여 학습하고, 레이블이 있다면 MSE 손실함수로 학습시켜 복잡하게 구성된 레이블에서도 정확하게 영상을 처리할 수 있다.In other words, if there is no label in the pixel as above, it is trained using the ADMSE loss function applying a low weight according to the predicted value, and if there is a label, it is trained using the MSE loss function, so that the image can be accurately processed even with complex labels.

한편, 본 발명은 뇌신경망 영상 이미지가 구조별 예측 레이블 맵으로 생성된 후에 각각의 예측 레이블 맵 간의 손실을 줄이는 사전구조(Structure Prior, STPR) 손실함수를 적용하는 단계(S45)를 더 포함하여 구성될 수 있다.Meanwhile, the present invention further includes a step (S45) of applying a structure prior (STPR) loss function to reduce the loss between each prediction label map after the brain neural network image is generated as a prediction label map for each structure. It can be.

여기서, 사전구조 손실함수를 적용하는 단계(S45)는 바람직하게는 S40 단계와 동시에 진행될 수 있으나, S40 단계 이전이나 S40 단계 이후에 적용되는 것도 가능할 수 있다.Here, the step (S45) of applying the dictionary structure loss function may preferably be performed simultaneously with step S40, but it may also be applied before step S40 or after step S40.

즉, 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 방법은, 예측 레이블 맵과 실측 레이블 맵 간의 손실을 줄이는 ADMSE 손실함수 외에도 구조별로 예측 레이블 맵 간의 손실을 줄이는 사전구조(Structure Prior, STPR) 손실함수를 활용하여 보다 정확하게 뇌신경망 구조를 영상처리 할 수도 있다.That is, the brain neural network structure image processing method according to an embodiment of the present invention includes an ADMSE loss function that reduces the loss between the predicted label map and the ground truth label map, as well as a structure prior (STPR) loss function that reduces the loss between the predicted label maps for each structure. You can also use functions to more accurately process images of the brain neural network structure.

이를 위해, 본 발명은 먼저 신경 구조의 사전 정보가 저장될 수 있으며, 뇌신경망의 구조별 예측 레이블 맵을, 뇌신경망 구조의 바탕이 되는 첫번째 클래스 예측 레이블 맵 즉, 뇌신경망 영상 이미지의 배경(Background)에 대한 예측 레이블 맵에서 예측하여 추출할 수 있다.To this end, the present invention can first store prior information on the neural structure, and use a predicted label map for each structure of the brain neural network, and the first class predicted label map that is the basis of the brain neural network structure, that is, the background of the brain neural network image. ) can be extracted by predicting from the predicted label map.

즉, 첫번째 클래스 예측 레이블 맵()으로부터, 두번째()와, 세번째 또는 네번째()를 예측하여 추출하는 것이다.That is, the first class prediction label map ( ) from the second ( ) and the third or fourth ( ) is predicted and extracted.

이때, 도면에 도시된 바와 같이 예측된 레이블 맵 간에 MSE 손실함수를 활용하여 손실을 줄이는 STPR 손실함수를 통해 맵 간의 손실을 줄일 수 있는데, 이는 기저장된 신경 구조의 사전 정보를 기초로 하여 맵 간의 손실을 줄일 수 있다.At this time, as shown in the figure, the loss between maps can be reduced through the STPR loss function, which reduces the loss by utilizing the MSE loss function between the predicted label maps, which reduces the loss between maps based on prior information of the pre-stored neural structure. can be reduced.

이는, 주어진 픽셀 위치에 대해 올바른 클래스가 하나만 할당되어야 한다는 조건, 예를 들어 픽셀은 축삭돌기와 수상돌기가 동시에 속할 수 없기 때문에 적용되는 것으로, STPR 손실함수를 통해 뇌신경망의 구조별로 정확히 분류가 이루어질 수 있다.This applies to the condition that only one correct class must be assigned to a given pixel location, for example, a pixel cannot belong to both axons and dendrites at the same time. Accurate classification by structure of the brain neural network can be achieved through the STPR loss function. there is.

다시 말해, STPR 손실함수는 픽셀이 배경 또는 수상돌기일 확률이 높게 예측되는 경우, 픽셀이 신경세포체 몸체 또는 축삭돌기로 분류되지 않도록 제약할 수 있으며, 이와 같은 과정을 통해 부분적 레이블로부터 뇌신경망 구조에 대한 전체 레이블을 만들어 내면서 서로간 겹치지 않도록 예측 값 간의 정규화를 학습할 수 있다.In other words, the STPR loss function can constrain the pixel from being classified as a neuron cell body or an axon if the probability that the pixel is the background or a dendrite is predicted to be high, and through this process, the brain neural network structure can be determined from partial labels. Normalization between predicted values can be learned so that they do not overlap while generating an overall label for each variable.

이러한, STPR 손실함수는, 하기 수학식 4에 의해 정의될 수 있으며, 본 발명은 상술한 ADMSE 손실함수와 STPR 손실함수를 활용하며 정확도 높은 예측을 수행하여 실측 이미지에 최대한 가깝게 영상처리를 수행할 수 있다.This STPR loss function can be defined by Equation 4 below, and the present invention utilizes the above-described ADMSE loss function and STPR loss function to perform high-accuracy prediction to perform image processing as close to the actual image as possible. there is.

[수학식 4][Equation 4]

여기서,는 샘플이미지 이고, 이다.here, is a sample image, am.

상기 수학식 4는 한 픽셀이 동시에 수상 돌기와 축삭 돌기가 될 수 없기에 중 하나만 가질 수 있도록 정의되어, 각 픽셀은 정확히 하나의 레이블만을 가질 수 있음을 의미한다.Equation 4 above is because one pixel cannot be a dendrite and an axon at the same time. It is defined to have only one label, meaning that each pixel can have exactly one label.

아울러, 본 발명은 컴퓨터 판독가능 저장매체에 컴퓨터가 판독 가능한 코드를 저장하여 구현하는 것이 가능하다. 상기 컴퓨터 판독가능 저장매체는 컴퓨터 시스템에 의하여 판독될 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다.In addition, the present invention can be implemented by storing computer-readable code in a computer-readable storage medium. The computer-readable storage medium includes all types of storage devices that store data that can be read by a computer system.

상기 컴퓨터가 판독 가능한 코드는, 상기 컴퓨터 판독가능 저장매체로부터 입력부(1)로부터 영상 처리부(3)에 의하여 영상 처리될 때, 본 발명에 따른 뇌신경망 구조 영상처리 방법을 구현하는 단계들을 수행하도록 구성된다. 상기 컴퓨터가 판독 가능한 코드는 다양한 프로그래밍 언어들로 구현될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 통상의 기술자들에 의하여 용이하게 프로그래밍될 수 있다.The computer-readable code is configured to perform steps for implementing the brain neural network structure image processing method according to the present invention when an image is processed by the image processor 3 from the input unit 1 from the computer-readable storage medium. do. The computer-readable code may be implemented in various programming languages. And functional programs, codes and code segments for implementing the present invention can be easily programmed by those skilled in the art to which the present invention pertains.

컴퓨터 판독 가능 저장 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 반송파(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터 판독가능 저장매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다.Examples of computer-readable storage media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage, and also include those implemented in the form of carrier waves (e.g., transmitted via the Internet). Additionally, the computer-readable storage medium can be distributed across networked computer systems, so that computer-readable code can be stored and executed in a distributed manner.

이하, 본 발명의 뇌신경망 구조 영상처리 시스템 및 방법에 대해 보다 구체적으로 설명하는 하기 실험예를 제시하나, 하기 실험예는 본 발명의 이해를 돕기 위해 예시하는 것일 뿐, 본 발명이 하기 실험예에 대한 내용에 한정되는 것은 아니다.Hereinafter, the following experimental examples are presented to explain in more detail the brain neural network structure image processing system and method of the present invention. However, the following experimental examples are only illustrative to aid understanding of the present invention, and the present invention is in the following experimental examples. It is not limited to the content.

[실험 예][Experiment example]

[실험 조건][Experimental conditions]

본 실험에 사용된 뉴런 이미지 데이터는 총 23개의 단일 세포와 전체 레이블이 있는 3개의 테스트 세트의 합으로부터 부분 주석이 포함되어 쌍을 이루는 학습 데이터로 구성된다. 또한, 각 뉴런 이미지는 128 X 128 크기의 작은 부분들로 나뉘는 1024 X 1024 사이즈를 가지며, 완전히 비어있는 배경(Background) 부분은 버리고 로테이션(rotation) 및 플리핑(flipping)을 사용하여 데이터 증가를 적용했다.The neuron image data used in this experiment consists of a total of 23 single cells and paired training data with partial annotations from the sum of three fully labeled test sets. Additionally, each neuron image has a size of 1024 did.

여기서, 수상돌기의 픽셀 레이블 수가 축삭돌기의 픽셀 레이블 수보다 약 5배가 많았기 때문에 클래스 불균형 문제를 방지하기 위해 축삭돌기의 레이블에 오버 샘플링을 적용했다.Here, because the number of pixel labels in dendrites was approximately 5 times greater than the number of pixel labels in axons, oversampling was applied to the labels in axons to prevent class imbalance problems.

본 실험에서 제안된 네트워크는 ResNet-34 백본 인코더를 사용하는 기존 U-Net을 기반으로 하며, 초기 학습률이 3e-3이고 랜덤 배치 크기가 300인 Adam Optimizer를 사용하여 모델을 훈련하며, 코사인 어닐링(cosine annealing) 방법을 사용하여 3e-4의 학습률로 점진적으로 줄였다.The network proposed in this experiment is based on the existing U-Net using the ResNet-34 backbone encoder, the model is trained using Adam Optimizer with an initial learning rate of 3e-3 and a random batch size of 300, and cosine annealing ( The learning rate was gradually reduced to 3e-4 using the cosine annealing method.

또한, 입력 이미지에 대해서는 임계 값을 0.3으로 설정하여 배경 이미지 를 생성하였으며, 손실함수에 적용되는 가중치의 정도를 제어하는 사용자 정의 매개 변수인 는 0.01을 구조적으로 복잡한 레이블에 적용하고, 를 수정하기 위한 수렴 전의 학습 초기 단계에서 안정적인 수렴을 보장하기 위한 손실 함수에 추가된 상수 값인 는 0.03을 적용하여, 초기 학습에서 수렴시켰으며, 10 겹의 교차 검증을 통해 실험을 수행하였다.Additionally, for the input image we set the threshold to 0.3 so that the background image was created, a user-defined parameter that controls the degree of weight applied to the loss function. applies 0.01 to structurally complex labels, is a constant value added to the loss function to ensure stable convergence in the early stages of learning before convergence to correct . was converged in initial learning by applying 0.03, and the experiment was performed through 10-fold cross-validation.

[실험 평가][Experimental Evaluation]

부분 레이블에 대한 효능을 입증하기 위해 뇌신경망 구조를 MSE 손실함수, NCE 손실함수, APL 손실함수, RCE 손실함수, NR-Dice 손실함수로 각각 영상처리 방법을 대조군으로 설정하여 비교하였다.To prove the efficacy of partial labels, the brain neural network structure was compared with the MSE loss function, NCE loss function, APL loss function, RCE loss function, and NR-Dice loss function, with each image processing method set as a control group.

각 방법들에 대한 성능을 정량적으로 평가하기 위해 IoU (Intersection over Union), F1 스코어, ClDice와 같은 이미지 세분화에 일반적으로 사용되는 세가지 오류 메트릭을 사용했다.To quantitatively evaluate the performance of each method, we used three error metrics commonly used in image segmentation: Intersection over Union (IoU), F1 score, and ClDice.

[결과 및 고찰][Results and Discussion]

다양한 손실함수 적용에 따른 뇌신경망 구조의 영상처리 방법에 대한 비교 결과는 도 5 및 도 6에 도시되었다. 도 5는 훈련 이미지의 결과를 나타낸 것이고, 도 6은 테스트 이미지의 결과를 나타낸 것이다.The comparative results of image processing methods of the brain neural network structure according to the application of various loss functions are shown in Figures 5 and 6. Figure 5 shows the results of the training image, and Figure 6 shows the results of the test image.

도 5 및 도 6에서 볼 수 있듯이 MSE 손실함수는 불완전한 결과를 생성했고, 다른 손실함수는 MSE 손실함수에 비해 약간의 개선을 보였지만 본 발명의 영상처리 방법에서와 같이 정확한 결과를 생성한 것은 없었다.As can be seen in Figures 5 and 6, the MSE loss function produced incomplete results, and other loss functions showed some improvement compared to the MSE loss function, but none produced accurate results like the image processing method of the present invention.

또한, 다른 손실함수들은 부분적인 레이블로 인해 학습 도중에 축삭돌기에 대해 배우지 못했지만 본 발명에서 사용되는 손실함수들은 대부분의 축삭돌기를 올바르게 재구성하였다. 이는, 다른 손실함수들은 레이블이 지정되지 않은 픽셀은 음의 레이블로 작용하기 때문인 것으로 판단된다.Additionally, other loss functions did not learn about axons during training due to partial labels, but the loss functions used in the present invention correctly reconstructed most axons. This is believed to be because other loss functions treat unlabeled pixels as negative labels.

도 7에 도시된 표 1은 IoU, 정밀도(Precision), 재현율(Recall), F1 스코어 및 ClDice 메트릭을 사용하여 측정된 분할 정확도를 다른 대조군들과 비교하여 보여주는 표이다. 이 표의 마지막 세 행은 본 발명에서 제안된 손실 함수의 연구 결과를 보여준다.Table 1 shown in Figure 7 is a table showing the segmentation accuracy measured using IoU, Precision, Recall, F1 score, and ClDice metrics compared to other control groups. The last three rows of this table show the research results of the loss function proposed in the present invention.

이 결과에서 축삭 돌기는 0.0954와 0.1676으로 다른 클래스보다 MSE 및 노이즈 로버스트 손실 함수에 대해 극도로 낮은 재현율 값을 보이는 것을 확인할 수 있다.From these results, it can be seen that axons show extremely low recall values for MSE and noise robust loss functions compared to other classes, at 0.0954 and 0.1676.

그러나, ADMSE 및 STPR 손실함수는 레이블 노이즈에 더 탄력적이며 재현율을 최대 0.5731을 달성한 것을 확인할 수 있다. However, it can be seen that the ADMSE and STPR loss functions are more resilient to label noise and achieve a recall rate of up to 0.5731.

또한, 본 발명의 실시 예에 따른 영상처리 방법은 구조의 선형성을 평가하는 ClDice 메트릭이 다른 방법보다 성능이 훨씬 뛰어나며 이를 통해, 본 발명의 실시 예에 따라 적용되는 ADMSE 및 STPR 손실함수가 다른 손실함수보다 뇌신경망 분할에 더 잘 맞다는 것을 보여준다.In addition, the image processing method according to the embodiment of the present invention has a ClDice metric that evaluates the linearity of the structure, which has much better performance than other methods, and through this, the ADMSE and STPR loss functions applied according to the embodiment of the present invention are different loss functions. It shows that it is better suited to brain neural network segmentation.

결과적으로, ADMSE 및 STPR 손실함수를 사용하는 본 발명의 실시 예에 따른 뇌신경망 구조 영상처리 시스템 및 방법은 다양한 세분화 품질 메트릭에서 최첨단 노이즈 로버스트 손실함수를 능가하는 것을 확인할 수 있고, 특히 ClDice 점수가 가장 우수하여 뇌신경망 분할 문제에 보다 효과적이라는 것을 확인할 수 있었다.As a result, it can be confirmed that the brain neural network structure image processing system and method according to an embodiment of the present invention using ADMSE and STPR loss functions surpass the state-of-the-art noise robust loss function in various segmentation quality metrics, and in particular, the ClDice score It was confirmed to be the best and more effective in brain neural network segmentation problems.

이상으로 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시할 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.Although embodiments of the present invention have been described above with reference to the attached drawings, those skilled in the art will understand that the present invention can be implemented in other specific forms without changing the technical idea or essential features of the present invention. You will be able to understand it. Therefore, the embodiments described above are illustrative in all respects and are not restrictive.

1 : 입력부
2 : 실측 레이블 맵 저장부
3 : 영상 처리부
5 : 영상 촬영장치
10 : 입력 이미지
20 : 심층 신경망
30 : 예측 레이블 맵
30a : 배경 예측 레이블 맵
30b : 신경세포체 몸체 예측 레이블 맵
30c : 수상돌기 예측 레이블 맵
30d : 축삭돌기 예측 레이블 맵
40 : 실측 레이블 맵
40a : 배경 실측 레이블 맵
40b : 신경세포체 몸체 실측 레이블 맵
40c : 수상돌기 실측 레이블 맵
40d : 축삭돌기 실측 레이블 맵
A1 : MSE 손실함수
A2 : ADMSE 손실함수
A3 : SPTR 손실함수
C : 신경세포체 몸체
D : 수상돌기
A : 축삭돌기
1: input part
2: Ground truth label map storage unit
3: Image processing unit
5: Video recording device
10: input image
20: Deep neural network
30: Predicted label map
30a: Background prediction label map
30b: Neuron cell body prediction label map
30c: Dendrite prediction label map
30d: Axon prediction label map
40: Ground truth label map
40a: Background ground truth label map
40b: Neuron cell body ground truth label map
40c: Dendrite ground truth label map
40d: Axon actual label map
A1: MSE loss function
A2: ADMSE loss function
A3: SPTR loss function
C: Neuron cell body
D: dendrites
A: axon

Claims (10)

뇌신경망 영상 촬영장치와 연동되어 뇌신경망 영상 이미지가 입력되는 입력부;
뇌신경망의 학습에 대조군으로 사용하기 위한 뇌신경망의 실측 이미지인 실측 레이블 맵이 구조별로 저장된 실측 레이블 맵 저장부 및
심층 신경망이 구비되어 상기 입력부에 입력된 뇌신경망 영상 이미지를 뇌신경망 구조별로 분할하여 예측 레이블 맵을 생성하며, 각 구조별 예측 레이블 맵을 상기 실측 레이블 맵 저장부에 기저장된 구조별 실측 레이블 맵과 편차를 줄이도록 손실함수를 적용하여 학습하면서 영상 처리하는 영상처리부를 포함하고,
상기 영상 처리부는,
상기 뇌신경망의 구조별로 분할된 예측 레이블 맵 간의 손실을 줄이는 사전 구조(Structure Prior, STPR) 손실함수를 적용하는 뇌신경망 구조 영상처리 시스템.
An input unit for inputting a brain nerve network image in conjunction with a brain nerve network imaging device;
A ground truth label map storage unit in which a ground truth label map, which is a ground truth image of a brain neural network to be used as a control for learning a brain neural network, is stored for each structure;
A deep neural network is provided to generate a predicted label map by dividing the brain neural network image input into the input unit by brain neural network structure, and combines the predicted label map for each structure with the ground truth label map for each structure pre-stored in the ground truth label map storage unit. It includes an image processing unit that processes images while learning by applying a loss function to reduce deviation,
The image processing unit,
A brain neural network structure image processing system that applies a structure prior (STPR) loss function that reduces the loss between prediction label maps divided by the structure of the brain neural network.
제 1 항에 있어서,
상기 뇌신경망의 구조는,
상기 뇌신경망 영상 이미지의 배경, 신경세포체 몸체, 수상돌기, 축삭돌기를 포함하는 뇌신경망 구조 영상처리 시스템.
According to claim 1,
The structure of the brain neural network is,
A brain nerve network structure image processing system including the background, nerve cell body, dendrites, and axons of the brain nerve network image image.
제 2 항에 있어서,
상기 손실함수의 적용은,
상기 뇌신경망 영상 이미지의 배경 및 신경세포체 몸체에 대한 예측 레이블 맵에는 평균 제곱 오차(Mean Squared Error, MSE) 손실함수를 적용하며,
상기 수상돌기 및 축삭돌기에 대한 예측 레이블 맵에는 상기 평균 제곱 오차 손실함수에 픽셀 단위로 예측 값을 판단하여 생성된 가중치가 반영된 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE) 손실함수를 적용하는 것을 특징으로 하는 뇌신경망 구조 영상처리 시스템.
According to claim 2,
Application of the above loss function is,
A mean squared error (MSE) loss function is applied to the predicted label map for the background and neuron cell body of the brain neural network image image,
To the predicted label map for the dendrites and axons, an adaptive mean squared error (ADMSE) loss function is applied to the mean squared error loss function, in which weights generated by determining the prediction value on a pixel basis are reflected. A brain neural network structure image processing system characterized by:
삭제delete 제 1 항에 있어서,
상기 STPR 손실함수는,
뇌신경망 구조의 사전 정보를 기초로 뇌신경망의 구조별 예측 레이블 맵 간의 손실을 MSE 손실함수를 활용하여 줄이는 것을 특징으로 하는 뇌신경망 구조 영상처리 시스템.
According to claim 1,
The STPR loss function is,
A brain neural network structure image processing system that reduces the loss between predicted label maps for each structure of the brain neural network based on prior information of the brain neural network structure by using the MSE loss function.
뇌신경망 영상 이미지가 입력부에 입력되는 단계;
상기 입력된 뇌신경망 영상 이미지가 영상 처리부로 전달되는 단계;
상기 영상 처리부로 전달된 뇌신경망 영상 이미지가 심층 신경망을 통과하여 뇌신경망의 구조별로 예측 레이블 맵이 생성되는 단계 및
상기 영상 처리부에서 상기 생성된 뇌신경망 구조별 예측 레이블 맵을 실측 레이블 맵 저장부에 기저장된 뇌신경망 구조별 실측 레이블 맵과 비교하여 구조별로 각각 손실함수를 추정하고, 추정된 손실함수를 적용하여 학습하는 단계를 포함하고,
상기 손실함수의 적용은,
상기 뇌신경망의 구조별로 분할된 예측 레이블 맵 간의 손실을 줄이는 사전 구조(Structure Prior, STPR) 손실함수를 적용하는 것인 뇌신경망 구조 영상처리 방법.
Inputting a brain neural network image to an input unit;
transmitting the input brain neural network image to an image processing unit;
A step in which the brain neural network image transmitted to the image processing unit passes through a deep neural network to generate a predicted label map for each structure of the brain neural network;
The image processing unit compares the generated predicted label map for each brain neural network structure with the ground truth label map for each brain neural network structure previously stored in the ground truth label map storage, estimates a loss function for each structure, and applies the estimated loss function to learn. Including the steps of:
Application of the above loss function is,
A brain neural network structure image processing method that applies a structure prior (STPR) loss function that reduces the loss between prediction label maps divided by the structure of the brain neural network.
제 6 항에 있어서,
상기 뇌신경망의 구조는,
상기 뇌신경망 영상 이미지의 배경, 신경세포체 몸체, 수상돌기, 축삭돌기를 포함하는 뇌신경망 구조 영상처리 방법.
According to claim 6,
The structure of the brain neural network is,
A method of image processing of a brain nerve network structure including the background, nerve cell body, dendrites, and axons of the brain nerve network image image.
제 7 항에 있어서,
상기 손실함수의 적용은,
상기 뇌신경망 영상 이미지의 배경 및 신경세포체 몸체에 대한 예측 레이블 맵에는 평균 제곱 오차(Mean Squared Error, MSE) 손실함수를 적용하며,
상기 수상돌기 및 축삭돌기에 대한 예측 레이블 맵에는 상기 평균 제곱 오차 손실함수에 픽셀 단위로 예측 값을 판단하여 생성된 가중치가 반영된 적응형 평균 제곱 오차(Adaptive Mean Squared Error, ADMSE) 손실함수를 적용하는 것을 특징으로 하는 뇌신경망 구조 영상처리 방법.
According to claim 7,
Application of the above loss function is,
A mean squared error (MSE) loss function is applied to the predicted label map for the background and neuron cell body of the brain neural network image image,
To the predicted label map for the dendrites and axons, an adaptive mean squared error (ADMSE) loss function is applied to the mean squared error loss function, in which weights generated by determining the prediction value on a pixel basis are reflected. A brain neural network structure image processing method characterized by:
삭제delete 제 6 항에 따른 뇌신경망 구조 영상 처리 방법을 제공하는, 컴퓨터 프로그램이 기록된 컴퓨터로 판독가능한 기록매체.A computer-readable recording medium on which a computer program is recorded, providing a method for processing images of a brain neural network structure according to claim 6.
KR1020200188436A 2020-11-24 2020-12-30 Brain Neural Network Structure Image Processing System, Brain Neural Network Structure Image Processing Method, and a computer-readable storage medium KR102635484B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200158604 2020-11-24
KR1020200158604 2020-11-24

Publications (2)

Publication Number Publication Date
KR20220072693A KR20220072693A (en) 2022-06-02
KR102635484B1 true KR102635484B1 (en) 2024-02-14

Family

ID=81985378

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200188436A KR102635484B1 (en) 2020-11-24 2020-12-30 Brain Neural Network Structure Image Processing System, Brain Neural Network Structure Image Processing Method, and a computer-readable storage medium

Country Status (1)

Country Link
KR (1) KR102635484B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116350227B (en) * 2023-05-31 2023-09-22 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) Individualized detection method, system and storage medium for magnetoencephalography spike

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018200493A1 (en) * 2017-04-25 2018-11-01 The Board Of Trustees Of The Leland Stanford Junior University Dose reduction for medical imaging using deep convolutional neural networks
KR102146973B1 (en) * 2018-11-21 2020-08-28 광운대학교 산학협력단 Apparatus and method for learning user's operation intention using artificial neural network
KR102207824B1 (en) * 2019-03-05 2021-01-26 뉴로핏 주식회사 Method and apparatus for brain image correction using brain structure

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Andrew Beers 외, DeepNeuro: an open-source deep learning toolbox for neuroimaging, arXiv, 2018.08.14., pp.1-15.
Philipp J. Schubert 외, Learning cellular morphology with neural networks, Nature Communications, 2019.06.21., Vol.10, No.2736, pp.1-12.*
Sahand Saberi-Bosari 외, Deep learning-enabled analysis reveals distinct neuronal phenotypes induced by aging and cold-shock, BMC Biology, 2020.09.23., Vol.18, No.130, pp.1-18.

Also Published As

Publication number Publication date
KR20220072693A (en) 2022-06-02

Similar Documents

Publication Publication Date Title
US20230229901A1 (en) Artificial neural network architectures based on synaptic connectivity graphs
US20230229891A1 (en) Reservoir computing neural networks based on synaptic connectivity graphs
WO2021138083A1 (en) Neural architecture search based on synaptic connectivity graphs
DE112020000584T5 (en) PROCEDURE FOR UNSUITIZED PICTURE-TO-PICTURE TRANSLATION WITH FEW IMAGES
Becerra et al. Neural and wavelet network models for financial distress classification
Jang et al. Noise-trained deep neural networks effectively predict human vision and its neural responses to challenging images
WO2021138082A1 (en) Training artificial neural networks based on synaptic connectivity graphs
WO2021138085A1 (en) Predicting neuron types based on synaptic connectivity graphs
EP3877907A1 (en) Systems and methods for training an autoencoder neural network using sparse data
Suganthe et al. Diagnosis of Alzheimer's disease from brain magnetic resonance imaging images using deep learning algorithms
CN111079805A (en) Abnormal image detection method combining attention mechanism and information entropy minimization
KR102635484B1 (en) Brain Neural Network Structure Image Processing System, Brain Neural Network Structure Image Processing Method, and a computer-readable storage medium
Scholl et al. The information theory of developmental pruning: Optimizing global network architectures using local synaptic rules
CN116912568A (en) Noise-containing label image recognition method based on self-adaptive class equalization
CN110569880A (en) Method for decoding visual stimulation by using artificial neural network model
US20220284288A1 (en) Learning from biological systems how to regularize machine-learning
CN113887559A (en) Brain-computer information fusion classification method and system for brain off-loop application
Feather et al. Model metamers reveal divergent invariances between biological and artificial neural networks
US20220138583A1 (en) Human characteristic normalization with an autoencoder
CN116665039A (en) Small sample target identification method based on two-stage causal intervention
He et al. Salient region segmentation
CN116310473A (en) Quantum neural network image classification method based on error mitigation
Sachnev An efficient classification scheme for ADHD problem based on Binary Coded Genetic Algorithm and McFIS
CN114140645A (en) Photographic image aesthetic style classification method based on improved self-supervision feature learning
Alaba Image classification using different machine learning techniques

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant