KR102597647B1 - Method for outputting classification information based on artificial neural network and apparatus therefor - Google Patents
Method for outputting classification information based on artificial neural network and apparatus therefor Download PDFInfo
- Publication number
- KR102597647B1 KR102597647B1 KR1020210184015A KR20210184015A KR102597647B1 KR 102597647 B1 KR102597647 B1 KR 102597647B1 KR 1020210184015 A KR1020210184015 A KR 1020210184015A KR 20210184015 A KR20210184015 A KR 20210184015A KR 102597647 B1 KR102597647 B1 KR 102597647B1
- Authority
- KR
- South Korea
- Prior art keywords
- classification
- image data
- information
- model
- feature vector
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000013528 artificial neural network Methods 0.000 title description 21
- 230000011218 segmentation Effects 0.000 claims abstract description 92
- 238000013145 classification model Methods 0.000 claims abstract description 88
- 239000013598 vector Substances 0.000 claims abstract description 78
- 206010072731 White matter lesion Diseases 0.000 claims abstract description 20
- 239000000284 extract Substances 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 238000002595 magnetic resonance imaging Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 20
- 201000004810 Vascular dementia Diseases 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 208000026106 cerebrovascular disease Diseases 0.000 description 10
- 238000011176 pooling Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000000605 extraction Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 6
- 238000009826 distribution Methods 0.000 description 5
- 238000007637 random forest analysis Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 210000001519 tissue Anatomy 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000005415 magnetization Effects 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 206010012289 Dementia Diseases 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000003066 decision tree Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000002490 cerebral effect Effects 0.000 description 2
- 206010008118 cerebral infarction Diseases 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 229910052739 hydrogen Inorganic materials 0.000 description 2
- 239000001257 hydrogen Substances 0.000 description 2
- 238000002075 inversion recovery Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000002600 positron emission tomography Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 208000024827 Alzheimer disease Diseases 0.000 description 1
- 206010003658 Atrial Fibrillation Diseases 0.000 description 1
- 201000006474 Brain Ischemia Diseases 0.000 description 1
- 208000014644 Brain disease Diseases 0.000 description 1
- 206010051290 Central nervous system lesion Diseases 0.000 description 1
- 206010008111 Cerebral haemorrhage Diseases 0.000 description 1
- 206010008120 Cerebral ischaemia Diseases 0.000 description 1
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 1
- UFHFLCQGNIYNRP-UHFFFAOYSA-N Hydrogen Chemical compound [H][H] UFHFLCQGNIYNRP-UHFFFAOYSA-N 0.000 description 1
- 208000035150 Hypercholesterolemia Diseases 0.000 description 1
- 206010020772 Hypertension Diseases 0.000 description 1
- 208000018262 Peripheral vascular disease Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 125000004429 atom Chemical group 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000005013 brain tissue Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 210000001175 cerebrospinal fluid Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 238000001493 electron microscopy Methods 0.000 description 1
- 210000003743 erythrocyte Anatomy 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000003925 fat Substances 0.000 description 1
- 238000005534 hematocrit Methods 0.000 description 1
- 230000002008 hemorrhagic effect Effects 0.000 description 1
- 230000023597 hemostasis Effects 0.000 description 1
- 125000004435 hydrogen atom Chemical class [H]* 0.000 description 1
- 230000000302 ischemic effect Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 208000010125 myocardial infarction Diseases 0.000 description 1
- 230000000926 neurological effect Effects 0.000 description 1
- 230000000771 oncological effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 102000004169 proteins and genes Human genes 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4088—Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
- A61B5/0042—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R33/00—Arrangements or instruments for measuring magnetic variables
- G01R33/20—Arrangements or instruments for measuring magnetic variables involving magnetic resonance
- G01R33/44—Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
- G01R33/48—NMR imaging systems
- G01R33/54—Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
- G01R33/56—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R33/00—Arrangements or instruments for measuring magnetic variables
- G01R33/20—Arrangements or instruments for measuring magnetic variables involving magnetic resonance
- G01R33/44—Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
- G01R33/48—NMR imaging systems
- G01R33/54—Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
- G01R33/56—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
- G01R33/5608—Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Artificial Intelligence (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Neurology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Primary Health Care (AREA)
- High Energy & Nuclear Physics (AREA)
- Epidemiology (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Physiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Databases & Information Systems (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Neurosurgery (AREA)
Abstract
다양한 실시예에 따른 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법 및 이를 위한 장치가 개시된다. 상기 이미지 데이터를 입력 받는 단계, 및 파제카스 (Fazekas) 분류 모델에 상기 이미지 데이터를 입력하여 상기 분류 정보를 출력하는 단계를 포함하고, 상기 파제카스 분류 모델은 상기 이미지 데이터로부터 추출된 제1 특징 벡터에 WMH (white matter hyperintensity) 세그먼테이션 정보를 연결 (concatenation)한 제2 특징 벡터에 기초하여 상기 분류 정보를 출력할 수 있는 방법 및 장치가 개시된다.A method for a computing device to output classification information about image data according to various embodiments and a device therefor are disclosed. A step of receiving the image data, and inputting the image data into a Fazekas classification model to output the classification information, wherein the Fazekas classification model includes a first feature vector extracted from the image data. A method and apparatus for outputting the classification information based on a second feature vector concatenated with white matter hyperintensity (WMH) segmentation information are disclosed.
Description
인공 신경망에 기반하여 분류 정보를 출력하는 방법으로써, 구체적으로 파제카스 분류 모델 및 세그먼테이션 모델을 동시에 학습시켜 상기 분류 정보를 출력하는 방법 및 이를 위한 장치에 대한 것이다.A method of outputting classification information based on an artificial neural network, specifically, a method of simultaneously learning a Fazecas classification model and a segmentation model to output the classification information, and a device therefor.
혈관성 치매는 뇌혈관 질환으로 인해 뇌조직의 손상이 초래되어 나타나는 치매로 분류될 수 있다. 뇌혈관 질환은 발생기전에 따라서는 뇌혈관이 막혀 발생하는 허혈성 뇌혈관 질환 (뇌경색 또는 뇌 허혈 상태)과 뇌혈관이 터져서 생기는 출혈성 뇌혈관 질환(뇌출혈)으로 나눌 수 있다. 일반적으로, 뇌혈관 질환이 반복해서 발생함으로써 혈관성 치매가 생기는 경우가 많지만, 예외적으로 뇌혈관 질환이 주요 뇌 부위에 단 한 차례 발생함으로써 치매 증상이 생길 수 있다.Vascular dementia can be classified as dementia that occurs due to damage to brain tissue due to cerebrovascular disease. Depending on the mechanism of occurrence, cerebrovascular disease can be divided into ischemic cerebrovascular disease (cerebral infarction or cerebral ischemia), which is caused by blockage of cerebral blood vessels, and hemorrhagic cerebrovascular disease (cerebral hemorrhage), which is caused by rupture of cerebral blood vessels. In general, vascular dementia is often caused by repeated occurrences of cerebrovascular disease, but in exceptional cases, dementia symptoms can occur when cerebrovascular disease occurs only once in a major brain region.
혈관성 치매에서 중요한 사실은 알츠하이머병 등 다른 치매 원인에 비해 예방 가능성이 높다는 점이다. 즉, 뇌혈관 질환에 대한 위험인자가 비교적 잘 알려져 있으며 이들 위험인자를 교정하거나 조절함으로써 일차적으로 뇌혈관 질환을 줄일 수 있고, 결과적으로 혈관성 치매의 발생도 예방할 수 있다. 뇌혈관 질환 및 혈관성 치매의 대표적인 위험 요인들로는 고혈압, 흡연, 심근경색, 심방세동, 당뇨병, 고콜레스테롤혈증 등이 있다. 그 밖에도 혈액 중 적혈구 용적 (헤마토크리트)의 상승, 지혈 이상, 말초혈관 질환, 과다한 알코올 섭취 등의 관련성도 시사되고 있다.The important thing about vascular dementia is that it is more preventable than other causes of dementia, such as Alzheimer's disease. In other words, the risk factors for cerebrovascular disease are relatively well known, and by correcting or controlling these risk factors, cerebrovascular disease can be primarily reduced and, as a result, the occurrence of vascular dementia can be prevented. Representative risk factors for cerebrovascular disease and vascular dementia include high blood pressure, smoking, myocardial infarction, atrial fibrillation, diabetes, and hypercholesterolemia. In addition, associations with increased red blood cell volume (hematocrit), abnormal hemostasis, peripheral vascular disease, and excessive alcohol consumption have also been suggested.
이와 같은 혈관성 치매에 대한 조기 진단은 신경망 모델에 기반한 뇌에 대한 의료 이미지에 대한 분류, 객체 검출, 객체 경계의 추출, 서로 다른 영상의 정합을 통해 수행될 수 있다. 여기서, 신경망 모델(Neural Network model)은 생물학에서의 뉴런 구조로부터 착안된 지도 학습(supervised learning) 알고리즘이다. 신경망 모델의 기본적인 작동 원리는 여러 개의 뉴런들을 상호 연결하여 입력값에 대한 최적의 출력값을 예측하는 것이다. 통계적인 관점에서 보면 신경망 모델은 입력 변수의 선형 결합에 비선형 함수를 취하는 사영추적회귀로 볼 수 있다. 특히, 의료 이미지에서의 상술한 객체 등 특징의 추출은 컨볼루션 신경망(Convolution neural networks; CNN)가 가장 많이 활용되고 있다.
- 선행기술문헌 : 국내공개공보 10-2017-0144393호Such early diagnosis of vascular dementia can be performed through classification of medical images of the brain based on a neural network model, object detection, extraction of object boundaries, and registration of different images. Here, the neural network model is a supervised learning algorithm inspired from the structure of neurons in biology. The basic operating principle of a neural network model is to predict the optimal output value for input values by interconnecting multiple neurons. From a statistical perspective, a neural network model can be viewed as a projective trace regression that takes a non-linear function to a linear combination of input variables. In particular, convolution neural networks (CNN) are most widely used to extract features such as the above-mentioned objects from medical images.
- Prior art literature: Domestic Publication No. 10-2017-0144393
해결하고자 하는 과제는 세그먼테이션 모델에서 출력된 이미지 데이터에 대한 정량적 특징을 추가적으로 고려한 파제카스 분류 모델의 분류 정보에 기초하여 세그먼테이션 모델 및 파제카스 분류 모델을 동시 학습시켜 두 모델의 분류 성능 및 견고성을 확보할 수 있는 방법 및 장치를 제공하는 것이다.The task to be solved is to secure the classification performance and robustness of the two models by simultaneously learning the segmentation model and the Fazecas classification model based on the classification information of the Fazecas classification model that additionally considers the quantitative characteristics of the image data output from the segmentation model. To provide a method and device that can
기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those skilled in the art from the description below.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.The characteristic configuration of the present invention for achieving the purpose of the present invention as described above and realizing the characteristic effects of the present invention described later is as follows.
일 측면에 따른, 컴퓨팅 장치가 이미지 데이터에 대한 분류 정보를 출력하는 방법은 상기 이미지 데이터를 입력 받는 단계, 및 파제카스 (Fazekas) 분류 모델에 상기 이미지 데이터를 입력하여 상기 분류 정보를 출력하는 단계를 포함하고, 상기 파제카스 분류 모델은 상기 이미지 데이터로부터 추출된 제1 특징 벡터에 WMH (white matter hyperintensity) 세그먼테이션 정보를 연결 (concatenation)한 제2 특징 벡터에 기초하여 상기 분류 정보를 출력할 수 있다.According to one aspect, a method for a computing device to output classification information about image data includes receiving the image data, and inputting the image data into a Fazekas classification model to output the classification information. Including, the Fazecas classification model may output the classification information based on a second feature vector obtained by concatenating white matter hyperintensity (WMH) segmentation information with the first feature vector extracted from the image data.
또는, 상기 WMH 세그먼테이션 정보는 세그먼테이션 모델에 상기 이미지 데이터를 입력하여 산출되는 것을 특징으로 한다.Alternatively, the WMH segmentation information may be calculated by inputting the image data into a segmentation model.
또는, 상기 파제카스 분류 모델 및 상기 세그먼테이션 모델은 학습 데이터를 이용하여 산출된 분류 손실 및 세그먼테이션 손실에 기초하여 동시에 학습된 것을 특징으로 한다.Alternatively, the Fazecas classification model and the segmentation model may be simultaneously learned based on classification loss and segmentation loss calculated using training data.
또는, 상기 학습 데이터는 학습 이미지 데이터, 파제카스 스케일과 관련된 제1 레이블 정보 및 상기 WMH와 관련된 제2 레이블 정보를 포함하는 것을 특징으로 한다.Alternatively, the learning data may include learning image data, first label information related to the Fazekas scale, and second label information related to the WMH.
또는, 상기 제2 특징 벡터는 상기 이미지 데이터에 대한 메타 데이터가 더 연결 (concatenation)된 것을 특징으로 한다.Alternatively, the second feature vector may be characterized in that metadata for the image data is further concatenated.
또는, 상기 세그먼테이션 정보는 DWMH (Deep WMH)에 대한 제1 부피 정보 및 PVWMH (Periventricular WMH)에 대한 제2 부피 정보를 포함하는 것을 특징으로 한다.Alternatively, the segmentation information may include first volume information for Deep WMH (DWMH) and second volume information for Periventricular WMH (PVWMH).
또는, 상기 파제카스 분류 모델은 상기 제2 특징 벡터들에 포함된 변수들을 부트스트랩 샘플링 (Bootstrap sampling)하여 형성된 복수의 변수 세트들에 기반하여 상기 분류 정보를 출력하는 것을 특징으로 한다.Alternatively, the Fazekas classification model is characterized in that it outputs the classification information based on a plurality of variable sets formed by bootstrap sampling of variables included in the second feature vectors.
또는, 상기 파제카스 분류 모델은 상기 분류 정보에서 상기 변수들 각각이 영향을 준 정도에 대한 중요도 정보를 더 출력하는 것을 특징으로 한다.Alternatively, the Fazecas classification model is characterized in that it further outputs importance information about the degree to which each of the variables influenced the classification information.
또는, 상기 변수들은 상기 제1 특징 벡터들에 포함된 요소들, 상기 세그먼테이션 정보로부터 획득한 DWMH (Deep WMH)에 대한 제1 부피 및 PVWMH (Periventricular WMH)에 대한 제2 부피와 관련된 변수들을 포함하는 것을 특징으로 한다.Alternatively, the variables include elements included in the first feature vectors, variables related to the first volume for DWMH (Deep WMH) and the second volume for PVWMH (Periventricular WMH) obtained from the segmentation information. It is characterized by
또는, 상기 분류 정보는 제1 지표, 제2 지표 및 제3 지표 각각에 대한 확률 값 또는 예측 값을 포함하는 것을 특징으로 한다.Alternatively, the classification information may include probability values or prediction values for each of the first indicator, second indicator, and third indicator.
또는, 상기 파제카스 분류 모델은 CNN (Convolutional neural network)에 기반한 서브 모델을 포함하고, 상기 서브 모델은 상기 이미지 데이터로부터 상기 제1 특징 벡터를 추출하는 것을 특징으로 한다.Alternatively, the Fazekas classification model includes a sub-model based on a convolutional neural network (CNN), and the sub-model extracts the first feature vector from the image data.
다른 측면에 따른, 이미지 데이터에 대한 분류 정보를 출력하는 컴퓨팅 장치는 통신부 및 상기 통신부와 연결되는 프로세서를 포함하고, 상기 프로세서는 상기 이미지 데이터를 입력 받고, 파제카스 (Fazekas) 분류 모델에 상기 이미지 데이터를 입력하여 상기 분류 정보를 출력하며, 상기 파제카스 분류 모델은 상기 이미지 데이터로부터 추출된 제1 특징 벡터에 WMH (white matter hyperintensity) 세그먼테이션 정보를 연결 (concatenation)한 제2 특징 벡터에 기초하여 상기 분류 정보를 출력할 수 있다.According to another aspect, a computing device that outputs classification information about image data includes a communication unit and a processor connected to the communication unit, wherein the processor receives the image data and applies the image data to a Fazekas classification model. The classification information is output by inputting, and the Fazecas classification model classifies the classification based on a second feature vector that concatenates WMH (white matter hyperintensity) segmentation information with the first feature vector extracted from the image data. Information can be printed.
다양한 실시예들은 세그먼테이션 모델에서 출력된 이미지 데이터에 대한 정량적 특징을 추가적으로 고려한 파제카스 분류 모델의 분류 정보에 기초하여 세그먼테이션 모델 및 파제카스 분류 모델을 동시 학습시킴으로써 상기 두 모델의 분류 성능 및 견고성을 확보할 수 있다. Various embodiments secure the classification performance and robustness of the two models by simultaneously learning the segmentation model and the Fazecas classification model based on the classification information of the Fazecas classification model that additionally considers the quantitative characteristics of the image data output from the segmentation model. You can.
다양한 실시예에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained in various embodiments are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. There will be.
본 명세서에 첨부되는 도면은 본 발명에 대한 이해를 제공하기 위한 것으로서 본 발명의 다양한 실시형태들을 나타내고 명세서의 기재와 함께 본 발명의 원리를 설명하기 위한 것이다.
도 1은 CNN의 구조를 설명하기 위한 도면이다.
도 2은 MRI 장치를 이용하여 획득한 이미지 데이터인 MRI들을 설명하기 위한 도면이다.
도 3은 인공 신경망에 기반한 파제카스 분류 모델을 학습시키는 컴퓨팅 장치를 설명한다.
도 4은 컴퓨팅 장치가 파제카스 분류 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 5은 컴퓨팅 장치가 세그먼테이션 모델 및 파제카스 분류 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 6 및 도 7은 컴퓨팅 장치가 학습 데이터를 이용하여 세그먼테이션 모델 및 파제카스 분류 모델을 학습시키는 방법을 설명하기 위한 도면이다.
도 8은 컴퓨팅 장치가 입력된 이미지 데이터에 대한 분류 정보를 출력하는 방법을 설명하기 위한 도면이다.The drawings attached to this specification are intended to provide an understanding of the present invention, show various embodiments of the present invention, and together with the description of the specification, explain the principles of the present invention.
Figure 1 is a diagram for explaining the structure of CNN.
Figure 2 is a diagram for explaining MRIs, which are image data acquired using an MRI device.
Figure 3 illustrates a computing device that trains a Fazecas classification model based on an artificial neural network.
Figure 4 is a diagram illustrating a method by which a computing device trains a Fazecas classification model.
FIG. 5 is a diagram illustrating a method by which a computing device trains a segmentation model and a Fazecas classification model.
Figures 6 and 7 are diagrams to explain how a computing device trains a segmentation model and a Fazecas classification model using training data.
Figure 8 is a diagram for explaining a method by which a computing device outputs classification information for input image data.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.The detailed description of the present invention described below refers to the accompanying drawings, which show by way of example specific embodiments in which the present invention may be practiced to make clear the objectives, technical solutions and advantages of the present invention. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention.
본 명세서의 상세한 설명 및 청구항들에 걸쳐 이용된 "영상" 또는 "영상 데이터"라는 용어는 이산적 영상 요소들(예컨대, 2차원 영상에 있어서는 픽셀, 3차원 영상에 있어서는 복셀)로 구성된 다차원 데이터를 지칭한다. As used throughout the description and claims of this specification, the term “image” or “image data” refers to multidimensional data consisting of discrete image elements (e.g., pixels in two-dimensional images and voxels in three-dimensional images). refers to
예를 들어 "영상"은 현미경을 이용하여 관찰되는 소정 조직에 대한 슬라이드에 대응하는 2차원 영상을 의미할 수 있으나, "영상"은 이에 한정되는 것이 아니고, (콘-빔형; cone-beam) 전산화 단층 촬영(computed tomography), MRI(magnetic resonance imaging), 초음파 또는 본 발명의 기술분야에서 공지된 임의의 다른 의료 영상 시스템의 의하여 수집된 피검체(subject)의 의료 영상일 수 있다. 또한 영상은 비의료적 맥락에서 제공될 수도 있는바, 예를 들어 원격 감지 시스템(remote sensing system), 전자현미경(electron microscopy) 등등이 있을 수 있다.For example, “image” may refer to a two-dimensional image corresponding to a slide of a certain tissue observed using a microscope, but “image” is not limited to this and is a (cone-beam) computerized image. It may be a medical image of a subject collected by computed tomography, magnetic resonance imaging (MRI), ultrasound, or any other medical imaging system known in the art. Images may also be provided in non-medical contexts, such as remote sensing systems, electron microscopy, etc.
본 명세서의 상세한 설명 및 청구항들에 걸쳐, '영상'은 (예컨대, 화면에 표시된) 눈으로 볼 수 있는 영상 또는 영상의 디지털 표현물을 지칭하는 용어이다.Throughout the description and claims herein, 'image' is a term that refers to a visible image (e.g., displayed on a screen) or a digital representation of an image.
설명의 편의를 위하여 제시된 도면에서는 슬라이드 영상 데이터가 예시적 영상 형식(modality)인 것으로 도시되었다. 그러나 통상의 기술자는 본 발명의 다양한 실시예에서 이용되는 영상 형식들이 X선 영상, MRI, CT, PET(positron emission tomography), PET-CT, SPECT, SPECT-CT, MR-PET, 3D 초음파 영상 등등을 포함하나 예시적으로 열거된 형식에 한정되지 않는다는 점을 이해할 수 있을 것이다.For convenience of explanation, in the drawings presented, slide image data is shown as an exemplary image modality. However, those skilled in the art will know that the image formats used in various embodiments of the present invention include X-ray images, MRI, CT, PET (positron emission tomography), PET-CT, SPECT, SPECT-CT, MR-PET, 3D ultrasound images, etc. It will be understood that the format includes but is not limited to the format listed as an example.
본 명세서의 상세한 설명 및 청구항들에 걸쳐 설명되는 의료 영상은 'DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)' 표준에 따를 수 있다. DICOM 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.Medical images described throughout the detailed description and claims of this specification may comply with the 'DICOM (Digital Imaging and Communications in Medicine)' standard. The DICOM standard is a general term for several standards used for digital image expression and communication in medical devices. The DICOM standard is announced by a joint committee formed by the American College of Radiology (ACR) and the National Electrical Manufacturers Association (NEMA).
또한, 본 명세서의 상세한 설명 및 청구항들에 걸쳐 설명되는 의료 영상은 '의료영상 저장 전송 시스템(PACS; Picture Archiving and Communication System)'을 통해 저장되거나 전송될 수 있으며, 의료영상 저장 전송 시스템은 DICOM 표준에 맞게 의료 영상을 저장, 가공, 전송하는 시스템일 수 있다. X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상은 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 관찰 결과 및 진료 기록이 추가될 수 있다.In addition, the medical images described throughout the detailed description and claims of this specification may be stored or transmitted through the 'Picture Archiving and Communication System (PACS)', and the medical image storage and transmission system complies with the DICOM standard. It may be a system that stores, processes, and transmits medical images appropriately. Medical images acquired using digital medical imaging equipment such as .
그리고 본 명세서의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아니며, 훈련(training)은 기계 학습에 관하여 일반적으로 받아들여지는 의미로 쓰인 것이다. 예를 들어, '딥 러닝'은 심층 인공 신경망을 이용한 기계 학습을 의미한다. 심층 신경망은 다층의 인공 신경망으로 이루어진 구조에서 다량의 데이터를 학습시킴으로써 각각의 데이터의 특징을 자동으로 학습하고, 이를 통해 목적/손실 함수, 즉 분류 정확도의 에러를 최소화시키는 방식으로 학습을 진행하는 기계 학습 모델이며, 점, 선, 면 등의 저수준의 특징에서부터 복잡하고 의미 있는 고수준의 특징까지 다양한 수준의 특징을 추출하고 분류할 수 있다.In addition, throughout the detailed description and claims of this specification, 'learning' or 'learning' is a term referring to performing machine learning through procedural computing, and is intended to refer to mental operations such as human educational activities. This is not true, and training is used in the generally accepted sense of machine learning. For example, 'deep learning' refers to machine learning using deep artificial neural networks. A deep neural network is a machine that automatically learns the characteristics of each data by learning a large amount of data in a structure consisting of a multi-layer artificial neural network, and through this, learns in a way that minimizes the error in the objective/loss function, that is, classification accuracy. It is a learning model and can extract and classify various levels of features, from low-level features such as points, lines, and surfaces to complex and meaningful high-level features.
그리고 본 명세서의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 또한, '하나' 또는 '한'은 하나 이상의 의미로 쓰인 것이며, '또 다른'은 적어도 두 번째 이상으로 한정된다.And throughout the description and claims herein, the word 'comprise' and variations thereof are not intended to exclude other technical features, attachments, components or steps. Additionally, 'one' or 'one' is used to mean more than one, and 'another' is limited to at least the second or more.
통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 명세서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다. 따라서, 특정 구조나 기능에 관하여 본 명세서에 개시된 상세 사항들은 한정하는 의미로 해석되어서는 아니되고, 단지 통상의 기술자가 실질적으로 적합한 임의의 상세 구조들로써 본 발명을 다양하게 실시하도록 지침을 제공하는 대표적인 기초 자료로 해석되어야 할 것이다.Other objects, advantages and features of the invention will appear to those skilled in the art, partly from the specification and partly from practice of the invention. The examples and drawings below are provided by way of example and are not intended to limit the invention. Accordingly, the details disclosed in this specification regarding specific structures or functions should not be construed in a limiting sense, but are merely representative examples that provide guidance for those skilled in the art to variously practice the present invention with any detailed structures that are practically suitable. It should be interpreted as basic data.
더욱이 본 발명은 본 명세서에 나타난 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. Moreover, the present invention encompasses all possible combinations of the embodiments presented herein. It should be understood that the various embodiments of the present invention are different from one another but are not necessarily mutually exclusive. For example, specific shapes, structures and characteristics described herein with respect to one embodiment may be implemented in other embodiments without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description that follows is not intended to be taken in a limiting sense, and the scope of the invention is limited only by the appended claims, together with all equivalents to what those claims assert, if properly described. Similar reference numbers in the drawings refer to identical or similar functions across various aspects.
본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In this specification, unless otherwise indicated or clearly contradictory to the context, items referred to in the singular include plural unless the context otherwise requires. Additionally, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted.
이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, in order to enable those skilled in the art to easily practice the present invention, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.
도 1은 인공 신경망인 CNN의 구조를 설명하기 위한 도면이다.Figure 1 is a diagram to explain the structure of CNN, an artificial neural network.
CNN(Convolutional Neural Network)은 합성곱 연산을 사용하는 ANN (Artificial Neural Network, 인공 신경망)의 한 종류이다. CNN은 이미지 특징 추출을 위해 입력 이미지 (또는, 입력 데이터)를 필터가 순회하며 합성곱을 계산하고, 상기 합성곱의 계산 결과를 이용하여 특징 맵 (Feature map) 또는 활성 맵 (Activation Map)을 생성할 수 있다.CNN (Convolutional Neural Network) is a type of ANN (Artificial Neural Network) that uses convolution operations. To extract image features, CNN calculates a convolution by traversing the input image (or input data) through a filter, and uses the calculation result of the convolution to generate a feature map or activation map. You can.
상기 CNN은 각 레이어의 입출력 데이터의 형상 유지하고, 이미지의 공간 정보를 유지하면서 인접 이미지와의 특징을 효과적으로 인식하며, 복수의 필터로 이미지의 특징 추출 및 학습시킬 수 있고, 추출한 이미지의 특징을 모으고 강화하는 풀링 레이어를 선택적으로 포함할 수 있고, 필터를 공유 파라미터로 사용하기 때문에 일반 인공 신경망과 비교하여 학습 파라미터가 매우 적은 장점이 있다.The CNN maintains the shape of the input and output data of each layer, effectively recognizes features of adjacent images while maintaining spatial information of the image, extracts and learns image features using multiple filters, and collects and collects features of the extracted images. It has the advantage of being able to optionally include a strengthening pooling layer and using filters as shared parameters, requiring very few learning parameters compared to general artificial neural networks.
구체적으로, 도 1을 참조하면, 상기 CNN은 입력 이미지 (또는, 입력 데이터)로부터 특징을 추출하는 특징 추출 영역과 상기 추출된 특징을 분류하는 이미지 분류 영역을 포함할 수 있다. 상기 특징 추출 영역은 필터 (Filter)를 사용하여 공유 파라미터 수를 최소화하면서 이미지의 특징을 찾는 적어도 하나의 컨벌루션 (Convolution) 레이어를 포함할 수 있다. 또는, 상기 특징 추출 영역은 상기 특징을 강화하고 모으는 적어도 하나의 풀링 (Pooling) 레이어를 더 포함할 수도 있다. 즉, 상기 풀링 레이어는 생략될 수도 있다. Specifically, referring to FIG. 1, the CNN may include a feature extraction area for extracting features from an input image (or input data) and an image classification area for classifying the extracted features. The feature extraction area may include at least one convolution layer that finds features of the image while minimizing the number of shared parameters using a filter. Alternatively, the feature extraction area may further include at least one pooling layer that enhances and collects the features. That is, the pooling layer may be omitted.
상기 컨벌루션 레이어는 입력 이미지 (또는, 입력 데이터)에 필터를 적용 후 활성화 함수를 반영하는 레이어이다. 상기 컨벌루션 레이어에 유입되는 입력 이미지에는 한 개 이상의 필터가 적용될 수 있다. 상기 1개 필터는 상기 특징 맵 (Feature Map)의 채널을 구성할 수 있다. 예컨대, 상기 컨벌루션 레이어에 n개의 필터가 적용될 경우, 상기 특징 맵 또는 상기 활성 맵 (또는, 출력 데이터)는 n개의 채널을 갖게 된다.The convolution layer is a layer that reflects the activation function after applying a filter to the input image (or input data). One or more filters may be applied to the input image flowing into the convolution layer. The one filter can configure a channel of the feature map. For example, when n filters are applied to the convolutional layer, the feature map or the activation map (or output data) has n channels.
상기 풀링 레이어는 상기 컨벌루션 레이어 다음에 위치하는 선택적인 레이어이다. 상기 풀링 레이어는 컨볼류션 레이어의 출력 데이터를 입력으로 받아서 출력 데이터의 크기를 줄이거나 특정 데이터를 강조하기 위한 레이어로 사용될 수 있다. 상기 플링 레이어를 처리하는 방법은 최대 풀링 (Max Pooling), 평균 풀링 (Average Pooning), 최소 풀링 (Min Pooling)이 있다. 풀링 레이어는 학습 대상 파라미터가 없고, 행렬의 크기 감소시킬 수 있으며, 채널 수를 변경시키기 않는다.The pooling layer is an optional layer located after the convolution layer. The pooling layer receives the output data of the convolution layer as input and can be used as a layer to reduce the size of the output data or emphasize specific data. Methods for processing the pling layer include max pooling, average pooling, and min pooling. The pooling layer has no parameters to learn, can reduce the size of the matrix, and does not change the number of channels.
상기 CNN은 필터 (Filter) 크기, Stride, 패딩 (Padding) 적용 여부, 최대 풀링 (Max Pooling) 크기에 따라서 출력 데이터의 형태 (Shape) 또는 크기가 조절될 수 있고, 필터의 개수를 통해 채널을 결정할 수 있다.The CNN can adjust the shape or size of output data depending on the filter size, stride, whether padding is applied, and the maximum pooling size, and determines the channel through the number of filters. You can.
상기 FC 레이어는 인식 및 분류 동작을 위한 레이어로써, 기존 신경망에서 각 레이어 별로 연결에 사용하는 전결합 레이어이다. 상기 FC 레이어는 상기 특징 추출 영역에서의 출력 데이터의 2차원의 배열 형태를 1차원의 평탄화 작업을 수행할 수 있다. 상기 1차원의 평탄화된 상기 출력 데이터는 SoftMAx 함수를 통해 분류될 수 있다.The FC layer is a layer for recognition and classification operations and is a pre-combined layer used to connect each layer in an existing neural network. The FC layer may perform a one-dimensional flattening operation on the two-dimensional array form of the output data in the feature extraction area. The one-dimensional, flattened output data can be classified through the SoftMAx function.
도 2은 MRI 장치를 이용하여 획득한 이미지 데이터인 MRI들을 설명하기 위한 도면이다.Figure 2 is a diagram for explaining MRIs, which are image data acquired using an MRI device.
자기공명영상(magnetic resonance imaging, MRI) 장치는 특정 세기의 자기장에서 발생하는 RF(Radio Frequency) 신호에 대한 MR(Magnetic Resonance) 신호의 세기를 명암 대비로 표현하여 대상체 (또는, 환자)의 단층 부위에 대한 이미지를 획득하는 기기이다. 예컨대, 대상체를 강력한 자기장 속에 눕힌 후 특정의 원자핵(예컨대, 수소 원자핵 등)만을 공명시키는 RF 신호를 대상체에 순간적으로 조사했다가 중단하면 특정의 원자핵에서 MR 신호가 방출되는데, MRI 장치는 이 MR 신호를 수신하여 MR 이미지를 획득할 수 있다. MR 신호는 대상체로부터 방사되는 RF 신호를 의미한다. 여기서, MR 신호의 크기는 대상체에 포함된 소정의 원자(예컨대, 수소 등)의 농도, 이완시간 T1, 이완시간 T2 및 혈류 등의 흐름에 의해 결정될 수 있다.A magnetic resonance imaging (MRI) device expresses the strength of the MR (Magnetic Resonance) signal in contrast to the RF (Radio Frequency) signal generated in a magnetic field of a specific strength, and identifies the tomographic area of the object (or patient). It is a device that acquires images of. For example, if an object is placed in a strong magnetic field and an RF signal that resonates only with specific atomic nuclei (e.g., hydrogen nuclei, etc.) is momentarily applied to the object and then stopped, an MR signal is emitted from the specific atomic nucleus, and the MRI device emits this MR signal. MR images can be acquired by receiving . MR signal refers to an RF signal emitted from an object. Here, the size of the MR signal may be determined by the concentration of a certain atom (eg, hydrogen, etc.) included in the object, relaxation time T1, relaxation time T2, and blood flow.
MRI 장치는 다른 이미징 장치들과는 다른 특징들을 포함한다. 이미지의 획득이 감지 하드웨어(detectinghardware)의 방향에 의존하는 CT와 같은 이미징 장치들과 달리, MRI 장치는 임의의 지점으로 지향된 2D 이미지 또는 3D 볼륨 이미지를 획득할 수 있다. 또한, MRI 장치는, CT, X-ray, PET 및 SPECT와 달리, 대상체 및 검사자에게 방사선을 노출시키지 않으며, 높은 연부 조직(soft tissue) 대조도를 갖는 이미지의 획득이 가능하여, 비정상적인 조직의 명확한 묘사가 중요한 신경(neurological) 이미지, 혈관 내부(intravascular) 이미지, 근 골격(musculoskeletal) 이미지 및 종양(oncologic) 이미지 등을 획득할 수 있다.MRI devices include features that are different from other imaging devices. Unlike imaging devices such as CT, where image acquisition depends on the direction of detecting hardware, MRI devices can acquire 2D images or 3D volume images oriented to an arbitrary point. In addition, unlike CT, Neurological images, intravascular images, musculoskeletal images, and oncologic images that are important to describe can be acquired.
구체적으로, 도 2을 참조하면, 상기 MRI 장치는 T1-w (T1-weighted) MRI, T2-w (T2-weighted) MRI, FLAIR(Fluid attenuated inversion recovery) MRI 등을 획득할 수 있다.Specifically, referring to FIG. 2, the MRI device can acquire T1-w (T1-weighted) MRI, T2-w (T2-weighted) MRI, FLAIR (Fluid attenuated inversion recovery) MRI, etc.
상기, T1-w 및 T2-w MRI는 TR (repetition time) 및 TE (time to echo)를 조절하여 특정 조직의 T1 또는 T2 효과가 강조된 영상이다. 여기서, 상기 TR은 같은 크기의 RF 펄스를 인가하는 시간 간격으로서, 반복시간이다. 상기 TE는 지연시간 또는 에코시간이다 MRI의 과정에서, 인가하였던 RF(radio frequency) 펄스를 차단하면 조직의 양성자는 흡수하였던 에너지를 주변 조직에 방출하면서 외부 자기장(B0) 방향(Z축 방향)으로 재정렬하게 된다. The T1-w and T2-w MRI are images in which the T1 or T2 effect of a specific tissue is emphasized by adjusting TR (repetition time) and TE (time to echo). Here, TR is the repetition time, which is the time interval for applying RF pulses of the same size. The TE is the delay time or echo time. In the process of MRI, when the applied RF (radio frequency) pulse is blocked, the protons in the tissue release the absorbed energy to the surrounding tissue and move in the direction of the external magnetic field (B0) (Z-axis direction). are rearranged.
여기서, T1은 종축인 Z축을 따라 양성자의 스핀들이 재정렬하는 시간, 즉 Z축 방향 자화가 회복되는 곡선의 시간상수이다. T1은 자화 회복의 시간상수로서 종축 이완시간 또는, 스핀-격자 이완시간(spin-lattice relaxation time)이라고 부른다. 한편, RF 펄스가 차단되면, 자화의 XY성분은 붕괴한다. Here, T1 is the time for the proton spindles to realign along the longitudinal Z-axis, that is, the time constant of the curve for recovery of magnetization in the Z-axis direction. T1 is the time constant for magnetization recovery and is called the longitudinal relaxation time or spin-lattice relaxation time. Meanwhile, when the RF pulse is blocked, the XY component of magnetization collapses.
또한, T2는 자화의 XY 성분 붕괴 곡선의 시간 상수로서 횡 이완시간 또는, 스핀-스핀 이완시간 (spin-spin relaxation time)으로 부른다. T1 및 T2는 조직의 고유값이며, 물, 고체, 지방, 단백질마다 다른 값을 가진다. 여기서, TR을 길게 하면 T1 효과를 감소시킨다. 반대로, TR을 짧게 하면 T1 효과(대조도)를 증대, 즉, T1-w MRI가 획득된다. TE를 짧게 하면 T2 효과를 감소시키고, 길게 하면 T2 효과를 증대, 즉, T2-w MRI가 획득된다. Additionally, T2 is the time constant of the XY component decay curve of magnetization and is called transverse relaxation time or spin-spin relaxation time. T1 and T2 are tissue-specific values and have different values for water, solids, fat, and protein. Here, lengthening TR reduces the T1 effect. Conversely, if TR is shortened, the T1 effect (contrast) is increased, that is, T1-w MRI is obtained. Shortening TE reduces the T2 effect, and lengthening TE increases the T2 effect, that is, T2-w MRI is obtained.
FLAIR MRI는 긴 역전 시간과 에코 시간으로 뇌척수액의 신호를 약화시켜 T2-w MRI에서 놓치기 쉬운 병변의 발견을 더욱 용이하게 한 자기영상장치를 이용한 신호 획득 기법이나 이 기법으로 획득되는 영상을 지칭한다. FLAIR MRI은 유체 감쇠 반전 복구 MRI로 지칭될 수도 있다.FLAIR MRI refers to a signal acquisition technique using a magnetic imaging device or images acquired with this technique that weakens the signal of cerebrospinal fluid with a long inversion time and echo time, making it easier to detect lesions that are easy to miss in T2-w MRI. FLAIR MRI may also be referred to as fluid attenuated inversion recovery MRI.
상기 MRI를 통해 획득한 영상은 뇌 질환의 진단, 뇌 병변을 검출 또는 식별하는데 이용될 수 있다. 특히, 상기 MRI들을 통해 혈관성 치매에 대한 정보를 획득할 수 있다.Images obtained through the MRI can be used to diagnose brain diseases and detect or identify brain lesions. In particular, information about vascular dementia can be obtained through the MRIs.
도 3은 인공 신경망에 기반한 파제카스 분류 모델을 학습시키는 컴퓨팅 장치를 설명한다.Figure 3 illustrates a computing device that trains a Fazecas classification model based on an artificial neural network.
도 3을 참조하면, 컴퓨팅 장치(100)는, 통신부(110) 및 프로세서(120)를 포함하며, 상기 통신부(110)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다. 여기서, 통신부 (110)는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는 송수신기와 대응하거나 상기 송수신기를 포함할 수 있다.Referring to FIG. 3, the
구체적으로, 컴퓨팅 장치(100)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 영상 처리 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.Specifically,
이와 같은 통신부(110)는 연동되는 타 영상 처리 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(110)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스와 같은 포인팅 장치(pointing device), 기타 외부 입력장치, 프린터, 디스플레이, 기타 외부 출력장치를 포함할 수 있다.Such a
또한, 컴퓨팅 장치(100)의 프로세서(120)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphics processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다. 프로세서(120)는 이하에서 설명하는 신경망의 기능을 수행하기 위한 명령어들을 실행할 수 있다.Additionally, the
프로세서(120)는 상기 인공 신경망에 기반한 파제카스 스케일 (Fazekas scale)과 관련된 모델들을 학습시킬 수 있다. 여기서, 상기 파제카스 스케일은 뇌 백질변성 (white matter hyperintensity, WMH)의 정도 (grade)를 분류해주는 지표 중 하나로써 혈관성 치매인 VAD (Vascular Dementia) 진단과 관련된 예측 및 분석에 이용될 수 있다. 파제카스 스케일은 0, 1, 2 및 3 (이하, 분류 정보)으로 정도가 분류되는 지표일 수 있다. 상기 파제카스 스케일은 지표의 값이 커질수록 VAD와 관련된 증상이 심해지는 걸 의미할 수 있다.The
구체적으로, 프로세서(120)는 상기 모델들에 학습 데이터를 입력하고, 상기 학습 데이터에 포함된 MRI 등 이미지 데이터에 대한 특징을 추출할 수 있다. 여기서, 프로세서(120)는 추출된 특징에 기반하여 상기 모델이 출력하는 파제카스 스케일에 대한 분류 정보를 획득할 수 있다. 프로세서(120)는 획득한 분류 정보와 상기 학습 데이터에 포함된 레이블 정보를 이용하여 상기 모델들과 관련된 손실 함수가 최소화되도록 상기 모델들에 대한 파라미터들 (또는 가중치들)을 조정하여 상기 모델들을 학습시킬 수 있다. 상기 레이블 정보는 상기 학습 데이터에 포함된 MRI에 대응하여 평가된 파제카스 스케일과 관련된 분류 정보를 포함할 수 있다. 프로세서(120)는 상기 분류 정보에 기반하여 VAD 등 질환에 대한 예측 및 분석을 수행할 수 있다.Specifically, the
도 4은 컴퓨팅 장치가 파제카스 분류 모델을 학습시키는 방법을 설명하기 위한 도면이다.Figure 4 is a diagram illustrating a method by which a computing device trains a Fazecas classification model.
도 4를 참조하면, 파제카스 분류 모델(200)은 이미지 데이터로부터 파제카스와 관련된 이미지 특징에 대한 제1 특징 벡터를 추출하고, 상기 제1 특징 벡터를 이용하여 상기 이미지 데이터에 대한 분류 정보를 출력할 수 있다.Referring to FIG. 4, the Fazecas classification model 200 extracts a first feature vector for image features related to Fazecas from image data, and outputs classification information for the image data using the first feature vector. can do.
구체적으로, 상기 컴퓨팅 장치는 이미지 데이터 (10) 및 레이블 정보를 포함하는 학습 데이터를 입력 받을 수 있다. 상기 컴퓨팅 장치는 파제카스 분류 모델 (200)에 이미지 데이터 (10)를 입력할 수 있다.Specifically, the computing device may receive training data including
파제카스 분류 모델 (200)는 이미지 데이터 (10)에 기반하여 상기 파제카스 스케일과 관련된 상기 제1 특징 벡터를 추출할 수 있다. 예컨대, 파제카스 분류 모델 (200)은 도 1을 참조하여 설명한 CNN을 기반으로 이미지 데이터 (10)로부터 상기 제1 특징 벡터를 추출 할 수 있다. 한편, 상기 파제카스 분류 모델이 상기 제1 특징 벡터를 추출하는 인공 신경망으로 CNN을 제시하고 있으나, 이에 제한되지 않고 상기 이미지 데이터로부터 제1 특징 벡터를 추출할 수 있는 Deep Neural Network (DNN), Recurrent Neural Network (RNN), Long Short-Term Memory models (LSTM), BRDNN (Bidirectional Recurrent Deep Neural Network), Convolutional Neural Networks (CNN) 등 다양한 종류의 신경망 중 어느 하나에 기반할 수도 있다.The Fazekas classification model 200 may extract the first feature vector related to the Fazekas scale based on the
다음으로, 파제카스 분류 모델 (200)은 추출된 상기 제1 특징 벡터에 기반하여 이미지 데이터 (10)에 대응하는 분류 정보를 출력할 수 있다. 예컨대, 분류 정보는 파제카스 스케일과 관련된 지표 값에 대한 확률 값 또는 예측 값을 포함할 수 있다. 상기 컴퓨팅 장치는 상기 분류 정보와 및 레이블 정보에 기반하여 파제카스 분류 모델 (200)에 대한 손실 함수가 최소화되도록 파제카스 분류 모델 (200)을 학습시킬 수 있다.Next, the Fazecas classification model 200 may output classification information corresponding to the
한편, 상기 학습 데이터는 이미지 데이터 (10)에 대해 평가자 (의사 등)가 진단 또는 평가한 파제카스 스케일의 값을 포함하는 레이블 정보를 포함할 수 있다. 상기 레이블 정보는 평가자 (의사 등)가 상기 이미지 데이터에 대한 DWMH (Deep WMH) 및/또는 PVWMH (Periventricular WMH)을 고려하여 미리 평가된 파제카스 스케일의 값을 포함할 수 있다.Meanwhile, the learning data may include label information including the value of the Fazekas scale diagnosed or evaluated by an evaluator (such as a doctor) for the
여기서, 이미지 데이터 (10)에 대한 레이블 정보는 상기 평가자의 주관에 따라 상이해질 수 있다. 구체적으로, 상기 파제카스 스케일의 값들의 구분 기준이 명확하지 않고 상기 파제카스 스케일의 값들 간의 상호 관계 (또는, correlation)에 의해 상기 평가자가 정확한 파제카스 스케일의 값을 해석 또는 예측하기 어렵다. 이런 점에서, 상기 파제카스 스케일의 값은 상기 평가자의 주관적 해석에 따라 상이해질 수 있다. 이 경우, 컴퓨팅 장치가 상기 레이블 정보를 이용하여 상기 파제카스 분류 모델을 학습시킬 경우, 상기 레이블 값의 주관성 및 불명확한 평가 기준에 의해 상기 파제카스 분류 모델의 정확도 및 분류 능력이 저하될 수 있다.Here, the label information for the
따라서, 임상환경에서 유의미하게 활용할 수 있도록 상기 평가자의 주관적 해석의 영향의 우려를 최소화한 상기 파제카스 분류 모델의 학습 방법이 필요하다. 예컨대, 상기 컴퓨팅 장치가 상기 레이블 정보 등에 의한 주관성 및 불명확성을 해소하기 위해 객관성이 확보된 별도의 정량 특징을 추가적으로 반영하여 상기 파제카스 분류 모델을 학습시키는 방법이 고려될 필요가 있다.Therefore, a learning method for the Fazekas classification model that minimizes concerns about the influence of the evaluator's subjective interpretation is needed so that it can be meaningfully used in a clinical environment. For example, there is a need to consider a method in which the computing device learns the Fazekas classification model by additionally reflecting separate quantitative features that ensure objectivity in order to resolve subjectivity and uncertainty caused by the label information, etc.
이하에서는, 학습 과정에서 상기 파제카스 스케일의 예측 및 해석의 정확도를 향상시키기 위해서 객관성이 확보된 특징인 정량 특징을 출력하는 세그먼테이션 모델을 추가적으로 정의하고, 상기 세그먼테이션 모델 및 상기 파제카스 분류 모델로 구성된 멀티 태스크에 기반하여 상기 세그먼테이션 모델 및 상기 파제카스 분류 모델을 학습시키는 방법을 자세히 설명한다. In the following, in order to improve the accuracy of prediction and interpretation of the Fazecas scale during the learning process, a segmentation model that outputs quantitative features, which are features with secured objectivity, is additionally defined, and a multi-segmentation model consisting of the segmentation model and the Fazecas classification model is defined. A method of learning the segmentation model and the Fazecas classification model based on the task will be described in detail.
도 5은 컴퓨팅 장치가 세그먼테이션 모델 및 파제카스 분류 모델을 학습시키는 방법을 설명하기 위한 도면이다.FIG. 5 is a diagram illustrating a method by which a computing device trains a segmentation model and a Fazecas classification model.
도 5를 참조하면, 파제카스 분류 모델 (201)에 정량 특징을 추가적으로 반영하기 위해서 뇌 백질변성 (white matter hyperintensity, WMH)과 관련된 세그먼테이션 정보를 출력하는 세그먼테이션 모델 (300)이 추가적으로 이용될 수 있다. 즉, 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)를 포함하는 멀티 태스크 학습을 구성하여 분류 성능 및 정확도가 높아지도록 파제카스 분류 모델 (201)을 학습시킬 수 있다.Referring to FIG. 5, a
컴퓨팅 장치는 상기 멀티 태스크 학습과 관련된 학습 데이터를 입력 받을 수 있다. 상기 학습 데이터는 이미지 데이터 (10), 파제카스 분류 모델 (201)에 대한 제1 레이블 정보 (예컨대, 상기 이미지 데이터에 대해 미리 결정된 파제카스 스케일의 지표 값), 세그먼테이션 모델 (300)에 대한 제2 레이블 정보 (예컨대, 상기 이미지 데이터에서WMH (DWMH, PVWMH)에 대해 세그먼테이션된 마스크 (또는, 부피 값)를 포함할 수 있다. 예컨대, 상기 제2 레이블 정보는 이미지 데이터 (10)에 대해 미리 산출된 DWMH에 대한 DWMH에 대해 세그먼테이션된 제1 마스크 및 PVWMH에 대한 PVWMH에 대해 세그먼테이션된 제2 마스크를 포함할 수 있다. 예컨대, 상기 제2 레이블 정보는 이미지 데이터 (10)에서 상기 DWMH와 관련된 영역이 마스킹된 제1 마스크 및 이미지 데이터 (10)에서 상기 PVWMH와 관련된 영역이 마스킹된 제2 마스크에 대한 정보를 포함할 수 있다. 이미지 데이터 (10)는 3D 영상 (또는, FLAIR 전체 이미지 영상)을 포함할 수 있다.The computing device may receive learning data related to multi-task learning. The learning data includes
한편, 상기 제1 레이블 정보에 포함된 파제카스 스케일에 대한 지표 값은 상기 제2 레이블 정보에 포함된 제1 마스크 및 제2 마스크에 기초하여 평가된 파제카스 스케일 값과 대응할 수 있다. 예컨대, 이미지 데이터 (10)에 대한 제1 마스크에 기반하여 제1 파제카스 스케일 값이 미리 평가되고, 이미지 데이터 (10)에 대한 제2 마스크에 기반하여 제2 파제카스 스케일 값이 미리 평가될 수 있다., 상기 제1 레이블 정보는 상기 제1 파제카스 스케일 값 및 상기 제2 파제카스 스케일 값 중에서 큰 값을 포함할 수 있다. 이를 통해, 상기 제1 레이블 정보의 주관성을 완화시킬 수 있다. 아울러, 상기 파제카스 스케일 값은 일반적으로 0, 1, 2 및 3 중 어느 하나로 결정될 수 있으나, (0, 1)의 구분은 임상적인 의미가 크지 않는 바 (0,1)의 경우에 구분 없이 1로 구성될 수 있다.Meanwhile, the indicator value for the Fazekas scale included in the first label information may correspond to a Fazekas scale value evaluated based on the first mask and the second mask included in the second label information. For example, a first Fazekas scale value may be pre-evaluated based on the first mask for the
파제카스 분류 모델 (201)은 이미지 데이터 (10)으로부터 획득된 특정 축 방향에 대해 획득한 일부 2D 이미지들 (예컨대, 상하 축 (axial) 방향의 2D-FLAIR)가 입력될 수 있다. 예컨대, 파제카스 분류 모델 (201)은 특정 축 방향에 대한 복수의 2D 이미지들 중 가운데에 위치한 (예컨대, 상하 축 방향을 기준으로 뇌의 가운데) 2D 이미지를 기준으로 미리 설정된 범위 (예컨대, 7)에 있는 일부 2D 이미지들을 입력 받을 수 있다. 파제카스 분류 모델 (201)은 상기 입력된 2D 이미지들로부터 이미지 특징 (shape, location, distribution 등)과 관련된 제1 특징 벡터를 추출할 수 있다. 예컨대, 상기 제1 특징 벡터는 2D 이미지들에 대한 이미지 특징과 관련된 제1 로짓 (logit1), 제2 로짓 (logit2) 등을 포함할 수 있다.The
세그먼테이션 모델 (300)은 이미지 데이터 (10)로부터 특정 축 방향에 대해 획득한 2D 이미지들 전부가 입력될 수 있다. 또는, 세그먼테이션 모델 (300)은 이미지 데이터 (10)로부터 3개 축 방향 ((Sagittal axis, Axial axis 및 Coronal axis) 각각에 대해 획득한 전체 복수의 2D 이미지 (2D MRI Slice)들이 입력되거나 상기 3D 영상의 전체가 입력될 수 있다.The
세그먼테이션 모델 (300)은 이미지 데이터 (10)로부터 WMH와 관련된 세그먼테이션 정보를 출력하기 위한 특징 (W)을 추출하고, 상기 특징 (W)에 기반하여 세그먼테이션 정보 (Z)를 출력할 수 있다. 세그먼테이션 정보 (Z)는 상기 DWMH (Deep WMH)에 대한 제1 부피 정보 (또는, 제1 부피 값, 상기 제1 부피 값과 관련된 제1 확률 값) 및/또는 PVWMH에 대한 제2 부피 정보 (또는, 제2 부피 값, 제2 부피 값과 관련된 제2 확률 값)를 포함할 수 있다. 또한, 세그먼테이션 모델 (300)은 세그먼테이션 정보 (Z) 및 상기 제2 레이블 정보에 기초하여 산출된 세그먼테이션 손실 (segmentation loss)를 출력할 수 있다. 또는, 상기 컴퓨팅 장치는 세그먼테이션 정보 (Z) 및 상기 제2 레이블 정보에 기초하여 세그먼테이션 손실을 산출할 수 있다.The
파제카스 분류 모델 (201)은 세그먼테이션 모델 (300)가 출력한 세그먼테이션 정보를 추가적으로 고려하여 분류 정보를 출력할 수 있다. 예컨대, 상기 제1 특징 벡터는 상기 세그먼테이션 정보 (또는, 세그먼테이션 정보에 포함된 부피 값들의 변수들)와 연결 (concatenation)될 수 있다. 파제카스 분류 모델 (201)은 상기 세그먼테이션 정보와 연결된 상기 제1 특징 벡터인 제2 특징 벡터를 이용하여 이미지 데이터 (10)에 대한 분류 정보를 출력할 수 있다. 상술한 바와 같이, 상기 분류 정보는 파제카스 스케일 또는 파제카스 스코어와 관련된 값인 1, 2 및 3 각각에 대한 확률 값 또는 예측 값을 포함할 수 있다.The
또는, 파제카스 분류 모델 (201)은 이미지 데이터 (10)와 관련하여 입력된 메타 데이터도 추가적으로 고려하여 상기 분류 정보를 출력할 수 있다. 여기서, 상기 메타 데이터는 이미지 데이터 (10)의 대상체 (환자 등)의 특성인 나이, 성별 등에 대한 정보 및/또는 상기 이미지 데이터를 획득한 장치 (예컨대, MRI 장치)의 특성 (MRI vendor, magnetic field strength)을 포함할 수 있다. 이 경우, 파제카스 분류 모델 (201)은 상기 세그먼테이션 정보 및 상기 메타 데이터와 관련된 변수들이 연결 (concatenation)된 상기 제1 특징 벡터인 제2 특징 벡터를 이용하여 상기 분류 정보를 출력할 수 있다. Alternatively, the
즉, 파제카스 분류 모델 (201)은 2D 이미지들에 대한 이미지 특징 (shape, location, distribution)을 포함하는 제1 특징 벡터뿐만 아니라 객관성이 확보된 정량적 특징인 세그먼테이션 정보 및/또는 메타 데이터를 추가적으로 고려하여 분류 정보를 출력할 수 있다.In other words, the
상기 컴퓨팅 장치는 상기 분류 정보 및 상기 제1 레이블 정보를 이용하여, 파제카스 분류 모델 (201)과 관련된 분류 손실을 산출할 수 있다. 예컨대, 상기 컴퓨팅 장치는 파제카스 분류 모델 (201)의 손실 함수에 상기 분류 정보에 포함된 확률 값 및 상기 제1 레이블 정보에 포함된 레이블 값을 반영하여 상기 분류 손실을 산출할 수 있다.The computing device may calculate a classification loss related to the
상기 컴퓨팅 장치는 세그먼테이션 모델 (300)이 출력한 세그먼테이션 손실 및 상기 분류 손실에 기반하여 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)을 학습시킬 수 있다. 예컨대, 상기 컴퓨팅 장치는 상기 분류 손실 및 상기 세그먼테이션 손실 각각을 항으로 포함하는 전체 손실 함수의 손실 값이 최소화되도록 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300) 각각의 파라미터들 또는 가중치들을 조정하여 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)을 학습시킬 수 있다.The computing device may learn the
도 6 및 도 7은 컴퓨팅 장치가 세그먼테이션 모델 및 학습 데이터를 이용하여 파제카스 분류 모델을 학습시키는 방법을 설명하기 위한 도면이다.Figures 6 and 7 are diagrams to explain how a computing device trains a Fazecas classification model using a segmentation model and training data.
도 6을 참조하면, 컴퓨팅 장치는 입력된 학습데이터를 이용하여 세그먼테이션 모델 (300) 및 파제카스 분류 모델 (201)을 학습시킬 수 있다. Referring to FIG. 6, the computing device can train the
여기서, 파제카스 분류 모델 (201)은 상기 학습데이터에 포함된 이미지 데이터(10)에 기반하여 제1 특징 벡터 (X)를 추출하는 특징 추출부 (210), 제1 특징 벡터(X)에 정량 특징을 연결시켜 제2 특징 벡터를 생성하는 특징 연결부 (220) 및 상기 제2 특징 벡터에 기반하여 분류 정보를 출력하는 분류부 (230)를 포함할 수 있다. 한편, 특징 추출부 (210) 및 분류부(230)는 인공 신경망에 기반하여 제1 특징 벡터 (X)를 추출하고 상기 분류 정보를 출력할 수 있다.Here, the
파제카스 분류 모델 (201)은 도 5를 참조하여 설명한 바와 같이 이미지 데이터 (10)로부터 특정 축 방향에 대해 획득한 일부 2D 이미지들 (예컨대, 상하 축 (axial) 방향의 2D-FLAIR)가 입력될 수 있다. 이 경우, 특징 추출부 (200)은 상기 입력된 2D 이미지들로부터 이미지 특징 (shape, location, distribution 등)과 관련된 제1 특징 벡터 (X)를 추출할 수 있다. 예컨대, 제1 특징 벡터 (X)는 2D 이미지들에 대한 이미지 특징과 관련된 제1 로짓 (logit1), 제2 로짓 (logit2) 등을 포함할 수 있다. 또는, 파제카스 분류 모델 (201)은 이미지 데이터 (10)와 관련된 메타 데이터 (M)를 추가적으로 입력 받을 수 있다.As described with reference to FIG. 5, the
세그먼테이션 모델 (300)은 도 5를 참조하여 설명한 바와 같이 이미지 데이터 (10)로부터 특정 축 방향에 대해 획득한 2D 이미지들 전부 또는 이미지 데이터(10) 전체가 입력될 수 있다. 세그먼테이션 모델 (300)은 이미지 데이터 (10)로부터 WMH와 관련된 세그먼테이션 정보를 출력하기 위한 특징을 추출하고, 상기 특징 에 기반하여 세그먼테이션 정보 (Z)를 출력할 수 있다. 세그먼테이션 정보 (Z)는 상기 DWMH (Deep WMH)에 대한 제1 부피 정보 (또는, 제1 부피 값, 상기 제1 부피 값과 관련된 제1 확률 값) 및/또는 PVWMH에 대한 제2 부피 정보 (또는, 제2 부피 값, 제2 부피 값과 관련된 제2 확률 값)를 포함할 수 있다. As described with reference to FIG. 5 , the
또한, 세그먼테이션 모델 (300)은 세그먼테이션 정보 (Z) 및 상기 제2 레이블 정보에 기초하여 세그먼테이션 손실 (segmentation loss)를 산출할 수 있다. 여기서, 세그먼테이션 손실 (segmentation loss)은 분류 난이도 (또는, 분류 에러)에 따라 손실 함수에 대한 가중치를 부가하는 방식인 포칼 손실 (Focal loss)에 기반하여 산출될 수 있다. Additionally, the
예컨대, 세그먼테이션 모델 (300)은 분류 에러 또는 분류 난이도가 높은 경우 손실 함수에 큰 가중치가 부여되고, 분류 에러 또는 분류 난이도가 낮은 경우 (즉, 상기 세그먼테이션 정보가 상기 제2 레이블 정보에 근접한 정도)에 대해 손실 함수에 작은 가중치가 부여될 수 있다. 예컨대, 상기 제2 레이블 정보 및 상기 세그먼테이션 정보에 기초하여 상기 가중치가 결정될 수 있다. 세그먼테이션 모델 (300)은 하기의 수학식 1에 정의된 손실 함수를 이용하여 세그먼테이션 정보 (Z)에 대한 상기 세그먼테이션 손실을 출력할 수 있다.For example, the
여기서, α는 상술한 가중치이고, p는 세그먼테이션 모델이 예측한 확률 값 (또는, 세그먼테이션 정보에 포함된 확률 값)으로 0 내지 1 사이의 값을 갖고, r은 포커싱 파라미터로써 0~5 사이의 값을 가질 수 있다.Here, α is the weight described above, p is the probability value predicted by the segmentation model (or the probability value included in the segmentation information) and has a value between 0 and 1, and r is a focusing parameter and a value between 0 and 5. You can have
특징 연결부 (220)는 제1 특징 벡터 (X) 및 세그먼테이션 정보 (Z)를 입력받을 수 있다. 특징 연결부 (220)는 제1 특징 벡터 (X)에 세그먼테이션 정보 (Z)와 관련된 변수를 연결 (concatenation)시킬 수 있다. 여기서, 세그먼테이션 정보 (Z)와 관련된 변수는 상기 세그먼테이션 정보에 기반하여 산출되는 DWMH에 대한 제1 부피 값 및/또는 상기 PVWMH에 대한 제2 부피 값일 수 있다. 이 경우, 특징 연결부 (220)는 상기 제1 부피 값 및/또는 제2 부피 값을 제1 특징 벡터 (X)에 연결시켜 제2 특징 벡터를 생성할 수 있다. 예컨대, 상기 제1 특징 벡터는 제1 로짓 (logit 1), 제2 로짓 (logit 2) 등 복수의 로짓들에 대한 변수들을 포함할 수 있고, 특징 연결부 (220)는 상기 제1 부피 값 및 상기 제2 부피 값에 대한 변수를 상기 제1 특징 벡터에 포함시켜 복수의 로짓들, 제1 부피 값 및 제2 부피 값에 대한 변수를 포함하는 상기 제2 특징 벡터를 생성할 수 있다. 또는, 제1 특징 벡터 (X)가 복수개인 경우, 특징 연결부 (220)는 제1 특징 벡터 (X)들 각각에 대해 세그먼테이션 정보 (Z)와 관련된 변수를 연결 (concatenation)시킬 수 있다.The
또는, 특징 연결부 (220)는 상기 이미지 데이터와 관련된 메타 데이터 (M)도 추가적으로 입력 받을 수 있다. 메타 데이터 (M)는 상기 이미지 데이터의 대상체 (환자 등)의 특성인 나이, 성별 등에 대한 정보 및/또는 상기 이미지 데이터를 획득한 장치 (예컨대, MRI 장치)의 특성 (MRI vendor, magnetic field strength)을 포함할 수 있다. 이 경우, 특징 연결부 (220)는 제1 특징 벡터 (X)에 상기 제1 부피 값, 상기 제2 부피 값, 나이, 성별 등을 연결하여 상기 제2 특징 벡터를 생성할 수 있다. 예컨대, 특징 연결부 (220)는 복수의 로짓들, 제1 부피 값, 제2 부피 값, 나이, 성별 등의 변수들을 상기 제2 특징 벡터를 생성할 수 있다. 또는, 제1 특징 벡터 (X)가 복수개인 경우, 특징 연결부 (220)는 제1 특징 벡터 (X)들 각각에 대해 세그먼테이션 정보 (Z)와 관련된 변수 및 상게 메타 데이터 (M)와 관련된 변수를 연결 (concatenation)시킬 수 있다.Alternatively, the
한편, 특징 연결부 (220)는 파제카스 분류 모델 (201)에 포함되지 않을 수도 있다. 이 경우, 파제카스 분류 모델 (201)은 제1 특징 벡터 (X)를 출력하고, 컴퓨팅 장치에 의해 세그먼테이션 정보 및/또는 메타 데이터가 연결된 제1 특징 벡터 (X)인 제2 특징 벡터를 입력받아 분류 정보를 출력할 수 있다. 즉, 특징 연결부 (220)는 파제카스 분류 모델 (201)에 포함되거나 상기 컴퓨팅 장치의 동작과 관련된 별도 유닛일 수도 있다. Meanwhile, the
분류부 (230)는 상기 제2 특징 벡터들을 입력 받을 수 있다. 분류부 (230)는 입력된 제2 특징 벡터에 기초하여 상기 이미지 데이터에 대응하는 분류 정보를 출력할 수 있다. 여기서, 상기 분류 정보는 파제카스 스케일과 관련된 확률 값 또는 예측 값을 포함할 수 있다. 예컨대, 상기 분류 정보는 파제카스 스케일 또는 파제카스 스코어와 관련된 값인 1, 2 및 3 각각에 대한 확률 값 또는 예측 값을 포함할 수 있다.The
분류부 (230)는 랜덤 포레스트 (random forest) 모델에 기반하여 분류 정보를 출력할 수 있다. 예컨대, 분류부 (230)는 입력되는 제2 특징 벡터의 요소들 (또는, 복수의 변수들)을 부트스트랩 샘플링 (Bootstrap sampling)하여 복수의 변수 세트들을 생성하고, 상기 복수의 변수 세트들에 기반하여 의사 결정 트리들을 형성할 수 있다. 분류부 (230)는 형성된 의사 결정 트리들의 투표 등의 결과에 기초하여 입력되는 제2 특징 벡터와 관련된 분류 정보를 출력할 수 있다. 아울러, 분류부 (230)는 상기 제2 특징 벡터에 포함된 변수들 각각이 상기 분류 정보에 영향을 준 정도에 대한 중요도 정보도 함께 출력할 수 있다. 한편, 상술한 랜덤 포레스트 모델의 동작은 하나의 예시일 뿐, 분류부 (230)는 다양한 타입 또는 다양한 형태의 랜덤 포레스트 모델에 기반하여 분류 정보를 출력할 수 있다.The
구체적으로, 도 7을 참조하면, 분류부 (230)는 상기 의사 결정 트리들의 투표 등의 결과에 기초하여 상기 제2 특징 벡터들에 포함된 변수들 각각이 상기 분류 정보에 영향을 미치는 정도 (중요도)를 출력할 수 있다. 예컨대, 제2 특징 벡터가 제1 특징 벡터에 포함된 변수들 (logit1, logit2), 제1 부피 값 (즉, DWMH), 제2 부피 값 (즉, PVWMH), 나이, 성별 등의 변수들을 포함하는 경우, 분류부 (230)는 제2 부피값 (PVWMH), 나이, 제1 부피 값 (DWMH), 제1 로짓 (logit1) 및 제2 로짓 (logit2) 순서로 중요도를 표현하는 중요도 정보를 출력할 수 있다.Specifically, referring to FIG. 7, the
또한, 분류부 (230) 또는 컴퓨팅 장치는 하기의 수학식 2에 기반하여 상기 분류 정보에 대한 분류 손실을 산출할 수 있다.Additionally, the
상기 K은 데이터 셋의 수, y는 그라운드 트루스 값 (또는, 레이블 값), 는 상기 분류 정보에 포함된 확률 값일 수 있다.Where K is the number of data sets, y is the ground truth value (or label value), may be a probability value included in the classification information.
상기 컴퓨팅 장치는 상기 분류 손실 및 상기 세그먼테이션 손실 각각을 항으로 포함하는 전체 손실함수에 기초하여 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)을 학습시킬 수 있다. 또는, 상기 컴퓨팅 장치는 파제카스 분류 모델 (201)에서 특징 추출부 (210) 및 세그먼테이션 모델 (300)을 학습시킬 수 있다. 여기서, 상기 전체 손실함수는 하기의 수학식 3과 같이 정의될 수 있다.The computing device may learn the
Lseg는 상술한 세그먼테이션 손실이고, Lclass는 상술한 분류 손실이며, λ는 상기 두 손실과 관련된 가중치일 수 있다.L seg is the segmentation loss described above, L class is the classification loss described above, and λ may be a weight related to the two losses.
상기 컴퓨팅 장치는 상기 전체 손실함수에 의한 손실 값이 최소화될 수 있도록 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300) 각각에 대한 파라미터들 (또는 가중치들)을 조정하여 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)을 학습시킬 수 있다.The computing device adjusts the parameters (or weights) for each of the
이와 같이, 상기 컴퓨팅 장치는 세그먼테이션 모델 (300)에서 출력된 정량 특징 (제1 부피 값 및/또는 제2 부피 값)이 이미지 데이터 (10)에 대한 분류 정보에서 유의미한 영향을 줄 수 있도록 분류 손실 및 세그먼테이션 손실을 동시에 고려하여 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)을 동시에 학습시킬 수 있다. 이 경우, 파제카스 분류 모델 (201)은 정량적 특징을 추가적으로 고려하여 학습 과정에서 기존 레이블 정보에 의한 주관성이 크게 완화되어 견고한 분류 정보를 출력할 수 있도록 학습될 수 있다. 또한, 주관성의 완화 및 객관적인 기준인 정량적 특징의 추가 고려로, 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)은 분해 성능 및 정확도가 크게 향상되도록 학습될 수 있다. 나아가, 상기 컴퓨팅 장치는 상기 제2 특징 벡터에 메타 데이터 (M)와 관련된 특성도 추가적으로 포함시킴으로써 보다 견고하고 정확한 분류 정보를 출력하도록 파제카스 분류 모델 (201) 및 세그먼테이션 모델 (300)을 동시에 학습시킬 수 있다. In this way, the computing device may provide a classification loss and The Fazekas classification model (201) and the segmentation model (300) can be trained simultaneously by simultaneously considering the segmentation loss. In this case, the
도 8은 컴퓨팅 장치가 입력된 이미지 데이터에 대한 분류 정보를 출력하는 방법을 설명하기 위한 도면이다.Figure 8 is a diagram for explaining a method by which a computing device outputs classification information for input image data.
도 8을 참조하면, 컴퓨팅 장치는 파제카스와 관련된 지표 값을 분류하기 위한 이미지 데이터 (11)를 입력 받을 수 있다. 상술한 바와 같이 이미지 데이터 (11)는 3D 영상 (또는, FLAIR 전체 이미지 영상)을 포함할 수 있다. 이 경우, 파제카스 분류 모델 (202)은 도 5에 참조하여 설명한 바와 같이 특정 축 방향에 대해 획득한 2D 이미지들 (예컨대, 특정 축 방향에 대해 획득할 수 있는 복수의 2D 이미지들 중 가운데 2D 이미지를 기준으로 일부 2D 이미지들)이 입력될 수 있고, 세그먼테이션 모델 (302)은 상기 3D 영상의 전체가 입력될 수 있다.Referring to FIG. 8, the computing device can receive
파제카스 분류 모델 (202)은 2D 이미지들로부터 제1 특징 벡터 (X)를 추출할 수 있다. 예컨대, 파제카스 분류 모델 (202)은 CNN에 기반하여 상기 2D 이미지들로부터 이미지 특징인 제1 특징 벡터 (X)를 추출할 수 있다. 제1 특징 벡터 (X)는 상기 이미지 특징과 관련된 제1 로짓 (logit 1), 제2 로짓 (logit 2) 등의 정보를 포함 (또는, 벡터의 요소로써 포함)할 수 있다.The
세그먼테이션 모델 (302)은 입력된 3D 영상에 기초하여 PWMH 및/또는 DWMH를 산출하기 위한 세그먼테이션 정보 (Z)를 생성할 수 있다. 상기 세그먼테이션 정보 (Z)는 PWMH 및/또는 DWMH 값의 산출과 관련된 확률 값 (또는, 예측 값)을 포함할 수 있다.The
파제카스 분류 모델 (202)은 상기 세그먼테이션 정보에 기반하여 산출된 부피 값들 (Z) 및 입력된 메타 데이터 (M) (나이, 성별 등)가 연결된 제1 특징 벡터 (X)인 제2 특징 벡터에 기반하여 상기 이미지 데이터에 대한 분류 정보를 출력할 수 있다. 예컨대, 상기 제2 특징 벡터는 제1 특징 벡터 (X)에 포함된 변수들 (제1 로짓, 및 제2 로짓 등), 제1 부피 값 (DWMH 값) 및 제2 부피 값 (PWMH 값)에 대한 변수들, 나이 및 성별에 대한 변수들 포함할 수 있다.The
구체적으로, 파제카스 분류 모델 (202)은 도 6를 참조하여 설명한 바와 같이, 랜덤 포레스트 모델에 기반하여 제2 특징 벡터들에 포함된 변수들을 부트스트랩 샘플링 (Bootstrap sampling)할 수 있다. 파제카스 분류 모델 (202)은 부트스트랩 샘플링에 의해 생성된 복수의 변수 세트들을 이용하여 파제카스 스코어 또는 파제카스 스케일에 대한 분류 정보를 출력할 수 있다. 또는, 파제카스 분류 모델 (202)은 도 6 및 도 7을 참조하여 설명한 바와 같이 상기 제2 특징 벡터들과 관련된 변수들 각각에 대한 중요도 정보를 추가적으로 출력할 수 있다.Specifically, the
이와 같이, 파제카스 분류 모델 (202)은 이미지 데이터에 대한 이미지 특징 (shape, location, distribution) 및 세그먼테이션 모델 (302)을 이용하여 정량적 특징인 세그먼테이션 정보 (PVWMH 부피 값, DWMH 부피 값)를 모두 고려하여 분류 정보를 출력할 수 있다. 이 경우, 파제카스 분류 모델 (202)은 기존 이미지 특징 (shape, location, distribution)에 의존하여 파제카스 스케일과 관련한 분류 정보를 출력하는 경우보다 분류 성능 및 정확도가 크게 향상될 수 있다. 나아가, 파제카스 분류 모델 (202)은 랜덤 포레스트 모델에 기반하여 상기 제2 특징 벡터에 포함된 변수들 각각에 대한 중요도 정보를 추가적으로 출력함으로써 이미지 데이터 (11)에 대한 해석력을 크게 증가시킬 수 있다.In this way, the Fazekas classification model (202) considers both image features (shape, location, distribution) for image data and segmentation information (PVWMH volume value, DWMH volume value), which are quantitative features, using the segmentation model (302). You can output classification information. In this case, classification performance and accuracy can be significantly improved compared to the case where the
위 실시예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명의 방법 및/또는 프로세스들, 그리고 그 단계들이 하드웨어, 소프트웨어 또는 특정 용례에 적합한 하드웨어 및 소프트웨어의 임의의 조합으로 실현될 수 있다는 점을 명확하게 이해할 수 있다. 상기 하드웨어는 범용 컴퓨터 및/또는 전용 컴퓨팅 장치 또는 특정 컴퓨팅 장치 또는 특정 컴퓨팅 장치의 특별한 모습 또는 구성요소를 포함할 수 있다. 상기 프로세스들은 내부 및/또는 외부 메모리를 가지는, 하나 이상의 마이크로프로세서, 마이크로컨트롤러, 임베디드 마이크로컨트롤러, 프로그래머블 디지털 신호 프로세서 또는 기타 프로그래머블 장치에 의하여 실현될 수 있다. 게다가, 혹은 대안으로서, 상기 프로세스들은 주문형 집적회로(application specific integrated circuit; ASIC), 프로그래머블 게이트 어레이(programmable gate array), 프로그래머블 어레이 로직(Programmable Array Logic; PAL) 또는 전자 신호들을 처리하기 위해 구성될 수 있는 임의의 다른 장치 또는 장치들의 조합으로 실시될 수 있다. 더욱이 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 관찰 가능한 기록 매체에 기록될 수 있다. 상기 기계 관찰 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 관찰 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 관찰 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 전술한 장치들 중 어느 하나뿐만 아니라 프로세서, 프로세서 아키텍처 또는 상이한 하드웨어 및 소프트웨어의 조합들의 이종 조합, 또는 다른 어떤 프로그램 명령어들을 실행할 수 있는 기계 상에서 실행되기 위하여 저장 및 컴파일 또는 인터프리트될 수 있는, C와 같은 구조적 프로그래밍 언어, C++ 같은 객체지향적 프로그래밍 언어 또는 고급 또는 저급 프로그래밍 언어(어셈블리어, 하드웨어 기술 언어들 및 데이터베이스 프로그래밍 언어 및 기술들)를 사용하여 만들어질 수 있는바, 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 이에 포함된다. Based on the description of the above embodiments, those skilled in the art will understand that the method and/or processes of the present invention, and the steps thereof, can be realized with hardware, software, or any combination of hardware and software suitable for a specific application. The point can be clearly understood. The hardware may include general-purpose computers and/or dedicated computing devices or specific computing devices or special features or components of specific computing devices. The processes may be realized by one or more microprocessors, microcontrollers, embedded microcontrollers, programmable digital signal processors, or other programmable devices, with internal and/or external memory. Additionally, or alternatively, the processes may be configured as an application specific integrated circuit (ASIC), programmable gate array, programmable array logic (PAL), or to process electronic signals. It can be implemented with any other device or combination of devices. Furthermore, the subject matter of the technical solution of the present invention or the parts contributing to the prior art may be implemented in the form of program instructions that can be executed through various computer components and recorded on a machine-viewable recording medium. The machine-viewable recording medium may include program instructions, data files, data structures, etc., singly or in combination. The program instructions recorded on the machine-viewable recording medium may be specially designed and configured for the present invention or may be known and usable by those skilled in the art of computer software. Examples of machine-viewable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs, DVDs, and Blu-rays, and magneto-optical media such as floptical disks. (magneto-optical media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include storing and compiling or interpreting them for execution on any one of the foregoing devices, as well as a heterogeneous combination of processors, processor architectures, or combinations of different hardware and software, or any other machine capable of executing the program instructions. machine code, which may be created using a structured programming language such as C, an object-oriented programming language such as C++, or a high- or low-level programming language (assembly language, hardware description languages, and database programming languages and techniques); This includes not only bytecode but also high-level language code that can be executed by a computer using an interpreter.
따라서 본 명세서에 따른 일 태양에서는, 앞서 설명된 방법 및 그 조합들이 하나 이상의 컴퓨팅 장치들에 의하여 수행될 때, 그 방법 및 방법의 조합들이 각 단계들을 수행하는 실행 가능한 코드로서 실시될 수 있다. 다른 일 태양에서는, 상기 방법은 상기 단계들을 수행하는 시스템들로서 실시될 수 있고, 방법들은 장치들에 걸쳐 여러 가지 방법으로 분산되거나 모든 기능들이 하나의 전용, 독립형 장치 또는 다른 하드웨어에 통합될 수 있다. 또 다른 일 태양에서는, 위에서 설명한 프로세스들과 연관된 단계들을 수행하는 수단들은 앞서 설명한 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 그러한 모든 순차 결합 및 조합들은 본 명세서의 범위 내에 속하도록 의도된 것이다.Accordingly, in one aspect according to the present specification, when the above-described methods and combinations thereof are performed by one or more computing devices, the methods and combinations of methods may be implemented as executable code that performs the respective steps. In another aspect, the method may be practiced as systems that perform the steps, the methods may be distributed in several ways across devices, or all functions may be integrated into one dedicated, standalone device or other hardware. In another aspect, the means for performing steps associated with the processes described above may include any of the hardware and/or software described above. All such sequential combinations and combinations are intended to be within the scope of this specification.
예를 들어, 상기 하드웨어 장치는 본 명세서에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 MPU, CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.For example, the hardware device may be configured to operate as one or more software modules to perform processing according to the present disclosure, and vice versa. The hardware device may include a processor such as an MPU, CPU, GPU, or TPU coupled with a memory such as ROM/RAM for storing program instructions and configured to execute instructions stored in the memory, and external devices and signals. It may include a communication unit capable of sending and receiving. In addition, the hardware device may include a keyboard, mouse, and other external input devices to receive commands written by developers.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.In the above, the present invention has been described with specific details such as specific components and limited embodiments and drawings, but this is only provided to facilitate a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , a person skilled in the art to which the present invention pertains can make various modifications and variations from this description.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and the scope of the patent claims described below as well as all modifications equivalent to or equivalent to the scope of the claims fall within the scope of the spirit of the present invention. They will say they do it.
그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 명세서에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것인바, 본 발명의 진의 및 범위는 전술한 예시들에 의하여 제한되어서는 아니되며, 법률에 의하여 허용 가능한 가장 넓은 의미로 이해되어야 한다.Such equivalent or equivalent modifications will include, for example, logically equivalent methods that can produce the same results as performing the method according to the present specification, and the spirit and scope of the present invention should not be limited by the foregoing examples, but should be understood in the broadest sense permissible by law.
Claims (12)
상기 이미지 데이터를 입력 받는 단계; 및
파제카스 (Fazekas) 분류 모델에 상기 이미지 데이터를 입력하여 상기 분류 정보를 출력하는 단계를 포함하고,
상기 파제카스 분류 모델은 상기 이미지 데이터로부터 추출된 제1 특징 벡터에 PVWMH (Periventricular white matter hyperintensity) 부피 및 DWMH (Deep WMH) 부피를 연결 (concatenation)한 제2 특징 벡터에 기초하여 상기 분류 정보를 출력하고,
상기 파제카스 분류 모델은 상기 제1 특징 벡터, 상기 PVWMH 부피 및 상기 DWMH 부피 각각이 상기 분류 정보에 기여한 정도에 대한 중요도 정보를 더 출력하는, 방법.In a method for a computing device to output classification information for image data,
receiving the image data; and
Including the step of inputting the image data into a Fazekas classification model and outputting the classification information,
The Fazecas classification model outputs the classification information based on a second feature vector that concatenates the PVWMH (Periventricular white matter hyperintensity) volume and the DWMH (Deep WMH) volume with the first feature vector extracted from the image data. do,
The Fazecas classification model further outputs importance information about the degree to which each of the first feature vector, the PVWMH volume, and the DWMH volume contributed to the classification information.
상기 PVWMH 부피 및 상기 DWMH 부피는 세그먼테이션 모델에 상기 이미지 데이터를 입력하여 산출되는 것을 특징으로 하는, 방법.According to paragraph 1,
The method, characterized in that the PVWMH volume and the DWMH volume are calculated by inputting the image data into a segmentation model.
상기 파제카스 분류 모델 및 상기 세그먼테이션 모델은 학습 데이터를 이용하여 산출된 분류 손실 및 세그먼테이션 손실에 기초하여 동시에 학습된 것을 특징으로 하는, 방법.According to paragraph 2,
The method is characterized in that the Fazecas classification model and the segmentation model are simultaneously learned based on classification loss and segmentation loss calculated using training data.
상기 학습 데이터는 학습 이미지 데이터, 파제카스 스케일과 관련된 제1 레이블 정보 및 상기 WMH와 관련된 제2 레이블 정보를 포함하는 것을 특징으로 하는, 방법.According to paragraph 3,
The method, wherein the training data includes training image data, first label information related to the Fazekas scale, and second label information related to the WMH.
상기 제2 특징 벡터는 상기 이미지 데이터에 대한 메타 데이터가 더 연결 (concatenation)된 것을 특징으로 하는, 방법.According to paragraph 1,
The method is characterized in that the second feature vector is further concatenated with metadata for the image data.
상기 파제카스 분류 모델은 상기 제2 특징 벡터들에 포함된 변수들을 부트스트랩 샘플링 (Bootstrap sampling)하여 형성된 복수의 변수 세트들에 기반하여 상기 분류 정보를 출력하는 것을 특징으로 하는, 방법.According to paragraph 1,
The Fazecas classification model is characterized in that it outputs the classification information based on a plurality of variable sets formed by bootstrap sampling of variables included in the second feature vectors.
상기 변수들은 상기 제1 특징 벡터들에 포함된 요소들, 상기 DWMH 부피 및 PVWMH 부피와 관련된 변수들을 포함하는 것을 특징으로 하는, 방법In clause 7,
The method is characterized in that the variables include elements included in the first feature vectors, variables related to the DWMH volume and the PVWMH volume.
상기 분류 정보는 제1 지표, 제2 지표 및 제3 지표 각각에 대한 확률 값 또는 예측 값을 포함하는 것을 특징으로 하는, 방법. According to paragraph 1,
The method is characterized in that the classification information includes probability values or prediction values for each of the first indicator, second indicator and third indicator.
상기 파제카스 분류 모델은 CNN (Convolutional neural network)에 기반한 서브 모델을 포함하고, 상기 서브 모델은 상기 이미지 데이터로부터 상기 제1 특징 벡터를 추출하는 것을 특징으로 하는, 방법.According to paragraph 1,
The Fazekas classification model includes a sub-model based on a convolutional neural network (CNN), and the sub-model extracts the first feature vector from the image data.
통신부; 및
상기 통신부와 연결되는 프로세서를 포함하고,
상기 프로세서는 상기 이미지 데이터를 입력 받고, 파제카스 (Fazekas) 분류 모델에 상기 이미지 데이터를 입력하여 상기 분류 정보를 출력하며,
상기 파제카스 분류 모델은 상기 이미지 데이터로부터 추출된 제1 특징 벡터에 PVWMH (Periventricular white matter hyperintensity) 부피 및 DWMH (Deep WMH) 부피를 연결 (concatenation)한 제2 특징 벡터에 기초하여 상기 분류 정보를 출력하고,
상기 파제카스 분류 모델은 상기 제1 특징 벡터, 상기 PVWMH 부피 및 상기 DWMH 부피 각각이 상기 분류 정보에 기여한 정도에 대한 중요도 정보를 더 출력하는, 컴퓨팅 장치.In a computing device that outputs classification information about image data,
Ministry of Communications; and
Includes a processor connected to the communication unit,
The processor receives the image data, inputs the image data into a Fazekas classification model, and outputs the classification information,
The Fazecas classification model outputs the classification information based on a second feature vector that concatenates the PVWMH (Periventricular white matter hyperintensity) volume and the DWMH (Deep WMH) volume with the first feature vector extracted from the image data. do,
The Fazecas classification model further outputs importance information about the degree to which each of the first feature vector, the PVWMH volume, and the DWMH volume contributed to the classification information.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210184015A KR102597647B1 (en) | 2021-12-21 | 2021-12-21 | Method for outputting classification information based on artificial neural network and apparatus therefor |
PCT/KR2022/018461 WO2023121005A1 (en) | 2021-12-21 | 2022-11-22 | Method for outputting classification information on basis of artificial nerual network and apparatus therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210184015A KR102597647B1 (en) | 2021-12-21 | 2021-12-21 | Method for outputting classification information based on artificial neural network and apparatus therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230094672A KR20230094672A (en) | 2023-06-28 |
KR102597647B1 true KR102597647B1 (en) | 2023-11-03 |
Family
ID=86902893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210184015A KR102597647B1 (en) | 2021-12-21 | 2021-12-21 | Method for outputting classification information based on artificial neural network and apparatus therefor |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102597647B1 (en) |
WO (1) | WO2023121005A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021038202A1 (en) * | 2019-08-23 | 2021-03-04 | Oxford University Innovation Limited | Computerised tomography image processing |
KR102300228B1 (en) * | 2020-12-30 | 2021-09-10 | 뉴로핏 주식회사 | A method for providing disease information and device performing the same |
US20210343008A1 (en) * | 2018-09-28 | 2021-11-04 | The Board Of Regents Of The University Of Texas System | Methods, apparatuses, and systems for 3-d phenotyping and physiological characterization of brain lesions and surrounding tissue |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102300234B1 (en) * | 2020-12-30 | 2021-09-10 | 뉴로핏 주식회사 | A method for providing disease information and device performing the same |
KR102300226B1 (en) * | 2020-12-30 | 2021-09-10 | 뉴로핏 주식회사 | A method for providing disease information and device performing the same |
-
2021
- 2021-12-21 KR KR1020210184015A patent/KR102597647B1/en active IP Right Grant
-
2022
- 2022-11-22 WO PCT/KR2022/018461 patent/WO2023121005A1/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210343008A1 (en) * | 2018-09-28 | 2021-11-04 | The Board Of Regents Of The University Of Texas System | Methods, apparatuses, and systems for 3-d phenotyping and physiological characterization of brain lesions and surrounding tissue |
WO2021038202A1 (en) * | 2019-08-23 | 2021-03-04 | Oxford University Innovation Limited | Computerised tomography image processing |
KR102300228B1 (en) * | 2020-12-30 | 2021-09-10 | 뉴로핏 주식회사 | A method for providing disease information and device performing the same |
Also Published As
Publication number | Publication date |
---|---|
KR20230094672A (en) | 2023-06-28 |
WO2023121005A1 (en) | 2023-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Karthik et al. | Neuroimaging and deep learning for brain stroke detection-A review of recent advancements and future prospects | |
Wang et al. | Deep learning detection of penumbral tissue on arterial spin labeling in stroke | |
Arafati et al. | Artificial intelligence in pediatric and adult congenital cardiac MRI: an unmet clinical need | |
US9523750B2 (en) | Determination of a magnetic resonance imaging pulse sequence protocol classification | |
EP3714461A1 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
US11341672B2 (en) | Method and device for detecting an anatomical feature of a section of a blood vessel | |
KR102344157B1 (en) | System for Processing Medical Image and Clinical Factor for Individualized Diagnosis of Stroke | |
Gillmann et al. | Uncertainty‐aware Visualization in Medical Imaging‐A Survey | |
US20210174937A1 (en) | Machine learning on raw medical imaging data for clinical decision support | |
US11893729B2 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
Saad et al. | Review of brain lesion detection and classification using neuroimaging analysis techniques | |
US11049251B2 (en) | Apparatus, method, and program for learning discriminator discriminating infarction region, discriminator for discriminating infarction region, and apparatus, method, and program for discriminating infarction region | |
US20200405175A1 (en) | Mri image reconstruction using machine learning | |
Wang et al. | Deep learning based fully automatic segmentation of the left ventricular endocardium and epicardium from cardiac cine MRI | |
Zhang et al. | Learning-based structurally-guided construction of resting-state functional correlation tensors | |
Dong et al. | Identifying carotid plaque composition in MRI with convolutional neural networks | |
Chen et al. | All answers are in the images: A review of deep learning for cerebrovascular segmentation | |
Vupputuri et al. | MCA-DN: Multi-path convolution leveraged attention deep network for salvageable tissue detection in ischemic stroke from multi-parametric MRI | |
Al-Qazzaz | Deep learning-based brain tumour image segmentation and its extension to stroke lesion segmentation | |
Zhu et al. | ISP-Net: Fusing features to predict ischemic stroke infarct core on CT perfusion maps | |
US11139082B2 (en) | Method for classifying a risk for thrombus formation in an organ, system for classifying a risk for thrombus formation in an organ, a computer program product and a computer readable medium | |
KR102597647B1 (en) | Method for outputting classification information based on artificial neural network and apparatus therefor | |
EP3965117A1 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
Raut et al. | Using a generative adversarial network to generate synthetic MRI images for multi-class automatic segmentation of brain tumors | |
KR102595045B1 (en) | Method for outputting Intra-cranial volume segmentation information and apparatus therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |