KR102582731B1 - Method and system for analyzing brain image - Google Patents
Method and system for analyzing brain image Download PDFInfo
- Publication number
- KR102582731B1 KR102582731B1 KR1020220125467A KR20220125467A KR102582731B1 KR 102582731 B1 KR102582731 B1 KR 102582731B1 KR 1020220125467 A KR1020220125467 A KR 1020220125467A KR 20220125467 A KR20220125467 A KR 20220125467A KR 102582731 B1 KR102582731 B1 KR 102582731B1
- Authority
- KR
- South Korea
- Prior art keywords
- region
- machine learning
- brain
- learning model
- interest
- Prior art date
Links
- 210000004556 brain Anatomy 0.000 title claims abstract description 176
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000010801 machine learning Methods 0.000 claims abstract description 174
- 230000003291 dopaminomimetic effect Effects 0.000 claims abstract description 29
- 210000000653 nervous system Anatomy 0.000 claims abstract description 28
- 238000003703 image analysis method Methods 0.000 claims abstract description 10
- 230000013016 learning Effects 0.000 claims description 72
- 208000014644 Brain disease Diseases 0.000 claims description 59
- 230000015654 memory Effects 0.000 claims description 46
- 230000010365 information processing Effects 0.000 claims description 39
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 25
- 201000010099 disease Diseases 0.000 claims description 24
- 210000001577 neostriatum Anatomy 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 9
- 230000005750 disease progression Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 abstract description 18
- 238000010586 diagram Methods 0.000 description 28
- VYFYYTLLBUKUHU-UHFFFAOYSA-N dopamine Chemical compound NCCC1=CC=C(O)C(O)=C1 VYFYYTLLBUKUHU-UHFFFAOYSA-N 0.000 description 24
- 238000004458 analytical method Methods 0.000 description 22
- 238000003860 storage Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 17
- 238000002600 positron emission tomography Methods 0.000 description 17
- 238000003384 imaging method Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 13
- 229960003638 dopamine Drugs 0.000 description 12
- 238000002595 magnetic resonance imaging Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 238000002591 computed tomography Methods 0.000 description 10
- 238000002603 single-photon emission computed tomography Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 8
- 208000018737 Parkinson disease Diseases 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 7
- 210000004227 basal ganglia Anatomy 0.000 description 7
- 230000005291 magnetic effect Effects 0.000 description 7
- 238000009826 distribution Methods 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 238000010191 image analysis Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 210000003523 substantia nigra Anatomy 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000000700 radioactive tracer Substances 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- WTDRDQBEARUVNC-LURJTMIESA-N L-DOPA Chemical compound OC(=O)[C@@H](N)CC1=CC=C(O)C(O)=C1 WTDRDQBEARUVNC-LURJTMIESA-N 0.000 description 3
- WTDRDQBEARUVNC-UHFFFAOYSA-N L-Dopa Natural products OC(=O)C(N)CC1=CC=C(O)C(O)=C1 WTDRDQBEARUVNC-UHFFFAOYSA-N 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 210000000063 presynaptic terminal Anatomy 0.000 description 3
- 239000012217 radiopharmaceutical Substances 0.000 description 3
- 229940121896 radiopharmaceutical Drugs 0.000 description 3
- 230000002799 radiopharmaceutical effect Effects 0.000 description 3
- 230000003252 repetitive effect Effects 0.000 description 3
- 208000024891 symptom Diseases 0.000 description 3
- 230000000946 synaptic effect Effects 0.000 description 3
- 102000015554 Dopamine receptor Human genes 0.000 description 2
- 108050004812 Dopamine receptor Proteins 0.000 description 2
- 102000010909 Monoamine Oxidase Human genes 0.000 description 2
- 108010062431 Monoamine oxidase Proteins 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000013529 biological neural network Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000037361 pathway Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 210000000225 synapse Anatomy 0.000 description 2
- 210000003478 temporal lobe Anatomy 0.000 description 2
- 238000003325 tomography Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 206010002942 Apathy Diseases 0.000 description 1
- 206010006100 Bradykinesia Diseases 0.000 description 1
- 208000026331 Disruptive, Impulse Control, and Conduct disease Diseases 0.000 description 1
- 102000006441 Dopamine Plasma Membrane Transport Proteins Human genes 0.000 description 1
- 108010044266 Dopamine Plasma Membrane Transport Proteins Proteins 0.000 description 1
- 208000004547 Hallucinations Diseases 0.000 description 1
- 208000006083 Hypokinesia Diseases 0.000 description 1
- 208000030990 Impulse-control disease Diseases 0.000 description 1
- OUYCCCASQSFEME-QMMMGPOBSA-N L-tyrosine Chemical compound OC(=O)[C@@H](N)CC1=CC=C(O)C=C1 OUYCCCASQSFEME-QMMMGPOBSA-N 0.000 description 1
- 208000005736 Nervous System Malformations Diseases 0.000 description 1
- 102000003946 Prolactin Human genes 0.000 description 1
- 108010057464 Prolactin Proteins 0.000 description 1
- 208000028017 Psychotic disease Diseases 0.000 description 1
- 206010040021 Sensory abnormalities Diseases 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 102000009659 Vesicular Monoamine Transport Proteins Human genes 0.000 description 1
- 108010020033 Vesicular Monoamine Transport Proteins Proteins 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000036982 action potential Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 210000003295 arcuate nucleus Anatomy 0.000 description 1
- 230000003935 attention Effects 0.000 description 1
- 210000003403 autonomic nervous system Anatomy 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 125000003178 carboxy group Chemical group [H]OC(*)=O 0.000 description 1
- 210000001159 caudate nucleus Anatomy 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000006999 cognitive decline Effects 0.000 description 1
- 208000010877 cognitive disease Diseases 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 208000035475 disorder Diseases 0.000 description 1
- 210000005153 frontal cortex Anatomy 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000003016 hypothalamus Anatomy 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000030214 innervation Effects 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 210000001259 mesencephalon Anatomy 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 208000015122 neurodegenerative disease Diseases 0.000 description 1
- 238000002610 neuroimaging Methods 0.000 description 1
- 239000002858 neurotransmitter agent Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 210000001152 parietal lobe Anatomy 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000001242 postsynaptic effect Effects 0.000 description 1
- 230000001144 postural effect Effects 0.000 description 1
- 239000002243 precursor Substances 0.000 description 1
- 229940097325 prolactin Drugs 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000002285 radioactive effect Effects 0.000 description 1
- 230000007958 sleep Effects 0.000 description 1
- 208000019116 sleep disease Diseases 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 210000002504 synaptic vesicle Anatomy 0.000 description 1
- OUYCCCASQSFEME-UHFFFAOYSA-N tyrosine Natural products OC(=O)C(N)CC1=CC=C(O)C=C1 OUYCCCASQSFEME-UHFFFAOYSA-N 0.000 description 1
- 230000002485 urinary effect Effects 0.000 description 1
- 210000004515 ventral tegmental area Anatomy 0.000 description 1
- 230000021542 voluntary musculoskeletal movement Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/501—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/037—Emission tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Theoretical Computer Science (AREA)
- High Energy & Nuclear Physics (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Optics & Photonics (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Data Mining & Analysis (AREA)
- Epidemiology (AREA)
- General Physics & Mathematics (AREA)
- Primary Health Care (AREA)
- Software Systems (AREA)
- Dentistry (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Physiology (AREA)
- Mathematical Physics (AREA)
- Neurology (AREA)
- Quality & Reliability (AREA)
- Neurosurgery (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Databases & Information Systems (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
본 개시는 적어도 하나의 프로세서에 의해 수행되는 뇌영상 분석 방법이 제공된다. 이 방법은 도파민 신경계를 포함하는 뇌영상을 획득하는 단계 및 획득된 뇌영상을 제1 기계학습 모델에 입력하여, 제1 기계학습 모델에 의해 추출된 관심 영역을 획득하는 단계를 포함하고, 제1 기계학습 모델은, 뇌영상의 전체 영역으로부터 도파민 신경계와 연관된 관심 영역을 추출할 수 있다. The present disclosure provides a brain image analysis method performed by at least one processor. This method includes acquiring a brain image including the dopaminergic nervous system and inputting the obtained brain image into a first machine learning model to obtain a region of interest extracted by the first machine learning model, Machine learning models can extract regions of interest associated with the dopaminergic nervous system from the entire brain image.
Description
본 개시는 뇌영상 분석 방법 및 시스템에 관한 것으로, 구체적으로, 기계학습 모델을 이용하여 도파민 신경계와 연관된 뇌영상을 분석하는 방법 및 시스템에 관한 것이다.The present disclosure relates to a method and system for analyzing brain images, and specifically, to a method and system for analyzing brain images associated with the dopaminergic nervous system using a machine learning model.
도파민은 뇌신경 세포들 간에 신호를 전달하기 위해 분비되는 신경전달물질 중에 하나로 뇌와 신장 등에서 합성되는 전구물질인 L-DOPA로부터 카르복시기(carboxyl group)을 제거함으로써 생성된다. 도파민은 두뇌의 많은 기능에 관여하며 행동과 인식, 자발적인 움직임, 동기 부여, 처벌과 보상, 프로락틴 생산의 억제, 수면, 기분, 주의, 작업 기억, 학습 등과 관련이 깊다. 또한, 도파민은 뇌의 기저핵에 작용하여 우리가 원하는 대로 몸을 정교하게 움직일 수 있도록 하는 중요한 역할을 한다.Dopamine is one of the neurotransmitters secreted to transmit signals between brain nerve cells and is produced by removing the carboxyl group from L-DOPA, a precursor synthesized in the brain and kidneys. Dopamine is involved in many functions of the brain and is closely related to behavior and cognition, voluntary movement, motivation, punishment and reward, inhibition of prolactin production, sleep, mood, attention, working memory, and learning. In addition, dopamine acts on the basal ganglia of the brain and plays an important role in allowing us to move our bodies precisely as we want.
도파민을 분비하는 뉴런들은 중뇌(midbrain)의 복측피개영역(ventral tegmental area), 흑질(substantia nigra), 시상하부 활꼴핵(arcuate nucleus of hypothalamus) 등에 위치하는데, 이 중 흑질에서는 선조체로의 도파민 신경지배를 하며 이를 흑질-선조체 경로(nigrostriatal pathway)라고 부른다.Neurons that secrete dopamine are located in the ventral tegmental area of the midbrain, the substantia nigra, and the arcuate nucleus of the hypothalamus. Among these, the substantia nigra provides dopamine innervation to the striatum. This is called the nigrostriatal pathway.
도파민을 분비하는 뉴런에서는 티로신(tyrosine)으로부터 L-DOPA를 합성하고, 다시 L-DOPA로부터 도파민을 생성한다. 이렇게 생성된 도파민은 소포성 모노아민 수송체(vesicular monoamine transporter)에 의한 시냅스 주머니(synaptic vesicle)로 이동하여 축삭 말단(axon terminal)에 저장된다. 뉴런의 활동전압(action potential)이 축삭 말단에 도달하면, 시냅스 주머니 있던 도파민이 시냅스 틈(synaptic cleft)으로 유리되며 시냅스 이후 세포막(postsynaptic membrane)에 발현된 도파민 수용체(dopamine receptor)에 결합하여 작용한다. 도파민 수용체에 결합하지 않고 시냅스 틈에 남아 있는 도파민은 도파민 수송체(dopamine transporter)에 의해 다시 축삭 말단으로 재흡수되기도 하며, 모노아민산효소(monoamine oxidase, MAO)에 의해 분해되기도 한다.Neurons that secrete dopamine synthesize L-DOPA from tyrosine and then produce dopamine from L-DOPA. The dopamine produced in this way moves to the synaptic vesicle by the vesicular monoamine transporter and is stored in the axon terminal. When the action potential of the neuron reaches the axon terminal, dopamine in the synaptic pocket is released into the synaptic cleft and acts by binding to the dopamine receptor expressed on the postsynaptic membrane. . Dopamine remaining in the synaptic gap without binding to the dopamine receptor is reabsorbed back into the axon terminal by the dopamine transporter, and is also decomposed by monoamine oxidase (MAO).
파킨슨병은 손떨림, 서동(행동이 느려짐), 경직(근육이 뻣뻣해짐), 상체가 앞으로 기움, 자세 불안정과 같은 운동증상과 우울, 불안, 무감동, 충동 조절 장애, 환시, 정신증 등의 신경 정신 질환, 인지기능 저하, 자율신경계 이상, 수면 장애, 배뇨 장애, 감각 이상과 같은 비운동 증상을 특징으로 하는 신경과 영역의 대표적인 퇴행성 질환이다.Parkinson's disease is characterized by motor symptoms such as hand tremors, bradykinesia (slow movement), rigidity (stiff muscles), upper body leaning forward, and postural instability, as well as neuropsychiatric diseases such as depression, anxiety, apathy, impulse control disorders, hallucinations, and psychosis. , is a representative degenerative disease in the field of neurology characterized by non-motor symptoms such as cognitive decline, autonomic nervous system abnormalities, sleep disorders, urinary disorders, and sensory abnormalities.
파킨슨병의 특징은 흑질의 도파민 신경세포가 원인을 알 수 없는 소실로, 선조체의 도파민이 감소하는 것이다. 파킨슨병의 증상은 흑질의 도파민 신경이 60~80% 정도 소실된 후에 명확하게 나타나며, 방사성동위원소를 이용한 의료영상 검사인 양전자방출단층촬영(positron emission tomography, PET)이나 단일광자방출단층촬영(single-photon emission computed tomography, SPECT)를 이용하여 파킨슨 환자에서 흑질-선조체 경로의 유지 정도를 판단할 수 있다.A characteristic of Parkinson's disease is the unexplained loss of dopamine neurons in the substantia nigra, resulting in a decrease in dopamine in the striatum. Symptoms of Parkinson's disease clearly appear after about 60-80% of the dopaminergic nerves in the substantia nigra are lost, and can be diagnosed through positron emission tomography (PET), a medical imaging test using radioisotopes, or single photon emission tomography (Single Photon Emission Tomography). -Photon emission computed tomography (SPECT) can be used to determine the degree of maintenance of the nigra-striatal pathway in Parkinson's patients.
도파민 신경계에 대한 PET이나 SPECT 영상 검사는 방사성의약품이 특이적 결합을 하는 선조체 등의 특정 영역만 영상 화소 값이 두드러지게 높고, 다른 뇌 영역에서 화소 값이 낮아 뇌의 구조를 정확히 알기 어렵다. 또한 도파민 신경계 이상으로 선조체의 방사성의약품 섭취(uptake)가 낮은 경우 선조체 영역의 구별과 분할이 더욱 어려워진다. In PET or SPECT imaging tests for the dopaminergic nervous system, the image pixel value is noticeably high in certain areas such as the striatum, where radiopharmaceuticals specifically bind, and the pixel value is low in other brain areas, making it difficult to accurately determine the structure of the brain. Additionally, if the uptake of radiopharmaceuticals in the striatum is low due to abnormalities in the dopaminergic nervous system, distinction and division of the striatal region becomes more difficult.
이에 따라, 종래에는 PET이나 SPECT 영상 위에 수동으로(manually) 관심 영역(region of interest, ROI)을 그려 선조체 및 다른 뇌영역의 화소 값을 추출하고 이를 통해 방사성의약품 섭취 정도를 알아내는 방법을 사용하였다. 또는, 자기공명영상(magnetic resonance imaging, MRI)이나 컴퓨터단층촬영(computed tomography, CT)의 해부학적 정보를 이용하여 선조체 등 도파민 신경계 영역을 관심 영역으로 정의한 후 이를 PET, SPECT 영상 위로 복사하여 화소 값을 추출하였다.Accordingly, in the past, a method was used to manually draw a region of interest (ROI) on a PET or SPECT image, extract pixel values of the striatum and other brain regions, and determine the level of radiopharmaceutical intake through this. . Alternatively, use anatomical information from magnetic resonance imaging (MRI) or computed tomography (CT) to define the dopaminergic nervous system region, such as the striatum, as a region of interest, and then copy this onto the PET or SPECT image to determine the pixel value. was extracted.
하지만, PET 및 SPECT 영상위에 직접 수동으로 관심 영역을 그리는 방법은 시간이 오래 걸리고 번거로우며, 관심 영역을 그리는 작업자에 따라 관심 영역의 위치, 모양, 크기 등이 다르고 이에 따라 추출된 화소 값이 달라진다는 한계가 있었다. 또한, MRI나 CT를 이용하는 방법은 추가적인 검사 및 영상이 필요하고, MRI(또는 CT)와 PET(또는 SPECT) 촬영 사이의 환자 움직임 등에 의한 영상 간의 공간 불일치 등이 발생할 수 있다. 이러한 공간 불일치는 MRI 또는 CT에서 정의한 관심 영역을 복사하여 추출한 PET 또는 SPECT 영상에 포함된 화소 값의 오류를 유발할 수 있다.However, the method of manually drawing the region of interest directly on PET and SPECT images is time-consuming and cumbersome, and the location, shape, and size of the region of interest differ depending on the operator drawing the region of interest, and the extracted pixel values vary accordingly. There were limits. In addition, methods using MRI or CT require additional tests and images, and spatial discrepancies between images may occur due to patient movement between MRI (or CT) and PET (or SPECT) imaging. This spatial inconsistency may cause errors in pixel values contained in PET or SPECT images extracted by copying the region of interest defined by MRI or CT.
이에 따라, MRI 또는 CT의 도움 없이 도파민 신경계 PET 또는 SPECT 영상에서 선조체를 포함한 국소 뇌영역의 화소 값을 자동으로 추출하는 방법이 필요하다.Accordingly, there is a need for a method to automatically extract pixel values of local brain regions, including the striatum, from dopaminergic nervous system PET or SPECT images without the help of MRI or CT.
본 개시는 상기와 같은 문제점을 해결하기 위한 뇌영상 분석 방법, 기록매체에 저장된 컴퓨터 프로그램 및 장치(시스템)를 제공한다.The present disclosure provides a brain image analysis method, a computer program stored in a recording medium, and a device (system) to solve the above problems.
본 개시는 방법, 장치(시스템) 및/또는 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램, 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능 저장 매체를 포함한 다양한 방식으로 구현될 수 있다.The present disclosure may be implemented in various ways, including a method, a device (system), and/or a computer program stored in a computer-readable storage medium, and a computer-readable storage medium storing the computer program.
본 개시의 일 실시예에 따르면, 적어도 하나의 프로세서에 의해 수행되는 뇌영상 분석 방법은, 도파민 신경계를 포함하는 뇌영상을 획득하는 단계 및 획득된 뇌영상을 제1 기계학습 모델에 입력하여, 제1 기계학습 모델에 의해 추출된 관심 영역을 획득하는 단계를 포함하고, 제1 기계학습 모델은, 뇌영상의 전체 영역으로부터 도파민 신경계와 연관된 관심 영역을 추출할 수 있다. According to an embodiment of the present disclosure, a brain image analysis method performed by at least one processor includes acquiring a brain image including a dopaminergic nervous system and inputting the acquired brain image into a first machine learning model, 1 A step of obtaining a region of interest extracted by a machine learning model, wherein the first machine learning model can extract a region of interest associated with the dopaminergic nervous system from the entire region of the brain image.
또한, 제1 기계학습 모델은, 뇌 템플릿에 기초하여 뇌영상을 변형하고, 변형된 뇌영상의 전체 영역으로부터 관심 영역을 추출할 수 있다. Additionally, the first machine learning model can transform a brain image based on a brain template and extract a region of interest from the entire region of the transformed brain image.
또한, 뇌 템플릿의 크기 또는 형태 중 적어도 하나에 기초하여, 뇌영상의 크기 또는 형태 중 적어도 하나가 변형될 수 있다. Additionally, based on at least one of the size or shape of the brain template, at least one of the size or shape of the brain image may be modified.
또한, 제1 기계학습 모델은, 뇌 템플릿에 포함된 관심 공간 정보에 기초하여, 변형된 뇌영상의 전체 영역으로부터 관심 영역을 추출할 수 있다. Additionally, the first machine learning model can extract a region of interest from the entire area of the transformed brain image based on space of interest information included in the brain template.
또한, 추출된 관심 영역을 획득하는 단계는, 성별, 나이, 뇌질병 가족력 또는 사용자의 질병 중 적어도 하나를 포함하는 사용자 정보를 제1 기계학습 모델로 추가적으로 입력하는 단계를 포함하고, 제1 기계학습 모델은, 사용자 정보에 기초하여 뇌영상의 전체 영역에서 관심 영역의 위치와 크기를 결정할 수 있다. In addition, the step of obtaining the extracted region of interest includes additionally inputting user information including at least one of gender, age, family history of brain disease, or disease of the user into the first machine learning model, and the first machine learning model The model can determine the location and size of the region of interest in the entire brain image area based on user information.
또한, 뇌영상 분석 방법은, 뇌영상을 획득하는 단계 이전에, 학습용 사용자 정보, 학습용 뇌영상 및 레퍼런스 영역을 포함하는 트레이닝셋에 이용하여 제1 기계학습 모델에 대한 학습을 수행하는 단계를 더 포함하고, 제1 기계학습 모델은, 학습용 사용자 정보와 학습용 뇌영상을 기초로 출력된 관심 영역과 레퍼런스 영역 간의 손실이 최소화되도록 학습될 수 있다. In addition, the brain image analysis method further includes the step of performing learning on a first machine learning model using a training set including user information for learning, brain images for learning, and a reference region before acquiring the brain image. And, the first machine learning model can be trained to minimize loss between the region of interest and the reference region output based on user information for learning and brain images for learning.
또한, 뇌영상 분석 방법은, 관심 영역을 획득하는 단계 이후에, 관심 영역에 대한 특징 정보를 제2 기계학습 모델에 입력하여, 제2 기계학습 모델로부터 뇌질병 발병 여부에 대한 정보 또는 뇌질병 진행 정도 중 적어도 하나를 획득하는 단계를 더 포함하고, 제2 기계학습 모델은, 관심 영역의 특징 정보에 기초하여 뇌질병을 판정할 수 있다. In addition, in the brain image analysis method, after the step of acquiring the region of interest, characteristic information about the region of interest is input into a second machine learning model, and from the second machine learning model, information about the occurrence of brain disease or progression of brain disease is obtained. It may further include obtaining at least one of the degrees, and the second machine learning model may determine brain disease based on feature information of the region of interest.
또한, 관심 영역에 대한 특징 정보는, 관심 영역의 최대 화소 값, 최소 화소 값, 평균 화소 값 또는 화소 분산 값, 화소 값의 범위 또는 관심 영역에 포함된 제1 영역과 제2 영역 간의 비율 중 적어도 하나를 포함할 수 있다. Additionally, the feature information about the region of interest may include at least one of the maximum pixel value, minimum pixel value, average pixel value or pixel distribution value, the range of pixel values, or the ratio between the first and second regions included in the region of interest. It can contain one.
또한, 제1 영역은 관심 영역에 포함된 제1 선조체과 연관되고, 제2 영역은 관심 영역에 포함된 제2 선조체와 연관될 수 있다. Additionally, the first region may be associated with the first striatum included in the region of interest, and the second region may be associated with the second striatum included in the region of interest.
상술한 뇌영상 분석 방법을 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 제공될 수 있다. In order to execute the above-described brain image analysis method on a computer, a computer program stored in a computer-readable recording medium may be provided.
본 개시의 일 실시예에 따르면, 정보 처리 시스템은, 메모리 및 메모리와 연결되고, 메모리에 포함된 컴퓨터 판독 가능한 적어도 하나의 프로그램을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로그램은, 도파민 신경계를 포함하는 뇌영상을 획득하고, 획득된 뇌영상을 제1 기계학습 모델에 입력하여, 제1 기계학습 모델에 의해 추출된 관심 영역을 획득하기 위한 명령어들을 포함하고, 제1 기계학습 모델은 뇌영상의 전체 영역에서 도파민 신경계와 연관된 관심 영역을 추출할 수 있다. According to one embodiment of the present disclosure, an information processing system includes a memory and at least one processor connected to the memory and configured to execute at least one computer-readable program included in the memory, and the at least one program includes, Contains instructions for acquiring a brain image including the dopaminergic nervous system, inputting the acquired brain image into a first machine learning model, and obtaining a region of interest extracted by the first machine learning model, and a first machine learning model. can extract regions of interest associated with the dopaminergic nervous system from the entire area of the brain image.
본 개시의 일부 실시예에 따르면, MRI나 CT 영상이 결합되지 않은 뇌영상으로부터 관심 영역을 정확하게 추출할 수 있다. 획득된 관심 영역에 대한 특징 정보에 기초하여 뇌질병을 판정하거나, 뇌질병의 진행 정보가 정확하게 판정될 수 있다. According to some embodiments of the present disclosure, a region of interest can be accurately extracted from a brain image that is not combined with an MRI or CT image. Brain disease can be determined based on the acquired characteristic information about the region of interest, or brain disease progression information can be accurately determined.
본 개시의 일부 실시예에 따르면, MRI나 CT가 결합되어 있지 않은 단독 뇌영상으로부터 관심 영역에 대한 특징 정보가 획득될 수 있으므로, PET/MRI, PET/CT와 같은 고가의 융합 영상기기 사용이 필요하지 않고, 더불어 뇌질병을 판명하는 데까지 비용이 절감되고 속도가 향상될 수 있다. According to some embodiments of the present disclosure, feature information about the region of interest can be obtained from a single brain image that is not combined with MRI or CT, so the use of expensive fusion imaging devices such as PET/MRI or PET/CT is necessary. In addition, costs can be reduced and speed can be improved in diagnosing brain diseases.
본 개시의 일부 실시예에 따르면, 기계학습 모델을 이용하여 뇌영상에 포함된 적어도 하나의 관심 영역이 추출되기 때문에, 조작 미숙으로 발생하는 영상 정량화 에러가 최소화될 수 있고, 더불어 뇌영상 분석에 대한 정확성도 향상될 수 있다.According to some embodiments of the present disclosure, since at least one region of interest included in a brain image is extracted using a machine learning model, image quantification errors resulting from poor manipulation can be minimized, and in addition, it is possible to minimize the error in brain image analysis. Accuracy can also be improved.
본 개시의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자('통상의 기술자'라 함)에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned are clear to a person skilled in the art (referred to as a ‘person skilled in the art’) in the technical field to which this disclosure pertains from the description of the claims. It will be understandable.
본 개시의 실시예들은, 이하 설명하는 첨부 도면들을 참조하여 설명될 것이며, 여기서 유사한 참조 번호는 유사한 요소들을 나타내지만, 이에 한정되지는 않는다.
도 1은 본 개시의 일 실시예에 따른 정보 처리 시스템이 촬영 장치 및 사용자 단말 각각과 통신 가능하도록 연결된 구성을 나타내는 개요도이다.
도 2는 본 개시의 일 실시예에 따른 정보 처리 시스템의 내부 구성을 나타내는 블록도이다.
도 3은 본 개시의 일 실시예에 따른 정보 처리 시스템에 포함된 프로세서의 내부 구성을 나타내는 블록도이다.
도 4는 본 개시의 일 실시예에 따른 제1 기계학습 모델을 통해 출력되는 데이터를 예시하는 도면이다.
도 5는 본 개시의 일 실시예에 따른, 제1 기계학습 모델이 학습되는 과정을 예시하는 도면이다.
도 6은 제1 기계학습 모델로 입력된 제1 뇌영상과 제1 기계학습 모델로부터 출력된 제2 뇌영상에 대한 예시를 나타내는 도면이다.
도 7은 제1 기계학습 모델로 입력된 제3 뇌영상과 제1 기계학습 모델로부터 출력된 제4 뇌영상에 대한 예시를 나타내는 도면이다.
도 8은 본 개시의 일 실시예에 따른, 제2 기계학습 모델을 통해 출력되는 데이터를 예시하는 도면이다.
도 9는 본 개시의 일 실시예에 따른, 제2 기계학습 모델이 학습되는 과정을 예시하는 도면이다.
도 10은 제2 기계학습 모델로 입력된 제5 뇌영상과 제2 기계학습 모델로부터 출력된 제1 관심 영역에 대한 예시를 나타내는 도면이다.
도 11은 제2 기계학습 모델로 입력된 제6 뇌영상과 제2 기계학습 모델로부터 출력된 제2 관심 영역에 대한 예시를 나타내는 도면이다.
도 12는 본 개시의 일 실시예에 따른, 제3 기계학습 모델을 통해 출력되는 데이터를 예시하는 도면이다.
도 13은 본 개시의 일 실시예에 따른, 제3 기계학습 모델이 학습되는 과정을 예시하는 도면이다.
도 14는 본 개시의 일 실시예에 따른, 인공신경망을 포함하는 기계학습 모델의 예시를 나타내는 도면이다.
도 15는 MRI/PET 결합 방식으로 얻은 우측 기저핵의 평균 화소 값과 본 개시의 실시예에 따라 획득한 우측 기저핵의 평균 화소 값을 비교한 그래프이다
도 16은 본 개시의 일 실시예에 따른, 뇌영상 분석 방법을 설명하기 위한 흐름도이다.Embodiments of the present disclosure will be described with reference to the accompanying drawings described below, in which like reference numerals indicate like elements, but are not limited thereto.
1 is a schematic diagram showing a configuration in which an information processing system according to an embodiment of the present disclosure is connected to communicate with each of a photographing device and a user terminal.
Figure 2 is a block diagram showing the internal configuration of an information processing system according to an embodiment of the present disclosure.
Figure 3 is a block diagram showing the internal configuration of a processor included in an information processing system according to an embodiment of the present disclosure.
Figure 4 is a diagram illustrating data output through a first machine learning model according to an embodiment of the present disclosure.
Figure 5 is a diagram illustrating a process in which a first machine learning model is learned, according to an embodiment of the present disclosure.
Figure 6 is a diagram showing an example of a first brain image input to a first machine learning model and a second brain image output from the first machine learning model.
Figure 7 is a diagram showing an example of a third brain image input to the first machine learning model and a fourth brain image output from the first machine learning model.
Figure 8 is a diagram illustrating data output through a second machine learning model according to an embodiment of the present disclosure.
Figure 9 is a diagram illustrating a process in which a second machine learning model is learned, according to an embodiment of the present disclosure.
Figure 10 is a diagram showing an example of a fifth brain image input to a second machine learning model and a first region of interest output from the second machine learning model.
Figure 11 is a diagram showing an example of a sixth brain image input to a second machine learning model and a second region of interest output from the second machine learning model.
Figure 12 is a diagram illustrating data output through a third machine learning model according to an embodiment of the present disclosure.
Figure 13 is a diagram illustrating a process in which a third machine learning model is learned, according to an embodiment of the present disclosure.
FIG. 14 is a diagram illustrating an example of a machine learning model including an artificial neural network, according to an embodiment of the present disclosure.
Figure 15 is a graph comparing the average pixel value of the right basal ganglia obtained by a combined MRI/PET method with the average pixel value of the right basal ganglia obtained according to an embodiment of the present disclosure.
Figure 16 is a flowchart for explaining a brain image analysis method according to an embodiment of the present disclosure.
이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.Hereinafter, specific details for implementing the present disclosure will be described in detail with reference to the attached drawings. However, in the following description, detailed descriptions of well-known functions or configurations will be omitted if there is a risk of unnecessarily obscuring the gist of the present disclosure.
첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응되는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나, 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.In the accompanying drawings, identical or corresponding components are given the same reference numerals. Additionally, in the description of the following embodiments, overlapping descriptions of identical or corresponding components may be omitted. However, even if descriptions of components are omitted, it is not intended that such components are not included in any embodiment.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 통상의 기술자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.Advantages and features of the disclosed embodiments and methods for achieving them will become clear by referring to the embodiments described below in conjunction with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the present disclosure is complete and that the present disclosure does not convey the scope of the invention to those skilled in the art. It is provided only for complete information.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. 본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서, 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.Terms used in this specification will be briefly described, and the disclosed embodiments will be described in detail. The terms used in this specification are general terms that are currently widely used as much as possible while considering the function in the present disclosure, but this may vary depending on the intention or precedent of a technician working in the related field, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Accordingly, the terms used in this disclosure should be defined based on the meaning of the term and the overall content of the present disclosure, rather than simply the name of the term.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한, 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다. 명세서 전체에서 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.In this specification, singular expressions include plural expressions, unless the context clearly specifies the singular. Additionally, plural expressions include singular expressions, unless the context clearly specifies plural expressions. When it is said that a certain part includes a certain element throughout the specification, this does not mean excluding other elements, but may further include other elements, unless specifically stated to the contrary.
또한, 명세서에서 사용되는 '모듈' 또는 '부'라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, '모듈' 또는 '부'는 어떤 역할들을 수행한다. 그렇지만, '모듈' 또는 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '모듈' 또는 '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, '모듈' 또는 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 또는 변수들 중 적어도 하나를 포함할 수 있다. 구성요소들과 '모듈' 또는 '부'들은 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '모듈' 또는 '부'들로 결합되거나 추가적인 구성요소들과 '모듈' 또는 '부'들로 더 분리될 수 있다.Additionally, the term 'module' or 'unit' used in the specification refers to a software or hardware component, and the 'module' or 'unit' performs certain roles. However, 'module' or 'unit' is not limited to software or hardware. A 'module' or 'unit' may be configured to reside on an addressable storage medium and may be configured to run on one or more processors. Thus, as an example, a 'module' or 'part' refers to components such as software components, object-oriented software components, class components and task components, processes, functions and properties. , procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, or variables. Components and 'modules' or 'parts' may be combined into smaller components and 'modules' or 'parts' or further components and 'modules' or 'parts'. Could be further separated.
본 개시의 일 실시예에 따르면, '모듈' 또는 '부'는 프로세서 및 메모리로 구현될 수 있다. '프로세서'는 범용 프로세서, 중앙 처리 장치(CPU), 마이크로프로세서, 디지털 신호 프로세서(DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서, '프로세서'는 주문형 반도체(ASIC), 프로그램가능 로직 디바이스(PLD), 필드 프로그램가능 게이트 어레이(FPGA) 등을 지칭할 수도 있다. '프로세서'는, 예를 들어, DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다. 또한, '메모리'는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. '메모리'는 임의 액세스 메모리(RAM), 판독-전용 메모리(ROM), 비-휘발성 임의 액세스 메모리(NVRAM), 프로그램가능 판독-전용 메모리(PROM), 소거-프로그램가능 판독 전용 메모리(EPROM), 전기적으로 소거가능 PROM(EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.According to an embodiment of the present disclosure, a 'module' or 'unit' may be implemented with a processor and memory. 'Processor' should be interpreted broadly to include general-purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, etc. In some contexts, 'processor' may refer to an application-specific integrated circuit (ASIC), programmable logic device (PLD), field programmable gate array (FPGA), etc. 'Processor' refers to a combination of processing devices, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in combination with a DSP core, or any other such combination of configurations. You may. Additionally, 'memory' should be interpreted broadly to include any electronic component capable of storing electronic information. 'Memory' refers to random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), programmable read-only memory (PROM), erasable-programmable read-only memory (EPROM), May also refer to various types of processor-readable media, such as electrically erasable PROM (EEPROM), flash memory, magnetic or optical data storage, registers, etc. A memory is said to be in electronic communication with a processor if the processor can read information from and/or write information to the memory. The memory integrated into the processor is in electronic communication with the processor.
본 개시에서, '시스템'은 서버 장치와 클라우드 장치 중 적어도 하나의 장치를 포함할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 시스템은 하나 이상의 서버 장치로 구성될 수 있다. 다른 예로서, 시스템은 하나 이상의 클라우드 장치로 구성될 수 있다. 또 다른 예로서, 시스템은 서버 장치와 클라우드 장치가 함께 구성되어 동작될 수 있다.In the present disclosure, 'system' may include at least one of a server device and a cloud device, but is not limited thereto. For example, a system may consist of one or more server devices. As another example, a system may consist of one or more cloud devices. As another example, the system may be operated with a server device and a cloud device configured together.
또한, 이하의 실시예들에서 사용되는 제1, 제2, A, B, (a), (b) 등의 용어는 어떤 구성요소를 다른 구성요소와 구별하기 위해 사용되는 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등이 한정되지는 않는다.In addition, terms such as first, second, A, B, (a), (b) used in the following embodiments are only used to distinguish one component from another component, and the terms The nature, sequence, or order of the relevant components are not limited.
또한, 이하의 실시예들에서, 어떤 구성요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성요소 사이에 또 다른 구성요소가 '연결', '결합' 또는 '접속'될 수도 있다고 이해되어야 한다.Additionally, in the following embodiments, when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component may be directly connected or connected to the other component. , it should be understood that another component may be 'connected', 'combined', or 'connected' between each component.
또한, 이하의 실시예들에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.In addition, as used in the following embodiments, 'comprises' and/or 'comprising' means that the mentioned component, step, operation, and/or element includes one or more other components, steps, or operations. and/or the presence or addition of elements.
이하, 본 개시의 다양한 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the attached drawings.
도 1은 본 개시의 일 실시예에 따른 정보 처리 시스템(110)이 촬영 장치(120) 및 사용자 단말(130) 각각과 통신 가능하도록 연결된 구성을 나타내는 개요도이다. 여기서, 정보 처리 시스템(110), 촬영 장치(120) 및 사용자 단말(130) 중 복수는 동일한 장소에 위치할 수 있고, 또는 각기 다른 장소에 위치할 수 있다. 여기서, 네트워크(140)는 병원에 구축된 사설 네트워크일 수 있다. 다른 예로서, 촬영 장치(120)는 정보 처리 시스템(110)과 전용선을 통해서 다이렉트로 연결되어 통신할 수 있다. 또 다른 예로서, 정보 처리 시스템(110)은 촬영 장치(120) 또는 사용자 단말(130) 중 적어도 하나와 네트워크(140)를 통해서 통신하지 않을 수도 있다. 이 경우, 정보 처리 시스템(110)은 촬영 장치(120)에 의해 촬영된 뇌영상을 포함하는 파일을, 저장 수단(예컨대, USB 메모리, DVD 등)를 통해서 입력받고, 입력된 파일에 포함된 뇌영상에 대한 분석을 수행할 수 있다. Figure 1 is a schematic diagram showing a configuration in which the
촬영 장치(120)는 환자의 뇌 상태를 촬영하여 기능적 정보가 포함된 의료 영상과 같은 입력 영상 데이터를 획득할 수 있는 장치일 수 있다. 예컨대[, 촬영 장치(120)는 방사성동위원소를 이용한 의료영상 검사인 양전자방출단층촬영(positron emission tomography, PET)이나 단일광자방출단층촬영(single-photon emission computed tomography, SPECT)를 이용하여, 뇌영상을 촬영할 수 있는 장치일 수 있다. The
예컨대, 촬영 장치(120)는 섬광 카메라, 감마 카메라, PET 스캐너 중 적어도 하나를 포함하며, 환자의 뇌 중 전두 피질, 후대상회, 측면 측두엽, 두정엽, 후두엽 피질, 미상핵, 중앙 측두엽, 전측 대상회 중 적어도 한 부분을 촬영할 수 있다. 이때, 방사성 추적자는 환자의 인체에 주입되고, 방사성 추적자가 주입된 환자의 뇌를 촬영 장치(120)가 촬영할 수 있다. 여기서, 방사성 추적자는 도파민 신경계와 관련된 영역들을 영상화하는 물질일 수 있다. 방사성 추적자의 종류에는 F-18, C-11, N-13, O-15 중 적어도 하나인 방사성 동위원소를 포함할 수 있지만, 이에 한정하지 않는다.For example, the
사용자 단말(130)은 정보 처리 시스템(110)으로부터, 뇌영상 분석 결과를 수신할 수 있다. 사용자 단말(130)은 뇌영상 분석을 의뢰한 사용자가 보유하고 있는 컴퓨팅 장치일 수 있다. 사용자 단말(130)은 촬영 장치(120)에서 촬영한 뇌영상을 수신하고, 이 뇌영상에 대한 분석을 정보 처리 시스템(110)으로 요청할 수 있다. 또한, 사용자 단말(130)은 뇌영상의 분석 결과를 정보 처리 시스템(110)으로부터 수신할 수 있다. The
네트워크(140)는 각 장치/단말/시스템들에 대한 통신을 지원하도록 구성될 수 있다. 네트워크(140)는 설치 환경에 따라, 예를 들어, 이더넷(Ethernet), 유선 홈 네트워크(Power Line Communication), 전화선 통신 장치 및 RS-serial 통신 등의 유선 네트워크, 이동통신망, WLAN(Wireless LAN), Wi-Fi, Bluetooth 및 ZigBee 등과 같은 무선 네트워크 또는 그 조합으로 구성될 수 있다. 통신 방식은 제한되지 않으며, 네트워크(140)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망, 위성망 등)을 활용하는 통신 방식만 아니라 IoT 기기 간의 근거리 무선 통신 역시 포함될 수 있다. 일 실시예에 따르면, 네트워크(140)는 병원에 구축된 사설 네트워크일 수 있다. The
정보 처리 시스템(110)은 뇌영상 분석 등과 연관된 컴퓨터 실행 가능한 프로그램(예를 들어, 다운로드 가능한 애플리케이션) 및 데이터를 저장, 제공 및 실행할 수 있는 하나 이상의 서버 장치 및/또는 데이터베이스, 또는 클라우드 컴퓨팅 서비스 기반의 하나 이상의 분산 컴퓨팅 장치 및/또는 분산 데이터베이스를 포함할 수 있다.The
정보 처리 시스템(110)은 촬영 장치(120) 또는 사용자 단말(130)로부터 뇌영상을 수신할 수 있다. 다른 예로서, 정보 처리 시스템(110)은 촬영 장치(120)에 의해 촬영된 뇌영상이 포함된 파일을 저장 수단(예컨대, USB 메모리, DVD 등)를 통해서 입력받을 수도 있다. 일 실시예에 따르면, 정보 처리 시스템(110)은 뇌영상을 미리 학습된 기계학습 모델에 입력하고, 기계학습 모델로부터 출력된 뇌영상의 관심 영역을 획득할 수 있다. 여기서, 관심 영역은 뇌영상의 전체 영역 중에서, 도파민 신경계와 연관된 일부 영역일 수 있다. The
정보 처리 시스템(110)은 관심 영역에 대한 특징 정보를 생성하고, 이 특징 정보를 또 다른 기계학습 모델에 입력하여, 또 다른 기계학습 모델로부터 뇌영상에 대한 질병 분석 결과를 획득할 수 있다. 아울러, 정보 처리 시스템(110)은 획득한 뇌영상에 대한 질병 분석 결과를 사용자 단말(130)로 전송할 수 있다. The
도 2는 본 개시의 일 실시예에 따른 정보 처리 시스템(110)의 내부 구성을 나타내는 블록도이다. 정보 처리 시스템(110)은 메모리(210), 프로세서(220), 통신 모듈(230) 및 입출력 인터페이스(240)를 포함할 수 있다. 도 2에 도시된 바와 같이, 정보 처리 시스템(110)은 통신 모듈(230)을 이용하여 네트워크를 통해 정보 및/또는 데이터를 통신할 수 있도록 구성될 수 있다.Figure 2 is a block diagram showing the internal configuration of the
메모리(210)는 비-일시적인(non-transitory) 임의의 컴퓨터 판독 가능한 기록매체를 포함할 수 있다. 일 실시예에 따르면, 메모리(210)는 ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 다른 예로서, ROM, SSD, 플래시 메모리, 디스크 드라이브 등과 같은 비소멸성 대용량 저장 장치는 메모리와는 구분되는 별도의 영구 저장 장치로서 정보 처리 시스템(110)에 포함될 수 있다. 또한, 메모리(210)에는 운영체제와 적어도 하나의 프로그램 코드(예를 들어, 뇌영상 분석을 위한 코드 등)가 저장될 수 있다. 도 2에서, 메모리(210)는 단일 메모리인 것으로 도시되었지만, 이는 설명의 편의를 위한 것일 뿐이며, 메모리(210)는 복수의 메모리를 포함할 수 있다.
소프트웨어 구성요소들은 메모리(210)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 정보 처리 시스템(110)에 직접 연결가능한 기록 매체를 포함할 수 있는데, 예를 들어, 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 예로서, 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(230)을 통해 메모리(210)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템이 통신 모듈(230)을 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 메모리(210)에 로딩될 수 있다.Software components may be loaded from a computer-readable recording medium separate from the
통신 모듈(230)은 네트워크를 통해 사용자 단말 및/또는 외부 장치와 정보 처리 시스템(110)이 서로 통신하기 위한 구성 또는 기능을 제공할 수 있으며, 정보 처리 시스템(110)이 외부 시스템과 통신하기 위한 구성 또는 기능을 제공할 수 있다. The
또한, 정보 처리 시스템(110)의 입출력 인터페이스(240)는 정보 처리 시스템(110)과 연결되거나 정보 처리 시스템(110)이 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 예를 들면, 입출력 인터페이스(240)는 PCI express 인터페이스, 이더넷(ethernet) 인터페이스 중 적어도 하나를 포함할 수 있다. 도 2에서는 입출력 인터페이스(240)가 프로세서(220)와 별도로 구성된 요소로서 도시되었으나, 이에 한정되지 않으며, 입출력 인터페이스(240)가 프로세서(220)에 포함되도록 구성될 수 있다. 정보 처리 시스템(110)은 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수 있다. 일 실시예에 따르면, 정보 처리 시스템(110)은 뇌영상이 포함된 파일을 입력받을 수 있고, 이 경우 입출력 인터페이스(240)는 파일에 포함된 뇌영상을 획득할 수 있다. In addition, the input/
프로세서(220)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(210) 또는 통신 모듈(230)에 의해 프로세서(220)로 제공될 수 있다. 예를 들어, 프로세서(220)는 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다. 일 실시예에서, 메모리(210)에는 후술하는 다양한 실시예에 따른 방법들을 실행하기 위한 명령어들을 포함하는 적어도 하나의 프로그램이 저장될 수 있다. 또한, 프로세서(220)는 적어도 하나의 프로그램을 실행하도록 구성될 수 있다.The
일 실시예에 따르면, 프로그램은 도파민 신경계를 포함하는 뇌영상을 획득하고, 획득된 뇌영상을 기계학습 모델에 입력하여, 기계학습 모델에 의해 추출된 관심 영역을 획득하기 위한 명령어들을 포함할 수 있다. According to one embodiment, the program may include instructions for acquiring a brain image including the dopaminergic nervous system, inputting the acquired brain image into a machine learning model, and obtaining a region of interest extracted by the machine learning model. .
도 3은 본 개시의 일 실시예에 따른 정보 처리 시스템(110)에 포함된 프로세서(220)의 내부 구성을 나타내는 블록도이다. 도 3에 도시된 바와 같이, 프로세서(220)는 모델 학습부(310), 관심 영역 추출부(320) 및 질병 분석부(330)를 포함할 수 있다. Figure 3 is a block diagram showing the internal configuration of the
모델 학습부(310)는 트레이닝셋(training set)을 이용하여 적어도 하나의 기계학습 모델에 대한 학습을 수행할 수 있다. 예컨대, 모델 학습부(310)는 제1 트레이닝셋을 이용하여, 템플릿 기반으로 관심 영역을 추출하는 제1 기계학습 모델을 학습시킬 수 있다. 다른 예로서, 모델 학습부(310)는 제2 트레이닝셋을 이용하여, 개인 맞춤형 관심 영역을 추출하는 제2 기계학습 모델을 학습시킬 수 있다. 또 다른 에로서, 모델 학습부(310)는 제3 트레이닝셋을 이용하여, 관심 영역에 특징 정보에 기초하여 뇌질병을 분석하는 제3 기계학습 모델을 학습시킬 수 있다. 제1 기계학습 모델, 제2 기계학습 모델 및 제3 기계학습 모델이 학습되는 방법에 대해서는, 도 5, 도 9 및 도 13을 참조하여 후술하기로 한다. The
관심 영역 추출부(320)는 촬영 장치에서 촬영한 뇌영상을 획득하고, 획득된 뇌영상을 제1 기계학습 모델 또는 제2 기계학습 모델로 입력하고, 뇌영상에 전체 영역 중에서 뇌질병 분석에 필요한 관심 영역을 획득할 수 있다. 여기서, 관심 영역은 도파민 신경계와 관련된 세포 영역을 포함할 수 있으며, 뇌영상에 포함된 일부 영역일 수 있다. 예컨대, 관심 영역은 기저핵, 흑질, 선조체 중 적어도 하나와 연관된 영역일 수 있다. The region of
일 실시예에 따르면, 관심 영역 추출부(320)는 뇌영상을 전처리한 후에, 전처리된 뇌영상을 제1 기계학습 모델 또는 제2 기계학습 모델로 입력할 수 있다. 예컨대, 관심 영역 추출부(320)는 뇌영상을 스무딩(smoothing) 처리, 업스케일링(upscaling) 처리, 불필요한 오브젝트 제거 처리 등과 같은 전처리를 수행할 수 있다. 여기서, 불필요한 오브젝트는 뇌질병 분석에 불필요한 오브젝트를 제거하는 전처리로서, 예컨대, 뇌영상에서 뼈와 관련된 오브젝트를 제거함으로써 뇌영상이 전처리될 수 있다. According to one embodiment, the region of
관심 영역 추출부(320)는 제1 기계학습 또는 제2 기계학습 모델로 뇌영상을 입력하고, 제1 기계학습 모델 또는 제2 기계학습 모델로부터 출력된 적어도 하나의 관심 영역을 획득할 수 있다. The region of
질병 분석부(330)는 제3 기계학습 모델을 이용하여 뇌질병을 분석할 수 있다. 일 실시예에 따르면, 질병 분석부(330)는 제1 기계학습 모델 또는 제2 기계학습 모델로부터 출력된 관심 영역을 기초로, 제3 기계학습 모델에 입력되는 관심 영역에 대한 특징 정보를 생성할 수 있다. 여기서, 관심 영역에 대한 특징 정보는 화소 값 및/또는 비율 값을 포함할 수 있다. The
일 실시예에 따르면, 질병 분석부(330)는 관심 영역에 포함된 화소 값들을 기초로, 관심 영역의 최대 화소 값, 최소 화소 값, 평균 화소 값 또는 화소 분산 값 또는 화소 값의 범위 중 적어도 하나를 산출할 수 있다. According to one embodiment, the
추가적으로 또는 대안적으로, 질병 분석부(330)는 관심 영역에 포함된 제1 선조체에 해당하는 제1 영역과 제2 선조체에 해당하는 제2 영역 간의 크기 비율을 산출할 수 있다. 예를 들어, 관심 영역은 복수의 선조체 영역을 포함할 수 있고, 이 중에서 제1 선조체에 연관된 제1 영역과 제2 선조체에 연관된 제2 영역 간의 크기 비율이 산출될 수 있다. 가령, 제1 영역은 뇌영상의 좌측 또는 앞 측에 위치하고, 제2 영역은 뇌영상의 우측 또는 뒤 측에 위치할 수 있다. Additionally or alternatively, the
질병 분석부(330)는 산출된 적어도 하나의 화소 값 및/또는 비율 값을 포함하는 관심 영역에 대한 특징 정보를 제3 기계학습 모델에 입력하고, 제3 기계학습 모델로부터 출력된 뇌질병 분석 결과를 획득할 수 있다. 여기서, 관심 영역에 대한 특징 정보는, 관심 영역의 최대 화소 값, 최소 화소 값, 평균 화소 값 또는 화소 분산 값, 화소 값의 범위 또는 제1 영역과 제2 영역 간의 비율 값 중 적어도 하나를 포함할 수 있다. 여기서, 뇌질병 분석 결과에는 뇌질병 발병 여부에 대한 정보, 뇌질병이 발병된 경우 뇌질병명 또는 뇌질병의 진행 정도(예컨대, 1기, 2기, 3기 등) 중 적어도 하나가 포함될 수 있다.The
도 4는 본 개시의 일 실시예에 따른, 제1 기계학습 모델(410)을 통해 출력되는 데이터를 예시하는 도면이다. 도 4에 예시된 바와 같이 제1 기계학습 모델(410)은 뇌 템플릿 기반의 관심 영역(430)을 출력하도록 구성된 인공지능 기반의 모델일 수 있다. 여기서, 뇌 템플릿은 기준이 되는 뇌 이미지로서, 미리 결정된 크기 및 형태를 가지고 있고, 더불어 적어도 하나의 관심 공간 정보를 포함할 수 있다. 관심 공간 정보는 뇌 템플릿에 설정된 특정 지점과의 상대적인 위치 범위이거나, 픽셀 좌표 범위일 수 있다. 관심 공간 정보는 서로 분리된 복수의 영역 정보를 포함할 수 있다. FIG. 4 is a diagram illustrating data output through the first
촬영 장치에 의해 촬영된 뇌영상(420)이 제1 기계학습 모델(410)로 입력될 수 있다. 제1 기계학습 모델(410)은 뇌영상(420)을 기초로 연산을 수행하여, 뇌 템플릿 기반의 관심 영역(430)을 출력할 수 있다. 일 실시예에 따르면, 제1 기계학습 모델(410)은 뇌 템플릿의 크기 및/또는 형태에 상응하도록 입력 뇌영상(420)을 변형하고, 변형된 뇌영상(420)을 기초로 연산을 수행하여, 뇌영상(420)으로부터 관심 영역(430)을 추출하여 출력할 수 있다. 이때, 제1 기계학습 모델(410)은 뇌 템플릿에 포함된 관심 공간 정보에 기초하여, 변형된 뇌영상(420)의 전체 영역으로부터 관심 영역(430)을 추출할 수 있다.The
도 5는 본 개시의 일 실시예에 따른, 제1 기계학습 모델(410)이 학습되는 과정을 예시하는 도면이다. 제1 기계학습 모델(410)에 대한 학습은 정보 처리 시스템에 포함된 적어도 하나의 프로세서(예컨대, 도 3의 모델 학습부)에 의해서 수행될 수 있다. 복수의 학습용 데이터를 포함하는 제1 트레이닝셋이 이용되어, 제1 기계학습 모델(410)이 학습될 수 있다. 제1 트레이닝셋은 학습용 뇌영상 및 레퍼런스 영역을 포함하는 학습용 데이터를 포함할 수 있다. 여기서, 레퍼런스 영역은 학습 과정에서 정답 값(ground truth)으로서 이용되는 척도로서, 학습용 뇌영상에서 도파민 신경계와 연관된 영역일 수 있다. 일 실시예에 따르면, 제1 트레이닝셋에 포함된 레퍼런스 영역과 학습용 뇌영상은 실제로 뇌질병(예컨대, 파킨슨병)을 앓고 있거나 앓았던 환자의 의료 데이터를 기초로 생성될 수 있다. FIG. 5 is a diagram illustrating a process in which the first
도 5를 참조하면, 프로세서는 학습용 뇌영상(510)과 뇌 템플릿(520)을 제1 기계학습 모델(410)로 입력할 수 있다. 일부 실시예에서, 뇌 템플릿(520)이 별도로 입력되지 않고, 제1 기계학습 모델(410)에 임베딩될 수도 있다. Referring to FIG. 5 , the processor may input a
일 실시예에 따르면, 제1 기계학습 모델(410)은 뇌 템플릿(520)의 크기 및/또는 형태에 상응하도록, 학습용 뇌영상(510)의 크기 및/또는 형태를 변형하고, 변형된 학습용 뇌영상(510)으로부터 관심 영역(530)을 추출하고, 추출된 관심 영역(530)을 출력할 수 있다. According to one embodiment, the first
학습용 데이터에 포함된 레퍼런스 영역(540)이 추출되고, 제1 기계학습 모델(410)로부터 출력된 관심 영역(530)과 레퍼런스 영역(540) 간에 차이인 손실(loss) 값(550)이 산출되어 제1 기계학습 모델(410)로 피드백될 수 있다. 이때, 지각 기반 손실(perceptual loss) 함수와 같이 다양한 손실 함수가 이용되어, 관심 영역(530)과 레퍼런스 영역(540) 간의 손실 값(550)이 산출될 수 있다. The
피드백된 손실 값(550)이 제1 기계학습 모델(410)에 반영되어, 제1 기계학습 모델(410)에 포함된 적어도 하나의 노드에 대한 가중치가 조절될 수 있다. 여기서, 노드는 인공신경망에 포함된 노드일 수 있다. The fed back
제1 트레이닝셋에 포함된 복수의 학습용 데이터가 반복적으로 제1 기계학습 모델(410)에 입력되어 반복적인 학습이 수행되면, 제1 기계학습 모델(410)에 포함된 노드의 가중치가 최적의 값으로 수렴될 수 있다.When a plurality of learning data included in the first training set is repeatedly input to the first
도 6은 제1 기계학습 모델로 입력된 제1 뇌영상(610)과 제1 기계학습 모델로부터 출력된 제2 뇌영상(620)에 대한 예시를 나타내는 도면이다. 도 6 및 후술하는 도면에서 입력되는 뇌영상에서 검은색 표시 영역은 설명의 편의를 위한 것으로서, 기계학습 모델에 입력되는 뇌영상에서 별도의 색상으로 표기되는 영역이 존재하지 않을 수 있음을 분명히 해 둔다.FIG. 6 is a diagram illustrating an example of a first brain image 610 input to a first machine learning model and a second brain image 620 output from the first machine learning model. The black displayed area in the brain image input in FIG. 6 and the drawings described below is for convenience of explanation, and it is to be clarified that there may not be an area marked in a separate color in the brain image input to the machine learning model. .
도 6에 제1 뇌영상(610)에서 검은색으로 표시된 영역은 도파민 신경계와 관련된 영역일 수 있다. 제1 기계학습 모델은 뇌 템플릿을 기초로 제1 뇌영상(610)을 변형하여 제2 뇌영상(620)을 생성할 수 있다. 제2 뇌영상(620)에 포함된 검은색 영역이 관심 영역일 수 있다. The area marked in black in the first brain image 610 in FIG. 6 may be an area related to the dopaminergic nervous system. The first machine learning model may generate the second brain image 620 by modifying the first brain image 610 based on the brain template. The black area included in the second brain image 620 may be the area of interest.
일 실시예에 따르면, 제1 기계학습 모델은 제2 뇌영상(620)에서 관심 영역(예컨대, 검은색 영역)만을 추출하여 출력할 수 있다. 일부 실시예에 따르면, 제1 기계학습 모델은 제2 뇌영상(620) 및 관심 영역에 대한 위치 범위(예컨대, 화소 좌표 범위)를 함께 출력할 수 있다. According to one embodiment, the first machine learning model may extract and output only the region of interest (eg, black region) from the second brain image 620. According to some embodiments, the first machine learning model may output the second brain image 620 and the location range (eg, pixel coordinate range) for the region of interest.
도 7은 제1 기계학습 모델로 입력된 제3 뇌영상(710)과 제1 기계학습 모델로부터 출력된 제4 뇌영상(720)에 대한 예시를 나타내는 도면이다. 도 7에 제3 뇌영상(710)에서 검은색으로 표시된 영역은 도파민 신경계와 관련된 영역일 수 있다. 제1 기계학습 모델은 뇌 템플릿을 기초로 제3 뇌영상(710)을 변형하여, 제4 뇌영상(720)을 생성할 수 있다. 제4 뇌영상(720)에 포함된 검은색 영역이 관심 영역일 수 있다. FIG. 7 is a diagram illustrating examples of the third brain image 710 input to the first machine learning model and the fourth brain image 720 output from the first machine learning model. The area marked in black in the third brain image 710 in FIG. 7 may be an area related to the dopaminergic nervous system. The first machine learning model may generate the fourth brain image 720 by modifying the third brain image 710 based on the brain template. The black area included in the fourth brain image 720 may be the area of interest.
일 실시예에 따르면, 제1 기계학습 모델은 제4 뇌영상(720)에서 관심 영역(예컨대, 검은색 영역)만을 추출하여 출력할 수 있다. 일부 실시예에 따르면, 제1 기계학습 모델은 제4 뇌영상(720) 및 관심 영역에 대한 위치 범위(예컨대, 화소 좌표 범위)를 함께 출력할 수 있다.According to one embodiment, the first machine learning model may extract and output only the region of interest (eg, black region) from the fourth brain image 720. According to some embodiments, the first machine learning model may output the fourth brain image 720 and the location range (eg, pixel coordinate range) for the region of interest.
도 8은 본 개시의 일 실시예에 따른, 제2 기계학습 모델(810)을 통해 출력되는 데이터를 예시하는 도면이다. 도 8에 예시된 바와 같이 제2 기계학습 모델(810)은 개인 맞춤형 관심 영역(830)을 출력하도록 구성된 인공지능 기반의 모델일 수 있다. 일 실시예에 따르면, 제2 기계학습 모델(810)에는 사용자 정보가 추가적으로 입력될 수 있다. 여기서, 사용자 정보는 성별, 나이, 뇌질병 가족력 또는 사용자의 질병 중 적어도 하나를 포함할 수 있다. 여기서, 뇌질병 가족력은 사용자의 가족이 앓았거나 앓고 있는 뇌질병 병명을 포함할 수 있다. 또한, 사용자의 질병은 사용자가 앓았거나 앓고 있는 질환에 대한 병명을 포함할 수 있다. 여기서, 사용자의 질병은 뇌질병 이외에 다른 유형의 질병도 포함할 수 있다. FIG. 8 is a diagram illustrating data output through a second
촬영 장치에 의해 촬영된 뇌영상(820)이 제2 기계학습 모델(810)로 입력될 수 있다. 제2 기계학습 모델(810)은 뇌영상(820) 및 사용자 정보를 기초로 연산을 수행하여, 뇌영상(820)으로부터 개인(사용자) 맞춤형 관심 영역(830)을 추출하여 출력할 수 있다. 일 실시예에 따르면, 제2 기계학습 모델(810)은 사용자 정보에 기초하여 뇌영상(820) 전체에서 관심 대상이 되는 영역의 위치와 크기를 결정하고, 이 결정된 위치와 크기에 기초하여 뇌영상(820)의 전체 영역 중에서 관심 영역(830)을 결정하여 추출할 수 있다. The
일 실시예에 따르면, 사용자 정보에 따라 추출되는 관심 영역이 변동될 수 있다. 즉, 사용자 정보에 상이한 경우, 관심 영역의 위치 및/또는 크기가 상이하게 결정될 수 있다. According to one embodiment, the extracted region of interest may change depending on user information. That is, if the user information is different, the location and/or size of the area of interest may be determined differently.
도 9는 본 개시의 일 실시예에 따른, 제2 기계학습 모델(810)이 학습되는 과정을 예시하는 도면이다. 제2 기계학습 모델(810)에 대한 학습은 정보 처리 시스템에 포함된 적어도 하나의 프로세서(예컨대, 도 3의 모델 학습부)에 의해서 수행될 수 있다. 복수의 학습용 데이터를 포함하는 제2 트레이닝셋이 이용되어, 제2 기계학습 모델(810)이 학습될 수 있다. 제2 트레이닝셋은 학습용 뇌영상, 사용자 정보 및 레퍼런스 영역을 포함하는 학습용 데이터를 포함할 수 있다. 여기서, 레퍼런스 영역은 학습 과정에서 정답 값(ground truth)으로서 이용되는 척도로서, 도파민 신경계와 연관된 영역일 수 있다. 또한, 사용자 정보는, 성별, 나이, 뇌질병 가족력 또는 사용자의 질병 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 제2 트레이닝셋은 실제로 뇌질병(예컨대, 파킨슨병)을 앓고 있거나 앓았던 환자의 의료 데이터를 기초로 생성될 수 있다. FIG. 9 is a diagram illustrating a process in which the second
도 9를 참조하면, 프로세서는 학습용 뇌영상(910)과 사용자의 정보(920)를 제2 기계학습 모델(810)로 입력할 수 있다. 일 실시예에 따르면, 제2 기계학습 모델(810)은 사용자 정보(920)에 기초하여, 관심 대상이 되는 영역의 크기와 위치를 결정하고, 결정된 크기와 위치에 상응하는 영역을 관심 영역(930)으로 출력할 수 있다. Referring to FIG. 9 , the processor may input the
학습용 데이터에 포함된 레퍼런스 영역(940)이 추출되고, 제2 기계학습 모델(810)로부터 출력된 관심 영역(930)과 레퍼런스 영역(940) 간에 차이인 손실(loss) 값(950)이 산출되어 제2 기계학습 모델(810)로 피드백될 수 있다. 이때, 지각 기반 손실 함수와 같이 다양한 손실 함수가 이용되어, 관심 영역(930)과 레퍼런스 영역(940) 간의 손실 값(950)이 산출될 수 있다.The
피드백된 손실 값(950)이 제2 기계학습 모델(810)에 반영되어, 제2 기계학습 모델(810)에 포함된 적어도 하나의 노드에 대한 가중치가 조절될 수 있다. 여기서, 노드는 인공신경망에 포함된 노드일 수 있다. The fed back
제2 트레이닝셋에 포함된 복수의 학습용 데이터가 반복적으로 제2 기계학습 모델(810)에 입력되어 반복적인 학습이 수행되면, 제2 기계학습 모델(810)에 포함된 노드의 가중치가 최적의 값으로 수렴될 수 있다.When a plurality of learning data included in the second training set are repeatedly input to the second
도 10은 제2 기계학습 모델로 입력된 제5 뇌영상(1010)과 제2 기계학습 모델로부터 출력된 제1 관심 영역(1020)에 대한 예시를 나타내는 도면이다. 도 10에 제5 뇌영상(1010)에서 검은색으로 표시된 영역은 도파민 신경계와 관련된 영역일 수 있다. 제2 기계학습 모델은 사용자 정보에 기초하여, 입력된 뇌영상(1010)에서 관심 대상의 위치와 크기를 결정하고, 결정된 위치와 크기에 해당하는 관심 영역(1020)을 추출하여 출력할 수 있다. 여기서, 관심 영역(1020)은 도파민 신경계와 관련될 수 있다. FIG. 10 is a diagram illustrating an example of the fifth brain image 1010 input to the second machine learning model and the first region of interest 1020 output from the second machine learning model. The area marked in black in the fifth brain image 1010 in FIG. 10 may be an area related to the dopaminergic nervous system. The second machine learning model can determine the location and size of the object of interest in the input brain image 1010 based on user information, extract and output the region of interest 1020 corresponding to the determined location and size. Here, the region of interest 1020 may be related to the dopaminergic nervous system.
도 11은 제2 기계학습 모델로 입력된 제6 뇌영상(1110)과 제2 기계학습 모델로부터 출력된 제2 관심 영역(1120)에 대한 예시를 나타내는 도면이다. 제2 기계학습 모델은 사용자 정보에 기초하여, 입력된 뇌영상(1110)에서 관심 대상의 위치와 크기를 결정하고, 결정된 위치와 크기에 해당하는 관심 영역(1120)을 추출하여 출력할 수 있다. 여기서, 관심 영역(1120)은 도파민 신경계와 관련될 수 있다.FIG. 11 is a diagram illustrating an example of a sixth brain image 1110 input to a second machine learning model and a second region of interest 1120 output from the second machine learning model. The second machine learning model can determine the location and size of the object of interest in the input brain image 1110 based on user information, extract and output the region of interest 1120 corresponding to the determined location and size. Here, the region of interest 1120 may be related to the dopaminergic nervous system.
도 12는 본 개시의 일 실시예에 따른, 제3 기계학습 모델(1210)을 통해 출력되는 데이터를 예시하는 도면이다. 도 12에 예시된 바와 같이 제3 기계학습 모델(1210)은 질병 분석 결과 정보를 출력하도록 구성된 인공지능 기반의 모델일 수 있다. FIG. 12 is a diagram illustrating data output through a third
관심 영역에 대한 특징 정보(1220)가 제3 기계학습 모델(1210)로 입력될 수 있다. 제3 기계학습 모델(1210)은 관심 영역에 대한 특징 정보(1220)를 기초로 연산을 수행하여, 사용자의 질병 분석 결과 정보(1230)를 출력할 수 있다.
일 실시예에 따르면, 제3 기계학습 모델(1210)은 관심 영역에 대한 특징 정보에 포함된 최대 화소 값, 최소 화소 값, 평균 화소 값 또는 화소 분산 값, 화소 값의 범위 또는 제1 영역과 제2 영역 간의 비율 값 중 적어도 하나에 기초하여, 사용자의 뇌질병 발병 여부를 판정할 수 있다. 또한, 제3 기계학습 모델(1210)은 뇌질병이 발병된 경우, 뇌질병명 및 뇌질병의 진행 정도(예컨대, 1기, 2기, 3기 등)를 판정할 수 있다. 예컨대, 뇌질병은 파킨슨병이거나, 또 다른 뇌질환일 수 있다. According to one embodiment, the third
제3 기계학습 모델(1210)은 뇌질병 발병 여부에 대한 정보 및/또는 뇌질병이 발병된 경우에 뇌질병명 및 뇌질병의 진행 정도(예컨대, 1기, 2기, 3기 등)를 포함하는 질병 분석 결과 정보(1230)를 출력할 수 있다. The third
도 13은 본 개시의 일 실시예에 따른, 제3 기계학습 모델(1210)이 학습되는 과정을 예시하는 도면이다. 제3 기계학습 모델(1210)에 대한 학습은 정보 처리 시스템에 포함된 적어도 하나의 프로세서(예컨대, 도 3의 모델 학습부)에 의해서 수행될 수 있다. 복수의 학습용 데이터를 포함하는 제3 트레이닝셋이 이용되어, 제3 기계학습 모델(1210)이 학습될 수 있다. 제3 트레이닝셋은 학습용 특징 정보 및 레퍼런스 결과를 포함할 수 있다. 여기서, 학습용 특징 정보는 최대 화소 값, 최소 화소 값, 평균 화소 값 또는 화소 분산 값, 화소 값의 범위 또는 제1 영역과 제2 영역 간의 비율 값 중 적어도 하나를 포함할 수 있다. 또한, 레퍼런스 결과는 학습 과정에서 정답 값(ground truth)으로서 이용되는 척도로서, 학습용 특징 정보와 연관되는 뇌질병에 대한 정보를 포함할 수 있다. 예를 들어, 레퍼런스 결과는 뇌질병 발병 여부에 대한 정보 및/또는 뇌질병이 발병된 경우에, 뇌질병명 및 뇌질병의 진행 정도(예컨대, 1기, 2기, 3기 등)를 포함할 수 있다. 일 실시예에 따르면, 제3 트레이닝셋에 포함된 학습용 특징 정보와 레퍼런스 결과는, 실제로 뇌질병(예컨대, 파킨슨병)을 앓고 있거나 앓았던 환자의 의료 데이터를 기초로 생성될 수 있다. FIG. 13 is a diagram illustrating a process in which a third
도 13을 참조하면, 프로세서는 학습용 특징 정보(1310)를 제3 기계학습 모델(1210)로 입력할 수 있다. 일 실시예에 따르면, 제3 기계학습 모델(1310)은 입력된 학습용 특징 정보(1310)에 기초로 연산을 수행하여, 분석 결과(1320)를 출력할 수 있다. 여기서, 분석 결과(1320)는 뇌질병 발병 여부에 대한 정보 및/또는 뇌질병이 발병된 경우에 뇌질병명과 뇌질병의 진행 정도(예컨대, 1기, 2기, 3기 등)를 포함할 수 있다Referring to FIG. 13, the processor may input learning
학습용 데이터에 포함된 레퍼런스 결과(1330)가 추출되고, 제3 기계학습 모델(1210)로부터 출력된 분석 결과(1320)와 레퍼런스 결과(1330) 간에 차이인 손실(loss) 값(1340)이 산출되어 제3 기계학습 모델(410)로 피드백될 수 있다. 일 실시예에 따르면, 손실 값을 산출할 수 있는 다양한 함수가 호출되어, 손실 값(1340)이 산출될 수 있다. The
피드백된 손실 값(1340)이 제3 기계학습 모델(1210)에 반영되어, 제1 기계학습 모델(1210)에 포함된 적어도 하나의 노드에 대한 가중치가 조절될 수 있다. 여기서, 노드는 인공신경망에 포함된 노드일 수 있다. The fed back
제3 트레이닝셋에 포함된 복수의 학습용 데이터가 반복적으로 제3 기계학습 모델(1210)에 입력되어 반복적인 학습이 수행되면, 제3 기계학습 모델(1210)에 포함된 노드의 가중치가 최적의 값으로 수렴될 수 있다.When a plurality of learning data included in the third training set is repeatedly input to the third
도 14는 본 개시의 일 실시예에 따른, 인공신경망을 포함하는 기계학습 모델(1400)의 예시를 나타내는 도면이다. 기계학습 모델(1400)은 기계 학습(Machine Learning) 기술과 인지과학에서, 생물학적 신경망의 구조에 기초하여 구현된 통계학적 학습 알고리즘 또는 그 알고리즘을 실행하는 구조를 지칭할 수 있다. 즉, 기계학습 모델(1400)은 생물학적 신경망에서와 같이 시냅스의 결합으로 네트워크를 형성한 인공 뉴런인 노드(Node)들이 시냅스의 가중치를 반복적으로 조정하여, 특정 입력에 대응한 올바른 출력과 추론된 출력 사이의 오차가 감소되도록 학습함으로써, 문제 해결 능력을 가지는 기계학습 모델을 나타낸다. FIG. 14 is a diagram illustrating an example of a
일 실시예에 따르면, 기계학습 모델(1400)은 다층의 노드들과 이들 사이의 연결로 구성된 다층 퍼셉트론(MLP: multilayer perceptron)으로 구현될 수 있다. 본 실시예에 따른 기계학습 모델(1400)은 MLP를 포함하는 다양한 인공신경망 구조들 중의 하나를 이용하여 구현될 수 있다. 기계학습 모델(1400)은 외부로부터 입력 신호 또는 데이터를 수신하는 입력층, 입력 데이터에 대응한 출력 신호 또는 데이터를 출력하는 출력층, 입력층과 출력층 사이에 위치하며 입력층으로부터 신호를 받아 특성을 추출하여 출력층으로 전달하는 n개의 은닉층으로 구성된다. 여기서, 출력층은, 은닉층으로부터 신호를 받아 외부로 출력한다. 학습 과정에서, 적어도 하나의 노드와 연관된 가중치가 조정될 수 있다. According to one embodiment, the
일 실시예에 따르면, 제1 기계학습 모델, 제2 기계학습 모델, 제3 기계학습 모델 중 적어도 하나는 도 14에 예시된 인공 신경망을 포함하여 구성될 수 있다. 도 14에 예시된 바와 같이, 기계학습 모델(1400)로 뇌영상이 입력되면, 뇌영상의 전체 영역 중에서 뇌질병 분석에 필요한 관심 영역이 출력되어 출력될 수 있다.According to one embodiment, at least one of the first machine learning model, the second machine learning model, and the third machine learning model may be configured to include the artificial neural network illustrated in FIG. 14. As illustrated in FIG. 14 , when a brain image is input to the
도 15는 MRI/PET 결합 방식으로 얻은 우측 기저핵의 평균 화소 값과 본 개시의 실시예에 따라 획득한 우측 기저핵의 평균 화소 값을 비교한 그래프(1500)이다. 도 15에 예시된 바와 같이, MRI를 이용하지 않고 PET 영상을 기계학습 모델로 입력하여 획득한 관심 영역에 대한 평균 화소 값은, MRI/PET 결합 방식으로 얻은 우측 기저핵의 평균 화소 값과 거의 일치되는 것을 알 수 있다. 이에 따라, 본 개시의 실시예에 따라, 획득된 관심 영역에 대한 평균 화소 값에 대한 정확성이 높음을 알 수 있다. Figure 15 is a graph (1500) comparing the average pixel value of the right basal ganglia obtained by a combined MRI/PET method with the average pixel value of the right basal ganglia obtained according to an embodiment of the present disclosure. As illustrated in Figure 15, the average pixel value for the region of interest obtained by inputting PET images into a machine learning model without using MRI is almost identical to the average pixel value of the right basal ganglia obtained through MRI/PET combined method. You can see that Accordingly, according to the embodiment of the present disclosure, it can be seen that the accuracy of the average pixel value for the obtained region of interest is high.
도 16은 본 개시의 일 실시예에 따른, 뇌영상 분석 방법(1600)을 설명하기 위한 흐름도이다. 도 16에 도시된 방법은, 본 개시의 목적을 달성하기 위한 일 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다. 또한, 도 16에 도시된 방법은, 도 2에 도시된 정보 처리 시스템에 포함된 적어도 하나의 프로세서에 의해서 수행될 수 있다. 설명의 편의를 위해서 도 2에 도시된 정보 처리 시스템에 포함된 프로세서에 의해서, 도 16에 도시된 각 단계가 수행되는 것으로 설명하기로 한다.FIG. 16 is a flowchart illustrating a brain
먼저, 프로세서는 도파민 신경계를 포함하는 뇌영상을 획득할 수 있다(S1610). 여기서, 뇌영상은 PET 기반의 뇌영상이거나, SPECT 기반의 뇌영상일 수 있다. First, the processor can acquire a brain image including the dopaminergic nervous system (S1610). Here, the brain image may be PET-based brain image or SPECT-based brain image.
그 후, 프로세서는 획득된 뇌영상을 제1 기계학습 모델에 입력하여, 제1 기계학습 모델에 의해 추출된 관심 영역을 획득할 수 있다(S1620). 일 실시예에 따르면, 제1 기계학습 모델은 뇌영상의 전체 영역으로부터 도파민 신경계와 연관된 관심 영역을 추출할 수 있다. Afterwards, the processor may input the acquired brain image into the first machine learning model to obtain the region of interest extracted by the first machine learning model (S1620). According to one embodiment, the first machine learning model may extract a region of interest associated with the dopaminergic nervous system from the entire brain image.
일 실시예에 따르면, 제1 기계학습 모델은 뇌 템플릿에 기초하여 뇌영상을 변형하고, 변형된 뇌영상의 전체 영역으로부터 관심 영역을 추출할 수 있다. 이때, 뇌 템플릿의 크기 또는 형태 중 적어도 하나에 기초하여, 뇌영상의 크기 또는 형태 중 적어도 하나가 변형될 수 있다. 또한, 제1 기계학습 모델은, 뇌 템플릿에 포함된 관심 공간 정보에 기초하여, 변형된 뇌영상의 전체 영역으로부터 관심 영역을 추출할 수 있다. According to one embodiment, the first machine learning model may transform a brain image based on a brain template and extract a region of interest from the entire region of the transformed brain image. At this time, based on at least one of the size or shape of the brain template, at least one of the size or shape of the brain image may be modified. Additionally, the first machine learning model can extract a region of interest from the entire area of the transformed brain image based on space of interest information included in the brain template.
일부 실시예에 따르면, 프로세서는 성별, 나이, 뇌질병 가족력 또는 사용자의 질병 중 적어도 하나를 포함하는 사용자 정보를 제1 기계학습 모델로 추가적으로 입력할 수 있다. 이 경우, 제1 기계학습 모델은, 사용자 정보에 기초하여 뇌영상의 전체 영역에서 관심 영역의 위치와 크기를 결정할 수 있다. 추가적으로, 프로세서는 뇌영상을 획득하기 전에, 학습용 사용자 정보, 학습용 뇌영상 및 레퍼런스 영역을 포함하는 트레이닝셋에 이용하여 제1 기계학습 모델에 대한 학습을 수행할 수 있다. 이 경우, 제1 기계학습 모델은 학습용 사용자 정보와 학습용 뇌영상을 기초로 출력된 관심 영역과 레퍼런스 영역 간의 손실이 최소화되도록 학습될 수 있다. According to some embodiments, the processor may additionally input user information including at least one of gender, age, family history of brain disease, or user's disease into the first machine learning model. In this case, the first machine learning model can determine the location and size of the region of interest in the entire brain image area based on user information. Additionally, before acquiring the brain image, the processor may perform learning on the first machine learning model using a training set including user information for learning, brain images for learning, and a reference region. In this case, the first machine learning model can be trained to minimize loss between the region of interest and the reference region output based on user information for learning and brain images for learning.
그 후, 프로세서는 관심 영역에 대한 특징 정보를 제2 기계학습 모델에 입력하여, 제2 기계학습 모델로부터 뇌질병 발병 여부에 대한 정보 또는 뇌질병 진행 정도 중 적어도 하나를 획득할 수 있다. 여기서, 제2 기계학습 모델은 관심 영역의 특징 정보에 기초하여 뇌질병을 판정할 수 있다. Thereafter, the processor may input feature information about the region of interest into the second machine learning model and obtain at least one of information on whether brain disease occurs or the degree of brain disease progression from the second machine learning model. Here, the second machine learning model can determine brain disease based on characteristic information of the region of interest.
일 실시예에 따르면, 관심 영역에 대한 특징 정보는, 관심 영역의 최대 화소 값, 최소 화소 값, 평균 화소 값 또는 화소 분산 값, 화소 값의 범위 또는 관심 영역에 포함된 제1 영역과 제2 영역 간의 비율 값 중 적어도 하나를 포함할 수 있다. 여기서, 제1 영역은 관심 영역에 포함된 제1 선조체과 연관되고, 제2 영역은 관심 영역에 포함된 제2 선조체와 연관될 수 있다. 도 6의 예시된 제2 뇌영상을 예를 설명하면, 프로세서는 좌측에 위치하며 검은색으로 표시된 제1 영역과 우측에 위치하며 검은색으로 표시된 제2 영역 간의 크기 비율을 산출할 수 있고, 산출된 비율이 관심 영역에 대한 특징 정보로 포함될 수 있다. According to one embodiment, the feature information about the region of interest includes the maximum pixel value, minimum pixel value, average pixel value or pixel distribution value, the range of pixel values, or the first and second regions included in the region of interest. It may include at least one of the ratio values between Here, the first region may be associated with the first striatum included in the region of interest, and the second region may be associated with the second striatum included in the region of interest. Taking the second brain image illustrated in FIG. 6 as an example, the processor can calculate the size ratio between the first region located on the left and marked in black and the second region located on the right and marked in black, and calculate The ratio may be included as feature information for the area of interest.
상술한 흐름도 및 상술한 설명은 일 예시일 뿐이며, 일부 실시예에서는 다르게 구현될 수 있다. 예를 들어, 일부 실시예에서는 각 단계의 순서가 바뀌거나, 일부 단계가 반복 수행되거나, 일부 단계가 생략되거나, 일부 단계가 추가될 수 있다.The above flowchart and above description are only examples and may be implemented differently in some embodiments. For example, in some embodiments, the order of each step may be changed, some steps may be performed repeatedly, some steps may be omitted, or some steps may be added.
상술한 방법은 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램으로 제공될 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록 수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The above-described method may be provided as a computer program stored in a computer-readable recording medium for execution on a computer. Media may be used to continuously store executable programs on a computer, or may be temporarily stored for execution or download. In addition, the medium may be a variety of recording or storage means in the form of a single or several pieces of hardware combined. It is not limited to a medium directly connected to a computer system and may be distributed over a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and There may be something configured to store program instructions, including ROM, RAM, flash memory, etc. Additionally, examples of other media include recording or storage media managed by app stores that distribute applications, sites or servers that supply or distribute various other software, etc.
본 개시의 방법, 동작 또는 기법들은 다양한 수단에 의해 구현될 수도 있다. 예를 들어, 이러한 기법들은 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합으로 구현될 수도 있다. 본원의 개시와 연계하여 설명된 다양한 예시적인 논리적 블록들, 모듈들, 회로들, 및 알고리즘 단계들은 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양자의 조합들로 구현될 수도 있음을 통상의 기술자들은 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 대체를 명확하게 설명하기 위해, 다양한 예시적인 구성요소들, 블록들, 모듈들, 회로들, 및 단계들이 그들의 기능적 관점에서 일반적으로 위에서 설명되었다. 그러한 기능이 하드웨어로서 구현되는지 또는 소프트웨어로서 구현되는 지의 여부는, 특정 애플리케이션 및 전체 시스템에 부과되는 설계 요구사항들에 따라 달라진다. 통상의 기술자들은 각각의 특정 애플리케이션을 위해 다양한 방식들로 설명된 기능을 구현할 수도 있으나, 그러한 구현들은 본 개시의 범위로부터 벗어나게 하는 것으로 해석되어서는 안된다.The methods, operations, or techniques of this disclosure may be implemented by various means. For example, these techniques may be implemented in hardware, firmware, software, or a combination thereof. Those skilled in the art will understand that the various illustrative logical blocks, modules, circuits, and algorithm steps described in connection with the disclosure herein may be implemented in electronic hardware, computer software, or combinations of both. To clearly illustrate this interchange of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends on the specific application and design requirements imposed on the overall system. Skilled artisans may implement the described functionality in varying ways for each particular application, but such implementations should not be interpreted as causing a departure from the scope of the present disclosure.
하드웨어 구현에서, 기법들을 수행하는 데 이용되는 프로세싱 유닛들은, 하나 이상의 ASIC들, DSP들, 디지털 신호 프로세싱 디바이스들(digital signal processing devices; DSPD들), 프로그램가능 논리 디바이스들(programmable logic devices; PLD들), 필드 프로그램가능 게이트 어레이들(field programmable gate arrays; FPGA들), 프로세서들, 제어기들, 마이크로제어기들, 마이크로프로세서들, 전자 디바이스들, 본 개시에 설명된 기능들을 수행하도록 설계된 다른 전자 유닛들, 컴퓨터, 또는 이들의 조합 내에서 구현될 수도 있다.In a hardware implementation, the processing units used to perform the techniques may include one or more ASICs, DSPs, digital signal processing devices (DSPDs), programmable logic devices (PLDs). ), field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, electronic devices, and other electronic units designed to perform the functions described in this disclosure. , a computer, or a combination thereof.
따라서, 본 개시와 연계하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 및 회로들은 범용 프로세서, DSP, ASIC, FPGA나 다른 프로그램 가능 논리 디바이스, 이산 게이트나 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 본원에 설명된 기능들을 수행하도록 설계된 것들의 임의의 조합으로 구현되거나 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 대안으로, 프로세서는 임의의 종래의 프로세서, 제어기, 마이크로제어기, 또는 상태 머신일 수도 있다. 프로세서는 또한, 컴퓨팅 디바이스들의 조합, 예를 들면, DSP와 마이크로프로세서, 복수의 마이크로프로세서들, DSP 코어와 연계한 하나 이상의 마이크로프로세서들, 또는 임의의 다른 구성의 조합으로서 구현될 수도 있다.Accordingly, the various illustrative logical blocks, modules, and circuits described in connection with this disclosure may be general-purpose processors, DSPs, ASICs, FPGAs or other programmable logic devices, discrete gate or transistor logic, discrete hardware components, or It may be implemented or performed as any combination of those designed to perform the functions described in. A general-purpose processor may be a microprocessor, but in the alternative, the processor may be any conventional processor, controller, microcontroller, or state machine. A processor may also be implemented as a combination of computing devices, such as a DSP and a microprocessor, a plurality of microprocessors, one or more microprocessors in conjunction with a DSP core, or any other configuration.
펌웨어 및/또는 소프트웨어 구현에 있어서, 기법들은 랜덤 액세스 메모리(random access memory; RAM), 판독 전용 메모리(read-only memory; ROM), 비휘발성 RAM(non-volatile random access memory; NVRAM), PROM(programmable read-only memory), EPROM(erasable programmable read-only memory), EEPROM(electrically erasable PROM), 플래시 메모리, 컴팩트 디스크(compact disc; CD), 자기 또는 광학 데이터 스토리지 디바이스 등과 같은 컴퓨터 판독가능 매체 상에 저장된 명령들로서 구현될 수도 있다. 명령들은 하나 이상의 프로세서들에 의해 실행 가능할 수도 있고, 프로세서(들)로 하여금 본 개시에 설명된 기능의 특정 양태들을 수행하게 할 수도 있다.For firmware and/or software implementations, techniques include random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), and PROM ( on computer-readable media such as programmable read-only memory (EPROM), electrically erasable PROM (EEPROM), flash memory, compact disc (CD), magnetic or optical data storage devices, etc. It may also be implemented as stored instructions. Instructions may be executable by one or more processors and may cause the processor(s) to perform certain aspects of the functionality described in this disclosure.
소프트웨어로 구현되는 경우, 상술된 기법들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독 가능한 매체 상에 저장되거나 또는 컴퓨터 판독 가능한 매체를 통해 전송될 수도 있다. 컴퓨터 판독가능 매체들은 한 장소에서 다른 장소로 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하여 컴퓨터 저장 매체들 및 통신 매체들 양자를 포함한다. 저장 매체들은 컴퓨터에 의해 액세스될 수 있는 임의의 이용 가능한 매체들일 수도 있다. 비제한적인 예로서, 이러한 컴퓨터 판독가능 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 스토리지, 자기 디스크 스토리지 또는 다른 자기 스토리지 디바이스들, 또는 소망의 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 이송 또는 저장하기 위해 사용될 수 있으며 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 접속이 컴퓨터 판독가능 매체로 적절히 칭해진다.When implemented in software, the techniques described above may be stored on or transmitted through a computer-readable medium as one or more instructions or code. Computer-readable media includes both computer storage media and communication media, including any medium that facilitates transfer of a computer program from one place to another. Storage media may be any available media that can be accessed by a computer. By way of non-limiting example, such computer readable media may include RAM, ROM, EEPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage devices, or the desired program code in the form of instructions or data structures. It can be used to transfer or store data and can include any other media that can be accessed by a computer. Any connection is also properly termed a computer-readable medium.
예를 들어, 소프트웨어가 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선 (DSL), 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들을 사용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 전송되면, 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선, 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들은 매체의 정의 내에 포함된다. 본원에서 사용된 디스크(disk) 와 디스크(disc)는, CD, 레이저 디스크, 광 디스크, DVD(digital versatile disc), 플로피디스크, 및 블루레이 디스크를 포함하며, 여기서 디스크들(disks)은 보통 자기적으로 데이터를 재생하고, 반면 디스크들(discs) 은 레이저를 이용하여 광학적으로 데이터를 재생한다. 위의 조합들도 컴퓨터 판독가능 매체들의 범위 내에 포함되어야 한다.For example, if the Software is transmitted from a website, server, or other remote source using coaxial cable, fiber optic cable, twisted pair cable, digital subscriber line (DSL), or wireless technologies such as infrared, radio, and microwave, , fiber optic cable, twisted pair, digital subscriber line, or wireless technologies such as infrared, radio, and microwave are included within the definition of medium. As used herein, disk and disk include CD, laser disk, optical disk, digital versatile disc (DVD), floppy disk, and Blu-ray disk, where disks are usually magnetic. It reproduces data optically, while discs reproduce data optically using lasers. Combinations of the above should also be included within the scope of computer-readable media.
소프트웨어 모듈은, RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터들, 하드 디스크, 이동식 디스크, CD-ROM, 또는 공지된 임의의 다른 형태의 저장 매체 내에 상주할 수도 있다. 예시적인 저장 매체는, 프로세가 저장 매체로부터 정보를 판독하거나 저장 매체에 정보를 기록할 수 있도록, 프로세서에 연결될 수 있다. 대안으로, 저장 매체는 프로세서에 통합될 수도 있다. 프로세서와 저장 매체는 ASIC 내에 존재할 수도 있다. ASIC은 유저 단말 내에 존재할 수도 있다. 대안으로, 프로세서와 저장 매체는 유저 단말에서 개별 구성요소들로서 존재할 수도 있다.A software module may reside in RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disk, removable disk, CD-ROM, or any other form of storage medium known. An exemplary storage medium may be coupled to the processor such that the processor may read information from or write information to the storage medium. Alternatively, the storage medium may be integrated into the processor. The processor and storage medium may reside within an ASIC. ASIC may exist within the user terminal. Alternatively, the processor and storage medium may exist as separate components in the user terminal.
이상 설명된 실시예들이 하나 이상의 독립형 컴퓨터 시스템에서 현재 개시된 주제의 양태들을 활용하는 것으로 기술되었으나, 본 개시는 이에 한정되지 않고, 네트워크나 분산 컴퓨팅 환경과 같은 임의의 컴퓨팅 환경과 연계하여 구현될 수도 있다. 또 나아가, 본 개시에서 주제의 양상들은 복수의 프로세싱 칩들이나 장치들에서 구현될 수도 있고, 스토리지는 복수의 장치들에 걸쳐 유사하게 영향을 받게 될 수도 있다. 이러한 장치들은 PC들, 네트워크 서버들, 및 휴대용 장치들을 포함할 수도 있다.Although the above-described embodiments have been described as utilizing aspects of the presently disclosed subject matter in one or more standalone computer systems, the disclosure is not limited thereto and may also be implemented in conjunction with any computing environment, such as a network or distributed computing environment. . Furthermore, aspects of the subject matter of this disclosure may be implemented in multiple processing chips or devices, and storage may be similarly effected across the multiple devices. These devices may include PCs, network servers, and portable devices.
본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 개시의 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.Although the present disclosure has been described in relation to some embodiments in this specification, various modifications and changes may be made without departing from the scope of the present disclosure as can be understood by a person skilled in the art to which the invention pertains. Additionally, such modifications and changes should be considered to fall within the scope of the claims appended hereto.
110 : 정보 처리 시스템
120 : 촬영 장치
130 : 사용자 단말
140 : 네트워크110: Information processing system
120: shooting device
130: user terminal
140: network
Claims (11)
학습용 사용자 정보, 학습용 뇌영상 및 레퍼런스 영역을 포함하는 트레이닝셋에 이용하여 제1 기계학습 모델에 대한 학습을 수행하는 단계 - 상기 제1 기계학습 모델은 상기 학습용 사용자 정보와 학습용 뇌영상을 기초로 출력된 관심 영역과 상기 레퍼런스 영역 간의 손실이 최소화되도록 학습되고, 상기 학습용 사용자 정보는 학습용 뇌질병 가족력 또는 학습용 사용자 질병 중 적어도 하나를 포함함 - ;
도파민 신경계를 포함하는 뇌영상을 획득하는 단계;
뇌질병 가족력 또는 사용자의 질병 중 적어도 하나를 포함하는 사용자 정보를 획득하는 단계;
상기 획득된 뇌영상 및 상기 획득된 사용자 정보를 제1 기계학습 모델에 입력하여, 상기 제1 기계학습 모델에 의해 추출된 관심 영역을 획득하는 단계; 및
상기 관심 영역에 포함된 제1 영역과 제2 영역의 비율을 포함하는 특징 정보를 제2 기계학습 모델에 입력하여, 상기 제2 기계학습 모델로부터 뇌질병 발병 여부에 대한 정보 또는 뇌질병 진행 정도 중 적어도 하나를 획득하는 단계
를 포함하고,
상기 제1 영역은 상기 뇌영상의 좌측 또는 앞측에 위치한 제1 선조체와 연관되고, 상기 제2 영역은 상기 뇌영상의 우측 또는 뒤측에 위치한 제2 선조체와 연관되고,
상기 제1 기계학습 모델은, 상기 사용자 정보에 기초하여, 상기 뇌영상의 전체 영역에서 도파민 신경계와 연관된 상기 관심 영역의 위치와 크기를 결정하고, 상기 결정된 위치와 크기에 상응하는 상기 관심 영역을 상기 뇌영상의 전체 영역으로부터 추출하고,
상기 제2 기계학습 모델은, 상기 제1 영역과 제2 영역의 비율을 포함하는 특징 정보에 기초하여 뇌질병을 판정하는, 뇌영상 분석 방법.
In a brain image analysis method performed by at least one processor,
Performing learning on a first machine learning model using a training set including user information for learning, brain images for learning, and a reference region - the first machine learning model is output based on the user information for learning and brain images for learning. is learned to minimize loss between the region of interest and the reference region, and the user information for learning includes at least one of a family history of a brain disease for learning or a user disease for learning;
Obtaining a brain image including the dopaminergic nervous system;
Obtaining user information including at least one of a family history of brain disease or a user's disease;
Inputting the acquired brain image and the acquired user information into a first machine learning model to obtain a region of interest extracted by the first machine learning model; and
Characteristic information including the ratio of the first region and the second region included in the region of interest is input to a second machine learning model, and information about whether brain disease occurs or the degree of brain disease progression is obtained from the second machine learning model. Steps to obtain at least one
Including,
The first region is associated with the first striatum located on the left or front of the brain image, and the second region is associated with the second striatum located on the right or rear of the brain image,
The first machine learning model determines the location and size of the region of interest associated with the dopaminergic nervous system in the entire area of the brain image, based on the user information, and selects the region of interest corresponding to the determined location and size. Extracted from the entire brain image area,
The second machine learning model is a brain image analysis method that determines brain disease based on feature information including the ratio of the first area and the second area.
A computer program stored in a computer-readable recording medium for executing the method according to claim 1 on a computer.
메모리; 및
상기 메모리와 연결되고, 상기 메모리에 포함된 컴퓨터 판독 가능한 적어도 하나의 프로그램을 실행하도록 구성된 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로그램은,
학습용 사용자 정보, 학습용 뇌영상 및 레퍼런스 영역을 포함하는 트레이닝셋에 이용하여 제1 기계학습 모델에 대한 학습을 수행하고 - 상기 제1 기계학습 모델은 상기 학습용 사용자 정보와 학습용 뇌영상을 기초로 출력된 관심 영역과 상기 레퍼런스 영역 간의 손실이 최소화되도록 학습되고, 상기 학습용 사용자 정보는 학습용 뇌질병 가족력 또는 학습용 사용자 질병 중 적어도 하나를 포함함 -,
도파민 신경계를 포함하는 뇌영상을 획득하고,
뇌질병 가족력 또는 사용자의 질병 중 적어도 하나를 포함하는 사용자 정보를 획득하고,
상기 획득된 뇌영상 및 상기 획득된 사용자 정보를 제1 기계학습 모델에 입력하여, 상기 제1 기계학습 모델에 의해 추출된 관심 영역을 획득하고,
상기 관심 영역에 포함된 제1 영역과 제2 영역의 비율을 포함하는 특징 정보를 제2 기계학습 모델에 입력하여, 상기 제2 기계학습 모델로부터 뇌질병 발병 여부에 대한 정보 또는 뇌질병 진행 정도 중 적어도 하나를 획득하기 위한 명령어들을 포함하고,
상기 제1 영역은 상기 뇌영상의 좌측 또는 앞측에 위치한 제1 선조체와 연관되고, 상기 제2 영역은 상기 뇌영상의 우측 또는 뒤측에 위치한 제2 선조체와 연관되고,
상기 제1 기계학습 모델은, 상기 사용자 정보에 기초하여, 상기 뇌영상의 전체 영역에서 도파민 신경계와 연관된 상기 관심 영역의 위치와 크기를 결정하고, 상기 결정된 위치와 크기에 상응하는 상기 관심 영역을 상기 뇌영상의 전체 영역으로부터 추출하고,
상기 제2 기계학습 모델은, 상기 제1 영역과 제2 영역의 비율을 포함하는 특징 정보에 기초하여 뇌질병을 판정하는, 정보 처리 시스템.As an information processing system,
Memory; and
At least one processor connected to the memory and configured to execute at least one computer-readable program included in the memory
Including,
The at least one program is,
A training set containing learning user information, learning brain images, and a reference region is used to learn a first machine learning model - the first machine learning model is output based on the learning user information and learning brain images. It is learned to minimize loss between the region of interest and the reference region, and the learning user information includes at least one of a family history of a brain disease for learning or a user disease for learning -,
Acquire brain images involving the dopaminergic nervous system,
Obtain user information including at least one of a family history of brain disease or the user's disease,
Inputting the acquired brain image and the acquired user information into a first machine learning model to obtain a region of interest extracted by the first machine learning model,
Characteristic information including the ratio of the first region and the second region included in the region of interest is input to a second machine learning model, and information about whether brain disease occurs or the degree of brain disease progression is obtained from the second machine learning model. Contains instructions for obtaining at least one,
The first region is associated with the first striatum located on the left or front of the brain image, and the second region is associated with the second striatum located on the right or rear of the brain image,
The first machine learning model determines the location and size of the region of interest associated with the dopaminergic nervous system in the entire area of the brain image, based on the user information, and selects the region of interest corresponding to the determined location and size. Extracted from the entire brain image area,
The second machine learning model is an information processing system that determines brain disease based on feature information including the ratio of the first area and the second area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220125467A KR102582731B1 (en) | 2022-09-30 | 2022-09-30 | Method and system for analyzing brain image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220125467A KR102582731B1 (en) | 2022-09-30 | 2022-09-30 | Method and system for analyzing brain image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102582731B1 true KR102582731B1 (en) | 2023-09-25 |
Family
ID=88190448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220125467A KR102582731B1 (en) | 2022-09-30 | 2022-09-30 | Method and system for analyzing brain image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102582731B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102627874B1 (en) * | 2023-10-20 | 2024-01-23 | 주식회사 뉴큐어엠 | Method and system for quantitative analysis of brain imaging based on ct images |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200030517A (en) * | 2020-03-05 | 2020-03-20 | 주식회사 휴런 | Parkinson's disease diagnosis apparatus using nigrosome-1 detected by machine learning, and method |
KR20210027057A (en) * | 2019-08-30 | 2021-03-10 | 재단법인 아산사회복지재단 | Method of extracting volume of interest using artificial neural network and volume of interest extraction device performing method |
KR102256345B1 (en) * | 2021-02-05 | 2021-05-28 | 주식회사 휴런 | apparatus and method for providing information on Parkinson's disease using neuromelanin image |
KR20220099409A (en) * | 2021-01-06 | 2022-07-13 | 주식회사 뷰노 | Method for classification using deep learning model |
-
2022
- 2022-09-30 KR KR1020220125467A patent/KR102582731B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210027057A (en) * | 2019-08-30 | 2021-03-10 | 재단법인 아산사회복지재단 | Method of extracting volume of interest using artificial neural network and volume of interest extraction device performing method |
KR20200030517A (en) * | 2020-03-05 | 2020-03-20 | 주식회사 휴런 | Parkinson's disease diagnosis apparatus using nigrosome-1 detected by machine learning, and method |
KR20220099409A (en) * | 2021-01-06 | 2022-07-13 | 주식회사 뷰노 | Method for classification using deep learning model |
KR102256345B1 (en) * | 2021-02-05 | 2021-05-28 | 주식회사 휴런 | apparatus and method for providing information on Parkinson's disease using neuromelanin image |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102627874B1 (en) * | 2023-10-20 | 2024-01-23 | 주식회사 뉴큐어엠 | Method and system for quantitative analysis of brain imaging based on ct images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lohmann et al. | Radiomics in radiation oncology—basics, methods, and limitations | |
US9275451B2 (en) | Method, a system, and an apparatus for using and processing multidimensional data | |
KR102582731B1 (en) | Method and system for analyzing brain image | |
Wang et al. | Applications of generative adversarial networks in neuroimaging and clinical neuroscience | |
Nazari et al. | Explainable AI to improve acceptance of convolutional neural networks for automatic classification of dopamine transporter SPECT in the diagnosis of clinically uncertain parkinsonian syndromes | |
Piccardo et al. | The role of the deep convolutional neural network as an aid to interpreting brain [18 F] DOPA PET/CT in the diagnosis of Parkinson’s disease | |
KR102427709B1 (en) | Multi-modality medical images analysis method and apparatus for diagnosing brain disease | |
Jossinger et al. | Locomotor adaptation is associated with microstructural properties of the inferior cerebellar peduncle | |
Guo et al. | Hahn-PCNN-CNN: an end-to-end multi-modal brain medical image fusion framework useful for clinical diagnosis | |
Agarwal et al. | Automated medical diagnosis of Alzheimer´ s disease using an efficient net convolutional neural network | |
Shah et al. | Changes in brain functional connectivity and cognition related to white matter lesion burden in hypertensive patients from SPRINT | |
Wang et al. | Population-specific brain [18F]-FDG PET templates of Chinese subjects for statistical parametric mapping | |
Iep et al. | Relevance of 18F-DOPA visual and semi-quantitative PET metrics for the diagnostic of Parkinson disease in clinical practice: a machine learning-based inference study | |
Liu et al. | A tissue‐fraction estimation‐based segmentation method for quantitative dopamine transporter SPECT | |
Zhang et al. | Unified spatial normalization method of brain PET images using adaptive probabilistic brain atlas | |
Martí-Juan et al. | Detection of lesions in the optic nerve with magnetic resonance imaging using a 3D convolutional neural network | |
Saito et al. | Convolutional neural network-based automatic heart segmentation and quantitation in 123 I-metaiodobenzylguanidine SPECT imaging | |
US20210125332A1 (en) | Diagnosis assisting system, diagnosis assisting method and diagnosis assisting program | |
Fu et al. | Novel data-driven, equation-free method captures spatio-temporal patterns of neurodegeneration in Parkinson's disease: Application of dynamic mode decomposition to PET | |
Mirzaei et al. | Fully automated 3D basal ganglia activity measurement in dopamine transporter scintigraphy (Spectalyzer) | |
KR102644342B1 (en) | Method and system for brain structure segmentation for parkinson's disease diagnosis | |
Rheault et al. | TractEM: evaluation of protocols for deterministic tractography white matter atlas | |
KR102644343B1 (en) | Method and system for providing information for diagnosing parkinson's disease based on machine learning model | |
KR102627874B1 (en) | Method and system for quantitative analysis of brain imaging based on ct images | |
KR102631389B1 (en) | Method and system for generating mri images based on ct images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |