KR102403651B1 - 뇌조직 병변 분포 예측 방법, 장치 및 컴퓨터 프로그램 - Google Patents
뇌조직 병변 분포 예측 방법, 장치 및 컴퓨터 프로그램 Download PDFInfo
- Publication number
- KR102403651B1 KR102403651B1 KR1020200075985A KR20200075985A KR102403651B1 KR 102403651 B1 KR102403651 B1 KR 102403651B1 KR 1020200075985 A KR1020200075985 A KR 1020200075985A KR 20200075985 A KR20200075985 A KR 20200075985A KR 102403651 B1 KR102403651 B1 KR 102403651B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- treatment
- image data
- brain
- distribution
- Prior art date
Links
- 230000003902 lesion Effects 0.000 title claims abstract description 170
- 238000009826 distribution Methods 0.000 title claims abstract description 121
- 238000000034 method Methods 0.000 title claims abstract description 58
- 210000005013 brain tissue Anatomy 0.000 title claims abstract description 46
- 238000004590 computer program Methods 0.000 title claims description 9
- 210000004556 brain Anatomy 0.000 claims abstract description 93
- 238000002203 pretreatment Methods 0.000 claims description 26
- 206010008118 cerebral infarction Diseases 0.000 claims description 17
- 208000026106 cerebrovascular disease Diseases 0.000 claims description 17
- 238000009792 diffusion process Methods 0.000 claims description 11
- 238000002372 labelling Methods 0.000 claims description 7
- 230000000250 revascularization Effects 0.000 claims description 3
- 238000002597 diffusion-weighted imaging Methods 0.000 description 63
- 206010061216 Infarction Diseases 0.000 description 36
- 230000007574 infarction Effects 0.000 description 36
- 238000010586 diagram Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 12
- 238000004393 prognosis Methods 0.000 description 12
- 210000004204 blood vessel Anatomy 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 10
- 239000002872 contrast media Substances 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 8
- 238000002595 magnetic resonance imaging Methods 0.000 description 8
- 230000010412 perfusion Effects 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000002490 cerebral effect Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 238000010988 intraclass correlation coefficient Methods 0.000 description 5
- 208000006011 Stroke Diseases 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000000451 tissue damage Effects 0.000 description 3
- 231100000827 tissue damage Toxicity 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 201000001320 Atherosclerosis Diseases 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010003658 Atrial Fibrillation Diseases 0.000 description 1
- 208000005189 Embolism Diseases 0.000 description 1
- 208000007536 Thrombosis Diseases 0.000 description 1
- 206010053648 Vascular occlusion Diseases 0.000 description 1
- VREFGVBLTWBCJP-UHFFFAOYSA-N alprazolam Chemical compound C12=CC(Cl)=CC=C2N2C(C)=NN=C2CN=C1C1=CC=CC=C1 VREFGVBLTWBCJP-UHFFFAOYSA-N 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000036770 blood supply Effects 0.000 description 1
- 208000029028 brain injury Diseases 0.000 description 1
- 230000030833 cell death Effects 0.000 description 1
- 230000003727 cerebral blood flow Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012631 diagnostic technique Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000035475 disorder Diseases 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 238000002075 inversion recovery Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 208000028867 ischemia Diseases 0.000 description 1
- 230000000302 ischemic effect Effects 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002610 neuroimaging Methods 0.000 description 1
- 238000009828 non-uniform distribution Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013610 patient sample Substances 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 208000037816 tissue injury Diseases 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 208000019553 vascular disease Diseases 0.000 description 1
- 208000021331 vascular occlusion disease Diseases 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/0035—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
- A61B5/0042—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/026—Measuring blood flow
- A61B5/0263—Measuring blood flow using NMR
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4058—Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
- A61B5/4064—Evaluating the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4848—Monitoring or testing the effects of treatment, e.g. of medication
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R33/00—Arrangements or instruments for measuring magnetic variables
- G01R33/20—Arrangements or instruments for measuring magnetic variables involving magnetic resonance
- G01R33/44—Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
- G01R33/48—NMR imaging systems
- G01R33/4806—Functional imaging of brain activation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R33/00—Arrangements or instruments for measuring magnetic variables
- G01R33/20—Arrangements or instruments for measuring magnetic variables involving magnetic resonance
- G01R33/44—Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
- G01R33/48—NMR imaging systems
- G01R33/54—Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
- G01R33/56—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
- G01R33/5608—Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R33/00—Arrangements or instruments for measuring magnetic variables
- G01R33/20—Arrangements or instruments for measuring magnetic variables involving magnetic resonance
- G01R33/44—Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
- G01R33/48—NMR imaging systems
- G01R33/54—Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
- G01R33/56—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
- G01R33/563—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution of moving material, e.g. flow contrast angiography
- G01R33/5635—Angiography, e.g. contrast-enhanced angiography [CE-MRA] or time-of-flight angiography [TOF-MRA]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R33/00—Arrangements or instruments for measuring magnetic variables
- G01R33/20—Arrangements or instruments for measuring magnetic variables involving magnetic resonance
- G01R33/44—Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
- G01R33/48—NMR imaging systems
- G01R33/54—Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
- G01R33/56—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
- G01R33/563—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution of moving material, e.g. flow contrast angiography
- G01R33/56366—Perfusion imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2505/00—Evaluating, monitoring or diagnosing in the context of a particular type of medical care
- A61B2505/09—Rehabilitation or training
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
- A61B2576/02—Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
- A61B2576/026—Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/501—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/031—Recognition of patterns in medical or anatomical images of internal organs
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- High Energy & Nuclear Physics (AREA)
- Theoretical Computer Science (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Neurology (AREA)
- Fuzzy Systems (AREA)
- Quality & Reliability (AREA)
- Mathematical Physics (AREA)
- Vascular Medicine (AREA)
- Neurosurgery (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
Abstract
본 발명의 일 실시예에 따른 뇌조직 병변 분포 예측 방법은, 복수의 기 환자들의 뇌 영상 데이터를 이용하여 대상자의 뇌조직 병변 분포를 예측하는 예측 모델을 학습시키는 모델 학습 단계; 상기 대상자의 뇌 영상 데이터로부터 입력 데이터를 획득하는 입력 획득 단계; 상기 입력 데이터를 상기 예측 모델에 입력하는 입력 단계; 및 상기 예측 모델을 이용하여 상기 대상자에 대한 재개통 치료 후의 상기 병변 분포에 관한 정보를 포함하는 출력 영상 데이터를 생성하는 출력 단계;를 포함하고, 상기 예측 모델은, 복수의 기 환자들 중 재개통 치료에 성공한 환자들의 뇌 영상 데이터를 이용하여 학습되는 성공 예측 모델, 및 상기 복수의 기 환자들 중 재개통 치료에 실패한 환자들의 뇌 영상 데이터를 이용하여 학습되는 실패 예측 모델을 포함한다.
Description
본 발명은 뇌경색 환자의 뇌조직 병변의 분포를 예측하는 방법, 장치 및 컴퓨터 프로그램에 관한 것이다.
뇌경색은 뇌의 혈관이 막혀 뇌의 일부 세포가 죽는 질병이다. 뇌경색은 뇌혈관의 동맥경화 등 혈관질환 또는 심방세동(atrial fibrillation) 등에 의해 심장에서 발생한 혈전(cardioembolic clot)이 뇌로 이동하여 뇌혈관이 막혀 발생한다. 뇌혈관이 막히면서 뇌 조직으로 가는 혈액의 공급이 차단되어 막힌 혈관에 의해 혈액을 공급받던 뇌 조직에 관류(perfusion) 장애가 발생하며 이 부위는 시간이 경과됨에 따라 경색되어 의식 장애나 신체 마비 등의 신경학적 증상이 나타난다.
뇌경색이 발병한 경우, 막힌 혈관을 조기에 재개통하여 뇌 조직이 완전히 경색에 빠지기 전에 뇌 혈류를 회복시키는 방식의 치료가 수행된다. 관류장애가 발생한 부위에 재개통(recanalization)을 하느냐가 예후에 가장 큰 영향을 미치는 요소이다. 그러나 모든 뇌경색 환자에서 관류장애가 관찰되는 것은 아니며, 관류장애의 정도와 위치에 따라 재개통 후 뇌경색 환자의 예후가 차이가 나게 된다. 뇌경색 후 재개통을 할 경우 뇌졸중 후 예후를 호전시키나(Chen et al, Stroke 2017;48:2739-45), 재개통 시 호전 여부는 PWI 및 DWI 병변의 패턴에 따라 차이가 난다고 알려져 있다(Lansberg et al., Lancet Neurol 2012;11:860-7). 즉 관류강조영상(PWI)에서 광범위한 관류장애를 보이는 반면 확산강조영상(DWI)에서 작은 뇌경색이 관찰될 때 재개통에 대한 치료효과가 크며, 이러한 뇌경색이 일어나지 않은 관류장애 부위, 즉 변연부위(penumbra zone)의 부피를 측정하여 치료효과를 예측하는 시도가 있어 왔다. 실제로 이러한 변연부위는 재개통치료의 표적이 되는 영상소견이다.
그러나 현재까지 분석 방법은 단순한 영상 분석을 통한 주관적인 분석법이거나 또는 수동분석으로 촌각을 다투는 급성기 뇌졸중 환자의 진료 환경에서는 활용도가 낮은 한계를 지니고 있다. 따라서 빠른 시간 안에 쉬우면서도 객관적으로 병변 부위의 특성(위치 및 침범 정도)을 동시에 객관적으로 측정하고 제시할 수 있는 새로운 기법의 개발이 필요하다.
본 발명은 뇌경색 환자에 대하여 재개통 치료 성공 및 실패시의 뇌조직 손상도를 기계학습 모델을 이용하여 예측 및 영상화함으로써, 최종 뇌조직 손상 분포를 비교 예측하고 이에 기반한 치료 방침을 선택할 수 있는 예후 예측 장치, 방법 및 컴퓨터 프로그램을 제공하고자 한다.
본 발명의 일 실시예에 따른 뇌조직 병변 분포 예측 방법은, 복수의 기 환자들의 뇌 영상 데이터를 이용하여 대상자의 뇌조직 병변 분포를 예측하는 예측 모델을 학습시키는 모델 학습 단계; 상기 대상자의 뇌 영상 데이터로부터 입력 데이터를 획득하는 입력 획득 단계; 상기 입력 데이터를 상기 예측 모델에 입력하는 입력 단계; 및 상기 예측 모델을 이용하여 상기 대상자에 대한 재개통 치료 후의 상기 병변 분포에 관한 정보를 포함하는 출력 영상 데이터를 생성하는 출력 단계;를 포함하고, 상기 예측 모델은, 복수의 기 환자들 중 재개통 치료에 성공한 환자들의 뇌 영상 데이터를 이용하여 학습되는 성공 예측 모델, 및 상기 복수의 기 환자들 중 재개통 치료에 실패한 환자들의 뇌 영상 데이터를 이용하여 학습되는 실패 예측 모델을 포함한다.
상기 모델 학습 단계는, 복수의 기 환자들 각각의 서로 다른 종류의 뇌 영상 데이터를 정합하는 영상 정합 단계; 상기 뇌 영상 데이터로부터 변형 데이터를 계산하고, 상기 병변 부위에 대응하는 관심 영역을 선택하는 단계; 상기 관심 영역에 대하여 복셀 별로 병변 해당 여부에 따라 미리 설정된 값으로 라벨링하는 단계; 및 상기 관심 영역에 대하여 복셀 별로 상기 변형 데이터를 추출하여 학습용 입력 데이터를 획득하는 학습용 입력 획득 단계를 포함할 수 있다.
상기 영상 정합 단계에서 정합되는 뇌 영상 데이터는, 치료 전 획득된 제1 확산강조영상(DWI) 데이터, 치료 전 관류강조영상(PWI) 데이터 및 치료 후 획득된 제2 확산강조영상(DWI) 데이터를 포함할 수 있다.
상기 계산 및 선택하는 단계는, 상기 제1 확산강조영상(DWI) 데이터로부터 겉보기 확산 계수(Apparent Diffusion Coefficient; ADC)를 계산하는 단계; 상기 치료 전 관류강조영상(PWI) 데이터로부터 rTTP(relative Time to Peak)를 계산하여 rTTP 맵을 획득하는 단계; 및 상기 제1 확산강조영상(DWI) 데이터, 상기 치료 전 관류강조영상(PWI) 데이터 및 상기 제2 확산강조영상(DWI) 데이터로부터 관심 영역을 선택하는 단계;를 포함할 수 있다.
상기 모델 학습 단계는, 상기 뇌 영상 데이터로부터 정상 부위에 대응하는 대칭 영역을 선택하는 단계; 및 상기 대칭 영역에 대하여 복셀 별로 상기 변형 데이터를 추출하여 학습용 입력 데이터를 획득하는 단계를 더 포함하고, 상기 대칭 영역은 제1 확산강조영상(DWI) 데이터, 치료 전 관류강조영상(PWI) 데이터에 대하여 선택될 수 있다.
상기 출력 단계는, 상기 입력 데이터를 상기 실패 예측 모델에 입력하여 상기 대상자에 대한 재개통 치료 실패 후의 병변 분포에 관한 정보를 포함하는 제1 출력 영상 데이터를 생성하는 제1 출력 단계; 및 상기 입력 데이터를 상기 성공 예측 모델에 입력하여 상기 대상자에 대한 재개통 치료 성공 후의 병변 분포에 관한 정보를 포함하는 제2 출력 영상 데이터를 생성하는 제2 출력 단계를 포함할 수 있다.
상기 출력 단계는, 상기 제1 출력 영상 데이터 및 상기 제2 출력 영상 데이터를 비교하여 재개통 치료 여부를 결정하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 대상자의 치료 후 뇌조직 병변 분포를 예측하는 장치에 있어서, 상기 장치는 제어부 및 출력부를 포함하고, 상기 제어부는, 복수의 기 환자들의 뇌 영상 데이터를 이용하여 대상자의 뇌조직 병변 분포를 예측하는 예측 모델을 학습시키고, 기 대상자의 뇌 영상 데이터로부터 입력 데이터를 획득하고, 상기 입력 데이터를 상기 예측 모델에 입력하고, 상기 출력부는, 상기 예측 모델을 이용하여 상기 대상자에 대한 재개통 치료 후의 상기 병변 분포에 관한 정보를 포함하는 출력 영상 데이터를 생성하고, 상기 예측 모델은, 복수의 기 환자들 중 재개통 치료에 성공한 환자들의 뇌 영상 데이터를 이용하여 학습되는 성공 예측 모델, 및 상기 복수의 기 환자들 중 재개통 치료에 실패한 환자들의 뇌 영상 데이터를 이용하여 학습되는 실패 예측 모델을 포함한다.
상기 제어부는, 복수의 기 환자들 각각의 서로 다른 종류의 뇌 영상 데이터를 정합하고, 상기 뇌 영상 데이터로부터 변형 데이터를 계산하고, 상기 병변 부위에 대응하는 관심 영역을 선택하고, 상기 관심 영역에 대하여 복셀 별로 병변 해당 여부에 따라 미리 설정된 값으로 라벨링하고, 상기 관심 영역에 대하여 복셀 별로 상기 변형 데이터를 추출하여 학습용 입력 데이터를 획득할 수 있다.
정합되는 상기 뇌 영상 데이터는, 치료 전 획득된 제1 확산강조영상(DWI) 데이터, 치료 전 관류강조영상(PWI) 데이터 및 치료 후 획득된 제2 확산강조영상(DWI) 데이터를 포함할 수 있다.
상기 제어부는, 상기 제1 확산강조영상(DWI) 데이터로부터 겉보기 확산 계수(Apparent Diffusion Coefficient; ADC)를 계산하고, 상기 치료 전 관류강조영상(PWI) 데이터로부터 rTTP(relative Time to Peak)를 계산하여 rTTP 맵을 획득하고, 상기 제1 확산강조영상(DWI) 데이터, 상기 치료 전 관류강조영상(PWI) 데이터 및 상기 제2 확산강조영상(DWI) 데이터로부터 관심 영역을 선택할 수 있다.
상기 제어부는, 상기 뇌 영상 데이터로부터 정상 부위에 대응하는 대칭 영역을 선택하고, 상기 대칭 영역에 대하여 복셀 별로 상기 변형 데이터를 추출하여 학습용 입력 데이터를 획득하고, 상기 대칭 영역은 제1 확산강조영상(DWI) 데이터, 치료 전 관류강조영상(PWI) 데이터에 대하여 선택될 수 있다.
상기 출력부는, 상기 실패 예측 모델에 입력된 상기 입력 데이터에 기초하여, 상기 대상자에 대한 재개통 치료 실패 후의 병변 분포에 관한 정보를 포함하는 제1 출력 영상 데이터를 생성하고, 상기 성공 예측 모델에 입력된 상기 입력 데이터에 기초하여, 상기 대상자에 대한 재개통 치료 성공 후의 병변 분포에 관한 정보를 포함하는 제2 출력 영상 데이터를 생성할 수 있다.
상기 출력부는, 상기 제1 출력 영상 데이터 및 상기 제2 출력 영상 데이터를 비교하여 상기 대상자에 대한 재개통 치료 여부를 결정할 수 있다.
전술한 본 개시의 병변 분포 예측 방법은 컴퓨터를 이용하여 실행되도록 컴퓨터 프로그램으로 매체에 저장될 수 있다.
본 발명의 실시예들에 따르면, 치료 전후의 뇌영상 데이터를 기반으로 성공 및 실패 예측 모델을 별개로 학습시키고, 두 예측 모델을 이용하여 대상자의 치료 전 데이터로부터 치료에 성공 또는 실패한 경우 병변 분포 및 용량을 비교 예측함으로써 치료 방침을 결정하는 기준을 제공할 수 있다.
이에 따라, 대상자에 대한 뇌경색 치료의 성공률 및 안전성을 높일 수 있다.
또한, 실제 치료 성공/실패 사례 데이터로 학습된 예측 모델을 통해 영상 데이터만으로도 정확하고 직관적인 병변 분포 및 용량에 관한 예측 정보를 제공할 수 있다. 대상자(환자) 또는 보호자에게 치료 방침 결정에 관하여 시각적인 정보/근거를 통해 진단할 수 있는 이점이 있다.
도 1은 본 발명의 일 실시예에 따른 병변 분포 예측 장치의 구성을 개략적으로 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 제어부의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 병변 분포 예측 방법을 나타낸 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 병변 분포 예측 방법의 일 단계를 더 구체적으로 나타낸 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 병변 분포 예측 방법의 입출력 단계를 설명하기 위한 개념도이다.
도 6은 본 발명의 일 실시예에 따른 rTTP 맵을 생성하는 방법을 설명하기 위한 개념도이다.
도 7은 본 발명의 일 실시예에 따른 데이터 전처리 단계를 설명하기 위한 개념도이다.
도 8은 본 발명의 일 실시예에 따른 예측 모델을 이용한 복수의 대상자의 병변 분포 예측 결과를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 병변 분포 예측 방법의 통계적 유의성을 설명하기 위한 그래프이다.
도 10은 본 발명의 일 실시예에 따른 성공 예측 모델 및 실패 예측 모델의 예측 특성을 설명하기 위한 그래프이다.
도 11은 본 발명의 일 실시예에 따른 병변 분포 예측 방법에 따른 임상적 예후 스코어 결과 분포를 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 제어부의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 병변 분포 예측 방법을 나타낸 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 병변 분포 예측 방법의 일 단계를 더 구체적으로 나타낸 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 병변 분포 예측 방법의 입출력 단계를 설명하기 위한 개념도이다.
도 6은 본 발명의 일 실시예에 따른 rTTP 맵을 생성하는 방법을 설명하기 위한 개념도이다.
도 7은 본 발명의 일 실시예에 따른 데이터 전처리 단계를 설명하기 위한 개념도이다.
도 8은 본 발명의 일 실시예에 따른 예측 모델을 이용한 복수의 대상자의 병변 분포 예측 결과를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 병변 분포 예측 방법의 통계적 유의성을 설명하기 위한 그래프이다.
도 10은 본 발명의 일 실시예에 따른 성공 예측 모델 및 실패 예측 모델의 예측 특성을 설명하기 위한 그래프이다.
도 11은 본 발명의 일 실시예에 따른 병변 분포 예측 방법에 따른 임상적 예후 스코어 결과 분포를 설명하기 위한 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다.
본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "메커니즘", "요소", "수단" 및 "구성" 등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.
이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.
어떤 실시예가 달리 구현 가능한 경우에 특정한 단계는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 단계는 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 수행될 수도 있다.
본 명세서에서 용어 “뇌 영상”은 직간접적인 방법을 통해 뇌의 내부 구조 및/또는 기능을 시각화한 영상을 의미하며, 자기공명영상, 전산화단층촬영(CT, Computed Tomography) 영상, 양전자단층촬영(PET, Positron Emission Tomography) 영상, 단일광자단층촬영(SPECT, Single Photon Emission Computed Tomography) 영상 등을 포함할 수 있다. 본 명세서에서 용어 “자기공명영상(MRI, magnetic resonance imaging)”은 자기장을 사용하여 체내 구조물의 영상 또는 사진을 생성하는 진단 기술 및 이를 통해 얻은 영상을 의미한다.
본 명세서에서 “확산강조영상(DWI)”이란, 조직 내 물양자의 불규칙한 운동, 즉 확산 속도를 측정하는 기법을 통해 얻은 영상 데이터로, 일반적으로 뇌혈관 폐색에 의한 뇌경색 또는 병변을 조기에 측정할 수 있는 영상 처리 방식이다. 이러한 신호변화의 검출을 통하여 뇌조직 손상 부위, 손상 부피 등의 다양한 허혈성 뇌조직 손상을 영상화할 수 있다. 이때, 확산 속도는 경사 자장의 세기를 나타내는 b 값(b-value)에 의해 정해진다.
본 명세서에서 “관류강조영상(PWI)”이란, 조영제의 초회 통과 동안에 1~2초의 시간해상도로 1~2분 동안 연속적으로 뇌영상의 여러 프레임을 얻는 기법으로 획득된 영상을 의미한다. 관류강조영상은 주로 신호감소 방법을 이용한 혈류 영상인 역동적 자화율 조영영상(Dynamic Susceptibility Contrast; DSC)기법이 쓰인다. DSC 영상은 조영제가 주변의 자화율의 차이를 크게 만들어 T2, T2*를 변화시키므로 T2, T2* 강조영상으로 얻는 방식이다. 뇌혈관이 막혀서 허혈이 있는 뇌조직의 경우 조영제가 조직에 공급이 잘 안되어 초회 통과 시에 정상 뇌조직보다 MRI영상이 밝으며 자기공명영상 신호가 최소화 되는 시점이 정상 뇌조직보다 지연되는 특성이 있다.
본 명세서에서 용어 “복셀(voxel)”은 3차원 공간의 정규 격자 단위를 의미하며, 2차원 평면의 영상에서는 픽셀(pixel)을 의미할 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 일 실시예에 따른 병변 분포 예측 장치(10)의 구성을 개략적으로 도시한 블록도이고, 도 2는 본 발명의 일 실시예에 따른 제어부의 구성을 도시한 블록도이다.
본 개시의 병변 분포 예측 장치(10)(이하, '예측 장치(10)'로 지칭할 수 있다.)는 대상자의 치료 전 뇌 영상 데이터를 수신 받아 이를 가공하여 대상자의 뇌조직 병변(lesion)의 치료 후의 분포를 예측하여 출력하는 장치이다. 이때, 예측 장치(10)는 예측 모델을 이용하여 전술한 출력 단계를 수행할 수도 있다.
예측 장치(10)는 제어부(100) 및 출력부(200)를 포함할 수 있다. 예측 장치(10)는 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들을 더 포함할 수 있다.
제어부(100)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 제어부(100)는 프로세서를 이용하여 예측 장치(10)를 전반적으로 제어하는 동작을 수행할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이처럼 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(Microprocessor), 중앙처리장치(Central Processing Unit: CPU), 프로세서 코어(Processor Core), 멀티프로세서(Multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
도 2를 참조하면, 제어부(100)는 데이터 학습부(110) 및 데이터 인식부(120)를 포함할 수 있다.
데이터 학습부(110)는 복수의 기 환자들의 뇌 영상 데이터를 이용하여 대상자의 뇌조직 병변(lesion) 분포를 예측하는 기준을 학습할 수 있다. 데이터 학습부(110)를 통해 본 개시의 예측 모델을 학습시킬 수 있다. 기 환자들이란 뇌경색, 뇌졸중 환자들로서 예측 모델에 학습용 입력 데이터를 제공하는 데이터 제공자들을 의미할 수 있다. 대상자는 기 환자들과 마찬가지로 뇌혈관의 동맥경화증에 의한 혈전 및 심장에서 유래된 색전에 의한 뇌혈관의 폐색으로 인한 뇌경색 환자일 수 있으나, 대상자가 반드시 이에 한정되는 것은 아니다. 대상자는 본 개시의 병변 분포 예측 장치(10) 또는 방법을 통해 뇌조직 병변 분포 예측 정보를 제공 받는 테스트 환자를 의미할 수 있다.
본 개시의 예측 모델은 복수의 기 환자들 중 재개통(recanalization) 치료에 성공한 환자들의 뇌 영상 데이터를 이용하여 학습되는 성공 예측 모델(SR, successful recanalization), 및 복수의 기 환자들 중 재개통 치료에 실패한 환자들의 뇌 영상 데이터를 이용하여 학습되는 실패 예측 모델(UR, unsuccessful recanalization)을 포함한다. 두 예측 모델(SR, UR)을 이용한 병변 분포 예측 방법에 관하여는 후술하는 도 5에서 더 상세히 설명한다.
예측 모델은 다양한 종류의 기계 학습(Machine Learning) 기법으로 생성된 것일 수 있다. 예측 모델은 인공신경망(Artificial Neural Network)을 기반으로 하는 모델일 수 있고, 인공신경망의 네트워크 구조는 본 발명을 한정하지 않는다.
데이터 학습부(110)는 데이터 입력부(111), 데이터 전처리부(112), 학습 데이터 선택부(113), 모델 학습부(114) 및 모델 평가부(115)를 포함할 수 있다.
데이터 입력부(111)는 외부의 뇌 영상 촬영 장치 또는 기 저장되어 있던 의료 데이터베이스(DB)에서 뇌 영상 데이터, 예를 들어 자기공명영상(MRI) 데이터를 수신할 수 있다. 본 개시에서 뇌 영상 데이터는 확산강조영상(DWI), 관류강조영상(PWI)을 포함할 수 있다.
데이터 전처리부(112)는 대상자의 뇌조직 병변 분포를 예측하기 위한 학습/트레이닝에 입력된 데이터가 이용될 수 있도록, 입력된 데이터를 전처리할 수 있다. 데이터 전처리부(112)는 후술할 모델 학습부(114)가 병변 분포를 예측하기 위한 학습을 위하여 입력된 데이터를 이용할 수 있도록, 입력된 데이터를 기 설정된 포맷으로 가공할 수 있다. 데이터 전처리부(112)는 입력된 뇌 영상으로부터 학습용 입력 데이터를 선택/생성하는 작업을 수행할 수 있다.
더 구체적으로, 데이터 전처리부(112)(이하, '전처리부(112)'로 지칭할 수 있다.)는 후술하는 동작들을 수행할 수 있다.
전처리부(112)는 복수의 기 환자들 각각의 서로 다른 종류의 뇌 영상 데이터를 정합(co-register)할 수 있다. 뇌 영상 데이터는 자기공명영상(MRI, magnetic resonance imaging) 데이터를 포함할 수 있다. 자기공명영상 데이터는 확산강조영상(DWI, diffusion weighted imaging) 데이터, 관류강조영상(PWI, perfusion weighted imaging) 데이터, 액체감쇠역전회복(FLAIR, fluid attenuated inversion recovery) 영상 데이터, 자화율 강조 영상(SWI, susceptibility weighted imaging) 데이터, T1 강조(T1-weighted) 영상 데이터, T2 강조(T2-weighted) 영상 데이터를 포함할 수 있으나 자기공명영상 데이터의 종류가 이에 제한되는 것은 아니다.
본 개시에서 정합되는 상기 뇌 영상 데이터는, 치료 전 획득된 제1 확산강조영상(DWI), 치료 전 관류강조영상(PWI) 및 치료 후 획득된 제2 확산강조영상(DWI)을 포함할 수 있다.
예측 장치(10)는 외부의 자기공명영상 장치 또는 기 저장되어 있던 의료 데이터베이스(DB)에서 자기공명영상 데이터를 수신할 수 있으나 본 발명이 이에 제한되는 것은 아니다.
전처리부(112)는 뇌 영상 데이터로부터 변형 데이터를 계산할 수 있다. 상기 변형 데이터는 DWI 데이터를 가공하여 얻은 ADC(Apparent Diffusion Coefficient)(겉보기 확산 계수), PWI 데이터를 가공하여 얻은 TTP(Time to Peak) 및 rTTP(relative Time to Peak)를 포함할 수 있으나, 이에 한정되지 않는다. 변형 데이터에 관하여는 후술하는 도 6에서 더 상세히 설명한다.
더 구체적으로, 전처리부(112)는 제1 확산강조영상(DWI) 데이터로부터 ADC를 계산하고, 치료 전 관류강조영상(PWI) 데이터로부터 rTTP를 계산하여 rTTP 맵을 획득할 수 있다. 전처리부(112)는 제2 확산강조영상(DWI) 데이터로부터 관심 영역을 선택할 수 있다. 관심 영역(LS)(도 7 참고)은 데이터 제공자 또는 대상자 뇌의 병변에 대응하는 영역일 수 있다.
전처리부(112)는 데이터 제공자 또는 대상자 뇌의 병변 부위에 대응하는 관심 영역(LS)(도 7 참고) 및 정상 부위에 대응하는 대칭 영역(C_LS)(도 7 참고)을 선택할 수 있다. 이때, 관심 영역(LS)은 제1 중심 복셀 및 상기 제1 중심 복셀 주변의 제1 주변 복셀을 포함하고, 대칭 영역(C_LS)은 제2 중심 복셀 및 상기 제2 중심 복셀 주변의 제2 주변 복셀을 포함할 수 있다.
관심 영역(LS) 및 대칭 영역(C_LS) 내에서 분할되는 복셀들 각각에 대하여 최종적으로 병변에 해당하는지 여부가 결정될 수 있다. 즉, 관심 영역(LS) 내에서도 병변 미해당으로 결정되는 복셀이 있을 수도 있고, 대칭 영역(C_LS) 내에서도 병변 해당으로 결정되는 복셀이 있을 수도 있다.
전처리부(112)는 관심 영역에 대하여 복셀(v) 별로 병변 해당 여부에 따라 미리 설정된 값으로 라벨링(labeling)할 수 있다. 전처리부(112)는 관심 영역 및 대칭 영역에 대하여 복셀 별로 전술한 변형 데이터를 추출하여 학습용 입력 데이터를 획득할 수 있다. 전처리부(112)의 동작에 관하여는, 후술하는 도 7에서 더 상세히 설명한다.
학습 데이터 선택부(113)는 전처리된 학습용 입력 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 모델 학습부(114)에 제공될 수 있다. 학습 데이터 선택부(113)는 기설정된 기준에 따라, 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 학습 데이터 선택부(113)는 후술할 모델 학습부(114)에 의한 학습에 의해 기설정된 기준에 따라 데이터를 선택할 수도 있다.
모델 학습부(114)는 상술한 '예측 모델'에 대응할 수 있는 구성요소로, 학습 데이터에 기초하여 대상자의 병변 분포를 어떻게 예측할지에 관한 기준을 학습할 수 있다. 특히, 본 개시에서 예측 모델은 성공 예측 모델 및 실패 예측 모델을 포함하므로, 모델 학습부(114)는 성공/실패 예측 모델 각각에 대한 기준을 학습할 수 있다. 또한, 모델 학습부(114)는 병변 분포를 예측하기 위하여 어떤 학습 데이터를 이용해야 하는지, 즉 학습용 입력 데이터 선택에 대한 기준을 학습할 수도 있다.
또한, 모델 학습부(114)는 병변 분포를 예측하는데 이용되는 데이터 인식 모델을 학습 데이터를 이용하여 학습시킬 수 있다. 이 경우, 데이터 인식 모델은 미리 구축된 모델일 수 있다. 데이터 인식 모델이 학습되면, 모델 학습부(114)는 학습된 데이터 인식 모델을 데이터 인식부(120)를 포함하는 전자 장치의 메모리에 저장할 수 있다. 또는, 모델 학습부(114)는 학습된 데이터 인식 모델을 전자 장치와 유선 또는 무선 네트워크로 연결되는 서버의 메모리에 저장할 수도 있다.
모델 평가부(115)는 데이터 인식 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 인식 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(114)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 데이터 인식 모델을 평가하기 위한 기설정된 데이터일 수 있다.
데이터 인식부(120)는 대상자의 입력 데이터에 기초하여 대상자의 뇌조직 병변 분포를 예측할 수 있다. 데이터 인식부(120)는 학습된 예측 모델을 이용하여 대상자의 치료 전 병변 분포에 관한 정보를 포함하는 뇌 영상 데이터로부터 치료 후 병변 분포를 예측할 수 있다. 데이터 인식부(120)는 학습에 의한 기 설정된 기준에 따라 입력 데이터를 획득하고, 이를 예측 모델에 입력하여 병변 분포를 예측할 수 있다. 상기 '기 설정된 기준'이란 데이터 학습부(110)에서 복수의 기 환자들의 뇌 영상 데이터에 대하여 수행하는 데이터 처리에 관한 알고리즘일 수 있다. 즉, 병변 분포를 예측하고자 하는 대상자의 뇌 영상 데이터에 대하여도, 예측 모델의 학습에 이용된 복수의 기 환자들의 뇌 영상 데이터에 대한 데이터 선택, 생성 또는 전처리(pre-processing) 단계가 동일 또는 유사하게 적용될 수 있다. 또한, 데이터 인식부(120)를 통해 획득된 데이터를 입력 값으로 하여 데이터 인식 모델에 의해 출력된 결과 값은, 데이터 인식 모델을 갱신하는데 이용될 수 있다.
데이터 인식부(120)는 데이터 입력부(121), 데이터 전처리부(122), 인식 데이터 선택부(123), 출력 생성부(124) 및 모델 갱신부(125)를 포함할 수 있다.
데이터 입력부(121)에는 병변 분포 예측에 필요한 데이터로서, 대상자의 치료 전 뇌 영상 데이터가 입력될 수 있다. 전처리부(122)는 입력된 데이터가 이용될 수 있도록 수신한 데이터를 전처리할 수 있다. 전처리부(122)는 후술할 출력 제공부(124)가 병변 분포를 예측하기 위하여 입력된 데이터를 이용할 수 있도록, 입력된 데이터를 기 설정된 포맷으로 가공할 수 있다.
전처리부(122)는 전술한 데이터 학습부(110)의 전처리부(112)와 동일한 알고리즘으로 대상자의 뇌 영상 데이터를 전처리할 수 있다. 전처리부(122)는 대상자의 뇌 영상 데이터에 대하여, 후술하는 단계들을 수행할 수 있으며, 구체적인 내용은 전술한 데이터 학습부(110)의 전처리부(112)에 관한 설명을 참고할 수 있다.
전처리부(122)는 대상자의 서로 다른 종류의 뇌 영상 데이터를 정합할 수 있으며, 상기 뇌 영상 데이터는 제1 DWI 데이터, 치료 전 PWI 데이터 및 치료 후(예를 들어, 치료 후 7일 경과 시) 데이터인 제2 DWI 데이터를 포함할 수 있다. 전처리부(122)는 상기 뇌 영상 데이터로부터 변형 데이터를 계산하고, 병변 영역에 해당하는 관심 영역을 선택할 수 있다. 전처리부(122)는 상기 관심 영역에 대하여 복셀 별로 병변 해당 여부에 따라 미리 설정된 값으로 라벨링할 수 있고, 상기 관심 영역 및 대칭 영역에 대하여 복셀 별로 변형 데이터를 추출하여 학습용 입력 데이터를 획득할 수 있다.
전술한 전처리부(122)의 동작에 관하여는 후술하는 도 6 내지 도 8에서 더 상세히 설명한다.
인식 데이터 선택부(123)는 전처리된 데이터 중에서 병변 분포 예측에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 인식 결과 제공부(124)에 제공될 수 있다. 인식 데이터 선택부(123)는 병변 분포 예측을 위한 기 설정된 기준에 따라, 전처리된 데이터 중에서 일부 또는 전부를 선택할 수 있다. 또한, 인식 데이터 선택부(123)는 모델 학습부(124)에 의한 학습에 의해 기 설정된 기준에 따라 데이터를 선택할 수도 있다.
출력 생성부(124)는 선택된 데이터를 데이터 인식 모델에 적용하여 대상자의 치료 후 병변 분포를 예측할 수 있다. 출력 생성부(124)는 데이터의 인식 목적에 따른 인식 결과를 제공할 수 있다. 출력 생성부(124)는 인식 데이터 선택부(123)에 의해 선택된 데이터를 입력 값으로 이용함으로써, 선택된 데이터를 데이터 인식 모델에 적용할 수 있다. 또한, 인식 결과는 데이터 인식 모델에 의해 결정될 수 있다.
모델 갱신부(125)는 출력 생성부(124)에 의해 제공되는 인식 결과에 대한 평가에 기초하여, 데이터 인식 모델이 갱신되도록 할 수 있다. 예를 들어, 모델 갱신부(125)는 출력 생성부(124)에 의해 제공되는 인식 결과를 모델 학습부(114)에게 제공함으로써, 모델 학습부(114)가 데이터 인식 모델을 갱신하도록 할 수 있다.
데이터 학습부(110) 및 데이터 인식부(120) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 학습부(110) 및 데이터 인식부(120) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다.
한편, 데이터 인식부(120) 내의 데이터 획득부(121), 전처리부(122), 인식 데이터 선택부(123), 출력 생성부(124) 및 모델 갱신부(125) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 획득부(121), 전처리부(122), 인식 데이터 선택부(123), 출력 생성부(124) 및 모델 갱신부(125) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다.
이 경우, 데이터 학습부(110) 및 데이터 인식부(120)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 학습부(110) 및 데이터 인식부(120) 중 하나는 전자 장치에 포함되고, 나머지 하나는 서버에 포함될 수 있다. 또한, 데이터 학습부(110) 및 데이터 인식부(120)는 유선 또는 무선으로 통하여, 데이터 학습부(110)가 구축한 모델 정보를 데이터 인식부(120)로 제공할 수도 있고, 데이터 인식부(120)로 입력된 데이터가 추가 학습 데이터로서 데이터 학습부(110)로 제공될 수도 있다.
출력부(200)는 예측 장치(10)에서 처리되는 정보를 표시 또는 출력할 수 있다. 출력부(200)는 뇌 영상 데이터를 입력 받기 위한 사용자 인터페이스 및 병변 분포 예측 결과(출력 영상 데이터) 등을 디스플레이하는 디스플레이부를 포함할 수 있다. 사용자는 출력부(200)에 나타난 병변 분포 예측 결과를 참고하여 대상자에 대한 재개통 치료 여부 등의 치료법을 결정할 수 있다.
구체적으로, 출력부(200)는 예측 모델을 이용하여 대상자에 대한 재개통 치료 후의 병변 분포에 관한 정보를 포함하는 출력 영상 데이터를 생성할 수 있다. 상기 출력 영상 데이터는 데이터 인식부(120)의 출력 생성부(124)에 의해 생성된 것으로서, 출력부(200)는 출력 생성부(124)로부터 데이터를 수신하여 출력할 수 있다.
출력부(200)는 성공 예측 모델을 통하여 제1 출력 영상 데이터를 생성하고, 실패 예측 모델을 통하여 제2 출력 영상 데이터를 생성할 수 있다. 상기 제1 출력 영상 데이터는 대상자에 대한 재개통 치료 성공 후의 병변 분포에 관한 정보를 포함하고, 상기 제2 출력 영상 데이터는 대상자에 대한 재개통 치료 실패 후의 병변 분포에 관한 정보를 포함할 수 있다.
출력부(200)는 상기 제1 및 제2 출력 영상 데이터를 상호 비교하여 대상자에 대한 재개통 치료 여부 등의 치료 방침을 결정할 수 있다.
도 3은 본 발명의 일 실시예에 따른 병변 분포 예측 방법을 나타낸 흐름도이다. 일 실시예에 따른 병변 분포 예측 방법(이하, '예측 방법'으로 지칭할 수 있다.)은 모델 학습 단계(S100), 입력 획득 단계(S200), 입력 단계(S300) 및 출력 단계(S400)를 포함한다.
복수의 기 환자들의 뇌 영상 데이터를 이용하여 대상자의 뇌조직 병변 분포를 예측하는 예측 모델을 학습시키는 모델 학습 단계(S100)가 수행될 수 있다. S100 단계는 예측 장치(10)의 제어부(100), 그 중에서도 데이터 학습부(110)에 의해 수행될 수 있다. 본 개시의 예측 모델은 데이터 제공자 또는 대상자에 대한 재개통 치료의 성공 여부에 따라 구분되는 성공 예측 모델(SR) 및 실패 예측 모델(UR)을 포함할 수 있다. 상기 두 예측 모델(SR, UR)에 관하여는 후술하는 도 5 내지 도 8에서 더 상세히 설명한다.
S100 단계에 관하여는 후술하는 도 4에서 더 상세히 설명한다.
상기 대상자의 뇌 영상 데이터로부터 입력 데이터를 획득하는 입력 획득 단계(S200)가 수행될 수 있다. S200 단계는 제어부(100)의 데이터 인식부(120)에 의해 수행될 수 있다. 구체적으로, S200단계는 데이터 인식부(120)의 데이터 입력부(121), 전처리부(122) 및 인식 데이터 선택부(123) 중 적어도 하나에 의해 수행될 수 있다.
입력 데이터를 예측 모델에 입력하는 입력 단계(S300)가 수행될 수 있다. 이때 예측 모델에 입력되는 입력 데이터는, 데이터 입력부(121)가 수신한 대상자의 치료 전 뇌 영상 데이터에 대하여 전처리부(122)가 데이터 전처리를 수행하고 인식 데이터 선택부(123)가 최종적으로 선택한 데이터일 수 있다. 입력 데이터에 대하여는 전술한 '학습용 입력 데이터'에 대한 데이터 처리 알고리즘이 동일하게 적용될 수 있다. 상기 예측 모델은 데이터 학습부(110)의 모델 학습부(114)에 대응되는 구성요소일 수 있다.
예측 모델을 이용하여 대상자에 대한 치료 후의 병변 분포에 관한 정보를 포함하는 출력 영상 데이터를 생성하는 출력 단계(S400)가 수행될 수 있다. 상기 치료는 재개통 치료일 수 있다. S400 단계는 제어부(100) 및 출력부(200)에 의해 수행될 수 있다. 구체적으로, 모델 학습부(114)에 의해 학습된 예측 모델을 이용하여 데이터 인식부(120)의 출력 생성부(124)를 통해 상기 출력 영상 데이터가 생성될 수 있고, 출력부(200)를 통해 상기 출력 영상 데이터가 디스플레이될 수 있다.
S400 단계는, 입력 데이터를 성공 예측 모델에 입력하여 대상자에 대한 재개통 치료 성공 후의 병변 분포에 관한 정보를 포함하는 제1 출력 영상 데이터를 생성하는 제1 출력 단계, 및 상기 입력 데이터를 실패 예측 모델에 입력하여 대상자에 대한 재개통 치료 실패 후의 병변 분포에 관한 정보를 포함하는 제2 출력 영상 데이터를 생성하는 제2 출력 단계를 포함할 수 있다.
S400 단계는, 상기 제1 출력 영상 데이터 및 상기 제2 출력 영상 데이터를 상호 비교하여 대상자에 대한 재개통 치료 여부 등의 치료 방침을 결정하는 단계를 더 포함할 수 있다.
도 4는 본 발명의 일 실시예에 따른 병변 분포 예측 방법의 모델 학습 단계(S100)를 더 구체적으로 나타낸 흐름도이다. S100 단계는 후술하는 단계들을 포함할 수 있다.
복수의 기 환자들 각각의 서로 다른 종류의 뇌 영상 데이터를 정합하는 영상 정합 단계(S110)가 수행될 수 있다. 상기 영상 정합 단계에서 정합되는 서로 다른 종류의 뇌 영상 데이터는, 치료 전 획득된 제1 확산강조영상(DWI) 데이터, 치료 전 관류강조영상(PWI)데이터 및 치료 후 획득된 제2 확산강조영상(DWI) 데이터를 포함할 수 있다.
이후, 상기 뇌 영상 데이터로부터 변형 데이터를 계산하고, 관심 영역을 선택하는 단계(S120)가 수행될 수 있다. 뇌 영상 데이터의 종류 별로 계산되는 변형 데이터는 다를 수 있고, 구체적으로 치료 전 DWI 데이터로부터는 ADC를 계산하고, PWI 데이터로부터는 TTP 또는 rTTP를 계산할 수 있다. 치료 전 DWI 데이터, 치료 전 PWI 데이터로부터는 관심 영역 및 대칭 영역을 선택할 수 있고, 치료 후 DWI 데이터에 대하여는 관심 영역을 선택할 수 있다.
이후, 상기 관심 영역에 대하여 복셀 별로 병변 해당 여부에 따라 미리 설정된 값(예를 들어, 0 또는 1)으로 라벨링하는 라벨링 단계(S130)가 수행될 수 있다. 상기 라벨링 단계는 제2 DWI 데이터에 대하여 수행될 수 있다.
이후, 상기 관심 영역 및 대칭 영역에 대하여 복셀 별로 상기 변형 데이터를 추출하여 학습용 입력 데이터를 획득하는 학습용 입력 획득 단계(S140)가 수행될 수 있다.
전술한 S110, S120, S130, S140 단계는 데이터 인식부(110)에서 수행될 수 있고, 더 구체적으로는 데이터 전처리부(112)에서 수행될 수 있다. 실시예에 따라서, 영상 정합 단계(S110)는 데이터 입력부(111)에서 수행될 수도 있다.
도 5는 본 발명의 일 실시예에 따른 병변 분포 예측 방법의 입출력 단계를 설명하기 위한 개념도이다.
본 개시의 예측 모델은 성공 예측 모델(SR) 및 실패 예측 모델(UR)을 포함한다. 복수의 기 환자들의 치료 전 및 치료 후 뇌 영상 데이터를 이용하여 두 예측 모델(SR, UR) 각각을 학습시킬 수 있다. 각 예측 모델(UR, SR) 블록에서 좌측이 치료 전 뇌 영상 데이터이고, 우측이 치료 후 뇌 영상 데이터이다. 본 개시의 병변 분포 예측 방법의 모델 학습 단계(S100)는 실패 예측 모델(UR)을 학습시키는 단계(S100-1) 및 성공 예측 모델(SR)을 학습시키는 단계(S100-2)를 포함할 수 있다.
혈관재개통 여부를 나타내는 척도로 사용되는 지표로서, mTICI(modified Treatment In Cerebral Infarction) 지표가 있다. mTICI 지표는 혈관재개통 치료 시행 후 혈관의 폐색 영역이 재개통된 영역의 정도를 점수화한 지표를 의미한다. mTICI 지표는 순차적으로 0, 1, 2a, 2b, 3의 값을 가질 수 있으며, 2b 이상은 혈관 폐색 영역의 약 50 % 이상이 성공적으로 재개통된 것을 의미할 수 있다. 이에 따라 본 개시의 성공 예측 모델(SR)은 mTICI 지표가 2b, 3(mTICI≥2b)인 기 환자들의 데이터를 기초로 학습되고, 실패 예측 모델(UR)은 mTICI 지표가 0, 1, 2a(mTICI≤2a)인 기 환자들의 데이터를 기초로 학습될 수 있다.
본 개시의 예측 장치(10)의 제어부(100)는 병변 분포를 예측하고자 하는 대상자의 치료 전 뇌 영상 데이터를 수신할 수 있다. 치료 전 뇌 영상 데이터에 대하여, 상술한 예측 모델을 이용한 병변 분포 예측에 활용될 수 있도록 데이터 전처리되어 입력 데이터가 획득되는 단계(S200)가 수행될 수 있다.
상기 가공된 입력 데이터는 성공/실패 예측 모델(SR, UR) 각각에 입력되고(S300-1, S300-2; S300 단계), 입력된 각 모델을 통하여 대상자의 병변 분포를 예측할 수 있다.
예측 장치(10)의 출력부(200)를 통해 출력 영상 데이터(O1, O2)가 출력되어 대상자의 뇌조직 병변 분포를 예측할 수 있다. 이때, 실제 치료 성공/실패 케이스를 기반으로 기계 학습된 예측 모델을 이용하여 출력을 영상 데이터의 형태로 출력함으로써, 사용자(대상자 또는 검사자 등)에게 정확하고 직관적인 예측 정보를 제공할 수 있는 이점이 있다.
출력부(200)는 대상자의 입력 데이터가 실패 예측 모델(UR)에 입력된 경우 대상자에 대한 재개통 치료의 실패 시 예측되는 병변 분포에 관한 정보를 포함하는 제1 출력 영상 데이터(O1)를 출력할 수 있다. 출력부(200)는 대상자의 입력 데이터가 성공 예측 모델(SR)에 입력된 경우, 재개통 치료의 성공 시 예측되는 병변 분포에 관한 정보를 포함하는 제2 출력 영상 데이터(O2)를 출력할 수 있다. 출력 영상 데이터들(O1, O2)을 통해 경색 성장(infarct growth) 정도 및 결과를 예측할 수 있다.
도 6은 본 발명의 일 실시예에 따른 rTTP 맵을 생성하는 방법을 설명하기 위한 개념도이다.
도 6의 좌 상단에는 데이터 제공자의 치료 전 PWI 영상 데이터의 각 프레임이 도시되어 있다. 먼저 도 6의 (a) 그래프와 같이, PWI 영상 데이터의 각 프레임(시간 별 프레임일 수 있다.)마다의 각 복셀(v)에 대하여 MR 신호 세기(MR signal intensity)(자기공명영상 신호 세기)를 구한다. 이후, 도 6의 (b) 그래프와 같이 MR 신호 세기를 조영제 농도(contrast agent concentration)로 변환하고, (b)의 농도 그래프 상에서 각 복셀(v) 별 TTP를 계산하여 TTP 맵을 획득할 수 있다. TTP는 조영제의 농도가 최대가 되는 시간을 의미한다. 이때, MR 신호 세기를 조영제 농도로 변환하는 공식은 아래 [수학식 1]과 같다.
상기 수학식 1에서, C(t)는 조영제 농도, r2는 T2 relaxivity, TE는 에코 시간, S(t)는 자기공명영상 신호 세기, S0은 자기공명영상 신호세기의 초기 값을 의미한다. 좌변의 조영제 농도(C(t))가 최대가 되는 시점에서 TTP(time to peak) 값이 결정될 수 있다.
이후, TTP 맵으로부터 병변이 아닌 정상 부위(도 6에서는 우뇌 영역)(contralateral region)에 대하여 각 복셀 별로 TTP 값의 중앙값(median)을 계산한 후, 상기 중앙값을 병변 부위의 TTP 값으로부터 빼면 rTTP 맵을 획득할 수 있다. rTTP(relative time to peak)(상대적 최대 도달 시간)란 PWI 영상에서 조영제 농도가 최대가 되는, 즉 자기공명영상 신호가 최소가 되는 시간을 의미하는 데이터로서, 정상 부위 대비 병변 부위에서의 조영제의 최대 도달 시간의 상대적 차이를 제시할 수 있다. (x, y) 좌표 값을 가지는 복셀에 대하여, 상술한 rTTP를 구하는 과정을 수식으로 표현하면 아래 [수학식 2]와 같다.
도 7은 본 발명의 일 실시예에 따른 데이터 전처리 단계로서, 예측 모델을 기계 학습시키기 위한 입력 데이터를 획득하는 방법을 설명하기 위한 개념도이다.
도 7을 참조하면, 본 개시의 병변 분포 예측에 사용되는 뇌 영상 데이터로서, 제1 DWI 데이터(치료 전 DWI 데이터), 치료 전 PWI 데이터 및 제2 DWI 데이터(치료 후 DWI 데이터)가 도시되어 있다.
도 7에 중앙에 도시된 치료 전 PWI 데이터로부터 rTTP를 계산하는 방법에 대하여는 도 6에 관련된 부분에서 전술하였다.
제1 DWI 데이터로부터 ADC(Apparent Diffusion Coefficient)가 계산될 수 있다. ADC는 뇌조직에서 병변 또는 세포사로 인한 물 분자 확산 정도, 즉 물 분자 확산의 제한 정도를 판별할 수 있는 지표이다. ADC는 서로 다른 b 값을 가지는 DWI 영상의 신호 세기 변화를 나타낸다.
먼저, 제1 DWI 데이터에 대하여 병변 부위에 대응하는 관심 영역(LS) 및 정상 부위에 대응하는 대칭 영역(C_LS)이 선택될 수 있다. 이때, 관심 영역(LS) 내의 복셀은 제1 중심 복셀(v1) 및 제1 주변 복셀(v1_n)을 포함할 수 있다. 제1 주변 복셀(v1_n)은 제1 중심 복셀(v1)을 기준으로 5×5×3 영역 내에서 선택될 수 있으나, 이에 한정되지 않는다. 마찬가지로, 대칭 영역(C_LS) 내의 복셀은 제2 중심 복셀(v2) 및 제2 주변 복셀(v2_n)을 포함할 수 있다. 제2 주변 복셀(v2_n)은 제2 중심 복셀(v2)을 기준으로 5×5×3 영역 내에서 선택될 수 있으나, 이에 한정되지 않는다.
관심 영역(LS) 및 대칭 영역(C_LS)의 각 복셀 별로 ADC 값 및 rTTP 값을 계산하여 각 값들의 통계적 정보를 추출(Voxel-wise feature extraction)할 수 있다.
제2 DWI 데이터로부터는 관심 영역(LS) 내의 해당 복셀이 최종 뇌손상 병변에 해당하는지 여부를 판단할 수 있다. 즉, 복셀 별로 병변 해당 여부에 따라 미리 설정된 값으로 라벨링될 수 있다. 상기 미리 설정된 값은 0 또는 1일 수 있고, 예를 들어 해당 복셀이 병변에 해당되면(infarct) 1, 병변에 해당하지 않으면(no infarct) 0의 값으로 라벨링할 수 있다. 이때, 관심 영역(LS) 내에서도 병변 미해당으로 결정되어 0의 값으로 라벨링 되는 복셀이 있을 수도 있고, 대칭 영역(C_LS) 내에서도 병변 해당으로 결정되어 1의 값으로 라벨링 되는 복셀이 있을 수도 있다. 다만, 초급성 뇌경색 환자의 경우 한 쪽 뇌에만 병변이 발생할 확률이 높으므로, 대체적으로 관심 영역(LS) 내에서 1로 라벨링 되는 복셀이 존재하고 대칭 영역(C_LS) 내에는 1로 라벨링 되는 복셀이 존재할 가능성이 낮을 수 있다.
다른 위치에 있는 복셀 및 다른 슬라이스의 영상 데이터에 대한 복셀에 대하여도, 전술한 알고리즘을 적용하여 본 개시의 예측 모델을 학습/트레이닝 시키기 위한 입력 데이터(트레이닝 데이터)를 획득할 수 있다.
하기 [표 1]은 전술한 바에 기초하여 획득된 상기 입력 데이터 형식의 일 예시일 수 있다. 좌측 열의 번호는 복셀에 부여된 식별 번호를 나타낼 수 있고, 병변 영역(Lesion) 및 대칭 영역(Contra)의 ADC 또는 rTTP 값 각각의 최소값(min), 최대값(max) 및 평균값(mean)에 대한 통계적 수치가 하기 [표 1]의 형태로 추출되고, 이러한 [표 1]이 기계 학습에 입력 벡터(feature vector)로 활용될 수 있다.
하기 [표 1]에서 …로 표시된 다른 변형 데이터들은 표준 편차(standard deviation), 첨도(kurtosis), 왜곡도(skew), 10 백분위수(10 percentile), 25 백분위수(25 percentile), 75 백분위수(75 percentile) 및 90 백분위수(90 percentile) 중에서 선택된 어느 하나일 수 있으나, 이에 한정되지 않는다.
이와 같이, 복수의 기 환자들 각각의 뇌 영상 데이터로부터 추출한 입력 데이터를 획득한 후, 본 개시의 성공/실패 예측 모델을 학습시켜 최종 훈련된 예측 모델을 산출할 수 있다.
도 8은 본 발명의 일 실시예에 따른 예측 모델을 이용한 복수의 대상자의 병변 분포 예측 결과를 설명하기 위한 도면이다.
도 8을 참조하면, 4명의 대상자에 대한 성공/실패 예측 모델을 적용하여 병변 분포를 예측한 결과가 비교 도시되어 있다. 도 8의 좌측에 표기된 사례 A, C는 재개통 치료에 실패한 환자 케이스이고, 사례 B, D는 재개통 치료에 성공한 환자 케이스를 나타낸다. 각 열에 도시된 영상 데이터는 도 8의 상측에 표기된 바와 같이, 좌측 열부터 순차적으로 제1 DWI 데이터, ADC, rTTP, 실패 예측 모델(UR)을 이용한 예측 결과(UR Prediction), 성공 예측 모델(SR)을 이용한 예측 결과(SR Prediction) 및 제2 DWI 데이터를 나타낸다. 이때, 제2 DWI 데이터는 재개통 치료 7일 후의 DWI 데이터를 나타낼 수 있다. 본 개시에서, 제2 DWI 데이터를 7일 후 데이터로 예시로 든 이유는, 7일 후의 병변 분포가 병변 분포의 장기적 예후와 상관성(correlation)이 높기 때문일 수 있다. ADC는 제1 DWI 데이터로부터 추출된 데이터일 수 있고, rTTP는 전술한 치료 전 PWI 데이터로부터 추출된 데이터일 수 있다. 예측 모델(UR, SR)은 ADC, rTTP 및 제2 DWI 데이터를 기초로 기계 학습될 수 있다. 각 영상 데이터 우측 하단에 표기된 숫자는 뇌조직 병변 부위의 용량을 나타낸다.
먼저 사례 A(실패, 경색 성장도 큰 경우)에 대하여 설명한다. 사례 A의 치료 전후의 DWI 데이터를 비교 설명하면, 제1 DWI 데이터에서 치료 전 병변 용량은 4ml이고, 제2 DWI 데이터에서 치료 후 병변 용량은 243ml로, 경색 성장(또는 병변 성장)(infarct growth)이 약 240ml로 큰 경우에 해당한다.
여기서, 실패 예측 모델(UR)을 이용하여 사례 A 환자의 치료 전 데이터(ADC, rTTP)로부터 병변 분포를 예측한 결과, 병변 용량이 약 116ml, 즉 경색 성장은 약 112ml(UR Prediction의 병변 용량에서 치료 전 병변 용량을 뺀 값)로 높게 예측됨을 확인할 수 있다. 반면, 성공 예측 모델(SR)을 이용하여 예측할 경우, 병변 용량이 약 11ml로 예측되었다.
다음 사례 B(성공, 경색 성장도 작은 경우)에 대하여 설명한다. 사례 B의 치료 전후의 DWI 데이터를 비교 설명하면, 제1 DWI 데이터에서 치료 전 병변 용량은 1ml이고, 제2 DWI 데이터에서 치료 후 병변 용량은 4ml로, 경색 성장이 약 3ml로 작은 경우에 해당한다.
여기서, 성공 예측 모델(SR)을 이용하여 사례 B 환자의 치료 전 데이터(ADC, rTTP)로부터 병변 분포를 예측한 결과, 병변 용량이 약 7ml, 즉 경색 성장은 약 6ml(SR Prediction의 병변 용량에서 치료 전 병변 용량을 뺀 값)로 낮게 예측됨을 확인할 수 있다. 반면, 실패 예측 모델(UR)을 이용하여 예측할 경우, 병변 용량이 약 101ml로 예측되었다.
다음 사례 C(실패, 경색 성장도 작은 경우)에 대하여 설명한다. 사례 C의 치료 전후의 DWI 데이터를 비교 설명하면, 제1 DWI 데이터에서 치료 전 병변 용량은 4ml이고, 제2 DWI 데이터에서 치료 후 병변 용량은 32ml로, 경색 성장이 약 28ml로 작은 경우에 해당한다.
여기서, 실패 예측 모델(UR)을 이용하여 사례 C 환자의 치료 전 데이터(ADC, rTTP)로부터 병변 분포를 예측한 결과, 병변 용량이 약 28ml, 즉 경색 성장은 약 22ml로 낮게 예측됨을 확인할 수 있다. 반면, 성공 예측 모델(SR)을 이용하여 예측할 경우, 병변 용량이 약 8ml로 예측되었다.
다음 사례 D(성공, 경색 성장도 큰 경우)에 대하여 설명한다. 사례 D의 치료 전후의 DWI 데이터를 비교 설명하면, 제1 DWI 데이터에서 치료 전 병변 용량은 17ml이고, 제2 DWI 데이터에서 치료 후 병변 용량은 86ml로, 경색 성장이 약 69ml로 큰 경우에 해당한다.
여기서, 성공 예측 모델(SR)을 이용하여 사례 D 환자의 치료 전 데이터(ADC, rTTP)로부터 병변 분포를 예측한 결과, 병변 용량이 약 55ml, 즉 경색 성장은 약 38ml로 높게 예측됨을 확인할 수 있다. 반면, 실패 예측 모델(UR)을 이용하여 예측할 경우, 병변 용량이 약 89ml로 예측되었다.
재개통 치료에 실패한 사례인 A 및 C를 살펴보면, 실패 시 경색 성장이 크고 작은 각각의 경우에 대하여 본 개시의 실패 예측 모델(UR)을 통해 그 경향성을 비교적 정확히 예측하였음을 확인할 수 있다. 마찬가지로, 재개통 치료에 성공한 사례인 B 및 D를 살펴보면, 성공 시 경색 성장이 작고 큰 각각의 경우에 대하여 본 개시의 성공 예측 모델(SR)을 통해 그 경향성을 비교적 정확히 예측하였음을 확인할 수 있다.
이와 같이, 본 발명의 일 실시예에 따른 병변 분포 예측 방법에 따르면, 데이터 제공자 또는 대상자의 치료 성공 및 실패 시 뇌 영상 데이터를 이용하여 별개로 기계 학습시킨 성공 및 실패 예측 모델을 통하여, 대상자의 치료 전 데이터로부터 치료 후, 성공 또는 실패 시의 병변 분포에 관한 정확하고 직관적인 예측이 가능한 이점이 있다. 이에 따라, 대상자에 대한 뇌경색 치료의 성공률 및 안전성을 높일 수 있다.
더 상세하게는, 예측에 사용되는 뇌 영상 데이터로서 DWI 및 PWI 데이터가 사용될 수 있고, 상기 뇌 영상 데이터로부터 추출되는 변형 데이터로서 ADC, TTP 및 rTTP가 활용됨으로써 각 대상자에 대하여 재개통 치료 성공 및/또는 실패 시 병변 분포의 예측의 정확도를 높일 수 있다.
또한, 실제 치료 성공/실패 사례 데이터로 학습된 예측 모델을 통해 영상 데이터만으로도 정확하고 직관적인 병변 분포 및 용량에 관한 예측 정보를 제공할 수 있다. 대상자(환자) 또는 보호자에게 치료 방침 결정에 관하여 시각적인 정보/근거를 통해 진단할 수 있는 이점이 있다.
도 9는 본 발명의 일 실시예에 따른 병변 분포 예측 방법의 통계적 유의성을 설명하기 위한 그래프이다. 도 9는 치료 성공 케이스의 대상자들에 대하여 성공 예측 모델(SR)로 병변 분포를 예측한 케이스들을, 실제 경색 성장 용량(ml)에 따라 그룹핑한 그래프이다. 도 9(a)는 타겟 불일치 방식(Target mismatch)으로 대상자들을 분류한 그래프(P=0.02인 경우)이고, 도 9(b)는 본 개시의 예측 모델을 이용하여 예측한 경색 성장 용량(infarct growth volume)을 기준으로 대상자들을 분류한 그래프(P=0.01인 경우)를 나타낸다. 각 그래프의 세로축은 실제 경색 성장 용량(ml)를 나타낸다.
이하, P 값은 (a), (b)의 각 방식에서 그룹핑한 그룹들 간의 환자 분포도의 차이를 나타내는 척도일 수 있다. 일 예로, P 값이 약 0.05 이하일 경우, 통계적 유의미성을 가진다고 할 수 있다. 한편, 각 그래프에 도시된 점은 환자의 수를 나타내며, 이하 'n'으로 표기할 수 있다. 타겟 불일치 방식이란 DWI 데이터 및 PWI 데이터 각각의 병변 영역 및 이들 간의 병변 영역의 불일치 정도를 산출하는 방식을 의미할 수 있다. 이때, 산출된 타겟 불일치 정도가 클수록 재개통 성공 시에 호전 정도가 좋은 것으로 해석할 수 있다.
먼저 도 9(a)를 참조하면, 기존의 타겟 불일치 방식을 이용해 그룹화한 경우 불일치 부재(mismatch absence) 그룹이 세로축에 대하여 불균일한 분포(heterogeneous distribution)를 보이나, 점으로 표기된 환자의 수가 불일치를 보이는 그룹(mismatch presence)에 비해서 매우 작다(n=6). 따라서, 불일치 부재(mismatch absence) 그룹이 불일치를 보이는 그룹(mismatch presence)과 비교할 때 통계적으로 경색 성장에 있어서 유의미한 차이가 있다고 단정하기 어려움을 확인할 수 있다.
반면, 도 9(b)를 참조하면, 경색 성장 용량이 낮은 그룹(low), 중간 그룹(intermediate), 높은 그룹(high)으로 분류하고 각 케이스에 대응하는 경색 성장 용량에 따라 그룹핑되어 있다. 이때, 낮은 그룹(n=8) 및 높은 그룹(n=9)이 통계적 유의미성을 가지는 것을 확인할 수 있다. 높은 그룹(high)(SR-predicted infarct growth≥35 mL)은 세로축에 대하여 불균일한 분포를 보이는 반면, 낮은 그룹(low)(SR-predicted infarct growth<15 mL)은 밀집된(narrow) 분포를 보이는 것을 확인할 수 있다.
이와 같이, 본 개시에 따른 예측 모델을 이용한 병변 분포 및 용량 예측 시, 재개통 치료 성공 또는 실패 시 병변 분포 및 용량의 크고 작은 정도에 대한 경향성을 파악할 수 있다.
도 10은 본 발명의 일 실시예에 따른 성공 예측 모델(SR) 및 실패 예측 모델(UR)의 예측 특성을 설명하기 위한 그래프이다. 도 10(a) 및 도 10(b)의 가로축은 제2 DWI 데이터(day-7 DWI 데이터) 상에서 병변 영역을 분할한 후 수작업으로 측정한 최종 경색 용량(mL)을 나타내고, 세로축은 본 발명의 예측 모델로 예측한 최종 경색 용량(mL)을 나타낸다. 도 10(a)는 실패 예측 모델(UR)에 대한 결과이며, 도 10(b)는 성공 예측 모델(SR)에 대한 결과이다.
전술한 가로축의 값을 레퍼런스(reference) 값으로 하여 급내상관계수(Intraclass correlation coefficient; 이하, 'ICC'라 지칭한다.) 값을 계산한 결과, 도 10(a)의 경우 ICC=0.73(95% 신뢰구간은 0.31 내지 0.91, P<0.01), 도 10(b)의 경우 ICC=0.87(95% 신뢰구간은 0.73 내지 0.94, P<0.001)로 계산되었다. 도 10의 그래프 상의 분포 및 ICC 값을 통해 제2 DWI 데이터로부터 직접 산출한 경색 영역과 본 개시의 예측 모델(SR, UR)을 이용하여 예측된 경색 영역 간의 상관도가 큰 것을 확인할 수 있다.
이하, 도 10의 가로축, 세로축을 바이너리 마스크(binary mask)의 형태로 나타낸 병변 분포의 일치성을, DSC(Dice similarity coefficient)를 이용하여 측정한 결과를 설명한다.
전체 환자 샘플에 대한 외부 검증(external validation)의 경우 중간 DSC(Median DSC) 점수는 약 0.49(사분위 범위(interquartile range; 이하 'IQR'로 지칭한다.)는 약 0.37 내지 약 0.59)로 산출되었다. 실패 예측 모델(UR)에 의한 외부 검증의 경우 약 0.58(IQR은 약 0.55 내지 약 0.67), 성공 예측 모델(SR) 에 의한 외부 검증의 경우 약 0.43(IQR은 약 0.20 약 0.52)로 산출되어 재개통 치료에 성공한 케이스의 DSC 값이 더 작은 것을 확인할 수 있다. 최종 경색 부피가 작은 경우 DSC 수치도 작아지는 경향을 보이며, 전술한 바와 같이 양 모델(UR, SR)을 따로 계산한 값에 의해 확인할 수 있다.
도 11은 본 발명의 일 실시예에 따른 병변 분포 예측 방법에 따른 임상적 예후 스코어 결과 분포를 설명하기 위한 도면이다. 도 11(a) 및 11(b)는 재개통 치료에 성공한 환자군에 대한 도면이고, 도 11(c) 및 11(d)는 치료에 실패한 환자군에 대한 도면이다. 도 11(a) 및 11(c)는 타겟 미스매치 방식에 대한 그룹핑 결과 분포를 나타낸 도면이다. 도 11(b) 및 11(d)는 본 개시에 따른 예측 방법에 의한 예측 경색 성장 용량 정도에 따라 세 그룹으로 그룹핑한 후 각 그룹에 대한 임상적 예후 스코어 결과 분포를 나타낸 도면이다.
일반적으로, 예후 측정에 있어서 증상 발현 90일 이후의 mRS(Modified Rankin Scale) 수치를 사용할 수 있고, mRS 수치가 높을수록 예후가 안 좋은 것으로 해석할 수 있다. 도 11(b) 및 도 11(d)를 참조하면, 경색 성장이 작게 예측된 그룹(Low)의 경우 크게 예측된 그룹(High)에 비하여 예후가 좋은 경향이 있음을 확인할 수 있다. 일 예로, mRS 수치가 2 이하가 예후가 좋은 것으로 가정한다. 도 11(b)를 참조하면, 예후가 좋은 환자 수가 낮은 그룹(Low)의 경우 약 80%이고, 높은 그룹(High)의 경우 약 50%임을 확인할 수 있다.
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 저장하는 것일 수 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
따라서, 본 발명의 사상은 앞에서 설명된 실시예들에 국한하여 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위가 본 발명의 사상의 범주에 속한다고 할 것이다.
10: 병변 분포 예측 장치
100: 제어부
110: 데이터 학습부
120: 데이터 인식부
200: 출력부
SR: 성공 예측 모델
UR: 실패 예측 모델
LS: 관심 영역
C_LS: 대칭 영역
100: 제어부
110: 데이터 학습부
120: 데이터 인식부
200: 출력부
SR: 성공 예측 모델
UR: 실패 예측 모델
LS: 관심 영역
C_LS: 대칭 영역
Claims (15)
- 복수의 기 환자들의 뇌 영상 데이터를 이용하여 대상자의 뇌조직 병변 분포를 예측하는 예측 모델을 학습시키는 모델 학습 단계;
상기 대상자의 뇌 영상 데이터로부터 입력 데이터를 획득하는 입력 획득 단계;
상기 입력 데이터를 상기 예측 모델에 입력하는 입력 단계; 및
상기 예측 모델을 이용하여 상기 대상자에 대한 재개통 치료 후의 상기 병변 분포에 관한 정보를 포함하는 출력 영상 데이터를 생성하는 출력 단계;를 포함하고,
상기 예측 모델은,
복수의 기 환자들 중 재개통 치료에 성공한 환자들의 치료 전 뇌 영상 데이터 및 치료 후 뇌 영상 데이터를 이용하여 학습되는 성공 예측 모델, 및 상기 복수의 기 환자들 중 재개통 치료에 실패한 환자들의 치료 전 뇌 영상 데이터 및 치료 후 뇌 영상 데이터를 이용하여 학습되는 실패 예측 모델을 포함하는, 뇌조직 병변 분포 예측 장치에 의해 수행되며,
상기 모델 학습 단계는,
복수의 기 환자들 각각의 서로 다른 종류의 뇌 영상 데이터를 정합하는 영상 정합 단계;
상기 뇌 영상 데이터로부터 변형 데이터를 계산하고, 상기 병변 부위에 대응하는 관심 영역을 선택하는 단계;
상기 관심 영역에 대하여 복셀 별로 병변 해당 여부에 따라 미리 설정된 값으로 라벨링하는 단계; 및
상기 관심 영역에 대하여 복셀 별로 상기 변형 데이터를 추출하여 학습용 입력 데이터를 획득하는 학습용 입력 획득 단계;
를 포함하고,
상기 성공 예측 모델은,
혈관재개통 여부를 나타내는 척도로 사용되는 지표인 mTICI(modified Treatment In Cerebral Infarction) 지표가 2b, 3인 기 환자들의 뇌 영상 데이터를 기초로 학습되고,
상기 실패 예측 모델은,
상기 mTICI 지표가 0, 1, 2a인 기 환자들의 뇌 영상 데이터를 기초로 학습되는, 뇌조직 병변 분포 예측 장치에 의해 수행되는 뇌조직 병변 분포 예측 방법. - 삭제
- 제1항에 있어서,
상기 영상 정합 단계에서 정합되는 뇌 영상 데이터는,
치료 전 획득된 제1 확산강조영상(DWI) 데이터, 치료 전 관류강조영상(PWI) 데이터 및 치료 후 획득된 제2 확산강조영상(DWI) 데이터를 포함하는, 뇌조직 병변 분포 예측 장치에 의해 수행되는 뇌조직 병변 분포 예측 방법. - 제3항에 있어서,
상기 계산 및 선택하는 단계는,
상기 제1 확산강조영상(DWI) 데이터로부터 겉보기 확산 계수(Apparent Diffusion Coefficient; ADC)를 계산하는 단계;
상기 치료 전 관류강조영상(PWI) 데이터로부터 rTTP(relative Time to Peak)를 계산하여 rTTP 맵을 획득하는 단계; 및
상기 제1 확산강조영상(DWI) 데이터, 상기 치료 전 관류강조영상(PWI) 데이터 및 상기 제2 확산강조영상(DWI) 데이터로부터 관심 영역을 선택하는 단계;
를 포함하는, 뇌조직 병변 분포 예측 장치에 의해 수행되는 뇌조직 병변 분포 예측 방법. - 제3항에 있어서,
상기 모델 학습 단계는,
상기 뇌 영상 데이터로부터 정상 부위에 대응하는 대칭 영역을 선택하는 단계; 및
상기 대칭 영역에 대하여 복셀 별로 상기 변형 데이터를 추출하여 학습용 입력 데이터를 획득하는 단계;
를 더 포함하고,
상기 대칭 영역은 제1 확산강조영상(DWI) 데이터, 치료 전 관류강조영상(PWI) 데이터에 대하여 선택되는, 뇌조직 병변 분포 예측 장치에 의해 수행되는 뇌조직 병변 분포 예측 방법. - 제1항에 있어서,
상기 출력 단계는,
상기 입력 데이터를 상기 실패 예측 모델에 입력하여 상기 대상자에 대한 재개통 치료 실패 후의 병변 분포에 관한 정보를 포함하는 제1 출력 영상 데이터를 생성하는 제1 출력 단계; 및
상기 입력 데이터를 상기 성공 예측 모델에 입력하여 상기 대상자에 대한 재개통 치료 성공 후의 병변 분포에 관한 정보를 포함하는 제2 출력 영상 데이터를 생성하는 제2 출력 단계;
를 포함하는, 뇌조직 병변 분포 예측 장치에 의해 수행되는 뇌조직 병변 분포 예측 방법. - 삭제
- 대상자의 치료 후 뇌조직 병변 분포를 예측하는 장치에 있어서, 상기 장치는 제어부 및 출력부를 포함하고,
상기 제어부는,
복수의 기 환자들의 뇌 영상 데이터를 이용하여 대상자의 뇌조직 병변 분포를 예측하는 예측 모델을 학습시키고,
상기 대상자의 뇌 영상 데이터로부터 입력 데이터를 획득하고,
상기 입력 데이터를 상기 예측 모델에 입력하고,
상기 출력부는, 상기 예측 모델을 이용하여 상기 대상자에 대한 재개통 치료 후의 상기 병변 분포에 관한 정보를 포함하는 출력 영상 데이터를 생성하고,
상기 예측 모델은,
복수의 기 환자들 중 재개통 치료에 성공한 환자들의 치료 전 뇌 영상 데이터 및 치료 후 뇌 영상 데이터를 이용하여 학습되는 성공 예측 모델, 및 상기 복수의 기 환자들 중 재개통 치료에 실패한 환자들의 치료 전 뇌 영상 데이터 및 치료 후 뇌 영상 데이터를 이용하여 학습되는 실패 예측 모델을 포함하며,
상기 제어부는,
복수의 기 환자들 각각의 서로 다른 종류의 뇌 영상 데이터를 정합하고,
상기 뇌 영상 데이터로부터 변형 데이터를 계산하고, 상기 병변 부위에 대응하는 관심 영역을 선택하고,
상기 관심 영역에 대하여 복셀 별로 병변 해당 여부에 따라 미리 설정된 값으로 라벨링하고,
상기 관심 영역에 대하여 복셀 별로 상기 변형 데이터를 추출하여 학습용 입력 데이터를 획득하고,
상기 제어부는,
상기 성공 예측 모델은, 혈관재개통 여부를 나타내는 척도로 사용되는 지표인 mTICI(modified Treatment In Cerebral Infarction) 지표가 2b, 3인 기 환자들의 뇌 영상 데이터를 기초로 학습시키고,
상기 실패 예측 모델은, 상기 mTICI 지표가 0, 1, 2a인 기 환자들의 뇌 영상 데이터를 기초로 학습시키는, 뇌조직 병변 분포 예측 장치. - 삭제
- 제8항에 있어서,
정합되는 상기 뇌 영상 데이터는,
치료 전 획득된 제1 확산강조영상(DWI) 데이터, 치료 전 관류강조영상(PWI) 데이터 및 치료 후 획득된 제2 확산강조영상(DWI) 데이터를 포함하는, 뇌조직 병변 분포 예측 장치. - 제10항에 있어서,
상기 제어부는,
상기 제1 확산강조영상(DWI) 데이터로부터 겉보기 확산 계수(Apparent Diffusion Coefficient; ADC)를 계산하고,
상기 치료 전 관류강조영상(PWI) 데이터로부터 rTTP(relative Time to Peak)를 계산하여 rTTP 맵을 획득하고,
상기 제1 확산강조영상(DWI) 데이터, 상기 치료 전 관류강조영상(PWI) 데이터 및 상기 제2 확산강조영상(DWI) 데이터로부터 관심 영역을 선택하는, 뇌조직 병변 분포 예측 장치. - 제10항에 있어서,
상기 제어부는,
상기 뇌 영상 데이터로부터 정상 부위에 대응하는 대칭 영역을 선택하고,
상기 대칭 영역에 대하여 복셀 별로 상기 변형 데이터를 추출하여 학습용 입력 데이터를 획득하고,
상기 대칭 영역은 제1 확산강조영상(DWI) 데이터, 치료 전 관류강조영상(PWI) 데이터에 대하여 선택되는, 뇌조직 병변 분포 예측 장치. - 제8항에 있어서,
상기 출력부는,
상기 실패 예측 모델에 입력된 상기 입력 데이터에 기초하여, 상기 대상자에 대한 재개통 치료 실패 후의 병변 분포에 관한 정보를 포함하는 제1 출력 영상 데이터를 생성하고,
상기 성공 예측 모델에 입력된 상기 입력 데이터에 기초하여, 상기 대상자에 대한 재개통 치료 성공 후의 병변 분포에 관한 정보를 포함하는 제2 출력 영상 데이터를 생성하는, 뇌조직 병변 분포 예측 장치. - 삭제
- 컴퓨터를 이용하여 제1항, 제3항 내지 제6항 중 어느 한 항의 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200075985A KR102403651B1 (ko) | 2020-06-22 | 2020-06-22 | 뇌조직 병변 분포 예측 방법, 장치 및 컴퓨터 프로그램 |
JP2020189885A JP7132309B2 (ja) | 2020-06-22 | 2020-11-13 | 脳組織病変分布予測方法、その装置及びそのコンピュータプログラム |
US17/099,008 US20210393212A1 (en) | 2020-06-22 | 2020-11-16 | Method, Device, and Computer Program for Predicting Brain Tissue Lesion Distribution |
KR1020220063597A KR102472540B1 (ko) | 2020-06-22 | 2022-05-24 | 뇌조직 병변 분포 예측 방법, 장치 및 컴퓨터 프로그램 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200075985A KR102403651B1 (ko) | 2020-06-22 | 2020-06-22 | 뇌조직 병변 분포 예측 방법, 장치 및 컴퓨터 프로그램 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220063597A Division KR102472540B1 (ko) | 2020-06-22 | 2022-05-24 | 뇌조직 병변 분포 예측 방법, 장치 및 컴퓨터 프로그램 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210157948A KR20210157948A (ko) | 2021-12-30 |
KR102403651B1 true KR102403651B1 (ko) | 2022-05-31 |
Family
ID=79022690
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200075985A KR102403651B1 (ko) | 2020-06-22 | 2020-06-22 | 뇌조직 병변 분포 예측 방법, 장치 및 컴퓨터 프로그램 |
KR1020220063597A KR102472540B1 (ko) | 2020-06-22 | 2022-05-24 | 뇌조직 병변 분포 예측 방법, 장치 및 컴퓨터 프로그램 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220063597A KR102472540B1 (ko) | 2020-06-22 | 2022-05-24 | 뇌조직 병변 분포 예측 방법, 장치 및 컴퓨터 프로그램 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210393212A1 (ko) |
JP (1) | JP7132309B2 (ko) |
KR (2) | KR102403651B1 (ko) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023163444A1 (ko) * | 2022-02-25 | 2023-08-31 | 재단법인 아산사회복지재단 | Ndt 정밀 뇌 영상 생성 방법 및 장치 |
CN117152128B (zh) * | 2023-10-27 | 2024-02-27 | 首都医科大学附属北京天坛医院 | 神经影像的病灶识别方法、装置、电子设备和存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102001398B1 (ko) * | 2018-01-25 | 2019-07-18 | 재단법인 아산사회복지재단 | 기계학습을 통한 뇌질환 상태변화 예측방법, 장치 및 프로그램 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8311791B1 (en) * | 2009-10-19 | 2012-11-13 | Surgical Theater LLC | Method and system for simulating surgical procedures |
JP2020092660A (ja) * | 2018-12-13 | 2020-06-18 | 国立研究開発法人国立循環器病研究センター | 脳梗塞発症リスク予測方法 |
KR102214123B1 (ko) * | 2020-02-17 | 2021-03-08 | 주식회사 제이엘케이 | 인공지능 기반 pwi-dwi 미스매치 병변 추출 및 통합 평가 방법 및 시스템 |
-
2020
- 2020-06-22 KR KR1020200075985A patent/KR102403651B1/ko active IP Right Grant
- 2020-11-13 JP JP2020189885A patent/JP7132309B2/ja active Active
- 2020-11-16 US US17/099,008 patent/US20210393212A1/en active Pending
-
2022
- 2022-05-24 KR KR1020220063597A patent/KR102472540B1/ko active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102001398B1 (ko) * | 2018-01-25 | 2019-07-18 | 재단법인 아산사회복지재단 | 기계학습을 통한 뇌질환 상태변화 예측방법, 장치 및 프로그램 |
Also Published As
Publication number | Publication date |
---|---|
KR20220077114A (ko) | 2022-06-08 |
KR102472540B1 (ko) | 2022-12-01 |
JP2022002073A (ja) | 2022-01-06 |
KR20210157948A (ko) | 2021-12-30 |
JP7132309B2 (ja) | 2022-09-06 |
US20210393212A1 (en) | 2021-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10966679B2 (en) | Perfusion digital subtraction angiography | |
KR102472540B1 (ko) | 뇌조직 병변 분포 예측 방법, 장치 및 컴퓨터 프로그램 | |
US8427151B2 (en) | Method and apparatus for brain perfusion magnetic resonance images | |
US20040106864A1 (en) | Method of predicting stroke evolution utilising mri | |
Park et al. | Segmentation of perivascular spaces in 7 T MR image using auto-context model with orientation-normalized features | |
US20150289779A1 (en) | System and method for diagnosis of focal cortical dysplasia | |
CN111753833A (zh) | 基于fMRI与DTI构建脑网络建模的帕金森辅助识别方法 | |
US12002207B2 (en) | Device and method for constructing blood vessel map, and computer program for executing said method | |
JP7278056B2 (ja) | 造影シネmriデータセットにおける左心室のセグメント分割の改善 | |
Hachaj et al. | CAD system for automatic analysis of CT perfusion maps | |
Bazin et al. | Vessel segmentation from quantitative susceptibility maps for local oxygenation venography | |
KR20210065768A (ko) | 개인 맞춤형 뇌졸중 진단을 위한 임상 인자 및 의료 영상 처리 시스템 | |
KR20200062656A (ko) | 의료 영상으로부터 뇌혈관 나이를 추정하는 방법 및 시스템 | |
KR102582295B1 (ko) | 머신 러닝 기반의 뇌경색 치료 여부 결정 방법, 장치 및 컴퓨터 프로그램 | |
KR102043829B1 (ko) | 병변 발생 시점 추정 방법, 장치 및 프로그램 | |
WO2019190641A1 (en) | System and method for evaluation of dynamic data | |
US10478069B2 (en) | Method for estimating time of occurrence of infarct on basis of brain image | |
KR101991037B1 (ko) | 혈전 종류 판별 방법, 장치 및 프로그램 | |
KR102304420B1 (ko) | 혈관 나이 진단 장치, 혈관 나이 진단 방법 및 상기 방법을 실행하기 위한 컴퓨터 프로그램 | |
KR102597647B1 (ko) | 인공 신경망에 기반하여 분류 정보를 출력하는 방법 및 이를 위한 장치 | |
US20240153037A1 (en) | Method and system for correcting contrast-enhanced images | |
EP4057216A1 (en) | Method and system for correcting contrast-enhanced images | |
US20230316716A1 (en) | Systems and methods for automated lesion detection using magnetic resonance fingerprinting data | |
Arco Martín | Supervised-learning methods for pattern recognition in fmri data for the identification of informative brain regions in psychological contexts | |
Mineo et al. | A Convolutional-Transformer Model for FFR and iFR Assessment from Coronary Angiography |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |