WO2023153839A1 - 2차원 mri를 이용한 치매 정보 산출 방법 및 분석장치 - Google Patents

2차원 mri를 이용한 치매 정보 산출 방법 및 분석장치 Download PDF

Info

Publication number
WO2023153839A1
WO2023153839A1 PCT/KR2023/001929 KR2023001929W WO2023153839A1 WO 2023153839 A1 WO2023153839 A1 WO 2023153839A1 KR 2023001929 W KR2023001929 W KR 2023001929W WO 2023153839 A1 WO2023153839 A1 WO 2023153839A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
interest
subject
volume
learning model
Prior art date
Application number
PCT/KR2023/001929
Other languages
English (en)
French (fr)
Inventor
서상원
장혜민
박채정
구형연
Original Assignee
사회복지법인 삼성생명공익재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220141115A external-priority patent/KR102608203B1/ko
Application filed by 사회복지법인 삼성생명공익재단 filed Critical 사회복지법인 삼성생명공익재단
Publication of WO2023153839A1 publication Critical patent/WO2023153839A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the technique described below is a technique for calculating dementia-related information using 2D MRI.
  • Dementia refers to a syndrome that causes the future of cognitive functions such as memory, language, and judgment. There are many types of dementia, but Alzheimer's disease is the most common form of dementia.
  • Brain imaging such as magnetic resonance imaging (MRI) and positron emission tomography (PET) is used to diagnose dementia.
  • MRI magnetic resonance imaging
  • PET positron emission tomography
  • cortical thickness is used as a factor associated with dementia.
  • 3D MRI dimension
  • PET-CT PET-CT
  • 3D MRI requires high-spec MRI equipment and is time-consuming and expensive.
  • 2D MRI scanners used in general health examination centers or primary hospitals generate about 20 images, making accurate diagnosis difficult.
  • the technology to be described below is intended to provide a technique for calculating dementia-related information or predicting dementia using a small number of 2D MRI images.
  • a method for calculating dementia information using 2D MRI includes the steps of receiving 2D MRI slices of a subject by an analysis device, inputting the 2D MRI slices into a segmentation model by the analysis device and extracting regions of interest, and the analysis device extracting regions of interest. predicting a cortical thickness of at least one of the regions of interest and a volume of at least one of the regions of interest by inputting pixel information of the regions into a first learning model learned in advance; and the analysis device and calculating dementia information of the subject by inputting the cortical thickness of the at least one region and the volume of the at least one region to a previously learned second learning model.
  • a method for calculating dementia information using 2D MRI includes the steps of receiving 2D MRI slices of a subject by an analysis device, inputting the 2D MRI slices into a segmentation model by the analysis device and extracting regions of interest, and the analysis device extracting regions of interest. predicting the volume of at least one region among the regions of interest by inputting pixel information of the regions into a first learning model learned in advance; and calculating dementia information of the subject by inputting the information into a learning model.
  • the regions of interest include at least one of frontal gray matter, temporal gray matter, parietal gray matter, occipital gray matter, lateral ventricle, hippocampus, and extracerebral cerebrospinal fluid region.
  • the technology described below calculates dementia-related information using a learning model that analyzes a small number of 2D MRI images.
  • the technology described below can provide useful information for diagnosing dementia based on brain MRI calculated by a low-end 2D MRI scanner.
  • 1 is an example of an entire process of calculating dementia information of a subject using 2D brain MRI.
  • FIG. 2 is an example of a process of learning a segmentation model for extracting a region of interest from a brain image.
  • 3 is an example of a learning process of a learning model that predicts cortical thickness and brain region volume based on regions of interest.
  • FIG. 4 is an example of a learning process of a learning model that calculates dementia information based on the volume of a brain region.
  • 5 is an example of a learning process of a learning model that calculates dementia information based on the thickness of the cerebral cortex and the volume of the brain region.
  • 6 is an example of an analysis device that calculates dementia information of a subject using brain images.
  • first, second, A, B, etc. may be used to describe various elements, but the elements are not limited by the above terms, and are merely used to distinguish one element from another. used only as For example, without departing from the scope of the technology described below, a first element may be referred to as a second element, and similarly, the second element may be referred to as a first element.
  • the terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.
  • each component to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function.
  • each component to be described below may additionally perform some or all of the functions of other components in addition to its main function, and some of the main functions of each component may be performed by other components. Of course, it may be dedicated and performed by .
  • each process constituting the method may occur in a different order from the specified order unless a specific order is clearly described in context. That is, each process may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
  • the following dementia includes Alzheimer's dementia.
  • the technology described below is a technology for calculating dementia information from 2D brain MRI.
  • Techniques to be described below include techniques for diagnosing or predicting dementia using dementia information extracted from 2D brain MRI.
  • Dementia information refers to information for diagnosing or predicting dementia.
  • the dementia information includes whether or not the subject has dementia, whether the dementia is a high-risk group (possibility of future onset), dementia-related indicators, and the like.
  • Dementia-related indicators may include various scores, brain atrophy, and the like that have been studied as significant in diagnosing dementia or predicting dementia.
  • the analysis device may take the form of a computer device such as a PC, a smart device, a network server, and a data processing dedicated chipset.
  • the analysis device can predict dementia based on brain images using a plurality of learning models.
  • the learning model is a machine learning model.
  • the classification model can be any of various types of models.
  • the learning model is any one of a decision tree, a random forest (RF), a K-nearest neighbor (KNN), a Naive Bayes, a support vector machine (SVM), a deep neural network (DNN), and a regression model. It may be a model implemented in the manner of There are various types of DNN models.
  • DNN includes a segmentation model for extracting a region of interest from an image, a classification model for performing classification based on features of an image, and the like.
  • 1 is an example of an entire process 100 of calculating dementia information of a subject using 2D brain MRI.
  • the analysis device may calculate dementia information for a subject based on a small number of 2D MRI slices.
  • the number of 2D MRI slices may be the number calculated by a general 2D MRI scanner.
  • the researcher built a learning model using 20 2D MRI slices. Accordingly, it is assumed that the number of 2D MRI slices is 20 for convenience of description below.
  • the analysis device receives the subject's 2D brain MRI (110).
  • the analysis device may receive 20 2D MRI slices of the subject.
  • the analysis device extracts a region of interest (ROI) from the received 2D MRI slices (120).
  • ROI region of interest
  • the analysis device may extract a plurality of set regions of interest using a previously learned segmentation model. Regions of interest may be regions for calculating the volume of a specific region. Furthermore, the regions of interest may include regions for calculating cortical thickness.
  • the regions of interest are frontal gray matter, temporal gray matter, parietal gray matter, occipital gray matter, lateral ventricle, hippocampus and extracerebral cerebrospinal fluid. It may include at least one of extracerebral cerebrospinal fluid.
  • the analysis device may calculate a certain brain image index using the extracted regions of interest (130).
  • the brain image index may include the number of pixels of the extracted region of interest.
  • the brain image index may include the total brain size, which can be calculated as the size of regions of the brain image.
  • the brain size can be calculated by summing the sizes of the extracerebral cerebrospinal fluid, the seven regions of interest described above, and the white matter of the regions of interest.
  • the analysis device may calculate the subject's brain size using one of various image processing techniques.
  • the analysis device may normalize the region of interest to a preset size. For example, the analyzer may calculate the size of the entire brain and normalize the size of the region of interest to a constant level.
  • the analysis device may calculate brain image indexes such as the number of pixels based on the normalized ROI(s).
  • the analysis device may estimate the volume of the brain region using a pre-learned learning model (140).
  • the analysis device may estimate the thickness of the cerebral cortex and the volume of the brain region using a learning model learned in advance (140).
  • the analysis device may predict the thickness of the cerebral cortex of the region of interest by inputting the brain image index to the learning model.
  • the analysis device may predict cortical thickness in each region of interest using a plurality of learning models. For example, the analysis device may calculate the cortical thickness of each region using individual learning models for the frontal, temporal, parietal, and occipital regions.
  • the analysis device can predict the volume of the brain region using a separate learning model.
  • the analysis device may predict the volume of the brain region by inputting the brain image index to the learning model.
  • the analysis device may predict the volume in each region of interest using a plurality of learning models. For example, the analysis device may calculate the volume of each region by individually using a learning model for the lateral ventricle, a learning model for the hippocampus, and a learning model for the extracerebral cerebrospinal fluid region.
  • the analysis device may calculate the thickness of the cerebral cortex or the volume of a brain region by additionally using the subject's clinical information (gender, age, etc.) in addition to the brain image.
  • each learning model must be trained in advance to calculate the thickness of the cerebral cortex or the volume of the brain region using clinical information in addition to brain MRI.
  • the analysis device may calculate dementia information for the subject based on the thickness and volume of the cerebral cortex of the region(s) of interest (150). Alternatively, the analysis device may calculate dementia information for the subject based only on the volume of the region(s) of interest (150).
  • the dementia information calculation process of FIG. 1 uses a plurality of learning models to calculate dementia information of a subject.
  • the researcher built a number of learning models for the above process, and verified the performance of individual models and the dementia information calculation performance.
  • the construction process of the learning models used by the researcher to calculate dementia information of the subject will be described.
  • the data of 980 persons are 3D MRI data generated using a 3.0 T MRI scanner (Philips 3.0T Achieva).
  • cortical thickness is computed as the Euclidean distance between the inner and outer surfaces of the cerebral cortex.
  • Regions of interest include (i) frontal, temporal, parietal and occipital gray matter, (ii) lateral ventricle (iii) hippocampus and (iv) extracerebral cerebrospinal fluid region.
  • the learning device refers to a computer device capable of processing image data and performing a learning process of a machine learning model.
  • the learning device learns a segmentation model using MRI images of multiple subjects.
  • FIG. 2 illustrates a process of learning a segmentation model using MRI of one subject as an example.
  • the learning device receives a 3D MRI of a specific subject belonging to the aforementioned population (210).
  • the learning device prepares a learning data set (220).
  • the training data set consists of an input slice (original slice) and an answer image for the corresponding slice for each slice.
  • the learning device selects 20 slices from 480 slices of 3D MRI.
  • the learning device may select slices matching 20 slices obtained from the 2D MRI scanner among 480 slices.
  • the learning device receives the correct answer images for the selected 20 slices.
  • the answer image is an image obtained by dividing regions of interest with respect to the input slice.
  • an image displayed (annotated) by a medical imaging expert by dividing the region of interest may be used.
  • the learning device performs learning of the segmentation model using the learning data (230).
  • the learning device may learn a segmentation model using input slices and answer images for 20 slices.
  • the segmentation model receives an input slice and learns to extract (separate) regions of interest of an answer image.
  • the segmentation model may be a semantic segmentation model.
  • the segmentation model may be a fully convolutional network (FCN)-based model such as U-net.
  • FCN fully convolutional network
  • a segmentation model may be prepared in advance for each region of interest.
  • the regions of interest may include at least one of gray matter of the frontal region, gray matter of the temporal region, gray matter of the parietal region, gray matter of the occipital region, lateral ventricle, hippocampus, and extracerebral cerebrospinal fluid.
  • the segmentation model may be trained to extract multiple regions of interest.
  • the researcher performed curriculum learning to accurately extract various areas of interest with different characteristics.
  • Curriculum learning is a learning strategy that imitates the human learning process to learn data with easy difficulty first and gradually learns difficult data.
  • IoU intersection over union
  • DSC freeze similarity coefficient
  • IoU A overlap / (A GT + A pred - A overlap )
  • a GT is the correct region of interest
  • a pred is the region of interest (prediction region) identified by the segmentation model
  • a overlap is the overlapping region between A GT and A pred .
  • the segmentation model showed IoU and DSC as shown in Table 3 below for the six regions of interest below.
  • the segmentation model showed the highest performance in lateral ventricle extraction.
  • Table 4 below shows the extraction performance of the segmentation model for the extracerebral cerebrospinal fluid region.
  • the segmentation model showed the highest performance in the lateral ventricle area.
  • Table 5 below is the result of analyzing the performance of the learning sequence in Table 2.
  • the learning method in the order of learning the lateral ventricle first showed slightly higher performance than the learning method in the other order. Therefore, it can be seen that the technique of performing curriculum learning by dividing the region of interest is significant in the performance of the segmentation model.
  • 3 is an example of a learning process 300 of a learning model that predicts cortical thickness and brain region volume based on regions of interest.
  • Learning models predicting cortical thickness may be prepared in advance for each region of interest.
  • learning models for predicting the volume of a brain region may be prepared in advance for each region of interest.
  • the learning model may predict the thickness of the cerebral cortex or the volume of the brain region based on each region of interest. 3 integrally illustrates the learning process for each area of interest.
  • the learning of FIG. 3 is based on a state in which the aforementioned region of interest is extracted from MRI of the brain of a subject belonging to a population. That is, the learning device may use the region of interest calculated using the segmentation model of FIG. 2 .
  • the learning device extracts input data based on regions of interest extracted from brain MRI (310).
  • the input data may include brain image indexes and clinical information extracted from regions of interest extracted by the segmentation model.
  • the brain imaging index includes size information for each region of interest (frontal gray matter, temporal gray matter, parietal gray matter, occipital gray matter, lateral ventricle, hippocampus, and extracerebral cerebrospinal fluid region).
  • the size of the region of interest may be determined by the number of pixels in the corresponding region of interest image. That is, the size of the region of interest may be the sum of all pixels belonging to the region. Meanwhile, the size of the region of interest may be normalized based on the size of the entire brain. Normalization is the process of correcting the size of the brain, which differs from person to person, to a certain size.
  • the brain image index may further include brain size.
  • the brain size can be calculated by summing the sizes of the extracerebral cerebrospinal fluid region, the seven regions of interest described above, and the white matter of the regions of interest.
  • the summed number of pixels of a specific region of interest may be the sum of all pixels of the corresponding region of interest for each of the 20 slices.
  • the summed number of pixels of the frontal gray matter may be a value obtained by summing all pixels belonging to the frontal gray matter region in each of 20 slices. Assume that the indexes of 20 slices are 0 to 19.
  • the summed number of pixels in the frontal gray matter is the number of pixels belonging to the frontal gray matter region of slice 0, the number of pixels belonging to the frontal gray matter region of slice 1, ..., the number of pixels belonging to the frontal gray matter region of slice 19. It may be the sum of all values.
  • the number of pixels of the region of interest may be an average value of the number of pixels of all slices.
  • Clinical information may include age and gender of the subject. Clinical information may also include APOE4 genotype.
  • the researcher used the combined number of pixels of the regions of interest, brain size, and clinical information as input data.
  • the learning device performs a process of learning a learning model using the extracted input data (320).
  • the learning device repeats the learning process of the learning model using input data extracted from brain MRIs of a plurality of subjects.
  • the learning device inputs the extracted input data to the learning model and performs learning while comparing the value (predicted value) output by the learning model with the correct answer.
  • the trained model is trained to predict cortical thickness of a specific region of interest or volume of a specific region of interest.
  • the correct answer is the information calculated by MRI and PET-CT of subjects belonging to the population (see Table 1).
  • a learning model may be built as an individual model according to the information to be predicted.
  • a learning model is a machine learning model and can be implemented as one of many types of models.
  • the researcher used a regression model.
  • the researcher developed a model that predicts cortical thickness in the frontal region (anterior temporal model), a model that predicts cortical thickness in the temporal region (temporal region model), a model that predicts cortical thickness in the parietal region (parietal region model), and a model that predicts cortical thickness in the occipital region (parietal region model).
  • a model predicting cortical thickness (occipital region model), a model predicting the volume of the lateral ventricle (lateral ventricle model), a model predicting the volume of the hippocampus (hippocampal model), and a model predicting the volume of the extracerebral cerebrospinal fluid region (extracerebral cerebrospinal fluid). model) was built individually.
  • the frontal model may predict the thickness of the cerebral cortex in the frontal region by receiving the summed number of pixels of the frontal gray matter and clinical information.
  • the frontal model can predict the thickness of the cerebral cortex in the frontal region by receiving the summed number of pixels of the frontal gray matter, brain size, and clinical information.
  • the extracerebral cerebrospinal fluid model can estimate the volume of the extracerebral cerebrospinal fluid region by receiving the summed number of pixels and clinical information of the extracerebral cerebrospinal fluid region.
  • the extracerebral cerebrospinal fluid model can estimate the volume of the extracerebral cerebrospinal fluid region by receiving inputs of the summed number of pixels of the extracerebral cerebrospinal fluid region, brain size, and clinical information.
  • Model 1 is a model that does not use brain size
  • model 2 is a model that uses even brain size. It can be seen that the performance of model 1 or model 2 is slightly higher depending on the area of interest. Accordingly, Model 1 or Model 2 may be selectively used as a model for predicting cortical thickness and brain region volume according to a region of interest. However, there was no significant difference between model 1 and model 2 in terms of performance.
  • ROI model 1 model 2 frontal gray matter 0.774 0.779 temporal gray matter 0.786 0.788 parietal gray matter 0.801 0.799 occipital gray matter 0.649 0.638 lateral ventricle 0.880 0.869 hippocampus 0.663 0.667
  • the researcher verified the performance of the learning model to predict the cortical thickness of the region of interest or the volume of the region of interest.
  • the researcher compared the predicted value based on 2D MRI and the correct answer value measured on 3D MRI using a learning model.
  • the comparison results are shown in Table 7 below.
  • the thickness and volume of the cerebral cortex predicted by the learning model showed a significant correlation with the actual correct answer value. In particular, volume showed a high correlation.
  • the researcher verified the performance of the learning model to predict the cortical thickness of the region of interest or the volume of the region of interest.
  • the researcher compared the predicted value based on 2D MRI and the correct answer value measured on 3D MRI using a learning model.
  • the comparison results are shown in Table 7 below.
  • the thickness and volume of the cerebral cortex predicted by the learning model showed a significant correlation with the actual correct answer value. In particular, volume showed a high correlation.
  • a learning model that finally calculates dementia information may be implemented as any one of various machine learning model types. The researcher implemented a model that calculates dementia information with a deep learning model.
  • the learning of FIG. 4 is based on the premise of acquiring cortical thickness, specific brain region volume, and clinical information for subjects belonging to the population.
  • the learning device may use the volume of a specific brain region for each region of the subject calculated using the learning model of FIG. 3 .
  • the learning device may extract input data necessary for learning (410).
  • the learning device extracts the volume of a specific brain region extracted from 2D brain MRI of subjects belonging to the population.
  • the volume of the brain region may include the volume of the lateral ventricle, hippocampus, and extracerebral cerebrospinal fluid region.
  • the learning device acquires clinical information of subjects. Clinical information may include at least one of age, gender, and APOE4 genotype.
  • the learning data may include the volume of a specific brain region calculated using the learning model of FIG. 3 .
  • the learning data may include the thickness of the cerebral cortex and the volume of a specific brain region calculated from brain images of actual subjects. The researcher used the thickness of the cerebral cortex and the volume of a specific brain region calculated from the 3D MRI analysis results of actual subjects as learning data.
  • the learning device performs a process of learning a learning model using the extracted input data (420).
  • the learning device repeats the learning process of the learning model using input data extracted from a plurality of subjects.
  • the learning device inputs the extracted input data to the learning model and performs learning while comparing the value (predicted value) output by the learning model with the correct answer.
  • the learning model is trained to calculate dementia information of the subject.
  • the learning model may output a binary classification result of whether or not the subject has dementia.
  • the correct answer is the information on whether or not the subjects belonging to the population have dementia (refer to Table 1).
  • a learning process 500 of a learning model that calculates dementia information based on cortical thickness and brain region volume is an example of a learning process 500 of a learning model that calculates dementia information based on cortical thickness and brain region volume.
  • a learning model that finally calculates dementia information may be implemented as any one of various machine learning model types. The researcher implemented a model that calculates dementia information with a deep learning model.
  • the learning of FIG. 5 is based on the premise of acquiring cortical thickness, specific brain region volume, and clinical information for subjects belonging to the population.
  • the learning device may use the thickness of the cerebral cortex and the volume of a specific brain region for each region of the subject calculated using the learning model of FIG. 3 .
  • the learning device may extract input data necessary for learning (510).
  • the learning device extracts the thickness of the cerebral cortex and the volume of a specific brain region extracted from brain MRI of subjects belonging to the population.
  • the cortical thickness may include at least one of cortical thicknesses of the frontal, temporal, parietal, and occipital regions.
  • the volume of the brain region may include at least one of a volume of a lateral ventricle, a hippocampus, and an extracerebral cerebrospinal fluid region.
  • the learning device acquires clinical information of subjects.
  • Clinical information may include at least one of age, gender, and APOE4 genotype.
  • the learning data may include the thickness of the cerebral cortex and the volume of a specific brain region calculated using the learning model of FIG. 3 .
  • the learning data may include the thickness of the cerebral cortex and the volume of a specific brain region calculated from brain images of actual subjects. The researcher used the thickness of the cerebral cortex and the volume of a specific brain region calculated from the 3D MRI analysis results of actual subjects as learning data.
  • the learning device performs a process of learning a learning model using the extracted input data (520).
  • the learning device repeats the learning process of the learning model using input data extracted from a plurality of subjects.
  • the learning device inputs the extracted input data to the learning model and performs learning while comparing the value (predicted value) output by the learning model with the correct answer.
  • the learning model is trained to calculate dementia information of the subject.
  • the learning model may output a binary classification result of whether or not the subject has dementia.
  • the correct answer is the information on whether or not the subjects belonging to the population have dementia (refer to Table 1).
  • model type Training data (input data) 6ROIs (F/T/P/O/L/H) learning model 1 Frontal cortical thickness, temporal cortical thickness, parietal cortical thickness, occipital cortical thickness, lateral ventricular volume and hippocampal volume learning model 2 Learning model 1 + clinical information (age, gender) learning model 3 Learning Model 2 + Clinical Information (APOE4) 7ROI (F/T/P/O/L/H/E) learning model 4 Frontal cortical thickness, temporal cortical thickness, parietal cortical thickness, occipital cortical thickness, lateral ventricle volume, hippocampal volume, and extracerebral cerebrospinal fluid area volume learning model 5 Learning Model 4 + Clinical Information (Age, Gender) learning model 6 Learning Model 5 + Clinical Information (APOE4) 3ROIs (L/H/E) learning model 7 Volume of the lateral ventricle, volume of the hippocampus and volume of the extracerebral cerebrospinal
  • the learning model may be a model that takes the thickness and/or volume of some (at least one) of the aforementioned regions of interest as input data. That is, as the learning model, various types of models may be constructed according to which region of interest is to be used.
  • the researcher verified the built learning model. Meanwhile, in the verification process, the researcher used the cortical thickness and brain region volume predicted by the learning model of FIG. 3 as input data for the learning model of FIG. 4 .
  • researchers performed 10-fold cross-validation.
  • the verification results are shown in Table 9 below. Verification compared the result predicted by the learning model with the correct answer. As performance indicators, AUC (area under the receiver operating characteristic curve) and AUPRC (area under the precision-recall curve) were used.
  • the performance difference between the 3D MRI-based model and the 2D MRI-based model is not large. Therefore, it can be said that the 2D MRI-based model developed by the researcher is also sufficiently significant in predicting dementia.
  • models using only cortical thickness of regions of interest extracted from 2D MRI (learning models 10 to 12), models using only volumes of regions of interest (learning models (learning models 7 to 9) and cortical thickness and volume of regions of interest) All of the models used (learning models 1 to 6) showed a significant level of performance, and other models showed slightly higher performance than the model using only cortical thickness (learning models 10 to 12).
  • the researcher also constructed a model to calculate indicators related to dementia in previous studies.
  • the researcher used the data of 924 people (80%) of the population as learning data, and the data of 196 people (20%) as verification data.
  • the researcher constructed a model that calculates a constant index by receiving the thickness and/or volume of the cerebral cortex for the region of interest calculated using the learning model of FIG. 3 described above.
  • the learning model corresponds to a model that calculates a constant index (score).
  • the W-score corresponds to an index for discriminating brain atrophy information (Renaud La Joie et al., Region-specific hierarchy between atrophy, hypometabolism, and ⁇ -amyloid (A ⁇ ) load in Alzheimer's disease dementia, J Neurosci . 2012 Nov 14;32(46):16265-73. Reference).
  • a subject with a W-score of 1.65 or higher can be judged to have brain atrophy.
  • the researcher built a learning model that calculates the W-score. Table 10 below shows the correlation between the W-score of the learning model constructed by the researcher and the W-score calculated using 3D MRI of the same subject. Table 10 compares the results of calculating scores for each area of interest.
  • model 1 uses age and gender as score adjustment variables
  • model 2 uses age, gender, and education level as score adjustment variables.
  • Model1 0.826 0.759 0.768 0.819 0.639 0.721 0.918 0.774
  • Model2 0.834 0.762 0.783 0.821 0.651 0.706 0.916 0.764
  • AD-score corresponds to an indicator for determining whether or not there is dementia ( Jin San Lee et al., Machine Learning-based Individual Assessment of Cortical Atrophy Pattern in Alzheimer's Disease Spectrum: Development of the Classifier and Longitudinal Evaluation, J Neurosci . SCIENTIFIC REPORTS, Vol.8(1): 4161, 2018. Reference).
  • the researcher calculated the AD-score using the learning model that calculates the above-mentioned W-score.
  • the researcher used the learning model to derive AD-scores by using W-scores for the seven areas of interest as input values.
  • the researcher analyzed the correlation between the AD-score calculated using the learning model and the AD-score according to the previous research method.
  • Table 11 shows the performance of the learning model that calculates the W-score. Model 1 uses age and gender as score adjustment variables, and Model 2 uses age, gender, and education level as score adjustment variables. Looking at Table 11, it can be seen that even when using a model that calculates the W-score, it has a significant correlation with the correct value.
  • the analysis device 600 is an example of an analysis device 600 that calculates dementia information of a subject using a brain image.
  • the analysis device 600 may be physically implemented in various forms.
  • the analysis device 600 may have a form of a computer device such as a PC, a smart device, a network server, and a chipset dedicated to data processing.
  • the analysis device 600 may be connected to brain imaging equipment or may be an integral device.
  • the analysis device 600 may include a storage device 610, a memory 620, an arithmetic device 630, an interface device 640, a communication device 650, and an output device 660.
  • the storage device 610 may store the 2D MRI of the subject generated by the medical imaging equipment.
  • the storage device 610 may store clinical information of the subject.
  • Clinical information may include at least one of age, gender, level of education, and APOE4 genotype.
  • the storage device 610 may store a segmentation model for extracting an ROI from a brain image (2D MRI slice).
  • a segmentation model is a pretrained model.
  • the storage device 610 may store a learning model that predicts the thickness of the cerebral cortex and/or the volume of a specific brain region based on information of the region of interest and clinical information (age, gender).
  • a learning model predicting cortical thickness and/or volume of a specific brain region is called a first learning model.
  • the first learning model uses the summed number of pixels of the region of interest (at least one of frontal gray matter, temporal gray matter, parietal gray matter, occipital gray matter, lateral ventricle, hippocampus, and extracerebral cerebrospinal fluid region) and clinical information as input data.
  • the first learning model may further use brain size as input data. Accordingly, the first learning model may be divided into a model that does not use brain size and a model that uses even brain size, and may be prepared in advance. Also, the first learning model may be prepared in advance for each area of interest.
  • the storage device 610 may store a learning model for calculating dementia information based on the thickness of the cerebral cortex and/or the volume of a specific brain region.
  • a learning model predicting dementia is called a second learning model.
  • the second learning model may be implemented in various models according to the type of input data.
  • the second learning model is (i) a model that uses only cortical thickness and volume of specific brain regions as input data, (ii) cortical thickness, volume of specific brain regions, and clinical information (age, gender, and APEO4) as input data.
  • a model using only cortical thickness in specific regions of interest as input data (iii) a model using only cortical thickness in specific regions of interest as input data, (iv) a model using cortical thickness and clinical information (age, gender, and APEO4) in specific regions of interest as input data, (v) It may be any one of a model using only the volume of specific regions of interest as input data, and (vi) a model using the volume and clinical information (age, gender, and APEO4) of specific regions of interest as input data.
  • the second learning model may be any one of the models described in Table 7.
  • Dementia information may be any one of information such as a prediction result of dementia or not of a subject, a prediction result of dementia high-risk group, dementia-related indicators (brain atrophy information, W-score, AD-score, etc.).
  • the memory 620 may store data and information generated in the course of the analysis device 600 calculating dementia information from brain images.
  • the interface device 640 is a device that receives certain commands and data from the outside.
  • the interface device 640 may receive 2D MRI and clinical information of a subject from a physically connected input device or an external storage device.
  • the number of input 2D MRI slices is less than 20.
  • the interface device 640 may transmit dementia information predicted based on 2D MRI to an external object.
  • the communication device 650 refers to a component that receives and transmits certain information through a wired or wireless network.
  • the communication device 650 may receive 2D MRI and clinical information of a subject from an external object.
  • the number of 2D MRI slices is less than 20.
  • the communication device 650 may transmit dementia information predicted based on 2D MRI to an external object such as a user terminal.
  • the interface device 640 may be a device that internally receives data received from the communication device 650 .
  • the output device 660 is a device that outputs certain information.
  • the output device 660 may output an interface necessary for a data processing process, a brain image, a region of interest divided from a brain image, a dementia-related index calculated based on a region of interest, dementia information, and the like.
  • the arithmetic device 630 may pre-process the subject's brain image (2D MRI) at regular intervals.
  • the arithmetic device 630 may generate a mask for segmenting the entire brain region through a data pre-processing process.
  • the arithmetic device 630 may segment the entire brain region from the brain image using a mask for the entire brain region.
  • the arithmetic device 630 may normalize the size or resolution of the subject's 2D MRI to a constant.
  • the computing device 630 may extract a region of interest by inputting the 2D MRI slice of the subject to the learned segmentation model.
  • the regions of interest include at least one of frontal gray matter, temporal gray matter, parietal gray matter, occipital gray matter, lateral ventricle, hippocampus, and extracerebral cerebrospinal fluid region.
  • the computing device 630 may extract size information of the regions of interest.
  • the calculator 630 may calculate the summed number of pixels for each of the ROI.
  • the calculation device 630 may calculate the summed number of pixels by summing the number of pixels identified in the entire 2D slice for each region of interest (eg, the frontal region).
  • the computing device 630 may calculate the size of the entire brain based on the sizes of the region of interest and other regions in the brain MRI.
  • the brain size may be determined by summing the sizes of the seven regions of interest and the white matter of the regions of interest.
  • the computing device 630 may predict the thickness and volume of the cerebral cortex of the region of interest by inputting the summed number of pixels and clinical information (at least one of age, gender, and APEO4 genotype) of the region of interest to the first learning model.
  • the computing device 630 may predict the thickness and volume of the cerebral cortex of the region of interest by inputting the summed number of pixels and clinical information (at least one of age, gender, and APEO4 genotype) for each region of interest into an individual learning model.
  • the calculation device 630 may input the thickness and volume of the cerebral cortex of the region of interest(s) predicted in the first learning model to the second learning model to calculate dementia information of the subject.
  • the arithmetic unit 630 calculates the thickness of the cerebral cortex of the frontal part, the thickness of the cerebral cortex of the temporal part, the thickness of the cerebral cortex of the parietal part, the thickness of the cerebral cortex of the occipital part, the volume of the lateral ventricle, the volume of the hippocampus, and the volume of the extracerebral cerebrospinal fluid region as second. It is possible to calculate the subject's dementia information by inputting it to the learning model.
  • the calculation device 630 may predict the volume of the region of interest by inputting the summed number of pixels of the region of interest, brain size, and clinical information (at least one of age, gender, and APEO4 genotype) into the first learning model.
  • the computing device 630 may predict the volume of the region of interest by inputting the summed number of pixels, brain size, and clinical information (at least one of age, gender, and APEO4 genotype) for each region of interest into an individual learning model.
  • the arithmetic device 630 may input the volume of the ROI(s) predicted in the first learning model to the second learning model to calculate dementia information of the subject.
  • the arithmetic device 630 may calculate dementia information of the subject by inputting the volume of the lateral ventricle, the volume of the hippocampus, and the volume of the extracerebral cerebrospinal fluid region to the second learning model.
  • the arithmetic device 630 may further input clinical information (at least one of age, sex, and APOE4 genotype) in addition to cortical thickness or volume to the second learning model to calculate dementia information of the subject.
  • clinical information at least one of age, sex, and APOE4 genotype
  • the arithmetic device 630 may be a device such as a processor, an AP, or a chip in which a program is embedded that processes data and performs certain arithmetic operations.
  • the 2D MRI-based dementia information calculation method and the 2D MRI-based dementia prediction method as described above may be implemented as a program (or application) including an executable algorithm that can be executed on a computer.
  • the program may be stored and provided in a temporary or non-transitory computer readable medium.
  • a non-transitory readable medium is not a medium that stores data for a short moment, such as a register, cache, or memory, but a medium that stores data semi-permanently and can be read by a device.
  • the various applications or programs described above are CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM (read-only memory), PROM (programmable read only memory), EPROM (Erasable PROM, EPROM)
  • ROM read-only memory
  • PROM programmable read only memory
  • EPROM Erasable PROM, EPROM
  • it may be stored and provided in a non-transitory readable medium such as EEPROM (Electrically EPROM) or flash memory.
  • Temporary readable media include static RAM (SRAM), dynamic RAM (DRAM), synchronous DRAM (SDRAM), double data rate SDRAM (DDR SDRAM), and enhanced SDRAM (Enhanced SDRAM). SDRAM, ESDRAM), Synchronous DRAM (Synclink DRAM, SLDRAM) and Direct Rambus RAM (DRRAM).
  • SRAM static RAM
  • DRAM dynamic RAM
  • SDRAM synchronous DRAM
  • DDR SDRAM double data rate SDRAM
  • Enhanced SDRAM Enhanced SDRAM
  • SDRAM ESDRAM
  • Synchronous DRAM Synchronous DRAM
  • SLDRAM Direct Rambus RAM
  • DRRAM Direct Rambus RAM

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

2차원 MRI를 이용한 치매 정보 산출 방법은 분석장치가 대상자의 2D(dimension) MRI(Magnetic Resonance Imaging) 슬라이스들을 입력받는 단계, 상기 분석장치가 상기 2D MRI 슬라이스들을 세그멘테이션 모델에 입력하여 관심 영역들을 추출하는 단계, 상기 분석장치가 상기 관심 영역들의 픽셀 정보를 사전에 학습된 제1 학습모델에 입력하여 상기 관심 영역들 중 적어도 하나의 영역의 대뇌 피질 두께 및 상기 관심 영역들 중 적어도 하나의 영역의 부피를 예측하는 단계 및 상기 분석장치가 상기 적어도 하나의 영역의 피질 두께 및 상기 적어도 하나의 영역의 부피를 사전에 학습된 제2 학습 모델에 입력하여 상기 대상자의 치매 정보를 산출하는 단계를 포함한다.

Description

2차원 MRI를 이용한 치매 정보 산출 방법 및 분석장치
이하 설명하는 기술은 2차원 MRI를 이용하여 치매 관련 정보를 산출하는 기법이다.
치매(dementia)는 기억, 언어, 판단력 등 인지 기능 장래를 초래하는 증후군을 말한다. 치매는 다양한 유형이 있는데 알츠하이머(Alzheimer's disease)가 치매의 가장 흔한 형태이다.
치매 진단은 MRI(magnetic resonance imaging), PET(positron emission tomography) 등의 뇌 영상이 사용되고 있다. 대표적으로 대뇌 피질 두께(cortical thickness)가 치매와 연관된 인자로 활용되고 있다.
종래 치매 조기 진단은 3D(dimension) MRI, PET-CT 등의 뇌영상이 사용되었다. 그러나 3D MRI는 고사양의 MRI 장비가 필요하며 시간 및 비용이 높게 소요된다. 나아가, 일반적인 건강 검진 센터나 일차 병원에서 사용하는 2D MRI 스캐너는 약 20개 이미지들을 생성하여 정확한 진단이 어렵다.
이하 설명하는 기술은 소수의 2D MRI 이미지들을 이용하여 치매 관련 정보 산출 내지 치매 예측하는 기법을 제공하고자 한다.
2차원 MRI를 이용한 치매 정보 산출 방법은 분석장치가 대상자의 2D MRI 슬라이스들을 입력받는 단계, 상기 분석장치가 상기 2D MRI 슬라이스들을 세그멘테이션 모델에 입력하여 관심 영역들을 추출하는 단계, 상기 분석장치가 상기 관심 영역들의 픽셀 정보를 사전에 학습된 제1 학습모델에 입력하여 상기 관심 영역들 중 적어도 하나의 영역의 대뇌 피질 두께 및 상기 관심 영역들 중 적어도 하나의 영역의 부피를 예측하는 단계 및 상기 분석장치가 상기 적어도 하나의 영역의 피질 두께 및 상기 적어도 하나의 영역의 부피를 사전에 학습된 제2 학습 모델에 입력하여 상기 대상자의 치매 정보를 산출하는 단계를 포함한다.
2차원 MRI를 이용한 치매 정보 산출 방법은 분석장치가 대상자의 2D MRI 슬라이스들을 입력받는 단계, 상기 분석장치가 상기 2D MRI 슬라이스들을 세그멘테이션 모델에 입력하여 관심 영역들을 추출하는 단계, 상기 분석장치가 상기 관심 영역들의 픽셀 정보를 사전에 학습된 제1 학습모델에 입력하여 상기 관심 영역들 중 적어도 하나의 영역의 부피를 예측하는 단계 및 상기 분석장치가 상기 적어도 하나의 영역의 부피를 사전에 학습된 제2 학습 모델에 입력하여 상기 대상자의 치매 정보를 산출하는 단계를 포함한다.
상기 관심 영역들은 전두부 회백질, 측두부 회백질, 두정부 회백질, 후두부 회백질, 측뇌실, 해마체 및 대뇌외 뇌척수액 영역 중 적어도 하나를 포함한다.
이하 설명하는 기술은 소수의 2D MRI 이미지들을 분석하는 학습모델을 이용하여 치매 관련 정보를 산출한다. 이하 설명하는 기술은 저사양의 2D MRI 스캐너가 산출하는 뇌 MRI를 기준으로 치매 진단에 유용한 정보를 제공할 수 있다.
도 1은 2D 뇌 MRI를 이용하여 대상자의 치매 정보를 산출하는 전체 과정에 대한 예이다.
도 2는 뇌 영상에서 관심 영역을 추출하는 세그멘테이션 모델을 학습하는 과정의 예이다.
도 3은 관심 영역들을 기준으로 대뇌 피질 두께 및 뇌 영역 부피를 예측하는 학습모델의 학습 과정의 예이다.
도 4는 뇌 영역 부피를 기준으로 치매 정보를 산출하는 학습모델의 학습 과정의 예이다.
도 5는 대뇌 피질 두께 및 뇌 영역 부피를 치매 정보를 산출하는 학습모델의 학습 과정의 예이다.
도 6은 뇌 영상을 이용하여 대상자의 치매 정보를 산출하는 분석장치에 대한 예이다.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설명된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.
도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.
또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
이하 치매는 알츠하이머성 치매를 포함한다.
이하 설명하는 기술은 2D 뇌 MRI에서 치매 정보를 산출하는 기술이다. 이하 설명하는 기술은 2D 뇌 MRI에서 추출한 치매 정보를 이용하여 치매 진단 내지 예측을 하는 기술을 포함한다.
치매 정보는 치매 진단 내지 치매 예측을 위한 정보를 의미한다. 예컨대, 치매 정보는 대상자의 치매 발병 여부, 치매 고위험군(미래 발병 가능성) 여부, 치매 관련 지표 등을 포함한다. 치매 관련 지표는 치매 진단이나 치매 예측에 유의한 것으로 연구된 각종 점수, 뇌 위축 정도 등을 포함할 수 있다.
이하 뇌 MRI를 분석하여 대상자에 대한 치매 정보를 산출하는 장치를 분석장치라고 명명한다. 분석장치는 PC와 같은 컴퓨터 장치, 스마트 기기, 네트워크의 서버, 데이터 처리 전용 칩셋 등의 형태를 가질 수 있다.
분석장치는 다수의 학습모델을 이용하여 뇌 영상을 기준으로 치매 여부를 예측할 수 있다. 학습모델은 기계학습 모델이다. 따라서, 분류 모델은 다양한 유형의 모델 중 어느 하나일 수 있다. 예컨대, 학습 모델은 결정 트리, RF(random forest), KNN(K-nearest neighbor), 나이브 베이즈(Naive Bayes), SVM(support vector machine), DNN(deep neural network), 회귀모델 등 중 어느 하나의 방식으로 구현된 모델일 수 있다. DNN은 다양한 유형의 모델이 존재한다. 예컨대, DNN은 영상에서 관심 영역을 추출하는 세그멘테이션(segmentation) 모델, 영상의 특징을 기준으로 분류를 수행하는 분류 모델 등이 있다.
도 1은 2D 뇌 MRI를 이용하여 대상자의 치매 정보를 산출하는 전체 과정(100)에 대한 예이다.
분석장치는 소수의 2D MRI 슬라이스들을 기준으로 대상자에 대한 치매 정보를 산출할 수 있다. 이때 2D MRI 슬라이스들의 개수는 일반적인 2D MRI 스캐너가 산출하는 개수일 수 있다. 연구자는 20장의 2D MRI 슬라이스들을 이용하여 학습모델을 구축하였다. 따라서, 이하 설명의 편의를 위하여 2D MRI 슬라이스들의 개수는 20이라고 가정한다.
분석장치는 대상자의 2D 뇌 MRI를 입력받는다(110). 예컨대, 분석장치는 대상자의 2D MRI 슬라이스들 20장을 입력받을 수 있다.
분석장치는 입력받은 2D MRI 슬라이스들에서 관심 영역(Region of Interest, ROI)을 추출한다(120). 분석장치는 사전에 학습된 세그멘테이션 모델을 이용하여 설정된 다수의 관심 영역들을 추출할 수 있다. 관심 영역들은 특정 영역의 부피를 산출하기 위한 영역일 수 있다. 나아가 관심 영역들은 대뇌 피질 두께를 산출하기 위한 영역들을 포함할 수도 있다.
관심 영역들은 전두부(frontal)의 회백질(gray matter), 측두부(temporal)의 회백질, 두정부(parietal)의 회백질, 후두부(occipital)의 회백질, 측뇌실(lateral ventricle), 해마체(hippocampus) 및 대뇌외 뇌척수액 영역(Extracerebral cerebrospinal fluid) 중 적어도 하나를 포함할 수 있다.
분석장치는 추출한 관심 영역들을 이용하여 일정한 뇌 영상 지표를 산출할 수 있다(130).
뇌 영상 지표는 추출한 관심 영역의 픽셀들의 개수를 포함할 수 있다. 또한, 뇌 영상 지표는 뇌 영상의 영역들 크기로 산출가능한 전체 뇌 크기(brain size)를 포함할 수 있다. 뇌 크기는 대뇌외 뇌척수액 영역(extracerebral cerebrospinal fluid), 전술한 7개의 관심 영역들 및 관심 영역들의 백질(white matter)의 크기를 합산하여 연산될 수 있다. 한편, 뇌 크기 결정을 위한 다양한 방법론이 연구되었기에, 분석장치는 다양한 영상처리기술 중 하나를 이용하여 대상자의 뇌 크기를 산출할 수도 있다.
한편, 분석장치는 관심 영역을 사전에 설정된 크기로 정규화할 수 있다. 예컨대, 분석장치는 뇌 전체 크기를 산출하여 관심 영역의 크기를 일정하게 정규화할 수 있다. 분석장치는 정규화된 관심 영역(들)을 기준으로 픽셀의 개수와 같은 뇌 영상 지표를 산출할 수 있다.
분석장치는 사전에 학습된 학습 모델을 이용하여 뇌 영역의 부피를 추정할 수 있다(140). 또는, 분석장치는 사전에 학습된 학습 모델을 이용하여 대뇌 피질 두께 및 뇌 영역의 부피를 추정할 수 있다(140).
분석장치는 학습 모델에 뇌 영상 지표를 입력하여 관심 영역의 대뇌 피질 두께를 예측할 수 있다. 분석장치는 다수의 학습 모델을 이용하여 각 관심 영역들에서의 대뇌 피질 두께를 예측할 수 있다. 예컨대, 분석장치는 전두부, 측두부, 두정부 및 후두부에 대한 개별적인 학습모델을 이용하여 각 영역의 대뇌 피질 두께를 산출할 수 있다.
또한, 분석장치는 별도의 학습 모델을 이용하여 뇌 영역의 부피를 예측할 수 있다. 분석장치는 학습 모델에 뇌 영상 지표를 입력하여 뇌 영역의 부피를 예측할 수 있다. 분석장치는 다수의 학습 모델을 이용하여 각 관심 영역들에서의 부피를 예측할 수도 있다. 예컨대, 분석장치는 측뇌실에 대한 학습 모델, 해마체에 대한 학습 모델 및 대뇌외 뇌척수액 영역에 대한 학습 모델을 개별적으로 이용하여 각 영역의 부피를 산출할 수 있다.
한편, 분석장치는 뇌 영상 외에 대상자의 임상 정보(성별, 나이 등)를 추가로 더 이용하여 대뇌 피질 두께 또는 뇌 영역 부피를 산출할 수 있다. 이 경우, 각 학습모델은 뇌 MRI 외에 임상 정보를 이용하여 대뇌 피질 두께 또는 뇌 영역 부피를 산출하도록 사전에 학습되어야 한다.
분석장치는 관심 영역(들)의 대뇌 피질 두께 및 부피를 기준으로 대상자에 대한 치매 정보를 산출할 수 있다(150). 또는, 분석장치는 관심 영역(들)의 부피만을 기준으로 대상자에 대한 치매 정보를 산출할 수도 있다(150).
도 1의 치매 정보 산출 과정은 대상자의 치매 정보 산출을 위하여 다수의 학습 모델들을 사용한다. 연구자는 전술한 과정을 위한 다수의 학습 모델들을 구축하였고, 개별적인 모델의 성능 및 치매 정보 산출 성능을 검증하였다. 이하, 연구자가 대상자의 치매 정보 산출을 위하여 사용한 학습모델들의 구축 과정을 설명한다.
전체 모집단 ADD(치매환자) NC(정상)
평균 표준편차(%) 평균 표준편차(%) 평균 표준편차(%)
Subjects (명) 1,120 (100.0%) 529 (47.2%) 591 (52.8%)
Female (명) 659 (58.8%) 306 (57.8%) 353 (59.7%)
Age (years) 69.0 10.9 69.9 10.2 68.2 11.5
Education (years) 11.7 4.8 11.3 4.9 12.1 4.7
Frontal cortical thickness (mm) 3.087 0.152 3.007 0.154 3.158 0.108
Parietal cortical thickness (mm) 2.984 0.192 2.877 0.200 3.080 0.120
Temporal cortical thickness (mm) 3.186 0.189 3.068 0.185 3.291 0.117
Occipital cortical thickness (mm) 2.897 0.204 2.793 0.186 2.991 0.171
Lateral ventricle volume (mm3) 18,063 10,107 22,318 10,493 14,254 8,028
Hippocampus volume (mm3) 2,627 632 2,177 523 3,031 411
Frontal extracerebral CSF volume (mm3) 62450.29197 21740.67107 72456.38 21692.64 52262.27 16416
Temporal extracerebral CSF volume (mm3) 37218.44005 12610.11551 42089 12551.5 32259.33 10580.77
Parietal extracerebral CSF volume (mm3) 36737.31928 12420.93104 42753.81 12495.3 30611.44 8839.807
Occipital extracerebral CSF volume (mm3) 15064.27969 4565.302592 16663.86 4881.548 13435.62 3545.16
Anterior lateral ventricle volume (mm3) 17740.63456 9031.29889 9074.209 9074.209 14515.32 7762.385
Posterior lateral ventricle volume (mm3) 20459.65506 12092.68325 12581.57 12581.57 15613.22 9357.293
연구자는 모집단의 데이터 중 980명의 데이터를 이용하여 세그멘테이션 모델을 구축하였다. 980명의 데이터는 3.0 T MRI 스캐너(Philips 3.0T Achieva)를 사용하여 생성한 3D MRI 데이터이다. 연구자는 CIVET 파이프라인의 3D 세그멘테이션 마스크를 이용하여 구조적 영상 분석을 하였다. CIVET에서 대뇌 피질 두께는 대뇌 피질의 안쪽과 바깥쪽 표면 사이의 유클리디언 거리로 연산한다. 관심 영역들은 (i) 전두부, 측두부, 두정부 및 후두부의 회백질, (ii) 측뇌실 (iii) 해마체 및 (iv) 대뇌외 뇌척수액 영역을 포함한다. 연구자는 980명의 데이터에서 추출한 상기 관심 영역들을 세그멘테이션 모델 학습을 위한 정답(ground truth)으로 이용하였다.
도 2는 뇌 영상에서 관심 영역을 추출하는 세그멘테이션 모델을 학습하는 과정(200)의 예이다. 이하 모델의 학습 과정은 학습장치가 수행한다고 설명한다. 학습장치는 영상 데이터 처리 및 기계학습모델의 학습 과정 수행이 가능한 컴퓨터 장치를 의미한다.
학습장치는 다수 대상자들의 MRI 영상을 이용하여 세그멘테이션 모델을 학습한다. 다만, 도 2는 대상자 한명의 MRI를 이용하여 세그멘테이션 모델을 학습하는 과정을 예로 설명한다.
학습장치는 전술한 모집단에 속한 특정 대상자의 3D MRI를 입력받는다(210).
학습장치는 학습 데이터 세트를 마련한다(220). 학습 데이터 세트는 다수의 슬라이스별로 입력 슬라이스(원본 슬라이스) 및 해당 슬라이스에 대한 정답 영상으로 구성된다. 학습장치는 3D MRI의 480개의 슬라이스들에서 20개의 슬라이스들을 선택한다. 학습장치는 480개의 슬라이스들 중 2D MRI 스캐너로부터 획득한 20개의 슬라이스들에 매칭되는 슬라이스들을 선별할 수 있다. 또한, 학습장치는 선택한 20개의 슬라이스들에 대한 정답 영상을 입력받는다. 정답 영상은 입력 슬라이스에 대하여 관심 영역들을 구분한 영상이다. 정답 영상은 의료 영상의 전문가가 관심 영역을 구분하여 표시한(주석한) 영상을 이용할 수 있다.
학습장치는 학습 데이터를 이용하여 세그멘테이션 모델의 학습을 수행한다(230). 학습장치는 20개의 슬라이스에 대한 입력 슬라이스 및 정답 영상을 이용하여 세그멘테이션 모델을 학습할 수 있다. 세그멘테이션 모델은 입력 슬라이스를 입력받아 정답 영상의 관심 영역들을 추출(구분)하도록 학습된다.
세그멘테이션 모델은 시멘틱 세그멘테이션 모델일 수 있다. 예컨대, 세그멘테이션 모델은 U-net과 같은 FCN(Fully convolutional network) 기반의 모델일 수 있다. 연구자는 U-net 구조의 세그멘테이션 모델을 이용하여 2D MRI 슬라이스에서 관심 영역을 추출하였다.
세그멘테이션 모델은 관심 영역별로 사전에 마련될 수 있다. 전술한 바와 같이, 관심 영역들은 전두부의 회백질, 측두부의 회백질, 두정부의 회백질, 후두부의 회백질, 측뇌실, 해마체 및 대뇌외 뇌척수액 영역 중 적어도 하나를 포함할 수 있다.
또는 세그멘테이션 모델은 다수의 관심 영역들을 추출하도록 학습될 수도 있다. 연구자는 특징이 서로 다른 다양한 관심 영역들을 정확하게 추출하기 위하여 커리큘럼 학습(curriculum learning)을 수행하였다. 커리큘럼 학습은 인간이 학습하는 프로세스를 모방하여 쉬운 난이도의 데이터를 먼저 학습하고, 점차 어려운 데이터를 학습하는 학습 전략이다.
연구자는 아래 5개의 학습 순서에 따라 세그멘테이션 모델을 구축하고 성능을 검증하였다.
순번 학습 순서
1 전체 관심 영역들(All ROIs)
2 해마체(Hippocampus)→해마체 및 측뇌실(Hippocampus and LV)→전체 관심 영역들
3 해마체 및 측뇌실→전체 관심 영역들
4 측뇌실→해마체 및 측뇌실→전체 관심 영역들
5 측뇌실→전체 관심 영역들
세그멘테이션 모델의 성능은 정답과 세그멘테이션 모델이 추출한 관심 영역을 기준으로 산출되는 IoU(intersection over union) 및 DSC(dice similarity coefficient)로 측정되었다. IoU 및 DSC는 각각 아래 수학식 1 및 수학식 2로 표현될 수 있다.
[수학식 1]
IoU = Aoverlap / (AGT + Apred - Aoverlap)
[수학식 2]
DSC = 2 * Aoverlap / (AGT + Apred)
상기 수학식에서 AGT는 정답인 관심 영역, Apred는 세그멘테이션 모델이 구분한 관심 영역(예측 영역), Aoverlap는 AGT와 Apred의 중복 영역이다.
세그멘테이션 모델은 아래 6개의 관심 영역들에 대하여 아래 표 3과 같은 IoU 및 DSC를 나타냈다. 세그멘테이션 모델은 측뇌실 추출에서 가장 높은 성능을 보였다.
관심영역 IoU DSC
전두부 0.71356 0.83168
측두부 0.67835 0.80696
두정부 0.64923 0.7857
후두부 0.57339 0.72749
측뇌실 0.87904 0.93524
해마체 0.6961 0.8188
평균 0.69828 0.81765
아래 표 4는 대뇌외 뇌척수액 영역에 대한 세그멘테이션 모델의 추출 성능을 나타낸다. 세그멘테이션 모델은 측뇌실 영역에서 가장 높은 성능을 보였다.
관심영역 IoU DSC
전두부 extracerebral CSF 0.468802 0.620074
측두부 extracerebral CSF 0.325105 0.47922
두정부 extracerebral CSF 0.459181 0.604894
후두부 extracerebral CSF 0.293677 0.443401
anterior 측뇌실 extracerebral CSF 0.771025 0.861737
posterior 측뇌실 extracerebral CSF 0.731659 0.835934
평균 0.508241 0.640877
아래 표 5는 표 2의 학습 순서에 대한 성능을 분석한 결과이다. 측뇌실을 먼저 학습하는 순서의 학습 방법이 다른 순서의 학습 방법에 비하여 다소 높은 성능을 보였다. 따라서, 관심 영역을 구분하여 커리큘럼 학습을 수행하는 기법이 세그멘테이션 모델의 성능에 유의하다는 것을 알 수 있다.
순번 학습 순서 IoU
1 전체 관심 영역들(All ROIs) 0.653
2 해마체(Hippocampus)→해마체 및 측뇌실(Hippocampus and LV)→전체 관심 영역들 0.565
3 해마체 및 측뇌실→전체 관심 영역들 0.665
4 측뇌실→해마체 및 측뇌실→전체 관심 영역들 0.683
5 측뇌실→전체 관심 영역들 0.689
도 3은 관심 영역들을 기준으로 대뇌 피질 두께 및 뇌 영역 부피를 예측하는 학습모델의 학습 과정(300)의 예이다. 대뇌 피질 두께를 예측하는 학습모델들은 관심 영역별로 사전에 마련될 수 있다. 또한, 뇌 영역 부피를 예측하는 학습모델들도 관심 영역별로 사전에 마련될 수 있다. 도 3에서 학습 모델은 각 관심 영역을 기준으로 대뇌 피질 두께 또는 뇌 영역 부피를 예측할 수 있다. 도 3은 각 관심 영역들에 대한 학습 과정을 통합적으로 도시하였다.
도 3의 학습은 모집단에 속한 대상자의 뇌 MRI에서 전술한 관심 영역을 추출한 상태를 전제로 한다. 즉, 학습장치는 도 2의 세그멘테이션 모델을 이용하여 산출한 관심 영역을 이용할 수 있다.
학습장치는 뇌 MRI에서 추출한 관심 영역들을 기준으로 입력 데이터를 추출한다(310). 입력 데이터는 세그멘테이션 모델이 추출하는 관심 영역들로부터 추출되는 뇌 영상 지표 및 임상 정보를 포함할 수 있다.
뇌 영상 지표는 각 관심 영역들(전두부 회백질, 측두부 회백질, 두정부 회백질, 후두부 회백질, 측뇌실, 해마체 및 대뇌외 뇌척수액 영역)에 대한 크기 정보를 포함한다. 관심 영역의 크기는 해당 관심 영역 영상에서의 픽셀 개수로 결정될 수 있다. 즉, 관심 영역의 크기는 해당 영역에 속한 전체 픽셀들의 합산 개수일 수 있다. 한편, 관심 영역의 크기는 뇌 전체 크기를 기준으로 정규화될 수 있다. 정규화는 대상자마다 차이가 있는 뇌의 크기를 일정한 크기로 보정하는 과정이다.
또한, 뇌 영상 지표는 뇌 크기를 더 포함할 수 있다. 뇌 크기는 대뇌외 뇌척수액 영역, 전술한 7개의 관심 영역들 및 관심 영역들의 백질의 크기를 합산하여 연산될 수 있다.
특정 관심 영역의 픽셀 합산 개수는 20개의 슬라이스들 각각에 대하여 해당 관심 영역의 픽셀들의 개수를 모두 합산한 개수일 수 있다. 전두부 회백질을 기준으로 설명하면, 전두부 회백질의 픽셀 합산 개수는 20개의 슬라이스들 각각에서 전두부 회백질 영역에 속한 픽셀들을 전체 합산한 값일 수 있다. 20개의 슬라이스들의 인덱스가 0 ~ 19번이라고 가정한다. 전두부 회백질의 픽셀 합산 개수는 0번 슬라이스의 전두부 회백질 영역에 속한 픽셀들 개수, 1번 슬라이스의 전두부 회백질 영역에 속한 픽셀들 개수, ..., 19번 슬라이스의 전두부 회백질 영역에 속한 픽셀들 개수를 모두 합산한 값일 수 있다. 나아가, 관심 영역의 픽셀들의 개수는 전체 슬라이스들의 픽셀들 개수를 평균한 값일 수도 있다.
임상 정보는 대상자의 나이 및 성별을 포함할 수 있다. 또한 임상 정보는 APOE4 유전자형을 포함할 수도 있다.
연구자는 관심 영역들의 픽셀 합산 개수, 뇌 크기 및 임상 정보를 모두 입력 데이터로 이용하였다.
학습장치는 추출한 입력 데이터를 활용하여 학습 모델을 학습하는 과정을 수행한다(320). 학습장치는 다수의 대상자의 뇌 MRI에서 추출한 입력 데이터를 이용하여 학습 모델의 학습 과정을 반복한다.
학습장치는 추출한 입력 데이터를 학습 모델에 입력하여 학습 모델이 출력하는 값(예측하는 값)과 정답을 비교하면서 학습을 수행한다. 학습 모델은 특정 관심 영역의 대뇌 피질 두께 또는 특정 관심 영역의 부피를 예측하도록 학습된다. 정답은 모집단에 속한 대상자들의 MRI 및 PET-CT로 산출된 정보(표 1 참고)이다.
학습 모델은 예측하고자 하는 정보에 따라 개별적인 모델로 구축될 수 있다. 학습 모델은 기계학습모델이며 다양한 유형의 모델 중 하나로 구현될 수 있다. 연구자는 회귀모델(regression model)을 이용하였다. 연구자는 전부두의 대뇌 피질 두께를 예측하는 모델(전부두 모델), 측두부의 대뇌 피질 두께를 예측하는 모델(측두부 모델), 두정부의 대뇌 피질 두께를 예측하는 모델(두정부 모델), 후두부의 대뇌 피질 두께를 예측하는 모델(후두부 모델), 측뇌실의 부피를 예측하는 모델(측뇌실 모델), 해마체의 부피를 예측하는 모델(해마체 모델) 및 대뇌외 뇌척수액 영역의 부피를 예측하는 모델(대뇌외 뇌척수액 모델)을 개별적으로 구축하였다.
예컨대, 전두부 모델은 전두부 회백질의 픽셀 합산 개수 및 임상 정보를 입력받아 전두부 영역의 대뇌 피질 두께를 예측할 수 있다. 또한, 전두부 모델은 전두부 회백질의 픽셀 합산 개수, 뇌 크기 및 임상 정보를 입력받아 전두부 영역의 대뇌 피질 두께를 예측할 수 있다.
예컨대, 대뇌외 뇌척수액 모델은 대뇌외 뇌척수액 영역의 픽셀 합산 개수 및 임상 정보를 입력받아 대뇌외 뇌척수액 영역의 부피를 예측할 수 있다. 또한, 대뇌외 뇌척수액 모델은 대뇌외 뇌척수액 영역의 픽셀 합산 개수, 뇌 크기 및 임상 정보를 입력받아 대뇌외 뇌척수액 영역의 부피를 예측할 수 있다.
연구자는 뇌 크기를 입력데이터로 이용하는 모델과 이용하지 않는 모델을 구축하여 해당 모델의 성능을 검증하였다. 아래 표 6은 연구자가 구축한 학습 모델의 성능을 평가한 모델이다. 성능 지표는 피어슨 상관 계수(Pearson Correlation Coefficient)이다. 표 6에서 모델 1은 뇌 크기를 이용하지 않는 모델이고, 모델 2는 뇌 크기까지 이용하는 모델이다. 관심 영역에 따라 모델 1 또는 모델 2의 성능이 조금 더 높은 것을 확인할 수 있다. 따라서, 대뇌 피질 두께 및 뇌 영역 부피를 예측하는 모델은 관심 영역에 따라서 선별적으로 모델 1 또는 모델 2를 활용할 수 있다. 다만, 성능에서 모델 1과 모델 2가 큰 차이를 보이지는 않았다.
ROI 모델 1 모델 2
전두부 회백질 0.774 0.779
측두부 회백질 0.786 0.788
두정부 회백질 0.801 0.799
후두부 회백질 0.649 0.638
측뇌실 0.880 0.869
해마체 0.663 0.667
연구자는 관심 영역의 대뇌 피질 두께 또는 관심 영역의 부피를 예측하는 학습모델의 성능을 검증하였다. 연구자는 학습모델을 이용하여 2D MRI를 기준으로 예측된 값과 3D MRI에서 측정한 정답값을 비교하였다. 비교한 결과는 아래 표 7과 같다. 학습모델이 예측한 대뇌 피질 두께 및 부피는 실제 정답값과 상당한 상관도를 보였다. 특히 부피는 높은 상관도를 보였다.
연구자는 관심 영역의 대뇌 피질 두께 또는 관심 영역의 부피를 예측하는 학습모델의 성능을 검증하였다. 연구자는 학습모델을 이용하여 2D MRI를 기준으로 예측된 값과 3D MRI에서 측정한 정답값을 비교하였다. 비교한 결과는 아래 표 7과 같다. 학습모델이 예측한 대뇌 피질 두께 및 부피는 실제 정답값과 상당한 상관도를 보였다. 특히 부피는 높은 상관도를 보였다.
구분 ROI Correlation (Pearson r) r2 slope
대뇌 피질 두께 전두부 회백질 0.779 0.607 0.394
대뇌 피질 두께 측두부 회백질 0.788 0.621 0.396
대뇌 피질 두께 두정부 회백질 0.801 0.641 0.519
대뇌 피질 두께 후두부 회백질 0.649 0.394 0.285
부피 측뇌실 0.879 0.754 0.757
부피 해마체 0.667 0.445 0.266
부피 대뇌외 뇌척수액 0.873 0.762 0.608
도 4는 뇌 영역 부피를 기준으로 치매 정보를 산출하는 학습모델의 학습 과정(400)의 예이다. 최종적으로 치매 정보를 산출하는 학습 모델은 다양한 기계학습모델 유형 중 어느 하나로 구현될 수 있다. 연구자는 딥러닝 모델로 치매 정보를 산출하는 모델을 구현하였다.
도 4의 학습은 모집단에 속한 대상자에 대한 대뇌 피질 두께, 특정 뇌 영역 부피 및 임상정보를 획득한 상태를 전제로 한다. 예컨대, 학습장치는 도 3의 학습모델을 이용하여 산출한 대상자의 영역별 특정 뇌 영역 부피를 이용할 수 있다.
학습장치는 학습에 필요한 입력 데이터를 추출할 수 있다(410). 학습장치는 모집단에 속한 대상자들의 2D 뇌 MRI에서 추출한 특정 뇌 영역의 부피를 추출한다. 뇌 영역의 부피는 측뇌실, 해마체 및 대뇌외 뇌척수액 영역의 부피를 포함할 수 있다. 또한, 학습장치는 대상자들의 임상 정보를 획득한다. 임상 정보는 나이, 성별 및 APOE4 유전형 중 적어도 하나를 포함할 수 있다. 학습 데이터는 도 3의 학습 모델을 이용하여 산출한 특정 뇌 영역의 부피를 포함할 수 있다. 또는 학습 데이터는 실제 대상자들의 뇌 영상으로부터 산출한 대뇌 피질 두께 및 특정 뇌 영역의 부피를 포함할 수도 있다. 연구자는 실제 대상자의 3D MRI 분석 결과에서 산출한 대뇌 피질 두께 및 특정 뇌 영역의 부피를 학습 데이터로 이용하였다.
학습장치는 추출한 입력 데이터를 활용하여 학습 모델을 학습하는 과정을 수행한다(420). 학습장치는 다수의 대상자에서 추출한 입력 데이터를 이용하여 학습 모델의 학습 과정을 반복한다.
학습장치는 추출한 입력 데이터를 학습 모델에 입력하여 학습 모델이 출력하는 값(예측하는 값)과 정답을 비교하면서 학습을 수행한다. 학습 모델은 대상자의 치매 정보를 산출하도록 학습된다. 예컨대, 학습 모델은 대상자의 치매 여부에 대한 이진 분류 결과를 출력할 수 있다. 이 경우 정답은 모집단에 속한 대상자들의 치매 여부에 대한 정보(표 1 참고)이다.
도 5는 대뇌 피질 두께 및 뇌 영역 부피를 치매 정보를 산출하는 학습모델의 학습 과정(500)의 예이다. 최종적으로 치매 정보를 산출하는 학습 모델은 다양한 기계학습모델 유형 중 어느 하나로 구현될 수 있다. 연구자는 딥러닝 모델로 치매 정보를 산출하는 모델을 구현하였다.
도 5의 학습은 모집단에 속한 대상자에 대한 대뇌 피질 두께, 특정 뇌 영역 부피 및 임상정보를 획득한 상태를 전제로 한다. 예컨대, 학습장치는 도 3의 학습모델을 이용하여 산출한 대상자의 영역별 대뇌 피질 두께 및 특정 뇌 영역 부피를 이용할 수 있다.
학습장치는 학습에 필요한 입력 데이터를 추출할 수 있다(510). 학습장치는 모집단에 속한 대상자들의 뇌 MRI에서 추출한 대뇌 피질 두께 및 특정 뇌 영역의 부피를 추출한다. 대뇌 피질 두께는 전두부, 측두부, 두정부 및 후두부의 대뇌 피질 두께 중 적어도 하나를 포함할 수 있다. 뇌 영역의 부피는 측뇌실, 해마체 및 대뇌외 뇌척수액 영역의 부피 중 적어도 하나를 포함할 수 있다.
또한, 학습장치는 대상자들의 임상 정보를 획득한다. 임상 정보는 나이, 성별 및 APOE4 유전형 중 적어도 하나를 포함할 수 있다. 학습 데이터는 도 3의 학습 모델을 이용하여 산출한 대뇌 피질 두께 및 특정 뇌 영역의 부피를 포함할 수 있다. 또는 학습 데이터는 실제 대상자들의 뇌 영상으로부터 산출한 대뇌 피질 두께 및 특정 뇌 영역의 부피를 포함할 수도 있다. 연구자는 실제 대상자의 3D MRI 분석 결과에서 산출한 대뇌 피질 두께 및 특정 뇌 영역의 부피를 학습 데이터로 이용하였다.
학습장치는 추출한 입력 데이터를 활용하여 학습 모델을 학습하는 과정을 수행한다(520). 학습장치는 다수의 대상자에서 추출한 입력 데이터를 이용하여 학습 모델의 학습 과정을 반복한다.
학습장치는 추출한 입력 데이터를 학습 모델에 입력하여 학습 모델이 출력하는 값(예측하는 값)과 정답을 비교하면서 학습을 수행한다. 학습 모델은 대상자의 치매 정보를 산출하도록 학습된다. 예컨대, 학습 모델은 대상자의 치매 여부에 대한 이진 분류 결과를 출력할 수 있다. 이 경우 정답은 모집단에 속한 대상자들의 치매 여부에 대한 정보(표 1 참고)이다.
연구자는 서로 다른 입력 데이터 세트를 이용하여 다수의 학습 모델을 구축하였다. 연구자는 모집단의 데이터 중 924명(80%)의 데이터를 학습 데이터로 이용하였고, 196명(20%)의 데이터를 검증 데이터로 이용하였다. 연구자는 크게 서로 다른 ROI를 이용하는 모델군들을 구분하였고, 개별군에서도 다양한 입력데이터를 이용하는 모델을 개별적으로 구축하였다. 연구자가 구축한 다수의 학습모델은 아래의 표 8과 같다. 표 8은 4개의 서로 다른 ROI를 이용한 모델군과 각 군에서 서로 다른 모델 구축을 위하여 사용한 학습 데이터를 나타낸다. 아래 표 8은 모델은 대상자의 치매 여부(치매 또는 정상)를 예측하는 모델이다. 즉, 도 4에서 학습 모델이 대상자가 치매인지 정상인지 이진 분류하는 모델에 해당한다.
모델 종류 학습 데이터(입력 데이터)

6ROI
(F/T/P/O/L/H)
학습 모델 1 전두부의 대뇌 피질 두께, 측두부의 대뇌 피질 두께, 두정부의 대뇌 피질 두께, 후두부의 대뇌 피질 두께, 측뇌실의 부피 및 해마체의 부피
학습 모델 2 학습 모델 1 + 임상 정보(나이, 성별)
학습 모델 3 학습 모델 2 + 임상 정보(APOE4)

7ROI
(F/T/P/O/L/H/E)
학습 모델 4 전두부의 대뇌 피질 두께, 측두부의 대뇌 피질 두께, 두정부의 대뇌 피질 두께, 후두부의 대뇌 피질 두께, 측뇌실의 부피, 해마체의 부피 및 대뇌외 뇌척수액 영역 부피
학습 모델 5 학습 모델 4 + 임상 정보(나이, 성별)
학습 모델 6 학습 모델 5 + 임상 정보(APOE4)

3ROI
(L/H/E)
학습 모델 7 측뇌실의 부피, 해마체의 부피 및 대뇌외 뇌척수액 영역 부피
학습 모델 8 학습 모델 7 + 임상 정보(나이, 성별)
학습 모델 9 학습 모델 8 + 임상 정보(APOE4)

4ROI
(F/T/P/O)
학습 모델 10 전두부의 대뇌 피질 두께, 측두부의 대뇌 피질 두께, 두정부의 대뇌 피질 두께 및 후두부의 대뇌 피질 두
학습 모델 11 학습 모델 10 + 임상 정보(나이, 성별)
학습 모델 12 학습 모델 11 + 임상 정보(APOE4)
표 8에서 ROI는 약어로 표시하였다. F는 전두부(frontal), T는 측두부(temporal), P는 두정부(parietal), O는 후두부(occipital), L는 측뇌실(lateral ventricle), H는 해마체(hippocampus), E는 대뇌외 뇌척수액 영역(Extracerebral cerebrospinal fluid))을 의미한다.한편, 학습 모델은 표 8과 달리 전술한 관심 영역들 중 일부(적어도 하나)의 영역에 대한 두께 및/또는 부피를 입력 데이터로 삼는 모델일 수도 있다. 즉, 학습모델은 관심 영역들 중 어떤 영역을 이용할지에 따라 다양한 유형의 모델이 구축될 수도 있다.
연구자는 구축한 학습 모델을 검증하였다. 한편, 검증 과정에서 연구자는 도 3의 학습모델이 예측한 대뇌 피질 두께 및 뇌 영역 부피를 도 4의 학습 모델의 입력 데이터로 이용하였다. 연구자는 10-폴드 교차 검증을 수행하였다. 검증 결과는 아래 표 9와 같다. 검증은 학습 모델이 예측한 결과와 정답을 비교하였다. 성능 지표는 AUC(area under the receiver operating characteristic curve) 및 AUPRC(area under the precision-recall curve)를 이용하였다.
연구자는 종래 3D MRI 기반의 분류 모델과 전술한 2D MRI 기반의 학습 모델의 성능을 비교하였다. 종래 3D MRI 기반의 분류 모델은 종래 연구된 모델을 이용하였다(Rebsamen, M., et al., Direct cortical thickness estimation using deep learning-based anatomy segmentation and cortex parcellation. Human Brain Mapping, 2020. 41(17): p. 4804-4814.).
표 9의 결과를 살펴보면, 3D MRI 기반의 모델과 2D MRI 기반의 모델의 성능 차이가 크지 않다. 따라서, 연구자가 개발한 2D MRI 기반의 모델도 치매 예측에 충분히 유의하다고 할 수 있다. 또한, 2D MRI에서 추출한 관심 영역들의 대뇌 피질 두께만을 이용하는 모델(학습모델 10 ~ 12), 관심 영역들의 부피만을 이용하는 모델(학습모델(학습모델 7 ~ 9) 및 관심 영역들의 대뇌 피질 두께 및 부피를 이용하는 모델(학습모델 1 ~ 6)이 모두 상당한 수준의 성능을 보였다. 대뇌 피질 두께만을 이용하는 모델(학습모델 10 ~ 12)에 비해서 다른 모델들이 조금 더 높은 성능을 보였다.
모델 종류 종래 3D MRI 기반 학습 모델 2D MRI 기반 학습 모델
AUC AUPRC AUC AUPRC
학습 모델 1 0.938 0.933 0.913 0.883
학습 모델 2 0.936 0.935 0.922 0.900
학습 모델 3 0.935 0.945 0.916 0.878
학습 모델 4 0.928 0.921 0.915 0.889
학습 모델 5 0.941 0.943 0.918 0.902
학습 모델 6 0.947 0.949 0.927 0.904
학습 모델 7 0.909 0.904 0.841 0.754
학습 모델 8 0.929 0.928 0.901 0.863
학습 모델 9 0.935 0.935 0.906 0.868
학습 모델 10 0.845 0.872 0.869 0.821
학습 모델 11 0.863 0.885 0.877 0.828
학습 모델 12 0.892 0.902 0.876 0.825
또한, 연구자는 종전 연구에서 치매와 관련된 지표를 산출하는 모델도 구축하였다. 연구자는 모집단의 데이터 중 924명(80%)의 데이터를 학습 데이터로 이용하였고, 196명(20%)의 데이터를 검증 데이터로 이용하였다. 연구자는 전술한 도 3의 학습 모델을 이용하여 산출되는 관심 영역에 대한 대뇌 피질 두께 및/또는 부피를 입력받아 일정한 지표를 산출하는 모델을 구축하였다. 도 4에서 학습 모델이 일정한 지표 (점수)를 산출하는 모델에 해당한다.
종전 연구에서 W-점수는 뇌 위축 정보를 판별하는 지표에 해당한다(Renaud La Joie et al., Region-specific hierarchy between atrophy, hypometabolism, and β-amyloid (Aβ) load in Alzheimer's disease dementia, J Neurosci . 2012 Nov 14;32(46):16265-73. 참고). W-점수가 1.65 이상인 대상자는 뇌 위축으로 판단할 수 있다. 연구자는 W-점수를 산출하는 학습모델을 구축하였다. 아래 표 10은 연구자가 구축한 학습 모델의 W-점수와 동일 대상자의 3D MRI를 이용하여 산출한 W-점수의 상관도를 나타낸다. 표 10은 관심 영역별로 점수를 산출한 결과를 비교한 것이다. 표 10에서 모델 1은 나이 및 성별을 점수 보정 변수로 사용한 것이고, 모델 2는 나이, 성별 및 교육 수준을 점수 보정 변수로 사용한 것이다.
전체 영역 전두부 측두부 두정부 후부두 해마체 측뇌실 대뇌외 뇌척수액 영역
Model1 0.826 0.759 0.768 0.819 0.639 0.721 0.918 0.774
Model2 0.834 0.762 0.783 0.821 0.651 0.706 0.916 0.764
종전 연구에서 AD-점수는 치매 여부를 판별하는 지표에 해당한다( Jin San Lee et al., Machine Learning-based Individual Assessment of Cortical Atrophy Pattern in Alzheimer's Disease Spectrum: Development of the Classifier and Longitudinal Evaluation, J Neurosci . SCIENTIFIC REPORTS, Vol.8(1) : 4161, 2018. 참고).
연구자는 전술한 모집단의 데이터를 이용하여 AD-점수를 산출하는 학습모델을 구축하였다. 즉, 도 4에서 학습 모델이 AD-점수를 산출하는 경우에 해당한다. 연구자는 구축한 모델을 196면의 테스트 데이터를 이용하여 검증하였다. 검증 결과 AD-점수를 산출하는 학습모델은 AUC = 0.92 및 Accuracy = 0.854로 높은 성능을 보였다.
나아가, 연구자는 전술한 W-점수를 산출하는 학습모델을 이용하여 AD-점수를 산출하였다. 연구자는 학습모델을 이용하여 전술한 7개의 관심 영역들에 대한 W-점수를 입력값으로 삼아 AD-점수를 도출하였다. 연구자는 학습 모델을 이용하여 산출되는 AD-점수와 종전 연구 방식에 따른 AD-점수의 상관도를 분석하였다. 아래 표 11은 W-점수를 산출하는 학습모델의 성능을 나타낸다. 모델 1은 나이 및 성별을 점수 보정 변수로 사용한 것이고, 모델 2는 나이, 성별 및 교육 수준을 점수 보정 변수로 사용한 것이다. 표 11을 살펴보면 W-점수를 산출하는 모델을 이용하는 경우도 정답값과 상당한 상관도를 갖는 것을 알 수 있다.
모델 구분 PCA AD 점수 연관도 r r2 slope
모델 1 2 components 0.897 0.805 1.009
3 components 0.895 0.794 1.011
모델 2 2 components 0.908 0.825 0.825
3 components 0.911 0.830 0.824
도 6은 뇌 영상을 이용하여 대상자의 치매 정보를 산출하는 분석장치(600)에 대한 예이다. 분석장치(600)는 물리적으로 다양한 형태로 구현될 수 있다. 예컨대, 분석장치(600)는 PC와 같은 컴퓨터 장치, 스마트기기, 네트워크의 서버, 데이터 처리 전용 칩셋 등의 형태를 가질 수 있다. 한편, 분석장치(600)는 뇌 영상 장비에 연결되거나 일체형의 장치일 수도 있다.
분석장치(600)는 저장장치(610), 메모리(620), 연산장치(630), 인터페이스 장치(640), 통신장치(650) 및 출력장치(660)를 포함할 수 있다.
저장장치(610)는 의료 영상 장비에서 생성된 대상자의 2D MRI를 저장할 수 있다.
저장장치(610)는 대상자의 임상 정보를 저장할 수 있다. 임상 정보는 나이, 성별, 학력 수준 및 APOE4 유전자형 중 적어도 하나를 포함할 수 있다.
저장장치(610)는 뇌 영상(2D MRI 슬라이스)에서 ROI를 추출하기 위한 세그멘테이션 모델을 저장할 수 있다. 세그멘테이션 모델은 사전에 학습된 모델이다.
저장장치(610)는 관심 영역의 정보 및 임상 정보(나이, 성별)를 기준으로 대뇌 피질 두께 및/또는 특정 뇌 영역의 부피를 예측하는 학습모델을 저장할 수 있다. 대뇌 피질 두께 및/또는 특정 뇌 영역의 부피를 예측하는 학습모델을 제1 학습모델이라고 명명한다. 전술한 바와 같이 제1 학습모델은 관심 영역(전두부 회백질, 측두부 회백질, 두정부 회백질, 후두부 회백질, 측뇌실, 해마체 및 대뇌외 뇌척수액 영역 중 적어도 하나)의 픽셀 합산 개수 및 임상 정보를 입력 데이터로 이용한다. 나아가, 제1 학습모델은 뇌 크기를 입력 데이터로 더 이용할 수도 있다. 따라서, 제1 학습 모델은 뇌 크기를 이용하지 않는 모델 및 뇌 크기까지 이용하는 모델로 구분되어 사전에 마련될 수 있다. 또한, 제1 학습 모델은 관심 영역별로 사전에 마련될 수 있다.
저장장치(610)는 대뇌 피질 두께 및/또는 특정 뇌 영역의 부피를 기준으로 치매 정보를 산출하는 학습모델을 저장할 수 있다. 최종적으로 치매를 예측하는 학습모델을 제2 학습모델이라고 명명한다. 제2 학습모델은 전술한 바와 같이 입력 데이터의 종류에 따라 다양한 모델로 구현될 수 있다. 제2 학습 모델은 (i) 대뇌 피질 두께 및 특정 뇌 영역의 부피만을 입력 데이터로 이용하는 모델, (ii) 대뇌 피질 두께, 특정 뇌 영역의 부피 및 임상 정보(나이, 성별 및 APEO4)를 입력 데이터로 이용하는 모델, (iii) 특정 관심 영역들의 대뇌 피질 두께만을 입력데이터로 이용하는모델, (iv) 특정 관심 영역들의 대뇌 피질 두께 및 임상 정보(나이, 성별 및 APEO4)를 입력 데이터로 이용하는 모델, (v) 특정 관심 영역들의 부피만을 입력데이터로 이용하는모델, (vi) 특정 관심 영역들의 부피 및 임상 정보(나이, 성별 및 APEO4)를 입력 데이터로 이용하는 모델 중 어느 하나일 수 있다. 제2 학습모델은 표 7에서 설명한 모델들 중 어느 하나일 수 있다.
치매 정보는 대상자의 치매 여부 예측 결과, 치매 고위험군 여부 예측 결과, 치매 관련 지표(뇌 위축 정보, W-점수, AD-점수 등) 등과 같은 정보 중 어느 하나일 수 있다.
메모리(620)는 분석장치(600)가 뇌 영상에서 치매 정보를 산출하는 과정에서 생성되는 데이터 및 정보 등을 저장할 수 있다.
인터페이스 장치(640)는 외부로부터 일정한 명령 및 데이터를 입력받는 장치이다. 인터페이스 장치(640)는 물리적으로 연결된 입력 장치 또는 외부 저장장치로부터 대상자의 2D MRI 및 임상 정보를 입력받을 수 있다. 입력되는 2D MRI 슬라이스들은 20개 이내의 개수이다. 인터페이스 장치(640)는 2D MRI를 기준으로 예측한 치매 정보를 외부 객체에 전달할 수도 있다.
통신장치(650)는 유선 또는 무선 네트워크를 통해 일정한 정보를 수신하고 전송하는 구성을 의미한다. 통신장치(650)는 외부 객체로부터 대상자의 2D MRI 및 임상 정보를 수신할 수 있다. 2D MRI 슬라이스들은 20개 이내의 개수이다. 통신장치(650)는 2D MRI를 기준으로 예측한 치매 정보를 사용자 단말과 같은 외부 객체에 송신할 수도 있다.
인터페이스 장치(640)는 통신장치(650)에서 수신하는 데이터를 내부로 전달받는 장치일 수 있다.
출력장치(660)는 일정한 정보를 출력하는 장치이다. 출력장치(660)는 데이터 처리 과정에 필요한 인터페이스, 뇌 영상, 뇌 영상에서 분할한 관심 영역, 관심 영역 기준 산출한 치매 관련 지표, 치매 정보 등을 출력할 수 있다.
연산 장치(630)는 대상자의 뇌 영상(2D MRI)을 일정하게 전처리할 수 있다. 연산 장치(630)는 데이터 전처리 과정을 통하여 뇌 영역 전체를 분할하기 위한 마스크를 생성할 수 있다. 연산 장치(630)는 뇌 영역 전체에 대한 마스크를 이용하여 뇌 영상에서 전체 뇌 영역을 분할할 수 있다.
연산 장치(630)는 대상자의 2D MRI의 크기 내지 해상도를 일정하게 정규화할 수 있다.
연산 장치(630)는 대상자의 2D MRI 슬라이스를 학습된 세그멘테이션 모델에 입력하여 관심 영역을 추출할 수 있다. 관심 영역들은 전두부 회백질, 측두부 회백질, 두정부 회백질, 후두부 회백질, 측뇌실, 해마체 및 대뇌외 뇌척수액 영역 중 적어도 하나를 포함한다.
연산 장치(630)는 관심 영역들에 대한 크기 정보를 추출할 수 있다. 연산 장치(630)는 관심 영역들 각각에 대한 픽셀 합산 개수를 산출할 수 있다. 연산 장치(630)는 관심 영역(예컨대, 전두부)별로 전체 2D 슬라이스에서 확인한 픽셀 개수를 합산하여 픽셀 합산 개수를 산출할 수 있다.
연산 장치(630)는 뇌 MRI에서 관심 영역 및 다른 영역의 크기를 기준으로 전체 뇌 크기를 산출할 수 있다. 뇌 크기는 전술한 7개의 관심 영역들 및 관심 영역들의 백질의 크기를 합산하여 결정될 수 있다.
연산 장치(630)는 관심 영역의 픽셀 합산 개수 및 임상 정보(나이, 성별 및 APEO4 유전자형 중 적어도 하나)를 제1 학습모델에 입력하여 해당 관심 영역의 대뇌 피질 두께 및 부피를 예측1할 수 있다. 연산 장치(630)는 관심 영역별로 픽셀 합산 개수 및 임상 정보(나이, 성별 및 APEO4 유전자형 중 적어도 하나)를 개별적인 학습모델에 입력하여 해당 관심 영역의 대뇌 피질 두께 및 부피를 예측할 수 있다. 이 경우, 연산 장치(630)는 제1 학습모델에 예측한 관심 영역(들)의 대뇌 피질 두께 및 부피를 제2 학습모델에 입력하여 대상자의 치매 정보를 산출할 수 있다. 예컨대, 연산 장치(630)는 전두부의 대뇌 피질 두께, 측두부의 대뇌 피질 두께, 두정부의 대뇌 피질 두께, 후두부의 대뇌 피질 두께, 측뇌실의 부피, 해마체의 부피 및 대뇌외 뇌척수액 영역의 부피를 제2 학습모델에 입력하여 대상자의 치매 정보를 산출할 수 있다.
또한, 연산 장치(630)는 관심 영역의 픽셀 합산 개수, 뇌크기 및 임상 정보(나이, 성별 및 APEO4 유전자형 중 적어도 하나)를 제1 학습모델에 입력하여 해당 관심 영역의 부피를 예측할 수도 있다. 연산 장치(630)는 관심 영역별로 픽셀 합산 개수, 뇌크기 및 임상 정보(나이, 성별 및 APEO4 유전자형 중 적어도 하나)를 개별적인 학습모델에 입력하여 해당 관심 영역의 부피를 예측할 수도 있다. 이 경우 연산 장치(630)는 제1 학습모델에 예측한 관심 영역(들)의 부피를 제2 학습모델에 입력하여 대상자의 치매 정보를 산출할 수 있다. 예컨대, 연산 장치(630)는 측뇌실의 부피, 해마체의 부피 및 대뇌외 뇌척수액 영역의 부피를 제2 학습모델에 입력하여 대상자의 치매 정보를 산출할 수 있다.
연산 장치(630)는 대뇌 피질 두께 또는 부피 외에 임상 정보(나이, 성별, APOE4 유전자형 중 적어도 하나)를 더 제2 학습모델에 입력하여 대상자의 치매 정보를 산출할 수 있다.
연산 장치(630)는 데이터를 처리하고, 일정한 연산을 처리하는 프로세서, AP, 프로그램이 임베디드된 칩과 같은 장치일 수 있다.
또한, 상술한 바와 같은 2D MRI 기반의 치매 정보 산출 방법, 2D MRI 기반의 치매 예측 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램(또는 어플리케이션)으로 구현될 수 있다. 상기 프로그램은 일시적 또는 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM (read-only memory), PROM (programmable read only memory), EPROM(Erasable PROM, EPROM) 또는 EEPROM(Electrically EPROM) 또는 플래시 메모리 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
일시적 판독 가능 매체는 스태틱 램(Static RAM,SRAM), 다이내믹 램(Dynamic RAM,DRAM), 싱크로너스 디램 (Synchronous DRAM,SDRAM), 2배속 SDRAM(Double Data Rate SDRAM,DDR SDRAM), 증강형 SDRAM(Enhanced SDRAM,ESDRAM), 동기화 DRAM(Synclink DRAM,SLDRAM) 및 직접 램버스 램(Direct Rambus RAM,DRRAM) 과 같은 다양한 RAM을 의미한다.
본 실시예 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시례는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.

Claims (18)

  1. 분석장치가 대상자의 2D(dimension) MRI(Magnetic Resonance Imaging) 슬라이스들을 입력받는 단계;
    상기 분석장치가 상기 2D MRI 슬라이스들을 세그멘테이션 모델에 입력하여 관심 영역들을 추출하는 단계;
    상기 분석장치가 상기 관심 영역들의 픽셀 정보를 사전에 학습된 제1 학습모델에 입력하여 상기 관심 영역들 중 적어도 하나의 영역의 대뇌 피질 두께 및 상기 관심 영역들 중 적어도 하나의 영역의 부피를 예측하는 단계; 및
    상기 분석장치가 상기 적어도 하나의 영역의 대뇌 피질 두께 및 상기 적어도 하나의 영역의 부피를 사전에 학습된 제2 학습 모델에 입력하여 상기 대상자의 치매 정보를 산출하는 단계를 포함하되,
    상기 관심 영역들은 전두부 회백질, 측두부 회백질, 두정부 회백질, 후두부 회백질, 측뇌실, 해마체 및 대뇌외 뇌척수액 영역 중 적어도 하나를 포함하는 2차원 MRI를 이용한 치매 정보 산출 방법.
  2. 제1항에 있어서,
    상기 제1 학습모델들은 상기 관심 영역들의 픽셀 합산 개수 및 상기 대상자의 임상정보를 입력받아 상기 대뇌 피질 두께 및 상기 부피를 예측하되,
    상기 임상 정보는 상기 대상자의 나이, 성별 및 APOE4 유전자형 중 적어도 하나를 포함하는 2차원 MRI를 이용한 치매 정보 산출 방법.
  3. 제1항에 있어서,
    상기 제1 학습모델들은 상기 2D MRI 슬라이스들을에서 산출되는 뇌 크기를 더 입력받아 상기 대뇌 피질 두께 및 상기 부피를 예측하는 2차원 MRI를 이용한 치매 정보 산출 방법.
  4. 제1항에 있어서,
    상기 제1 학습모델은 상기 관심 영역들별로 사전에 마련된 복수의 학습모델들을 포함하는 2차원 MRI를 이용한 치매 정보 산출 방법.
  5. 제1항에 있어서,
    상기 제2 학습모델은
    전두부의 대뇌 피질 두께, 측두부의 대뇌 피질 두께, 두정부의 대뇌 피질 두께 및 후두부의 대뇌 피질 두께 중 적어도 하나를 입력받고, 측뇌실의 부피, 해마체의 부피 및 대뇌외 뇌척수액 영역의 부피 중 적어도 하나를 입력받아 상기 대상자의 치매 정보를 산출하는 2차원 MRI를 이용한 치매 정보 산출 방법.
  6. 제5항에 있어서,
    상기 제2 학습모델은 상기 대상자의 나이, 상기 대상자의 성별 및 상기 대상자의 APOE4 유전자형 중 적어도 하나의 정보를 더 입력받는 2차원 MRI를 이용한 치매 정보 산출 방법.
  7. 분석장치가 대상자의 2D(dimension) MRI(Magnetic Resonance Imaging) 슬라이스들을 입력받는 단계;
    상기 분석장치가 상기 2D MRI 슬라이스들을 세그멘테이션 모델에 입력하여 관심 영역들을 추출하는 단계;
    상기 분석장치가 상기 관심 영역들의 픽셀 정보를 사전에 학습된 제1 학습모델에 입력하여 상기 관심 영역들 중 적어도 하나의 영역의 부피를 예측하는 단계; 및
    상기 분석장치가 상기 적어도 하나의 영역의 부피를 사전에 학습된 제2 학습 모델에 입력하여 상기 대상자의 치매 정보를 산출하는 단계를 포함하되,
    상기 관심 영역들은 전두부 회백질, 측두부 회백질, 두정부 회백질, 후두부 회백질, 측뇌실, 해마체 및 대뇌외 뇌척수액 영역 중 적어도 하나를 포함하는 2차원 MRI를 이용한 치매 정보 산출 방법.
  8. 제7항에 있어서,
    상기 제1 학습모델들은 상기 관심 영역들의 픽셀 합산 개수 및 상기 대상자의 임상정보를 입력받아 상기 부피를 예측하되,
    상기 임상 정보는 상기 대상자의 나이, 성별 및 APOE4 유전자형 중 적어도 하나를 포함하는 2차원 MRI를 이용한 치매 정보 산출 방법.
  9. 제7항에 있어서,
    상기 제1 학습모델들은 상기 2D MRI 슬라이스들을에서 산출되는 뇌 크기를 더 입력받아 상기 부피를 예측하는 2차원 MRI를 이용한 치매 정보 산출 방법.
  10. 제7항에 있어서,
    상기 제1 학습모델은 상기 관심 영역들별로 사전에 마련된 복수의 학습모델들을 포함하는 2차원 MRI를 이용한 치매 정보 산출 방법.
  11. 제7항에 있어서,
    상기 제2 학습모델은
    전두부의 대뇌 피질 두께, 측두부의 대뇌 피질 두께, 두정부의 대뇌 피질 두께 및 후두부의 대뇌 피질 두께 중 적어도 하나를 입력받고, 측뇌실의 부피, 해마체의 부피 및 대뇌외 뇌척수액 영역의 부피 중 적어도 하나를 입력받아 상기 대상자의 치매 정보를 산출하는 2차원 MRI를 이용한 치매 정보 산출 방법.
  12. 제11항에 있어서,
    상기 제2 학습모델은 상기 대상자의 나이, 상기 대상자의 성별 및 상기 대상자의 APOE4 유전자형 중 적어도 하나의 정보를 더 입력받는 2차원 MRI를 이용한 치매 정보 산출 방법.
  13. 대상자의 2D(dimension) MRI(Magnetic Resonance Imaging) 슬라이스들을 입력받는 인터페이스 장치;
    2D MRI 슬라이스에서 관심 영역을 추출하는 세그멘테이션 모델, 관심 영역 정보를 입력받아 부피를 예측하는 제1 학습모델 및 치매 정보를 산출하는 제2 학습모델을 저장하는 저장장치; 및
    상기 입력받은 2D MRI 슬라이스들을 상기 세그멘테이션 모델에 입력하여 관심 영역들을 추출하고, 상기 추출한 관심 영역들 중 적어도 하나의 제1 영역의 픽셀 정보를 상기 제1 학습모델에 입력하여 상기 적어도 하나의 제1 영역의 부피를 예측하고, 상기 적어도 하나의 제1 영역의 부피를 상기 제2 학습 모델에 입력하여 상기 대상자의 치매 정보를 산출하는 연산장치를 포함하되,
    상기 관심 영역들은 전두부 회백질, 측두부 회백질, 두정부 회백질, 후두부 회백질, 측뇌실, 해마체 및 대뇌외 뇌척수액 영역 중 적어도 하나를 포함하는 2차원 MRI를 이용하여 치매 정보를 산출하는 분석장치.
  14. 제13항에 있어서,
    상기 제1 학습모델은 상기 관심 영역들별로 사전에 마련된 복수의 학습모델들을 포함하는 2차원 MRI를 이용하여 치매 정보를 산출하는 분석장치.
  15. 제13항에 있어서,
    상기 적어도 하나의 제1 영역은 측뇌실, 해마체 및 대뇌외 뇌척수액 영역을 포함하는 2차원 MRI를 이용하여 치매 정보를 산출하는 분석장치.
  16. 제13항에 있어서,
    상기 저장장치는 관심 영역 정보를 입력받아 대뇌 피질 두께를 예측하는 제3 학습모델을 더 저장하고,
    상기 연산장치는 상기 추출한 관심 영역들 중 적어도 하나의 제2 영역의 픽셀 정보를 상기 제3 학습모델에 입력하여 상기 적어도 하나의 제2 영역의 대뇌 피질 두께를 예측하고, 상기 적어도 하나의 제2 영역의 대뇌 피질 두께를 상기 제2 학습모델에 더 입력하여 상기 대상자의 치매 정보를 산출하는 2차원 MRI를 이용하여 치매 정보를 산출하는 분석장치.
  17. 제16항에 있어서,
    상기 적어도 하나의 제2 영역은 전두부, 측두부, 두정부 및 후두부 중 적어도 하나를 포함하는 2차원 MRI를 이용하여 치매 정보를 산출하는 분석장치.
  18. 제13항에 있어서,
    상기 연산장치는 상기 대상자의 나이, 상기 대상자의 성별 및 상기 대상자의 APOE4 유전자형 중 적어도 하나의 정보를 상기 제2 학습모델에 더 입력하여 상기 대상자의 치매 정보를 산출하는 2차원 MRI를 이용하여 치매 정보를 산출하는 분석장치.
PCT/KR2023/001929 2022-02-09 2023-02-09 2차원 mri를 이용한 치매 정보 산출 방법 및 분석장치 WO2023153839A1 (ko)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR20220017193 2022-02-09
KR10-2022-0017193 2022-02-09
KR10-2022-0141115 2022-10-28
KR1020220141115A KR102608203B1 (ko) 2022-02-09 2022-10-28 2차원 mri를 이용한 치매 예측 방법 및 분석장치
KR10-2023-0017363 2023-02-09
KR1020230017363A KR102608205B1 (ko) 2022-02-09 2023-02-09 2차원 mri에서 예측한 부피를 이용한 치매 정보 산출 방법 및 분석장치

Publications (1)

Publication Number Publication Date
WO2023153839A1 true WO2023153839A1 (ko) 2023-08-17

Family

ID=87564783

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/001929 WO2023153839A1 (ko) 2022-02-09 2023-02-09 2차원 mri를 이용한 치매 정보 산출 방법 및 분석장치

Country Status (1)

Country Link
WO (1) WO2023153839A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016205811A1 (en) * 2015-06-19 2016-12-22 New York University Determination of accelerated brain atrophy using computed tomography
KR101929965B1 (ko) * 2017-11-01 2018-12-17 가천대학교 산학협력단 Relm과 pca 특징을 이용한 구조적 mri 영상 기반의 치매 진단 방법 및 그 장치
US20200027557A1 (en) * 2018-02-28 2020-01-23 Human Longevity, Inc. Multimodal modeling systems and methods for predicting and managing dementia risk for individuals
KR20200062589A (ko) * 2018-11-27 2020-06-04 재단법인 아산사회복지재단 뇌 mri 영상의 뇌 영역별 분할을 통한 치매 예측 장치 및 방법
KR20210029318A (ko) * 2019-09-05 2021-03-16 고려대학교 산학협력단 Ct 영상 기반 부위별 대뇌 피질 수축율 예측 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016205811A1 (en) * 2015-06-19 2016-12-22 New York University Determination of accelerated brain atrophy using computed tomography
KR101929965B1 (ko) * 2017-11-01 2018-12-17 가천대학교 산학협력단 Relm과 pca 특징을 이용한 구조적 mri 영상 기반의 치매 진단 방법 및 그 장치
US20200027557A1 (en) * 2018-02-28 2020-01-23 Human Longevity, Inc. Multimodal modeling systems and methods for predicting and managing dementia risk for individuals
KR20200062589A (ko) * 2018-11-27 2020-06-04 재단법인 아산사회복지재단 뇌 mri 영상의 뇌 영역별 분할을 통한 치매 예측 장치 및 방법
KR20210029318A (ko) * 2019-09-05 2021-03-16 고려대학교 산학협력단 Ct 영상 기반 부위별 대뇌 피질 수축율 예측 방법 및 장치

Similar Documents

Publication Publication Date Title
Liu et al. Weakly supervised deep learning for brain disease prognosis using MRI and incomplete clinical scores
Liu et al. Anatomical landmark based deep feature representation for MR images in brain disease diagnosis
Liu et al. Towards clinical diagnosis: Automated stroke lesion segmentation on multi-spectral MR image using convolutional neural network
Cai et al. Improving deep pancreas segmentation in CT and MRI images via recurrent neural contextual learning and direct loss function
WO2018074739A1 (ko) 뇌졸중 진단 및 예후 예측 방법 및 시스템
CN111488914B (zh) 一种基于多任务学习的阿尔茨海默症分类及预测系统
WO2019103440A1 (ko) 피검체의 의료 영상의 판독을 지원하는 방법 및 이를 이용한 장치
Segovia et al. A comparative study of feature extraction methods for the diagnosis of Alzheimer's disease using the ADNI database
WO2021049729A1 (ko) 인공지능 모델을 이용한 폐암 발병 가능성 예측 방법 및 분석 장치
Garali et al. Histogram-based features selection and volume of interest ranking for brain PET image classification
Liu et al. An enhanced multi-modal brain graph network for classifying neuropsychiatric disorders
US20200065967A1 (en) Computer system, method, and program for diagnosing subject
CN113658721B (zh) 阿尔兹海默疾病进程预测方法
WO2021034138A1 (ko) 치매 평가 방법 및 이를 이용한 장치
WO2019143179A1 (ko) 동일 피사체에 대하여 시간 간격을 두고 촬영된 영상 간에 동일 관심구역을 자동으로 검출하는 방법 및 이를 이용한 장치
WO2023095989A1 (ko) 뇌질환 진단을 위한 다중 모달리티 의료 영상 분석 방법 및 장치
Santa Cruz et al. Going deeper with brain morphometry using neural networks
CN113052800B (zh) 一种阿尔茨海默症影像分析方法与装置
WO2023153839A1 (ko) 2차원 mri를 이용한 치매 정보 산출 방법 및 분석장치
WO2021225226A1 (ko) 알츠하이머 진단 장치 및 방법
WO2021002669A1 (ko) 병변 통합 학습 모델을 구축하는 장치와 방법, 및 상기 병변 통합 학습 모델을 사용하여 병변을 진단하는 장치와 방법
WO2023249217A1 (ko) 멀티모달 뇌 영상 기반 뇌질환 바이오마커 추출 방법론 및 파이프라인
Supriyanti et al. Coronal slice segmentation using a watershed method for early identification of people with Alzheimer's
CN113130050B (zh) 一种医学信息显示方法及显示系统
WO2024090677A1 (ko) 대뇌외 뇌척수액 영역의 부피에 기반한 치매 관련 지표 산출 방법 및 분석장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23753186

Country of ref document: EP

Kind code of ref document: A1