WO2023276563A1 - 診断支援装置、コンピュータプログラム及び診断支援方法 - Google Patents

診断支援装置、コンピュータプログラム及び診断支援方法 Download PDF

Info

Publication number
WO2023276563A1
WO2023276563A1 PCT/JP2022/022750 JP2022022750W WO2023276563A1 WO 2023276563 A1 WO2023276563 A1 WO 2023276563A1 JP 2022022750 W JP2022022750 W JP 2022022750W WO 2023276563 A1 WO2023276563 A1 WO 2023276563A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
data
brain
prediction
prior knowledge
Prior art date
Application number
PCT/JP2022/022750
Other languages
English (en)
French (fr)
Inventor
徹太郎 小野
隆寛 田中
Original Assignee
大日本印刷株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大日本印刷株式会社 filed Critical 大日本印刷株式会社
Publication of WO2023276563A1 publication Critical patent/WO2023276563A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to a diagnostic support device, a computer program, and a diagnostic support method.
  • CAD computer-aided diagnosis
  • Patent Literature 1 discloses an artificial intelligence technology that predicts the state of an event at a point in time different from the point in time when an image was captured, based on a combination of image data and non-image data.
  • diagnostic systems that use artificial intelligence technology have complex internal processing, and midway judgment processes and prediction algorithms are black boxes. In many cases, it is difficult for doctors to refer to it when making a diagnosis.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide a diagnostic support device, a computer program, and a diagnostic support method capable of supporting diagnosis by a doctor.
  • a diagnosis support device includes an acquisition unit that acquires subject data related to the brain of a subject, and a brain of the subject based on the subject data. a prediction unit that predicts a disease; an identification unit that identifies data items corresponding to subject data that contribute to the prediction result of the prediction unit from the subject data; and a data item identified by the identification unit and the brain disease. an output unit that associates and outputs the prior knowledge.
  • the grounds for predicting brain diseases and prior knowledge are associated, so that they can be used as a reference for doctors' diagnosis, and can support the doctor's diagnosis.
  • FIG. 1 It is a figure showing an example of composition of a diagnostic support device of this embodiment. It is a figure which shows an example of a structure of an image processing function. It is a figure which shows an example of a structure of the image feature-value calculation function of 1st Embodiment. It is a figure which shows an example of a structure of a prediction function. It is a figure which shows an example of a structure of test subject data. It is a figure which shows the calculation example of a contribution. It is a figure which shows an example of a structure of a prior knowledge database. It is a figure which shows an example of the read-out method of prior knowledge. It is a figure which shows the 1st example of a prediction result display.
  • FIG. 1st example of a prediction result display It is a figure showing an example of composition of a diagnostic support device of this embodiment. It is a figure which shows an example of a structure of an image processing function. It is a figure which shows an example of a structure of the image feature-value
  • FIG. 11 is a diagram illustrating an example of the configuration of an image feature amount calculation function according to the second embodiment; It is a figure which shows an example of a structure of the prediction basis calculation function of 2nd Embodiment. It is a figure which shows the 2nd example of a prediction result display. It is a figure showing an example of composition of a diagnostic support device of this embodiment. It is a figure which shows an example of a structure of a diagnosis assistance system. It is a figure which shows the procedure of a prediction process.
  • FIG. 10 is a diagram showing a procedure of processing for generating a learned prediction model; Fig. 3 shows another prediction task;
  • FIG. 1 is a diagram showing an example of the configuration of a diagnostic support device 50 according to this embodiment.
  • the diagnosis support device 50 includes a user interface section 10 , a processing section 20 and a database section 30 .
  • the user interface unit 10 has an image input function 11 , a subject information input function 12 and a prediction result display function 13 .
  • the processing unit 20 includes an image processing function 21 , an image feature amount calculation function 22 , a prediction function 23 , a prediction basis calculation function 24 , a prior knowledge matching function 25 and a learning processing function 26 .
  • the database unit 30 includes an ROI (Region Of Interest) for image feature amount calculation, a control group database 32 , learned model parameters 33 , a prior knowledge database 34 , and a brain atlas database 35 .
  • the database unit 30 may be incorporated in the diagnosis support device 50 , or the database unit 30 may be provided outside the diagnosis support device 50 and accessed from the diagnosis support device 50 .
  • the diagnosis support device 50 can output prediction results for a plurality of types of prediction tasks in order to support brain diagnosis.
  • AD conversion will be described below as an example of a prediction task.
  • a person with normal cognitive function or a person with MCI becomes AD (for example, 1 year, 2 years, 3 years, 5 years, 10 years, etc.) It predicts the possibility of conversion to Alzheimer's disease.
  • the image input function 11 has an interface function between an MRI (Magnetic Resonance Imaging) device (not shown) and an image DB, and can acquire (receive) medical images of the brain of a subject (including a patient).
  • Medical images are, for example, MRI images (also called MR images), but medical images are not limited to MRI images.
  • MRI images also called MR images
  • medical images are not limited to MRI images.
  • it may be a PET image that can be obtained from a PET (Positron Emission Tomography) device, a SPECT image that can be obtained from a SPECT (single photon emission CT) device, or a CT (computed tomography) device. It may be a CT image that can be obtained.
  • MRI images include not only MRI images (eg, T1-weighted images, T2-weighted images, diffusion-weighted images, etc.) obtained by an MRI apparatus, but also processed images obtained by performing predetermined operations on MRI signals.
  • An MRI image will be described below as an example of a medical image.
  • the subject information input function 12 has a function of inputting subject information and can acquire (receive) subject information from an external device. Details of the subject information will be described later.
  • the prediction result display function has a function of displaying the prediction result of the processing unit 20 on a display device (display unit) (not shown). Details of the prediction result will be described later.
  • FIG. 2 is a diagram showing an example of the configuration of the image processing function 21.
  • the image processing function 21 has an image reconstruction function 211 , a tissue division function 212 , an anatomical standardization function 213 , a smoothing function 214 and a density value correction function 215 . Note that part or all of the image processing function 21 may be omitted.
  • the image reconstruction function 211 performs image reconstruction for the subject's MRI image acquired from the image input function 11 .
  • image reconstruction an MRI image (three-dimensional image) of a subject is converted into, for example, 100 to 200 T1-weighted images obtained by imaging slices of a predetermined thickness so as to include the entire brain.
  • the slice images are resampled so that the lengths of the sides of the voxels in each slice image are equal in advance.
  • the subject's MRI image is then spatially registered with a standard brain image.
  • the MRI image of the subject is subjected to linear transformation (affine transformation), trimming, etc. to match the standard brain image in position, angle, size, and the like.
  • linear transformation affine transformation
  • the tissue segmentation function 212 generates a gray matter brain image and a white matter brain image by extracting gray matter (GM) and white matter (WM) from the reconstructed MRI image.
  • T1-weighted images contain three types of tissue: white matter with high signal values corresponding to nerve fibers, gray matter with intermediate signal values corresponding to neurons, and cerebrospinal fluid (CSF) with low signal values. Therefore, processing for extracting gray matter, white matter, and cerebrospinal fluid is performed by focusing on the difference in signal values.
  • the anatomical standardization function 213 anatomically standardizes the extracted gray matter brain image, white matter brain image, and cerebrospinal fluid image.
  • Anatomical normalization is the registration of voxels to standard brain images.
  • anatomical standardization by DARTEL diffuseeomorphic anatomical registration through exponentiated Lie algebra is performed.
  • DARTEL is an algorithm for non-linear deformation with multiple parameters.
  • the smoothing function 214 performs image smoothing processing on gray matter brain images and white matter brain images that have been anatomically standardized by DARTEL to improve the S/N ratio. By performing image smoothing in this way, it is possible to reduce individual differences that do not completely match in the anatomical standardization process.
  • the density value correction function 215 performs density value correction for correcting the voxel values of the entire brain in order to match the voxel value distribution in the image group of healthy subjects.
  • the gray matter brain image, white matter brain image, and cerebrospinal fluid image corrected for density values are output to the image feature amount calculation function 22 .
  • FIG. 3 is a diagram showing an example of the configuration of the image feature amount calculation function 22 of the first embodiment.
  • the image feature quantity calculation function 22 includes a shrinkage score calculation function 221 , an ROI specification function 222 , and a shrinkage degree calculation function 223 .
  • the image feature quantity calculation function 22 calculates the degree of atrophy (ROI atrophy) calculated by the degree of atrophy calculation function 223 as an image feature quantity.
  • ROI atrophy degree of atrophy
  • the atrophy score calculation function 221 refers to the MRI images of the healthy subject recorded in the control group database 32, compares the MRI image of the subject with the MRI image of the healthy subject, and calculates the degree of brain atrophy of the subject. Score” is calculated.
  • a "Z score" which is a statistical index, is used as the atrophy score.
  • the gray matter brain image and white matter brain image of the subject subjected to anatomical standardization, image smoothing, etc. by the image processing function 21, and the gray matter of many healthy subjects recorded in the control group database 32 and white matter MRI images, and gray and white matter Z-scores are calculated for all voxels or voxels in specific regions of the MRI images.
  • Z score can be calculated by the following formula.
  • Z score ( ⁇ (x, y, z) - P (x, y, z)) / ⁇ (x, y, z) ⁇ represents the average voxel value of the MRI image group of healthy subjects, ⁇ represents the standard deviation of voxel values of the MRI image group of healthy subjects, and P represents the voxel value of the MRI image of the subject.
  • (x, y, z) are voxel coordinate values.
  • the Z-score is a value obtained by scaling the difference between the voxel value of the subject image and the average of the corresponding voxel values of the healthy subject image group by the standard deviation, and indicates the degree of relative reduction in the volume of gray and white matter. It is.
  • the Z-score it is possible to quantitatively analyze what kind of changes occur at which sites by comparing the MRI images of the subject with images of healthy subjects. For example, voxels with positive Z scores indicate areas with atrophy compared to the normal brain of healthy subjects, and larger values can be interpreted as statistically greater divergence.
  • the atrophy score is not limited to the Z score.
  • An index that can determine the magnitude of voxel values between the subject image and the healthy subject image may be used as the atrophy score indicating the degree of atrophy (for example, t-score).
  • the ROI identification function 222 identifies a brain region (region of interest: ROI) specific to each disease.
  • the ROI identification function 222 can identify regions of interest associated with each disease based on, for example, statistical processing. Specifically, when specifying a region of interest corresponding to a certain disease, a group of MRI images of subjects with the disease (group of disease images) and a group of MRI images of subjects without the disease (for example, healthy subjects) ( non-disease patient image group), a two-sample t-test was performed to statistically test the significant difference between the two groups in voxel units, and the voxels where a significant difference was observed were regarded as characteristic voxels in the disease, The set of coordinates is identified as the region of interest corresponding to the disease.
  • the region of interest may be specified by considering both the significance level and the empirical rule.
  • the region of interest may be specified only from the disease image (or disease image group), for example. For example, for a disease image (or a group of disease images), a site with large atrophy in correlation with the degree of atrophy in the whole brain may be identified as the region of interest.
  • the ROI specifying function 222 may read and use the region of interest recorded in the ROI 31 for image feature value calculation.
  • the ROI specifying function 222 may also refer to the brain atlas database 35 and specify a region of interest based on information (atlas) that spatially divides the brain. Examples of brain atlases that can be used include the AAL atlas (Automated Anatomical Labeling), the Brodmann atlas, the LPBA40 atlas (LONI Probabilistic Brain Atlas), and the Talairach atlas.
  • the atrophy calculation function 223 calculates the atrophy for each region of interest identified by the ROI identification function 222 .
  • Atrophy can be, for example, the average positive Z-score within the region of interest.
  • the region of interest is the hippocampus
  • the average positive Z-score within the hippocampus can be calculated as the degree of hippocampal atrophy.
  • the degree of atrophy is not limited to the "average value of positive Z scores" in the region of interest. Alternatively, it may be the average value of Z-scores, or it may be the maximum value of Z-scores. Alternatively, the ratio of voxels whose Z-score exceeds a threshold to the total number of voxels in the region of interest may be used.
  • the sum or average of voxel values in the region of interest may be simply used as the image feature amount without comparison with the control group.
  • the degree of atrophy (image feature value) of the brain region calculated by the degree-of-atrophy calculation function 223 is output to the prediction function 23 .
  • FIG. 4 is a diagram showing an example of the configuration of the prediction function 23.
  • the prediction function 23 has a scaling function 231 and a learned prediction model 232 .
  • the scaling function 231 functions as an acquisition unit that acquires subject data regarding the subject's brain.
  • Subject data includes image feature amounts and subject information. The subject data will be described below.
  • FIG. 5 is a diagram showing an example of the configuration of subject data.
  • Subject data is a set of data with different units and attributes, and can be broadly classified into three categories: image feature quantity, imaging parameters, and subject information.
  • the image feature quantity can be further classified into the degree of atrophy of the brain region calculated by the image feature quantity calculation function 22 and a feature vector, which will be described later. Details of the feature vector will be described later.
  • Subject data includes not only subject data at one point in time, but also subject data at multiple points in time.
  • subject data at two points in time that is, subject data at present and subject data six months ago
  • subject data at three points in time, 6 months ago, and 1 year ago can be input to the prediction function 23 to make a prediction.
  • prediction can be performed by inputting subject data at the present time, subject data for a period ⁇ t before the present time, and the period ⁇ t into the prediction function 23 .
  • the imaging parameters include, for example, model information of the MRI apparatus, imaging protocol (eg, magnetic field strength, sequence type, imaging parameters, etc.).
  • imaging protocol eg, magnetic field strength, sequence type, imaging parameters, etc.
  • Subject information can be further classified into neuropsychological test information, clinical information, and biochemical test information.
  • Neuropsychological test information for example, ADAS-cog (Alzheimer's disease rating scale), MMSE (Mini-Mental State Examination: simple intellectual function test), CDR (Clinical Dementia Rating: clinical dementia evaluation method), FAQ ( Functional Activity Questionnaire, GDS (Geriatric Depression Scale), neuropsychological battery (e.g., logical memory IA immediate recall, logical memory IIA delayed recall, WAIS-III, clock drawing/copying) , verbal fluency task, Trail Making Test A&B, a battery that combines several tests such as the Boston Name Test), etc.
  • the MMSE can test the severity of dementia, and subjects scoring 24 points or less out of 30 points are considered suspected dementia, and 0-10 points indicate severe dementia. is determined.
  • CDR is determined as a healthy person when 0 points, suspected dementia when 0.5 points, longitude dementia when 1 point, and moderate when 2 points Degree dementia, 3 points is judged as advanced dementia.
  • the GDS is rated on a scale of 0 to 15, with 'depression' suspected if 6 or more.
  • the ADAS-cog is rated on a scale of 0 to 70, with higher scores indicating more severe dementia.
  • the neuropsychological battery can appropriately change the tests to be combined according to the dementia status of the subject.
  • the clinical information includes, for example, subject's age, sex, height, weight, BMI, years of education, medical history (presence or absence of diabetes, etc.), family history, presence or absence of dementia in the family, vital signs (blood pressure, pulse, temperature, etc.). include.
  • the biochemical test information includes blood test results, cerebrospinal fluid test results (CSF-TAU (including T-TAU and P-TAU), CSF-A ⁇ ), ApoE genotype, etc.
  • CSF-TAU cerebrospinal fluid test results
  • CSF-A ⁇ CSF-A ⁇
  • ApoE genotype etc.
  • the scaling function 231 can acquire at least one of neuropsychological test information, clinical information, and biochemical test information. For example, only clinical information may be obtained, or neuropsychological test information or biochemical test information may be obtained. Also, each of the acquired neuropsychological test information, clinical information, and biochemical test information may be only a part of the above items.
  • the scaling function 231 scales and equalizes the image feature amount (in this case, including the image capturing parameter) and the subject information because the units and attributes are different.
  • Scaling methods include, for example, standardization or normalization. Normalization is a scaling method with a mean of 0 and a variance of 1.
  • Normalization is a scaling method where 0 is the minimum value and 1 is the maximum value.
  • x indicates a value before scaling
  • x max indicates the maximum possible value of x
  • x min indicates the minimum possible value of x.
  • the learned prediction model 232 has a function as a prediction unit, and predicts the subject's brain disease based on the subject's data.
  • a prediction model of the learned prediction model 232 is represented by f(X, ⁇ ).
  • the prediction result y is the presence or absence of AD conversion of the subject after a certain number of years (prediction period: T years).
  • the trained prediction model 232 performs binary classification discrimination that predicts the presence or absence of AD conversion.
  • the estimated probability value p indicates the probability of AD conversion
  • the probability estimate value p is a value in the range of 0-1. Note that a trained prediction model 232 may be provided for each prediction period T, and one trained prediction model 232 may predict the presence or absence of AD conversion in a plurality of prediction periods T.
  • both the image feature amount and the subject information are used as the subject data, but the present invention is not limited to this, and only the image feature amount may be used as the subject data. In this case, subject information is not essential.
  • the learned prediction model 232 may be a prediction model that performs binary classification identification, for example, random forest, SVM (Support Vector Machine), Adaboost, gradient boosting, logistic regression, decision tree, neural network, deep learning, Machine learning models such as multiple ensembles of these models can be used.
  • binary classification identification for example, random forest, SVM (Support Vector Machine), Adaboost, gradient boosting, logistic regression, decision tree, neural network, deep learning, Machine learning models such as multiple ensembles of these models can be used.
  • a training data set is composed of a large number of case data.
  • the prediction basis calculation function 24 has a function as a contribution degree calculation unit and calculates the contribution degree of subject data that contributes to the prediction result of the learned prediction model 232 .
  • the contribution c1 is the contribution based on the subject data x1.
  • the SHAP technique is a method of proportionally dividing the increase/decrease from the average of the predicted probability of data to be explained according to the influence of each variable of the data.
  • the LIME technique is a method of locally approximating a trained model with a simple model (a model that can be applied only to data to be explained and its surroundings) and calculating the coefficient of the approximation model as the degree of contribution.
  • Explainable Boosting Machine technology is a technique that combines GAM (Generated Additive Model) and gradient boosting technique to achieve both accuracy of gradient boosting and interpretability of GAM.
  • GAM Generated Additive Model
  • the SHAP technology is described below.
  • the marginal contribution indicates how much the prediction result y increases when the subject data x1 is input to the trained prediction model 232 .
  • the prediction result y changes depending on whether any of the subject data x2 and x3 has already been input.
  • there are three pieces of subject data there are six input orders (addition orders) of the subject data x1, x2, and x3.
  • the contribution c1 of the subject data x1 can be calculated as the average value of the marginal contribution calculated for all orders.
  • FIG. 6 is a diagram showing an example of contribution degree calculation.
  • the order of addition of subject data x1, x2, and x3 is x1->x2->x3, x1->x3->x2, x2->x1->x3, x2->x3->x1, x3->x1->x2, and x3->x2->x1. exist.
  • the marginal contribution of x1 in each addition order is ⁇ 11 to ⁇ 16
  • the contribution c1 of x1 can be calculated as the average value of ⁇ 11 to ⁇ 16.
  • the contribution c2 of x2 can be calculated as the average value of ⁇ 21 to ⁇ 26, and the marginal contribution of x3 in each order of addition is ⁇ 31 to ⁇ 36. Then, the contribution c3 of x3 can be calculated from the average value of ⁇ 31 to ⁇ 36.
  • the prior knowledge collation function 25 collates the prediction basis with the prior knowledge database 34.
  • FIG. 7 is a diagram showing an example of the configuration of the prior knowledge database 34.
  • the prior knowledge database 34 shown in FIG. 7 corresponds to a prediction task for AD conversion, and a similar prior knowledge database 34 can be constructed for other prediction tasks.
  • prior knowledge (description) is registered for each data item in the prior knowledge database 34, and the strength of the prior knowledge (reliability as evidence) is associated with it.
  • the strength of prior knowledge can be classified into, for example, "high”, “medium”, and “low”, but it is not limited to this, and may be expressed numerically.
  • the URL of the reference destination of the detailed commentary on the prior knowledge, etc. are associated.
  • Data items include items related to AD conversion, such as hippocampal atrophy, whole brain atrophy, medial temporal lobe atrophy, amyloid PET, MMSE, CDR, logical memory, GDS, education The number of years, etc. are mentioned. Data items are not limited to the example in FIG.
  • the data item “hippocampal atrophy” is associated with the commentary "There is strong evidence that hippocampal atrophy increases risk” as prior knowledge. In this case, the knowledge strength is "high”.
  • the data item “MMSE” is associated with the commentary "There is strong evidence that a decrease in MMSE increases the risk” as prior knowledge. In this case, the knowledge strength is "high”.
  • the data item “logical memory” is associated with a commentary text "There is evidence that logical memory increases risk” as prior knowledge. In this case, the strength of knowledge is "Medium”.
  • the prior knowledge matching function 25 has a function as an identification unit, refers to the prior knowledge database 34, and identifies data items corresponding to subject data that contribute to the prediction result of the trained prediction model 232 from the subject data. do.
  • subject data X (x1, x2, x3, . . . , xn)
  • the value of the data item is the hippocampal atrophy.
  • the prior knowledge matching function 25 identifies a data item corresponding to the subject data based on the degree of contribution calculated by the prior knowledge matching function 25 and a predetermined contribution degree threshold, and identifies the data item corresponding to the identified data item.
  • Prior knowledge can be retrieved from prior knowledge database 34 .
  • FIG. 8 is a diagram showing an example of a prior knowledge reading method. Let x1, x2, . . . , xi, . Th1, Th2, . . . , Thi, . Threshold values Th1, Th2, . . . , Thi, . As shown in FIG. 8, if C1>Th1, the prior knowledge corresponding to the subject data x1 is read from the prior knowledge database . Also, if C2 ⁇ Th2, no prior knowledge corresponding to subject data x2 is read. The same applies hereinafter. In this way, the prior knowledge matching function 25 can select prior knowledge corresponding to subject data whose contribution degree is greater than the threshold from subject data x1, x2, . . . , xi, .
  • the relationship (correspondence) between the prediction basis and conventionally known prior knowledge is shown for the prediction result by the prediction function 23, and a user such as a doctor can understand how much known evidence is in the prediction result. You can know what to support. For example, if prediction grounds (prediction reasons) are largely consistent with known evidence, it can be determined that the prediction grounds are highly reliable.
  • the prior knowledge matching function 25 has a function as an output unit, and can associate the specified data item with prior knowledge regarding brain diseases and output them to the user interface unit 10 .
  • the prior knowledge matching function 25 can output subject data corresponding to the specified data item.
  • the prior knowledge matching function 25 may also output the degree of matching (degree of association) between the specified data item and the prior knowledge.
  • the matching degree indicates how much the prediction basis (prediction reason) matches the prior knowledge.
  • the prediction result display function 13 can display prediction results in which the specified data items and prior knowledge about brain diseases are associated. Information output by the prior knowledge matching function 25 can be included in the prediction result.
  • FIG. 9 is a diagram showing a first example of prediction result display.
  • "Alzheimer's dementia conversion prediction result” indicates the probability of conversion to Alzheimer's dementia after a certain number of years, predicted by the prediction function 23 by analyzing subject data of a certain subject (patient).
  • both the conversion rate after 2 years and after 5 years are displayed, but either conversion rate may be displayed, and even if the prediction period is 1 year, 3 years, etc. good.
  • the conversion rate represents the estimated probability p output by the trained prediction model 232 .
  • “Reason for prediction” indicates the basis of the subject data that the prediction function 23 has made the prediction.
  • “Item” is the data item of the subject data
  • “measured value” is the value of the data item
  • “contribution to prediction” is the degree of contribution. Shows how much it contributes.
  • "Known Evidence” displays “commentary” as prior knowledge, and the “commentary” is associated with the “prediction reason”.
  • the “matching degree” indicates how well the "prediction reason” matches the prior knowledge.
  • the “matching degree” can be expressed as, for example, “high”, “medium”, or “low”, but is not limited to this and may be expressed numerically.
  • “Details” is provided with an arrow icon for displaying a detailed explanation, and by operating the icon, it is possible to display more detailed information about the explanation.
  • the prediction result display function 13 has a function as a display unit, and displays a data item, a measurement value (subject data value ), and prior knowledge corresponding to the data item can be associated and displayed.
  • each piece of information is displayed in the order of contribution degrees 5, 4, 3.6, 2.2, 2, . This allows a user, such as a doctor, to visually see the prediction reasons in the order that they contribute to the prediction result, making it easy to read important prediction reasons and known evidence.
  • a user such as a doctor
  • the doctor can know how much known evidence supports the prediction result of the diagnosis support device 50. If the prediction basis (prediction reason) of the diagnosis support device 50 matches well with known evidence, it can be understood that the prediction basis is highly reliable.
  • the diagnosis support device 50 presents a hypothesis of new evidence, but there is also the possibility that it is the result of bias in the learning data. . Therefore, if the prediction grounds are contrary to common sense or reasoning, it may be possible to conduct a more detailed additional inspection in order to further improve the reliability without making a judgment based on the prediction result alone.
  • the grounds for predicting a brain disease and prior knowledge are associated, so that they can be used as a reference for a doctor's diagnosis and can support the doctor's diagnosis.
  • the ROI atrophy is used as the image feature amount, but the image feature amount is not limited to the ROI atrophy.
  • the image feature amount is not limited to the ROI atrophy.
  • a configuration using feature vectors as image feature amounts will be described.
  • FIG. 10 is a diagram showing an example of the configuration of the image feature amount calculation function 22 of the second embodiment.
  • the image feature amount calculation function 22 can be configured by a CNN (Convolutional Neural Network), and includes an input layer 22a, a plurality of (for example, 17 layers) convolutional layers 22b, a pooling layer 22c, a fully connected It comprises layers 22d, 22e and an output layer 22f.
  • the configuration of the CNN is an example, and is not limited to the example in FIG. For example, VGG16, ResNet, DenseNet, EfficientNet, AttResNet, etc. may be used.
  • a standardized gray matter image is input from the image processing function 21 to the input layer 22a.
  • GM gray matter
  • WM white matter
  • CSF cerebrospinal fluid
  • the image feature amount calculation function 22 calculates, as an image feature amount, a feature vector whose elements are the values of the nodes of the fully connected layer 22e immediately before the output layer 22f. If the number of nodes in the fully connected layer 22e is N, N image feature amounts can be obtained. The image feature amount calculation function 22 outputs the calculated feature vector to the prediction function 23 .
  • the prediction function 23 acquires the feature vector output by the image feature amount calculation function 22 as an image feature amount, and performs the same processing as in the first embodiment.
  • a trained model of CNN can be generated by the learning processing function 26 .
  • FIG. 11 is a diagram showing an example of the configuration of the prediction basis calculation function 24 of the second embodiment.
  • the prediction basis calculation function 24 includes a gradient calculation function 241, a weighting calculation function 242, an adder 243, and a ReLU244.
  • Let A1, A2, A3, . k indicates the number of channels.
  • Using k filters in a convolution operation produces a k-channel feature map.
  • a feature map can be used, for example, in the final layer of a convolutional layer, which is the input side of a fully connected layer. This is because the position information of the image is lost in the fully connected layer, and the features of the image are well abstracted in the final layer of the convolutional layers. Note that the layer is not limited to the final layer, and any convolutional layer may be used.
  • a gradient is used to calculate how much the feature maps A1, A2, A3, .
  • the gradient calculation function 241 calculates the gradients ⁇ 1, ⁇ 2, ⁇ 3, .
  • Gradient calculation is calculation for calculating how much the prediction result changes when each element of the feature map changes slightly, and for smoothing within the feature map.
  • the weighting operation function 242 applies global average pooling values of gradients ⁇ 1, ⁇ 2, ⁇ 3, .
  • Generating a heat map by adding the respective weighted feature maps ⁇ 1 ⁇ A1, ⁇ 2 ⁇ A2, ⁇ 3 ⁇ A3, . can be done.
  • the heat map focuses on the feature map extracted by the convolution layer 22b as the prediction basis, and visualizes and visualizes which part of the image is used as the judgment basis.
  • the prediction basis can be visualized by scaling the image size of the heatmap to the size of the input standardized gray matter image and superimposing the heatmap on the standardized gray matter image.
  • the heat map has three-dimensional heat map information that indicates the grounds (degree of influence) on the prediction results by numerical values (also referred to as heat map values) corresponding to each coordinate position (x, y).
  • the characteristic portion indicated by the heat map information can express the height of the characteristic according to the magnitude of the heat map value.
  • the display mode (for example, color or density) can be changed according to the severity of the judgment basis.
  • Guided Grad-CAM Guided Backprop technology, etc. may be used.
  • GuidedBackprop technology is a kind of gradient-based highlighting method that considers that the larger the amount of change when the value of a certain data is slightly changed, the higher the degree of contribution.
  • FIG. 12 is a diagram showing a second example of prediction result display.
  • image regions image regions indicating prediction grounds
  • names of brain atlases corresponding to the image regions are displayed.
  • Each image of the image region is obtained by clustering the heat map values with a predetermined threshold value and dividing the regions (regions 1 to 3) into regions and displaying them by overlaying them on the standard brain image.
  • the names of the atlases corresponding to the coordinates are displayed.
  • regions 1 to 3 are "hippocampus, parahippocampal gyrus", “hippocampus, lingual gyrus”, and "precuneus, sulcus sulcus", respectively.
  • the doctor can not only see on the image which areas of the brain had a strong influence on the prediction, but also by associating coordinates with the atlas, the presence or absence of evidence linked to the atlas. can be confirmed.
  • FIG. 13 is a diagram showing an example of the configuration of the diagnostic support device 80 of this embodiment.
  • a personal computer or the like can be used as the diagnosis support device 80 .
  • the diagnosis support device 80 can include the processing unit 20, for example, and can be configured with a CPU 81, a ROM 82, a RAM 83, a GPU 84, a video memory 85, a recording medium reading unit 86, and the like.
  • a computer program (program product) recorded on a recording medium 90 for example, an optically readable disk storage medium such as a CD-ROM
  • the computer program includes processing procedures described in FIGS. 15 and 16, which will be described later.
  • the computer program may be stored in a hard disk (not shown) and stored in RAM 83 when the computer program is executed.
  • the video memory 85 can temporarily store data and processing results for various image processing.
  • the computer program can also be downloaded from another computer, network device, or the like via a network such as the Internet instead of being read by the recording medium reading unit 86 .
  • the diagnosis support device 50 was configured to include the user interface unit 10, the processing unit 20, and the database unit 30, but is not limited to this.
  • the user interface section 10, the processing section 20, and the database section 30 can be distributed as follows.
  • FIG. 14 is a diagram showing an example of the configuration of a diagnosis support system.
  • the diagnostic support system includes a terminal device 100 , a diagnostic support server 200 and a data server 300 .
  • a terminal device 100, a diagnosis support server 200, and a data server 300 are connected via a communication network 1 such as the Internet.
  • a terminal device 100 corresponds to the user interface unit 10 and is configured by a personal computer or the like.
  • the diagnosis support server 200 corresponds to the processing section 20
  • the data server 300 corresponds to the database section 30 .
  • the functions of the terminal device 100, the diagnosis support server 200, and the data server 300 are the same as those of the user interface unit 10, the processing unit 20, and the database unit 30, and thus description thereof is omitted.
  • FIG. 15 is a diagram showing the procedure of prediction processing.
  • the processing unit 20 acquires a medical image of a subject (S11) and acquires subject information of the subject (S12).
  • the processing unit 20 performs image reconstruction on the acquired medical image (S13), and performs tissue division (S14).
  • Tissue division is, for example, a process of separating and extracting gray matter, white matter, and cerebrospinal fluid.
  • the processing unit 20 performs anatomical standardization for each divided tissue (S15), and calculates an image feature amount from the anatomically standardized medical image (S16).
  • the image feature quantity may be, for example, the degree of ROI atrophy or a feature vector.
  • the processing unit 20 scales the image feature amount and subject information (S17), inputs the scaled subject data to the prediction function 23, and performs prediction result calculation processing (S18).
  • the processing unit 20 performs prediction basis calculation processing (S19).
  • the prediction basis calculation process includes a process of calculating the degree of contribution of each subject data to the prediction result.
  • the processing unit 20 checks the prior knowledge based on the calculated contribution (S20). For collation with prior knowledge, data items corresponding to subject data are specified based on the calculated contribution and a predetermined contribution threshold, and prior knowledge corresponding to the specified data items is read from the prior knowledge database 34 .
  • the processing unit 20 outputs the prediction result (S21) and ends the process.
  • the prediction result is exemplified in FIG. 9 or FIG. 12 described above.
  • the computer program causes the computer to obtain subject data regarding the subject's brain, predict brain disease in the subject based on the subject data, and contribute to the brain disease prediction result from the subject data.
  • a process of specifying a data item corresponding to subject data, and outputting the specified data item in association with prior knowledge about a brain disease is executed.
  • FIG. 16 is a diagram showing the procedure for generating the learned prediction model 232.
  • the processing unit 20 acquires medical images of a subject from a large number of case data (S31), and acquires subject information of the subject (S32).
  • the processing unit 20 acquires teacher data collected through follow-up observation of the subject (S33).
  • the teacher data is, for example, data indicating whether or not the subject has AD-converted.
  • the processing unit 20 performs image reconstruction on the acquired medical image (S34), and performs tissue division (S35). Tissue division is, for example, a process of separating and extracting gray matter, white matter, and cerebrospinal fluid.
  • the processing unit 20 anatomically standardizes each divided tissue (S36), and calculates an image feature amount from the anatomically standardized medical image (S37).
  • the image feature quantity may be, for example, the degree of ROI atrophy or a feature vector.
  • the processing unit 20 determines whether or not there is other learning data (S38), and if there is learning data (YES in S38), repeats the processing from step S31 onwards. If there is no learning data (NO in S38), the processing unit 20 scales the image feature amount and subject information (S39). When the subject data for learning is input to the learning model, the processing unit 20 updates the internal parameters of the learning model so that the data output by the learning model approaches the teacher data (S40).
  • the processing unit 20 determines whether the value of the loss function representing the error between the data output by the learning model and the teacher data is within the allowable range (S41), and if the value of the loss function is not within the allowable range ( NO in S41), and the processing from step S40 onwards is repeated. If the value of the loss function is within the allowable range (YES in S41), the processing unit 20 stores the generated learned prediction model 232 in the learned model parameter 33 (S42), and ends the process.
  • AD conversion prediction has been described as a prediction task in the above embodiment, this embodiment can also be applied to other prediction tasks. Other prediction tasks are described below.
  • FIG. 17 is a diagram showing another prediction task.
  • Other prediction tasks can include, for example, AD conversion duration prediction, amyloid ⁇ deposition prediction, AD/DLB disease differentiation, AD severity prediction, tau abnormality prediction, and brain age prediction. Below, an outline, an evaluation method, objective variables, and others will be described for each prediction task.
  • AD conversion period prediction predicts the period until conversion to AD in the future as a numerical value. Knowing when a subject is likely to convert to AD can be useful for reviewing future lifestyle habits and making long-term treatment plans.
  • the evaluation is regression, and the objective variable is the length of time until AD conversion.
  • Amyloid ⁇ deposition prediction predicts amyloid ⁇ deposition from test results other than amyloid ⁇ (A ⁇ ) (eg, MRI images and subject information). For example, by estimating the distribution of amyloid ⁇ in the brain of a subject, signs of amyloid ⁇ -related diseases can be estimated.
  • Diseases associated with amyloid ⁇ for example, mild cognitive impairment (MCI: Mild cognitive impairment), mild cognitive impairment due to Alzheimer's disease, prodromal Alzheimer's disease, pre-onset stage of Alzheimer's disease / preclinical AD, Parkinson's disease, multiple sclerosis neurodegenerative diseases such as neuropathy, cognitive decline, cognitive impairment, and amyloid-positive/negative diseases.
  • the evaluation method is a binary classification, and the objective variable is amyloid ⁇ positive or negative.
  • Teacher data during learning can be determined by a threshold from the results of both amyloid PET (imaging) and cerebrospinal fluid examination.
  • the prediction result 1 can be positive or negative for amyloid ⁇ , and the prediction result 2 can be the positive probability.
  • the AD/DLB disease differential predicts whether it is Alzheimer's disease (AD) or dementia with Lewy bodies (DLB).
  • DLB has some similarities in the tendency of brain atrophy with AD, but it is important to differentiate it because the treatment methods are different.
  • the evaluation method is binary classification, and the objective variable is AD or DLB.
  • the prediction result 1 can be AD or DLB, and the prediction result 2 can be AD probability and DLB probability.
  • AD severity prediction predicts the severity of Alzheimer's disease (mild, moderate, and severe) only from brain images. It is possible to examine the difference between brain imaging and clinical progression and use it for treatment.
  • the evaluation method is numerically predictive regression.
  • the objective variable is CDR (Clinical Dementia Rating). If the CDR is 0, it is healthy, if the CDR is 0.5, dementia is suspected, if the CDR is 1, it is mild dementia, and if the CDR is 2, it is moderate dementia, A CDR of 3 is advanced dementia.
  • An explanatory variable is an image feature quantity of a brain image.
  • Tau abnormality prediction predicts abnormal tau deposition from information other than tau PET.
  • Tau is a protein expressed in nerve cells of the central nervous system and peripheral nervous system, and tau abnormalities are thought to cause neurodegenerative diseases such as Alzheimer's disease.
  • the evaluation method is regression, and the objective variable is tau PET SUVR (Standardized uptake value ratio).
  • SUVR the sum of SUV (tau accumulation) of four regions of cerebral gray matter (prefrontal cortex, anterior posterior cingulate cortex, parietal lobe, and lateral temporal lobe) is measured in a specific reference region (e.g., cerebellum). etc.) by dividing by SUV.
  • Brain age prediction predicts "brain age” from brain images. Even for healthy people, knowing their brain state (brain age) can help them check their health, such as reviewing their lifestyle habits.
  • the evaluation method is regression, and the objective variable is age.
  • the teacher data at the time of learning can be the real age at the time when the brain image was taken.
  • An explanatory variable is an image feature quantity of a brain image.
  • a diagnosis support apparatus includes an acquisition unit that acquires subject data related to the brain of a subject, a prediction unit that predicts a brain disease of the subject based on the subject data, and the prediction unit from the subject data. and an output unit for associating and outputting the data items specified by the specifying unit and prior knowledge about the brain disease.
  • the acquisition unit acquires, as the subject data, an image feature amount calculated based on a medical image of the subject's brain.
  • the image feature amount includes the degree of atrophy of the brain region.
  • the acquisition unit acquires subject information including at least one of examination information and clinical information related to the brain of the subject as the subject data.
  • the diagnosis support apparatus of the present embodiment includes a storage unit that stores prior knowledge as known evidence regarding brain diseases in association with data items related to the brain, and a contribution unit that calculates the degree of contribution of subject data that contributes to the prediction result. a degree calculation unit, wherein the identification unit identifies a data item corresponding to the subject data based on the contribution and a predetermined contribution threshold, and the output unit calculates prior knowledge corresponding to the identified data item is read from the storage unit and output.
  • the output unit outputs the degree of association between the data item and the prior knowledge.
  • the diagnosis support apparatus of the present embodiment includes a degree-of-relevance calculator that calculates the degree of relevance based on at least one of the degree of contribution of subject data corresponding to the data item and the degree of reliability as evidence of the prior knowledge. Prepare.
  • the output unit outputs subject data corresponding to the data item.
  • the diagnosis support apparatus of the present embodiment associates the data item, the subject data, and the prior knowledge corresponding to the data item in order of the degree of contribution of the subject data corresponding to the data item to the prediction result.
  • a display unit for displaying is provided.
  • the computer program of the present embodiment acquires subject data relating to the brain of a subject in a computer, predicts a brain disease of the subject based on the subject data, and predicts the brain disease from the subject data.
  • a process of specifying a data item corresponding to contributing subject data and outputting the specified data item in association with prior knowledge about the brain disease is executed.
  • the diagnostic support method of the present embodiment acquires subject data relating to the brain of a subject, predicts a brain disease of the subject based on the subject data, and contributes to the prediction result of the brain disease from the subject data.
  • a data item corresponding to the subject data is specified, and the specified data item is associated with prior knowledge about the brain disease and output.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Primary Health Care (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

医師の診断を支援することができる診断支援装置、コンピュータプログラム及び診断支援方法を提供する。 診断支援装置は、被験者の脳に関する被験者データを取得する取得部と、被験者データに基づいて被験者の脳疾患を予測する予測部と、被験者データの中から予測結果に寄与する被験者データに対応するデータ項目を特定する特定部と、特定したデータ項目と脳疾患に関する事前知識とを関連付けて出力する出力部とを備える。

Description

診断支援装置、コンピュータプログラム及び診断支援方法
 本発明は、診断支援装置、コンピュータプログラム及び診断支援方法に関する。
 アルツハイマー型認知症などを含む脳疾患については、病状が早期の時点で適切な処置を施すことが効果的であるため、早期診断が求められている。コンピュータ支援診断(CAD:computer-aided diagnosis)の分野では、診断システムが患者の画像や臨床情報を元に解析を行う技術がある。医師は、診断システムが出力する結果を第2の意見として参考にすることで、より正確な診断ができることが期待されている。
 近年では機械学習を用いた診断システムも考案されている。特許文献1には、画像データと非画像データとの組み合わせに基づいて、撮像時点とは異なる時点での事柄に関する様子を予測する人工知能技術が開示されている。
国際公開第2021/020198号
 しかし、人工知能技術を用いた診断システムは、その内部の処理が複雑であり、途中の判断プロセスや予測アルゴリズムがブラックボックス化しているため、診断結果が出力されても、診断結果の根拠が不明である場合が多く、医師が診断を行うにあたっての参考にすることが難しい場合がある。
 本発明は、斯かる事情に鑑みてなされたものであり、医師の診断を支援することができる診断支援装置、コンピュータプログラム及び診断支援方法を提供することを目的とする。
 本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、診断支援装置は、被験者の脳に関する被験者データを取得する取得部と、前記被験者データに基づいて前記被験者の脳疾患を予測する予測部と、前記被験者データの中から前記予測部の予測結果に寄与する被験者データに対応するデータ項目を特定する特定部と、前記特定部で特定したデータ項目と前記脳疾患に関する事前知識とを関連付けて出力する出力部とを備える。
 本発明によれば、脳疾患の予測根拠と事前知識とが関連付けられるので、医師の診断の参考とすることができ、医師の診断を支援することができる。
本実施の形態の診断支援装置の構成の一例を示す図である。 画像処理機能の構成の一例を示す図である。 第1実施形態の画像特徴量算出機能の構成の一例を示す図である。 予測機能の構成の一例を示す図である。 被験者データの構成の一例を示す図である。 寄与度の算出例を示す図である。 事前知識データベースの構成の一例を示す図である。 事前知識の読み出し方法の一例を示す図である。 予測結果表示の第1例を示す図である。 第2実施形態の画像特徴量算出機能の構成の一例を示す図である。 第2実施形態の予測根拠算出機能の構成の一例を示す図である。 予測結果表示の第2例を示す図である。 本実施の形態の診断支援装置の構成の一例を示す図である。 診断支援システムの構成の一例を示す図である。 予測処理の手順を示す図である。 学習済み予測モデルの生成処理の手順を示す図である。 他の予測タスクを示す図である。
(第1実施形態)
 以下、本発明の実施の形態を図面に基づいて説明する。図1は本実施の形態の診断支援装置50の構成の一例を示す図である。診断支援装置50は、ユーザーインタフェース部10、処理部20、及びデータベース部30を備える。ユーザーインタフェース部10は、画像入力機能11、被験者情報入力機能12、及び予測結果表示機能13を備える。処理部20は、画像処理機能21、画像特徴量算出機能22、予測機能23、予測根拠算出機能24、事前知識照合機能25、及び学習処理機能26を備える。データベース部30は、画像特徴量算出用ROI(Region Of Interest)、対照群データベース32、学習済みモデルパラメータ33、事前知識データベース34、及び脳アトラスデータベース35を備える。データベース部30は、診断支援装置50に組み込んでもよいが、診断支援装置50の外部にデータベース部30を設け、診断支援装置50からアクセスするようにしてもよい。診断支援装置50は、脳に関する診断を支援するため、複数種類の予想タスクについて予測結果を出力することができる。以下では、予測タスクの一例として、ADコンバートについて説明する。ADコンバートは、認知機能正常の人、あるいはMCI(Mild cognitive impairment:軽度認知障害)の人が、一定年数後(例えば、1年、2年、3年、5年、10年など)にAD(アルツハイマー病)にコンバートする可能性を予測するものである。
 画像入力機能11は、不図示のMRI(Magnetic Resonance Imaging)装置や画像DBとの間のインタフェース機能を備え、被験者(患者を含む)の脳に関する医用画像を取得(受信)することができる。医用画像は、例えば、MRI画像(MR画像ともいう)であるが、医用画像はMRI画像に限定されない。例えば、PET(Positron Emission Tomography)装置から取得できるPET画像でもよく、SPECT(single photon emission CT)装置から取得できるSPECT画像でもよく、またCT(computed tomography)装置から取得できるCT画像でもよい。MRI画像は、MRI装置で得られるMRI画像(例えば、T1強調画像、T2強調画像、拡散強調画像など)のみならず、MRI信号に所定の演算を施すことによって得られる加工画像も含まれる。以下では、医用画像として、MRI画像を例として説明する。
 被験者情報入力機能12は、被験者情報を入力する機能を備えるとともに、外部の装置から被験者情報を取得(受信)することができる。被験者情報の詳細は後述する。
 予測結果表示機能は、処理部20の予測結果を不図示の表示装置(表示部)に表示する機能を備える。予測結果の詳細は後述する。
 図2は画像処理機能21の構成の一例を示す図である。画像処理機能21は、画像再構成機能211、組織分割機能212、解剖学的標準化機能213、平滑化機能214、及び濃度値補正機能215を備える。なお、画像処理機能21の一部又は全部を省略してもよい。
 画像再構成機能211は、画像入力機能11から取得した被験者のMRI画像に対する画像再構成を行う。画像再構成は、被験者のMRI画像(3次元画像)を、脳全体を含むように所定の厚さのスライス状に撮像した、例えば100~200枚のT1強調画像に変換する。この際、各スライス画像におけるボクセルの各辺の長さが予め等しくなるようにスライス画像のリサンプリングを行う。その後、被験者のMRI画像に対し、標準的な脳画像と空間的な位置合わせを行う。具体的には、被験者のMRI画像に対して、線形変換(アフィン変換)、トリミング等を施し、標準的な脳画像と位置、角度、及びサイズ等を合わせる。これにより、MRI画像の撮影時の被験者の頭の位置のずれ等が画像上で補正され、標準的な脳画像と比較する際の精度を向上させることができる。
 組織分割機能212は、画像再構成がなされたMRI画像から、灰白質(GM)と白質(WM)とを抽出した灰白質脳画像と白質脳画像とを生成する。T1強調画像には、神経線維に対応する高い信号値を呈する白質、神経細胞に対応する中間の信号値を呈する灰白質、低い信号値を呈する脳脊髄液(CSF)の3種類の組織が含まれているため、この信号値の差に着目して灰白質、白質、及び脳脊髄液それぞれ抽出する処理を行う。
 解剖学的標準化機能213は、抽出された灰白質脳画像、白質脳画像及び脳脊髄液画像に対して、解剖学的標準化を行う。解剖学的標準化とは、標準脳画像へのボクセルの位置合わせを行うものである。本実施形態では、DARTEL(diffeomorphic anatomical registration through exponentiated Lie algebra)による解剖学的標準化を実行する。DARTELは、多数のパラメータを用いて非線形の変形を行うためのアルゴリズムである。
 平滑化機能214は、DARTELによる解剖学的標準化を施した灰白質脳画像と白質脳画像とに対して画像平滑化の処理を行って、S/N比の向上を図るものである。このように画像平滑化を行うことにより、解剖学的標準化処理で完全に一致しない個体差を低減させることができる。
 濃度値補正機能215は、健常者の画像群におけるボクセル値の分布と合わせるために、脳全体のボクセル値を補正する濃度値補正を行うものである。濃度値補正された灰白質脳画像、白質脳画像及び脳脊髄液画像は画像特徴量算出機能22へ出力される。
 図3は第1実施形態の画像特徴量算出機能22の構成の一例を示す図である。画像特徴量算出機能22は、萎縮スコア算出機能221、ROI特定機能222、及び萎縮度算出機能223を備える。画像特徴量算出機能22は、萎縮度算出機能223で算出した萎縮度(ROI萎縮度)を画像特徴量として算出する。
 萎縮スコア算出機能221は、対照群データベース32に記録された健常者のMRI画像を参照し、被験者のMRI画像と健常者のMRI画像とを比較し、被験者の脳の萎縮の程度を示す「萎縮スコア」を算出する。本実施形態では、萎縮スコアとして統計的指標である「Zスコア」を用いる。具体的には、画像処理機能21により解剖学的標準化、画像平滑化等を施した被験者の灰白質脳画像及び白質脳画像と、対照群データベース32に記録された、多数の健常者の灰白質及び白質のMRI画像群との統計的比較を行い、MRI画像の全ボクセル又は特定領域のボクセルについて灰白質及び白質のZスコアを算出する。
 Zスコアは、次式によって算出できる。
 Zスコア=(μ(x,y,z)-P(x,y,z))/σ(x,y,z)
 μは健常者のMRI画像群のボクセル値の平均を表し、σは健常者のMRI画像群のボクセル値の標準偏差を表し、Pは被験者のMRI画像のボクセル値を表す。(x,y,z)は、ボクセルの座標値である。Zスコアは、被験者画像のボクセル値と、健常者画像群の対応するボクセル値の平均との差を、標準偏差によってスケーリングした値であり、灰白質及び白質の容積の相対的低下の度合を示すものである。Zスコアを用いることによって、被験者のMRI画像が健常者画像群と比較して、どの部位でどのような変化が起きているかを定量的に分析することができる。例えば、Zスコアが正の値になるボクセルは健常者群の標準脳と比較して萎縮がある領域を示し、さらに値が大きいほど統計的に乖離が大きいと解釈することができる。例えばZスコア「2」であれば平均値から標準偏差の2倍を超えたものということになり約5%の危険率で統計学的有意差があると評価される。なお、萎縮スコアは、Zスコアに限定されるものではない。被験者画像と健常者画像とのボクセル値の大小が判断できる指標を萎縮の程度を示す萎縮スコアとして用いてもよい(例えば、tスコア等)。
 ROI特定機能222は、各疾患に特異的な脳の部位(関心領域:ROI)を特定する。ROI特定機能222は、例えば、統計的処理に基づいて各疾患に関連する関心領域を特定することができる。具体的には、ある疾患に対応する関心領域を特定する場合、その疾患を持つ被験者のMRI画像群(疾患画像群)と、当該疾患を持たない被験者(例えば、健常者)のMRI画像群(非疾患者画像群)とについて、ボクセル単位で2群間の有意差を統計的に検定する2標本t検定を行い、有意差が認められたボクセルを、当該疾患における特徴的なボクセルとみなし、その座標の集合を当該疾患に対応する関心領域として特定する。関心領域は複数あってもよい。また、有意水準と経験則の両方を考慮して関心領域を特定してもよい。また、関心領域の特定は、例えば、疾患画像(または疾患画像群)のみから行ってもよい。例えば、疾患画像(または疾患画像群)について、脳全体における萎縮の大きさに相関して萎縮が大きい部位を関心領域として特定してもよい。
 ROI特定機能222は、画像特徴量算出用ROI31に記録された関心領域を読み出して使用してもよい。また、ROI特定機能222は、脳アトラスデータベース35を参照して、脳を空間的に区分した情報(アトラス)に基づいて関心領域を特定してもよい。脳アトラスの例としては、例えば、AALアトラス(Automated Anatomical Labeling)、Brodmannアトラス、LPBA40アトラス(LONI Probabilistic Brain Atlas)、Talairachアトラスなどを用いることができる。
 萎縮度算出機能223は、ROI特定機能222により特定された関心領域毎に萎縮度を算出する。萎縮度は、例えば、関心領域内の正のZスコアの平均値とすることができる。例えば、関心領域が海馬である場合、海馬内の正のZスコアの平均値を海馬の萎縮度として算出することができる。なお、萎縮度は、関心領域内の「正のZスコアの平均値」に限定されるものではなく、例えば、Zスコアに対する所定の閾値を定め、閾値を超えるZスコアの平均値としてもよく、あるいは、Zスコアの平均値としてもよく、あるいは、Zスコアの最大値としてもよい。また、関心領域内のボクセルの総数に対してZスコアが閾値を超えるボクセルが占める割合を用いてもよい。また、対照群との比較を行わずに、単に関心領域内のボクセル値の総和又は平均を画像特徴量としてもよい。萎縮度算出機能223により算出された脳の部位の萎縮度(画像特徴量)は、予測機能23へ出力される。
 図4は予測機能23の構成の一例を示す図である。予測機能23は、スケーリング機能231、及び学習済み予測モデル232を備える。スケーリング機能231は、被験者の脳に関する被験者データを取得する取得部としての機能を有する。被験者データは、画像特徴量、及び被験者情報を含む。以下、被験者データについて説明する。
 図5は被験者データの構成の一例を示す図である。被験者データは、単位や属性が異なるデータの集合であり、大分類として、画像特徴量、画像撮像パラメータ、及び被験者情報の3つに分類することができる。画像特徴量は、さらに、画像特徴量算出機能22により算出される、脳の部位の萎縮度、及び後述の特徴ベクトルに分類することができる。特徴ベクトルの詳細は後述する。
 被験者データは、1時点における被験者データだけでなく、複数時点における被験者データも含まれる。例えば、第1例として、現時点の被験者データと6か月前の被験者データとの2時点における被験者データを予測機能23に入力して、予測を行うことができる。第2例として、現時点、6か月前、及び1年前の3時点における被験者データを予測機能23に入力して、予測を行うことができる。第3例として、現時点の被験者データと、現時点より期間Δtだけ以前の被験者データと、当該期間Δtとを予測機能23に入力して、予測を行うことができる。
 画像撮像パラメータは、例えば、MRI装置の機種情報、撮像プロトコル(例えば、磁場強度、シーケンス種類、撮像パラメータなど)を含む。
 被験者情報は、さらに、神経心理学的検査情報、臨床情報、及び生化学検査情報に分類することができる。
 神経心理学的検査情報は、例えば、ADAS-cog(アルツハイマー病評価尺度)、MMSE(Mini-Mental State Examination:簡易知的機能検査)、CDR(Clinical Dementia Rating:臨床認知症評価法)、FAQ(Functional Activity Questionnaire:機能評価質問紙法)、GDS(Geriatric Depression Scale:老年期うつ尺度)、神経心理バッテリー(例えば、論理記憶IA直後再生、論理記憶IIA遅延再生、WAIS-III、時計描画/時計模写、言語流暢性課題、Trail Making Test A&B、ボストン呼称テストなどのいくつかの検査を組み合わせたバッテリー)などを含む。MMSEは、認知症の重症度を検査することができ、30点中24点以下の得点をとった被験者は認知症の疑いがあると判定され、0~10点の場合は、重度の認知症と判定される。CDRは、0点の場合には健常者と判定され、0.5点の場合には認知症の疑いがあると判定され、1点の場合には経度認知症、2点の場合には中等度認知症、3点の場合には高度認知症と判定される。GDSは、0点から15点で評価され、6点以上の場合、「うつ」の疑いがある。ADAS-cogは、0点~70点で評価され、点数が高いほど認知症の程度が重度である。神経心理バッテリーは、被験者の認知症の状況等に応じて組み合わせる検査を適宜変更することができる。
 臨床情報は、例えば、被験者の年齢、性別、身長、体重、BMI、教育年数、病歴(糖尿病などの有無)、家族歴、家族の認知症有無、バイタルサイン(血圧、脈拍、体温等)などを含む。
 生化学検査情報は、血液検査結果、脳脊髄液検査結果(CSF-TAU(T-TAU、P-TAUを含む)、CSF-Aβ)、ApoE遺伝子型などを含む。
 スケーリング機能231は、神経心理学的検査情報、臨床情報、及び生化学検査情報の少なくとも1つを取得することができる。例えば、臨床情報だけを取得してもよく、あるいは、神経心理学的検査情報又は生化学検査情報を取得してもよい。また、取得する神経心理学的検査情報、臨床情報、及び生化学検査情報それぞれは、上述の項目の一部だけでもよい。
 スケーリング機能231は、画像特徴量(この場合、画像撮像パラメータも含む)、及び被験者情報が単位や属性が異なるためスケーリングを行い均一化する。スケーリング方法としては、例えば、標準化又は正規化などを含む。標準化は、平均を0、分散を1とするスケーリング法である。スケーリング後の値x′は、x′=(x-μ)/σという式で計算できる。ここで、xはスケーリング前の値を示し、μは平均を示し、σは標準偏差を示す。
 正規化は、最小値を0、最大値を1とするスケーリング法である。スケーリング後の値x′は、x′=(x-xmin )/(xmax -xmin )という式で計算できる。ここで、xはスケーリング前の値を示し、xmax はxのとりうる最大値を示し、xmin はxのとりうる最小値を示す。スケーリング機能231は、スケーリング後の被験者データX=(x1,x2,…,xn)を学習済み予測モデル232へ出力する。
 学習済み予測モデル232は、予測部としての機能を有し、被験者データに基づいて当該被験者の脳疾患を予測する。学習済み予測モデル232の予測モデルをf(X,θ)で表す。学習済み予測モデル232は、被験者1人分の被験者データX=(x1,x2,…,xn)が入力されると、予測結果y、及び確率推定値pを出力する。予測結果yは、一定年数後(予測期間:T年)における被験者のADコンバートの有無である。学習済み予測モデル232は、ADコンバートの有無を予測する2値分類識別を行う。例えば、y=1の場合、T年後(T年以内)のADコンバート有とし、y=0の場合、T年後(T年以内)のADコンバート無とすることができる。確率推定値pは、例えば、y=1の場合、ADコンバート有の確率を示し、y=0の場合、ADコンバート無の確率を示す。確率推定値pは、0~1の範囲の値となる。なお、予測期間T毎に学習済み予測モデル232を設けてもよく、1つの学習済み予測モデル232で複数の予測期間TでのADコンバートの有無を予測してもよい。
 なお、図4の例では、被験者データとして、画像特徴量、及び被験者情報の両方を用いる構成であるが、これに限定されるものではなく、被験者データとして画像特徴量だけを用いてもよい。この場合、被験者情報は必須ではない。
 学習済み予測モデル232は、2値分類識別を行う予測モデルであればよく、例えば、ランダムフォレスト、SVM(Support Vector Machine)、アダブースト、勾配ブースティング、ロジスティック回帰、決定木、ニューラルネットワーク、ディープラーニング、これらのモデルの複数アンサンブルなどの機械学習モデルを使用することができる。
 次に、学習済み予測モデル232の生成方法について説明する。学習用データセットは多数の症例データによって構成される。被験者のスケーリング済み被験者データをX′=(x′1,x′2,…x′n)とし、当該被験者の経過観察を行って、T年後のADコンバートの有無をy′とする。ここで、y′=1はADコンバート有を示し、y′=0はADコンバート無を示すとする。
 学習処理機能26は、多数の被験者の被験者データX′、及び当該被験者のT年後のADコンバートの有無y′を学習用データセットとし、X′を説明変数とし、y′を目的変数として、y′=f(X′,θ)となるモデルパラメータθを推定する。これにより、学習済み予測モデル232の生成することができる。生成した学習済み予測モデル232は、学習済みモデルパラメータ33に記憶することができる。
 予測根拠算出機能24は、寄与度算出部としての機能を有し、学習済み予測モデル232の予測結果に寄与する被験者データの寄与度を算出する。例えば、被験者データX=(x1,x2,x3,…,xn)を学習済み予測モデル232に入力した場合の予測結果をyとする。予測根拠算出機能24は、予測結果yについて、被験者データX=(x1,x2,x3,…,xn)を予測根拠とする寄与度C=(c1,c2,c3,…,cn)を算出する。例えば、寄与度c1は、被験者データx1を予測根拠とする寄与度である。
 寄与度の算出は、例えば、SHAP(Shapley Additive exPlanations)技術、LIME(Local Interpretable Model-agnostic Explanations)技術、Explainable Boosting Machine技術などを用いることができる。SHAP技術は、説明したいデータの予測確率について平均からの増減分を、そのデータの各変数により影響力で按分する手法である。LIME技術は、学習済みモデルを、局所的に単純なモデル(説明したいデータとその周辺のみに適用できるモデル)で近似し、その近似モデルの係数を寄与度として算出する手法である。Explainable Boosting Machine技術は、GAM(Generated additive model)と勾配ブースティングの手法を組み合わせて勾配ブースティングの精度とGAMの解釈性を両立させる手法である。以下では、SHAP技術について説明する。
 以下では、便宜上、被験者データとして、x1、x2、x3の3つのデータを考える。SHAP技術では、限界貢献度という概念を導入する。限界貢献度とは、例えば、被験者データx1の場合、被験者データx1が学習済み予測モデル232に入力された場合に、予測結果yがどの程度増えるのかを示す。また、被験者データx1が学習済み予測モデル232に入力される場合、既に、いずれの被験者データx2、x3が入力されているか否かに応じて予測結果yが変化する。被験者データが3つある場合、被験者データx1、x2、x3の入力順序(追加順序)は、6通り存在する。被験者データx1の寄与度c1は、すべての順番に関して限界貢献度を算出し、その平均値として算出することができる。
 図6は寄与度の算出例を示す図である。被験者データx1、x2、x3の追加順序は、x1→x2→x3、x1→x3→x2、x2→x1→x3、x2→x3→x1、x3→x1→x2、x3→x2→x1の6通り存在する。各追加順序でのx1の限界貢献度をφ11~φ16とすると、x1の寄与度c1は、φ11~φ16の平均値で算出できる。また、各追加順序でのx2の限界貢献度をφ21~φ26とすると、x2の寄与度c2は、φ21~φ26の平均値で算出でき、各追加順序でのx3の限界貢献度をφ31~φ36とすると、x3の寄与度c3は、φ31~φ36の平均値で算出できる。
 事前知識照合機能25は、予測根拠と事前知識データベース34とを照合する。
 図7は事前知識データベース34の構成の一例を示す図である。図7に示す事前知識データベース34は、予測タスクがADコンバートに対応するものであり、他の予測タスクについても同様の事前知識データベース34を構築しておくことができる。図7に示すように、事前知識データベース34には、データ項目ごとに事前知識(解説文)を登録してあり、事前知識の強さ(エビデンスとしての信頼度)が対応付けられている。事前知識の強さは、例えば、「高」、「中」、「低」の如く分類できるが、これに限定されるものではなく、数値などで表してもよい。さらに、事前知識に関する詳細解説の参照先のURL等が対応付けられている。データ項目としては、ADコンバートに関連がある項目が挙げられており、例えば、海馬萎縮度、全脳萎縮度、側頭葉内側萎縮度、アミロイドPET、MMSE、CDR、論理的記憶、GDS、教育年数、…などが挙げられている。なお、データ項目は、図7の例に限定されるものではない。
 図7に示すように、データ項目が「海馬萎縮度」に対しては、事前知識として「海馬の萎縮はリスクを高める強いエビデンスがあります」との解説文が対応付けられている。この場合、知識の強さは「高」である。また、データ項目が「MMSE」に対しては、事前知識として「MMSEの低下はリスクを高める強いエビデンスがあります」との解説文が対応付けられている。この場合、知識の強さは「高」である。また、データ項目が「論理的記憶」に対しては、事前知識として「論理的記憶はリスクを高めるエビデンスがあります」との解説文が対応付けられている。この場合、知識の強さは「中」である。
 事前知識照合機能25は、特定部としての機能を有し、事前知識データベース34を参照して、被験者データの中から学習済み予測モデル232の予測結果に寄与する被験者データに対応するデータ項目を特定する。被験者データX=(x1,x2,x3,…,xn)とすると、各データx1,x2,x3,…,xnの項目がデータ項目であり、各データの値がデータ項目の値となる。例えば、データx1の項目が「海馬萎縮度」とすると、データ項目の値は、海馬萎縮度の値となる。
 より具体的には、事前知識照合機能25は、事前知識照合機能25で算出した寄与度及び所定の寄与度閾値に基づいて被験者データに対応するデータ項目を特定し、特定したデータ項目に対応する事前知識を事前知識データベース34から読み出すことができる。
 図8は事前知識の読み出し方法の一例を示す図である。被験者データ(データ項目)をx1,x2,…,xi,…,xnとし、各被験者データの寄与度をc1,c2,…,ci,…,cnとする。各寄与度の閾値をTh1,Th2,…,Thi,…,Thnとする。なお、各寄与度の閾値Th1,Th2,…,Thi,…,Thnは同一値でもよい。図8に示すように、C1>Th1であれば、事前知識データベース34から被験者データx1に対応する事前知識を読み出す。また、C2<Th2であれば、被験者データx2に対応する事前知識を読み出さない。以下、同様である。このようにして、事前知識照合機能25は、被験者データx1,x2,…,xi,…,xnの中から寄与度が閾値より大きい被験者データに対応する事前知識を選定することができる。
 上述の構成により、予測機能23による予測結果について、予測根拠と、従来から知られている事前知識との関係(対応付け)が示され、医師などのユーザは、既知のエビデンスがどれだけ予測結果を支持するかを知ることができる。例えば、予測根拠(予測理由)が既知のエビデンスと多く合致していれば、予測根拠の信頼性は高いと判断できる。
 事前知識照合機能25は、出力部としての機能を有し、特定したデータ項目と脳疾患に関する事前知識とを関連付けてユーザーインタフェース部10に出力することができる。事前知識照合機能25は、特定したデータ項目に対応する被験者データを出力することができる。また、事前知識照合機能25は、特定したデータ項目と事前知識との一致度(関連度合い)を出力してもよい。一致度は、予測根拠(予測理由)がどの程度事前知識と一致しているかを示す。
 事前知識照合機能25は、関連度合算出部としての機能を有し、データ項目に対応する被験者データの寄与度、及び事前知識のエビデンスとしての強さ(信頼度)の少なくとも一方に基づいて一致度(関連度合い)を算出することができる。例えば、寄与度をC、事前知識の強さをSとすると、一致度Eは、E=α・C+β・Sという式で算出できる。α、βは重み付け係数で、0であってもよい。ただし、α+β≠0である。一致度は、Eの値によって、例えば、「高」、「中」、「低」の3つに分類してもよい。
 予測結果表示機能13は、特定したデータ項目と脳疾患に関する事前知識とが関連付けられた予測結果を表示することができる。なお、予測結果には、事前知識照合機能25が出力する情報を含めることができる。
 図9は予測結果表示の第1例を示す図である。「アルツハイマー型認知症コンバート予測結果」は、ある被験者(患者)の被験者データを予測機能23が解析して予測した、ある年数後にアルツハイマー型認知症にコンバートする確率を示す。図9の例では、2年後、及び5年後の両方のコンバート率が表示されているが、いずれか一方のコンバート率でもよく、また、1年、3年などの予測期間であってもよい。コンバート率は、学習済み予測モデル232が出力する確率推定値pを表す。
 「予測理由」は、予測機能23が予測に至った、被験者データの根拠を示す。「項目」は被験者データのデータ項目であり、「計測値」は、データ項目の値であり、「予測への寄与」は、寄与度であり、被験者データの各項目が予測に対して、どの程度寄与しているかを表す。「既知のエビデンス」は、事前知識としての「解説」が表示され、当該「解説」は「予測理由」と関連付けられている。「一致度」は、「予測理由」がどの程度事前知識と一致しているかを示す。「一致度」は、例えば、「高」、「中」、「低」の如く表すことができるが、これに限定されるものではなく、数値で表してもよい。「詳細」には、詳細解説を表示するための矢印のアイコンが設けられ、当該アイコンを操作することにより、解説に関する、さらに詳しい情報を表示することができる。
 予測結果表示機能13は、表示部としての機能を有し、データ項目に対応する予測への寄与(被験者データの予測結果に寄与する寄与度)の順に、データ項目、計測値(被験者データの値)、及び当該データ項目に対応する事前知識を関連付けて表示することができる。図9の例では、寄与度が5,4,3.6,2.2,2,…の順番に各情報が表示されている。これにより、医師などのユーザは、予測結果に寄与する順序で予測理由を視認することができ、重要な予測理由と既知のエビデンスを容易に読み取ることができる。また、図9の例では、「海馬萎縮度」の計測値の大きさが、予測結果について陽性側に作用する最大の影響要素であることが読み取れるとともに、「側頭葉萎縮度」の計測値が小さいので、予測結果について陰性側(ADコンバートに寄与しない方向)に作用する要素であることが読み取れる。
 図9に示すような予測結果を表示することにより、医師は、診断支援装置50の予測結果について、既知のエビデンスがどれだけ予測結果を支持するかを知ることができる。診断支援装置50の予測根拠(予測理由)が、既知のエビデンスと多く合致していれば、予測根拠の信頼性が高いことが分かる。
 また、既知のエビデンスとの合致性が低い場合は、診断支援装置50が新しいエビデンスの仮説を示しているとも解釈することができるが、学習データの偏りなどによって生じた結果である可能性もある。そこで、予測根拠が、常識や理屈に反するものであれば、予測結果のみで判断せずに、さらに信頼性を向上させるため、より詳細な追加の検査を実施するようにしてもよい。
 上述のように、本実施の形態によれば、脳疾患の予測根拠と事前知識とが関連付けられるので、医師の診断の参考とすることができ、医師の診断を支援することができる。
(第2実施形態)
 前述の第1実施形態では、画像特徴量として、ROI萎縮度を用いる構成であったが、画像特徴量はROI萎縮度に限定されない。第2実施形態では、画像特徴量として特徴ベクトルを用いる構成について説明する。
 図10は第2実施形態の画像特徴量算出機能22の構成の一例を示す図である。第2実施形態では、画像特徴量算出機能22は、CNN(Convolutional Neural Network)で構成することができ、入力層22a、複数(例えば、17層など)の畳み込み層22b、プーリング層22c、全結合層22d、22e、及び出力層22fを備える。なお、CNNの構成は一例であって、図10の例に限定されるものではない。例えば、VGG16、ResNet、DenseNet、EfficientNet、AttResNetなどを用いてもよい。入力層22aには、画像処理機能21から標準化済み灰白質画像が入力される。すなわち、組織分割結果である灰白質(GM)、白質(WM)、及び脳脊髄液(CSF)のうち、灰白質画像について解剖学的標準化を行った画像が入力層22aに入力される。出力層22fは、予測結果である、ADコンバートの有無を出力する。出力層22fの予測結果は、後述の予測根拠算出処理で使用する。
 画像特徴量算出機能22は、出力層22fの直前の全結合層22eの各ノードの値を要素とする特徴ベクトルを画像特徴量として算出する。全結合層22eのノード数がNであれば、N個の画像特徴量を得ることができる。画像特徴量算出機能22は、算出した特徴ベクトルを予測機能23へ出力する。
 予測機能23は、画像特徴量算出機能22が出力した特徴ベクトルを画像特徴量として取得し、第1実施形態の場合と同様の処理を行う。
 CNNの学習済みモデルを生成するには、学習用データセットを用い、CNNによる予測結果(ADコンバートの有無)の予測誤差(例えば、交差エントロピー誤差など)を最小化するようにCNNのパラメータを更新すればよい。CNNの学習済みモデルの生成は、学習処理機能26により行うことができる。
 図11は第2実施形態の予測根拠算出機能24の構成の一例を示す図である。予測根拠算出機能24は、勾配演算機能241、重み付け演算機能242、加算器243、及びReLU244を備える。画像特徴量算出機能22(CNN)の畳み込み層22bの出力の特徴マップをA1、A2、A3、…、Akとする。kはチャネルの数を示す。畳み込み演算でk個のフィルタを用いることにより、kチャネルの特徴マップが生成される。特徴マップは、例えば、畳み込み層の最終層であって、全結合層の入力側のものを使用することができる。全結合層では画像の位置情報が喪失し、畳み込み層の最終層では画像の特徴を良く抽象化できているからである。なお、最終層に限定されるものではなく、任意の畳み込み層でもよい。
 特徴マップA1、A2、A3、…、Akが、出力層22fからの予測結果に対してどれくらい影響を与えているかを、勾配を用いて演算する。勾配演算機能241は、特徴マップA1、A2、A3、…、Akそれぞれの勾配をα1、α2、α3、…、αkを算出する。勾配演算は、特徴マップの各要素が微小に変化したときに、予測結果がどの程度変化するかを計算し、当該特徴マップ内で平滑化する演算である。
 次に、勾配演算結果を用いて、特徴マップの重要度を算出する。具体的には、重み付け演算機能242は、特徴マップA1、A2、A3、…、Akそれぞれに勾配α1、α2、α3、…、αkの各グローバルアベレージプーリング値(画像である各勾配の平均値であるM1、M2、M3、…、Mk)を乗算して重み付け演算を行う。それぞれ重み付け演算された特徴マップα1・A1、α2・A2、α3・A3、…、αk・Akを加算器243で加算してReLU(活性化関数)244に通すことによって、ヒートマップを生成することができる。ヒートマップは、予測根拠として、畳み込み層22bにより抽出された特徴マップに着目し、画像のどの部分を判断根拠としたかを画像化し、可視化するものである。ヒートマップの画像サイズを入力された、標準化済み灰白質画像の大きさにスケーリングし、標準化済み灰白質画像にヒートマップを重畳することで、予測根拠を可視化することができる。
 ヒートマップは、座標位置(x、y)それぞれに対応して、予測結果に対する根拠(影響度)を数値(ヒートマップ値とも称する)で示す3次元のヒートマップ情報を有する。ヒートマップ情報が示す特徴部分は、ヒートマップ値の大小に応じて特徴の高低を表すことができる。判断根拠の軽重に応じて表示態様(例えば、色又は濃度など)を変えることができる。可視化の方法としては、図11で説明した、Grad-CAMの他に、Guided Grad-CAM、GuidedBackprop技術などを用いてもよい。GuidedBackprop技術は、あるデータの値を微小変化させたときの変化量が大きいほど寄与度が高いとみなす、勾配ベースのハイライト法の一種である。
 図12は予測結果表示の第2例を示す図である。図9に示す第1例との相違点は、画像領域(予測根拠を示す画像領域)、及び画像領域と対応する脳アトラスの名称を表示している点である。画像領域の各画像は、ヒートマップ値を所定の閾値でクラスタリング処理して領域分割をしたもの(領域1~領域3)を、標準脳画像上にオーバーレイして表示したものである。また、領域1~領域3の座標をもとに、対応する座標のアトラスの名称を表示している。図12の例では、領域1~3は、それぞれ「海馬、海馬傍回」、「海馬、舌状回」、「楔前部、鳥距溝」となっている。
 このように、医師は、具体的に脳の中で、どの領域が予測に強く影響したかを画像上で見ることができるだけでなく、アトラスに座標を対応付けることで、アトラスに紐付いたエビデンスの有無を確認することができる。
 図13は本実施の形態の診断支援装置80の構成の一例を示す図である。診断支援装置80は、例えば、パーソナルコンピュータ等を用いることができる。診断支援装置80は、例えば、処理部20を含むことができ、CPU81、ROM82、RAM83、GPU84、ビデオメモリ85、及び記録媒体読取部86などで構成することができる。記録媒体90(例えば、CD-ROM等の光学可読ディスク記憶媒体)に記録されたコンピュータプログラム(プログラム製品)を記録媒体読取部86(例えば、光学ディスクドライブ)で読み取ってRAM83に格納することができる。ここで、コンピュータプログラムは、後述の図15及び図16に記載された処理手順を含む。コンピュータプログラムを、ハードディスク(図示しない)に格納しコンピュータプログラム実行時にRAM83に格納してもよい。
 RAM83に格納されたコンピュータプログラムをCPU81で実行させることにより、画像処理機能21、画像特徴量算出機能22、予測機能23、予測根拠算出機能24、事前知識照合機能25、及び学習処理機能26における各処理を実行することができる。ビデオメモリ85は、各種画像処理のためのデータや処理結果などを一時的に格納することができる。また、コンピュータプログラムは、記録媒体読取部86で読み取る構成に代えて、インターネットなどのネットワークを介して他のコンピュータまたはネットワークデバイス等からダウンロードすることもできる。
 上述の例では、診断支援装置50は、ユーザーインタフェース部10、処理部20、及びデータベース部30を備える構成であったが、これに限定されるものではない。例えば、ユーザーインタフェース部10、処理部20、及びデータベース部30を以下のように分散させることもできる。
 図14は診断支援システムの構成の一例を示す図である。診断支援システムは、端末装置100、診断支援サーバ200、及びデータサーバ300を備える。端末装置100、診断支援サーバ200、及びデータサーバ300は、インターネットなどの通信ネットワーク1を介して接続される。端末装置100はユーザーインタフェース部10に相当し、パーソナルコンピュータ等で構成される。診断支援サーバ200は処理部20に相当し、データサーバ300はデータベース部30に相当する。端末装置100、診断支援サーバ200、及びデータサーバ300それぞれの機能は、ユーザーインタフェース部10、処理部20、及びデータベース部30の機能と同様であるので説明は省略する。
 次に、診断支援装置50の処理について説明する。
 図15は予測処理の手順を示す図である。処理部20は、被験者の医用画像を取得し(S11)、当該被験者の被験者情報を取得する(S12)。処理部20は、取得した医用画像に対して画像再構成を行い(S13)、組織分割を行う(S14)。組織分割は、例えば、灰白質、白質、及び脳脊髄液に分けて抽出する処理である。
 処理部20は、組織分割した組織毎に解剖学的標準化を行い(S15)、解剖学的標準化済みの医用画像から画像特徴量を算出する(S16)。画像特徴量は、例えば、ROI萎縮度でもよく、特徴ベクトルでもよい。
 処理部20は、画像特徴量と被験者情報とをスケーリングし(S17)、スケーリングした被験者データを予測機能23に入力して、予測結果算出処理を行う(S18)。処理部20は、予測根拠算出処理を行う(S19)。予測根拠算出処理は、予測結果に対して各被験者データの寄与度を算出する処理を含む。
 処理部20は、算出した寄与度に基づいて、事前知識との照合を行う(S20)。事前知識との照合は、算出した寄与度及び所定の寄与度閾値に基づいて被験者データに対応するデータ項目を特定し、特定したデータ項目に対応する事前知識を事前知識データベース34から読み出す。
 処理部20は、予測結果を出力し(S21)、処理を終了する。予測結果は、前述の図9又は図12に例示したものである。
 上述のように、コンピュータプログラムは、コンピュータに、被験者の脳に関する被験者データを取得し、当該被験者データに基づいて被験者の脳疾患を予測し、当該被験者データの中から脳疾患の予測結果に寄与する被験者データに対応するデータ項目を特定し、特定したデータ項目と脳疾患に関する事前知識とを関連付けて出力する、処理を実行させる。
 図16は学習済み予測モデル232の生成処理の手順を示す図である。処理部20は、多数の症例データから被験者の医用画像を取得し(S31)、当該被験者の被験者情報を取得する(S32)。処理部20は、当該被験者の経過観察によって収集した教師データを取得する(S33)。教師データは、例えば、当該被験者がADコンバートしたか否かを示すデータである。
 処理部20は、取得した医用画像に対して画像再構成を行い(S34)、組織分割を行う(S35)。組織分割は、例えば、灰白質、白質、及び脳脊髄液に分けて抽出する処理である。処理部20は、組織分割した組織毎に解剖学的標準化を行い(S36)、解剖学的標準化済みの医用画像から画像特徴量を算出する(S37)。画像特徴量は、例えば、ROI萎縮度でもよく、特徴ベクトルでもよい。
 処理部20は、他の学習用データの有無を判定し(S38)、学習用データがある場合(S38でYES)、ステップS31以降の処理を繰り返す。学習用データがない場合(S38でNO)、処理部20は、画像特徴量と被験者情報とをスケーリングする(S39)。処理部20は、学習用の被験者データを学習モデルに入力した場合、学習モデルが出力するデータが教師データに近づくように、学習モデルの内部パラメータを更新する(S40)。
 処理部20は、学習モデルが出力するデータと教師データとの誤差を表す損失関数の値が許容範囲内であるか否かを判定し(S41)、損失関数の値が許容範囲内でない場合(S41でNO)、ステップS40以降の処理を繰り返す。損失関数の値が許容範囲内である場合(S41でYES)、処理部20は、生成した学習済み予測モデル232を学習済みモデルパラメータ33に記憶し(S42)、処理を終了する。
 上述の実施の形態では、予測タスクとして、ADコンバート予測について説明したが、本実施の形態は、他の予測タスクにも適用することは可能である。以下では、他の予測タスクについて説明する。
 図17は他の予測タスクを示す図である。他の予測タスクとしては、例えば、ADコンバート期間予測、アミロイドβ沈着予測、AD/DLB疾患鑑別、AD重症度予測、タウ異常予測、及び脳年齢予測などを挙げることができる。以下、それぞれの予測タスクに関して、概要、評価方法、目的変数、その他について説明する。
 ADコンバート期間予測は、将来ADにコンバートするまでの期間を数値として予測する。被験者がADにコンバートする可能性のある時期を知ることで、今後の生活習慣の見直しや長期的な治療計画などを立てるのに役立てることができる。評価は回帰であり、目的変数はADコンバートするまでの期間の長さである。
 アミロイドβ沈着予測は、アミロイドβ(Aβ)以外の検査結果(例えば、MRI画像及び被験者情報など)からアミロイドβの沈着を予測する。例えば、被験者の脳のアミロイドβの分布状態を推定することにより、アミロイドβに関連する疾患の兆候を推定できる。アミロイドβに関連する疾患は、例えば、軽度認知障害(MCI:Mild cognitive impairment)、アルツハイマー病による軽度認知障害、前駆期アルツハイマー病、アルツハイマー病の発症前段階/プレクリニカルAD、パーキンソン病、多発性硬化症、認知機能の低下、認知機能障害、アミロイド陽性/陰性に係る疾患などの神経変性疾患を含む。評価方法は、2値分類であり、目的変数は、アミロイドβの陽性又は陰性である。学習時の教師データは、アミロイドPET(画像検査)及び脳脊髄液検査の両方の結果から閾値で決定することができる。予測結果1としては、アミロイドβの陽性又は陰性であり、予測結果2としては、陽性確率とすることができる。
 AD/DLB疾患鑑別は、アルツハイマー型認知症(AD)かレビー小体型認知症(DLB)のいずれであるかを予測する。DLBは、ADと脳萎縮の傾向が一部似ているが、治療方法が異なるため、鑑別を行うことが重要である。評価方法は、2値分類であり、目的変数は、AD又はDLBである。予測結果1としては、AD又はDLBであり、予測結果2としては、AD確率及びDLB確率とすることができる。
 AD重症度予測は、脳画像のみからアルツハイマーの重症度(軽度、中等度、及び高度)を予測する。脳画像と臨床の進行度合いの差を調べて治療に役立てることができる。評価方法は、数値的に予測する回帰である。目的変数は、CDR(臨床認知症評価法)である。CDRが0の場合は健常であり、CDRが0.5の場合は認知症の疑いがあり、CDRが1の場合は軽度認知症であり、CDRが2の場合は中等度認知症であり、CDRが3の場合は高度認知症である。説明変数は脳画像の画像特徴量である。
 タウ異常予測は、タウPET以外の情報からタウ沈着の異常を予測する。タウ(Tau)は、中枢神経系や末梢神経系の神経細胞などに発現するタンパク質であり、タウ異常は、アルツハイマー病などの神経変性疾患の原因となると考えられている。評価方法は回帰であり、目的変数は、タウPET SUVR(Standardized uptake value Ratio)である。SUVRの一例としては、大脳灰白質の4つの部位(前頭前野、前後帯状皮質、頭頂葉、及び外側側頭葉)のSUV(タウの集積度)の合算を、特定の参照領域(例えば、小脳など)のSUVで除算することにより求めることができる。
 脳年齢予測は、脳画像から「脳の年齢」を予測する。健康な人でも、自分の脳の状態(脳年齢)を知ることで、生活習慣の見直しなど、健康チェックに役立てることができる。評価方法は回帰であり、目的変数は年齢である。学習時の教師データは、脳画像を撮像した時点での実年齢とすることができる。説明変数は、脳画像の画像特徴量である。
 本実施の形態によれば、予測タスクの予測結果を示す根拠とした要因の重要度を可視化して提示できるので、医師が脳疾患などの診断の参考とすることができ、医師の診断を支援することができる。
 本実施の形態の診断支援装置は、被験者の脳に関する被験者データを取得する取得部と、前記被験者データに基づいて前記被験者の脳疾患を予測する予測部と、前記被験者データの中から前記予測部の予測結果に寄与する被験者データに対応するデータ項目を特定する特定部と、前記特定部で特定したデータ項目と前記脳疾患に関する事前知識とを関連付けて出力する出力部とを備える。
 本実施の形態の診断支援装置において、前記取得部は、前記被験者の脳に関する医用画像に基づいて算出された画像特徴量を前記被験者データとして取得する。
 本実施の形態の診断支援装置において、前記画像特徴量は、脳の部位の萎縮度を含む。
 本実施の形態の診断支援装置において、前記取得部は、前記被験者の脳に関連する検査情報及び臨床情報の少なくとも一方を含む被験者情報を前記被験者データとして取得する。
 本実施の形態の診断支援装置は、脳に関するデータ項目に対応付けて脳疾患に関する既知のエビデンスとしての事前知識を記憶する記憶部と、前記予測結果に寄与する被験者データの寄与度を算出する寄与度算出部とを備え、前記特定部は、前記寄与度及び所定の寄与度閾値に基づいて前記被験者データに対応するデータ項目を特定し、前記出力部は、特定したデータ項目に対応する事前知識を前記記憶部から読み出して出力する。
 本実施の形態の診断支援装置において、前記出力部は、前記データ項目と前記事前知識との関連度合いを出力する。
 本実施の形態の診断支援装置は、前記データ項目に対応する被験者データの寄与度、及び前記事前知識のエビデンスとしての信頼度の少なくとも一方に基づいて前記関連度合いを算出する関連度合算出部を備える。
 本実施の形態の診断支援装置において、前記出力部は、前記データ項目に対応する被験者データを出力する。
 本実施の形態の診断支援装置は、前記データ項目に対応する被験者データの前記予測結果に寄与する寄与度の順に、前記データ項目、前記被験者データ、及び前記データ項目に対応する事前知識を関連付けて表示する表示部を備える。
 本実施の形態のコンピュータプログラムは、コンピュータに、被験者の脳に関する被験者データを取得し、前記被験者データに基づいて前記被験者の脳疾患を予測し、前記被験者データの中から前記脳疾患の予測結果に寄与する被験者データに対応するデータ項目を特定し、特定したデータ項目と前記脳疾患に関する事前知識とを関連付けて出力する、処理を実行させる。
 本実施の形態の診断支援方法は、被験者の脳に関する被験者データを取得し、前記被験者データに基づいて前記被験者の脳疾患を予測し、前記被験者データの中から前記脳疾患の予測結果に寄与する被験者データに対応するデータ項目を特定し、特定したデータ項目と前記脳疾患に関する事前知識とを関連付けて出力する。
 1 通信ネットワーク
 10 ユーザーインタフェース部
 11 画像入力機能
 12 被験者情報入力機能
 13 予測結果表示機能
 20 処理部
 21 画像処理機能
 211 画像再構成機能
 212 組織分割機能
 213 解剖学的標準化機能
 214 平滑化機能
 215 濃度値補正機能
 22 画像特徴量算出機能
 221 萎縮スコア算出機能
 222 ROI特定機能
 223 萎縮度算出機能
 22a 入力層
 22b 畳み込み層
 22c プーリング層
 22d、22e 全結合層
 22f 出力層
 23 予測機能
 231 スケーリング機能
 232 学習済み予測モデル
 24 予測根拠算出機能
 241 勾配演算機能
 242 重み付け演算機能
 243 加算器
 244 ReLU
 25 事前知識照合機能
 26 学習処理機能
 30 データベース部
 31 画像特徴量算出用ROI
 32 対照群データベース
 33 学習済みモデルパラメータ
 34 事前知識データベース
 35 脳アトラスデータベース
 80 診断支援装置
 81 CPU
 82 ROM
 83 RAM
 84 GPU
 85 ビデオメモリ
 86 記録媒体読取部
 90 記録媒体
 100 端末装置
 200 診断支援サーバ
 300 データサーバ
 

Claims (11)

  1.  被験者の脳に関する被験者データを取得する取得部と、
     前記被験者データに基づいて前記被験者の脳疾患を予測する予測部と、
     前記被験者データの中から前記予測部の予測結果に寄与する被験者データに対応するデータ項目を特定する特定部と、
     前記特定部で特定したデータ項目と前記脳疾患に関する事前知識とを関連付けて出力する出力部と
     を備える、
     診断支援装置。
  2.  前記取得部は、
     前記被験者の脳に関する医用画像に基づいて算出された画像特徴量を前記被験者データとして取得する、
     請求項1に記載の診断支援装置。
  3.  前記画像特徴量は、脳の部位の萎縮度を含む、
     請求項2に記載の診断支援装置。
  4.  前記取得部は、
     前記被験者の脳に関連する検査情報及び臨床情報の少なくとも一方を含む被験者情報を前記被験者データとして取得する、
     請求項1から請求項3のいずれか一項に記載の診断支援装置。
  5.  脳に関するデータ項目に対応付けて脳疾患に関する既知のエビデンスとしての事前知識を記憶する記憶部と、
     前記予測結果に寄与する被験者データの寄与度を算出する寄与度算出部と
     を備え、
     前記特定部は、
     前記寄与度及び所定の寄与度閾値に基づいて前記被験者データに対応するデータ項目を特定し、
     前記出力部は、
     特定したデータ項目に対応する事前知識を前記記憶部から読み出して出力する、
     請求項1から請求項4のいずれか一項に記載の診断支援装置。
  6.  前記出力部は、
     前記データ項目と前記事前知識との関連度合いを出力する、
     請求項1から請求項5のいずれか一項に記載の診断支援装置。
  7.  前記データ項目に対応する被験者データの寄与度、及び前記事前知識のエビデンスとしての信頼度の少なくとも一方に基づいて前記関連度合いを算出する関連度合算出部を備える、
     請求項6に記載の診断支援装置。
  8.  前記出力部は、
     前記データ項目に対応する被験者データを出力する、
     請求項1から請求項7のいずれか一項に記載の診断支援装置。
  9.  前記データ項目に対応する被験者データの前記予測結果に寄与する寄与度の順に、前記データ項目、前記被験者データ、及び前記データ項目に対応する事前知識を関連付けて表示する表示部を備える、
     請求項1から請求項8のいずれか一項に記載の診断支援装置。
  10.  コンピュータに、
     被験者の脳に関する被験者データを取得し、
     前記被験者データに基づいて前記被験者の脳疾患を予測し、
     前記被験者データの中から前記脳疾患の予測結果に寄与する被験者データに対応するデータ項目を特定し、
     特定したデータ項目と前記脳疾患に関する事前知識とを関連付けて出力する、
     処理を実行させるコンピュータプログラム。
  11.  被験者の脳に関する被験者データを取得し、
     前記被験者データに基づいて前記被験者の脳疾患を予測し、
     前記被験者データの中から前記脳疾患の予測結果に寄与する被験者データに対応するデータ項目を特定し、
     特定したデータ項目と前記脳疾患に関する事前知識とを関連付けて出力する、
     診断支援方法。
     
PCT/JP2022/022750 2021-06-29 2022-06-06 診断支援装置、コンピュータプログラム及び診断支援方法 WO2023276563A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-107793 2021-06-29
JP2021107793A JP2023005697A (ja) 2021-06-29 2021-06-29 診断支援装置、コンピュータプログラム及び診断支援方法

Publications (1)

Publication Number Publication Date
WO2023276563A1 true WO2023276563A1 (ja) 2023-01-05

Family

ID=84690256

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/022750 WO2023276563A1 (ja) 2021-06-29 2022-06-06 診断支援装置、コンピュータプログラム及び診断支援方法

Country Status (2)

Country Link
JP (1) JP2023005697A (ja)
WO (1) WO2023276563A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006043007A (ja) * 2004-08-02 2006-02-16 Fujitsu Ltd 診断支援プログラムおよび診断支援装置
JP2009095550A (ja) * 2007-10-18 2009-05-07 Canon Inc 診断支援装置、診断支援装置の制御方法、およびそのプログラム
JP2013010009A (ja) * 2012-10-03 2013-01-17 Canon Inc 診断支援装置、診断支援装置の制御方法、およびそのプログラム
JP2017033518A (ja) * 2015-07-31 2017-02-09 キヤノン株式会社 装置、方法、システム及びプログラム
JP2019136519A (ja) * 2019-04-08 2019-08-22 大日本印刷株式会社 医用画像表示処理方法、医用画像表示処理装置およびプログラム
JP2020154838A (ja) * 2019-03-20 2020-09-24 株式会社カネカ 情報処理装置、情報処理方法、及び端末装置
WO2020218460A1 (ja) * 2019-04-26 2020-10-29 エーザイ・アール・アンド・ディー・マネジメント株式会社 診断支援装置、推測装置、診断支援システム、診断支援方法、診断支援プログラム及び学習済みモデル
WO2021020198A1 (ja) * 2019-07-26 2021-02-04 富士フイルム株式会社 情報処理装置、プログラム、学習済みモデル、診断支援装置、学習装置及び予測モデルの生成方法
JP2021068188A (ja) * 2019-10-23 2021-04-30 株式会社島津製作所 診断支援方法および診断支援システム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006043007A (ja) * 2004-08-02 2006-02-16 Fujitsu Ltd 診断支援プログラムおよび診断支援装置
JP2009095550A (ja) * 2007-10-18 2009-05-07 Canon Inc 診断支援装置、診断支援装置の制御方法、およびそのプログラム
JP2013010009A (ja) * 2012-10-03 2013-01-17 Canon Inc 診断支援装置、診断支援装置の制御方法、およびそのプログラム
JP2017033518A (ja) * 2015-07-31 2017-02-09 キヤノン株式会社 装置、方法、システム及びプログラム
JP2020154838A (ja) * 2019-03-20 2020-09-24 株式会社カネカ 情報処理装置、情報処理方法、及び端末装置
JP2019136519A (ja) * 2019-04-08 2019-08-22 大日本印刷株式会社 医用画像表示処理方法、医用画像表示処理装置およびプログラム
WO2020218460A1 (ja) * 2019-04-26 2020-10-29 エーザイ・アール・アンド・ディー・マネジメント株式会社 診断支援装置、推測装置、診断支援システム、診断支援方法、診断支援プログラム及び学習済みモデル
WO2021020198A1 (ja) * 2019-07-26 2021-02-04 富士フイルム株式会社 情報処理装置、プログラム、学習済みモデル、診断支援装置、学習装置及び予測モデルの生成方法
JP2021068188A (ja) * 2019-10-23 2021-04-30 株式会社島津製作所 診断支援方法および診断支援システム

Also Published As

Publication number Publication date
JP2023005697A (ja) 2023-01-18

Similar Documents

Publication Publication Date Title
Qiu et al. Multimodal deep learning for Alzheimer’s disease dementia assessment
CN109447183B (zh) 预测模型训练方法、装置、设备以及介质
Bron et al. Standardized evaluation of algorithms for computer-aided diagnosis of dementia based on structural MRI: the CADDementia challenge
Tagaris et al. Machine learning for neurodegenerative disorder diagnosis—survey of practices and launch of benchmark dataset
US8099299B2 (en) System and method for mapping structural and functional deviations in an anatomical region
US8010381B2 (en) System and method for disease diagnosis from patient structural deviation data
US8430816B2 (en) System and method for analysis of multiple diseases and severities
US8180125B2 (en) Medical data processing and visualization technique
JP7357927B2 (ja) 診断支援システムおよび方法
WO2020218460A1 (ja) 診断支援装置、推測装置、診断支援システム、診断支援方法、診断支援プログラム及び学習済みモデル
Suk et al. Supervised discriminative group sparse representation for mild cognitive impairment diagnosis
Schmidt-Richberg et al. Learning biomarker models for progression estimation of Alzheimer’s disease
Al-Adhaileh Diagnosis and classification of Alzheimer's disease by using a convolution neural network algorithm
US11257227B2 (en) Brain image normalization apparatus, brain image normalization method, and brain image normalization program
Singh et al. Determination of imaging biomarkers to decipher disease trajectories and differential diagnosis of neurodegenerative diseases (DIsease TreND)
WO2022054711A1 (ja) コンピュータプログラム、情報処理装置、端末装置、情報処理方法、学習済みモデル生成方法及び画像出力装置
Azcona et al. Interpretation of brain morphology in association to Alzheimer’s disease dementia classification using graph convolutional networks on triangulated meshes
JP7114347B2 (ja) 断層画像予測装置および断層画像予測方法
WO2023119866A1 (ja) 情報処理装置、情報処理装置の作動方法、情報処理装置の作動プログラム、予測モデル、学習装置、および学習方法
WO2023276563A1 (ja) 診断支援装置、コンピュータプログラム及び診断支援方法
WO2021221008A1 (ja) システム、制御方法及びプログラム
Pateria et al. A comprehensive review on detection and classification of dementia using neuroimaging and machine learning
JP6799689B2 (ja) 情報出力装置、方法及びプログラム
Abi Nader et al. SimulAD: a dynamical model for personalized simulation and disease staging in Alzheimer’s disease
RU2811260C1 (ru) Способ диагностики идиопатической нормотензивной гидроцефалии

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22832721

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE