WO2022065062A1 - 診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム - Google Patents

診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム Download PDF

Info

Publication number
WO2022065062A1
WO2022065062A1 PCT/JP2021/033191 JP2021033191W WO2022065062A1 WO 2022065062 A1 WO2022065062 A1 WO 2022065062A1 JP 2021033191 W JP2021033191 W JP 2021033191W WO 2022065062 A1 WO2022065062 A1 WO 2022065062A1
Authority
WO
WIPO (PCT)
Prior art keywords
finding
image
disease
dementia
support device
Prior art date
Application number
PCT/JP2021/033191
Other languages
English (en)
French (fr)
Inventor
彩華 王
元中 李
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022551873A priority Critical patent/JPWO2022065062A1/ja
Priority to CN202180064970.6A priority patent/CN116261428A/zh
Priority to EP21872193.4A priority patent/EP4218561A4/en
Publication of WO2022065062A1 publication Critical patent/WO2022065062A1/ja
Priority to US18/186,219 priority patent/US20230230261A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4842Monitoring progression or stage of a disease
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Definitions

  • the technology of the present disclosure relates to a diagnostic support device, an operation method of the diagnostic support device, and an operation program of the diagnostic support device.
  • ⁇ X. Long, L. Chen et al. Prescription and machine learning of Alzheimer device based on quantification of MRI deformation, 2017> includes medical images to be analyzed (hereinafter abbreviated as target images), and all other medical images and other medical images. Describes a technique for acquiring deformation amount information of a target image for all medical images in the above, inputting a feature amount derived from the deformation amount information into a machine learning model, and outputting disease findings from the machine learning model.
  • the deformation amount information is a set of three-dimensional movement vectors showing how each pixel of the target image moves by the non-linear alignment process, and is also called a motion field.
  • One embodiment according to the technique of the present disclosure provides a diagnostic support device capable of shortening the processing time, an operation method of the diagnostic support device, and an operation program of the diagnostic support device.
  • the diagnostic assist device of the present disclosure comprises a processor and a memory connected to or built into the processor, wherein the processor is a subject image that is a medical image to be analyzed and at least one representative generated from a plurality of medical images.
  • the processor is a subject image that is a medical image to be analyzed and at least one representative generated from a plurality of medical images.
  • a non-linear alignment process with an image is performed, and at least one of the deformation amount information of the target image obtained by the non-linear alignment process and the feature amount derived from the deformation amount information is input to the disease finding derivation model to obtain a disease.
  • the findings of the disease are output from the findings derivation model.
  • the representative image is prepared for each of a plurality of attribute groups according to the attributes of the patient.
  • the attribute is preferably at least one of age and gender.
  • the representative image is prepared in at least one of a plurality of finding groups in which the attribute group is further divided according to the finding.
  • the findings are whether or not the disease has progressed, and the findings group preferably includes a disease-progressing group in which the disease has progressed and a disease-non-progressing group in which the disease has not progressed.
  • a plurality of alignment images corresponding to the plurality of medical images are generated by performing a non-linear alignment process of the plurality of medical images and the first provisional representative image, and the second provisional image is generated from the plurality of alignment images. It is preferable that the process of generating the representative image is repeated until an instruction to adopt the second provisional representative image as the representative image is input.
  • the medical image is an image showing the head of the patient, and the disease finding derivation model is preferably a model that outputs the findings of dementia for the patient as the findings.
  • the feature amount is preferably the local atrophy rate derived by applying the Jacobian determinant to the deformation amount information.
  • the method of operating the diagnostic support device of the present disclosure is to perform a non-linear alignment process of a target image, which is a medical image to be analyzed, and at least one representative image generated from a plurality of medical images, and a non-linear alignment process.
  • a target image which is a medical image to be analyzed, and at least one representative image generated from a plurality of medical images
  • the operation program of the diagnostic support device of the present disclosure performs non-linear alignment processing of a target image which is a medical image to be analyzed and at least one representative image generated from a plurality of medical images, and non-linear alignment.
  • a diagnostic support device capable of shortening the processing time, an operation method of the diagnostic support device, and an operation program of the diagnostic support device.
  • the medical system 2 includes an MRI (Magnetic Resonance Imaging) device 10, a PACS (Picture Archiving and Communication System) server 11, and a diagnostic support device 12.
  • MRI Magnetic Resonance Imaging
  • PACS Physical Archiving and Communication System
  • diagnostic support device 12 are connected to a LAN (Local Area Network) 13 installed in a medical facility, and can communicate with each other via the LAN 13.
  • LAN Local Area Network
  • the MRI apparatus 10 photographs the head of patient P and outputs a head MRI image 15.
  • the head MRI image 15 is voxel data showing the three-dimensional shape of the head of the patient P.
  • FIG. 1 shows a head MRI image 15S of a sagittal cross section.
  • the MRI apparatus 10 transmits the head MRI image 15 to the PACS server 11.
  • the PACS server 11 stores and manages the head MRI image 15 from the MRI apparatus 10.
  • the head MRI image 15 is an example of a "medical image" according to the technique of the present disclosure.
  • the diagnostic support device 12 is, for example, a desktop personal computer, and includes a display 17 and an input device 18.
  • the input device 18 is a keyboard, a mouse, a touch panel, a microphone, or the like.
  • the doctor operates the input device 18 to send a delivery request for the head MRI image 15 of the patient P to the PACS server 11.
  • the PACS server 11 searches for the head MRI image 15 of the patient P requested to be delivered and delivers it to the diagnosis support device 12.
  • the diagnosis support device 12 displays the head MRI image 15 distributed from the PACS server 11 on the display 17. The doctor observes the brain of the patient P shown in the head MRI image 15 to make a diagnosis of dementia for the patient P.
  • the head MRI image 15 for diagnosing dementia will be referred to as a target image 20 in order to distinguish it from other head MRI images 15.
  • Dementia is an example of a "disease" according to the technique of the present disclosure.
  • FIG. 1 only one MRI apparatus 10 and one diagnostic support apparatus 12 are drawn, but there may be a plurality of each of the MRI apparatus 10 and the diagnostic support apparatus 12.
  • the computer constituting the diagnostic support device 12 includes a storage 25, a memory 26, a CPU (Central Processing Unit) 27, and a communication unit 28 in addition to the display 17 and the input device 18 described above. I have. These are interconnected via a bus line 29.
  • the CPU 27 is an example of a "processor" according to the technique of the present disclosure.
  • the storage 25 is a hard disk drive built in the computer constituting the diagnostic support device 12 or connected via a cable or a network. Alternatively, the storage 25 is a disk array in which a plurality of hard disk drives are connected. The storage 25 stores control programs such as an operating system, various application programs, and various data associated with these programs. A solid state drive may be used instead of the hard disk drive.
  • the memory 26 is a work memory for the CPU 27 to execute a process.
  • the CPU 27 loads the program stored in the storage 25 into the memory 26 and executes the process according to the program.
  • the communication unit 28 controls transmission of various information with an external device such as the PACS server 11.
  • the memory 26 may be built in the CPU 27.
  • the operation program 35 is stored in the storage 25 of the diagnostic support device 12.
  • the operation program 35 is an application program for making the computer function as the diagnostic support device 12. That is, the operation program 35 is an example of the "operation program of the diagnostic support device" according to the technique of the present disclosure.
  • the storage 25 also stores a standard image 36, a normalized image 37, a representative image table 38, and a dementia finding derivation model 39.
  • the CPU 27 of the computer constituting the diagnostic support device 12 cooperates with the memory 26 and the like to read / write (hereinafter abbreviated as RW (Read Write)) control unit 45 and normalization unit. It functions as a non-linear alignment unit 47, a dementia finding derivation unit 48, and a display control unit 49.
  • RW Read Write
  • the RW control unit 45 controls the storage of various data in the storage 25 and the reading of various data in the storage 25. For example, the RW control unit 45 reads the standard image 36 from the storage 25 and outputs the read standard image 36 to the normalization unit 46. Further, the RW control unit 45 receives the normalization target image 37 from the normalization unit 46, and stores the received normalization target image 37 in the storage 25.
  • the RW control unit 45 reads out the normalization target image 37 from the storage 25, and outputs the read out normalization target image 37 to the nonlinear alignment unit 47, the dementia finding derivation unit 48, and the display control unit 49. Further, the RW control unit 45 reads out two representative images 55A and 55B corresponding to the normalized target image 37 from the representative image table 38 of the storage 25, and outputs the read representative images 55A and 55B to the nonlinear alignment unit 47. do.
  • the representative images 55A and 55B are images representing a plurality of head MRI images 15. Further, the RW control unit 45 reads the dementia finding derivation model 39 from the storage 25, and outputs the read dementia finding derivation model 39 to the dementia finding derivation unit 48.
  • the normalization unit 46 performs normalization processing to match the target image 20 from the PACS server 11 with the standard image 36, and sets the target image 20 as the normalization target image 37.
  • the normalization unit 46 outputs the normalization target image 37 to the RW control unit 45.
  • the standard image 36 is a head MRI image showing the brain having a standard shape, size, and density (pixel value).
  • the standard image 36 is, for example, an image generated by averaging the head MRI images 15 of a plurality of healthy subjects, or an image generated by computer graphics.
  • the non-linear alignment unit 47 performs non-linear alignment processing between the normalized target image 37 and the two representative images 55A and 55B.
  • the non-linear alignment unit 47 outputs the deformation amount information 56A, which is the result of the non-linear alignment processing of the normalized target image 37 and the representative image 55A, to the dementia finding derivation unit 48. Further, the non-linear alignment unit 47 outputs the deformation amount information 56B, which is the result of the non-linear alignment processing of the normalized target image 37 and the representative image 55B, to the dementia finding derivation unit 48.
  • the representative images 55A and 55B are collectively referred to as the representative image 55, and the deformation amount information 56A and 56B are collectively referred to as the deformation amount information 56.
  • the dementia finding derivation unit 48 inputs the normalized target image 37 and the deformation amount information 56 into the dementia finding derivation model 39. Then, the dementia finding information 57 representing the dementia finding is output from the dementia finding derivation model 39.
  • the dementia finding derivation model 39 is constructed by, for example, a neural network method.
  • the dementia finding derivation unit 48 outputs the dementia finding information 57 to the display control unit 49.
  • the dementia finding derivation model 39 is an example of the "disease finding derivation model" according to the technique of the present disclosure.
  • the display control unit 49 controls the display of various screens on the display 17.
  • the various screens include a first display screen 85 (see FIG. 12) for instructing analysis by the dementia finding derivation model 39, a second display screen 90 (see FIG. 13) for displaying dementia finding information 57, and the like. Is done.
  • the normalization unit 46 performs shape normalization processing 60 and density normalization processing 61 on the target image 20 as normalization processing.
  • the shape normalization process 60 extracts, for example, a landmark that serves as a reference for alignment from the target image 20 and the standard image 36, and the correlation between the landmark of the target image 20 and the landmark of the standard image 36 becomes maximum. This is a process of translating, rotating, and / or scaling the target image 20 in accordance with the standard image 36.
  • the density normalization process 61 is, for example, a process of correcting the density histogram of the target image 20 in accordance with the density histogram of the standard image 36.
  • the attribute group is a group divided by age and gender, which are the attributes of patient P.
  • the attribute groups are male under 60 years old group, male 60 years old and under 70 years old group, male 70 years old and over group, female under 60 years old group, female 60 years old and under 70 years old group, female 70 years old and over group.
  • the attribute group is not limited to this, and for example, a male 80-year-old or older group, a female 80-year-old or older group, or the like may be added.
  • the attribute group is further divided into two finding groups according to the finding.
  • the findings are whether or not dementia has progressed. There are two groups of findings, for example, a dementia progression group in which dementia has progressed more now than two years ago, and a dementia non-progression group in which dementia has not progressed from two years ago to the present.
  • the representative image 55A is registered in the dementia progression group of each attribute group, and the representative image 55B is registered in the dementia non-progression group.
  • the RW control unit 45 reads the representative images 55A and 55B registered in the attribute group having the same attributes as the patient P of the target image 20 from the representative image table 38 and outputs them to the nonlinear alignment unit 47.
  • the device that generates the representative image 55 classifies the plurality of head MRI images 15 provided from the plurality of medical facilities into the above-mentioned six attribute groups as preprocessing. Further, the head MRI image 15 of each attribute group is also classified into the above-mentioned two finding groups. The head MRI image 15 classified into each group in this way is referred to as a group image 65. It is assumed that all the head MRI images 15 used for generating the representative image 55 have been normalized.
  • the average value of the pixel values of each pixel of a plurality of group images 65 belonging to a certain group is calculated, and the first provisional representative image 55TMP_1 having the calculated average value as the pixel value of each pixel is generated (step ST10). Then, by performing the non-linear alignment processing of each of the plurality of group images 65 and the first provisional representative image 55TMP_1, a plurality of alignment images 66 corresponding to the plurality of group images 65 are generated (step ST11). Subsequently, similarly to step ST10, the average value of the pixel values of each pixel of the plurality of aligned images 66 is calculated, and the second tentative representative image 55TMP_2 in which the calculated average value is the pixel value of each pixel is generated (.
  • Step ST12 It should be noted that not the average value of the pixel values of each pixel of the group image 65 or the alignment image 66, but the median of the pixel values of each pixel of the group image 65 or the alignment image 66 is derived, and the derived median value is derived. May be generated as the first tentative representative image 55TMP_1 or the second tentative representative image 55TMP_1 having the pixel value of each pixel.
  • the generated second provisional representative image 55TMP_2 is displayed to the developer of the operation program 35 through the display. Then, the developer is made to input an instruction as to whether or not to adopt the second provisional representative image 55TMP_2 as the representative image 55.
  • step ST13 When the developer inputs an instruction to adopt the second provisional representative image 55TMP_2 as the representative image 55 (YES in step ST13), the second provisional representative image 55TMP_2 is registered in the representative image table 38 as the representative image 55 (step ST14). .. On the other hand, when an instruction not to adopt the second provisional representative image 55TMP_2 as the representative image 55 is input (NO in step ST13), the second provisional representative image 55TMP_2 is set as the first provisional representative image 55TMP_1 (step ST15), and step ST11 again. And the process of step ST12 is repeated. By performing such processing on the group image 65 of each group, the representative image 55 of each group is generated.
  • the device for generating the representative image 55 is a device operated by the developer at the development stage of the operation program 35, and is a device different from, for example, the diagnosis support device 12.
  • the diagnostic support device 12 may generate the representative image 55.
  • the representative image 55 may be updated periodically.
  • the non-linear alignment unit 47 converts the normalized image 37 (denoted as I_T (X, Y, Z)) into the representative image 55A (denoted as I_A (X, Y, Z)).
  • a plurality of control points 70 arranged at equal intervals in a grid pattern are set in the normalized image 37. Then, each control point 70 is moved to a position where the local similarity between the normalization target image 37 and the representative image 55A is increased.
  • the non-linear alignment unit 47 uses an approximation curve for interpolation such as a B-Spline curve, and the amount of deformation of each pixel when the image 37 to be normalized is aligned with the representative image 55A from the movement amount of each control point 70. Derivation of Tr_TA (X, Y, Z). The non-linear alignment unit 47 outputs the derived deformation amount Tr_TA (X, Y, Z) as the deformation amount information 56A.
  • an approximation curve for interpolation such as a B-Spline curve
  • the non-linear alignment unit 47 and the control point 70 when the normalization target image 37 is non-linearly aligned with the representative image 55B (denoted as I_B (X, Y, Z)).
  • I_B X, Y, Z
  • Tr_TB deformation amount Tr_TB (X, Y,) of each pixel when the normalization target image 37 is aligned with the representative image 55B from the movement amount of each control point 73.
  • Z is derived.
  • the non-linear alignment unit 47 outputs the derived deformation amount Tr_TB (X, Y, Z) as the deformation amount information 56B.
  • Tr_TB derived deformation amount
  • (X, Y, Z) may be omitted.
  • FIGS. 8 and 9 show a state in which the control points 70 and 73 are set in a two-dimensional shape in the normalization target image 37 of the axial cross section, but the control points 70 and 73 are actually in a three-dimensional shape. Is set to.
  • the dementia finding information 57 to which the normalized target image 37 and the deformation amount information 56 are input and output from the dementia finding derivation model 39 is normal (NC; Normal Control) and mild cognitive. It is either a disorder (MCI; Mild Cognitive Impairment) or Alzheimer's disease (AD; Alzheimer's Disease).
  • NC Normal Control
  • MCI Mild Cognitive Impairment
  • AD Alzheimer's disease
  • the dementia finding derivation model 39 is given the learning data 80 and is trained.
  • the learning data 80 is a set of the learning normalized target image 37L, the learning deformation amount information 56AL and 56BL, and the corresponding correct dementia finding information 57CA.
  • the learning normalization target image 37L is obtained by normalizing a certain head MRI image 15.
  • the learning deformation amount information 56AL is obtained by subjecting the learning normalization target image 37L and the representative image 55A to a non-linear alignment process.
  • the learning deformation amount information 56BL is obtained by subjecting the learning normalization target image 37L and the representative image 55B to a non-linear alignment process.
  • the correct dementia finding information 57CA is the result of the doctor actually diagnosing the dementia findings on the learning normalized target image 37L.
  • the learning normalized target image 37L and the learning deformation amount information 56AL and 56BL are input to the dementia finding derivation model 39.
  • the dementia finding derivation model 39 outputs the learning dementia finding information 57L for the learning normalized target image 37L and the learning deformation amount information 56AL and 56BL.
  • the loss calculation of the dementia finding derivation model 39 using the loss function is performed.
  • various coefficients of the dementia finding derivation model 39 are updated according to the result of the loss calculation, and the dementia finding derivation model 39 is updated according to the update setting.
  • the learning normalized target image 37L and the learning deformation amount information 56AL and 56BL are input to the dementia finding derivation model 39, and the learning cognition from the dementia finding derivation model 39.
  • the above-mentioned series of processes of output of the symptom finding information 57L, loss calculation, update setting, and update of the dementia finding derivation model 39 are repeatedly performed while the learning data 80 is exchanged.
  • the repetition of the above series of processes ends when the prediction accuracy of the learning dementia finding information 57L with respect to the correct dementia finding information 57CA reaches a predetermined set level.
  • the dementia finding derivation model 39 whose prediction accuracy has reached a set level is stored in the storage 25 as a learned model and used by the dementia finding derivation unit 48.
  • FIG. 12 shows an example of the first display screen 85 for instructing the analysis by the dementia finding derivation model 39.
  • a normalized image of the head MRI image 15 of the patient P diagnosing dementia that is, a normalized image 37 is displayed.
  • the normalized target image 37 is a head MRI image 15S having a sagittal cross section, a head MRI image 15A having an axial cross section, and a head MRI image 15C having a coronal cross section.
  • a button group 86 for switching the display is provided at the lower part of each of the head MRI images 15S, 15A, and 15C.
  • the analysis button 87 is provided on the first display screen 85.
  • the doctor selects the analysis button 87 when he / she wants to perform analysis by the dementia finding derivation model 39.
  • the CPU 27 receives an instruction for analysis by the dementia finding derivation model 39.
  • FIG. 13 shows an example of the second display screen 90 that displays the dementia finding information 57 obtained as a result of the analysis by the dementia finding derivation model 39.
  • a message 91 corresponding to the dementia finding information 57 is displayed.
  • FIG. 13 shows an example in which the dementia finding information 57 is mild cognitive impairment (MCI) and "suspicion of mild cognitive impairment" is displayed as the message 91.
  • MCI mild cognitive impairment
  • the display control unit 49 turns off the display of the message 91 and returns the second display screen 90 to the first display screen 85.
  • the CPU 27 of the diagnosis support device 12 has a RW control unit 45, a normalization unit 46, a nonlinear alignment unit 47, and dementia. It functions as a finding derivation unit 48 and a display control unit 49.
  • the normalization unit 46 accepts the target image 20 from the PACS server 11 (step ST100). Then, as shown in FIG. 4, in the normalization unit 46, a normalization process (shape normalization process 60 and density normalization process 61) for matching the target image 20 with the standard image 36 is performed (step ST110). As a result, the target image 20 becomes the normalization target image 37.
  • the normalization target image 37 is output from the normalization unit 46 to the RW control unit 45, and is stored in the storage 25 by the RW control unit 45.
  • the normalized target image 37 is read from the storage 25 by the RW control unit 45, and is output from the RW control unit 45 to the display control unit 49. Then, under the control of the display control unit 49, the first display screen 85 shown in FIG. 12 is displayed on the display 17 (step ST120).
  • the analysis button 87 is selected on the first display screen 85, the CPU 27 accepts the analysis instruction by the dementia finding derivation model 39 (YES in step ST130).
  • the normalization target image 37 is read out from the storage 25 by the RW control unit 45 and output to the nonlinear alignment unit 47 and the dementia finding derivation unit 48. Further, the RW control unit 45 reads out the representative images 55A and 55B corresponding to the normalized target image 37 from the storage 25 and outputs them to the nonlinear alignment unit 47.
  • a non-linear alignment process for aligning the normalized image 37 with the representative image 55A is performed. Further, as shown in FIG. 9, a non-linear alignment process for aligning the normalized image 37 with the representative image 55B is performed (step ST140).
  • the deformation amounts Tr_TA and Tr_TB derived by these nonlinear alignment processes are output from the nonlinear alignment unit 47 to the dementia finding derivation unit 48 as the deformation amount information 56A and 56B.
  • the dementia finding derivation unit 48 the normalized target image 37 and the deformation amount information 56A and 56B are input to the dementia finding derivation model 39.
  • the dementia finding information 57 is output from the dementia finding derivation model 39 (step ST150).
  • the dementia finding information 57 is output from the dementia finding derivation unit 48 to the display control unit 49.
  • the second display screen 90 shown in FIG. 13 is displayed on the display 17 (step ST160).
  • the doctor confirms the dementia finding information 57 through the message 91 on the second display screen 90.
  • the CPU 27 of the diagnostic support device 12 includes a non-linear alignment unit 47 and a dementia finding derivation unit 48.
  • the non-linear alignment unit 47 performs non-linear alignment processing between the normalized image 37 and the representative images 55A and 55B.
  • the dementia finding derivation unit 48 inputs the deformation amount information 56A and 56B of the normalized target image 37 obtained by the nonlinear alignment process into the dementia finding derivation model 39, and dementia finding information from the dementia finding derivation model 39. 57 is output. Therefore, it is possible to shorten the processing time as compared with the conventional case in which it is necessary to perform the non-linear alignment processing of the normalized target image 37 and all the other head MRI images 15.
  • the representative image 55 is prepared for each of the plurality of attribute groups according to the attributes of the patient P. Therefore, the non-linear alignment process can be performed using the representative image 55 that matches the attribute of the patient P, and as a result, appropriate dementia finding information 57 can be output.
  • Attributes are age and gender.
  • the brain naturally atrophies with age, whether or not it has dementia. Therefore, if age is included in the attributes, dementia can be diagnosed in consideration of age-related atrophy.
  • the degree of onset and progression of dementia vary depending on the gender. Therefore, if gender is included in the attributes, dementia can be diagnosed in consideration of gender differences.
  • both age and gender are adopted as attributes, but the attribute may be any one of age and gender.
  • the history of patient P, the area where patient P lives, and the like may be used as attributes.
  • the representative image 55 is prepared for each of a plurality of finding groups in which the attribute group is further divided according to the finding. Therefore, the deformation amount information 56A and 56B for each finding group can be obtained and used as input data for the dementia finding derivation model 39. The reliability of the symptom finding information 57 can be improved.
  • the representative image 55A out of the representative images 55A and 55B is prepared, only the non-linear alignment processing between the normalized target image 37 and the representative image 55A is performed, and the deformation amount information 56A is output. do. Then, only the normalized target image 37 and the deformation amount information 56A may be input to the dementia finding derivation model 95, and the dementia finding information 96 may be output from the dementia finding derivation model 95.
  • the dementia finding information 96 is either normal / mild cognitive impairment / Alzheimer's disease, like the dementia finding information 57.
  • only the representative image 55B may be prepared. That is, the representative image 55 does not have to be prepared in all of the plurality of finding groups, but may be prepared in at least one of the plurality of finding groups.
  • the findings are whether or not dementia has progressed, and the findings group includes a dementia progression group in which dementia has progressed and a dementia non-progression group in which dementia has not progressed. Therefore, the deformation amount information 56 that can be used as a reference for the diagnosis of dementia can be obtained, and the prediction accuracy of the dementia finding information 57 can be further improved.
  • the representative image 55 has a plurality of positions corresponding to the plurality of group images 65 by performing a non-linear alignment process between the plurality of group images 65 and the first provisional representative image 55TMP_1.
  • a series of processes of generating the combined image 66 and generating the second provisional representative image 55TMP_2 from the plurality of aligned images 66 is repeated until an instruction to adopt the second provisional representative image 55TMP_2 as the representative image 55 is input. It is generated by. Therefore, it is possible to generate a relatively high-quality representative image 55 without blurring.
  • this embodiment in which the medical image is the head MRI image 15 and the disease finding derivation model is the dementia finding derivation model 39 that outputs the dementia finding information 57, is a form that matches the current social problem. It can be said that.
  • the amount of deformation such as the degree of atrophy of the hippocampus, parahippocampal gyrus, and amygdala is a particularly important key to the findings of dementia. Therefore, it is said that this embodiment using the deformation amount information 56 of the normalized target image 37 obtained by the non-linear alignment process of the normalized target image 37 and the representative image 55 is more suitable for the diagnosis of dementia. I can say.
  • the input data to the dementia finding derivation model is not limited to the deformation amount information 56.
  • the feature amount derived from the deformation amount information 56 may be used as input data.
  • the local atrophy rate derivation unit 100 is provided between the non-linear alignment unit 47 and the dementia finding derivation unit 48.
  • the local atrophy rate derivation unit 100 applied the Jacobian determinant 101 to the deformation amount information 56A and 56B from the non-linear alignment unit 47, and responded to the local atrophy rate 102A according to the deformation amount information 56A and the deformation amount information 56B.
  • the local atrophy rate 102B is derived.
  • the local atrophy rate derivation unit 100 outputs the derived local atrophy rates 102A and 102B to the dementia finding derivation unit 48.
  • the dementia finding derivation unit 48 gives the local atrophy rates 102A and 102B as input data to the dementia finding derivation model.
  • the local atrophy rates 102A and 102B are examples of "features" according to the technique of the present disclosure.
  • the local atrophy rates 102A and 102B which are the feature quantities derived from the deformation amount information 56, are input to the dementia finding derivation model. Since the input data is simpler than that of the deformation amount information 56, the dementia finding derivation model can also have a relatively simple structure.
  • the feature amount is not limited to the local atrophy rates 102A and 102B. Representative values such as the average value and the maximum value of the deformation amount Tr_TA and the deformation amount Tr_TB may be used as the feature amount. Further, as in the embodiment shown in FIG. 15, one of the local atrophy rates 102A and 102B is derived instead of both the local atrophy rates 102A and 102B, and the input data of the dementia finding derivation model is used. May be good. Both the deformation amount information 55 and the local atrophy rate 102 may be used as input data for the dementia finding derivation model.
  • the dementia finding information 57 is not limited to the content exemplified in FIG. 10 (normal / mild cognitive impairment / Alzheimer's disease).
  • the degree of progression of dementia one year after the patient P may be fast or slow.
  • the type of dementia such as Alzheimer's disease, Lewy body dementia, or vascular dementia may be used.
  • the findings group is not limited to the exemplified dementia progression group and dementia non-progression group. It may be a group according to the type of dementia, such as an Alzheimer's disease group and a Lewy body dementia group.
  • the PACS server 11 may be responsible for some or all of the functions of the processing units 45 to 49.
  • the normalization unit 46 may be constructed in the CPU of the PACS server 11
  • the nonlinear alignment unit 47 and the dementia finding derivation unit 48 may be constructed in the CPU 27 of the diagnosis support device 12.
  • the medical image is not limited to the illustrated head MRI image 15.
  • PET Positron Emission Tomography
  • SPECT Single Photon Emission Tomography
  • CT Computed Tomography
  • the subject is not limited to the illustrated head, but may be the chest, abdomen, etc.
  • the disease is not limited to the exemplified dementia, and may be heart disease, pneumonia, liver dysfunction, or the like.
  • various processes such as the RW control unit 45, the normalization unit 46, the non-linear alignment unit 47, the dementia finding derivation unit 48, the display control unit 49, and the local atrophy rate derivation unit 100 are executed.
  • various processors processors shown below can be used.
  • the CPU 27 which is a general-purpose processor that executes software (operation program 35) and functions as various processing units, after manufacturing an FPGA (Field Programmable Gate Array) or the like.
  • Dedicated processor with a circuit configuration specially designed to execute specific processing such as programmable logic device (PLD), ASIC (Application Specific Integrated Circuit), which is a processor whose circuit configuration can be changed. Includes electrical circuits and the like.
  • One processing unit may be composed of one of these various processors, or may be a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs and / or a CPU). It may be configured in combination with FPGA). Further, a plurality of processing units may be configured by one processor.
  • one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client and a server.
  • the processor functions as a plurality of processing units.
  • SoC System On Chip
  • SoC system On Chip
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • an electric circuit in which circuit elements such as semiconductor elements are combined can be used.
  • the technique of the present disclosure can be appropriately combined with the various embodiments described above and / or various modifications. Further, it is of course not limited to each of the above embodiments, and various configurations can be adopted as long as they do not deviate from the gist. Further, the technique of the present disclosure extends to a storage medium for storing the program non-temporarily in addition to the program.
  • a and / or B is synonymous with "at least one of A and B". That is, “A and / or B” means that it may be A alone, B alone, or a combination of A and B. Further, in the present specification, when three or more matters are connected and expressed by "and / or", the same concept as “A and / or B" is applied.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

プロセッサと、プロセッサに接続または内蔵されたメモリと、を備え、プロセッサは、解析対象の医用画像である対象画像と、複数の医用画像から生成された少なくとも1つの代表画像との非線形位置合わせ処理を行い、非線形位置合わせ処理により得られた対象画像の変形量情報、および変形量情報から導出した特徴量のうちの少なくとも1つを疾病所見導出モデルに入力し、疾病所見導出モデルから疾病の所見を出力させる、診断支援装置。

Description

診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム
 本開示の技術は、診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラムに関する。
 医療分野において、最近の人工知能技術の進展に伴い、医用画像を機械学習モデルに入力して、機械学習モデルから疾病の所見を出力させる技術が種々提案されている。
 例えば<X. Long, L. Chen et al.: Prediction and classification of Alzheimer disease based on quantification of MRI deformation, 2017>には、解析対象の医用画像(以下、対象画像と略す)と、他の全ての医用画像との非線形位置合わせ処理を行い、他の全ての医用画像に対する対象画像の変形量情報を取得し、変形量情報から導出した特徴量を機械学習モデルに入力して、機械学習モデルから疾病の所見を出力させる技術が記載されている。なお、変形量情報は、対象画像の各画素が非線形位置合わせ処理によってどう動いたかを示す3次元移動ベクトルの集合であり、変形場(Motion Field)とも呼ばれる。
 しかしながら、<X. Long, L. Chen et al.: Prediction and classification of Alzheimer disease based on quantification of MRI deformation, 2017>に記載の技術では、対象画像と他の全ての医用画像との非線形位置合わせ処理を行う必要があるため、実用上問題があるほどの長い処理時間が掛かるおそれがあった。
 本開示の技術に係る1つの実施形態は、処理時間を短縮することが可能な診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラムを提供する。
 本開示の診断支援装置は、プロセッサと、プロセッサに接続または内蔵されたメモリと、を備え、プロセッサは、解析対象の医用画像である対象画像と、複数の医用画像から生成された少なくとも1つの代表画像との非線形位置合わせ処理を行い、非線形位置合わせ処理により得られた対象画像の変形量情報、および変形量情報から導出した特徴量のうちの少なくとも1つを疾病所見導出モデルに入力し、疾病所見導出モデルから疾病の所見を出力させる。
 代表画像は、患者の属性に応じた複数の属性グループの各々に用意されていることが好ましい。
 属性は、年齢および性別のうちの少なくとも1つであることが好ましい。
 代表画像は、属性グループをさらに所見に応じて分けた複数の所見グループのうちの少なくとも1つに用意されていることが好ましい。
 所見は疾病が進行したか否かという内容であり、所見グループは、疾病が進行した疾病進行グループと、疾病が進行しなかった疾病非進行グループとを含むことが好ましい。
 代表画像は、複数の医用画像と第1仮代表画像との非線形位置合わせ処理を行うことで、複数の医用画像に対応する複数の位置合わせ画像を生成し、複数の位置合わせ画像から第2仮代表画像を生成する、という一連の処理を、第2仮代表画像を代表画像として採用する指示が入力されるまで繰り返すことで生成されることが好ましい。
 医用画像は、患者の頭部を写した画像であり、疾病所見導出モデルは、所見として、患者に対する認知症の所見を出力するモデルであることが好ましい。
 特徴量は、変形量情報にヤコビ行列を適用することで導出される局所萎縮率であることが好ましい。
 本開示の診断支援装置の作動方法は、解析対象の医用画像である対象画像と、複数の医用画像から生成された少なくとも1つの代表画像との非線形位置合わせ処理を行うこと、および、非線形位置合わせ処理により得られた対象画像の変形量情報、および変形量情報から導出した特徴量のうちの少なくとも1つを疾病所見導出モデルに入力し、疾病所見導出モデルから疾病の所見を出力させること、を含む。
 本開示の診断支援装置の作動プログラムは、解析対象の医用画像である対象画像と、複数の医用画像から生成された少なくとも1つの代表画像との非線形位置合わせ処理を行うこと、および、非線形位置合わせ処理により得られた対象画像の変形量情報、および変形量情報から導出した特徴量のうちの少なくとも1つを疾病所見導出モデルに入力し、疾病所見導出モデルから疾病の所見を出力させること、を含む処理をコンピュータに実行させる。
 本開示の技術によれば、処理時間を短縮することが可能な診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラムを提供することができる。
診断支援装置を含む医療システムを示す図である。 診断支援装置を構成するコンピュータを示すブロック図である。 診断支援装置のCPUの処理部を示すブロック図である。 正規化部の処理を示す図である。 代表画像テーブルを示す図である。 代表画像の生成方法を示すフローチャートである。 代表画像の生成方法を示す図である。 非線形位置合わせ部の処理を示す図である。 非線形位置合わせ部の処理を示す図である。 認知症所見導出部の処理を示す図である。 認知症所見導出モデルの学習フェーズにおける処理の概要を示す図である。 第1表示画面を示す図である。 第2表示画面を示す図である。 診断支援装置の処理手順を示すフローチャートである。 正規化対象画像と1つの変形量情報を認知症所見導出モデルに入力して、認知症所見導出モデルから認知症所見情報を出力させる態様を示す図である。 変形量情報から局所萎縮率を導出する第2実施形態を示す図である。 認知症所見情報の別の例を示す図である。 認知症所見情報のさらに別の例を示す図である。
 [第1実施形態]
 一例として図1に示すように、医療システム2は、MRI(Magnetic Resonance Imaging)装置10、PACS(Picture Archiving and Communication System)サーバ11、および診断支援装置12を備える。これらMRI装置10、PACSサーバ11、および診断支援装置12は、医療施設内に敷設されたLAN(Local Area Network)13に接続されており、LAN13を介して相互に通信することが可能である。
 MRI装置10は、患者Pの頭部を撮影して頭部MRI画像15を出力する。頭部MRI画像15は、患者Pの頭部の三次元形状を表すボクセルデータである。図1においては、サジタル断面の頭部MRI画像15Sを示している。MRI装置10は、頭部MRI画像15をPACSサーバ11に送信する。PACSサーバ11は、MRI装置10からの頭部MRI画像15を記憶し、管理する。なお、頭部MRI画像15は、本開示の技術に係る「医用画像」の一例である。
 診断支援装置12は、例えばデスクトップ型のパーソナルコンピュータであり、ディスプレイ17と入力デバイス18とを備える。入力デバイス18は、キーボード、マウス、タッチパネル、マイクロフォン等である。医師は、入力デバイス18を操作して、PACSサーバ11に対して患者Pの頭部MRI画像15の配信要求を送信する。PACSサーバ11は、配信要求された患者Pの頭部MRI画像15を検索して診断支援装置12に配信する。診断支援装置12は、PACSサーバ11から配信された頭部MRI画像15をディスプレイ17に表示する。医師は、頭部MRI画像15に写る患者Pの脳を観察して、患者Pに対する認知症の診断を行う。以下では、認知症の診断を行う頭部MRI画像15を、他の頭部MRI画像15と区別するため対象画像20と表記する。なお、認知症は、本開示の技術に係る「疾病」の一例である。また、図1では、MRI装置10および診断支援装置12はそれぞれ1台しか描かれていないが、MRI装置10および診断支援装置12はそれぞれ複数台あってもよい。
 一例として図2に示すように、診断支援装置12を構成するコンピュータは、前述のディスプレイ17および入力デバイス18に加えて、ストレージ25、メモリ26、CPU(Central Processing Unit)27、および通信部28を備えている。これらはバスライン29を介して相互接続されている。なお、CPU27は、本開示の技術に係る「プロセッサ」の一例である。
 ストレージ25は、診断支援装置12を構成するコンピュータに内蔵、またはケーブル、ネットワークを通じて接続されたハードディスクドライブである。もしくはストレージ25は、ハードディスクドライブを複数台連装したディスクアレイである。ストレージ25には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム、およびこれらのプログラムに付随する各種データ等が記憶されている。なお、ハードディスクドライブに代えてソリッドステートドライブを用いてもよい。
 メモリ26は、CPU27が処理を実行するためのワークメモリである。CPU27は、ストレージ25に記憶されたプログラムをメモリ26へロードして、プログラムにしたがった処理を実行する。これによりCPU27は、コンピュータの各部を統括的に制御する。通信部28は、PACSサーバ11等の外部装置との各種情報の伝送制御を行う。なお、メモリ26は、CPU27に内蔵されていてもよい。
 一例として図3に示すように、診断支援装置12のストレージ25には、作動プログラム35が記憶されている。作動プログラム35は、コンピュータを診断支援装置12として機能させるためのアプリケーションプログラムである。すなわち、作動プログラム35は、本開示の技術に係る「診断支援装置の作動プログラム」の一例である。ストレージ25には、標準画像36、正規化対象画像37、代表画像テーブル38、および認知症所見導出モデル39も記憶される。
 作動プログラム35が起動されると、診断支援装置12を構成するコンピュータのCPU27は、メモリ26等と協働して、リードライト(以下、RW(Read Write)と略す)制御部45、正規化部46、非線形位置合わせ部47、認知症所見導出部48、および表示制御部49として機能する。
 RW制御部45は、ストレージ25への各種データの記憶、およびストレージ25内の各種データの読み出しを制御する。例えばRW制御部45は、標準画像36をストレージ25から読み出し、読み出した標準画像36を正規化部46に出力する。また、RW制御部45は、正規化部46からの正規化対象画像37を受け取り、受け取った正規化対象画像37をストレージ25に記憶する。
 RW制御部45は、正規化対象画像37をストレージ25から読み出し、読み出した正規化対象画像37を、非線形位置合わせ部47、認知症所見導出部48、および表示制御部49に出力する。また、RW制御部45は、ストレージ25の代表画像テーブル38から、正規化対象画像37に応じた2つの代表画像55Aおよび55Bを読み出し、読み出した代表画像55Aおよび55Bを非線形位置合わせ部47に出力する。代表画像55Aおよび55Bは、複数の頭部MRI画像15を代表する画像である。さらに、RW制御部45は、認知症所見導出モデル39をストレージ25から読み出し、読み出した認知症所見導出モデル39を認知症所見導出部48に出力する。
 正規化部46は、PACSサーバ11からの対象画像20を標準画像36に合わせる正規化処理を行い、対象画像20を正規化対象画像37とする。正規化部46は、正規化対象画像37をRW制御部45に出力する。
 標準画像36は、標準的な形状、大きさ、および濃度(画素値)の脳が写った頭部MRI画像である。標準画像36は、例えば、複数の健常者の頭部MRI画像15を平均することで生成した画像、あるいは、コンピュータグラフィックスにより生成した画像である。
 非線形位置合わせ部47は、正規化対象画像37と2つの代表画像55Aおよび55Bとの非線形位置合わせ処理を行う。非線形位置合わせ部47は、正規化対象画像37と代表画像55Aとの非線形位置合わせ処理の結果である変形量情報56Aを、認知症所見導出部48に出力する。また、非線形位置合わせ部47は、正規化対象画像37と代表画像55Bとの非線形位置合わせ処理の結果である変形量情報56Bを、認知症所見導出部48に出力する。なお、以下の説明では、特に区別する必要がない場合、代表画像55Aおよび55Bをまとめて代表画像55と表記し、変形量情報56Aおよび56Bをまとめて変形量情報56と表記する。
 認知症所見導出部48は、正規化対象画像37と変形量情報56を認知症所見導出モデル39に入力する。そして、認知症所見導出モデル39から認知症の所見を表す認知症所見情報57を出力させる。認知症所見導出モデル39は、例えばニューラルネットワークの手法によって構築される。認知症所見導出部48は、認知症所見情報57を表示制御部49に出力する。なお、認知症所見導出モデル39は、本開示の技術に係る「疾病所見導出モデル」の一例である。
 表示制御部49は、ディスプレイ17への各種画面の表示を制御する。各種画面には、認知症所見導出モデル39による解析を指示するための第1表示画面85(図12参照)、認知症所見情報57を表示する第2表示画面90(図13参照)等が含まれる。
 一例として図4に示すように、正規化部46は、対象画像20に対して、正規化処理として形状正規化処理60および濃度正規化処理61を行う。形状正規化処理60は、例えば、対象画像20および標準画像36から、位置合わせの基準となるランドマークを抽出し、対象画像20のランドマークと標準画像36のランドマークとの相関が最大となるよう、対象画像20を標準画像36に合わせて平行移動、回転、および/または拡大縮小する処理である。濃度正規化処理61は、例えば、対象画像20の濃度ヒストグラムを、標準画像36の濃度ヒストグラムに合わせて補正する処理である。
 一例として図5に示すように、代表画像テーブル38には、属性グループ毎に2つの代表画像55Aおよび55Bが登録されている。属性グループは、患者Pの属性である年齢および性別で分けられたグループである。具体的には、属性グループは、男性60歳未満グループ、男性60歳以上70歳未満グループ、男性70歳以上グループ、女性60歳未満グループ、女性60歳以上70歳未満グループ、女性70歳以上グループの計6グループである。なお、属性グループはこれに限らず、例えば男性80歳以上グループ、女性80歳以上グループ等を加えてもよい。
 属性グループはさらに所見に応じた2つの所見グループに分けられている。所見は認知症が進行したか否かという内容である。所見グループは、例えば2年前よりも現在のほうが認知症が進行した認知症進行グループと、2年前から現在に至るまで認知症が進行しなかった認知症非進行グループの2グループである。各属性グループの認知症進行グループには代表画像55Aが登録され、認知症非進行グループには代表画像55Bが登録される。RW制御部45は、対象画像20の患者Pと同じ属性の属性グループに登録された代表画像55Aおよび55Bを、代表画像テーブル38から読み出して非線形位置合わせ部47に出力する。
 ここで、代表画像55の生成方法について、図6のフローチャートおよび図7を参照して以下に説明する。
 代表画像55を生成する装置は、前処理として、複数の医療施設から提供された複数の頭部MRI画像15を、上述の6つの属性グループに分類する。さらに各属性グループの頭部MRI画像15を、これも上述の2つ所見グループに分類する。こうして各グループに分類した頭部MRI画像15をグループ画像65と呼ぶ。なお、代表画像55の生成に用いる頭部MRI画像15は、全て正規化処理がなされているものとする。
 あるグループに属する複数のグループ画像65の各画素の画素値の平均値を算出し、算出した平均値を各画素の画素値とする第1仮代表画像55TMP_1を生成する(ステップST10)。そして、複数のグループ画像65の各々と第1仮代表画像55TMP_1との非線形位置合わせ処理を行うことで、複数のグループ画像65に対応する複数の位置合わせ画像66を生成する(ステップST11)。続いて、ステップST10と同様に、複数の位置合わせ画像66の各画素の画素値の平均値を算出し、算出した平均値を各画素の画素値とする第2仮代表画像55TMP_2を生成する(ステップST12)。なお、グループ画像65または位置合わせ画像66の各画素の画素値の平均値ではなく、グループ画像65または位置合わせ画像66の各画素の画素値の中央値(メディアン)を導出し、導出した中央値を各画素の画素値とする第1仮代表画像55TMP_1または第2仮代表画像55TMP_2を生成してもよい。
 生成した第2仮代表画像55TMP_2を、作動プログラム35のデベロッパーにディスプレイを通じて表示する。そして、第2仮代表画像55TMP_2を代表画像55として採用するか否かの指示を、デベロッパーに入力させる。
 第2仮代表画像55TMP_2を代表画像55として採用する指示がデベロッパーにより入力された場合(ステップST13でYES)、第2仮代表画像55TMP_2を代表画像55として代表画像テーブル38に登録する(ステップST14)。一方、第2仮代表画像55TMP_2を代表画像55として採用しない指示が入力された場合(ステップST13でNO)、第2仮代表画像55TMP_2を第1仮代表画像55TMP_1とし(ステップST15)、再度ステップST11およびステップST12の処理を繰り返す。こうした処理を各グループのグループ画像65に対して行うことで、各グループの代表画像55を生成する。なお、代表画像55を生成する装置は、作動プログラム35の開発段階でデベロッパーが操作する装置であり、例えば診断支援装置12とは別の装置である。もちろん、診断支援装置12で代表画像55を生成してもよい。代表画像55は、定期的に更新されてもよい。
 一例として図8に示すように、非線形位置合わせ部47は、正規化対象画像37(I_T(X、Y、Z)と表記)を代表画像55A(I_A(X、Y、Z)と表記)に非線形位置合わせするに際して、格子状に等間隔で並んだ複数の制御点70を正規化対象画像37に設定する。そして、正規化対象画像37と代表画像55Aの局所的な類似度を高める位置に各制御点70を移動させる。非線形位置合わせ部47は、B-Spline曲線等の補間用近似曲線を用いて、各制御点70の移動量から、正規化対象画像37を代表画像55Aに位置合わせする場合の各画素の変形量Tr_TA(X、Y、Z)を導出する。非線形位置合わせ部47は、導出した変形量Tr_TA(X、Y、Z)を変形量情報56Aとして出力する。
 また、一例として図9に示すように、非線形位置合わせ部47は、正規化対象画像37を代表画像55B(I_B(X、Y、Z)と表記)に非線形位置合わせするに際して、制御点70と同様の制御点73を正規化対象画像37に設定する。そして、図8の場合と同様に各制御点73を移動させる。非線形位置合わせ部47は、図8の場合と同様に、各制御点73の移動量から、正規化対象画像37を代表画像55Bに位置合わせする場合の各画素の変形量Tr_TB(X、Y、Z)を導出する。非線形位置合わせ部47は、導出した変形量Tr_TB(X、Y、Z)を変形量情報56Bとして出力する。なお、以下では(X、Y、Z)を省略する場合がある。また、図8および図9では、アキシャル断面の正規化対象画像37に、二次元状に制御点70および73を設定した状態を示しているが、制御点70および73は実際には三次元状に設定される。
 一例として図10に示すように、正規化対象画像37および変形量情報56が入力されて認知症所見導出モデル39から出力される認知症所見情報57は、正常(NC;Normal Control)、軽度認知障害(MCI;Mild Cognitive Impairment)、およびアルツハイマー病(AD;Alzheimer’s Disease)のいずれかである。
 認知症所見導出モデル39の学習フェーズにおける処理の概要の一例を示す図11において、認知症所見導出モデル39は、学習データ80を与えられて学習される。学習データ80は、学習用正規化対象画像37L並びに学習用変形量情報56ALおよび56BLと、これらに対応する正解認知症所見情報57CAとの組である。学習用正規化対象画像37Lは、ある頭部MRI画像15を正規化処理して得られたものである。学習用変形量情報56ALは、学習用正規化対象画像37Lと代表画像55Aを非線形位置合わせ処理して得られたものである。学習用変形量情報56BLは、学習用正規化対象画像37Lと代表画像55Bを非線形位置合わせ処理して得られたものである。正解認知症所見情報57CAは、学習用正規化対象画像37Lに対する認知症の所見を、医師が実際に診断した結果である。
 学習フェーズにおいて、認知症所見導出モデル39には、学習用正規化対象画像37L並びに学習用変形量情報56ALおよび56BLが入力される。認知症所見導出モデル39は、学習用正規化対象画像37L並びに学習用変形量情報56ALおよび56BLに対して学習用認知症所見情報57Lを出力する。この学習用認知症所見情報57Lおよび正解認知症所見情報57CAに基づいて、損失関数を用いた認知症所見導出モデル39の損失演算がなされる。そして、損失演算の結果に応じて認知症所見導出モデル39の各種係数の更新設定がなされ、更新設定にしたがって認知症所見導出モデル39が更新される。
 認知症所見導出モデル39の学習フェーズにおいては、学習用正規化対象画像37L並びに学習用変形量情報56ALおよび56BLの認知症所見導出モデル39への入力、認知症所見導出モデル39からの学習用認知症所見情報57Lの出力、損失演算、更新設定、および認知症所見導出モデル39の更新の上記一連の処理が、学習データ80が交換されつつ繰り返し行われる。上記一連の処理の繰り返しは、正解認知症所見情報57CAに対する学習用認知症所見情報57Lの予測精度が、予め定められた設定レベルまで達した場合に終了される。こうして予測精度が設定レベルまで達した認知症所見導出モデル39が、学習済みモデルとしてストレージ25に記憶されて認知症所見導出部48で用いられる。
 図12に、認知症所見導出モデル39による解析を指示するための第1表示画面85の一例を示す。第1表示画面85には、認知症を診断する患者Pの頭部MRI画像15の正規化画像、すなわち正規化対象画像37が表示される。正規化対象画像37は、サジタル断面の頭部MRI画像15S、アキシャル断面の頭部MRI画像15A、およびコロナル断面の頭部MRI画像15Cである。これら各頭部MRI画像15S、15A、および15Cの下部には、表示を切り替えるためのボタン群86が設けられている。
 第1表示画面85には、解析ボタン87が設けられている。医師は、認知症所見導出モデル39による解析を行いたい場合、解析ボタン87を選択する。これによりCPU27は、認知症所見導出モデル39による解析の指示を受け付ける。
 図13に、認知症所見導出モデル39による解析の結果得られた認知症所見情報57を表示する第2表示画面90の一例を示す。第2表示画面90には、認知症所見情報57に応じたメッセージ91が表示される。図13においては、認知症所見情報57が軽度認知障害(MCI)で、メッセージ91として「軽度認知障害の疑い」が表示された例を示している。なお、表示制御部49は、確認ボタン92が選択された場合、メッセージ91の表示を消し、第2表示画面90を第1表示画面85に戻す。
 次に、上記構成による作用について、図14のフローチャートを参照して説明する。まず、診断支援装置12において作動プログラム35が起動されると、図3で示したように、診断支援装置12のCPU27は、RW制御部45、正規化部46、非線形位置合わせ部47、認知症所見導出部48、および表示制御部49として機能される。
 まず、正規化部46において、PACSサーバ11からの対象画像20が受け付けられる(ステップST100)。そして、図4で示したように、正規化部46において、対象画像20を標準画像36に合わせる正規化処理(形状正規化処理60および濃度正規化処理61)が行われる(ステップST110)。これにより対象画像20が正規化対象画像37とされる。正規化対象画像37は、正規化部46からRW制御部45に出力され、RW制御部45によってストレージ25に記憶される。
 正規化対象画像37は、RW制御部45によってストレージ25から読み出され、RW制御部45から表示制御部49に出力される。そして、表示制御部49の制御の下、図12で示した第1表示画面85がディスプレイ17に表示される(ステップST120)。第1表示画面85において、解析ボタン87が選択された場合、認知症所見導出モデル39による解析の指示が、CPU27にて受け付けられる(ステップST130でYES)。
 RW制御部45により、正規化対象画像37がストレージ25から読み出され、非線形位置合わせ部47および認知症所見導出部48に出力される。また、RW制御部45により、正規化対象画像37に対応する代表画像55Aおよび55Bがストレージ25から読み出され、非線形位置合わせ部47に出力される。
 非線形位置合わせ部47においては、図8で示したように、正規化対象画像37を代表画像55Aに合わせる非線形位置合わせ処理が行われる。また、図9で示したように、正規化対象画像37を代表画像55Bに合わせる非線形位置合わせ処理が行われる(ステップST140)。これらの非線形位置合わせ処理によって導出された変形量Tr_TAおよびTr_TBが、変形量情報56Aおよび56Bとして非線形位置合わせ部47から認知症所見導出部48に出力される。
 図10で示したように、認知症所見導出部48では、正規化対象画像37と、変形量情報56Aおよび56Bとが認知症所見導出モデル39に入力される。これにより認知症所見導出モデル39から認知症所見情報57が出力される(ステップST150)。認知症所見情報57は、認知症所見導出部48から表示制御部49に出力される。
 表示制御部49の制御の下、図13で示した第2表示画面90がディスプレイ17に表示される(ステップST160)。医師は、第2表示画面90のメッセージ91を通じて、認知症所見情報57を確認する。
 以上説明したように、診断支援装置12のCPU27は、非線形位置合わせ部47と認知症所見導出部48を備える。非線形位置合わせ部47は、正規化対象画像37と代表画像55Aおよび55Bとの非線形位置合わせ処理を行う。認知症所見導出部48は、非線形位置合わせ処理により得られた正規化対象画像37の変形量情報56Aおよび56Bを認知症所見導出モデル39に入力し、認知症所見導出モデル39から認知症所見情報57を出力させる。したがって、正規化対象画像37と他の全ての頭部MRI画像15との非線形位置合わせ処理を行う必要があった従来と比べて、処理時間を短縮することが可能となる。
 図5で示したように、代表画像55は、患者Pの属性に応じた複数の属性グループの各々に用意されている。このため、患者Pの属性に合った代表画像55を用いて非線形位置合わせ処理を行うことができ、結果として妥当な認知症所見情報57を出力させることができる。
 属性は、年齢および性別である。脳は、認知症であるか否かに関わらず加齢とともに自然に萎縮する。このため、属性に年齢を含めれば、加齢による萎縮を加味した認知症の診断を行うことができる。また、認知症の発症度合い、進行程度等は、性別によって変わる。このため、属性に性別を含めれば、性別による違いを加味した認知症の診断を行うことができる。なお、本例では、年齢と性別の両方を属性として採用したが、属性は、年齢および性別のうちのいずれか1つであってもよい。また、患者Pの既往症、患者Pの住んでいる地域等を属性としてもよい。
 代表画像55は、属性グループをさらに所見に応じて分けた複数の所見グループの各々に用意されている。このため、所見グループ毎の変形量情報56Aおよび56Bを得て、これらを認知症所見導出モデル39の入力データとすることができ、所見グループで分けずに一括りにした場合と比べて、認知症所見情報57の信頼性を向上させることができる。
 なお、図15に示すように、代表画像55Aおよび55Bのうちの代表画像55Aのみを用意し、正規化対象画像37と代表画像55Aとの非線形位置合わせ処理だけを行って変形量情報56Aを出力する。そして、正規化対象画像37と変形量情報56Aだけを認知症所見導出モデル95に入力して、認知症所見導出モデル95から認知症所見情報96を出力させてもよい。認知症所見情報96は、認知症所見情報57と同じく、正常/軽度認知障害/アルツハイマー病のいずれかである。図示は省略するが、反対に代表画像55Bのみを用意してもよい。つまり、代表画像55は、複数の所見グループの全てに用意されている必要はなく、複数の所見グループのうちの少なくとも1つに用意されていればよい。
 所見は認知症が進行したか否かという内容であり、所見グループは、認知症が進行した認知症進行グループと、認知症が進行しなかった認知症非進行グループとを含む。このため、より認知症の診断の参考になる変形量情報56を得ることができ、ひいては認知症所見情報57の予測精度をより高めることができる。
 図6および図7で示したように、代表画像55は、複数のグループ画像65と第1仮代表画像55TMP_1との非線形位置合わせ処理を行うことで、複数のグループ画像65に対応する複数の位置合わせ画像66を生成し、複数の位置合わせ画像66から第2仮代表画像55TMP_2を生成する、という一連の処理を、第2仮代表画像55TMP_2を代表画像55として採用する指示が入力されるまで繰り返すことで生成される。このため、ボケのない比較的高品位な代表画像55を生成することができる。
 認知症は、昨今の高齢化社会の到来とともに社会問題化している。このため、医用画像を頭部MRI画像15とし、疾病所見導出モデルを、認知症所見情報57を出力する認知症所見導出モデル39とする本実施形態は、現状の社会問題にマッチした形態であるといえる。また、認知症の所見には、海馬、海馬傍回、扁桃体等の萎縮の程度といった変形量が特に重要な鍵を握る。このため、正規化対象画像37と代表画像55との非線形位置合わせ処理により得られた正規化対象画像37の変形量情報56を用いる本実施形態は、認知症の診断により適合したものであるといえる。
 [第2実施形態]
 認知症所見導出モデルへの入力データは、変形量情報56に限らない。変形量情報56から導出した特徴量を入力データとしてもよい。
 一例として図16に示すように、本第2実施形態においては、非線形位置合わせ部47と認知症所見導出部48との間に、局所萎縮率導出部100が設けられる。局所萎縮率導出部100は、非線形位置合わせ部47からの変形量情報56Aおよび56Bにヤコビ行列101を適用して、変形量情報56Aに応じた局所萎縮率102A、および変形量情報56Bに応じた局所萎縮率102Bを導出する。局所萎縮率導出部100は、導出した局所萎縮率102Aおよび102Bを、認知症所見導出部48に出力する。認知症所見導出部48は、局所萎縮率102Aおよび102Bを、入力データとして認知症所見導出モデルに与える。なお、局所萎縮率102Aおよび102Bは、本開示の技術に係る「特徴量」の一例である。
 このように、第2実施形態では、変形量情報56から導出した特徴量である局所萎縮率102Aおよび102Bを認知症所見導出モデルに入力する。変形量情報56と比べて入力データがシンプルになるので、認知症所見導出モデルも比較的シンプルな構成とすることができる。
 特徴量としては、局所萎縮率102Aおよび102Bに限らない。変形量Tr_TAおよび変形量Tr_TBの平均値、最大値といった代表値を特徴量としてもよい。また、図15で示した態様と同様に、局所萎縮率102Aおよび102Bの両方ではなく、局所萎縮率102Aおよび102Bのうちのいずれか1つを導出して、認知症所見導出モデルの入力データとしてもよい。変形量情報55と局所萎縮率102の両方を認知症所見導出モデルの入力データとしてもよい。
 なお、認知症所見情報57は、図10で例示した内容(正常/軽度認知障害/アルツハイマー病)に限らない。例えば図17に示す認知症所見情報105のように、患者Pの1年後の認知症の進行度合いが早いか遅いかであってもよい。あるいは図18に示す認知症所見情報108のように、アルツハイマー病、レビー小体型認知症、および血管性認知症のいずれであるかといった認知症の種類でもよい。
 所見グループも同様に、例示の認知症進行グループおよび認知症非進行グループに限らない。アルツハイマー病グループ、レビー小体型認知症グループ等、認知症の種類に応じたグループであってもよい。
 PACSサーバ11が各処理部45~49の一部または全ての機能を担ってもよい。例えばPACSサーバ11のCPUに正規化部46を構築し、診断支援装置12のCPU27に非線形位置合わせ部47および認知症所見導出部48を構築してもよい。
 医用画像は、例示の頭部MRI画像15に限らない。PET(Positron Emission Tomography)画像、SPECT(Single Photon Emission Computed Tomography)画像、CT(Computed Tomography)画像、内視鏡画像、超音波画像等でもよい。
 被写体は例示の頭部に限らず、胸部、腹部等でもよい。また、疾病も例示の認知症に限らず、心臓病、肺炎、肝機能障害等でもよい。
 上記各実施形態において、例えば、RW制御部45、正規化部46、非線形位置合わせ部47、認知症所見導出部48、表示制御部49、および局所萎縮率導出部100といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。各種のプロセッサには、上述したように、ソフトウェア(作動プログラム35)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU27に加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、および/または、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
 本開示の技術は、上述の種々の実施形態および/または種々の変形例を適宜組み合わせることも可能である。また、上記各実施形態に限らず、要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本開示の技術は、プログラムに加えて、プログラムを非一時的に記憶する記憶媒体にもおよぶ。
 以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「Aおよび/またはB」は、「AおよびBのうちの少なくともいずれか」と同義である。つまり、「Aおよび/またはB」は、Aだけであってもよいし、Bだけであってもよいし、AおよびBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「および/または」で結び付けて表現する場合も、「Aおよび/またはB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (10)

  1.  プロセッサと、
     前記プロセッサに接続または内蔵されたメモリと、を備え、
     前記プロセッサは、
     解析対象の医用画像である対象画像と、複数の医用画像から生成された少なくとも1つの代表画像との非線形位置合わせ処理を行い、
     前記非線形位置合わせ処理により得られた前記対象画像の変形量情報、および前記変形量情報から導出した特徴量のうちの少なくとも1つを疾病所見導出モデルに入力し、前記疾病所見導出モデルから疾病の所見を出力させる、
    診断支援装置。
  2.  前記代表画像は、患者の属性に応じた複数の属性グループの各々に用意されている請求項1に記載の診断支援装置。
  3.  前記属性は、年齢および性別のうちの少なくとも1つである請求項2に記載の診断支援装置。
  4.  前記代表画像は、前記属性グループをさらに前記所見に応じて分けた複数の所見グループのうちの少なくとも1つに用意されている請求項2または請求項3に記載の診断支援装置。
  5.  前記所見は前記疾病が進行したか否かという内容であり、
     前記所見グループは、前記疾病が進行した疾病進行グループと、前記疾病が進行しなかった疾病非進行グループとを含む請求項4に記載の診断支援装置。
  6.  前記代表画像は、
     前記複数の医用画像と第1仮代表画像との非線形位置合わせ処理を行うことで、前記複数の医用画像に対応する複数の位置合わせ画像を生成し、
     前記複数の位置合わせ画像から第2仮代表画像を生成する、という一連の処理を、前記第2仮代表画像を前記代表画像として採用する指示が入力されるまで繰り返すことで生成される請求項1から請求項5のいずれか1項に記載の診断支援装置。
  7.  前記医用画像は、患者の頭部を写した画像であり、
     前記疾病所見導出モデルは、前記所見として、前記患者に対する認知症の所見を出力するモデルである請求項1から請求項6のいずれか1項に記載の診断支援装置。
  8.  前記特徴量は、前記変形量情報にヤコビ行列を適用することで導出される局所萎縮率である請求項1から請求項7のいずれか1項に記載の診断支援装置。
  9.  解析対象の医用画像である対象画像と、複数の医用画像から生成された少なくとも1つの代表画像との非線形位置合わせ処理を行うこと、および、
     前記非線形位置合わせ処理により得られた前記対象画像の変形量情報、および前記変形量情報から導出した特徴量のうちの少なくとも1つを疾病所見導出モデルに入力し、前記疾病所見導出モデルから疾病の所見を出力させること、
    を含む診断支援装置の作動方法。
  10.  解析対象の医用画像である対象画像と、複数の医用画像から生成された少なくとも1つの代表画像との非線形位置合わせ処理を行うこと、および、
     前記非線形位置合わせ処理により得られた前記対象画像の変形量情報、および前記変形量情報から導出した特徴量のうちの少なくとも1つを疾病所見導出モデルに入力し、前記疾病所見導出モデルから疾病の所見を出力させること、
    を含む処理をコンピュータに実行させる診断支援装置の作動プログラム。
PCT/JP2021/033191 2020-09-28 2021-09-09 診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム WO2022065062A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022551873A JPWO2022065062A1 (ja) 2020-09-28 2021-09-09
CN202180064970.6A CN116261428A (zh) 2020-09-28 2021-09-09 诊断辅助装置、诊断辅助装置的工作方法、诊断辅助装置的工作程序
EP21872193.4A EP4218561A4 (en) 2020-09-28 2021-09-09 DIAGNOSTIC AUXILIARY DEVICE, OPERATING METHOD FOR THE DIAGNOSTIC AUXILIARY DEVICE AND OPERATING PROGRAM FOR THE DIAGNOSTIC AUXILIARY DEVICE
US18/186,219 US20230230261A1 (en) 2020-09-28 2023-03-20 Diagnosis support device, operation method of diagnosis support device, operation program of diagnosis support device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-162680 2020-09-28
JP2020162680 2020-09-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/186,219 Continuation US20230230261A1 (en) 2020-09-28 2023-03-20 Diagnosis support device, operation method of diagnosis support device, operation program of diagnosis support device

Publications (1)

Publication Number Publication Date
WO2022065062A1 true WO2022065062A1 (ja) 2022-03-31

Family

ID=80846525

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/033191 WO2022065062A1 (ja) 2020-09-28 2021-09-09 診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム

Country Status (5)

Country Link
US (1) US20230230261A1 (ja)
EP (1) EP4218561A4 (ja)
JP (1) JPWO2022065062A1 (ja)
CN (1) CN116261428A (ja)
WO (1) WO2022065062A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010101812A (ja) * 2008-10-24 2010-05-06 Fujifilm Ri Pharma Co Ltd 機能画像の画像データ解析装置、方法、及びコンピュータプログラム
WO2012074039A1 (ja) * 2010-12-02 2012-06-07 大日本印刷株式会社 医用画像処理装置
JP2017148480A (ja) * 2016-02-25 2017-08-31 地方独立行政法人秋田県立病院機構 医用断面表示装置及び断面画像表示方法
WO2019003749A1 (ja) * 2017-06-30 2019-01-03 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
WO2019044078A1 (ja) * 2017-08-28 2019-03-07 富士フイルム株式会社 脳画像正規化装置、方法およびプログラム
JP2019213785A (ja) * 2018-06-14 2019-12-19 社会福祉法人 恩賜財団済生会熊本病院 医用画像処理装置、方法およびプログラム
EP3605464A1 (en) * 2017-03-28 2020-02-05 Shenzhen Brainnow Medical Technology Co., Ltd. Quantitative calculation method for level of brain atrophy based on automatic segmentation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010101812A (ja) * 2008-10-24 2010-05-06 Fujifilm Ri Pharma Co Ltd 機能画像の画像データ解析装置、方法、及びコンピュータプログラム
WO2012074039A1 (ja) * 2010-12-02 2012-06-07 大日本印刷株式会社 医用画像処理装置
JP2017148480A (ja) * 2016-02-25 2017-08-31 地方独立行政法人秋田県立病院機構 医用断面表示装置及び断面画像表示方法
EP3605464A1 (en) * 2017-03-28 2020-02-05 Shenzhen Brainnow Medical Technology Co., Ltd. Quantitative calculation method for level of brain atrophy based on automatic segmentation
WO2019003749A1 (ja) * 2017-06-30 2019-01-03 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
WO2019044078A1 (ja) * 2017-08-28 2019-03-07 富士フイルム株式会社 脳画像正規化装置、方法およびプログラム
JP2019213785A (ja) * 2018-06-14 2019-12-19 社会福祉法人 恩賜財団済生会熊本病院 医用画像処理装置、方法およびプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LONG XIAOJING, LIFANG CHEN, CHUNXIANG JIANG, LIJUAN ZHANG : "Prediction and classification of Alzheimer disease based on quantification of MRI deformation", PLOS ONE, 6 March 2017 (2017-03-06), XP055914329, Retrieved from the Internet <URL:https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5338815/pdf/pone.0173372.pdf> DOI: 10.1371/journal.pone.0173372 *
See also references of EP4218561A4
X. LONGL. CHEN ET AL., PREDICTION AND CLASSIFICATION OF ALZHEIMER DISEASE BASED ON QUANTIFICATION OF MRI DEFORMATION, 2017

Also Published As

Publication number Publication date
EP4218561A1 (en) 2023-08-02
US20230230261A1 (en) 2023-07-20
EP4218561A4 (en) 2024-03-20
CN116261428A (zh) 2023-06-13
JPWO2022065062A1 (ja) 2022-03-31

Similar Documents

Publication Publication Date Title
Torosdagli et al. Deep geodesic learning for segmentation and anatomical landmarking
US10818048B2 (en) Advanced medical image processing wizard
US11229377B2 (en) System and method for next-generation MRI spine evaluation
Tmenova et al. CycleGAN for style transfer in X-ray angiography
US11580642B2 (en) Disease region extraction apparatus, disease region extraction method, and disease region extraction program
Amirrajab et al. Label-informed cardiac magnetic resonance image synthesis through conditional generative adversarial networks
JP2021140769A (ja) 医用情報処理装置、医用情報処理方法及び医用情報処理プログラム
JP2022077991A (ja) 医用画像処理装置、医用画像処理方法、医用画像処理プログラム、モデルトレーニング装置、およびトレーニング方法
WO2022065062A1 (ja) 診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム
US20220215936A1 (en) Image processing device, image processing method, image processing program, learning device, learning method, learning program, and derivation model
WO2022071158A1 (ja) 診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム、認知症診断支援方法、並びに学習済み認知症所見導出モデル
WO2022071159A1 (ja) 診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム、並びに認知症診断支援方法
WO2020246192A1 (ja) 修正指示領域表示装置、方法およびプログラム
CN114596225A (zh) 一种运动伪影模拟方法和系统
CN113538395A (zh) 图像处理方法、装置、设备、可读存储介质
US20230222675A1 (en) Image processing apparatus, operation method of image processing apparatus, operation program of image processing apparatus, and trained model
US20230222656A1 (en) Image processing apparatus, operation method of image processing apparatus, and operation program of image processing apparatus
US20220122350A1 (en) Learning image generation device, learning image generation method, learning image generation program, learning method, learning device, and learning program
JP7368592B2 (ja) 文書作成支援装置、方法およびプログラム
WO2022209500A1 (ja) 機械学習モデル作成支援装置、機械学習モデル作成支援装置の作動方法、機械学習モデル作成支援装置の作動プログラム
US20230335283A1 (en) Information processing apparatus, operation method of information processing apparatus, operation program of information processing apparatus
WO2022209298A1 (ja) 画像処理装置、画像処理方法、及びプログラム
US20230394673A1 (en) Image processing apparatus, operation method of image processing apparatus, operation program of image processing apparatus, and learning method
Avesta et al. Self-Configuring Capsule Networks for Brain Image Segmentation
Siegel et al. Artificial Intelligence in Nuclear Medicine: Counterpoint—More Hype Than Reality Today

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21872193

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022551873

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2021872193

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021872193

Country of ref document: EP

Effective date: 20230428