WO2022071160A1 - 診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム、並びに認知症診断支援方法 - Google Patents

診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム、並びに認知症診断支援方法 Download PDF

Info

Publication number
WO2022071160A1
WO2022071160A1 PCT/JP2021/035196 JP2021035196W WO2022071160A1 WO 2022071160 A1 WO2022071160 A1 WO 2022071160A1 JP 2021035196 W JP2021035196 W JP 2021035196W WO 2022071160 A1 WO2022071160 A1 WO 2022071160A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
feature
feature amount
target image
areas
Prior art date
Application number
PCT/JP2021/035196
Other languages
English (en)
French (fr)
Inventor
元中 李
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022553916A priority Critical patent/JPWO2022071160A1/ja
Publication of WO2022071160A1 publication Critical patent/WO2022071160A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Definitions

  • the technology of the present disclosure relates to a diagnostic support device, an operation method of the diagnostic support device, an operation program of the diagnostic support device, and a dementia diagnosis support method.
  • a doctor In diagnosing a disease, for example, dementia represented by Alzheimer's disease, a doctor refers to a medical image such as a head MRI (Magnetic Response Imaging) image. For example, the doctor observes the degree of atrophy of the hippocampus, parahippocampal gyrus, amygdala, etc., the degree of white matter angiopathy, the presence or absence of decreased blood flow metabolism in the frontal lobe, temporal lobe, and occipital lobe, and makes findings of dementia. obtain. In addition, the doctor searches for a similar image similar to the head MRI image to be diagnosed, and derives the findings of dementia by taking into consideration the searched similar image.
  • MRI Magnetic Response Imaging
  • the similarity evaluation value is, for example, the distance between a multidimensional vector having a plurality of feature quantities of a target image as an element and a multidimensional vector having a plurality of feature quantities of a candidate image as an element. In this case, if the similarity between the target image and the candidate image is high, the distance between the two multidimensional vectors becomes short, so that the similarity evaluation value becomes small.
  • an organ such as the brain is a collection of many dissected areas such as the hippocampus and amygdala. And, in order to obtain the findings of the disease, it is necessary to thoroughly examine the dissected area from various viewpoints.
  • ⁇ Muhammad Owais, etc. Effective Diagnosis and Treatment Subject-Based Medical Image Retrieval (CBMIR) by Using Artificial Intelligence, Junior. >
  • CBMIR Effective Diagnosis and Treatment Subject-Based Medical Image Retrieval
  • One embodiment according to the technique of the present disclosure provides a diagnostic support device capable of searching for more accurate similar images, an operation method of the diagnostic support device, an operation program of the diagnostic support device, and a dementia diagnosis support method. do.
  • the diagnostic support device of the present disclosure comprises a processor and a memory connected to or built into the processor, the processor acquiring a target image, which is a medical image to be diagnosed with a disease, and dissecting a plurality of organs from the target image. Areas are extracted, images of multiple dissection areas are input to multiple feature quantity derivation models prepared for each dissection area, and multiple feature quantities for each dissection area are output from the feature quantity derivation model. , Search for a similar image of the target image using a plurality of feature quantities, and output the similar image.
  • the processor extracts a plurality of dissection areas from candidate images of similar images, inputs images of the multiple dissection areas of the candidate images into a plurality of feature quantity derivation models, and inputs each of the dissection areas from the feature quantity derivation model.
  • a plurality of feature amounts are output, a similarity evaluation value between the target image and the candidate image is calculated from a plurality of feature amounts of the target image and a plurality of feature amounts of the candidate image, and the similarity evaluation value is calculated based on the similarity evaluation value. It is preferable to select a similar image from the candidate images.
  • the processor weights a plurality of feature amounts of the target image and a plurality of feature amounts of the candidate image according to the dissected area.
  • the feature quantity derivation model preferably includes at least one of an autoencoder, a single-tasking convolutional neural network for class discrimination, and a multitasking convolutional neural network for class discrimination.
  • the processor inputs an image of one anatomical area into a plurality of different feature quantity derivation models and outputs a feature quantity from each of the plurality of feature quantity derivation models.
  • the processor weights a plurality of feature quantities of the target image and a plurality of feature quantities of the candidate image according to a plurality of different feature quantity derivation models.
  • the processor performs a normalization process to match the acquired target image with the standard medical image prior to the extraction of the dissected area.
  • the organ is the brain and the disease is dementia.
  • the dissecting area preferably comprises at least one of the hippocampus and the frontotemporal lobe.
  • the method of operating the diagnostic support device of the present disclosure is to acquire a target image which is a medical image of a disease diagnosis target, extract a plurality of anatomical areas of an organ from the target image, and obtain a plurality of images of a plurality of anatomical areas.
  • the operation program of the diagnostic support device of the present disclosure includes acquiring a target image which is a medical image of a disease diagnosis target, extracting a plurality of anatomical areas of an organ from the target image, and displaying a plurality of images of a plurality of anatomical areas.
  • Input to multiple feature quantity derivation models prepared for each dissection area output multiple feature quantities for each dissection area from the feature quantity derivation model, and use multiple feature quantities to resemble the target image.
  • the dementia diagnosis support method of the present disclosure is to obtain a target image, which is a medical image of a brain to be diagnosed with dementia, by a computer including a processor and a memory connected to or built in the processor. Extracting multiple dissection areas of the brain from images, inputting images of multiple dissection areas into multiple feature quantity derivation models prepared for each dissection area, and inputting images of multiple dissection areas from the feature quantity derivation model for each dissection area. It is possible to output a plurality of feature quantities of the above, search for a similar image of the target image using the plurality of feature quantities, and output a similar image.
  • a diagnostic support device capable of searching for a more accurate similar image, an operation method of the diagnostic support device, an operation program of the diagnostic support device, and a dementia diagnosis support method. ..
  • the medical system 2 includes an MRI apparatus 10, a PACS (Picture Archiving and Communication System) server 11, and a client terminal 12.
  • the MRI apparatus 10, the PACS server 11, and the client terminal 12 are connected to a LAN (Local Area Network) 13 installed in a medical facility, and can communicate with each other via the LAN 13.
  • the PACS server 11 is an example of a "diagnosis support device" according to the technique of the present disclosure.
  • the MRI apparatus 10 photographs the head of patient P and outputs a head MRI image 15.
  • the head MRI image 15 is voxel data showing the three-dimensional shape of the head of the patient P.
  • FIG. 1 shows a head MRI image 15S of a sagittal cross section.
  • the MRI apparatus 10 transmits the head MRI image 15 to the PACS server 11.
  • the PACS server 11 stores and manages the head MRI image 15 from the MRI apparatus 10.
  • the head MRI image 15 is an example of a "medical image" according to the technique of the present disclosure.
  • the client terminal 12 is, for example, a desktop personal computer, and includes a display 17 and an input device 18.
  • the input device 18 is a keyboard, a mouse, a touch panel, a microphone, or the like. Although only one MRI device 10 and one client terminal 12 are drawn in FIG. 1, a plurality of MRI devices 10 and one client terminal 12 may be provided.
  • the doctor operates the input device 18 to request the PACS server 11 to deliver the head MRI image 15 (hereinafter referred to as the target image 15TI) of the patient P to be diagnosed.
  • the delivery request 20 includes an image ID (Identification Data) of the target image 15TI, a patient ID of the patient P, a shooting date and time of the target image 15TI, and the like.
  • the PACS server 11 searches for the target image 15TI and distributes it to the client terminal 12 in response to the distribution request 20.
  • the client terminal 12 receives the target image 15TI distributed from the PACS server 11 and displays the received target image 15TI on the display 17.
  • the doctor operates the input device 18 to transmit the search request 23 for the similar image 15SI of the target image 15TI to the PACS server 11. Similar to the delivery request 20, the search request 23 includes the image ID of the target image 15TI and the like.
  • the PACS server 11 searches for the similar image 15SI and distributes it to the client terminal 12.
  • the client terminal 12 receives the similar image 15SI delivered from the PACS server 11 and displays the received similar image 15SI on the display 17 so as to be comparable to the target image 15TI.
  • the doctor observes the brain of the patient P shown in the target image 15TI, and makes a diagnosis of dementia for the patient P with reference to the similar image 15SI as the case may be.
  • the brain is an example of an "organ” according to the technique of the present disclosure
  • dementia is an example of a "disease" according to the technique of the present disclosure.
  • the computer constituting the PACS server 11 includes a storage 25, a memory 26, a CPU (Central Processing Unit) 27, and a communication unit 28. These are interconnected via a bus line 29.
  • the CPU 27 is an example of a "processor" according to the technique of the present disclosure.
  • the storage 25 is a hard disk drive built in the computer constituting the PACS server 11 or connected via a cable or a network. Alternatively, the storage 25 is a disk array in which a plurality of hard disk drives are connected. The storage 25 stores control programs such as an operating system, various application programs, and various data associated with these programs. A solid state drive may be used instead of the hard disk drive.
  • the memory 26 is a work memory for the CPU 27 to execute a process.
  • the CPU 27 loads the program stored in the storage 25 into the memory 26 and executes the process according to the program.
  • the communication unit 28 controls transmission of various information with an external device such as a client terminal 12.
  • the memory 26 may be built in the CPU 27.
  • the operation program 35 is stored in the storage 25 of the PACS server 11.
  • the operation program 35 is an application program for making the computer constituting the PACS server 11 function as a diagnostic support device. That is, the operation program 35 is an example of the "operation program of the diagnostic support device" according to the technique of the present disclosure.
  • the CPU 27 of the computer constituting the PACS server 11 cooperates with the memory 26 and the like to read / write (hereinafter abbreviated as RW (Read Write)) control unit 40 and preprocessing unit 41. , A request reception unit 42, a search processing unit 43, and a distribution control unit 44.
  • RW Read Write
  • the RW control unit 40 controls the storage of various data in the storage 25 and the reading of various data in the storage 25.
  • the RW control unit 40 receives the head MRI image 15 from the MRI device 10 and stores the received head MRI image 15 in the storage 25.
  • the target image 15TI is one of a plurality of head MRI images 15 taken by the MRI apparatus 10. Therefore, the RW control unit 40 acquires the target image 15TI by receiving the head MRI image 15 from the MRI device 10.
  • the preprocessing unit 41 performs various preprocessing described later on the head MRI image 15 from the MRI apparatus 10.
  • the preprocessing unit 41 outputs the feature amount set group 45 derived as a result of the preprocessing to the RW control unit 40.
  • the RW control unit 40 stores the feature amount set group 45 in the storage 25 in association with the head MRI image 15. As a result, a plurality of pairs of the head MRI image 15 and the feature amount set group 45 are stored in the storage 25.
  • the request receiving unit 42 receives the delivery request 20 and the search request 23 transmitted from the client terminal 12.
  • the request reception unit 42 outputs the received delivery request 20 and search request 23 to the search processing unit 43.
  • the search processing unit 43 is responsible for the search processing of the target image 15TI and the similar image 15SI.
  • the search processing unit 43 When the distribution request 20 is input from the request receiving unit 42, the search processing unit 43 outputs a command to the RW control unit 40 to search and read the target image 15TI corresponding to the distribution request 20 from the storage 25.
  • the RW control unit 40 searches for and reads the target image 15TI corresponding to the distribution request 20 from the storage 25, and outputs the read target image 15TI to the search processing unit 43.
  • the search processing unit 43 outputs the target image 15TI to the distribution control unit 44.
  • the search processing unit 43 When the search request 23 is input from the request receiving unit 42, the search processing unit 43 outputs a command to read out all the feature quantity set groups 45 from the storage 25 to the RW control unit 40. In response to the command, the RW control unit 40 reads out all the feature amount set groups 45 from the storage 25, and outputs the read feature amount set group 45 to the search processing unit 43.
  • the search processing unit 43 searches for a similar image 15SI using the feature amount set group 45.
  • the search processing unit 43 outputs the searched similar image 15SI to the distribution control unit 44.
  • the distribution control unit 44 distributes the target image 15TI to the client terminal 12 that is the request source of the distribution request 20. Further, the distribution control unit 44 distributes the similar image 15SI to the client terminal 12 that is the request source of the search request 23.
  • the pretreatment unit 41 includes a normalization unit 50, an extraction unit 51, and a feature amount derivation unit 52.
  • a feature amount derivation model group 58 composed of a standard head MRI image 55, a segmentation model 56, and a plurality of feature amount derivation models 57 is provided. It is remembered.
  • the RW control unit 40 reads the standard head MRI image 55 from the storage 25, and outputs the read standard head MRI image 55 to the normalization unit 50. Further, the RW control unit 40 reads the segmentation model 56 from the storage 25 and outputs the read segmentation model 56 to the extraction unit 51. Further, the RW control unit 40 reads out the feature quantity derivation model group 58 from the storage 25, and outputs the read feature quantity derivation model group 58 to the feature quantity derivation unit 52.
  • the normalization unit 50 performs a normalization process to match the head MRI image 15 from the MRI apparatus 10 with the standard head MRI image 55, and makes the head MRI image 15 a normalized head MRI image 60.
  • the normalization unit 50 outputs the normalized head MRI image 60 to the extraction unit 51.
  • the standard head MRI image 55 is a head MRI image showing a brain having a standard shape, size, and density (pixel value).
  • the standard head MRI image 55 is, for example, an image generated by averaging the head MRI images 15 of a plurality of healthy subjects, or an image generated by computer graphics.
  • the standard head MRI image 55 is an example of a "standard medical image" according to the technique of the present disclosure.
  • the extraction unit 51 inputs the normalized head MRI image 60 into the segmentation model 56.
  • the segmentation model 56 is a machine learning model that performs so-called semantic segmentation, in which a label representing each anatomical area of the brain such as the hippocampus, amygdala, and frontal lobe is given to each pixel of the brain reflected in the normalized head MRI image 60.
  • the extraction unit 51 extracts an image (hereinafter referred to as an anatomical area image) 61 of a plurality of anatomical areas of the brain from the normalized head MRI image 60 based on the label given by the segmentation model 56.
  • the extraction unit 51 outputs the dissection area image group 62 composed of the plurality of dissection area images 61 for each dissection area to the feature amount derivation unit 52.
  • One feature amount derivation model 57 is prepared for each of a plurality of anatomical areas of the brain (see FIG. 9).
  • the feature amount derivation unit 52 inputs the dissected area image 61 into the corresponding feature amount derivation model 57.
  • the feature amount set 63 composed of a plurality of types of feature amounts Z (see FIG. 9) is output from the feature amount derivation model 57.
  • the feature amount set group 45 is composed of a plurality of feature amount sets 63 corresponding to a plurality of dissected areas.
  • the feature amount derivation unit 52 outputs the feature amount set group 45 to the RW control unit 40.
  • the RW control unit 40 stores the feature amount set group 45 in the storage 25.
  • the normalization unit 50 performs shape normalization processing 65 and density normalization processing 66 as normalization processing on the head MRI image 15.
  • the shape normalization process 65 extracts, for example, a landmark that serves as a reference for alignment from the head MRI image 15 and the standard head MRI image 55, and the landmark of the head MRI image 15 and the standard head MRI image 55. This is a process of moving, rotating, and / or scaling the head MRI image 15 in parallel with the standard head MRI image 55 so as to maximize the correlation with the landmark.
  • the density normalization process 66 is, for example, a process of correcting the density histogram of the head MRI image 15 according to the density histogram of the standard head MRI image 55.
  • the extraction unit 51 has, as the anatomical area image 61, the anatomical area image 61_1 of the hippocampus, the anatomical area image 61_2 around the hippocampus, the anatomical area image 61_3 of the frontal lobe, and the anatomical area image of the anterior temporal lobe.
  • 61_4 anatomical area image 61_5 of the occipital lobe, anatomical area image 61_6 of the thorax, anatomical area image 61_7 of the lower part of the thorax, anatomical area image 61_8 of the tongue, anatomical area image 61_9 of the pituitary gland, and the like are extracted.
  • the extraction unit 51 extracts an anatomical area image 61 of each anatomical area such as the mammillary body, corpus callosum, fornix, and lateral ventricle.
  • the anatomical areas such as the hippocampus, frontotemporal lobe, frontotemporal lobe, and amygdala are paired left and right.
  • the anatomical area image 61 of each of the left and right anatomical areas is extracted from such a pair of left and right anatomical areas. For example, for the hippocampus, an anatomical area image 61_1 of the left hippocampus and an anatomical area image 61_1 of the right hippocampus are extracted.
  • the dissected areas it is preferable to include at least one of the hippocampus and the frontotemporal lobe, and it is more preferable to include all of the hippocampus and the frontotemporal lobe.
  • the frontotemporal lobe means the anterior part of the temporal lobe.
  • the feature amount derivation unit 52 inputs the hippocampal dissection area image 61_1 into the hippocampal feature amount derivation model 57_1, and outputs the hippocampal feature amount set 63_1 from the hippocampal feature amount derivation model 57_1.
  • the hippocampal feature amount set 63_1 is composed of a plurality of feature amounts Z1_1, Z2_1, ..., ZN_1. Note that N is the number of feature quantities, for example, tens to hundreds of thousands.
  • the feature amount derivation unit 52 inputs the parahippocampal feature amount derivation model 61_2 to the parahippocampal feature amount derivation model 57_2, and inputs the frontal lobe dissection area image 61_3 to the frontal lobe feature amount derivation model 57_3.
  • the frontal lobe dissection area image 61_4 is input to the frontal lobe feature amount derivation model 57_4.
  • the parahippocampal feature derivation model 57_2 outputs the parahippocampal feature set 63_2
  • the frontal lobe feature derivation model 57_3 outputs the frontal lobe feature set 63_3, and the frontal lobe feature derivation model.
  • the feature amount set 63_4 of the frontal lobe is output from 57_4.
  • the parahippocampal feature set 63_2 is composed of a plurality of features Z1_2, Z2_2, ..., ZN_2, and the frontotemporal lobe feature set 63_3 is composed of a plurality of features Z1_3, Z2_3, ..., ZN_3.
  • the frontotemporal lobe feature amount set 63_4 is composed of a plurality of feature amounts Z1_4, Z2_4, ..., ZN_4.
  • the feature amount derivation unit 52 inputs the occipital lobe feature amount derivation model 61_5 into the occipital lobe feature amount derivation model 57_5, and inputs the thalamus dissection area image 61_6 into the thalamus feature amount derivation model 57_6. Then, the occipital lobe feature amount set 63_5 is output from the occipital lobe feature amount derivation model 57_5, and the thalamus feature amount set 63_6 is output from the thalamus feature amount derivation model 57_6.
  • the occipital lobe feature amount set 63_5 is composed of a plurality of feature amounts Z1_5, Z2_5, ..., ZN_5, and the thalamic feature amount set 63_6 is composed of a plurality of feature amounts Z1_6, Z2_6, ..., ZN_6.
  • the plurality of dissected area images 61 are input to the corresponding feature amount derivation model 57, whereby the feature amount set 63 for each dissection area image 61 is output from each feature amount derivation model 57.
  • the number of feature quantities Z may be the same in each dissection area as in the example N, or may be different in each dissection area.
  • the pretreatment unit 41 is a series of processes described above, that is, normalization processing by the normalization unit 50, extraction processing of the dissected area image 61 by the extraction unit 51, and feature quantity set group 45 by the feature quantity derivation unit 52.
  • the derivation process is performed on all of the head MRI images 15 from the MRI apparatus 10.
  • the head MRI image 15 from the MRI apparatus 10 naturally includes a target image 15TI and a candidate image 15CI (see FIG. 10) of a similar image 15SI. Therefore, the preprocessing unit 41 performs normalization processing to match the target image 15TI with the standard head MRI image 55, extracts the dissection area image 61 from the target image 15TI, and sets the feature amount set group 45 of the target image 15TI (hereinafter).
  • the preprocessing unit 41 performs normalization processing to match the candidate image 15CI with the standard head MRI image 55, extracts the anatomical area image 61 from the candidate image 15CI, and features the feature amount set group 45 of the candidate image 15CI (hereinafter referred to as “)”. This means that the feature amount set group 45CI (see FIG. 10) is derived.
  • the search processing unit 43 includes a similarity evaluation value calculation unit 70 and a similar image selection unit 71.
  • the storage 25 stores the selection condition 75.
  • the RW control unit 40 reads the selection condition 75 from the storage 25, and outputs the read selection condition 75 to the similar image selection unit 71.
  • the similarity evaluation value calculation unit 70 receives all the feature amount set groups 45 from the RW control unit 40.
  • the feature amount set group 45 includes a feature amount set group 45TI of the target image 15TI and a head MRI image 15 other than the target image 15TI, that is, a feature amount set group 45CI of the candidate image 15CI of the similar image 15SI.
  • the similarity evaluation value calculation unit 70 calculates the similarity evaluation value 76 between the target image 15TI and the candidate image 15CI from the feature amount set group 45TI of the target image 15TI and the feature amount set group 45CI of the candidate image 15CI. ..
  • the similarity evaluation value calculation unit 70 calculates the similarity evaluation value 76 for each of the plurality of candidate images 15CI.
  • the similarity evaluation value calculation unit 70 outputs the calculated similarity evaluation value 76 to the similar image selection unit 71.
  • the similar image selection unit 71 selects the similar image 15SI from the candidate image 15CI based on the selection condition 75 and the similarity evaluation value 76.
  • the selection condition 75 is the content of "candidate images having the first to third degree of similarity". Therefore, the similar image selection unit 71 selects the candidate image 15CI having the first to third degree of similarity with the target image 15TI represented by the similarity evaluation value 76 as the similar image 15SI.
  • the candidate image 15CI having the 1st to 3rd similarity with the target image 15TI is the candidate image 15CI having the smallest similarity evaluation value 76 and the candidate image 15CI having the second smallest similarity evaluation value 76.
  • the candidate image 15CI having the third smallest similarity evaluation value 76 is the candidate image 15CI having the third smallest similarity evaluation value 76.
  • the similarity evaluation value calculation unit 70 includes a multidimensional vector having each feature amount ZTIi of the feature amount set group 45TI of the target image 15TI as an element, and a feature amount set group 45CI of the candidate image 15CI.
  • the distance from the multidimensional vector having each feature amount ZCIi as an element is calculated as the similarity evaluation value 76. More specifically, as shown in the following equation (1) in which the similarity evaluation value 76 is expressed as S, the similarity evaluation value calculation unit 70 is the difference between the feature amount ZTIi and the corresponding feature amount ZCIi.
  • the square root of the sum of squares of the absolute values of (ZTI1-1-1-ZCI1-1, ZTI2_2-ZCI2_2, etc.), that is, the Euclidean distance is calculated as the similarity evaluation value 76.
  • i is an integer of 1 to M.
  • M is the product of the number N of the feature amount Z and the number of the dissected areas from which the dissection area image 61 is extracted, that is, the total number of the feature amount Z included in the feature amount set group 45TI or the feature amount set group 45CI.
  • FIG. 12 shows an example of the first display screen 80 including the target image 15TI distributed from the PACS server 11 in response to the distribution request 20.
  • the first display screen 80 is displayed on the display 17 of the client terminal 12.
  • the target image 15TI is displayed on the first display screen 80.
  • the target image 15TI is a target image 15TIS of a sagittal cross section, a target image 15TIA of an axial cross section, and a target image 15TIC of a coronal cross section.
  • a button group 81 for switching the display is provided at the lower part of each of the target images 15TIS, 15TIA, and 15TIC.
  • the first display screen 80 is provided with a similar image search button 82.
  • the doctor wants to search for the similar image 15SI of the target image 15TI, he / she selects the similar image search button 82.
  • the search request 23 is transmitted to the PACS server 11.
  • FIG. 13 shows an example of the second display screen 85 displayed on the display 17 of the client terminal 12 when the similar image 15SI is delivered from the PACS server 11 in response to the search request 23.
  • a similar image 15SI is displayed below the target image 15TI in the same manner as the target image 15TI.
  • the similar image 15SI is displayed at the upper part as the order of similarity is higher.
  • the similar image 15SI is a similar image 15SIS of a sagittal cross section, a similar image 15SIA of an axial cross section, and a similar image 15SIC of a coronal cross section.
  • the similar image 15SI displays the age and sex of the patient P of the similar image 15SI, as well as the findings of dementia. Findings of dementia are taken from an electronic medical record system (not shown).
  • the confirmation button 86 is selected, the display of the similar image 15SI is erased, and the second display screen 85 is returned to the first display screen 80.
  • the feature amount derivation model 57 uses a compression unit 91 of an autoencoder (hereinafter, abbreviated as AE (Auto Encoder)) 90.
  • the AE90 has a compression unit 91 and a restoration unit 92.
  • An anatomical area image 61 is input to the compression unit 91.
  • the compression unit 91 converts the dissected area image 61 into the feature amount set 63.
  • the compression unit 91 passes the feature amount set 63 to the restoration unit 92.
  • the restoration unit 92 generates the restoration image 93 of the dissected area image 61 from the feature amount set 63.
  • the compression unit 91 converts the dissected area image 61 into the feature amount set 63 by performing a convolution operation as shown in FIG. 15 as an example.
  • the compression unit 91 has a convolution layer 200 represented by "conv (abbreviation of convolution)".
  • the convolution layer 200 applies, for example, a 3 ⁇ 3 filter 203 to the target data 202 having a plurality of elements 201 arranged in two dimensions. Then, the element value e of one of the elements 201 of interest and the element values a, b, c, d, f, g, h, and i of eight elements 201S adjacent to the element of interest 201I are convolved.
  • the convolution layer 200 sequentially performs a convolution operation on each element 201 of the target data 202 while shifting the element of interest 201I by one element, and outputs the element value of the element 204 of the operation data 205.
  • the operation data 205 having a plurality of elements 204 arranged in two dimensions can be obtained as in the target data 202.
  • the target data 202 first input to the convolution layer 200 is the dissection area image 61, and then the reduction calculation data 205S (see FIG. 17) described later is input to the convolution layer 200 as the target data 202.
  • the element 204I corresponding to the element of interest 201I of the operation data 205 which is the result of the convolution operation for the element of interest 201I.
  • One operation data 205 is output for one filter 203.
  • the operation data 205 is output for each filter 203. That is, as shown in FIG. 16 as an example, the arithmetic data 205 is generated for the number of filters 203 applied to the target data 202. Further, since the arithmetic data 205 has a plurality of elements 204 arranged in two dimensions, it has a width and a height. The number of arithmetic data 205 is called the number of channels.
  • FIG. 16 illustrates the four-channel arithmetic data 205 output by applying the four filters 203 to the target data 202.
  • the compression unit 91 has a pooling layer 210 represented by “pool (abbreviation of pooling)” in addition to the convolution layer 200.
  • the pooling layer 210 obtains a local statistic of the element value of the element 204 of the operation data 205, and generates the reduced operation data 205S having the obtained statistic as the element value.
  • the pooling layer 210 performs a maximum value pooling process for obtaining the maximum value of the element value in the block 211 of the 2 ⁇ 2 element as a local statistic. If the block 211 is processed while being shifted by one element in the width direction and the height direction, the reduction calculation data 205S is reduced to half the size of the original calculation data 205.
  • the element values a, b, e, and b in the block 211A, the element values b, c, f, and g in the block 211B, and the element values c and d in the block 211C are shown.
  • G, and h are exemplified when h is the maximum value, respectively. It should be noted that the mean value pooling process may be performed in which the mean value is obtained as a local statistic instead of the maximum value.
  • the compression unit 91 outputs the final calculation data 205 by repeating the convolution process by the convolution layer 200 and the pooling process by the pooling layer 210 a plurality of times.
  • the final calculated data 205 is the feature set 63
  • the element value of each element 204 of the final calculated data 205 is the feature Z.
  • the characteristic amount Z thus obtained represents the shape and texture characteristics of the dissected area, such as the degree of hippocampal atrophy, the degree of white matter angiopathy, and the presence or absence of decreased blood flow metabolism in the frontal lobe, frontotemporal lobe, and occipital lobe. There is.
  • each process is actually performed in three dimensions.
  • the AE90 is learned by inputting the learning anatomical area image 61L in the learning phase before diverting the compression unit 91 to the feature amount derivation model 57.
  • the AE90 outputs a learning restored image 93L with respect to the learning dissection area image 61L.
  • the loss calculation of AE90 using the loss function is performed.
  • various coefficients of the AE90 coefficients of the filter 203, etc.
  • the AE90 is updated according to the update settings.
  • the above series of processes of inputting the learning anatomical area image 61L to the AE90, outputting the learning restored image 93L from the AE90, loss calculation, update setting, and updating the AE90 is the learning anatomy.
  • the area image 61L is repeatedly exchanged and repeated. The repetition of the above series of processes ends when the restoration accuracy from the learning dissection area image 61L to the learning restoration image 93L reaches a predetermined set level.
  • the compression unit 91 of the AE90 whose restoration accuracy has reached the set level in this way is stored in the storage 25 and used as the learned feature amount derivation model 57.
  • the CPU 27 of the PACS server 11 includes the RW control unit 40, the preprocessing unit 41, the request reception unit 42, the search processing unit 43, and the distribution unit. It functions as a control unit 44.
  • the pretreatment unit 41 includes a normalization unit 50, an extraction unit 51, and a feature amount derivation unit 52.
  • the search processing unit 43 includes a similarity evaluation value calculation unit 70 and a similar image selection unit 71.
  • the head MRI image 15 of the patient P is photographed by the MRI device 10, and the head MRI image 15 is transmitted from the MRI device 10 to the PACS server 11.
  • the head MRI image 15 is input to the RW control unit 40 and the preprocessing unit 41.
  • the head MRI image 15 is stored in the storage 25 by the RW control unit 40 (step ST100).
  • a normalization process for matching the head MRI image 15 with the standard head MRI image 55 is performed (step ST110).
  • the head MRI image 15 becomes a normalized head MRI image 60.
  • the normalized head MRI image 60 is output from the normalized unit 50 to the extraction unit 51.
  • a plurality of anatomical area images 61 are extracted from the normalized head MRI image 60 using the segmentation model 56 (step ST120).
  • the dissection area image group 62 composed of the plurality of dissection area images 61 is output from the extraction unit 51 to the feature amount derivation unit 52.
  • the dissection area image 61 is input to the corresponding feature amount derivation model 57.
  • the feature amount set 63 is output from the feature amount derivation model 57 (step ST130).
  • the feature amount set group 45 composed of the plurality of feature amount sets 63 is output from the feature amount derivation unit 52 to the RW control unit 40.
  • the feature amount set group 45 is stored in the storage 25 by the RW control unit 40 (step ST140).
  • the command of the search processing unit 43 The target image 15TI corresponding to the distribution request 20 is searched and read from the storage 25 by the RW control unit 40 that has received the message (step ST210).
  • the target image 15TI is output from the RW control unit 40 to the search processing unit 43, and further output from the search processing unit 43 to the distribution control unit 44.
  • the target image 15TI is distributed by the distribution control unit 44 to the client terminal 12 that is the request source of the distribution request 20 (step ST220).
  • the first display screen 80 shown in FIG. 12 is displayed on the display 17. The doctor observes the patient P's brain reflected in the target image 15TI through the first display screen 80.
  • the similar image search button 82 of the first display screen 80 is selected, the search request 23 is transmitted from the client terminal 12 to the PACS server 11, and the search request 23 is received by the request receiving unit 42. If (YES in step ST300), all the feature quantity set groups 45 are read out from the storage 25 by the RW control unit 40 that has received the command from the search processing unit 43 (step ST310). The feature amount set group 45 is output from the RW control unit 40 to the search processing unit 43.
  • the similarity evaluation value calculation unit 70 between the feature amount set group 45TI of the target image 15TI and the feature amount set group 45CI of the candidate image 15CI, between the target image 15TI and the candidate image 15CI.
  • the similarity evaluation value 76 is calculated (step ST320).
  • the similarity evaluation value 76 is output from the similarity evaluation value calculation unit 70 to the similarity image selection unit 71.
  • the calculation of the similarity evaluation value 76 is repeated until the calculation for all the candidate images 15CI is completed (NO in step ST330).
  • the similar image 15SI is selected from the candidate images 15CI according to the selection condition 75 in the similar image selection unit 71.
  • the similar image 15SI is output from the RW control unit 40 to the search processing unit 43, and further output from the search processing unit 43 to the distribution control unit 44.
  • the similar image 15SI is distributed by the distribution control unit 44 to the client terminal 12 that is the request source of the search request 23 (step ST350).
  • the second display screen 85 shown in FIG. 13 is displayed on the display 17. The doctor makes a diagnosis of dementia for the patient P while referring to the similar image 15SI through the second display screen 85.
  • the CPU 27 of the PACS server 11 includes an RW control unit 40, an extraction unit 51, a feature amount derivation unit 52, a search processing unit 43, and a distribution control unit 44.
  • the RW control unit 40 acquires the target image 15TI, which is the head MRI image 15 to be diagnosed with dementia.
  • the extraction unit 51 extracts an anatomical area image 61 of a plurality of anatomical areas of the brain from the normalized head MRI image 60 obtained by normalizing the head MRI image 15.
  • the feature amount derivation unit 52 inputs a plurality of dissection area images 61 into a plurality of feature amount derivation models 57 prepared for each dissection area, and a plurality of features for each dissection area from the feature amount derivation model 57.
  • the quantity set 63 is output.
  • the search processing unit 43 searches for a similar image 15SI of the target image 15TI by using the feature amount set group 45 composed of a plurality of feature amount sets 63.
  • the distribution control unit 44 distributes the similar image 15SI to the client terminal 12 that is the request source of the search request 23.
  • the number of feature quantities Z is very large, for example, tens to hundreds of thousands. Therefore, the feature amount Z does not represent a limited feature of the brain, but represents a comprehensive feature of the dissected area. Further, the feature amount Z is not a statistically obtained value such as an average value of pixel values, but is obtained by inputting an anatomical area image 61 into the feature amount derivation model 57. Further, the feature amount Z is derived for each dissection area, and the similar image 15SI is searched using the feature amount Z derived for each dissection area. Therefore, the similar image 15SI is searched without being particularly conscious of the dissected area ⁇ Muhammad Owais, etc. , Effective Diagnosis and Treatment Subject-Based Medical Image Retrieval (CBMIR) by Using Artificial Intelligence, Junior. >, It becomes possible to search for a more accurate similar image 15SI.
  • CBMIR Effective Diagnosis and Treatment Subject-Based Medical Image Retrieval
  • the search processing unit 43 has a degree of similarity between the target image 15TI and the candidate image CI from the feature amount set group 45TI of the target image 15TI and the feature amount set group 45CI of the candidate image 15CI.
  • the evaluation value 76 is calculated, and the similar image 15SI is selected from the candidate image 15CI based on the similarity evaluation value 76. Therefore, the similar image 15SI can be smoothly selected.
  • the feature quantity derivation model 57 is a diversion of the compression unit 91 of the AE90.
  • AE90 is one of the frequently used neural network models in the field of machine learning and is generally very well known. Therefore, it can be diverted to the feature amount derivation model 57 relatively easily.
  • the normalization unit 50 performs a normalization process for matching the target image 15TI with the standard head MRI image 55 prior to the extraction of the dissected area. Therefore, the subsequent processing can be performed after substantially eliminating the individual difference of the patient P and the device difference of the MRI device 10, and as a result, it is possible to contribute to a more accurate search for the similar image 15SI.
  • the hippocampus and frontotemporal lobe are anatomical areas with a particularly high correlation with dementia such as Alzheimer's disease. Therefore, as in this example, if the plurality of dissected areas include at least one of the hippocampus and the frontotemporal lobe, it is possible to search for a more accurate similar image 15SI.
  • the candidate image 15CI is not limited to all of the head MRI images 15 other than the target image 15TI.
  • the head MRI image 15 of the patient P having the same gender and age as the patient P of the target image 15TI, or the head MRI image 15 of the patient P having the same attributes as the patient P of the target image 15TI may be used as the candidate image 15CI.
  • the selection condition 75 may be the content of "candidate image whose similarity evaluation value is less than the threshold value".
  • the similar image selection unit 71 selects the candidate image 15CI whose similarity evaluation value 76 is less than the preset threshold value as the similar image 15SI.
  • the similar image selection unit 71 outputs that there is no similar image 15SI. In this case, a message indicating that there is no similar image 15SI is displayed on the second display screen 85.
  • the output mode of the similar image 15SI is not limited to distribution to the client terminal 12.
  • the similar image 15SI may be printed out on a paper medium, or the similar image 15SI may be transmitted to a doctor's mobile terminal as an attachment file of an e-mail.
  • the similarity evaluation value 106 is calculated using the following formula (2).
  • the equation (2) is different from the equation (1) of the first embodiment in that the weighting coefficient Wi is multiplied by the square of the absolute value of the difference between the feature amount ZTIi and the feature amount ZCIi. That is, according to the equation (2), by setting an appropriate weighting coefficient Wi, the similarity evaluation value 106 expressed as S can be set as a value that contributes to a more accurate search for the similar image 15SI. ..
  • the weighting coefficient Wi of this embodiment is set for each dissection area. For example, “0.5”, “0.6”, for the hippocampus, parahippocampal gyrus, frontotemporal lobe, frontotemporal lobe, hypothalamus, amygdala, etc., which are considered to be particularly relevant for dementia.
  • the weighting coefficient Wi is set to "1.0" in the occipital lobe, thalamus, pituitary gland, etc., which are anatomical areas that are considered to have a relatively low relationship with dementia. When the weighting coefficient Wi is "1.0", it means that the weighting is not performed.
  • the similarity evaluation value calculation unit 105 of the present embodiment applies the weighting coefficient Wi set as shown in Table 100 to the feature amount Z of the feature amount set 63 of each dissected area. .. Specifically, the square of the absolute value of the difference between the feature amount ZTI1-1 of the hippocampal feature amount set 63TI_1 of the target image 15TI and the feature amount ZCI1-1 of the hippocampal feature amount set 63CI_1 of the candidate image 15CI is set as the weighting coefficient Wi. Multiply by "0.5".
  • the square of the absolute value of the difference between the feature amount ZTI1_3 of the frontal lobe feature amount set 63TI_3 of the target image 15TI and the feature amount ZCI1_3 of the frontal lobe feature amount set 63CI_3 of the candidate image 15CI is set to "0.5" as the weighting coefficient Wi. "Multiply. Further, the square of the difference between the feature amount ZTI1_4 of the anterior temporal lobe feature amount set 63TI_4 of the target image 15TI and the feature amount ZCI1_4 of the anterior temporal lobe feature amount set 63CI_4 of the candidate image 15CI is used as a weighting coefficient Wi. Multiply by "0.6".
  • the similarity evaluation value calculation unit 105 of the second embodiment calculates the similarity evaluation value 106
  • the feature amount set group 45TI of the target image 15TI and the feature amount set group 45CI of the candidate image 15CI are compared with each other. Then, weighting is performed according to the dissected area. Therefore, the similarity evaluation value 106 can be set to a value more suitable for the diagnosis of dementia, and as a result, the accuracy of the similar image 15SI can be further improved.
  • the weighting coefficient Wi shown in FIG. 22 is just an example. For example, a value larger than 1.0 may be set as the weighting coefficient Wi, or a negative value may be set as the weighting coefficient Wi.
  • the weighting coefficient Wi may be set by, for example, one of the following first method, second method, and third method.
  • first method first, several patterns having different weighting coefficients Wi set for each dissected area are prepared. A similarity evaluation value 106 is calculated for each pattern, and a similar image 15SI is selected for each pattern. Next, the similar image 15SI selected for each pattern is displayed on the display 17 of the client terminal 12 in a selectable manner, and the doctor selects the most accurate similar image 15SI. Then, the pattern when the similar image 15SI selected by the doctor is selected is set as the weighting coefficient Wi to be used in the future.
  • the second method first ranks the similarity of the other head MRI images 15 for any one of the head MRI images 15 stored in the PACS server 11. Ask a doctor. Then, as in the first method, several patterns having different weighting coefficients Wi set in each dissected area are prepared, and the similarity evaluation value 106 is calculated for each pattern. Then, the pattern when the similarity evaluation value that matches or is most similar to the ranking given by the doctor is calculated is set as the weighting coefficient Wi to be used in the future.
  • the third method is to have a doctor rank the similarity and calculate the similarity evaluation value 106 for several patterns with different weighting coefficients Wi set in each dissected area. Same as the method.
  • the third method is to obtain a pattern of the weighting coefficient Wi that best matches the ranking of the degree of similarity given by the doctor by using a statistical method for obtaining the optimum solution such as the least squares method.
  • the compression unit 111 of the convolutional neural network for class determination of a single task (hereinafter, abbreviated as a single task CNN (Convolutional Neural Network)) 110. Is used as the feature quantity derivation model 115.
  • the single task CNN 110 has a compression unit 111 and an output unit 112.
  • An anatomical area image 61 is input to the compression unit 111. Similar to the compression unit 91, the compression unit 111 converts the dissected area image 61 into the feature amount set 113.
  • the compression unit 111 passes the feature amount set 113 to the output unit 112.
  • the output unit 112 outputs one class 114 based on the feature amount set 113. In FIG. 24, the output unit 112 outputs the determination result that dementia has developed or has not developed dementia as class 114.
  • the compression unit 111 of this single task CNN 110 is used as the feature amount derivation model 115.
  • the single task CNN 110 is trained by being given the training data 118 in the learning phase before the compression unit 111 is diverted to the feature quantity derivation model 115.
  • the learning data 118 is a set of the learning anatomical area image 61L and the correct answer class 114CA corresponding to the learning anatomical area image 61L.
  • the correct answer class 114CA is the result of the doctor actually determining whether or not dementia has developed with respect to the head MRI image 15 obtained from the learning anatomical area image 61L.
  • the learning dissection area image 61L is input to the single task CNN110.
  • the single task CNN110 outputs a learning class 114L for a learning anatomical area image 61L. Based on the learning class 114L and the correct answer class 114CA, the loss calculation of the single task CNN110 is performed. Then, various coefficients of the single task CNN 110 are updated according to the result of the loss calculation, and the single task CNN 110 is updated according to the update settings.
  • the compression unit 111 of the single task CNN 110 whose prediction accuracy has reached the set level is stored in the storage 25 as the learned feature amount derivation model 115 and used by the feature amount derivation unit 52.
  • the compression unit 111 of the single task CNN 110 is used as the feature amount derivation model 115.
  • Single-tasking CNN110 is also one of the frequently used neural network models in the field of machine learning and is generally very well known. Therefore, it can be diverted to the feature amount derivation model 115 relatively easily.
  • the class 114 may be, for example, the content that the age of the patient P is less than 75 years old or is 75 years old or more, or in the age of the patient P such as 60s and 70s. There may be.
  • the multitasking CNN 120 has a compression unit 121 and an output unit 122.
  • An anatomical area image 61 is input to the compression unit 121.
  • the compression unit 121 converts the dissected area image 61 into the feature amount set 123, similarly to the compression unit 91 and the compression unit 111.
  • the compression unit 121 passes the feature amount set 123 to the output unit 122.
  • the output unit 122 outputs two classes, the first class 124 and the second class 125, based on the feature amount set 123.
  • the output unit 122 outputs the determination result that dementia has developed or has not developed dementia as the first class 124.
  • the output unit 122 outputs the age of the patient P as the second class 125.
  • the compression unit 121 of the multitasking CNN 120 is used as the feature amount derivation model 126.
  • the multitasking CNN 120 is given learning data 128 and learned in the learning phase before the compression unit 121 is diverted to the feature quantity derivation model 126.
  • the learning data 128 is a set of the learning anatomical area image 61L and the correct answer first class 124CA and the correct answer second class 125CA corresponding to the learning anatomical area image 61L.
  • the correct answer first class 124CA is the result of the doctor actually determining whether or not dementia has developed with respect to the head MRI image 15 obtained the learning anatomical area image 61L.
  • the correct answer second class 125CA is the actual age of the patient P to be photographed on the head MRI image 15 obtained the learning anatomical area image 61L.
  • the learning anatomical area image 61L is input to the multitasking CNN120.
  • the multitasking CNN 120 outputs the learning first class 124L and the learning second class 125L to the learning anatomical area image 61L.
  • the loss calculation of the multitasking CNN 120 is performed based on the learning first class 124L and the learning second class 125L, and the correct answer first class 124CA and the correct answer second class 125CA.
  • various coefficients of the multitasking CNN 120 are updated according to the result of the loss calculation, and the multitasking CNN 120 is updated according to the update setting.
  • the input of the learning dissection area image 61L to the multitasking CNN120, the output of the learning first class 124L and the learning second class 125L from the multitasking CNN120, the loss calculation, the update setting, And the above-mentioned series of processes for updating the multitasking CNN 120 are repeated while the learning data 128 is exchanged.
  • the repetition of the above series of processes ends when the prediction accuracy of the learning first class 124L and the learning second class 125L for the correct answer first class 124CA and the correct answer second class 125CA reaches a predetermined setting level. Will be done.
  • the compression unit 121 of the multitasking CNN 120 whose prediction accuracy has reached the set level is stored in the storage 25 as the learned feature amount derivation model 126 and used by the feature amount derivation unit 52.
  • the compression unit 121 of the multitasking CNN 120 is used as the feature amount derivation model 126.
  • the multitasking CNN120 performs a more complicated process of outputting a plurality of classes (first class 124 and second class 125) as compared with the AE90 and the singletasking CNN110. Therefore, the feature amount set 123 output from the compression unit 121 is likely to more comprehensively represent the features of the dissected area image 61. Therefore, as a result, the accuracy of the similar image 15SI can be further improved.
  • the first class 124 may be, for example, the degree of progression of dementia at five levels. Further, as the second class 125, the determination result of the age of the patient P may be used.
  • the multitasking CNN120 may output three or more classes.
  • the dissected area image 61 of one dissected area is input to a plurality of different feature quantity derivation models.
  • the feature amount derivation unit 130 of the present embodiment inputs the dissection area image 61 of one dissection area into the first feature amount derivation model 131, inputs it into the second feature amount derivation model 132, and inputs the third feature amount derivation model 132. It is input to the feature amount derivation model 133.
  • the feature quantity derivation unit 130 outputs the first feature quantity set 134 from the first feature quantity derivation model 131, outputs the second feature quantity set 135 from the second feature quantity derivation model 132, and derives the third feature quantity.
  • the third feature amount set 136 is output from the model 133.
  • the first feature quantity derivation model 131 is a diversion of the compression unit 91 of the AE90 of the first embodiment.
  • the second feature quantity derivation model 132 is a diversion of the compression unit 111 of the single task CNN 110 of the third embodiment.
  • the third feature quantity derivation model 133 is a diversion of the compression unit 121 of the multitasking CNN 120 of the fourth embodiment.
  • the feature amount derivation unit 130 draws the dissection area image 61 of one dissection area into the first feature amount derivation model 131, the second feature amount derivation model 132, and the third feature amount derivation. Input to model 133. Then, the first feature amount set 134, the second feature amount set 135, and the third feature amount set 136 are output from each model 131 to 133. Therefore, a wide variety of feature quantities Z can be obtained as compared with the case of using one type of feature quantity derivation model 57. As a result, the accuracy of the similar image 15SI can be further improved.
  • the plurality of different feature quantity derivation models may be, for example, a combination of the first feature quantity derivation model 131 diverted from the compression unit 91 of the AE90 and the second feature quantity derivation model 132 diverted from the compression unit 111 of the single task CNN 110. ..
  • a combination of the second feature amount derivation model 132 diverted from the compression unit 111 of the single task CNN 110 and the third feature amount derivation model 133 diverted from the compression unit 121 of the multitask CNN 120 may be used.
  • the weighting coefficient Wi is set for each type of the feature amount derivation model. Specifically, for the feature amount Z of the first feature amount set 134 derived by the first feature amount derivation model 131 diverted from the compression unit 91 of the AE90 of the first embodiment, the weighting coefficient Wi is set to "1". .0 ”is applied. For the feature amount Z of the second feature amount set 135 derived by the second feature amount derivation model 132 diverted from the compression unit 111 of the single task CNN 110 of the third embodiment, the weighting coefficient Wi is "0.75". To apply. For the feature amount Z of the third feature amount set 136 derived by the third feature amount derivation model 133 diverted from the compression unit 121 of the multitasking CNN 120 of the fourth embodiment, the weighting coefficient Wi is "0.5". To apply.
  • the similarity evaluation value 106 when the similarity evaluation value 106 is calculated, a plurality of different feature quantities are derived for the feature quantity set group 45TI of the target image 15TI and the feature quantity set group 45CI of the candidate image 15CI. Weighting is performed according to the models 131 to 133. Therefore, the similarity evaluation value 106 can be set to a value more suitable for the diagnosis of dementia, and as a result, the accuracy of the similar image 15SI can be further improved.
  • the weighting coefficient Wi shown in FIG. 29 is just an example.
  • a value larger than 1.0 may be set as the weighting coefficient Wi, or a negative value may be set as the weighting coefficient Wi.
  • the weighting coefficient Wi may be set by the first to third methods as in the second embodiment.
  • Equation (3) is an equation for calculating the sum of the absolute values of the differences between the feature amount ZTIi and the feature amount ZCIi, that is, the Manhattan distance as the similarity evaluation value.
  • Equation (4) is the content obtained by multiplying the absolute value of the difference between the feature amount ZTIi and the feature amount ZCIi by the weighting coefficient Wi.
  • the distance between the multidimensional vector having the feature amount ZTIi as an element and the multidimensional vector having the feature amount ZCIi as an element is calculated as a similarity evaluation value, but the present invention is not limited to this.
  • the correlation coefficient between the feature amount ZTIi and the feature amount ZCIi may be calculated as a similarity evaluation value. In this case, contrary to each of the above embodiments, the higher the similarity between the target image 15TI and the candidate image 15CI (there is a correlation between the feature amount ZTIi and the feature amount ZCIi), the larger the similarity evaluation value.
  • the AE250 has a compression unit 253 and a restoration unit 254, as in the AE90 of the first embodiment.
  • An anatomical area image 61 is input to the compression unit 253.
  • the compression unit 253 converts the dissected area image 61 into a feature set 255.
  • the compression unit 253 passes the feature amount set 255 to the restoration unit 254.
  • the restoration unit 254 generates the restoration image 256 of the dissection area image 61 from the feature amount set 255.
  • the single task CNN 251 has a compression unit 253 and an output unit 257, similar to the single task CNN 110 of the third embodiment. That is, the compression unit 253 is shared by the AE250 and the single task CNN251.
  • the compression unit 253 passes the feature amount set 255 to the output unit 257.
  • the output unit 257 outputs one class 258 based on the feature amount set 255. In FIG. 30, the output unit 257 outputs the determination result that the patient P with mild cognitive impairment remains mild cognitive impairment after 2 years or progresses to Alzheimer's disease after 2 years as class 258.
  • the output unit 257 outputs an aggregated feature amount ZA that aggregates a plurality of feature amounts Z constituting the feature amount set 255.
  • the aggregate feature amount ZA is output for each dissected area.
  • the aggregated feature amount ZA is input to the search processing unit 278 (see FIG. 34) instead of the feature amount set 255.
  • the output unit 257 has a self-attention (hereinafter abbreviated as SA (Self-Attention)) mechanism layer 265, an overall average pooling (hereinafter abbreviated as GAP (Global Function Polling)) layer 266, and Fully connected (hereinafter abbreviated as FC (Full Connected)) layer 267, softmax function (hereinafter abbreviated as SMF (SoftMax Function) layer 268, and principal component analysis (hereinafter abbreviated as PCA (Principal Component Analysis)) layer 269.
  • SA Self-attention
  • GAP Global Function Polling
  • FC Fully connected
  • SMF SoftMax Function
  • PCA Principal component analysis
  • the SA mechanism layer 265 performs the convolution process shown in FIG. 15 on the feature amount set 255 while changing the coefficient of the filter 203 according to the element value of the attention element 201I.
  • the convolution process performed in the SA mechanism layer 265 is referred to as an SA convolution process.
  • the SA mechanism layer 265 outputs the feature amount set 255 after the SA convolution process to the GAP layer 266.
  • the GAP layer 266 undergoes an overall average pooling treatment on the feature amount set 255 after the SA convolution treatment.
  • the overall average pooling process is a process for obtaining the average value of the feature amount Z for each channel (see FIG. 16) of the feature amount set 255. For example, when the number of channels of the feature amount set 255 is 512, the average value of 512 feature amounts Z is obtained by the overall average pooling process.
  • the GAP layer 266 outputs the average value of the obtained feature amount Z to the FC layer 267 and the PCA layer 269.
  • the FC layer 267 converts the average value of the feature amount Z into a variable handled by the SMF of the SMF layer 268.
  • the FC layer 267 has an input layer having units for the number of average values of the feature amount Z (that is, the number of channels of the feature amount set 255) and an output layer having units for the number of variables handled by the SMF. Each unit of the input layer and each unit of the output layer are fully connected to each other, and weights are set for each.
  • An average value of the feature amount Z is input to each unit of the input layer.
  • the sum of products of the average value of the feature amount Z and the weight set between each unit is the output value of each unit of the output layer. This output value is a variable handled by SMF.
  • the FC layer 267 outputs the variables handled by the SMF to the SMF layer 268.
  • the SMF layer 268 outputs the class 258 by applying the variable to the SMF.
  • the PCA layer 269 performs PCA on the average value of the feature amount Z, and sets the average value of the plurality of feature amount Z as the aggregated feature amount ZA in a smaller number. For example, the PCA layer 269 aggregates the average value of 512 feature quantities Z into one aggregated feature quantity ZA.
  • the AE250 is learned by inputting the learning anatomical area image 61L in the learning phase.
  • the AE250 outputs a learning restored image 256L with respect to the learning dissection area image 61L.
  • the loss calculation of the AE250 using the loss function is performed.
  • various coefficients of the AE250 are updated according to the result of the loss calculation (hereinafter referred to as the loss L1), and the AE250 is updated according to the update setting.
  • the above series of processes of inputting the learning anatomical area image 61L to the AE250, outputting the learning restored image 256L from the AE250, loss calculation, update setting, and updating the AE250 is the learning anatomy.
  • the area image 61L is repeatedly exchanged and repeated.
  • the single task CNN251 is trained by being given learning data 275 in the learning phase.
  • the learning data 275 is a set of a learning anatomical area image 61L and a correct answer class 258CA corresponding to the learning anatomical area image 61L.
  • the correct answer class 258CA is the patient P to be photographed on the head MRI image 15 obtained from the dissection area image 61L for learning actually remaining mild cognitive impairment even after 2 years? , Or whether it progressed to Alzheimer's disease two years later.
  • the learning dissection area image 61L is input to the single task CNN251.
  • the single task CNN251 outputs a learning class 258L for a learning dissection area image 61L.
  • the loss calculation of the single task CNN251 using the cross entropy function or the like is performed.
  • various coefficients of the single task CNN 251 are updated according to the result of the loss calculation (hereinafter referred to as the loss L2), and the single task CNN 251 is updated according to the update setting.
  • the update setting of the AE250 and the update setting of the single task CNN251 are performed based on the total loss L represented by the following formula (B).
  • is a weight.
  • L L1 ⁇ ⁇ + L2 ⁇ (1- ⁇ ) ⁇ ⁇ ⁇ (B) That is, the total loss L is a weighted sum of the loss L1 of the AE250 and the loss L2 of the single task CNN251.
  • 1 is set for the weight ⁇ in the initial stage of the learning phase.
  • the weight ⁇ is gradually reduced from 1 as learning progresses, and eventually becomes a fixed value (0.8 in FIG. 33).
  • the learning of the AE250 and the learning of the single task CNN251 are performed together with the intensity corresponding to the weight ⁇ .
  • the weight given to the loss L1 is larger than the weight given to the loss L2.
  • the weight given to the loss L1 is gradually decreased from the maximum value of 1, and the weight given to the loss L2 is gradually increased from the minimum value of 0, and both are set to fixed values.
  • the restoration accuracy from the learning dissection area image 61L to the learning restoration image 256L by the AE250 reaches a predetermined setting level, and the learning is performed for the correct answer class 258CA by the single task CNN251. It ends when the prediction accuracy of class 258L reaches a predetermined set level.
  • the AE250 and the single-tasking CNN251 whose restoration accuracy and prediction accuracy have reached the set level in this way are stored in the storage 20 and used as the learned feature amount derivation model 252.
  • the target image 15TI is used instead of the feature amount set group 45TI of the target image 15TI and the feature amount set group 45CI of the candidate image 15CI.
  • the aggregated feature group ZAGTI and the aggregated feature group ZAGCI of the candidate image 15CI are input.
  • the aggregated feature amount group ZAGTI of the target image 15TI is a set of a plurality of aggregated feature amounts ZA derived from the plurality of dissected area images 61 of the target image 15TI.
  • the aggregate feature group ZAGCI of the candidate image 15CI is a set of a plurality of aggregate feature ZAs derived from the plurality of dissected area images 61 of the candidate image 15CI.
  • the search processing unit 278 calculates the similarity evaluation value 76 from the aggregate feature group ZAGTI and ZAGCI instead of the feature set groups 45TI and 45CI, and the similar image based on the selection condition 75 and the calculated similarity evaluation value 76. Select 15SI.
  • the dementia finding derivation unit 280 is constructed in the CPU 27 of the PACS server 11.
  • the dementia finding derivation unit 280 inputs the aggregated feature group ZAGTI of the target image 15TI and the dementia-related information 281 into the dementia finding derivation model 282.
  • the dementia-related information 281 includes, for example, the volume of the dissected area such as the sex, age, and volume of the hippocampus of the patient P who diagnoses dementia, and the score of the Hasegawa dementia scale (HDS-R; Revised Hasegawa's Dementia Scale). It includes the score of the dementia test such as, the test result of the genetic test such as the genotype of the ApoE gene, the test result of the spinal fluid test such as the measured value of amyloid ⁇ , and the test result of the blood test such as the measured value of apolipoprotein.
  • the test result of the genetic test such as the genotype of the ApoE gene
  • the test result of the spinal fluid test such as the measured value of amyloid ⁇
  • the test result of the blood test such as the measured value of apolipoprotein.
  • the dementia finding derivation model 282 has a quantile normalization unit 283 and a linear discriminant analysis unit 284.
  • the aggregate feature group ZAGTI and dementia-related information 281 are input to the quantile normalization unit 283.
  • the quantile normalization unit 283 converts the plurality of aggregated feature quantities ZA constituting the aggregated feature quantity group ZAGTI and the parameters of the dementia-related information 281 into data according to a normal distribution in order to handle them in the same row.
  • Quantile Normalization is performed.
  • the linear discriminant analysis unit 284 performs linear discriminant analysis (Linear Discriminant Analysis) for each parameter of the aggregated feature amount ZA and the dementia-related information 281 after the division normalization process, and as a result, the dementia finding information 285 is obtained.
  • Dementia finding information 285 is either that the patient P with mild cognitive impairment currently remains mild cognitive impairment after 2 years or progresses to Alzheimer's disease after 2 years.
  • the single task CNN251 that performs the main task such as the output of class 258 and the single task CNN251 are partially common, and the AE250 that performs a subtask that is more general than the main task such as the generation of the restored image 256.
  • the AE250 and the single task CNN251 are learned at the same time. Therefore, it is possible to output a more appropriate feature amount set 255 and aggregate feature amount ZA as compared with the case where the AE250 and the single task CNN251 are separate, and as a result, it is possible to search for a more accurate similar image 15SI. It will be possible.
  • the update setting is performed based on the total loss L, which is the weighted sum of the loss L1 of the AE250 and the loss L2 of the single task CNN251. Therefore, by setting the weight ⁇ to an appropriate value, the AE250 can be intensively learned, the single-tasking CNN251 can be intensively learned, and the AE250 and the single-tasking CNN251 can be learned in a well-balanced manner.
  • the weight given to the loss L1 is larger than the weight given to the loss L2. Therefore, the AE250 can always be focused on learning. If the AE250 is always focused on learning, the feature amount set 255 that more expresses the features of the shape and texture of the dissected area can be output from the compression unit 253, and as a result, the more plausible aggregate feature amount ZA can be output from the output unit. It can be output from 257.
  • the weight given to the loss L1 is gradually decreased from the maximum value, and the weight given to the loss L2 is gradually increased from the minimum value, and when learning is performed a predetermined number of times, both are set as fixed values. Therefore, the AE250 can be learned more intensively in the initial stage of learning.
  • the AE250 is responsible for the relatively simple subtask of generating the restored image 256. Therefore, if the AE250 is trained more intensively in the initial stage of learning, the feature amount set 255 that more expresses the characteristics of the shape and texture of the dissected area can be output from the compression unit 253 in the initial stage of learning. ..
  • Table 300 shown in FIG. 36 shows No. 1 according to the method for predicting the progression of dementia described in the following documents A, B, C, D, E, F, and G. Nos. 1 to 7 and the method for predicting the progression of dementia illustrated in FIG. 35. The performance comparison with 8 and 9 is shown.
  • No. Reference numeral 8 shows a case where only the aggregate feature group ZAGTI is input to the dementia finding derivation model 282 and the dementia-related information 281 is not input.
  • No. Reference numeral 9 shows a case where the aggregated feature group ZAGTI and the dementia-related information 281 are input to the dementia finding derivation model 282.
  • the accuracy of 8 and 9 is 0.84 and 0.90. Especially No. The correct answer rate of 9 is 0.90, which is No. Higher than any of 1 to 7 correct answers.
  • the AUCs (Area Under the Curve) of 8 and 9 are 0.93 and 0.97. These values are No. 1 according to the method for predicting the progression of dementia described in Document E. Greater than 5. Therefore, the method for predicting the progression of dementia exemplified in FIG. 35 can predict the progression of dementia with higher accuracy than the conventional methods for predicting the progression of dementia described in Documents A to G. It can be said that.
  • No. Sensitivity of 8 and 9 is 0.85 and 0.91. These values are No. Higher than any of 1-7. Especially No. The sensitivity of 9 of 0.91 is the highest value among them. Therefore, in the method for predicting the progression of dementia exemplified in FIG. 35, as compared with the conventional methods for predicting the progression of dementia described in Documents A to G, the patient P with mild cognitive impairment currently progresses to Alzheimer's disease after the prediction period. It can be said that this can be predicted without overlooking.
  • the aggregated feature quantity groups ZAGTI and ZAGCI accurately represent the features of the target image 15TI and the candidate image 15CI. Therefore, it is possible to obtain the effect that a more accurate similar image 15SI can be searched.
  • ADNI Alzheimer's Disease Neuroimaging Initiative
  • AIBL is an abbreviation for "Australian Imaging Biomarkers and Lifestyle Study of Aging”.
  • J-ADNI is an abbreviation for "Japanese Alzheimer's Disease Neuroimaging Intivive”. Both show a database in which head MRI images 15 and the like of patient P with Alzheimer's disease are accumulated.
  • the multitasking CNN120 of the fourth embodiment may be used. Further, the findings of dementia of patient P may be derived based on the feature amount set group 45TI of the target image 15TI instead of the aggregated feature amount group ZAGTI of the target image 15TI.
  • the learning of the AE90 shown in FIG. 18, the learning of the single-tasking CNN110 shown in FIG. 25, the learning of the multitasking CNN120 shown in FIG. 27, the learning of the AE250 and the single-tasking CNN251 shown in FIG. It may be performed in, or it may be performed by a device other than the PACS server 11. Further, these learnings may be continuously performed after storing the feature quantity derivation model in the storage 25 of the PACS server 11.
  • a device other than the PACS server 11 may function as a diagnostic support device. Further, the client terminal 12 may function as a diagnostic support device.
  • the medical image is not limited to the illustrated head MRI image 15.
  • PET Positron Emission Tomography
  • SPECT Single Photon Emission Tomography
  • CT Computed Tomography
  • the organ is not limited to the illustrated brain, but may be the heart, lungs, liver, etc.
  • the right lungs S1, S2, left lungs S1, S2 and the like are extracted as dissected areas.
  • the liver the right lobe, left lobe, gallbladder, etc. are extracted as dissected areas.
  • the disease is not limited to the exemplified dementia, and may be heart disease, pneumonia, liver dysfunction, or the like.
  • the RW control unit 40 the preprocessing unit 41, the request reception unit 42, the search processing units 43 and 278, the distribution control unit 44, the normalization unit 50, the extraction unit 51, the feature quantity derivation unit 52, and the like.
  • the hardware structure of the processing unit (Processing Unit) that executes various processes such as 130, similarity evaluation value calculation units 70 and 105, similar image selection unit 71, and dementia finding derivation unit 280 is shown below.
  • Various processors can be used.
  • the CPU 27 is a general-purpose processor that executes software (operation program 35) and functions as various processing units, after manufacturing an FPGA (Field Programmable Gate Array) or the like.
  • Dedicated processor with a circuit configuration specially designed to execute specific processing such as programmable logic device (PLD), ASIC (Application Specific Integrated Circuit), which is a processor whose circuit configuration can be changed. Includes electrical circuits and the like.
  • One processing unit may be composed of one of these various processors, or may be a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs and / or a CPU). It may be configured in combination with FPGA). Further, a plurality of processing units may be configured by one processor.
  • one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client and a server.
  • the processor functions as a plurality of processing units.
  • SoC System On Chip
  • SoC system On Chip
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • an electric circuit in which circuit elements such as semiconductor elements are combined can be used.
  • the technique of the present disclosure can be appropriately combined with the various embodiments described above and / or various modifications. Further, it is of course not limited to each of the above embodiments, and various configurations can be adopted as long as they do not deviate from the gist. Further, the technique of the present disclosure extends to a storage medium for storing the program non-temporarily in addition to the program.
  • a and / or B is synonymous with "at least one of A and B". That is, “A and / or B” means that it may be A alone, B alone, or a combination of A and B. Further, in the present specification, when three or more matters are connected and expressed by "and / or", the same concept as “A and / or B" is applied.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Databases & Information Systems (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

プロセッサと、プロセッサに接続または内蔵されたメモリと、を備え、プロセッサは、疾病の診断対象の医用画像である対象画像を取得し、対象画像から臓器の複数の解剖区域を抽出し、複数の解剖区域の画像を、複数の解剖区域毎に用意された複数の特徴量導出モデルに入力し、特徴量導出モデルから複数の解剖区域毎の複数の特徴量を出力させ、複数の特徴量を用いて、対象画像の類似画像を検索し、類似画像を出力する、診断支援装置。

Description

診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム、並びに認知症診断支援方法
 本開示の技術は、診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム、並びに認知症診断支援方法に関する。
 疾病、例えばアルツハイマー病に代表される認知症の診断において、医師は、頭部MRI(Magnetic Resonance Imaging)画像等の医用画像を参照する。医師は、例えば、海馬、海馬傍回、扁桃体等の萎縮の程度、白質の血管障害の程度、前頭葉、側頭葉、後頭葉の血流代謝低下の有無等を観察し、認知症の所見を得る。また、医師は、診断対象の頭部MRI画像に類似する類似画像を検索して、検索した類似画像も考慮に入れて認知症の所見を導き出す。
 類似画像の検索においては、類似画像の検索を行う対象画像と、類似画像の候補画像との間の類似度評価値を算出する処理が行われる。類似度評価値は、例えば、対象画像の複数の特徴量を要素とする多次元ベクトルと、候補画像の複数の特徴量を要素とする多次元ベクトルとの距離である。この場合、対象画像と候補画像の類似度が高ければ、両多次元ベクトルの距離が短くなるので、類似度評価値は小さくなる。
 従来、特徴量には、画素値の平均値、最大値、最小値、あるいは画像に写る物体の円形度といったものが用いられていた。しかし、こうした統計的に得られた特徴量だけでは、納得感のある類似画像を検索することができない場合があった。そこで、<Muhammad Owais, etc., Effective Diagnosis and Treatment through Content-Based Medical Image Retrieval (CBMIR) by Using Artificial Intelligence, Journal of Clinical Medicine, 2019.>に記載されているように、対象画像を機械学習モデルに入力して、これにより機械学習モデルから出力された特徴量を用いて類似度評価値を算出することが行われている。
 前述のように、脳等の臓器は、海馬、扁桃体等の多くの解剖区域の集合である。そして、疾病の所見を得るためには、解剖区域を様々な視点で隈なく精査する必要がある。しかしながら<Muhammad Owais, etc., Effective Diagnosis and Treatment through Content-Based Medical Image Retrieval (CBMIR) by Using Artificial Intelligence, Journal of Clinical Medicine, 2019.>では、特に解剖区域を意識することなく類似度評価値を算出している。このため、<Muhammad Owais, etc., Effective Diagnosis and Treatment through Content-Based Medical Image Retrieval (CBMIR) by Using Artificial Intelligence, Journal of Clinical Medicine, 2019.>では、類似画像の的確性に限界があった。
 本開示の技術に係る1つの実施形態は、より的確な類似画像を検索することが可能な診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム、並びに認知症診断支援方法を提供する。
 本開示の診断支援装置は、プロセッサと、プロセッサに接続または内蔵されたメモリと、を備え、プロセッサは、疾病の診断対象の医用画像である対象画像を取得し、対象画像から臓器の複数の解剖区域を抽出し、複数の解剖区域の画像を、複数の解剖区域毎に用意された複数の特徴量導出モデルに入力し、特徴量導出モデルから複数の解剖区域毎の複数の特徴量を出力させ、複数の特徴量を用いて、対象画像の類似画像を検索し、類似画像を出力する。
 プロセッサは、類似画像の候補画像からも複数の解剖区域を抽出し、候補画像の複数の解剖区域の画像を、複数の特徴量導出モデルに入力し、特徴量導出モデルから複数の解剖区域毎の複数の特徴量を出力させ、対象画像の複数の特徴量と候補画像の複数の特徴量とから、対象画像と候補画像との間の類似度評価値を算出し、類似度評価値に基づいて候補画像から類似画像を選定することが好ましい。
 プロセッサは、類似度評価値を算出する場合に、対象画像の複数の特徴量と候補画像の複数の特徴量に対して、解剖区域に応じた重み付けを行うことが好ましい。
 特徴量導出モデルは、オートエンコーダ、シングルタスクのクラス判別用畳み込みニューラルネットワーク、およびマルチタスクのクラス判別用畳み込みニューラルネットワークのうちの少なくともいずれか1つを含むことが好ましい。
 プロセッサは、1つの解剖区域の画像を、異なる複数の特徴量導出モデルに入力し、複数の特徴量導出モデルの各々から特徴量を出力させることが好ましい。
 プロセッサは、類似度評価値を算出する場合に、対象画像の複数の特徴量と候補画像の複数の特徴量に対して、異なる複数の特徴量導出モデルに応じた重み付けを行うことが好ましい。
 プロセッサは、解剖区域の抽出に先立ち、取得した対象画像を標準医用画像に合わせる正規化処理を行うことが好ましい。
 臓器は脳であり、疾病は認知症であることが好ましい。この場合、複数の解剖区域は、海馬および前側頭葉のうちの少なくともいずれか1つを含むことが好ましい。
 本開示の診断支援装置の作動方法は、疾病の診断対象の医用画像である対象画像を取得すること、対象画像から臓器の複数の解剖区域を抽出すること、複数の解剖区域の画像を、複数の解剖区域毎に用意された複数の特徴量導出モデルに入力し、特徴量導出モデルから複数の解剖区域毎の複数の特徴量を出力させること、複数の特徴量を用いて、対象画像の類似画像を検索すること、および、類似画像を出力すること、を含む。
 本開示の診断支援装置の作動プログラムは、疾病の診断対象の医用画像である対象画像を取得すること、対象画像から臓器の複数の解剖区域を抽出すること、複数の解剖区域の画像を、複数の解剖区域毎に用意された複数の特徴量導出モデルに入力し、特徴量導出モデルから複数の解剖区域毎の複数の特徴量を出力させること、複数の特徴量を用いて、対象画像の類似画像を検索すること、および、類似画像を出力すること、を含む処理をコンピュータに実行させる。
 本開示の認知症診断支援方法は、プロセッサと、プロセッサに接続または内蔵されたメモリと、を備えるコンピュータが、認知症の診断対象の脳が写った医用画像である対象画像を取得すること、対象画像から脳の複数の解剖区域を抽出すること、複数の解剖区域の画像を、複数の解剖区域毎に用意された複数の特徴量導出モデルに入力し、特徴量導出モデルから複数の解剖区域毎の複数の特徴量を出力させること、複数の特徴量を用いて、対象画像の類似画像を検索すること、および、類似画像を出力すること、を行う。
 本開示の技術によれば、より的確な類似画像を検索することが可能な診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム、並びに認知症診断支援方法を提供することができる。
医療システムを示す図である。 クライアント端末とPACSサーバとの間で遣り取りされる情報を示す図である。 クライアント端末とPACSサーバとの間で遣り取りされる情報を示す図である。 PACSサーバを構成するコンピュータを示すブロック図である。 PACSサーバのCPUの処理部を示すブロック図である。 前処理部の詳細を示すブロック図である。 正規化部の処理を示す図である。 抽出部の処理を示す図である。 特徴量導出部の処理を示す図である。 検索処理部の詳細を示すブロック図である。 類似度評価値算出部の処理を示す図である。 第1表示画面を示す図である。 第2表示画面を示す図である。 オートエンコーダの構成および特徴量導出モデルの成り立ちを示す図である。 畳み込み処理の説明図である。 演算データの構成を示す図である。 プーリング処理の説明図である。 オートエンコーダの学習フェーズにおける処理の概要を示す図である。 PACSサーバの処理手順を示すフローチャートである。 PACSサーバの処理手順を示すフローチャートである。 PACSサーバの処理手順を示すフローチャートである。 解剖区域毎に設定される重み付け係数の一例を示す図である。 第2実施形態における類似度評価値算出部の処理を示す図である。 シングルタスクのクラス判別用畳み込みニューラルネットワークの構成および特徴量導出モデルの成り立ちを示す図である。 シングルタスクのクラス判別用畳み込みニューラルネットワークの学習フェーズにおける処理の概要を示す図である。 マルチタスクのクラス判別用畳み込みニューラルネットワークの構成および特徴量導出モデルの成り立ちを示す図である。 マルチタスクのクラス判別用畳み込みニューラルネットワークの学習フェーズにおける処理の概要を示す図である。 第5実施形態の特徴量導出部の処理を示す図である。 特徴量導出モデルの種類毎に設定される重み付け係数の一例を示す図である。 オートエンコーダとシングルタスクのクラス判別用畳み込みニューラルネットワークの構成、および特徴量導出モデルの成り立ちを示す図である。 出力部の詳細構成を示す図である。 オートエンコーダおよびシングルタスクのクラス判別用畳み込みニューラルネットワークの学習フェーズにおける処理の概要を示す図である。 オートエンコーダの損失に与えられる重みの変遷を示すグラフである。 第7実施形態の検索処理部の処理の概略図である。 対象画像の集約特徴量群に基づいて、対象画像の患者の認知症の所見を導出する態様を示す図である。 従来の文献に記載の認知症の進行予測方法と図35で例示した認知症の進行予測方法との性能比較を示す表である。
 [第1実施形態]
 一例として図1に示すように、医療システム2は、MRI装置10、PACS(Picture Archiving and Communication System)サーバ11、およびクライアント端末12を備える。これらMRI装置10、PACSサーバ11、およびクライアント端末12は、医療施設内に敷設されたLAN(Local Area Network)13に接続されており、LAN13を介して相互に通信することが可能である。なお、PACSサーバ11は、本開示の技術に係る「診断支援装置」の一例である。
 MRI装置10は、患者Pの頭部を撮影して頭部MRI画像15を出力する。頭部MRI画像15は、患者Pの頭部の三次元形状を表すボクセルデータである。図1においては、サジタル断面の頭部MRI画像15Sを示している。MRI装置10は、頭部MRI画像15をPACSサーバ11に送信する。PACSサーバ11は、MRI装置10からの頭部MRI画像15を記憶し、管理する。なお、頭部MRI画像15は、本開示の技術に係る「医用画像」の一例である。
 クライアント端末12は、例えばデスクトップ型のパーソナルコンピュータであり、ディスプレイ17と入力デバイス18とを備える。入力デバイス18は、キーボード、マウス、タッチパネル、マイクロフォン等である。なお、図1では、MRI装置10およびクライアント端末12はそれぞれ1台しか描かれていないが、MRI装置10およびクライアント端末12はそれぞれ複数台あってもよい。
 一例として図2に示すように、医師は、入力デバイス18を操作して、PACSサーバ11に対して診断対象の患者Pの頭部MRI画像15(以下、対象画像15TIと表記する)の配信要求20を送信する。配信要求20には、対象画像15TIの画像ID(Identification Data)、患者Pの患者ID、対象画像15TIの撮影日時等が含まれている。PACSサーバ11は、配信要求20に応じて、対象画像15TIを検索してクライアント端末12に配信する。クライアント端末12は、PACSサーバ11から配信された対象画像15TIを受信し、受信した対象画像15TIをディスプレイ17に表示する。
 また、一例として図3に示すように、医師は、入力デバイス18を操作して、PACSサーバ11に対して対象画像15TIの類似画像15SIの検索要求23を送信する。検索要求23には、配信要求20と同様に、対象画像15TIの画像ID等が含まれている。PACSサーバ11は、類似画像15SIを検索してクライアント端末12に配信する。クライアント端末12は、PACSサーバ11から配信された類似画像15SIを受信し、受信した類似画像15SIを対象画像15TIと比較可能にディスプレイ17に表示する。医師は、対象画像15TIに写る患者Pの脳を観察し、場合によって類似画像15SIも参照しつつ、患者Pに対する認知症の診断を行う。なお、脳は、本開示の技術に係る「臓器」の一例であり、認知症は、本開示の技術に係る「疾病」の一例である。
 一例として図4に示すように、PACSサーバ11を構成するコンピュータは、ストレージ25、メモリ26、CPU(Central Processing Unit)27、および通信部28を備えている。これらはバスライン29を介して相互接続されている。なお、CPU27は、本開示の技術に係る「プロセッサ」の一例である。
 ストレージ25は、PACSサーバ11を構成するコンピュータに内蔵、またはケーブル、ネットワークを通じて接続されたハードディスクドライブである。もしくはストレージ25は、ハードディスクドライブを複数台連装したディスクアレイである。ストレージ25には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム、およびこれらのプログラムに付随する各種データ等が記憶されている。なお、ハードディスクドライブに代えてソリッドステートドライブを用いてもよい。
 メモリ26は、CPU27が処理を実行するためのワークメモリである。CPU27は、ストレージ25に記憶されたプログラムをメモリ26へロードして、プログラムにしたがった処理を実行する。これによりCPU27は、コンピュータの各部を統括的に制御する。通信部28は、クライアント端末12等の外部装置との各種情報の伝送制御を行う。なお、メモリ26は、CPU27に内蔵されていてもよい。
 一例として図5に示すように、PACSサーバ11のストレージ25には、作動プログラム35が記憶されている。作動プログラム35は、PACSサーバ11を構成するコンピュータを診断支援装置として機能させるためのアプリケーションプログラムである。すなわち、作動プログラム35は、本開示の技術に係る「診断支援装置の作動プログラム」の一例である。
 作動プログラム35が起動されると、PACSサーバ11を構成するコンピュータのCPU27は、メモリ26等と協働して、リードライト(以下、RW(Read Write)と略す)制御部40、前処理部41、要求受付部42、検索処理部43、および配信制御部44として機能する。
 RW制御部40は、ストレージ25への各種データの記憶、およびストレージ25内の各種データの読み出しを制御する。例えばRW制御部40は、MRI装置10から頭部MRI画像15を受信し、受信した頭部MRI画像15をストレージ25に記憶する。ここで、対象画像15TIは、MRI装置10で撮影した複数の頭部MRI画像15のうちの1つである。このため、RW制御部40は、MRI装置10から頭部MRI画像15を受信することで、対象画像15TIを取得していることになる。
 前処理部41は、MRI装置10からの頭部MRI画像15に対して、後述する様々な前処理を施す。前処理部41は、前処理の結果導出された特徴量セット群45をRW制御部40に出力する。RW制御部40は、特徴量セット群45を頭部MRI画像15と関連付けてストレージ25に記憶する。これにより、ストレージ25には、頭部MRI画像15と特徴量セット群45のペアが複数記憶されることになる。
 要求受付部42は、クライアント端末12から送信される配信要求20および検索要求23を受け付ける。要求受付部42は、受け付けた配信要求20および検索要求23を検索処理部43に出力する。
 検索処理部43は、対象画像15TIおよび類似画像15SIの検索処理を担う。要求受付部42から配信要求20が入力された場合、検索処理部43は、配信要求20に応じた対象画像15TIをストレージ25から検索して読み出す旨の指令を、RW制御部40に出力する。RW制御部40は、当該指令を受けて、配信要求20に応じた対象画像15TIをストレージ25から検索して読み出し、読み出した対象画像15TIを検索処理部43に出力する。検索処理部43は、対象画像15TIを配信制御部44に出力する。
 要求受付部42から検索要求23が入力された場合、検索処理部43は、全ての特徴量セット群45をストレージ25から読み出す旨の指令を、RW制御部40に出力する。RW制御部40は、当該指令を受けて、全ての特徴量セット群45をストレージ25から読み出し、読み出した特徴量セット群45を検索処理部43に出力する。検索処理部43は、特徴量セット群45を用いて類似画像15SIを検索する。検索処理部43は、検索した類似画像15SIを配信制御部44に出力する。
 配信制御部44は、配信要求20の要求元のクライアント端末12に対象画像15TIを配信する。また、配信制御部44は、検索要求23の要求元のクライアント端末12に類似画像15SIを配信する。
 一例として図6に示すように、前処理部41は、正規化部50、抽出部51、および特徴量導出部52を備えている。
 ストレージ25には、頭部MRI画像15および特徴量セット群45に加えて、標準頭部MRI画像55、セグメンテーションモデル56、および複数の特徴量導出モデル57で構成される特徴量導出モデル群58が記憶されている。RW制御部40は、標準頭部MRI画像55をストレージ25から読み出し、読み出した標準頭部MRI画像55を正規化部50に出力する。また、RW制御部40は、セグメンテーションモデル56をストレージ25から読み出し、読み出したセグメンテーションモデル56を抽出部51に出力する。さらに、RW制御部40は、特徴量導出モデル群58をストレージ25から読み出し、読み出した特徴量導出モデル群58を特徴量導出部52に出力する。
 正規化部50は、MRI装置10からの頭部MRI画像15を標準頭部MRI画像55に合わせる正規化処理を行い、頭部MRI画像15を正規化頭部MRI画像60とする。正規化部50は、正規化頭部MRI画像60を抽出部51に出力する。
 標準頭部MRI画像55は、標準的な形状、大きさ、および濃度(画素値)の脳が写った頭部MRI画像である。標準頭部MRI画像55は、例えば、複数の健常者の頭部MRI画像15を平均することで生成した画像、あるいは、コンピュータグラフィックスにより生成した画像である。標準頭部MRI画像55は、本開示の技術に係る「標準医用画像」の一例である。
 抽出部51は、正規化頭部MRI画像60をセグメンテーションモデル56に入力する。セグメンテーションモデル56は、正規化頭部MRI画像60に写る脳の画素毎に、海馬、扁桃体、前頭葉等の脳の各解剖区域を表すラベルを付与する、いわゆるセマンティックセグメンテーションを行う機械学習モデルである。抽出部51は、セグメンテーションモデル56が付与したラベルに基づいて、正規化頭部MRI画像60から、脳の複数の解剖区域の画像(以下、解剖区域画像という)61を抽出する。抽出部51は、複数の解剖区域毎の複数の解剖区域画像61で構成される解剖区域画像群62を、特徴量導出部52に出力する。
 特徴量導出モデル57は、脳の複数の解剖区域毎に1つずつ用意されている(図9参照)。特徴量導出部52は、解剖区域画像61を対応する特徴量導出モデル57に入力する。そして、特徴量導出モデル57から複数種類の特徴量Z(図9参照)で構成される特徴量セット63を出力させる。特徴量セット群45は、複数の解剖区域に対応する複数の特徴量セット63で構成される。特徴量導出部52は、特徴量セット群45をRW制御部40に出力する。RW制御部40は、特徴量セット群45をストレージ25に記憶させる。
 一例として図7に示すように、正規化部50は、頭部MRI画像15に対して、正規化処理として形状正規化処理65および濃度正規化処理66を行う。形状正規化処理65は、例えば、頭部MRI画像15および標準頭部MRI画像55から、位置合わせの基準となるランドマークを抽出し、頭部MRI画像15のランドマークと標準頭部MRI画像55のランドマークとの相関が最大となるよう、頭部MRI画像15を標準頭部MRI画像55に合わせて平行移動、回転、および/または拡大縮小する処理である。濃度正規化処理66は、例えば、頭部MRI画像15の濃度ヒストグラムを、標準頭部MRI画像55の濃度ヒストグラムに合わせて補正する処理である。
 一例として図8に示すように、抽出部51は、解剖区域画像61として、海馬の解剖区域画像61_1、海馬傍回の解剖区域画像61_2、前頭葉の解剖区域画像61_3、前側頭葉の解剖区域画像61_4、後頭葉の解剖区域画像61_5、視床の解剖区域画像61_6、視床下部の解剖区域画像61_7、扁桃体の解剖区域画像61_8、脳下垂体の解剖区域画像61_9、・・・等を抽出する。これらの他にも、抽出部51は、乳頭体、脳梁、脳弓、側脳室等の各解剖区域の解剖区域画像61を抽出する。海馬、前頭葉、前側頭葉、扁桃体といった解剖区域は左右一対である。図では表現していないが、こうした左右一対の解剖区域は、左右それぞれの解剖区域の解剖区域画像61が抽出される。例えば海馬は、左海馬の解剖区域画像61_1と右海馬の解剖区域画像61_1が抽出される。なお、これらの解剖区域のうち、海馬および前側頭葉のうちの少なくともいずれか1つを含むことが好ましく、海馬および前側頭葉を全て含むことがより好ましい。前側頭葉とは、側頭葉の前部という意である。抽出部51によるセグメンテーションモデル56を用いた解剖区域の抽出は、例えば下記文献に記載の方法を用いる。
 <Patrick McClure, etc., Knowing What You Know in Brain Segmentation Using Bayesian Deep Neural Networks, Front. Neuroinform., 17 October 2019.>
 一例として図9に示すように、特徴量導出部52は、海馬の解剖区域画像61_1を海馬の特徴量導出モデル57_1に入力し、海馬の特徴量導出モデル57_1から海馬の特徴量セット63_1を出力させる。海馬の特徴量セット63_1は、複数の特徴量Z1_1、Z2_1、・・・、ZN_1で構成される。なお、Nは特徴量の個数であり、例えば数十個~数十万個である。
 同様にして、特徴量導出部52は、海馬傍回の解剖区域画像61_2を海馬傍回の特徴量導出モデル57_2に入力し、前頭葉の解剖区域画像61_3を前頭葉の特徴量導出モデル57_3に入力し、前側頭葉の解剖区域画像61_4を前側頭葉の特徴量導出モデル57_4に入力する。そして、海馬傍回の特徴量導出モデル57_2から海馬傍回の特徴量セット63_2を出力させ、前頭葉の特徴量導出モデル57_3から前頭葉の特徴量セット63_3を出力させ、前側頭葉の特徴量導出モデル57_4から前側頭葉の特徴量セット63_4を出力させる。海馬傍回の特徴量セット63_2は、複数の特徴量Z1_2、Z2_2、・・・、ZN_2で構成され、前頭葉の特徴量セット63_3は、複数の特徴量Z1_3、Z2_3、・・・、ZN_3で構成され、前側頭葉の特徴量セット63_4は、複数の特徴量Z1_4、Z2_4、・・・、ZN_4で構成される。
 また、特徴量導出部52は、後頭葉の解剖区域画像61_5を後頭葉の特徴量導出モデル57_5に入力し、視床の解剖区域画像61_6を視床の特徴量導出モデル57_6に入力する。そして、後頭葉の特徴量導出モデル57_5から後頭葉の特徴量セット63_5を出力させ、視床の特徴量導出モデル57_6から視床の特徴量セット63_6を出力させる。後頭葉の特徴量セット63_5は、複数の特徴量Z1_5、Z2_5、・・・、ZN_5で構成され、視床の特徴量セット63_6は、複数の特徴量Z1_6、Z2_6、・・・、ZN_6で構成される。このように、複数の解剖区域画像61は、それぞれ対応する特徴量導出モデル57に入力され、これにより解剖区域画像61毎の特徴量セット63が各特徴量導出モデル57から出力される。なお、特徴量Zの個数は、例示のN個のように各解剖区域で同じでもよいし、各解剖区域で異なっていてもよい。
 前処理部41は、上記で説明した一通りの処理、すなわち正規化部50による正規化処理、抽出部51による解剖区域画像61の抽出処理、および特徴量導出部52による特徴量セット群45の導出処理を、MRI装置10からの頭部MRI画像15の全てに対して行う。MRI装置10からの頭部MRI画像15には、当然ながら対象画像15TIと、類似画像15SIの候補画像15CI(図10参照)も含まれる。このため、前処理部41は、対象画像15TIを標準頭部MRI画像55に合わせる正規化処理を行い、対象画像15TIから解剖区域画像61を抽出し、対象画像15TIの特徴量セット群45(以下、特徴量セット群45TIと表記する、図10参照)を導出していることになる。また、前処理部41は、候補画像15CIを標準頭部MRI画像55に合わせる正規化処理を行い、候補画像15CIから解剖区域画像61を抽出し、候補画像15CIの特徴量セット群45(以下、特徴量セット群45CIと表記する、図10参照)を導出していることになる。
 一例として図10に示すように、検索処理部43は、類似度評価値算出部70および類似画像選定部71を備えている。
 ストレージ25には、選定条件75が記憶されている。RW制御部40は、選定条件75をストレージ25から読み出し、読み出した選定条件75を類似画像選定部71に出力する。
 類似度評価値算出部70は、RW制御部40から全ての特徴量セット群45を受け取る。特徴量セット群45には、対象画像15TIの特徴量セット群45TIと、対象画像15TI以外の頭部MRI画像15、すなわち類似画像15SIの候補画像15CIの特徴量セット群45CIとがある。類似度評価値算出部70は、対象画像15TIの特徴量セット群45TIと候補画像15CIの特徴量セット群45CIとから、対象画像15TIと候補画像15CIとの間の類似度評価値76を算出する。類似度評価値算出部70は、複数の候補画像15CIのそれぞれについて類似度評価値76を算出する。類似度評価値算出部70は、算出した類似度評価値76を類似画像選定部71に出力する。
 類似画像選定部71は、選定条件75および類似度評価値76に基づいて、候補画像15CIから類似画像15SIを選定する。本例において、選定条件75は、「類似度1位~3位の候補画像」という内容である。このため、類似画像選定部71は、類似度評価値76で表される対象画像15TIとの類似度が1位~3位の候補画像15CIを、類似画像15SIとして選定する。本実施形態において、対象画像15TIとの類似度が1位~3位の候補画像15CIとは、類似度評価値76が最も小さい候補画像15CI、類似度評価値76が2番目に小さい候補画像15CI、および類似度評価値76が3番目に小さい候補画像15CIである。
 一例として図11に示すように、類似度評価値算出部70は、対象画像15TIの特徴量セット群45TIの各特徴量ZTIiを要素とする多次元ベクトルと、候補画像15CIの特徴量セット群45CIの各特徴量ZCIiを要素とする多次元ベクトルとの距離を、類似度評価値76として算出する。より具体的には、類似度評価値76をSと表記した下記式(1)に示すように、類似度評価値算出部70は、特徴量ZTIiと、これに対応する特徴量ZCIiとの差分(ZTI1_1-ZCI1_1、ZTI2_2-ZCI2_2等)の絶対値の二乗和の平方根、すなわちユークリッド距離を類似度評価値76として算出する。この場合、類似度評価値76が小さいほど、対象画像15TIと候補画像15CIの類似度が高いということになる。なお、iは1~Mの整数である。また、Mは、特徴量Zの個数Nと解剖区域画像61を抽出した解剖区域の個数との積、すなわち特徴量セット群45TIまたは特徴量セット群45CIに含まれる特徴量Zの総数である。
Figure JPOXMLDOC01-appb-M000001
 図12に、配信要求20に応じてPACSサーバ11から配信された対象画像15TIを含む第1表示画面80の一例を示す。第1表示画面80は、クライアント端末12のディスプレイ17に表示される。第1表示画面80には、対象画像15TIが表示される。対象画像15TIは、サジタル断面の対象画像15TIS、アキシャル断面の対象画像15TIA、およびコロナル断面の対象画像15TICである。これら各対象画像15TIS、15TIA、および15TICの下部には、表示を切り替えるためのボタン群81が設けられている。
 第1表示画面80には、類似画像検索ボタン82が設けられている。医師は、対象画像15TIの類似画像15SIの検索を行いたい場合、類似画像検索ボタン82を選択する。これにより検索要求23がPACSサーバ11に送信される。
 図13に、検索要求23に応じて類似画像15SIがPACSサーバ11から配信された場合に、クライアント端末12のディスプレイ17に表示される第2表示画面85の一例を示す。第2表示画面85には、対象画像15TIの下部に、対象画像15TIと同じ態様で類似画像15SIが表示される。類似画像15SIは、類似度の順位が上位のものほど、上部に表示される。類似画像15SIは、サジタル断面の類似画像15SIS、アキシャル断面の類似画像15SIA、およびコロナル断面の類似画像15SICである。類似画像15SIには、当該類似画像15SIの患者Pの年齢および性別、さらには認知症の所見が表示される。認知症の所見は、図示省略した電子カルテシステムから引用される。なお、確認ボタン86が選択された場合、類似画像15SIの表示が消され、第2表示画面85が第1表示画面80に戻される。
 一例として図14に示すように、特徴量導出モデル57には、オートエンコーダ(以下、AE(Auto Encoder)と略す)90の圧縮部91が用いられる。AE90は、圧縮部91と復元部92とを有する。圧縮部91には解剖区域画像61が入力される。圧縮部91は、解剖区域画像61を特徴量セット63に変換する。圧縮部91は、特徴量セット63を復元部92に受け渡す。復元部92は、特徴量セット63から解剖区域画像61の復元画像93を生成する。
 圧縮部91は、一例として図15に示すような畳み込み演算を行うことで、解剖区域画像61を特徴量セット63に変換する。具体的には、圧縮部91は、「conv(convolutionの略)」で表される畳み込み層200を有する。畳み込み層200は、2次元に配列された複数の要素201をもつ対象データ202に、例えば3×3のフィルタ203を適用する。そして、要素201のうちの1つの注目要素201Iの要素値eと、注目要素201Iに隣接する8個の要素201Sの要素値a、b、c、d、f、g、h、iを畳み込む。畳み込み層200は、注目要素201Iを1要素ずつずらしつつ、対象データ202の各要素201に対して畳み込み演算を順次行い、演算データ205の要素204の要素値を出力する。これにより、対象データ202と同様に、2次元に配列された複数の要素204を有する演算データ205が得られる。なお、最初に畳み込み層200に入力される対象データ202は解剖区域画像61であり、その後は後述する縮小演算データ205S(図17参照)が対象データ202として畳み込み層200に入力される。
 フィルタ203の係数をr、s、t、u、v、w、x、y、zとした場合、注目要素201Iに対する畳み込み演算の結果である、演算データ205の注目要素201Iに対応する要素204Iの要素値kは、例えば下記の式(A)を計算することで得られる。
 k=az+by+cx+dw+ev+fu+gt+hs+ir・・・(A)
 演算データ205は、1個のフィルタ203に対して1つ出力される。1つの対象データ202に対して複数種のフィルタ203が適用された場合は、フィルタ203毎に演算データ205が出力される。つまり、一例として図16に示すように、演算データ205は、対象データ202に適用されたフィルタ203の個数分生成される。また、演算データ205は、2次元に配列された複数の要素204を有するため、幅と高さをもつ。演算データ205の数はチャンネル数と呼ばれる。図16においては、対象データ202に4個のフィルタ203を適用して出力された4チャンネルの演算データ205を例示している。
 一例として図17に示すように、圧縮部91は、畳み込み層200の他に、「pool(poolingの略)」で表されるプーリング層210を有する。プーリング層210は、演算データ205の要素204の要素値の局所的な統計量を求め、求めた統計量を要素値とする縮小演算データ205Sを生成する。ここでは、プーリング層210は、局所的な統計量として、2×2の要素のブロック211内における要素値の最大値を求める最大値プーリング処理を行っている。ブロック211を幅方向および高さ方向に1要素ずつずらしつつ処理を行えば、縮小演算データ205Sは、元の演算データ205の1/2のサイズに縮小される。図17においては、ブロック211A内における要素値a、b、e、fのうちのb、ブロック211B内における要素値b、c、f、gのうちのb、ブロック211C内における要素値c、d、g、hのうちのhがそれぞれ最大値であった場合を例示している。なお、最大値ではなく平均値を局所的な統計量として求める、平均値プーリング処理を行ってもよい。
 圧縮部91は、畳み込み層200による畳み込み処理とプーリング層210によるプーリング処理とを複数回繰り返すことで、最終的な演算データ205を出力する。この最終的な演算データ205が、すなわち特徴量セット63であり、最終的な演算データ205の各要素204の要素値が、すなわち特徴量Zである。こうして得られた特徴量Zは、海馬の萎縮の程度、白質の血管障害の程度、前頭葉、前側頭葉、後頭葉の血流代謝低下の有無といった、解剖区域の形状およびテクスチャーの特徴を表している。なお、ここでは、説明を簡単化するため2次元としているが、実際には3次元で各処理が行われる。
 一例として図18に示すように、AE90は、圧縮部91を特徴量導出モデル57に転用する前の学習フェーズにおいて、学習用解剖区域画像61Lが入力されて学習される。AE90は、学習用解剖区域画像61Lに対して学習用復元画像93Lを出力する。これら学習用解剖区域画像61Lおよび学習用復元画像93Lに基づいて、損失関数を用いたAE90の損失演算がなされる。そして、損失演算の結果に応じてAE90の各種係数(フィルタ203の係数等)の更新設定がなされ、更新設定にしたがってAE90が更新される。
 AE90の学習フェーズにおいては、学習用解剖区域画像61LのAE90への入力、AE90からの学習用復元画像93Lの出力、損失演算、更新設定、およびAE90の更新の上記一連の処理が、学習用解剖区域画像61Lが交換されつつ繰り返し行われる。上記一連の処理の繰り返しは、学習用解剖区域画像61Lから学習用復元画像93Lへの復元精度が、予め定められた設定レベルまで達した場合に終了される。こうして復元精度が設定レベルまで達したAE90の圧縮部91が、ストレージ25に記憶されて学習済みの特徴量導出モデル57として用いられる。
 次に、上記構成による作用について、図19~図21のフローチャートを参照して説明する。PACSサーバ11において作動プログラム35が起動されると、図5で示したように、PACSサーバ11のCPU27は、RW制御部40、前処理部41、要求受付部42、検索処理部43、および配信制御部44として機能される。図6で示したように、前処理部41には、正規化部50、抽出部51、および特徴量導出部52が含まれる。また、図10で示したように、検索処理部43には、類似度評価値算出部70および類似画像選定部71が含まれる。
 まず、MRI装置10によって患者Pの頭部MRI画像15が撮影され、頭部MRI画像15がMRI装置10からPACSサーバ11に送信される。
 一例として図19に示すように、PACSサーバ11において、頭部MRI画像15は、RW制御部40および前処理部41に入力される。頭部MRI画像15は、RW制御部40によってストレージ25に記憶される(ステップST100)。
 図7で示したように、正規化部50において、頭部MRI画像15を標準頭部MRI画像55に合わせる正規化処理(形状正規化処理65および濃度正規化処理66)が行われる(ステップST110)。これにより頭部MRI画像15が正規化頭部MRI画像60とされる。正規化頭部MRI画像60は、正規化部50から抽出部51に出力される。
 図8で示したように、抽出部51において、セグメンテーションモデル56を用いて、正規化頭部MRI画像60から複数の解剖区域画像61が抽出される(ステップST120)。複数の解剖区域画像61で構成される解剖区域画像群62は、抽出部51から特徴量導出部52に出力される。
 図9で示したように、特徴量導出部52では、解剖区域画像61が対応する特徴量導出モデル57に入力される。これにより特徴量導出モデル57から特徴量セット63が出力される(ステップST130)。複数の特徴量セット63で構成される特徴量セット群45は、特徴量導出部52からRW制御部40に出力される。特徴量セット群45は、RW制御部40によってストレージ25に記憶される(ステップST140)。
 一例として図20に示すように、クライアント端末12からPACSサーバ11に配信要求20が送信され、要求受付部42において配信要求20が受け付けられた場合(ステップST200でYES)、検索処理部43の指令を受けたRW制御部40によって、配信要求20に応じた対象画像15TIがストレージ25から検索されて読み出される(ステップST210)。対象画像15TIは、RW制御部40から検索処理部43に出力され、さらに検索処理部43から配信制御部44に出力される。対象画像15TIは、配信制御部44によって、配信要求20の要求元のクライアント端末12に配信される(ステップST220)。対象画像15TIを受信したクライアント端末12においては、図12で示した第1表示画面80がディスプレイ17に表示される。医師は、第1表示画面80を通じて、対象画像15TIに写る患者Pの脳を観察する。
 一例として図21に示すように、第1表示画面80の類似画像検索ボタン82が選択されてクライアント端末12からPACSサーバ11に検索要求23が送信され、要求受付部42において検索要求23が受け付けられた場合(ステップST300でYES)、検索処理部43の指令を受けたRW制御部40によって、全ての特徴量セット群45がストレージ25から読み出される(ステップST310)。特徴量セット群45は、RW制御部40から検索処理部43に出力される。
 図11で示したように、類似度評価値算出部70によって、対象画像15TIの特徴量セット群45TIと候補画像15CIの特徴量セット群45CIとから、対象画像15TIと候補画像15CIとの間の類似度評価値76が算出される(ステップST320)。類似度評価値76は、類似度評価値算出部70から類似画像選定部71に出力される。この類似度評価値76の算出は、全ての候補画像15CIについての算出が終了しないうち(ステップST330でNO)は繰り返し続けられる。
 全ての候補画像15CIについての類似度評価値76の算出が終了した場合(ステップST330でYES)、類似画像選定部71において、選定条件75にしたがって、候補画像15CIのうちから類似画像15SIが選定される(ステップST340)。類似画像15SIは、RW制御部40から検索処理部43に出力され、さらに検索処理部43から配信制御部44に出力される。類似画像15SIは、配信制御部44によって、検索要求23の要求元のクライアント端末12に配信される(ステップST350)。類似画像15SIを受信したクライアント端末12においては、図13で示した第2表示画面85がディスプレイ17に表示される。医師は、第2表示画面85を通じて類似画像15SIを参照しつつ、患者Pに対する認知症の診断を行う。
 以上説明したように、PACSサーバ11のCPU27は、RW制御部40と、抽出部51と、特徴量導出部52と、検索処理部43と、配信制御部44とを備える。RW制御部40は、MRI装置10から頭部MRI画像15を受信することで、認知症の診断対象の頭部MRI画像15である対象画像15TIを取得する。抽出部51は、頭部MRI画像15を正規化した正規化頭部MRI画像60から脳の複数の解剖区域の解剖区域画像61を抽出する。特徴量導出部52は、複数の解剖区域画像61を、複数の解剖区域毎に用意された複数の特徴量導出モデル57に入力し、特徴量導出モデル57から複数の解剖区域毎の複数の特徴量セット63を出力させる。検索処理部43は、複数の特徴量セット63で構成される特徴量セット群45を用いて、対象画像15TIの類似画像15SIを検索する。配信制御部44は、検索要求23の要求元のクライアント端末12に類似画像15SIを配信する。
 特徴量Zは、例えば数十個~数十万個と個数が非常に多い。このため特徴量Zは、脳の限定的な特徴を表すものではなく、解剖区域の網羅的な特徴を表すものである。また、特徴量Zは、画素値の平均値等のように統計的に得られた値ではなく、特徴量導出モデル57に解剖区域画像61を入力して得られたものである。さらに、特徴量Zは解剖区域毎に導出され、解剖区域毎に導出された特徴量Zを用いて類似画像15SIが検索される。したがって、特に解剖区域を意識することなく類似画像15SIを検索している<Muhammad Owais, etc., Effective Diagnosis and Treatment through Content-Based Medical Image Retrieval (CBMIR) by Using Artificial Intelligence, Journal of Clinical Medicine, 2019.>と比べて、より的確な類似画像15SIを検索することが可能となる。
 図10等で示したように、検索処理部43は、対象画像15TIの特徴量セット群45TIと候補画像15CIの特徴量セット群45CIとから、対象画像15TIと候補画像CIとの間の類似度評価値76を算出し、類似度評価値76に基づいて候補画像15CIから類似画像15SIを選定する。このため、類似画像15SIの選定をスムーズに行うことができる。
 図14で示したように、特徴量導出モデル57は、AE90の圧縮部91を転用したものである。AE90は、機械学習の分野において頻繁に用いられるニューラルネットワークモデルの1つで、一般的に非常によく知られている。このため、比較的容易に特徴量導出モデル57に転用することができる。
 図7で示したように、正規化部50は、解剖区域の抽出に先立ち、対象画像15TIを標準頭部MRI画像55に合わせる正規化処理を行う。このため、患者Pの個人差、およびMRI装置10の装置差をほぼ解消したうえで以降の処理を行うことができ、結果としてより的確な類似画像15SIの検索に寄与することができる。
 認知症は、昨今の高齢化社会の到来とともに社会問題化している。このため、臓器を脳とし、疾病を認知症として、類似画像15SIを検索する本実施形態は、現状の社会問題にマッチした形態であるといえる。
 海馬および前側頭葉は、アルツハイマー病をはじめとする認知症との相関が特に高い解剖区域である。このため、本例のように、複数の解剖区域に、海馬および前側頭葉のうちの少なくともいずれか1つが含まれていれば、さらにより的確な類似画像15SIを検索することが可能となる。
 なお、候補画像15CIは、対象画像15TI以外の頭部MRI画像15の全てに限らない。例えば対象画像15TIの患者Pと性別および年代が同じ患者Pの頭部MRI画像15等、対象画像15TIの患者Pと属性が同じ患者Pの頭部MRI画像15を候補画像15CIとしてもよい。
 選定条件75は、「類似度評価値が閾値未満の候補画像」という内容であってもよい。この場合、類似画像選定部71は、類似度評価値76が予め設定された閾値未満の候補画像15CIを、類似画像15SIとして選定する。類似度評価値76が閾値未満の候補画像15CIがなかった場合は、類似画像選定部71は、類似画像15SIがない旨を出力する。この場合、第2表示画面85には、類似画像15SIがない旨のメッセージが表示される。
 類似画像15SIの出力態様としては、クライアント端末12への配信に限らない。類似画像15SIを紙媒体に印刷出力したり、医師の携帯端末に電子メールの添付ファイルとして類似画像15SIを送信してもよい。
 [第2実施形態]
 図22および図23に示す第2実施形態では、下記式(2)を用いて類似度評価値106を算出する。
Figure JPOXMLDOC01-appb-M000002
 式(2)は、特徴量ZTIiと特徴量ZCIiとの差分の絶対値の二乗に重み付け係数Wiを乗算している点が、上記第1実施形態の式(1)と異なる。つまり、式(2)によれば、適当な重み付け係数Wiを設定することで、Sと表記される類似度評価値106を、より的確な類似画像15SIの検索に寄与する値とすることができる。
 一例として図22に示す表100のように、本実施形態の重み付け係数Wiは、解剖区域毎に設定される。例えば、認知症に対する関連性が特に高いとされている解剖区域である海馬、海馬傍回、前頭葉、前側頭葉、視床下部、扁桃体等には、「0.5」、「0.6」、「0.75」等の1.0よりも低い重み付け係数Wiが設定されている。対して、認知症に対する関連性が比較的低いとされている解剖区域である後頭葉、視床、脳下垂体等には、重み付け係数Wiとして「1.0」が設定されている。重み付け係数Wiが「1.0」とは、重み付けがされないという意である。
 一例として図23に示すように、本実施形態の類似度評価値算出部105は、表100のように設定された重み付け係数Wiを、各解剖区域の特徴量セット63の特徴量Zに適用する。具体的には、対象画像15TIの海馬の特徴量セット63TI_1の特徴量ZTI1_1と、候補画像15CIの海馬の特徴量セット63CI_1の特徴量ZCI1_1との差分の絶対値の二乗に、重み付け係数Wiとして「0.5」を乗算する。また、対象画像15TIの前頭葉の特徴量セット63TI_3の特徴量ZTI1_3と、候補画像15CIの前頭葉の特徴量セット63CI_3の特徴量ZCI1_3との差分の絶対値の二乗に、重み付け係数Wiとして「0.5」を乗算する。さらに、対象画像15TIの前側頭葉の特徴量セット63TI_4の特徴量ZTI1_4と、候補画像15CIの前側頭葉の特徴量セット63CI_4の特徴量ZCI1_4との差分の絶対値の二乗に、重み付け係数Wiとして「0.6」を乗算する。
 このように、第2実施形態の類似度評価値算出部105は、類似度評価値106を算出する場合に、対象画像15TIの特徴量セット群45TIと候補画像15CIの特徴量セット群45CIに対して、解剖区域に応じた重み付けを行う。このため、類似度評価値106をより認知症の診断に適した値とすることができ、結果として類似画像15SIの的確性をさらに高めることができる。
 なお、図22で示した重み付け係数Wiは、あくまでも一例である。例えば1.0より大きい値を重み付け係数Wiとして設定してもよいし、負の値を重み付け係数Wiとして設定してもよい。
 重み付け係数Wiは、例えば、以下の第1の方法、第2の方法、および第3の方法のいずれかで設定してもよい。第1の方法は、まず、各解剖区域に設定された重み付け係数Wiが異なる何通りかのパターンを用意する。各パターンについて類似度評価値106を算出し、各パターンについて類似画像15SIを選定する。次に、各パターンについて選定した類似画像15SIをクライアント端末12のディスプレイ17に選択可能に表示させ、最も的確と思われる類似画像15SIを医師に選択させる。そして、医師により選択された類似画像15SIを選定した際のパターンを、今後使用する重み付け係数Wiとして設定する。
 第2の方法は、まず、PACSサーバ11に記憶された複数の頭部MRI画像15のうちの任意の1つの頭部MRI画像15について、他の頭部MRI画像15の類似度の順位付けを医師にしてもらう。そして、第1の方法と同じく、各解剖区域に設定された重み付け係数Wiが異なる何通りかのパターンを用意し、各パターンについて類似度評価値106を算出する。そして、医師にしてもらった順位付けに一致または最も類似した類似度評価値を算出した際のパターンを、今後使用する重み付け係数Wiとして設定する。
 第3の方法は、医師に類似度の順位付けをしてもらい、各解剖区域に設定された重み付け係数Wiが異なる何通りかのパターンについて類似度評価値106を算出する点は、第2の方法と同じである。第3の方法は、そこから最小二乗法といった最適解を求める統計的な手法を用いて、医師にしてもらった類似度の順位付けに最も合致する重み付け係数Wiのパターンを求めるというものである。
 [第3実施形態]
 図24および図25に示す第3実施形態では、AE90の圧縮部91の代わりに、シングルタスクのクラス判別用畳み込みニューラルネットワーク(以下、シングルタスクCNN(Convolutional Neural Network)と略す)110の圧縮部111を、特徴量導出モデル115として用いる。
 一例として図24に示すように、シングルタスクCNN110は圧縮部111と出力部112とを有する。圧縮部111には解剖区域画像61が入力される。圧縮部111は、圧縮部91と同様に、解剖区域画像61を特徴量セット113に変換する。圧縮部111は、特徴量セット113を出力部112に受け渡す。出力部112は、特徴量セット113に基づいて、1つのクラス114を出力する。図24においては、出力部112は、認知症を発症している、または認知症を発症していない、という判別結果をクラス114として出力する。このシングルタスクCNN110の圧縮部111が、特徴量導出モデル115として用いられる。
 一例として図25に示すように、シングルタスクCNN110は、圧縮部111を特徴量導出モデル115に転用する前の学習フェーズにおいて、学習データ118を与えられて学習される。学習データ118は、学習用解剖区域画像61Lと、学習用解剖区域画像61Lに対応する正解クラス114CAとの組である。正解クラス114CAは、学習用解剖区域画像61Lを得た頭部MRI画像15に対して、認知症を発症しているか否かを、医師が実際に判別した結果である。
 学習フェーズにおいて、シングルタスクCNN110には、学習用解剖区域画像61Lが入力される。シングルタスクCNN110は、学習用解剖区域画像61Lに対して学習用クラス114Lを出力する。この学習用クラス114Lおよび正解クラス114CAに基づいて、シングルタスクCNN110の損失演算がなされる。そして、損失演算の結果に応じてシングルタスクCNN110の各種係数の更新設定がなされ、更新設定にしたがってシングルタスクCNN110が更新される。
 シングルタスクCNN110の学習フェーズにおいては、学習用解剖区域画像61LのシングルタスクCNN110への入力、シングルタスクCNN110からの学習用クラス114Lの出力、損失演算、更新設定、およびシングルタスクCNN110の更新の上記一連の処理が、学習データ118が交換されつつ繰り返し行われる。上記一連の処理の繰り返しは、正解クラス114CAに対する学習用クラス114Lの予測精度が、予め定められた設定レベルまで達した場合に終了される。こうして予測精度が設定レベルまで達したシングルタスクCNN110の圧縮部111が、学習済みの特徴量導出モデル115としてストレージ25に記憶されて特徴量導出部52で用いられる。
 このように、第3実施形態では、シングルタスクCNN110の圧縮部111が、特徴量導出モデル115として用いられる。シングルタスクCNN110も、機械学習の分野において頻繁に用いられるニューラルネットワークモデルの1つで、一般的に非常によく知られている。このため、比較的容易に特徴量導出モデル115に転用することができる。
 なお、クラス114としては、例えば、患者Pの年齢が75歳未満である、または75歳以上である、という内容であってもよいし、60歳代、70歳代等の患者Pの年代であってもよい。
 [第4実施形態]
 図26および図27に示す第4実施形態では、AE90の圧縮部91、およびシングルタスクCNN110の圧縮部111の代わりに、マルチタスクのクラス判別用CNN(以下、マルチタスクCNNと略す)120の圧縮部121を、特徴量導出モデル126として用いる。
 一例として図26に示すように、マルチタスクCNN120は圧縮部121と出力部122とを有する。圧縮部121には解剖区域画像61が入力される。圧縮部121は、圧縮部91および圧縮部111と同様に、解剖区域画像61を特徴量セット123に変換する。圧縮部121は、特徴量セット123を出力部122に受け渡す。出力部122は、特徴量セット123に基づいて、第1クラス124および第2クラス125の2つのクラスを出力する。図26においては、出力部122は、認知症を発症している、または認知症を発症していない、という判別結果を第1クラス124として出力する。また、図26においては、出力部122は、患者Pの年齢を第2クラス125として出力する。このマルチタスクCNN120の圧縮部121が、特徴量導出モデル126として用いられる。
 一例として図27に示すように、マルチタスクCNN120は、圧縮部121を特徴量導出モデル126に転用する前の学習フェーズにおいて、学習データ128を与えられて学習される。学習データ128は、学習用解剖区域画像61Lと、学習用解剖区域画像61Lに対応する正解第1クラス124CAおよび正解第2クラス125CAとの組である。正解第1クラス124CAは、学習用解剖区域画像61Lを得た頭部MRI画像15に対して、認知症を発症しているか否かを、医師が実際に判別した結果である。また、正解第2クラス125CAは、学習用解剖区域画像61Lを得た頭部MRI画像15の撮影対象の患者Pの実際の年齢である。
 学習フェーズにおいて、マルチタスクCNN120には、学習用解剖区域画像61Lが入力される。マルチタスクCNN120は、学習用解剖区域画像61Lに対して学習用第1クラス124Lおよび学習用第2クラス125Lを出力する。この学習用第1クラス124Lおよび学習用第2クラス125Lと、正解第1クラス124CAおよび正解第2クラス125CAとに基づいて、マルチタスクCNN120の損失演算がなされる。そして、損失演算の結果に応じてマルチタスクCNN120の各種係数の更新設定がなされ、更新設定にしたがってマルチタスクCNN120が更新される。
 マルチタスクCNN120の学習フェーズにおいては、学習用解剖区域画像61LのマルチタスクCNN120への入力、マルチタスクCNN120からの学習用第1クラス124Lおよび学習用第2クラス125Lの出力、損失演算、更新設定、およびマルチタスクCNN120の更新の上記一連の処理が、学習データ128が交換されつつ繰り返し行われる。上記一連の処理の繰り返しは、正解第1クラス124CAおよび正解第2クラス125CAに対する学習用第1クラス124Lおよび学習用第2クラス125Lの予測精度が、予め定められた設定レベルまで達した場合に終了される。こうして予測精度が設定レベルまで達したマルチタスクCNN120の圧縮部121が、学習済みの特徴量導出モデル126としてストレージ25に記憶されて特徴量導出部52で用いられる。
 このように、第4実施形態では、マルチタスクCNN120の圧縮部121が、特徴量導出モデル126として用いられる。マルチタスクCNN120は、AE90およびシングルタスクCNN110に比べて、複数のクラス(第1クラス124および第2クラス125)を出力する、というより複雑な処理を行う。このため、圧縮部121から出力される特徴量セット123は、解剖区域画像61の特徴をより網羅的に表したものとなる可能性が高い。したがって、結果として類似画像15SIの的確性をさらに高めることができる。
 なお、第1クラス124としては、例えば5段階レベルの認知症の進行度合いであってもよい。また、第2クラス125としては、患者Pの年代の判別結果でもよい。マルチタスクCNN120は、3以上のクラスを出力するものであってもよい。
 [第5実施形態]
 図28に示す第5実施形態では、1つの解剖区域の解剖区域画像61を、異なる複数の特徴量導出モデルに入力する。
 図28において、本実施形態の特徴量導出部130は、1つの解剖区域の解剖区域画像61を、第1特徴量導出モデル131に入力し、第2特徴量導出モデル132に入力し、第3特徴量導出モデル133に入力する。これにより特徴量導出部130は、第1特徴量導出モデル131から第1特徴量セット134を出力させ、第2特徴量導出モデル132から第2特徴量セット135を出力させ、第3特徴量導出モデル133から第3特徴量セット136を出力させる。第1特徴量導出モデル131は、上記第1実施形態のAE90の圧縮部91を転用したものである。第2特徴量導出モデル132は、上記第3実施形態のシングルタスクCNN110の圧縮部111を転用したものである。第3特徴量導出モデル133は、上記第4実施形態のマルチタスクCNN120の圧縮部121を転用したものである。
 このように、第5実施形態では、特徴量導出部130は、1つの解剖区域の解剖区域画像61を、第1特徴量導出モデル131、第2特徴量導出モデル132、および第3特徴量導出モデル133に入力する。そして、各モデル131~133から、第1特徴量セット134、第2特徴量セット135、および第3特徴量セット136を出力させる。このため、1種の特徴量導出モデル57を用いる場合と比べて、多種多様な特徴量Zを得ることができる。結果として類似画像15SIの的確性をさらに高めることができる。
 異なる複数の特徴量導出モデルは、例えば、AE90の圧縮部91を転用した第1特徴量導出モデル131と、シングルタスクCNN110の圧縮部111を転用した第2特徴量導出モデル132との組み合わせでもよい。あるいは、シングルタスクCNN110の圧縮部111を転用した第2特徴量導出モデル132と、マルチタスクCNN120の圧縮部121を転用した第3特徴量導出モデル133との組み合わせでもよい。さらには、認知症を発症しているか否かをクラス114として出力するシングルタスクCNN110の圧縮部111を転用した第2特徴量導出モデル132と、患者Pの年代をクラス114として出力するシングルタスクCNN110の圧縮部111を転用した第2特徴量導出モデル132との組み合わせでもよい。
 [第6実施形態]
 重み付け係数Wiを含む式(2)を用いて類似度評価値106を算出する上記第2実施形態と、異なる複数の特徴量導出モデル131~133を用いる上記第5実施形態とを複合して実施してもよい。
 この場合、一例として図29に示す表140のように、特徴量導出モデルの種類毎に重み付け係数Wiを設定する。具体的には、上記第1実施形態のAE90の圧縮部91を転用した第1特徴量導出モデル131が導出した第1特徴量セット134の特徴量Zに対しては、重み付け係数Wiとして「1.0」を適用する。上記第3実施形態のシングルタスクCNN110の圧縮部111を転用した第2特徴量導出モデル132が導出した第2特徴量セット135の特徴量Zに対しては、重み付け係数Wiとして「0.75」を適用する。上記第4実施形態のマルチタスクCNN120の圧縮部121を転用した第3特徴量導出モデル133が導出した第3特徴量セット136の特徴量Zに対しては、重み付け係数Wiとして「0.5」を適用する。
 このように、第6実施形態では、類似度評価値106を算出する場合に、対象画像15TIの特徴量セット群45TIと候補画像15CIの特徴量セット群45CIに対して、異なる複数の特徴量導出モデル131~133に応じた重み付けを行う。このため、類似度評価値106をより認知症の診断に適した値とすることができ、結果として類似画像15SIの的確性をさらに高めることができる。
 なお、図22の場合と同じく、図29で示した重み付け係数Wiは、あくまでも一例である。例えば1.0より大きい値を重み付け係数Wiとして設定してもよいし、負の値を重み付け係数Wiとして設定してもよい。また、この場合も上記第2実施形態と同様に、重み付け係数Wiは、上記第1~第3の方法で設定してもよい。
 式(1)に代えて、下記式(3)を用いて類似度評価値を算出してもよい。式(3)は、特徴量ZTIiと特徴量ZCIiとの差分の絶対値の総和、すなわちマンハッタン距離を類似度評価値として算出する式である。
Figure JPOXMLDOC01-appb-M000003
 また、式(2)に代えて、下記式(4)を用いて類似度評価値を算出してもよい。式(4)は、特徴量ZTIiと特徴量ZCIiとの差分の絶対値に、重み付け係数Wiを乗算した内容である。
Figure JPOXMLDOC01-appb-M000004
 上記各実施形態では、特徴量ZTIiを要素とする多次元ベクトルと特徴量ZCIiを要素とする多次元ベクトルとの距離を類似度評価値として算出しているが、これに限らない。特徴量ZTIiと特徴量ZCIiの相関係数を類似度評価値として算出してもよい。この場合は上記各実施形態とは逆に、対象画像15TIと候補画像15CIの類似度が高い(特徴量ZTIiと特徴量ZCIiに相関がある)ほど、類似度評価値が大きくなる。
 [第7実施形態]
 図30~図36に示す第7実施形態では、AE250とシングルタスクCNN251を合わせたモデルを、特徴量導出モデル252として用いる。
 一例として図30に示すように、AE250は、上記第1実施形態のAE90と同様、圧縮部253と復元部254とを有する。圧縮部253には解剖区域画像61が入力される。圧縮部253は、解剖区域画像61を特徴量セット255に変換する。圧縮部253は、特徴量セット255を復元部254に受け渡す。復元部254は、特徴量セット255から解剖区域画像61の復元画像256を生成する。
 シングルタスクCNN251は、上記第3実施形態のシングルタスクCNN110と同様、圧縮部253と出力部257とを有する。つまり、圧縮部253は、AE250とシングルタスクCNN251とで共用される。圧縮部253は、特徴量セット255を出力部257に受け渡す。出力部257は、特徴量セット255に基づいて、1つのクラス258を出力する。図30においては、出力部257は、現在軽度認知障害の患者Pが2年後も軽度認知障害のまま、あるいは2年後にアルツハイマー病に進行する、という判別結果をクラス258として出力する。また、出力部257は、特徴量セット255を構成する複数の特徴量Zを集約した集約特徴量ZAを出力する。集約特徴量ZAは、各解剖区域に対して出力される。本実施形態において、集約特徴量ZAは、特徴量セット255の代わりに検索処理部278(図34参照)に入力される。
 一例として図31に示すように、出力部257は、自己注意(以下、SA(Self-Attention)と略す)機構層265、全体平均プーリング(以下、GAP(Global Average Pooling)と略す)層266、全結合(以下、FC(Fully Connected)と略す)層267、ソフトマックス関数(以下、SMF(SoftMax Functionと略す)層268、および主成分分析(以下、PCA(Principal Component Analysis)と略す)層269を有する。
 SA機構層265は、特徴量セット255に対して、図15で示した畳み込み処理を、注目要素201Iの要素値に応じてフィルタ203の係数を変更しつつ行う。以下、このSA機構層265で行われる畳み込み処理を、SA畳み込み処理という。SA機構層265は、SA畳み込み処理後の特徴量セット255をGAP層266に出力する。
 GAP層266は、SA畳み込み処理後の特徴量セット255に対して、全体平均プーリング処理を施す。全体平均プーリング処理は、特徴量セット255のチャンネル(図16参照)毎に、特徴量Zの平均値を求める処理である。例えば特徴量セット255のチャンネル数が512であった場合、全体平均プーリング処理によって512個の特徴量Zの平均値が求められる。GAP層266は、求めた特徴量Zの平均値をFC層267およびPCA層269に出力する。
 FC層267は、特徴量Zの平均値をSMF層268のSMFで扱う変数に変換する。FC層267は、特徴量Zの平均値の個数分(つまり特徴量セット255のチャンネル数分)のユニットをもつ入力層と、SMFで扱う変数の個数分のユニットをもつ出力層とを有する。入力層の各ユニットと出力層の各ユニットは、互いに全結合されていて、それぞれに重みが設定されている。入力層の各ユニットには、特徴量Zの平均値が入力される。特徴量Zの平均値と、各ユニット間に設定された重みとの積和が、出力層の各ユニットの出力値となる。この出力値がSMFで扱う変数である。FC層267は、SMFで扱う変数をSMF層268に出力する。SMF層268は、変数をSMFに適用することでクラス258を出力する。
 PCA層269は、特徴量Zの平均値に対してPCAを行い、複数個の特徴量Zの平均値を、それよりも少ない個数の集約特徴量ZAとする。例えばPCA層269は、512個の特徴量Zの平均値を1個の集約特徴量ZAに集約する。
 一例として図32に示すように、AE250は、学習フェーズにおいて、学習用解剖区域画像61Lが入力されて学習される。AE250は、学習用解剖区域画像61Lに対して学習用復元画像256Lを出力する。これら学習用解剖区域画像61Lおよび学習用復元画像256Lに基づいて、損失関数を用いたAE250の損失演算がなされる。そして、損失演算の結果(以下、損失L1と表記する)に応じてAE250の各種係数の更新設定がなされ、更新設定にしたがってAE250が更新される。
 AE250の学習フェーズにおいては、学習用解剖区域画像61LのAE250への入力、AE250からの学習用復元画像256Lの出力、損失演算、更新設定、およびAE250の更新の上記一連の処理が、学習用解剖区域画像61Lが交換されつつ繰り返し行われる。
 シングルタスクCNN251は、学習フェーズにおいて、学習データ275を与えられて学習される。学習データ275は、学習用解剖区域画像61Lと、学習用解剖区域画像61Lに対応する正解クラス258CAとの組である。正解クラス258CAは、学習用解剖区域画像61Lを得た頭部MRI画像15の撮影対象を得た頭部MRI画像15の撮影対象の患者Pが、実際に2年後も軽度認知障害のままか、あるいは2年後にアルツハイマー病に進行したかを示す。
 学習フェーズにおいて、シングルタスクCNN251には、学習用解剖区域画像61Lが入力される。シングルタスクCNN251は、学習用解剖区域画像61Lに対して学習用クラス258Lを出力する。この学習用クラス258Lおよび正解クラス258CAに基づいて、クロスエントロピー関数等を用いたシングルタスクCNN251の損失演算がなされる。そして、損失演算の結果(以下、損失L2と表記する)に応じてシングルタスクCNN251の各種係数の更新設定がなされ、更新設定にしたがってシングルタスクCNN251が更新される。
 シングルタスクCNN251の学習フェーズにおいては、学習用解剖区域画像61LのシングルタスクCNN251への入力、シングルタスクCNN251からの学習用クラス258Lの出力、損失演算、更新設定、およびシングルタスクCNN251の更新の上記一連の処理が、学習データ275が交換されつつ繰り返し行われる。
 AE250の更新設定およびシングルタスクCNN251の更新設定は、下記の式(B)に示す総合損失Lに基づいて行われる。なお、αは重みである。
 L=L1×α+L2×(1-α)・・・(B)
 すなわち、総合損失Lは、AE250の損失L1とシングルタスクCNN251の損失L2との重み付き和である。
 一例として図33に示すように、学習フェーズの初期段階においては、重みαには1が設定される。重みαを1とした場合、総合損失L=L1となる。したがってこの場合はAE250の学習のみが行われ、シングルタスクCNN251の学習は行われない。
 重みαは、学習が進むにつれて1から漸減され、やがて固定値(図33においては0.8)となる。この場合、AE250の学習とシングルタスクCNN251の学習が、重みαに応じた強度でともに行われる。このように、損失L1に与えられる重みは、損失L2に与えられる重みよりも大きい。また、損失L1に与えられる重みは最高値の1から漸減され、かつ損失L2に与えられる重みは最低値の0から漸増され、さらに両者は固定値とされる。
 AE250およびシングルタスクCNN251の学習は、AE250による学習用解剖区域画像61Lから学習用復元画像256Lへの復元精度が、予め定められた設定レベルまで達し、かつ、シングルタスクCNN251による正解クラス258CAに対する学習用クラス258Lの予測精度が、予め定められた設定レベルまで達した場合に終了される。こうして復元精度および予測精度が設定レベルまで達したAE250およびシングルタスクCNN251が、ストレージ20に記憶されて学習済みの特徴量導出モデル252として用いられる。
 一例として図34に概略的に示すように、本実施形態の検索処理部278には、対象画像15TIの特徴量セット群45TIおよび候補画像15CIの特徴量セット群45CIの代わりに、対象画像15TIの集約特徴量群ZAGTIおよび候補画像15CIの集約特徴量群ZAGCIが入力される。対象画像15TIの集約特徴量群ZAGTIは、対象画像15TIの複数の解剖区域画像61から導出された複数の集約特徴量ZAの集合である。同様に、候補画像15CIの集約特徴量群ZAGCIは、候補画像15CIの複数の解剖区域画像61から導出された複数の集約特徴量ZAの集合である。検索処理部278は、特徴量セット群45TIおよび45CIに代えて、集約特徴量群ZAGTIおよびZAGCIから類似度評価値76を算出し、選定条件75および算出した類似度評価値76に基づいて類似画像15SIを選定する。
 なお、一例として図35に示すように、対象画像15TIの集約特徴量群ZAGTIから、対象画像15TIの患者Pの認知症の所見を得ることも可能である。この場合、PACSサーバ11のCPU27には、認知症所見導出部280が構築される。認知症所見導出部280は、対象画像15TIの集約特徴量群ZAGTIおよび認知症関連情報281を認知症所見導出モデル282に入力する。認知症関連情報281は、例えば、認知症の診断を行う患者Pの性別、年齢、海馬の体積といった解剖区域の体積、長谷川式認知症スケール(HDS-R;Revised Hasegawa’s Dementia Scale)のスコアといった認知症テストのスコア、ApoE遺伝子の遺伝子型といった遺伝子検査の検査結果、アミロイドβ測定値といった髄液検査の検査結果、およびアポリポ蛋白質測定値といった血液検査の検査結果等を含む。
 認知症所見導出モデル282は、分位正規化部283および線形判別分析部284を有する。分位正規化部283には、集約特徴量群ZAGTIと認知症関連情報281が入力される。分位正規化部283は、集約特徴量群ZAGTIを構成する複数の集約特徴量ZAと、認知症関連情報281の各パラメータとを同列に扱うために、これらを正規分布にしたがうデータに変換する分位正規化(Quantile Normalization)を行う。線形判別分析部284は、分位正規化処理後の集約特徴量ZAおよび認知症関連情報281の各パラメータに対して線形判別分析(Linear Discriminant Analysis)を行い、その結果として認知症所見情報285を出力する。認知症所見情報285は、現在軽度認知障害の患者Pが2年後も軽度認知障害のまま、あるいは2年後にアルツハイマー病に進行する、のいずれかである。
 このように、第7実施形態では、クラス258の出力といったメインタスクを行うシングルタスクCNN251と、シングルタスクCNN251と一部共通し、復元画像256の生成といったメインタスクよりも汎用的なサブタスクを行うAE250とを、特徴量導出モデル252として用いる。そして、AE250とシングルタスクCNN251とを同時に学習させる。このため、AE250とシングルタスクCNN251が別々の場合と比べて、より適切な特徴量セット255および集約特徴量ZAを出力することができ、結果として、さらにより的確な類似画像15SIを検索することが可能となる。
 学習フェーズにおいては、AE250の損失L1とシングルタスクCNN251の損失L2との重み付き和である総合損失Lに基づいて更新設定を行う。このため、重みαを適値に設定することで、AE250を重点的に学習させたり、シングルタスクCNN251を重点的に学習させたり、AE250およびシングルタスクCNN251をバランスよく学習させたりすることができる。
 損失L1に与えられる重みは、損失L2に与えられる重みよりも大きい。このため、AE250を常に重点的に学習させることができる。AE250を常に重点的に学習させれば、解剖区域の形状およびテクスチャーの特徴をより表した特徴量セット255を圧縮部253から出力させることができ、結果としてより尤もらしい集約特徴量ZAを出力部257から出力させることができる。
 また、損失L1に与えられる重みを最高値から漸減し、かつ損失L2に与えられる重みを最低値から漸増して、学習が所定回数行われたら両者を固定値とする。このため、学習の初期段階にAE250をより重点的に学習させることができる。AE250は、復元画像256の生成という比較的簡単なサブタスクを担う。したがって、学習の初期段階にAE250をより重点的に学習させれば、解剖区域の形状およびテクスチャーの特徴をより表した特徴量セット255を、学習の初期段階において圧縮部253から出力させることができる。
 一例として図36に示す表300は、下記の文献A、B、C、D、E、F、およびGに記載の認知症の進行予測方法に係るNo.1~7と、図35で例示した認知症の進行予測方法に係るNo.8および9との性能比較を示す。図35で例示した認知症の進行予測方法のうち、No.8は、認知症所見導出モデル282に集約特徴量群ZAGTIのみが入力され、認知症関連情報281が入力されない場合を示す。対してNo.9は、認知症所見導出モデル282に集約特徴量群ZAGTIおよび認知症関連情報281が入力される場合を示す。
 文献A <Tam, A., Dansereau, C., Iturria-Medina, Y., Urchs, S., Orban, P., Sharmarke, H., Breitner, J., & Alzheimer’s Disease Neuroimaging Initiative., “A highly predictive signature of cognition and brain atrophy for progression to Alzheimer’s dementia.”, GigaScience, 8 (5), giz055 (2019).>
 文献B <Ledig, C., Schuh, A., Guerrero, R., Heckemann, R. A., & Rueckert, D., “Structural brain imaging in Alzheimer’s disease and mild cognitive impairment: biomarker analysis and shared morphometry database.”, Scientific reports, 8 (1), 11258 (2018).>
 文献C <Lu, D., Popuri, K., Ding, G. W., Balachandar, R., & Beg, M. F., “Multimodal and multiscale deep neural networks for the early diagnosis of Alzheimer’s disease using structural MR and FDG-PET images.”, Scientific reports, 8 (1), 5697 (2018).>
 文献D <Basaia, S., Agosta, F., Wagner, L., Canu, E., Magnani, G., Santangelo, R.,  Filippi, M., Automated classification of Alzheimer’s disease and mild cognitive impairment using a single MRI and deep neural networks, NeuroImage: Clinical 21, 101645 (2019).>
 文献E <Nakagawa, T., Ishida, M., Naito, J., Nagai, A., Yamaguchi, S., Onoda, K., “Prediction of conversion to Alzheimer’s disease using deep survival analysis of MRI images”, Brain Communications, Vol. 2(1)  (2020).>
 文献F <Lee, G., Nho, K., Kang, B., Sohn, K. A., & Kim, D., “Predicting Alzheimer’s disease progression using multi-modal deep learning approach.”, Scientific reports, 9 (1), 1952 (2019).>
 文献G <Goto, T.,  Wang, C., Li, Y., Tsuboshita, Y., Multi-modal deep learning for predicting progression of Alzheimer’s disease using bi-linear shake fusion, Proc. SPIE 11314, Medical Imaging (2020).>
 No.8および9の正解率(Accuracy)は0.84および0.90である。特にNo.9の正解率の0.90は、No.1~7のどの正解率よりも高い。No.8および9のAUC(Area Under the Curve)は0.93および0.97である。これらの値は、文献Eに記載の認知症の進行予測方法に係るNo.5よりも大きい。したがって、図35で例示した認知症の進行予測方法は、文献A~Gに記載の従来の認知症の進行予測方法と比べて、より確度の高い認知症の進行予測を行うことができているといえる。
 No.8および9の敏感度(Sensitivity)は0.85および0.91である。これらの値は、No.1~7のどの敏感度よりも高い。特にNo.9の敏感度の0.91は、この中では最高値である。したがって、図35で例示した認知症の進行予測方法は、文献A~Gに記載の従来の認知症の進行予測方法と比べて、現在軽度認知障害の患者Pが予測期間後にアルツハイマー病に進行することを、見逃さずに予測することができているといえる。
 No.8および9の特異度(Specificity)は0.84および0.90である。これらの値は、文献Aに記載の認知症の進行予測方法に係るNo.1の0.97等よりも小さいものの、他の文献B、C、D、およびFと比べれば大きい。したがって、図35で例示した認知症の進行予測方法は、他の多くの従来の認知症の進行予測方法と比べて、現在軽度認知障害の患者Pが予測期間後も軽度認知障害のままであると、より正確に予測することができているといえる。
 以上のことから、集約特徴量群ZAGTIおよびZAGCIは、対象画像15TIおよび候補画像15CIの特徴を的確に表しているといえる。したがって、さらにより的確な類似画像15SIを検索することが可能、という効果を得ることができる。
 なお、表300において、学習用画像の項目のADNIは、「Alzheimer’s Disease Neuroimaging Initiative」の略である。AIBLは、「Australian Imaging Biomarkers and Lifestyle Study of Ageing」の略である。J-ADNIは、「Japanese Alzheimer’s Disease Neuroimaging Intiative」の略である。いずれも、アルツハイマー病に係る患者Pの頭部MRI画像15等が蓄積されたデータベースを示す。
 シングルタスクCNN251の代わりに、上記第4実施形態のマルチタスクCNN120を用いてもよい。また、対象画像15TIの集約特徴量群ZAGTIではなく、対象画像15TIの特徴量セット群45TIに基づいて、患者Pの認知症の所見を導出してもよい。
 図18で示したAE90の学習、図25で示したシングルタスクCNN110の学習、図27で示したマルチタスクCNN120の学習、および図32で示したAE250およびシングルタスクCNN251の学習等は、PACSサーバ11において行ってもよいし、PACSサーバ11以外の装置で行ってもよい。また、これらの学習は、PACSサーバ11のストレージ25に特徴量導出モデルを記憶した後に継続して行ってもよい。
 PACSサーバ11とは別の装置が診断支援装置として機能してもよい。また、クライアント端末12が診断支援装置として機能してもよい。
 医用画像は、例示の頭部MRI画像15に限らない。PET(Positron Emission Tomography)画像、SPECT(Single Photon Emission Computed Tomography)画像、CT(Computed Tomography)画像、内視鏡画像、超音波画像等でもよい。
 臓器は例示の脳に限らず、心臓、肺、肝臓等でもよい。肺の場合は、右肺S1、S2、左肺S1、S2等を解剖区域として抽出する。肝臓の場合は、右葉、左葉、胆嚢等を解剖区域として抽出する。また、疾病も例示の認知症に限らず、心臓病、肺炎、肝機能障害等でもよい。
 上記各実施形態において、例えば、RW制御部40、前処理部41、要求受付部42、検索処理部43および278、配信制御部44、正規化部50、抽出部51、特徴量導出部52および130、類似度評価値算出部70および105、類似画像選定部71、並びに認知症所見導出部280といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。各種のプロセッサには、上述したように、ソフトウェア(作動プログラム35)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU27に加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、および/または、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
 本開示の技術は、上述の種々の実施形態および/または種々の変形例を適宜組み合わせることも可能である。また、上記各実施形態に限らず、要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本開示の技術は、プログラムに加えて、プログラムを非一時的に記憶する記憶媒体にもおよぶ。
 以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「Aおよび/またはB」は、「AおよびBのうちの少なくとも1つ」と同義である。つまり、「Aおよび/またはB」は、Aだけであってもよいし、Bだけであってもよいし、AおよびBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「および/または」で結び付けて表現する場合も、「Aおよび/またはB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (12)

  1.  プロセッサと、
     前記プロセッサに接続または内蔵されたメモリと、を備え、
     前記プロセッサは、
     疾病の診断対象の医用画像である対象画像を取得し、
     前記対象画像から臓器の複数の解剖区域を抽出し、
     前記複数の解剖区域の画像を、前記複数の解剖区域毎に用意された複数の特徴量導出モデルに入力し、前記特徴量導出モデルから前記複数の解剖区域毎の複数の特徴量を出力させ、
     前記複数の特徴量を用いて、前記対象画像の類似画像を検索し、
     前記類似画像を出力する、
    診断支援装置。
  2.  前記プロセッサは、
     前記類似画像の候補画像からも前記複数の解剖区域を抽出し、
     前記候補画像の前記複数の解剖区域の画像を、前記複数の特徴量導出モデルに入力し、前記特徴量導出モデルから前記複数の解剖区域毎の複数の特徴量を出力させ、
     前記対象画像の前記複数の特徴量と前記候補画像の前記複数の特徴量とから、前記対象画像と前記候補画像との間の類似度評価値を算出し、
     前記類似度評価値に基づいて前記候補画像から前記類似画像を選定する請求項1に記載の診断支援装置。
  3.  前記プロセッサは、
     前記類似度評価値を算出する場合に、前記対象画像の前記複数の特徴量と前記候補画像の前記複数の特徴量に対して、前記解剖区域に応じた重み付けを行う請求項2に記載の診断支援装置。
  4.  前記特徴量導出モデルは、オートエンコーダ、シングルタスクのクラス判別用畳み込みニューラルネットワーク、およびマルチタスクのクラス判別用畳み込みニューラルネットワークのうちの少なくともいずれか1つを含む請求項1から請求項3のいずれか1項に記載の診断支援装置。
  5.  前記プロセッサは、
     1つの前記解剖区域の画像を、異なる複数の前記特徴量導出モデルに入力し、複数の前記特徴量導出モデルの各々から前記特徴量を出力させる請求項1から請求項4のいずれか1項に記載の診断支援装置。
  6.  請求項2または請求項3を引用する請求項5に記載の診断支援装置において、
     前記プロセッサは、
     前記類似度評価値を算出する場合に、前記対象画像の前記複数の特徴量と前記候補画像の前記複数の特徴量に対して、異なる複数の前記特徴量導出モデルに応じた重み付けを行う診断支援装置。
  7.  前記プロセッサは、
     前記解剖区域の抽出に先立ち、取得した前記対象画像を標準医用画像に合わせる正規化処理を行う請求項1から請求項6のいずれか1項に記載の診断支援装置。
  8.  前記臓器は脳であり、前記疾病は認知症である請求項1から請求項7のいずれか1項に記載の診断支援装置。
  9.  前記複数の解剖区域は、海馬および前側頭葉のうちの少なくともいずれか1つを含む請求項8に記載の診断支援装置。
  10.  疾病の診断対象の医用画像である対象画像を取得すること、
     前記対象画像から臓器の複数の解剖区域を抽出すること、
     前記複数の解剖区域の画像を、前記複数の解剖区域毎に用意された複数の特徴量導出モデルに入力し、前記特徴量導出モデルから前記複数の解剖区域毎の複数の特徴量を出力させること、
     前記複数の特徴量を用いて、前記対象画像の類似画像を検索すること、および、
     前記類似画像を出力すること、
    を含む診断支援装置の作動方法。
  11.  疾病の診断対象の医用画像である対象画像を取得すること、
     前記対象画像から臓器の複数の解剖区域を抽出すること、
     前記複数の解剖区域の画像を、前記複数の解剖区域毎に用意された複数の特徴量導出モデルに入力し、前記特徴量導出モデルから前記複数の解剖区域毎の複数の特徴量を出力させること、
     前記複数の特徴量を用いて、前記対象画像の類似画像を検索すること、および、
     前記類似画像を出力すること、
    を含む処理をコンピュータに実行させるための診断支援装置の作動プログラム。
  12.  プロセッサと、前記プロセッサに接続または内蔵されたメモリと、を備えるコンピュータが、
     認知症の診断対象の脳が写った医用画像である対象画像を取得すること、
     対象画像から脳の複数の解剖区域を抽出すること、
     複数の解剖区域の画像を、複数の解剖区域毎に用意された複数の特徴量導出モデルに入力し、特徴量導出モデルから複数の解剖区域毎の複数の特徴量を出力させること、
     複数の特徴量を用いて、対象画像の類似画像を検索すること、
     および、類似画像を出力すること、を行う認知症診断支援方法。
PCT/JP2021/035196 2020-10-01 2021-09-24 診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム、並びに認知症診断支援方法 WO2022071160A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022553916A JPWO2022071160A1 (ja) 2020-10-01 2021-09-24

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020-167012 2020-10-01
JP2020167012 2020-10-01
JP2020217835 2020-12-25
JP2020-217835 2020-12-25

Publications (1)

Publication Number Publication Date
WO2022071160A1 true WO2022071160A1 (ja) 2022-04-07

Family

ID=80949130

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/035196 WO2022071160A1 (ja) 2020-10-01 2021-09-24 診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム、並びに認知症診断支援方法

Country Status (2)

Country Link
JP (1) JPWO2022071160A1 (ja)
WO (1) WO2022071160A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010012176A (ja) * 2008-07-07 2010-01-21 Hamamatsu Photonics Kk 脳疾患診断システム
JP2011118543A (ja) * 2009-12-01 2011-06-16 Shizuoka Prefecture 症例画像検索装置、方法およびプログラム
WO2012032940A1 (ja) * 2010-09-07 2012-03-15 株式会社 日立メディコ 認知症診断支援装置及び認知症診断支援方法
JP2015208385A (ja) * 2014-04-24 2015-11-24 株式会社日立製作所 医用画像情報システム、医用画像情報処理方法及びプログラム
JP2016202904A (ja) * 2015-04-15 2016-12-08 キヤノン株式会社 診断支援装置、診断支援システム、情報処理方法、及びプログラム
US20170357753A1 (en) * 2016-05-23 2017-12-14 The Johns Hopkins University Direct estimation of patient attributes based on mri brain atlases
JP2020009186A (ja) * 2018-07-09 2020-01-16 キヤノンメディカルシステムズ株式会社 診断支援装置、診断支援方法、及び診断支援プログラム
CN110934606A (zh) * 2019-10-31 2020-03-31 上海杏脉信息科技有限公司 脑卒中早期平扫ct图像评估系统及评估方法、可读存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010012176A (ja) * 2008-07-07 2010-01-21 Hamamatsu Photonics Kk 脳疾患診断システム
JP2011118543A (ja) * 2009-12-01 2011-06-16 Shizuoka Prefecture 症例画像検索装置、方法およびプログラム
WO2012032940A1 (ja) * 2010-09-07 2012-03-15 株式会社 日立メディコ 認知症診断支援装置及び認知症診断支援方法
JP2015208385A (ja) * 2014-04-24 2015-11-24 株式会社日立製作所 医用画像情報システム、医用画像情報処理方法及びプログラム
JP2016202904A (ja) * 2015-04-15 2016-12-08 キヤノン株式会社 診断支援装置、診断支援システム、情報処理方法、及びプログラム
US20170357753A1 (en) * 2016-05-23 2017-12-14 The Johns Hopkins University Direct estimation of patient attributes based on mri brain atlases
JP2020009186A (ja) * 2018-07-09 2020-01-16 キヤノンメディカルシステムズ株式会社 診断支援装置、診断支援方法、及び診断支援プログラム
CN110934606A (zh) * 2019-10-31 2020-03-31 上海杏脉信息科技有限公司 脑卒中早期平扫ct图像评估系统及评估方法、可读存储介质

Also Published As

Publication number Publication date
JPWO2022071160A1 (ja) 2022-04-07

Similar Documents

Publication Publication Date Title
Yoo et al. Prostate cancer detection using deep convolutional neural networks
Nawaz et al. A deep feature-based real-time system for Alzheimer disease stage detection
CN111488914B (zh) 一种基于多任务学习的阿尔茨海默症分类及预测系统
JP5718760B2 (ja) 医用画像処理方法、記録媒体、及び医用画像処理装置
CN111563523B (zh) 利用机器训练的异常检测的copd分类
WO2021144230A1 (en) Method and system for automatically detecting anatomical structures in a medical image
EP3570288A1 (en) Method for obtaining at least one feature of interest
CN115131642B (zh) 一种基于多视子空间聚类的多模态医学数据融合系统
WO2020110519A1 (ja) 類似度決定装置、方法およびプログラム
US20230260629A1 (en) Diagnosis support device, operation method of diagnosis support device, operation program of diagnosis support device, dementia diagnosis support method, and trained dementia opinion derivation model
Hu et al. A GLCM embedded CNN strategy for computer-aided diagnosis in intracerebral hemorrhage
WO2020044735A1 (ja) 類似度決定装置、方法およびプログラム
Kaur et al. A review on optimization techniques for medical image analysis
US20230260630A1 (en) Diagnosis support device, operation method of diagnosis support device, operation program of diagnosis support device, and dementia diagnosis support method
CN112912008A (zh) 权重图像生成装置、方法及程序、判别器学习装置、方法及程序、区域提取装置、方法及程序以及判别器
Özbay et al. Brain tumor detection with mRMR-based multimodal fusion of deep learning from MR images using Grad-CAM
Dieckhaus et al. Logistic regression–based model is more efficient than u-net model for reliable whole brain magnetic resonance imaging segmentation
WO2022071160A1 (ja) 診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム、並びに認知症診断支援方法
WO2022138960A1 (ja) 診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム
Goenka et al. Patch-based classification for Alzheimer disease using sMRI
CN113205472A (zh) 基于循环生成对抗网络CycleGAN模型的跨模态MR影像互生成方法
US20230335283A1 (en) Information processing apparatus, operation method of information processing apparatus, operation program of information processing apparatus
CN112601494A (zh) 相似度确定装置、方法及程序
Guttulsrud Generating Synthetic Medical Images with 3D GANs
Sawyer et al. Evaluation of segmentation algorithms for optical coherence tomography images of ovarian tissue

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21875462

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022553916

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21875462

Country of ref document: EP

Kind code of ref document: A1