WO2020262683A1 - 医用画像処理装置、方法およびプログラム - Google Patents

医用画像処理装置、方法およびプログラム Download PDF

Info

Publication number
WO2020262683A1
WO2020262683A1 PCT/JP2020/025401 JP2020025401W WO2020262683A1 WO 2020262683 A1 WO2020262683 A1 WO 2020262683A1 JP 2020025401 W JP2020025401 W JP 2020025401W WO 2020262683 A1 WO2020262683 A1 WO 2020262683A1
Authority
WO
WIPO (PCT)
Prior art keywords
medical image
normalized
feature map
region
image
Prior art date
Application number
PCT/JP2020/025401
Other languages
English (en)
French (fr)
Inventor
卓也 淵上
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021528290A priority Critical patent/JP7234364B2/ja
Publication of WO2020262683A1 publication Critical patent/WO2020262683A1/ja
Priority to US17/560,217 priority patent/US20220115136A1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Definitions

  • the present disclosure relates to a medical image processing apparatus, method and program for deriving a reference line in a medical image such as a brain image.
  • CT Computer Tomography
  • MRI Magnetic Resonance Imaging
  • the medical image is a non-contrast CT image
  • the contrast between the diseased part and the surrounding part is often unclear in mild subarachnoid hemorrhage and cerebral infarction in the hyperacute stage.
  • diagnostic imaging it is common practice to interpret whether or not a diseased region exists by comparing symmetrical regions of the brain in a medical image.
  • Japanese Patent Application Laid-Open No. 2018-011958 proposes a method for discriminating the presence or absence of a diseased region by using a discriminator that has undergone machine learning by inputting a combination of symmetrical regions in a medical image.
  • the reference line is specified by using a structure having only one on the left and right, such as an eyeball. Therefore, the derived reference line is not very accurate. In particular, when one eye or both eyes are injured due to an accident or illness, the reference line cannot be derived by the method described in Japanese Patent Application Laid-Open No. 2019-500110. Further, in the method described in Japanese Patent Application Laid-Open No. 2011-167333, since the reference line is specified by the input of the operator, the burden on the operator is large.
  • the present disclosure has been made in view of the above circumstances, and an object of the present disclosure is to accurately derive a reference line of a line-symmetrical structure such as a brain included in a medical image.
  • the medical image processing apparatus includes a division portion for dividing a structure in a medical image including a line-symmetrical structure into a plurality of predetermined regions.
  • a reference line deriving unit for deriving a reference line of a structure based on a plurality of divided regions is provided.
  • the "axisymmetric structure” includes not only one structure that is axisymmetric in itself on the medical image, but also a pair or a plurality of pairs of structures that exist at a line-symmetrical position on the medical image. ..
  • the brain basically has a line-symmetrical shape (that is, anatomically), and it is assumed that it exists line-symmetrically, but it has a strictly line-symmetrical shape. It is not a thing, and the size and shape may differ between the left and right brains.
  • the kidneys are also anatomically line-symmetrically present in pairs, but the size and shape of the left and right kidneys may differ. Therefore, the "line-symmetrical structure” includes not only a structure having a completely line-symmetrical pair, but also a structure having a substantially line-symmetry and a structure that is supposed to exist in line symmetry. ..
  • the "reference line” is a line for dividing a line-symmetrical structure into line-symmetry.
  • the reference line for example, the midline can be used.
  • the reference line also includes a structure that divides the structure line-symmetrically with an acceptable error.
  • the medical image processing apparatus may further include a normalization unit that normalizes the position of the structure included in the medical image and generates a normalized medical image based on the reference line. ..
  • an inversion unit that generates an inverted image obtained by inversion of a normalized medical image with respect to a reference line It may further include a discriminating unit for discriminating the diseased region of the structure using the normalized medical image and the inverted image.
  • the discrimination unit may have a discrimination model that outputs the discrimination result of the diseased region of the structure by inputting the normalized medical image and the inverted image.
  • the discrimination model generates a feature map for the normalized medical image and the inverted image by inputting the normalized medical image and the inverted image, and uses the feature map to generate a structure. It may output the discrimination result of the disease area of.
  • the discrimination model generates a feature map for each of the normalized medical image and the inverted image, and uses the feature map for the normalized medical image and the feature map for the inverted image.
  • the determination result of the diseased area of the structure may be output.
  • the medical image processing apparatus may further include a discriminating unit for discriminating a diseased region of a structure by using a normalized normalized medical image.
  • the discrimination unit may have a discrimination model that generates an inverted image of the normalized medical image by inputting the normalized medical image and outputs the discrimination result of the diseased region of the structure.
  • the discrimination model generates a feature map from the normalized medical image by inputting the normalized medical image, and inverts the feature map with reference to the axis of symmetry corresponding to the reference line.
  • the inverted feature map may be generated, and the discrimination result of the diseased region of the structure may be output using the feature map and the inverted feature map.
  • the "discrimination” may be either to determine the position of the diseased area on the medical image or to determine the presence or absence of the diseased area on the medical image.
  • the discrimination model may consist of a neural network having at least one processing layer.
  • the medical image processing apparatus may further include a display control unit that displays the determination result on the display.
  • the structure may be the brain and the diseased area may be the infarcted area.
  • a plurality of predetermined regions may be regions for deriving ASPECTS.
  • ASPECTS is an abbreviation for Alberta Stroke Program Early CT Score, and is a scoring method that quantifies the early CT sign of simple CT for cerebral infarction in the middle cerebral artery region.
  • the medical image is a CT image
  • the middle cerebral artery region is divided into 10 regions in two typical cross sections (basal ganglia level and radial coronary level), and the presence or absence of early ischemic changes is evaluated for each region.
  • It is a method of scoring positive points by the deduction method.
  • the medical image is an MRI image, particularly a diffusion-weighted image
  • the middle cerebral artery region is divided into 11 regions in two typical cross sections (basal ganglia level and radiation crown level) and scored.
  • ASPECTS the lower the score, the larger the area of the infarcted area.
  • ASPECTS may be used to determine whether or not to apply tPA intravenous therapy, which is one of the treatment methods for cerebral infarction.
  • the medical image processing method divides a structure in a medical image including a line-symmetrical structure into a plurality of predetermined regions.
  • a reference line for the structure is derived based on the plurality of divided regions.
  • the medical image processing method according to the present disclosure may be provided as a program to be executed by a computer.
  • Other medical image processing devices include a memory for storing instructions to be executed by a computer and a memory.
  • the processor comprises a processor configured to execute a stored instruction.
  • a structure in a medical image containing a line-symmetrical structure is divided into a plurality of predetermined regions. The process of deriving the reference line of the structure is executed based on the plurality of divided regions.
  • a reference line for a structure such as a brain included in a medical image can be easily derived.
  • the figure which shows the schematic structure of the medical image processing apparatus by 1st Embodiment Diagram showing two tomographic images for deriving ASPECTS The figure which shows the standard division image which shows the division area of ASPECTS Diagram showing tomographic images divided into multiple regions Diagram to explain the derivation of the center of gravity Diagram to explain the derivation of the reference line Diagram to illustrate normalization Diagram to illustrate normalization Diagram showing a reversal tomographic image Conceptual diagram of processing performed by the discrimination model in the first embodiment Diagram showing learning images and correct answer data Diagram showing the discrimination result display screen
  • a flowchart showing the processing performed in the first embodiment The figure which shows the schematic structure of the medical image processing apparatus by 2nd Embodiment Schematic block diagram showing the configuration of the discrimination model in the second embodiment Diagram showing the feature map Diagram showing an inverted feature map Diagram showing a superposed map
  • Diagram to illustrate area interpolation for feature maps Diagram to illustrate area interpolation for feature maps
  • Diagram to illustrate area interpolation for feature maps Diagram to illustrate area interpolation for feature maps
  • FIG. 1 is a hardware configuration diagram showing an outline of a diagnostic support system to which the medical image processing apparatus according to the first embodiment of the present disclosure is applied.
  • the medical image processing device 1, the three-dimensional image capturing device 2, and the image storage server 3 according to the first embodiment are connected in a communicable state via the network 4. Has been done.
  • the three-dimensional image capturing device 2 is a device that generates a three-dimensional image representing the site by photographing the site to be diagnosed of the subject, and specifically, a CT device, an MRI device, and a PET (PET). Positron Emission Tomography) equipment, etc.
  • the three-dimensional image generated by the three-dimensional image capturing device 2 is transmitted to the image storage server 3 and stored.
  • the three-dimensional imaging device 2 is a CT device, and a CT image of the head including the brain of the subject as a structure is generated as a three-dimensional brain image.
  • the brain image includes a plurality of tomographic images.
  • brain images and tomographic images correspond to the medical images of the present disclosure.
  • the image storage server 3 is a computer that stores and manages various data, and is equipped with a large-capacity external storage device and database management software.
  • the image storage server 3 communicates with another device via a wired or wireless network 4 to send and receive image data and the like.
  • various data including the image data of the brain image generated by the three-dimensional image capturing apparatus 2 and the image data of the standard divided image representing the divided area of the standard ASPECTS described later are acquired via the network and are large.
  • Capacity Save and manage on a recording medium such as an external storage device.
  • the storage format of the image data and the communication between the devices via the network 4 are based on a protocol such as DICOM (Digital Imaging and Communication in Medicine).
  • the medical image processing device 1 is a computer in which the medical image processing program of the first embodiment is installed.
  • the computer may be a workstation or personal computer operated directly by the diagnosing doctor, or it may be a server computer connected to them via a network.
  • the medical image processing program is stored in a storage device of a server computer connected to a network or in a network storage in a state of being accessible from the outside, and is downloaded and installed in the computer upon request. Alternatively, it is recorded and distributed on a recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory), and is installed on a computer from the recording medium.
  • a recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory)
  • FIG. 2 is a diagram showing a schematic configuration of a medical image processing apparatus according to the first embodiment, which is realized by installing a medical image processing program on a computer.
  • the medical image processing apparatus 1 includes a CPU (Central Processing Unit) 11, a memory 12, and a storage 13 as a standard workstation configuration. Further, a display 14 such as a liquid crystal display 14 and an input device 15 such as a keyboard and a mouse are connected to the medical image processing device 1.
  • a CPU Central Processing Unit
  • the storage 13 is composed of a hard disk drive or the like, and stores various information including a brain image of a subject and information necessary for processing acquired from an image storage server 3 via a network 4.
  • the medical image processing program is stored in the memory 12.
  • the medical image processing program has, as a process to be executed by the CPU 11, an image acquisition process for acquiring a medical image, a division process for dividing a structure in a medical image including a line-symmetrical structure into a plurality of predetermined regions, and a division.
  • a reference line derivation process for deriving a reference line of a structure based on a plurality of regions, and a normalization process for normalizing the position of the brain included in a medical image and generating a normalized medical image based on the reference line.
  • discrimination processing for discriminating an abnormality of the structure using the normalized medical image and the inverted image, and displaying the discrimination result on the display 14.
  • the medical image is a brain image and the structure is a brain.
  • the computer has the image acquisition unit 21, the division unit 22, the reference line derivation unit 23, the normalization unit 24, the inversion unit 25, the discrimination unit 26, and the display control unit 27. Functions as.
  • the image acquisition unit 21 acquires the brain image B0 of the subject from the image storage server 3. If the brain image B0 is already stored in the storage 13, the image acquisition unit 21 may acquire the brain image B0 from the storage 13. In this embodiment, ASPECTS, which will be described later, is derived. Therefore, in the present embodiment, only two tomographic images for deriving ASPECTS may be acquired from the three-dimensional brain image B0. Further, in the present embodiment, a standard divided image representing a standard ASPECTS divided area described later is also acquired from the image storage server 3.
  • FIG. 3 is a diagram showing two tomographic images for deriving ASPECTS.
  • the two tomographic images S1 and S2 shown in FIG. 3 represent a tomographic plane at the basal ganglia level and a tomographic plane at the radial crown level in the middle cerebral artery region of the brain, respectively.
  • the head of the human body included in the two tomographic images S1 and S2 is not in the center thereof, and the midline that divides the brain into the left and right brains is inclined with respect to the perpendicular line of the tomographic images. This is because patients with cerebral infarction are often unconscious and often urgent, so they take pictures in a hurry while resting on a stretcher.
  • the midline of the brain is used as a reference line.
  • the tomographic images S1 and S2 are images of the tomographic surface seen from the lower side of the human body to the parietal side, and the face is located on the upper side. Therefore, in the brain included in the tomographic images S1 and S2, the right side is the left brain and the left side is the right brain.
  • the dividing unit 22 divides a structure in a medical image including a brain, which is a line-symmetrical structure, into a plurality of predetermined regions.
  • the medical image is two tomographic images for deriving ASPECTS contained in the brain image B0
  • the axisymmetric structure is the brain
  • the brain is transferred to a plurality of regions for deriving ASPECTS. It shall be divided.
  • FIG. 4 is a diagram showing a standard divided image showing the divided area of ASPECTS.
  • ASPECTS is an abbreviation for Alberta Stroke Program Early CT Score, and is a scoring method that quantifies the early CT sign of simple CT for cerebral infarction in the middle cerebral artery region. Specifically, when the medical image is a CT image, the middle cerebral artery region is divided into 10 regions in two typical cross sections (basal ganglia level and radial coronary level), and the presence or absence of early ischemic changes is evaluated for each region. , It is a method of scoring positive points by the deduction method.
  • the left and right middle cerebral artery regions on the tomographic plane at the basal ganglia level of the brain are divided into seven regions C, I, L, IC and M1 to M3, respectively.
  • the left and right middle cerebral artery regions on the corona radiata level fault plane are divided into three regions, M4 to M6, respectively.
  • the reference numerals of the regions are shown only in the left brain.
  • the division portion 22 divides the tomographic image S1 at the basal ganglia level of the brain into seven regions C, I, L, IC and M1 to M3 of the left and right middle cerebral artery regions, and at the corona radiata level. It is assumed that the tomographic image S2 is divided into three regions M4 to M6 of the left and right middle cerebral artery regions.
  • the dividing unit 22 aligns the tomographic image S1 with the standard divided image D1 shown in FIG. 4 and aligns the tomographic image S2 with the standard divided image D2 shown in FIG.
  • FIG. 5 is a diagram showing tomographic images S1 and S2 divided into a plurality of regions.
  • the reference line derivation unit 23 derives the reference line of the brain based on the plurality of divided regions in the tomographic images S1 and S2.
  • the midline of the brain is the reference line.
  • the reference line derivation unit 23 derives the centers of gravity of the left and right brains in the tomographic images S1 and S2, respectively. Since the process of deriving the reference line is the same for each of the tomographic images S1 and S2, only the derivation of the center of gravity for the tomographic image S2 will be described here, and the derivation of the center of gravity for the tomographic image S1 will be described. Omit.
  • FIG. 6 is a diagram for explaining the derivation of the center of gravity.
  • the reference line deriving unit 23 derives the centers of gravity GL4 to GL6 and the centers of gravity GR4 to GR6 of the regions M4 to M6 in the left and right brains of the tomographic image S2, respectively. Further, the reference line deriving unit 23 derives the center of gravity GL of the center of gravity GL4 to GL6 of the left brain and the center of gravity GR of the center of gravity GR4 to GR6 of the right brain.
  • the reference line derivation unit 23 derives the center of gravity of the regions M4 to M6 in each of the left and right brains as the center of gravity GL of the left brain and the center of gravity GR of the right brain without deriving the centers of gravity GL4 to GL6 and the centers of gravity GR4 to GR6, respectively. It may be.
  • the reference line derivation unit 23 further derives the perpendicular bisectors of the centers of gravity GL and GR as the reference line BL.
  • the reference line derivation unit 23 also derives the midpoint C0 of the centers of gravity GL and GR.
  • the reference line derivation unit 23 derives the center of gravity positions GL and GR of the left and right brains, and derives the perpendicular bisectors of the center of gravity GL and GR as the reference line BL.
  • the normalization unit 24 normalizes the position of the brain included in the tomographic images S1 and S2. For this purpose, the normalization unit 24 translates the brain so that the midpoints C0 of the centers of gravity GL and GR of the brain coincide with the centers of the tomographic images S1 and S2.
  • FIG. 8 is a diagram showing a tomographic image S2 in which the midpoint C0 coincides with the center. In this state, the reference line BL is tilted by ⁇ degrees clockwise with respect to the perpendicular line XL passing through the center of the tomographic image S2.
  • the normalization unit 24 rotates the brain included in the tomographic image S2 by ⁇ degrees counterclockwise about the midpoint C0 to make the reference line BL coincide with the perpendicular line XL of the tomographic image S2. As a result, as shown in FIG. 9, the position of the brain in the tomographic image S2 is normalized.
  • the normalization unit 24 normalizes the position of the brain of the tomographic image S1 in the same manner as the tomographic image S2.
  • the normalized tomographic images S1 and S2 will be referred to as normalized tomographic images Ss1 and Ss2, respectively.
  • the reversing unit 25 generates a reversing tomographic image in which the normalized tomographic images Ss1 and Ss2 are flipped horizontally with reference to the reference line BL.
  • FIG. 10 is a diagram showing inverted tomographic images Sc1 and Sc2.
  • the discrimination unit 26 discriminates the diseased region of the brain by using the normalized tomographic images Ss1 and Ss2 and the inverted tomographic images Sc1 and Sc2, respectively.
  • the infarcted region is determined as the diseased region of the brain.
  • the discriminating unit 26 is referred to as a convolutional neural network (hereinafter referred to as CNN (Convolutional Neural Network)), which is one of the multi-layer neural networks in which a plurality of processing layers are hierarchically connected and deep learning is performed. It is assumed that the discriminant model consisting of) is provided.
  • CNN Convolutional Neural Network
  • FIG. 11 is a conceptual diagram showing the processing performed by the discrimination model included in the discrimination unit 26 together with the configuration of the discrimination model in the first embodiment.
  • FIG. 11 shows only the normalized tomographic image Ss1 and the inverted tomographic image Sc1, the same applies to the normalized tomographic image Ss2 and the inverted tomographic image Sc2.
  • the discrimination model 30 is composed of a CNN having an encoder 30A and a decoder 30B. The normalized tomographic image Ss1 and the inverted tomographic image Sc1 are input to the encoder 30A.
  • the encoder 30A has a plurality of processing layers including at least one of a convolution layer and a pooling layer.
  • the processing layer included in the encoder 30A is assumed to have both a convolution layer and a pooling layer.
  • the convolutional layer is based on the difference in pixel values of the corresponding pixel positions for the two input images (ie, the normalized tomographic image Ss1 and the inverted tomographic image Sc1 and the normalized tomographic image Ss2 and the inverted tomographic image Sc2).
  • the convolution process using various kernels is performed so as to detect the infarct region, and a feature map consisting of the feature data obtained by the convolution process is output.
  • the convolution layer applies the kernel to the entire input image or feature map output from the previous processing layer, shifting the pixels of interest of the kernel. Further, the convolution layer applies an activation function such as a sigmoid function to the convolutioned value, and outputs a feature map.
  • the infarct region is detected by using the symmetry with respect to the reference line in the brain based on the difference in the pixel values of the corresponding pixel positions of the two input images.
  • the pooling layer reduces the feature map by pooling the feature map output by the convolution layer, and outputs the reduced feature map.
  • the encoder 30A repeats convolution and pooling to identify the infarcted area in the feature map.
  • the decoder 30B has a plurality of convolution layers and an upsampling layer.
  • the convolution layer is subjected to the same processing as the convolution layer of the encoder 30A.
  • the upsampling layer upsamples the feature map and outputs an enlarged feature map.
  • the decoder 30B increases the resolution of the feature map output by the encoder 30A so as to have the resolution of the normalized tomographic images Ss1 and Ss2, and infringes each pixel in the normalized tomographic images Ss1 and Ss2 with the pixels in the infarcted region. Performs processing to classify pixels as non-regional pixels.
  • the discrimination result of the infarct region in the normalized tomographic images Ss1 and Ss2 is output from the final layer of the decoder 30B, which is also the final layer of the discrimination model 30.
  • the discrimination model 30 is trained to discriminate the infarct region in the normalized tomographic images Ss1 and Ss2. As shown in FIG. 12, a large number of combinations of the learning image 40 and the correct answer data 41 labeling the infarcted region in the learning image 40 are used for learning.
  • an inverted image of the learning image 40 (referred to as an inverted image for learning) is generated.
  • the learning image 40 and the learning inverted image are input to the CNN constituting the discrimination model 30, and the discrimination result of the infarct region is output from the CNN.
  • the determination result of the infarct region and the correct answer data 41 are compared, and the difference from the correct answer data is derived as a loss.
  • the CNN constituting the discrimination model 30 is trained by using a large number of learning images 40 and correct answer data 41 so that the loss becomes equal to or less than a predetermined threshold value.
  • the loss is determined by the number of convolution layers, the number of pooling layers, the kernel coefficient in the convolution layer, the size of the kernel, etc. so that the loss is equal to or less than a predetermined threshold value.
  • CNN learning is performed by repeatedly deriving each time it is derived.
  • the discrimination model 30 for discriminating the infarct region 32 in the normalized tomographic images Ss1 and Ss2 is constructed.
  • FIG. 13 is a diagram showing a display screen of the determination result.
  • the normalized tomographic images Ss1 and Ss2 are displayed on the discrimination result display screen 50.
  • labels 51 and 52 are given to the infarcted regions identified in the normalized tomographic images Ss1 and Ss2.
  • ASPECTS 55 is displayed on the discrimination result display screen 50.
  • ASPECTS55 includes a table that assigns check marks to each of the 10 regions C, I, L, IC and M1 to M6 for determining ASPECTS55 in the normalized tomographic images Ss1 and Ss2.
  • the operator determines the position of the infarcted region on the determination result display screen 50, and assigns a check mark to ASPECTS 55.
  • labels 51 and 52 for identifying the infarct region are attached to the left brain region M2 of the normalized tomographic image Ss1 and the left brain region M5 of the normalized tomographic image Ss2, respectively. .. Therefore, the operator assigns a check mark to each of the areas M2 and M5 of the left brain. Since the right brain does not include the infarcted area, no check mark is given to the table of the right brain. As a result, the ASPECTS of the right brain is 10, and the ASPECTS of the left brain is 8.
  • FIG. 14 is a flowchart showing the processing performed in the first embodiment.
  • the image acquisition unit 21 acquires the tomographic images S1 and S2 included in the brain image B0 (step ST1).
  • the division unit 22 divides the brain included in the tomographic images S1 and S2 into a plurality of predetermined regions (step ST2).
  • the reference line deriving unit 23 derives the reference line BL of the brain based on the plurality of divided regions in the tomographic images S1 and S2 (step ST3).
  • the normalization unit 24 normalizes the position of the brain included in the tomographic images S1 and S2 (step ST4).
  • normalized tomographic images Ss1 and Ss2 are generated.
  • the reversing unit 25 flips the normalized tomographic images Ss1 and Ss2 left and right with reference to the reference line BL (step ST5).
  • the inverted tomographic images Sc1 and Sc2 are generated.
  • the discrimination unit 26 discriminates the diseased region of the brain by using the normalized tomographic images Ss1 and Ss2 and the inverted tomographic images Sc1 and Sc2 (step ST6). Then, the display control unit 27 displays the determination result on the display 14 (step ST7), and ends the process.
  • the structure in the medical image including the axisymmetric structure is divided into a plurality of predetermined regions, and the structure reference is based on the divided plurality of regions.
  • the line is derived. Specifically, each of the left and right brains included in the tomographic images S1 and S2 is divided into 10 regions based on ASPECTS, and the reference line BL is derived based on the plurality of divided regions.
  • the reference line BL is derived based on a plurality of regions in the brain, the midline is derived using only the eyeball as in the method described in Japanese Patent Publication No. 2019-500110.
  • the reference line can be derived more reliably and accurately than the method of deriving. Further, the burden on the operator can be reduced as compared with the method described in Japanese Patent Application Laid-Open No. 2011-167333.
  • the normalized tomographic images Ss1 and Ss2 in which the position of the brain is accurately normalized can be generated. ..
  • the normalized tomographic images Ss1 and Ss2 normalized based on the derived reference line BL are inverted, the inverted tomographic images Sc1 and Sc2 that are accurately inverted left and right can be generated.
  • FIG. 15 is a diagram showing a schematic configuration of a medical image processing apparatus according to a second embodiment of the present disclosure.
  • the medical image processing device 1A according to the second embodiment uses the normalized tomographic images Ss1 and Ss2 instead of the inversion unit 25 and the discrimination unit 26 of the medical image processing device 1 according to the first embodiment, and has an abnormality in the brain.
  • the point that the discriminating unit 29 for discriminating is provided is different from the first embodiment.
  • FIG. 16 is a schematic block diagram showing a configuration of a discrimination model included in the discrimination unit 29 in the second embodiment.
  • the discrimination model 60 included in the discrimination unit 29 includes an encoder 60A and a decoder 60B.
  • the discrimination model 60 in the second embodiment outputs a large number of learning images and correct answers so that when the normalized tomographic images Ss1 and Ss2 are input, the discrimination results of the infarcted region in the normalized tomographic images Ss1 and Ss2 are output. Learning is performed in the same manner as the discrimination model 30 using the data, but it differs from the discrimination model 30 in that the inverted tomographic images Sc1 and Sc2 are internally generated.
  • the encoder 60A has a first discriminator 61, a second discriminator 62, and a third discriminator 63.
  • the first discriminator 61 is composed of a convolutional neural network having a plurality of processing layers including at least one of a convolutional layer and a pooling layer, performs at least one of the convolutional processing and the pooling processing in each processing layer, and outputs a feature map F1. .. FIG. 17 is a diagram showing an example of the feature map F1 output from the first discriminator 61.
  • the resolution of the feature map F1 is set to 5 ⁇ 5 pixels for the sake of simplicity, but the present invention is not limited to this.
  • the normalized tomographic image Ss1 includes the infarct region at the same position as the normalized tomographic image Ss1 shown in FIG. 13
  • the resolution of the feature map F1 is 5 ⁇ 5 pixels as shown in FIG.
  • Feature A1 is included at the position corresponding to the infarcted region of the normalized tomographic image Ss1.
  • the second discriminator 62 inverts the feature map F1 output by the first discriminator 61 with reference to the axis of symmetry to generate an inverted feature map F2.
  • the axis of symmetry corresponds to the reference line BL derived by the reference line deriving unit 23.
  • the processing layer of the second discriminator 62 performs a convolution process in which the feature map F1 is inverted with respect to the axis of symmetry.
  • FIG. 18 is a diagram showing an inverted feature map. As shown in FIG. 18, the inverted feature map F2 is generated by flipping the feature map F1 shown in FIG. 17 left and right with respect to the axis of symmetry X0.
  • the feature A2 of the feature map F1 exists as the feature A2 of the inverted feature map F2.
  • the second discriminator 62 may have only one processing layer or may have a plurality of processing layers as long as the inverted feature map F2 can be generated from the feature map F1. ..
  • the third discriminator 63 is composed of a convolutional neural network having a plurality of processing layers including at least one of a convolutional layer and a pooling layer, and the feature map F1 and the second discriminator output by the first discriminator 61 in the first processing layer.
  • a superposed map is generated by superimposing the inverted feature map F2 output by the vessel 62.
  • the first processing layer of the third discriminator 63 is shown separately from the third discriminator 63 by a positive sign for the purpose of explaining the superposition.
  • FIG. 19 is a diagram showing a superposed map.
  • the third discriminator 63 discriminates the infarct region in the normalized tomographic images Ss1 and Ss2 based on the overlay map F3. Specifically, a process for identifying the infarcted region is performed based on the overlay map F3.
  • the decoder 60B increases the resolution of the feature map in which the infarcted region is specified so as to have the resolution of the normalized tomographic images Ss1 and Ss2, and sets each pixel in the normalized tomographic images Ss1 and Ss2 to the pixel of the infarcted region and the infarcted region. Performs processing to classify pixels as non-pixels. As a result, the discrimination result of the infarct region in the normalized tomographic images Ss1 and Ss2 is output from the final layer of the decoder 60B, which is also the final layer of the discrimination model 60.
  • FIG. 20 is a flowchart showing the processing performed in the second embodiment.
  • the image acquisition unit 21 acquires the tomographic images S1 and S2 included in the brain image B0 (step ST11).
  • the division unit 22 divides the brain included in the tomographic images S1 and S2 into a plurality of predetermined regions (step ST12).
  • the reference line deriving unit 23 derives the reference line BL of the brain based on the plurality of divided regions in the tomographic images S1 and S2 (step ST13).
  • the normalization unit 24 normalizes the position of the brain included in the tomographic images S1 and S2 (step ST14). As a result, normalized tomographic images Ss1 and Ss2 are generated.
  • the discrimination unit 29 discriminates the diseased region of the brain by using the normalized tomographic images Ss1 and Ss2 (step ST15). Then, the display control unit 27 displays the determination result on the display 14 (step ST16), and ends the process.
  • the configuration of the medical image processing apparatus according to the third embodiment of the present disclosure is the medical image processing apparatus 1 according to the first embodiment shown in FIG. 2, except that the configuration of the discrimination model included in the discrimination unit 26 is different. Since it is the same as the above, a detailed description of the configuration will be omitted here.
  • FIG. 21 is a conceptual diagram showing the processing performed by the discrimination model included in the discrimination unit 26 together with the configuration of the discrimination model in the third embodiment.
  • the discrimination model 70 includes a CNN having an encoder 70A and a decoder 70B.
  • the encoder 70A has a first discriminator 71, a second discriminator 72, and a third discriminator 73.
  • the first discriminator 71 is composed of a convolutional neural network having a plurality of processing layers including at least one of a convolutional layer and a pooling layer. Then, at least one of the convolution processing and the pooling processing is performed in each processing layer, and the feature map F11 for the normalized tomographic image Ss1 is output.
  • the second discriminator 72 is composed of a convolutional neural network having a plurality of processing layers including at least one of a convolutional layer and a pooling layer. Parameters such as kernel weights in each processing layer of the second discriminator 72 are common to those of the first discriminator 71. Therefore, the first discriminator 71 and the second discriminator 72 are substantially the same discriminator.
  • the second discriminator 72 performs at least one of the convolution processing and the pooling processing in each processing layer, and outputs the feature map F12 for the inverted tomographic image Sc1.
  • the third discriminator 73 is composed of a convolutional neural network having a plurality of processing layers including at least one of a convolutional layer and a pooling layer. Then, in the first processing layer, the overlay map F13 is generated by superimposing the feature map F11 output by the first discriminator 71 and the inverted feature map F12 output by the second discriminator 72. In FIG. 21, the first processing layer of the third discriminator 73 is shown separately from the third discriminator 73 by a positive sign for the purpose of explaining the superposition.
  • the third discriminator 73 discriminates the infarct region in the normalized tomographic images Ss1 and Ss2 based on the overlay map F13. Specifically, a process for identifying the infarcted region is performed based on the overlay map F13.
  • the decoder 70B increases the resolution of the feature map in which the infarct region is specified so as to have the resolution of the normalized tomographic images Ss1 and Ss2, and sets each pixel in the normalized tomographic images Ss1 and Ss2 to the pixel of the infarct region and the infarct region. Performs processing to classify as non-pixels. As a result, the discrimination result of the infarct region 75 in the normalized tomographic images Ss1 and Ss2 is output from the final layer of the decoder 70B, which is also the final layer of the discrimination model 70.
  • FIG. 22 is a flowchart showing the processing performed in the third embodiment.
  • the image acquisition unit 21 acquires the tomographic images S1 and S2 included in the brain image B0 (step ST21).
  • the division unit 22 divides the brain included in the tomographic images S1 and S2 into a plurality of predetermined regions (step ST22).
  • the reference line deriving unit 23 derives the reference line BL of the brain based on the plurality of divided regions in the tomographic images S1 and S2 (step ST23).
  • the normalization unit 24 normalizes the position of the brain included in the tomographic images S1 and S2 (step ST24).
  • normalized tomographic images Ss1 and Ss2 are generated.
  • the reversing unit 25 flips the normalized tomographic images Ss1 and Ss2 left and right with reference to the reference line BL (step ST25).
  • the inverted tomographic images Sc1 and Sc2 are generated.
  • the discrimination unit 26 discriminates the diseased region of the brain by using the normalized tomographic images Ss1 and Ss2 and the inverted tomographic images Sc1 and Sc2 (step ST26). Then, the display control unit 27 displays the determination result on the display 14 (step ST27), and ends the process.
  • the third discriminator 73 may be provided with the function of the decoder 70B.
  • a process of discriminating the infarct region in the normalized tomographic images Ss1 and Ss2 is performed based on the superimposition map F13.
  • each pixel in the normalized tomographic images Ss1 and Ss2 is displayed. The process of classifying the pixels in the infarct region and the pixels in the non-infarct region is performed.
  • the feature map F11 and the inverted feature map F12 are superimposed on the first processing layer of the third discriminator 73, but the present invention is not limited to this.
  • a difference map representing the difference between the feature map F11 and the inverted feature map F12 may be generated.
  • the third discriminator 73 the infarct region in the normalized tomographic images Ss1 and Ss2 is discriminated based on the difference map.
  • the configuration of the medical image processing apparatus according to the fourth embodiment of the present disclosure is the same as that of the medical image processing apparatus 1 according to the first embodiment shown in FIG. 2, and only the processing to be performed is different. A detailed description of the above will be omitted.
  • FIG. 23 is a conceptual diagram showing the processing performed in the fourth embodiment together with the configuration of the discrimination model. Although only the normalized tomographic image Ss1 is shown in FIG. 23, the same processing is performed on the normalized tomographic image Ss2. As shown in FIG. 23, in the fourth embodiment, the reversing unit 25 divides the normalized tomographic image Ss1 into left and right with reference to the reference line BL to generate the divided normalized tomographic images Sh1 and Sh2.
  • the divided normalized tomographic images Ssh1 and Sh2 have half the size of the normalized tomographic images Ss1 and Ss2.
  • the divided normalized tomographic image Sh1 shows the right brain side
  • the divided normalized tomographic image Sh2 shows the left brain side.
  • the inversion unit 25 generates a divided inversion tomographic image Sch1 in which either one of the divided normalized tomographic images Sh1 and Sh2 is horizontally inverted with reference to the reference line BL.
  • the split-reversed tomographic image Sch1 is generated by flipping the split-normalized tomographic image Sh2 left and right.
  • the discrimination unit 26 has a discrimination model 80 for discriminating a diseased region (that is, an infarct region) of the brain using a split normalized tomographic image and a split inverted tomographic image.
  • the discrimination model 80 has an encoder 80A and a decoder 80B. Similar to the encoder 30A in the first embodiment, the encoder 80A has a plurality of processing layers including at least one of a convolution layer and a pooling layer.
  • the encoder 80A performs a convolution process using various kernels so that the infarct region can be detected based on the difference in the pixel values of the corresponding pixel positions between the divided normalized tomographic image Sh1 and the divided inverted tomographic image Sch1.
  • a feature map is generated from the feature data obtained in the convolution process.
  • the encoder 80A identifies the infarcted region in the feature map.
  • the infarct region is detected by using the symmetry with respect to the reference line BL in the brain based on the difference in the pixel values of the corresponding pixel positions of the two input images.
  • the infarction region detected in the divided normalized tomographic image Sh1 and the divided inverted tomographic image Sch1 are detected.
  • a different label is given to the infarcted area.
  • the divided normalized tomographic image Sh1 that is, the infarcted region detected on the right brain side is labeled with "1”.
  • the split inversion tomographic image Sch1 that is, the infarcted region detected on the left brain side is labeled with "2”.
  • the area other than the infarcted area is labeled with "0".
  • the decoder 80B has a plurality of convolution layers and an upsampling layer, similarly to the decoder 30B in the first embodiment.
  • the decoder 80B increases the resolution of the feature map output by the encoder 80A so as to have the resolution of the normalized tomographic images Ss1 and Ss2, and sets each pixel in the normalized tomographic images Ss1 and Ss2 as a pixel in the infarcted region and not in the infarcted region. Performs processing to classify into pixels.
  • the discrimination result of the infarct region in the normalized tomographic images Ss1 and Ss2 is output from the final layer of the decoder 80B, which is also the final layer of the discrimination model 80.
  • the infarct region is specified by using a feature map for images of half the size of the normalized tomographic images Ss1 and Ss2. Therefore, when the feature map in which the infarct region is specified is upsampled by the decoder 80B and the infarct region in the normalized tomographic images Ss1 and Ss2 is finally specified, the feature map is made the same size as the normalized tomographic image Ss1. There is a need. Therefore, the decoder 80B upsamples the feature map to half the resolution of the normalized tomographic images Ss1 and Ss2 in the processing layer in the previous stage.
  • the size of the feature map is made the same as that of the normalized tomographic images Ss1 and Ss2 by interpolating the region corresponding to the label of the detected infarct region into the upsampled feature map. Further, the decoder 80B generates a feature map in which the regions are interpolated in the processing layer in the subsequent stage, and identifies the infarct region in the normalized tomographic images Ss1 and Ss2.
  • FIGS. 24 to 27 are diagrams for explaining the interpolation of the area with respect to the feature map.
  • the feature maps F21, F23, F25, and F27 upsampled to the same resolution as the divided normalized tomographic images Sh1 and Sh2 are shown.
  • the decoder 80B interpolates the region F21A having the same size as the feature map F21 in the region on the right side of the feature map F21 and having the label "0" in all regions. Therefore, a feature map F22 having the same size as the normalized tomographic images Ss1 and Ss2 is generated.
  • the decoder 80B when the label of the detected infarct region in the feature map F23 is "2", the infarct region is detected on the left brain side. Therefore, as shown in FIG. 25, the decoder 80B generates a feature map F23A in which the infarcted region of the label “2” included in the feature map F23 is horizontally inverted with respect to the right side of the feature map F23. Then, in the area on the left side of the inverted feature map F23A, the area F23B having the same size as the feature map F23A and labeled "0" in all the areas is interpolated to obtain the normalized tomographic images Ss1 and Ss2. A feature map F24 of the same size is generated.
  • the decoder 80B interpolates the region F25A having the same size as the feature map F25 and having the label "0" in the entire region in the region on the right side of the feature map F25. Further, the decoder 80B flips the infarct region of the label “2” included in the feature map F25 horizontally with respect to the right side of the feature map F25 and imparts it to the interpolated region F25A. As a result, the decoder 80B generates a feature map F26 having the same size as the normalized tomographic images Ss1 and Ss2, as shown in FIG.
  • the decoder 80B has the same size as the feature map F27 in the left region of the feature map F27 as shown in FIG. 27. Then, the region F27A labeled with "0" is interpolated in all regions to generate a feature map F28 having the same size as the normalized tomographic images Ss1 and Ss2.
  • the region of the label “1” and the region of the label “2” may overlap in the feature map F29 as shown in FIG. 28.
  • the label “3" is assigned to the area where the area of the label “1” and the area of the label “2” overlap.
  • the decoder 80B interpolates the region F29A having the same size as the feature map F29 and having the label "0" in the entire region in the region on the right side of the feature map F29.
  • the decoder 80B interpolates the infarcted areas of the labels "2" and "3" by inverting the right side of the feature map F29 as a reference while deleting the area of the label "2" included in the feature map F29. Granted to region F29A.
  • the decoder 80B is composed of the feature map F29B and the feature map F29A in which the area of the label “2” in the feature map F29 is deleted, and the feature has the same size as the normalized tomographic images Ss1 and Ss2. Generate map F30.
  • the normalized tomographic images Ss1 and Ss2 and the inverted tomographic images Sc1 and Sc2 in the first embodiment are replaced with the divided normalized tomographic images. Images and split inversion tomographic images may be used to detect infarcted areas of the brain.
  • the same method as in the fourth embodiment can be applied.
  • the feature map F1 output by the first discriminator 61 is referred to the axis of symmetry corresponding to the reference line BL.
  • the split feature map Fh31 shows the right brain side
  • the split feature map Fh32 shows the left brain side.
  • the second discriminator 62 generates a division inversion feature map Fh33 in which one of the division feature maps (in FIG. 29, the division feature map Fh32) is horizontally inverted.
  • an overlay map or a difference map is generated from the division feature map Fh31 and the division inversion feature map Fh33, and the infarct region on both the right brain side and the left brain side is generated using the overlay map or the difference map. Is detected.
  • a feature map having the same size as the normalized tomographic images Ss1 and Ss2 is generated by interpolating the region in the same manner as the decoder 80B in the fourth embodiment, and the normalized tomographic images Ss1 and Ss2 are generated. It suffices to output the discrimination result of the infarct region in.
  • the split-normalized tomographic image Sch1 is generated from the split-normalized tomographic image Sh2 on the left brain side, but the split-reversal tomographic image is generated from the split-normalized tomographic image Sh1 on the right-brain side. You may.
  • the split inversion tomographic image and the split normalized tomographic image Sh2 generated from the split normalized tomographic image Sh1 on the right brain side are input to the discrimination model 80, and the discrimination result of the infarct region in the normalized tomographic images Ss1 and Ss2 is output. Will be done.
  • the normalization unit 24 normalizes the positions of the brains included in the tomographic images S1 and S2 based on the reference line BL derived by the reference line derivation unit 23, and normalizes the tomographic image Ss1. , Ss2 is generated, but the present invention is not limited to this. If the position of the structure included in the medical image such as the tomographic images S1 and S2 can be normalized to generate the normalized medical image, the method is not limited to the method using the reference line BL.
  • the normalization unit 24 normalizes the positions of the structures (brain) included in the medical images (tomographic images S1 and S2) without being based on the reference line derived by the reference line derivation unit 23, and the normalization medical image. May be generated.
  • the normalized tomographic images Ss1 based on the operation of displaying the tomographic images S1 and S2 on the display 14 and normalizing the position of the brain included in the tomographic images S1 and S2 using the input device 15 by the operator. It may be one that generates Ss2.
  • the position of the brain included in the tomographic images S1 and S2 is normalized by aligning the standard brain image in which the reference line is defined with the tomographic images S1 and S2.
  • the normalized tomographic images Ss1 and Ss2 may be generated.
  • the operator gives a check mark to ASPECTS on the discrimination result display screen, but the present invention is not limited to this.
  • the medical image processing device 1B shown in FIG. 30 the medical image processing device 1 according to the first embodiment may be provided with a derivation unit 90 for deriving ASPECTS.
  • the derivation unit 90 determines which region for deriving ASPECTS in the normalized tomographic images Ss1 and Ss2 includes the detected infarct region.
  • the derivation unit 90 includes the infarct region in any of the left and right C, I, L, IC and M1 to M3 regions in the normalized tomographic image Ss1 and the left and right M4 to M6 regions in the normalized tomographic image Ss2. Determine if it is possible. Specifically, when the infarcted region is included in the region for deriving ASPECTS in a predetermined ratio or more, it is determined that the region is the infarcted region. Then, the out-licensing unit 90 adds a check mark to the ASPECTS 55 shown in FIG. 13 for the region determined to be the infarcted region.
  • the predetermined ratio can be appropriately set according to the degree of strictness of the judgment. For example, it can be 10%, but it may be 20% or 30%. Further, if the infarcted region is included in the region for deriving ASPECTS even a little, it may be determined as the infarcted region.
  • the out-licensing unit 90 may be provided not only in the first embodiment but also in any of the second to fourth embodiments.
  • CNN is used as the discrimination model, but the present invention is not limited to this. If it is a neural network composed of a plurality of processing layers, a deep neural network (DNN (Deep Neural Network)), a recurrent neural network (RNN (Recurrent Neural Network)), a U-net, or the like can be used. Further, as the neural network, Mask R-CNN (Regions with CNN features) (“Mask R-CNN, Kaiming He et al., ArXiv, 2018) may be used. MASK R-CNN will be described below.
  • FIG. 31 is a schematic configuration diagram of Mask R-CNN. Note that FIG. 31 shows an example in which MASK R-CNN is applied as the discrimination model 30 in the first embodiment.
  • the Mask R-CNN100 is a convolutional layer 101 that extracts a feature amount from an input image to generate a feature map F40, and an RPN (Region Proposal Networks) that specifies a candidate region of an infarct region in the feature map F40.
  • RPN Registered Proposal Networks
  • the feature map F40 is cut out based on the candidate area of the infarction area, the class of the candidate area using the cut out feature map, and the classification network 103 that outputs the coordinate information in the normalized tomographic images Ss1 and Ss2 of the candidate area, and Includes segmentation 104 that identifies the infarcted region at the pixel level in the normalized tomographic images Ss1 and Ss2.
  • the convolution layer 101 is obtained by performing convolution processing using various kernels on the input normalized tomographic images Ss1, Ss2 and inverted tomographic images Sc1 and Sc2, similarly to the encoder in each of the above embodiments.
  • the feature map F40 composed of the obtained feature data is output.
  • RPN102 a rectangular area called an anchor having a plurality of types of aspect ratios and sizes is defined in advance.
  • a plurality of types of anchors are applied to each pixel position of the feature map F40, and the anchor having the largest overlap rate with the object candidates included in the normalized tomographic images Ss1 and Ss2 is selected. Then, in the RPN 102, using the selected anchor, a process of regressing (that is, deforming and moving) the anchor so as to match the rectangle (correct answer box) surrounding the object candidate is performed on all the pixels of the feature map F40.
  • the position and size of the anchor regressed to match the correct answer box are output from the RPN 102 as the candidate region A10 of the infarct region in the input normalized tomographic images Ss1 and Ss2.
  • the candidate region A10 is a rectangular region surrounding the infarcted region.
  • the classification network 103 is composed of a fully connected layer, and based on the candidate region A10 and the feature map F40, the classification of the candidate region A10 in the normalized tomographic images Ss1 and Ss2 and the coordinates in the normalized tomographic images Ss1 and Ss2 of the candidate region A10. Information is derived.
  • the segmentation 104 is composed of FCN (Fully Convolutional Network), and the infarct region in the normalized tomographic images Ss1 and Ss2 is defined by identifying the pixel to be the infarct region in the candidate region A10 based on the candidate region A10 and the feature map F40. Segmentation.
  • FIG. 31 shows a state in which the infarct region 105 in the normalized tomographic image Ss1 is segmented.
  • the infarct region in the normalized tomographic images Ss1 and Ss2 can also be specified by using the MASK-RCNN100 as the discrimination model 30 in the first embodiment.
  • MASK-RCNN as the discrimination model 60 in the second embodiment.
  • the normalized tomographic images Ss1 and Ss2 are input to the MASK-RCNN, and the feature map of the normalized tomographic images Ss1 and Ss2 and the inverted feature map thereof are generated in the convolution layer 101.
  • the convolution layer 101 a superposition map of the feature map and its inverted feature map is generated and output.
  • the superposition map may be further folded and pooled, and the convolution and pooling superposition map may be output.
  • the map output by the convolution layer 101 is input to the RPN 102, and the candidate region A10 of the infarct region in the normalized tomographic images Ss1 and Ss2 is output. Further, the map output by the convolution layer 101 and the candidate region A10 output by the RPN 102 are input to the classification network 103 and the segmentation 104, and the infarct region 105 in the normalized tomographic images Ss1 and Ss2 is specified.
  • the discrimination model 70 it is also possible to use MASK-RCNN as the discrimination model 70 in the third embodiment.
  • the normalized tomographic images Ss1 and Ss2 and the inverted tomographic images Sc1 and Sc2 are input to the MASK-RCNN100, respectively, and the feature map and the inverted tomographic image Sc1 for the normalized tomographic images Ss1 and Ss2 in the convolution layer 101.
  • Sc2 feature maps (hereinafter referred to as inverted feature maps) are generated, and a superposed map or difference map of the feature map and its inverted feature map is generated and output.
  • the superposition map or the difference map may be further convoluted and pooled, and the convolution and pooling superposition map or the difference map may be output.
  • the map output by the convolution layer 101 is input to the RPN 102, and the candidate region A10 of the infarct region in the normalized tomographic images Ss1 and Ss2 is output. Further, the map output by the convolution layer 101 and the candidate region A10 output by the RPN 102 are input to the classification network 103 and the segmentation 104, and the infarct region 105 in the normalized tomographic images Ss1 and Ss2 is specified.
  • MASK-RCNN MASK-RCNN
  • the divided normalized tomographic images Sh1 and Sh2 and the divided inverted tomographic images Sch1 and Sch2 are input to the MASK-RCNN100, respectively, and the divided normalized tomographic images Sh1 and Sh2 and the divided inverted tomographic images Sch1 and Sch1 are input from the convolution layer 101.
  • a feature map focusing on the difference in pixel values at the corresponding pixel positions of Sch2 is output.
  • the feature map output by the convolution layer 101 is input to the RPN 102, and the candidate region A10 of the infarct region in the normalized tomographic images Ss1 and Ss2 is output.
  • the feature map output by the convolution layer 101 and the candidate region A10 output by the RPN 102 are input to the classification network 103 and the segmentation 104, and the infarct region 105 in the normalized tomographic images Ss1 and Ss2 is specified.
  • the feature map is interpolated so as to have the same size as the normalized tomographic images Ss1 and Ss2.
  • the same method as that of the fourth embodiment can be applied to the second embodiment, and MASK-RCNN is used as the discrimination model used in this case. Is possible. Further, as described above, the same method as that of the fourth embodiment can be applied to the third embodiment, and MASK-RCNN is used as the discrimination model used in this case. Is possible.
  • the tomographic images S1 and S2 are divided into a plurality of regions for determining ASPECTS, but the present invention is not limited to this.
  • the tomographic images S1 and S2 may be divided into a plurality of regions by a method of dividing the brain into functional regions such as Brodmann's brain map.
  • the reference line BL of the brain included in the two-dimensional tomographic images S1 and S2 is derived, but the present invention is not limited to this.
  • the three-dimensional brain image B0 may be divided into a plurality of regions, and a reference plane corresponding to the median plane of the brain included in the three-dimensional brain image B0 may be derived based on the plurality of regions.
  • the discrimination result in the normalized tomographic images Ss1 and Ss2 is displayed on the discrimination result display screen 50, but the present invention is not limited to this.
  • the tomographic images S1 and S2 before normalization may be displayed on the discrimination result display screen 50.
  • the normalized tomographic images Ss1 and Ss2 including the discrimination result may be aligned with the tomographic images S1 and S2, and a mask for identifying the infarct region may be displayed on the tomographic images S1 and S2.
  • the normalization tomographic images Ss1 and Ss2 generated by deriving the center of gravity of the left brain and the right brain, deriving the reference line and normalizing in the reference line deriving unit 23 and the normalizing unit 24.
  • the center of gravity of the left and right brains, the reference line, and the normalization may be performed again to generate a new normalized tomographic image.
  • the center of gravity of the left and right brains, the reference line, and the normalization may be repeated for the new normalized tomographic image.
  • the accuracy of normalization can be improved, so that the infarcted region can be determined more accurately.
  • the second discriminator 62 of the discriminant model 60 generates the inverted feature map F2, and the third discriminator 63 generates the superimposed map of the feature map F1 and the inverted feature map F2.
  • the infarcted area is not limited to this.
  • a difference map is generated by deriving the difference between the phase corresponding pixels of the feature map F1 and the inverted feature map F2, and the infarct region is discriminated based on the feature map F1 and the difference map. May be done.
  • the convolution layer 101 may generate a difference map between the feature map and its inverted feature map. In this case, a difference map or a map obtained by further convolving and pooling the difference map is input to the RPN 102.
  • first discriminator 61, the second discriminator 62, and the third discriminator 63 included in the discrimination model 60 in the second embodiment do not have to be the same type of neural network.
  • first discriminator 61 and the second discriminator 62 may be a convolutional neural network
  • the third discriminator 63 may be a recurrent neural network instead of the CNN.
  • first discriminator 71 and the second discriminator 72 and the third discriminator 73 included in the discrimination model 70 in the third embodiment do not have to be the same type of neural network.
  • the first discriminator 71 and the second discriminator 72 may be used as a convolutional neural network
  • the third discriminator 73 may be used as a recurrent neural network instead of CNN.
  • the infarcted region of the brain is discriminated, but the present invention is not limited to this, and the bleeding region of the brain may be discriminated.
  • the discriminant model is trained to discriminate the bleeding region of the brain.
  • CT images are used as brain images B0 and tomographic images S1 and S2, but the present invention is not limited to this, and other medical images such as MRI images and PET images are used. May be good.
  • a brain image is used as a medical image, but the present invention is not limited to this.
  • the technique of the present disclosure can also be applied to discriminate a diseased region in a medical image containing a pair or a plurality of pairs of structures existing in line symmetry such as lung, kidney, eyeball and ear.
  • the image acquisition unit 21, the division unit 22, the reference line derivation unit 23, the normalization unit 24, the inversion unit 25, the discrimination unit 26, the display control unit 27, the discrimination unit 29, and the derivation unit 90 As the hardware structure of the processing unit that executes various processes, the following various processors can be used. As described above, the various processors include a CPU, which is a general-purpose processor that executes software (program) and functions as various processing units, and a circuit after manufacturing an FPGA (Field Programmable Gate Array) or the like. Dedicated electricity, which is a processor with a circuit configuration specially designed to execute specific processing such as programmable logic device (PLD), ASIC (Application Specific Integrated Circuit), which is a processor whose configuration can be changed. Circuits and the like are included.
  • PLD programmable logic device
  • ASIC Application Specific Integrated Circuit
  • One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). ) May be configured. Further, a plurality of processing units may be configured by one processor.
  • one processor is configured by combining one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • the various processing units are configured by using one or more of the various processors as a hardware structure.
  • an electric circuit in which circuit elements such as semiconductor elements are combined can be used.

Abstract

分割部が、線対称な構造物を含む医用画像における構造物を、予め定められた複数の領域へ分割する。基準線導出部が、分割された複数の領域に基づいて、構造物の基準線を導出する。

Description

医用画像処理装置、方法およびプログラム
 本開示は、脳画像等の医用画像における基準線を導出する医用画像処理装置、方法およびプログラムに関するものである。
 近年、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の医用画像を用いての画像診断が可能となってきている。とくに、対象部位を脳とした場合において、CT画像およびMRI画像等を用いた画像診断により、脳梗塞および脳出血等の血管障害を起こしている疾病領域を特定することができるため、特定した結果に基づいて適切な治療が行われるようになってきている。一般に疾病領域はCT画像およびMRI画像上において周囲の領域と比較して高い信号値を示す。このため、画像診断においては周囲の領域と比較して高い信号値を示す領域の有無を読影することにより、疾病領域を判別することができる。
 一方、医用画像が非造影CT画像である場合、軽度のくも膜下出血、および超急性期の脳梗塞では、疾患が発生している部分とその周辺部分とのコントラストが不明瞭な場合が多い。このため、画像診断に際しては、医用画像において脳の左右対称な領域を比較することによって、疾病領域が存在するか否かを読影することが一般的に行われている。
 このような左右対称な領域を比較して疾病領域を検出するための各種手法が提案されている。例えば特開2018-011958号公報には、医用画像における左右対称な領域の組み合わせを入力として、機械学習を行った判別器を用いて、疾病領域の有無を判別する手法が提案されている。
 また、左右対称な領域を特定するためには、脳における正中線を基準線として導出する必要がある。このため、脳における基準線を導出するための各種手法が提案されている。例えば特表2019-500110号公報には、脳のCT画像に対してエッジ検出アルゴリズムを適用し、ハフ変換により眼球を特定し、眼球の中心点の位置に基づいて、頭蓋内空間の正中線内の直線セグメントを同定することにより、基準線を導出する手法が提案されている。また、特開2011-167333号公報には、操作者の入力により医用画像における脳の基準線を特定する手法が提案されている。
 しかしながら、特表2019-500110号公報に記載された手法では、眼球のように左右で1つのみしかない構造物を用いて基準線を特定している。このため、導出された基準線はそれほど精度のよいものではない。とくに、事故および病気等により片眼または両眼を損傷している場合には、特表2019-500110号公報に記載された手法では、基準線を導出できない。また、特開2011-167333号公報に記載された手法では、操作者の入力により基準線を特定しているため、操作者の負担が大きい。
 本開示は上記事情に鑑みなされたものであり、医用画像に含まれる脳等の線対称な構造物の基準線を精度よく導出することを目的とする。
 本開示による医用画像処理装置は、線対称な構造物を含む医用画像における構造物を、予め定められた複数の領域へ分割する分割部と、
 分割された複数の領域に基づいて、構造物の基準線を導出する基準線導出部とを備える。
 「線対称な構造物」とは、医用画像上においてそれ自体が線対称である1つの構造物のみならず、医用画像上において線対称な位置に存在する一対または複数対の構造物をも含む。なお、例えば脳は基本的には(すなわち解剖学的には)線対称な形をなしており、線対称に存在することが前提とされているが、厳密に線対称な形をなしているものではなく、左脳および右脳で大きさおよび形状が異なる場合がある。また、腎臓も解剖学的に線対称に対に存在するが、左右の腎臓の大きさおよび形状が異なる場合がある。このため、「線対称な構造物」は、完全に線対称な対をなす構造物のみならず、おおよそ線対称をなす構造物および線対称に存在することが前提とされる構造物も含むものとする。
 「基準線」とは、線対称な構造物を線対称に分割するための線である。基準線としては、例えば正中線を用いることができる。なお、基準線は許容しうるある程度の誤差を持って構造物を線対称に分割するものも含む。
 なお、本開示による医用画像処理装置においては、基準線に基づいて、医用画像に含まれる構造物の位置を正規化して正規化医用画像を生成する正規化部をさらに備えるものであってもよい。
 また、本開示による医用画像処理装置においては、正規化医用画像を基準線を基準として反転させた反転画像を生成する反転部と、
 正規化医用画像および反転画像を用いて、構造物の疾病領域を判別する判別部とをさらに備えるものであってもよい。
 この場合、判別部は、正規化医用画像および反転画像の入力により、構造物の疾病領域の判別結果を出力する判別モデルを有するものであってもよい。
 また、本開示による医用画像処理装置においては、判別モデルは、正規化医用画像および反転画像の入力により、正規化医用画像および反転画像についての特徴マップを生成し、特徴マップを用いて、構造物の疾病領域の判別結果を出力するものであってもよい。
 また、本開示による医用画像処理装置においては、判別モデルは、正規化医用画像および反転画像のそれぞれについて特徴マップを生成し、正規化医用画像についての特徴マップおよび反転画像についての特徴マップを用いて、構造物の疾病領域の判別結果を出力するものであってもよい。
 また、本開示による医用画像処理装置においては、正規化された正規化医用画像を用いて、構造物の疾病領域を判別する判別部をさらに備えるものであってもよい。
 この場合、判別部は、正規化医用画像の入力により、正規化医用画像の反転画像を生成して構造物の疾病領域の判別結果を出力する判別モデルを有するものあってもよい。
 また、本開示による医用画像処理装置においては、判別モデルは、正規化医用画像の入力により、正規化医用画像から特徴マップを生成し、基準線に対応する対称軸を基準として特徴マップを反転させた反転特徴マップを生成し、特徴マップおよび反転特徴マップを用いて構造物の疾病領域の判別結果を出力するものであってもよい。
 「判別」は医用画像における疾病領域の位置を判別すること、および医用画像における疾病領域の有無を判別することのいずれであってもよい。
 また、本開示による医用画像処理装置においては、判別モデルは、少なくとも1つの処理層を有するニューラルネットワークからなるものであってもよい。
 また、本開示による医用画像処理装置においては、判別の結果をディスプレイに表示する表示制御部をさらに備えるものであってもよい。
 また、本開示による医用画像処理装置においては、構造物は脳であり、疾病領域は梗塞領域であってもよい。
 また、本開示による医用画像処理装置においては、予め定められた複数の領域は、ASPECTSを導出するための領域であってもよい。
 「ASPECTS」とは、Alberta Stroke Program Early CT Scoreの略語であり、中大脳動脈領域の脳梗塞に対して、単純CTのearly CT signを定量化したスコア法である。具体的には、医用画像がCT画像の場合、中大脳動脈領域を代表的2断面(基底核レベルおよび放線冠レベル)における10領域に分割し、領域ごとに早期虚血変化の有無を評価し、陽性箇所を減点法で採点する手法である。なお、医用画像がMRI画像、とくに拡散強調画像である場合には、中大脳動脈領域を代表的2断面(基底核レベルおよび放線冠レベル)における11領域に分割して採点を行う。ASPECTSでは、スコアが低い方が梗塞領域の面積が広いこととなる。なお、ASPECTSは、脳梗塞の治療方法の1つであるtPA静注療法を適用するか否かの判断に使用される場合がある。
 本開示による医用画像処理方法は、線対称な構造物を含む医用画像における構造物を、予め定められた複数の領域へ分割し、
 分割された複数の領域に基づいて、構造物の基準線を導出する。
 なお、本開示による医用画像処理方法を、コンピュータに実行させるプログラムとして提供してもよい。
 本開示による他の医用画像処理装置は、コンピュータに実行させるための命令を記憶するメモリと、
 記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
 線対称な構造物を含む医用画像における構造物を、予め定められた複数の領域へ分割し、
 分割された複数の領域に基づいて、構造物の基準線を導出する処理を実行する。
 本開示によれば、医用画像に含まれる脳等の構造物の基準線を簡易に導出することができる。
本開示の実施形態による医用画像処理装置を適用した、診断支援システムの概要を示すハードウェア構成図 第1の実施形態による医用画像処理装置の概略構成を示す図 ASPECTSを導出するための2つの断層画像を示す図 ASPECTSの分割領域を表す標準分割画像を示す図 複数の領域に分割された断層画像を示す図 重心の導出を説明するための図 基準線の導出を説明するための図 正規化を説明するための図 正規化を説明するための図 反転断層画像を示す図 第1の実施形態における判別モデルが行う処理の概念図 学習用画像および正解データを示す図 判別結果表示画面を示す図 第1の実施形態において行われる処理を示すフローチャート 第2の実施形態による医用画像処理装置の概略構成を示す図 第2の実施形態における判別モデルの構成を示す概略ブロック図 特徴マップを示す図 反転特徴マップを示す図 重ね合わせマップを示す図 第1の実施形態において行われる処理を示すフローチャート 第3の実施形態において、判別部が有する判別モデルが行う処理を判別モデルの構成と併せて示す概念図 第3の実施形態において行われる処理を示すフローチャート 第4の実施形態において、判別部が有する判別モデルが行う処理を判別モデルの構成と併せて示す概念図 特徴マップに対する領域の補間を説明するための図 特徴マップに対する領域の補間を説明するための図 特徴マップに対する領域の補間を説明するための図 特徴マップに対する領域の補間を説明するための図 特徴マップに対する領域の補間を説明するための図 第2の実施形態に第4の実施形態の手法を適用した場合の処理を説明するための図 導出部を設けた第1の実施形態による医用画像処理装置の概略構成を示す図 MASK-RCNNの構成を示す概略図
 以下、図面を参照して本開示の実施形態について説明する。図1は、本開示の第1の実施形態による医用画像処理装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、診断支援システムでは、第1の実施形態による医用画像処理装置1、3次元画像撮影装置2、および画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。
 3次元画像撮影装置2は、被検体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置であり、具体的には、CT装置、MRI装置、およびPET(Positron Emission Tomography)装置等である。3次元画像撮影装置2により生成された3次元画像は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、3次元画像撮影装置2はCT装置であり、構造物として被検体の脳を含む頭部のCT画像を3次元の脳画像として生成する。なお、脳画像は複数の断層画像を含む。また、脳画像および断層画像が本開示の医用画像に相当する。
 画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で生成された脳画像の画像データ、および後述する標準的なASPECTSの分割領域を表す標準分割画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式およびネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
 医用画像処理装置1は、1台のコンピュータに、第1の実施形態の医用画像処理プログラムをインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーションまたはパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。医用画像処理プログラムは、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じてコンピュータにダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)あるいはCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。
 図2は、コンピュータに医用画像処理プログラムをインストールすることにより実現される、第1の実施形態による医用画像処理装置の概略構成を示す図である。図2に示すように、医用画像処理装置1は、標準的なワークステーションの構成として、CPU(Central Processing Unit)11、メモリ12およびストレージ13を備えている。また、医用画像処理装置1には、液晶等のディスプレイ14、並びにキーボードおよびマウス等の入力デバイス15が接続されている。
 ストレージ13は、ハードディスクドライブ等からなり、ネットワーク4を経由して画像保管サーバ3から取得した、被検体の脳画像、並びに処理に必要な情報を含む各種情報が記憶されている。
 メモリ12には、医用画像処理プログラムが記憶されている。医用画像処理プログラムは、CPU11に実行させる処理として、医用画像を取得する画像取得処理、線対称な構造物を含む医用画像における構造物を、予め定められた複数の領域へ分割する分割処理、分割された複数の領域に基づいて、構造物の基準線を導出する基準線導出処理、基準線に基づいて、医用画像に含まれる脳の位置を正規化して正規化医用画像を生成する正規化処理、正規化医用画像を基準線を基準として反転させた反転画像を生成する反転処理、正規化医用画像および反転画像を用いて、構造物の異常を判別する判別処理、および判別結果をディスプレイ14に表示する表示制御処理を規定する。なお、本実施形態においては、医用画像は脳画像であり、構造物は脳である。
 そして、CPU11がプログラムに従いこれらの処理を実行することで、コンピュータは、画像取得部21、分割部22、基準線導出部23、正規化部24、反転部25、判別部26および表示制御部27として機能する。
 画像取得部21は、被検体の脳画像B0を画像保管サーバ3から取得する。なお、脳画像B0が既にストレージ13に記憶されている場合には、画像取得部21は、ストレージ13から脳画像B0を取得するようにしてもよい。なお、本実施形態においては、後述するASPECTSを導出する。このため、本実施形態においては、3次元の脳画像B0のうち、ASPECTSを導出するための2つの断層画像のみを取得するものであってもよい。また、本実施形態においては、後述する標準的なASPECTSの分割領域を表す標準分割画像も画像保管サーバ3から取得するものとする。
 図3はASPECTSを導出するための2つの断層画像を示す図である。図3に示す2つの断層画像S1,S2は、それぞれ脳の中大脳動脈領域における基底核レベルの断層面および放線冠レベルの断層面を表すものである。なお、2つの断層画像S1,S2に含まれる人体の頭部は、その中央にはなく、また脳を左脳と右脳とに分割する正中線は、断層画像の垂線に対して傾いている。これは、脳梗塞の患者は意識を失っていることが多く、さらに緊急を要することが多いため、担架に乗せた状態で急いで撮影を行うことに起因する。また、頸椎に障害がある場合は頸椎を動かさない方がよいが、意識を失っている患者は頸椎の障害の有無の問い合わせに答えることができない。このような場合、頭を動かすことなく撮影が行われるため、正中線が断層画像の垂線に対して傾くこととなる。なお、本実施形態においては、脳の正中線を基準線として用いるものとする。また、断層画像S1,S2は人体の下方から頭頂側に見た断層面の画像であり、上側に顔が位置する。このため、断層画像S1,S2に含まれる脳においては、右側が左脳となり、左側が右脳となる。
 分割部22は、線対称な構造物である脳を含む医用画像における構造物を、予め定められた複数の領域へ分割する。本実施形態においては、医用画像は脳画像B0に含まれるASPECTSを導出するための2つの断層画像であり、線対称な構造物は脳であり、ASPECTSを導出するための複数の領域へ脳を分割するものとする。
 図4はASPECTSの分割領域を表す標準分割画像を示す図である。ASPECTSとは、Alberta Stroke Program Early CT Scoreの略語であり、中大脳動脈領域の脳梗塞に対して、単純CTのearly CT signを定量化したスコア法である。具体的には、医用画像がCT画像の場合、中大脳動脈領域を代表的2断面(基底核レベルおよび放線冠レベル)における10領域に分割し、領域ごとに早期虚血変化の有無を評価し、陽性箇所を減点法で採点する手法である。標準分割画像D1では、脳の基底核レベルの断層面における左右の中大脳動脈領域が、それぞれC、I、L、ICおよびM1~M3の7領域に分割されている。標準分割画像D2では、放射冠レベルの断層面における左右の中大脳動脈領域が、それぞれM4~M6の3つの領域に分割されている。なお、図4においては、説明を簡単なものとするために、左脳にのみ領域の符号を示している。
 本実施形態においては、分割部22は、脳の基底核レベルの断層画像S1を左右の中大脳動脈領域のC、I、L、ICおよびM1~M3の7領域へ分割し、放射冠レベルの断層画像S2を左右の中大脳動脈領域のM4~M6の3つの領域へ分割するものとする。このために、分割部22は、断層画像S1と図4に示す標準分割画像D1との位置合わせ、および断層画像S2と図4に示す標準分割画像D2との位置合わせを行う。そして、位置合わせした標準分割画像D1,D2における分割領域を断層画像S1,S2に適用して、断層画像S1,S2を複数の領域に分割する。図5は複数の領域に分割された断層画像S1,S2を示す図である。
 基準線導出部23は、断層画像S1,S2における分割された複数の領域に基づいて、脳の基準線を導出する。本実施形態においては、脳の正中線が基準線である。基準線を導出するために、基準線導出部23は、断層画像S1,S2における左脳および右脳のそれぞれの重心を導出する。なお、基準線を導出する処理は、断層画像S1,S2のそれぞれにおいて同一であるため、ここでは断層画像S2についての重心の導出についてのみ説明し、断層画像S1についての重心の導出については説明を省略する。
 図6は重心の導出を説明するための図である。図6に示すように、基準線導出部23は、断層画像S2の左脳および右脳のそれぞれにおいて、領域M4~M6の重心GL4~GL6および重心GR4~GR6を導出する。さらに、基準線導出部23は、左脳の重心GL4~GL6の重心GLおよび右脳の重心GR4~GR6の重心GRを導出する。なお、基準線導出部23は、重心GL4~GL6および重心GR4~GR6を導出することなく、左脳および右脳のそれぞれにおける領域M4~M6の重心を左脳の重心GLおよび右脳の重心GRとして導出するものであってもよい。
 基準線導出部23は、さらに図7に示すように、重心GL,GRの垂直二等分線を基準線BLとして導出する。なお、基準線導出部23は、重心GL,GRの中点C0も導出する。なお、断層画像S1についても、基準線導出部23は、左脳および右脳の重心位置GL,GRを導出し、重心GL,GRの垂直二等分線を基準線BLとして導出する。
 正規化部24は、断層画像S1,S2に含まれる脳の位置を正規化する。このために、正規化部24は、脳の重心GL,GRの中点C0を断層画像S1,S2の中心と一致させるように、脳を平行移動する。図8は、中点C0が中心と一致した断層画像S2を示す図である。この状態において、基準線BLは、断層画像S2の中心を通る垂線XLに対して右回りにθ度傾いている。このため、正規化部24は、断層画像S2に含まれる脳を、中点C0を中心として左回りにθ度回転して、基準線BLを断層画像S2の垂線XLと一致させる。これにより、図9に示すように、断層画像S2における脳の位置が正規化される。なお、正規化部24は、断層画像S1についても断層画像S2と同様に脳の位置を正規化する。以降の説明において、正規化された断層画像S1,S2をそれぞれ正規化断層画像Ss1,Ss2と称する。
 反転部25は、正規化断層画像Ss1,Ss2を基準線BLを基準として左右反転させた反転断層画像を生成する。図10は反転断層画像Sc1,Sc2を示す図である。
 判別部26は、正規化断層画像Ss1,Ss2および反転断層画像Sc1,Sc2をそれぞれ用いて、脳の疾病領域を判別する。本実施形態においては、脳の疾病領域として梗塞領域を判別するものとする。このために、判別部26は、複数の処理層が階層的に接続され、深層学習(ディープラーニング)がなされた多層ニューラルネットワークの1つである、畳み込みニューラルネットワーク(以下CNN(Convolutional Neural Network)とする)からなる判別モデルを有するものとする。
 図11は第1の実施形態において、判別部26が有する判別モデルが行う処理を判別モデルの構成と併せて示す概念図である。なお、図11には正規化断層画像Ss1および反転断層画像Sc1のみを示しているが、正規化断層画像Ss2および反転断層画像Sc2についても同様である。図11に示すように判別モデル30は、エンコーダ30Aおよびデコーダ30Bを有するCNNからなる。エンコーダ30Aには、正規化断層画像Ss1と反転断層画像Sc1とが入力される。
 エンコーダ30Aは畳み込み層およびプーリング層の少なくとも一方を含む複数の処理層を有する。本実施形態においては、エンコーダ30Aが有する処理層は、畳み込み層およびプーリング層の双方を有するものとする。畳み込み層は、入力される2つの画像(すなわち正規化断層画像Ss1と反転断層画像Sc1、および正規化断層画像Ss2と反転断層画像Sc2)に対して、対応する画素位置の画素値の相違に基づいて梗塞領域を検出するように各種カーネルを用いた畳み込み処理を行い、畳み込み処理により得られた特徴データからなる特徴マップを出力する。カーネルは、n×n画素サイズ(例えばn=3)を有し、各要素に重みが設定されている。具体的には入力された画像のエッジを強調する微分フィルタのような重みが設定されている。畳み込み層は、カーネルの注目画素をずらしながら、入力された画像または前段の処理層から出力された特徴マップの全体にカーネルを適用する。さらに、畳み込み層は、畳み込みされた値に対して、シグモイド関数等の活性化関数を適用し、特徴マップを出力する。ここで、入力される2つの画像の対応する画素位置の画素値の相違に基づくことにより、脳における基準線を基準とした対称性を用いて、梗塞領域を検出することとなる。
 プーリング層は、畳み込み層が出力した特徴マップをプーリングすることにより、特徴マップを縮小して、縮小された特徴マップを出力する。
 そして、エンコーダ30Aは畳み込みおよびプーリングを繰り返し、特徴マップにおける梗塞領域を特定する。
 デコーダ30Bは、複数の畳み込み層およびアップサンプリング層を有する。畳み込み層はエンコーダ30Aの畳み込み層と同様の処理を行う。アップサンプリング層は、特徴マップをアップサンプリングして拡大された特徴マップを出力する。そして、デコーダ30Bは、エンコーダ30Aが出力した特徴マップを、正規化断層画像Ss1,Ss2の解像度となるように高解像度化しつつ、正規化断層画像Ss1,Ss2における各画素を梗塞領域の画素と梗塞領域でない画素とに分類する処理を行う。これにより、判別モデル30の最終層でもあるデコーダ30Bの最終層からは、正規化断層画像Ss1,Ss2における梗塞領域の判別結果が出力される。
 判別モデル30は、正規化断層画像Ss1,Ss2および反転断層画像Sc1,Sc2が入力されると、正規化断層画像Ss1,Ss2における梗塞領域を判別するように学習がなされる。学習には、図12に示すように、学習用画像40および学習用画像40における梗塞領域をラベリングした正解データ41の組み合わせが多数使用される。
 学習に際しては、学習用画像40の反転画像(学習用反転画像とする)が生成される。そして、学習用画像40と学習用反転画像とが判別モデル30を構成するCNNに入力され、CNNから梗塞領域の判別結果を出力させる。そして、梗塞領域の判別結果と正解データ41とが比較され、正解データとの相違が損失として導出される。さらに、損失が予め定められたしきい値以下となるように、多数の学習用画像40および正解データ41を用いて、判別モデル30を構成するCNNの学習が行われる。具体的には、損失が予め定められたしきい値以下となるように、CNNを構成する畳み込み層の数、プーリング層の数、畳み込み層におけるカーネルの係数およびカーネルの大きさ等を、損失が導出される毎に繰り返し導出することにより、CNNの学習が行われる。これにより、判別モデル30に正規化断層画像Ss1,Ss2および反転断層画像Sc1,Sc2が入力されると、正規化断層画像Ss1,Ss2における梗塞領域32を判別する判別モデル30が構築される。
 表示制御部27は、梗塞領域の判別結果をディスプレイ14に表示する。図13は判別結果の表示画面を示す図である。図13に示すように、判別結果表示画面50には、正規化断層画像Ss1,Ss2が表示される。また、正規化断層画像Ss1,Ss2において判別された梗塞領域にはラベル51,52が付与されている。また、本実施形態においては、判別結果表示画面50には、ASPECTS55が表示される。ASPECTS55は、正規化断層画像Ss1,Ss2におけるASPECTS55を判断する10の領域C、I、L、ICおよびM1~M6のそれぞれにチェックマークを付与する表を含む。操作者は、判別結果表示画面50において、梗塞領域の位置を判断し、ASPECTS55にチェックマークを付与する。図13に示す判別結果表示画面50においては、正規化断層画像Ss1の左脳の領域M2および正規化断層画像Ss2の左脳の領域M5のそれぞれに梗塞領域を特定するラベル51,52が付与されている。このため、操作者は左脳の領域M2,M5のそれぞれにチェックマークを付与する。なお、右脳には梗塞領域が含まれないため、右脳の表にはチェックマークは付与されない。その結果、右脳のASPECTSは10、左脳のASPECTSは8となる。
 次いで、第1の実施形態において行われる処理について説明する。図14は第1の実施形態において行われる処理を示すフローチャートである。まず、画像取得部21が、脳画像B0に含まれる断層画像S1,S2を取得する(ステップST1)。次いで、分割部22が、断層画像S1,S2に含まれる脳を予め定められた複数の領域へ分割する(ステップST2)。そして、基準線導出部23が、断層画像S1,S2における分割された複数の領域に基づいて、脳の基準線BLを導出する(ステップST3)。さらに、正規化部24が、断層画像S1,S2に含まれる脳の位置を正規化する(ステップST4)。これにより、正規化断層画像Ss1,Ss2が生成される。次いで、反転部25が、正規化断層画像Ss1,Ss2を基準線BLを基準として左右反転させる(ステップST5)。これにより、反転断層画像Sc1,Sc2が生成される。
 さらに判別部26が、正規化断層画像Ss1,Ss2および反転断層画像Sc1,Sc2を用いて、脳の疾病領域を判別する(ステップST6)。そして、表示制御部27が、判別結果をディスプレイ14に表示し(ステップST7)、処理を終了する。
 このように、第1の実施形態においては、線対称な構造物を含む医用画像における構造物を、予め定められた複数の領域へ分割し、分割した複数の領域に基づいて、構造物の基準線を導出するようにした。具体的には、断層画像S1,S2に含まれる左脳および右脳それぞれを、ASPECTSに基づく10個の領域に分割し、分割した複数の領域に基づいて基準線BLを導出するようにした。このように、本実施形態においては脳における複数の領域に基づいて基準線BLを導出しているため、特表2019-500110号公報に記載された手法のように、眼球のみを用いて正中線を導出する手法と比較して、確実かつ精度よく基準線を導出できる。また、特開2011-167333号公報に記載された手法と比較して、操作者の負担も軽減できる。
 また、導出された基準線BLに基づいて、断層画像S1,S2に含まれる脳の位置を正規化しているため、脳の位置が精度よく正規化された正規化断層画像Ss1,Ss2を生成できる。
 また、導出された基準線BLに基づいて正規化された正規化断層画像Ss1,Ss2を反転しているため、精度よく左右反転がなされた反転断層画像Sc1,Sc2を生成できる。
 次いで、本開示の第2の実施形態について説明する。図15は、本開示の第2の実施形態による医用画像処理装置の概略構成を示す図である。なお、図15において図2と同一の構成については同一の参照番号を付与し、詳細な説明は省略する。第2の実施形態による医用画像処理装置1Aは、第1の実施形態における医用画像処理装置1の反転部25および判別部26に代えて、正規化断層画像Ss1,Ss2を用いて、脳の異常を判別する判別部29を備えた点が第1の実施形態と異なる。
 図16は、第2の実施形態における判別部29が有する判別モデルの構成を示す概略ブロック図である。図16に示すように判別部29が有する判別モデル60は、エンコーダ60Aおよびデコーダ60Bを有する。第2の実施形態における判別モデル60は、正規化断層画像Ss1,Ss2が入力されると、正規化断層画像Ss1,Ss2における梗塞領域の判別結果を出力するように、多数の学習用画像および正解データを用いて、判別モデル30と同様に学習が行われるが、内部的に反転断層画像Sc1,Sc2を生成している点において、判別モデル30と異なる。このために、エンコーダ60Aは、第1判別器61、第2判別器62および第3判別器63を有する。
 第1判別器61は、畳み込み層およびプーリング層の少なくとも一方を含む複数の処理層を有する畳み込みニューラルネットワークからなり、各処理層において畳み込み処理およびプーリング処理の少なくとも一方を行い、特徴マップF1を出力する。図17は第1判別器61から出力される特徴マップF1の例を示す図である。なお、図17においては、説明を簡単なものとするために、特徴マップF1の解像度を5×5画素としているがこれに限定されるものではない。ここで、正規化断層画像Ss1が図13に示す正規化断層画像Ss1と同一の位置に梗塞領域を含む場合、図17に示すように、特徴マップF1の解像度は5×5画素となっており、正規化断層画像Ss1の梗塞領域に対応する位置に特徴A1が含まれる。
 第2判別器62は、第1判別器61が出力した特徴マップF1を、その対称軸を基準として反転して反転特徴マップF2を生成する。対称軸は基準線導出部23が導出した基準線BLに対応する。このために、第2判別器62の処理層は、特徴マップF1を対称軸を基準として反転する畳み込み処理を行う。図18は反転特徴マップを示す図である。図18に示すように反転特徴マップF2は、図17に示す特徴マップF1を対称軸X0を基準として左右反転することにより生成される。このため、特徴マップF1の特徴A2は、反転特徴マップF2の特徴A2として存在することとなる。なお、第2判別器62は、特徴マップF1から反転特徴マップF2を生成することができれば、1つの処理層のみを有するものであってもよく、複数の処理層を有するものであってもよい。
 第3判別器63は、畳み込み層およびプーリング層の少なくとも一方を含む複数の処理層を有する畳み込みニューラルネットワークからなり、最初の処理層において、第1判別器61が出力した特徴マップF1および第2判別器62が出力した反転特徴マップF2を重ね合わせることにより重ね合わせマップを生成する。なお、図16においては、重ね合わせの説明のために、第3判別器63の最初の処理層を、プラスの符号により第3判別器63とは別に示している。図19は重ね合わせマップを示す図である。第3判別器63は、重ね合わせマップF3に基づいて、正規化断層画像Ss1,Ss2における梗塞領域を判別する。具体的には、重ね合わせマップF3に基づいて、梗塞領域を特定する処理を行う。
 デコーダ60Bは、梗塞領域が特定された特徴マップを、正規化断層画像Ss1,Ss2の解像度となるように高解像度化しつつ、正規化断層画像Ss1,Ss2における各画素を梗塞領域の画素と梗塞領域でない画素とに分類する処理を行う。これにより、判別モデル60の最終層でもあるデコーダ60Bの最終層からは、正規化断層画像Ss1,Ss2における梗塞領域の判別結果が出力される。
 次いで、第2の実施形態において行われる処理について説明する。図20は第2の実施形態において行われる処理を示すフローチャートである。まず、画像取得部21が、脳画像B0に含まれる断層画像S1,S2を取得する(ステップST11)。次いで、分割部22が、断層画像S1,S2に含まれる脳を予め定められた複数の領域へ分割する(ステップST12)。そして、基準線導出部23が、断層画像S1,S2における分割された複数の領域に基づいて、脳の基準線BLを導出する(ステップST13)。さらに、正規化部24が、断層画像S1,S2に含まれる脳の位置を正規化する(ステップST14)。これにより、正規化断層画像Ss1,Ss2が生成される。
 さらに判別部29が、正規化断層画像Ss1,Ss2を用いて、脳の疾病領域を判別する(ステップST15)。そして、表示制御部27が、判別結果をディスプレイ14に表示し(ステップST16)、処理を終了する。
 次いで、本開示の第3の実施形態について説明する。なお、本開示の第3の実施形態による医用画像処理装置の構成は、判別部26が有する判別モデルの構成が異なる点を除いて、図2に示す第1の実施形態による医用画像処理装置1と同一であるため、ここでは構成についての詳細な説明は省略する。
 図21は、第3の実施形態において、判別部26が有する判別モデルが行う処理を判別モデルの構成と併せて示す概念図である。なお、図21には正規化断層画像Ss1および反転断層画像Sc1のみを示しているが、正規化断層画像Ss2および反転断層画像Sc2に対しても同様に処理が行われる。図21に示すように判別モデル70は、エンコーダ70Aおよびデコーダ70Bを有するCNNからなる。エンコーダ70Aは、第1判別器71、第2判別器72および第3判別器73を有する。
 第1判別器71は、第2の実施形態における第1判別器61と同様に、畳み込み層およびプーリング層の少なくとも一方を含む複数の処理層を有する畳み込みニューラルネットワークからなる。そして、各処理層において畳み込み処理およびプーリング処理の少なくとも一方を行い、正規化断層画像Ss1についての特徴マップF11を出力する。
 第2判別器72は、畳み込み層およびプーリング層の少なくとも一方を含む複数の処理層を有する畳み込みニューラルネットワークからなる。第2判別器72の各処理層におけるカーネルの重み等のパラメータは、第1判別器71と共通である。したがって、第1判別器71と第2判別器72とは実質的に同一の判別器となっている。第2判別器72は、各処理層において畳み込み処理およびプーリング処理の少なくとも一方を行い、反転断層画像Sc1についての特徴マップF12を出力する。
 第3判別器73は、畳み込み層およびプーリング層の少なくとも一方を含む複数の処理層を有する畳み込みニューラルネットワークからなる。そして、最初の処理層において、第1判別器71が出力した特徴マップF11および第2判別器72が出力した反転特徴マップF12を重ね合わせることにより重ね合わせマップF13を生成する。なお、図21においては、重ね合わせの説明のために、第3判別器73の最初の処理層を、プラスの符号により第3判別器73とは別に示している。第3判別器73は、重ね合わせマップF13に基づいて、正規化断層画像Ss1,Ss2における梗塞領域を判別する。具体的には、重ね合わせマップF13に基づいて、梗塞領域を特定する処理を行う。
 デコーダ70Bは、梗塞領域が特定された特徴マップを、正規化断層画像Ss1,Ss2の解像度となるように高解像度化しつつ、正規化断層画像Ss1,Ss2における各画素を梗塞領域の画素と梗塞領域でない画素とに分類する処理を行う。これにより、判別モデル70の最終層でもあるデコーダ70Bの最終層からは、正規化断層画像Ss1,Ss2における梗塞領域75の判別結果が出力される。
 次いで、第3の実施形態において行われる処理について説明する。図22は第3の実施形態において行われる処理を示すフローチャートである。まず、画像取得部21が、脳画像B0に含まれる断層画像S1,S2を取得する(ステップST21)。次いで、分割部22が、断層画像S1,S2に含まれる脳を予め定められた複数の領域へ分割する(ステップST22)。そして、基準線導出部23が、断層画像S1,S2における分割された複数の領域に基づいて、脳の基準線BLを導出する(ステップST23)。さらに、正規化部24が、断層画像S1,S2に含まれる脳の位置を正規化する(ステップST24)。これにより、正規化断層画像Ss1,Ss2が生成される。次いで、反転部25が、正規化断層画像Ss1,Ss2を基準線BLを基準として左右反転させる(ステップST25)。これにより、反転断層画像Sc1,Sc2が生成される。
 さらに判別部26が、正規化断層画像Ss1,Ss2および反転断層画像Sc1,Sc2を用いて、脳の疾病領域を判別する(ステップST26)。そして、表示制御部27が、判別結果をディスプレイ14に表示し(ステップST27)、処理を終了する。
 なお、上記第3の実施形態において、第3判別器73にデコーダ70Bの機能を持たせるようにしてもよい。この場合、第3判別器73の前段において、重ね合わせマップF13に基づいて、正規化断層画像Ss1,Ss2における梗塞領域を判別する処理を行う。そして、第3判別器73の後段において、梗塞領域が特定された特徴マップを、正規化断層画像Ss1,Ss2の解像度となるように高解像度化しつつ、正規化断層画像Ss1,Ss2における各画素を梗塞領域の画素と梗塞領域でない画素とに分類する処理を行う。
 また、上記第3の実施形態においては、第3判別器73の最初の処理層において、特徴マップF11と反転特徴マップF12とを重ね合わせているが、これに限定されるものではない。特徴マップF11と反転特徴マップF12との差分を表す差分マップを生成するようにしてもよい。この場合、第3判別器73においては、差分マップに基づいて、正規化断層画像Ss1,Ss2における梗塞領域が判別される。
 次いで、本開示の第4の実施形態について説明する。なお、本開示の第4の実施形態による医用画像処理装置の構成は、図2に示す第1の実施形態による医用画像処理装置1と同一であり、行われる処理のみが異なるため、ここでは構成についての詳細な説明は省略する。
 図23は、第4の実施形態において行われる処理を判別モデルの構成と併せて示す概念図である。なお、図23には正規化断層画像Ss1のみを示しているが、正規化断層画像Ss2に対しても同様に処理が行われる。図23に示すように,第4の実施形態においては、反転部25が、正規化断層画像Ss1を基準線BLを基準として左右に分割して、分割正規化断層画像Ssh1,Ssh2を生成する。分割正規化断層画像Ssh1,Ssh2は、正規化断層画像Ss1,Ss2の半分のサイズを有する。なお、分割正規化断層画像Ssh1が右脳側を、分割正規化断層画像Ssh2が左脳側を示す。そして、反転部25が分割正規化断層画像Ssh1,Ssh2のいずれか一方を、基準線BLを基準として左右反転させた分割反転断層画像Sch1を生成する。なお、図23においては、分割正規化断層画像Ssh2を左右反転することにより分割反転断層画像Sch1を生成している。
 また、第4の実施形態においては、判別部26は、分割正規化断層画像および分割反転断層画像を用いて脳の疾病領域(すなわち梗塞領域)を判別する判別モデル80を有する。図23に示すように判別モデル80は、エンコーダ80Aおよびデコーダ80Bを有する。エンコーダ80Aは、第1の実施形態におけるエンコーダ30Aと同様に、畳み込み層およびプーリング層の少なくとも一方を含む複数の処理層を有する。そして、エンコーダ80Aは、分割正規化断層画像Ssh1と分割反転断層画像Sch1との対応する画素位置の画素値の相違に基づいて梗塞領域を検出可能なように各種カーネルを用いた畳み込み処理を行い、畳み込み処理に得られた特徴データから特徴マップを生成する。そして、エンコーダ80Aは、特徴マップにおける梗塞領域を特定する。ここで、入力される2つの画像の対応する画素位置の画素値の相違に基づくことにより、脳における基準線BLを基準とした対称性を用いて、梗塞領域を検出することとなる。
 なお、第4の実施形態においては、分割正規化断層画像Ssh1と分割反転断層画像Sch1とを用いているため、分割正規化断層画像Ssh1において検出された梗塞領域と、分割反転断層画像Sch1において検出された梗塞領域とで、異なるラベルを付与する。例えば、分割正規化断層画像Ssh1、すなわち右脳側において検出された梗塞領域には「1」のラベルを付与する。また、分割反転断層画像Sch1、すなわち左脳側において検出された梗塞領域には「2」のラベルを付与する。なお、梗塞領域以外の領域には「0」のラベルを付与する。
 デコーダ80Bは、第1の実施形態におけるデコーダ30Bと同様に、複数の畳み込み層およびアップサンプリング層を有する。デコーダ80Bは、エンコーダ80Aが出力した特徴マップを、正規化断層画像Ss1,Ss2の解像度となるように高解像度化しつつ、正規化断層画像Ss1,Ss2における各画素を梗塞領域の画素と梗塞領域でない画素とに分類する処理を行う。これにより、判別モデル80の最終層でもあるデコーダ80Bの最終層からは、正規化断層画像Ss1,Ss2における梗塞領域の判別結果が出力される。
 ここで、第4の実施形態のエンコーダ80Aにおいては、正規化断層画像Ss1,Ss2の半分のサイズの画像についての特徴マップを用いることにより梗塞領域を特定している。このため、梗塞領域が特定された特徴マップをデコーダ80Bにおいてアップサンプリングし、最終的に正規化断層画像Ss1,Ss2における梗塞領域を特定するに際して、特徴マップを正規化断層画像Ss1と同一サイズにする必要がある。したがって、デコーダ80Bは、前段の処理層において正規化断層画像Ss1,Ss2の半分の解像度まで特徴マップをアップサンプリングする。そして、アップサンプリングされた特徴マップに、検出された梗塞領域のラベルに応じた領域を補間することにより、特徴マップのサイズを正規化断層画像Ss1,Ss2と同一にする。さらに、デコーダ80Bは、後段の処理層において、領域を補間した特徴マップを生成し、正規化断層画像Ss1,Ss2における梗塞領域を特定する。
 図24~図27は特徴マップに対する領域の補間を説明するための図である。なお、図24~27においては、分割正規化断層画像Ssh1,Ssh2と同一の解像度までアップサンプリングされた特徴マップF21,F23,F25,F27を示す。まず、図24に示すように、特徴マップF21における検出された梗塞領域のラベルが「1」である場合、右脳側において梗塞領域が検出されている。このため、デコーダ80Bは、図24に示すように、特徴マップF21における右側の領域に、特徴マップF21と同一サイズを有し、全領域に「0」のラベルが付与された領域F21Aを補間して、正規化断層画像Ss1,Ss2と同一サイズの特徴マップF22を生成する。
 また、図25に示すように、特徴マップF23における検出された梗塞領域のラベルが「2」である場合、左脳側において梗塞領域が検出されている。このため、デコーダ80Bは、図25に示すように、特徴マップF23に含まれるラベル「2」の梗塞領域を、特徴マップF23の右辺を基準として左右反転した特徴マップF23Aを生成する。そして、反転した特徴マップF23Aにおける左側の領域に、特徴マップF23Aと同一サイズを有し、全領域に「0」のラベルが付与された領域F23Bを補間して、正規化断層画像Ss1,Ss2と同一サイズの特徴マップF24を生成する。
 また、図26に示すように、特徴マップF25において2つの梗塞領域が検出され、検出された2つの梗塞領域のラベルがそれぞれ「1」、「2」である場合、左右の両側の脳において梗塞領域が検出されている。このため、デコーダ80Bは、特徴マップF25における右側の領域に、特徴マップF25と同一サイズを有し、全領域に「0」のラベルが付与された領域F25Aを補間する。さらに、デコーダ80Bは、特徴マップF25に含まれるラベル「2」の梗塞領域を、特徴マップF25の右辺を基準として左右反転して、補間した領域F25Aに付与する。これにより、デコーダ80Bは、図26に示すように、正規化断層画像Ss1,Ss2と同一サイズの特徴マップF26を生成する。
 また、図27に示すように、特徴マップF27において梗塞領域が検出されていない場合、デコーダ80Bは、図27に示すように、特徴マップF27における左側の領域に、特徴マップF27と同一サイズを有し、全領域に「0」のラベルが付与された領域F27Aを補間して、正規化断層画像Ss1,Ss2と同一サイズの特徴マップF28を生成する。
 なお、左右の両側の脳において梗塞領域が検出された場合、図28に示すように、特徴マップF29において、ラベル「1」の領域とラベル「2」の領域とが重なる場合がある。この場合、エンコーダ80Aにおいて、ラベル「1」の領域とラベル「2」の領域とが重なる領域に、ラベル「3」を付与するようにする。そして、デコーダ80Bは、特徴マップF29における右側の領域に、特徴マップF29と同一サイズを有し、全領域に「0」のラベルが付与された領域F29Aを補間する。さらに、デコーダ80Bは、特徴マップF29に含まれるラベル「2」の領域を削除しつつラベル「2」および「3」の梗塞領域を、特徴マップF29の右辺を基準として左右反転して、補間した領域F29Aに付与する。これにより、デコーダ80Bは、図28に示すように、特徴マップF29におけるラベル「2」の領域を削除した特徴マップF29Bと特徴マップF29Aとからなり、正規化断層画像Ss1,Ss2と同一サイズの特徴マップF30を生成する。
 なお、上記第3の実施形態においても、上記第4の実施形態と同様に、上記第1の実施形態における正規化断層画像Ss1,Ss2および反転断層画像Sc1,Sc2に代えて、分割正規化断層画像および分割反転断層画像を用いて脳の梗塞領域を検出するようにしてもよい。
 また、上記第2の実施形態においても、上記第4の実施形態と同様の手法を適用することが可能である。第2の実施形態において第4の実施形態と同様の手法を適用する場合、図29に示すように、第1判別器61が出力した特徴マップF1を、基準線BLに対応する対称軸を基準として分割して、分割特徴マップFh31,Fh32を生成する。なお、分割特徴マップFh31が右脳側を、分割特徴マップFh32が左脳側を示すものとなる。そして、第2判別器62が、分割特徴マップのいずれか一方(図29においては、分割特徴マップFh32)を左右反転させた分割反転特徴マップFh33を生成する。そして、第3判別器63において、分割特徴マップFh31および分割反転特徴マップFh33から重ね合わせマップまたは差分マップを生成し、重ね合わせマップまたは差分マップを用いて、右脳側および左脳側の双方における梗塞領域を検出する。なお、デコーダ60Bにおいては、第4の実施形態におけるデコーダ80Bと同様に領域を補間することにより、正規化断層画像Ss1,Ss2と同一サイズの特徴マップを生成して、正規化断層画像Ss1,Ss2における梗塞領域の判別結果を出力すればよい。
 また、上記第4の実施形態においては、左脳側の分割正規化断層画像Ssh2から分割反転断層画像Sch1を生成しているが、右脳側の分割正規化断層画像Ssh1から分割反転断層画像を生成してもよい。この場合、右脳側の分割正規化断層画像Ssh1から生成した分割反転断層画像および分割正規化断層画像Ssh2が判別モデル80に入力されて、正規化断層画像Ss1,Ss2における梗塞領域の判別結果が出力される。
 なお、上記各実施形態においては、正規化部24において、基準線導出部23が導出した基準線BLに基づいて、断層画像S1,S2に含まれる脳の位置を正規化して正規化断層画像Ss1,Ss2を生成しているが、これに限定されるものではない。断層画像S1,S2のような医用画像に含まれる構造物の位置を正規化して正規化医用画像を生成することができれば、基準線BLを用いる手法に限定されるものではない。すなわち、正規化部24は、基準線導出部23が導出した基準線に基づくことなく、医用画像(断層画像S1,S2)に含まれる構造物(脳)の位置を正規化して正規化医用画像を生成するものであってもよい。例えば、断層画像S1,S2をディスプレイ14に表示し、操作者による入力デバイス15を用いての断層画像S1,S2に含まれる脳の位置を正規化する操作に基づいて、正規化断層画像Ss1,Ss2を生成するものであってもよい。また、正規化部24において、基準線を定義した標準的な脳の画像と、断層画像S1,S2との位置合わせを行うことにより、断層画像S1,S2に含まれる脳の位置を正規化して正規化断層画像Ss1,Ss2を生成するようにしてもよい。
 また、上記各実施形態においては、判別結果表示画面において、操作者がASPECTSにチェックマークを付与しているが、これ限定されるものではない。例えば、図30に示す医用画像処理装置1Bに示すように、第1の実施形態による医用画像処理装置1に、ASPECTSを導出する導出部90を設けるようにしてもよい。導出部90は、検出された梗塞領域が、正規化断層画像Ss1,Ss2におけるASPECTSを導出するためのいずれの領域に含まれるかを判定する。すなわち、導出部90は、正規化断層画像Ss1における左右のC、I、L、ICおよびM1~M3の領域、並びに正規化断層画像Ss2における左右のM4~M6の領域のいずれに梗塞領域が含まれるかを判定する。具体的には、梗塞領域がASPECTSを導出するための領域において梗塞領域が予め定められた割合以上含まれる場合に、その領域が梗塞領域であると判定する。そして、導出部90は、梗塞領域であると判定された領域について、図13に示すASPECTS55にチェックマークを付与する。
 ここで、予め定められた割合としては、判定の厳密さの程度に応じて適宜設定することが可能である。例えば、10%とすることができるが、20%あるいは30%としてもよい。また、梗塞領域が少しでもASPECTSを導出するための領域に含まれていれば、梗塞領域と判定するようにしてもよい。
 なお、導出部90は、上記第1の実施形態のみならず、第2から第4の実施形態のいずれに設けるようにしてもよい。
 また、上記各実施形態においては、判別モデルとしてCNNを用いているが、これに限定されるものではない。複数の処理層から構成されるニューラルネットワークであれば、ディープニューラルネットワーク(DNN(Deep Neural Network))、リカレントニューラルネットワーク(RNN(Recurrent Neural Network))およびU-net等を用いることができる。また、ニューラルネットワークとして、Mask R-CNN(Regions with CNN features)(「Mask R-CNN、Kaiming Heら、arXiv、2018)を用いるものであってもよい。以下、MASK R-CNNについて説明する。
 図31はMask R-CNNの概略構成図である。なお、図31は、第1の実施形態における判別モデル30にとして、MASK R-CNNを適用した例を示している。図31に示すように、Mask R-CNN100は、入力画像から特徴量を抽出して特徴マップF40を生成する畳み込み層101、特徴マップF40における梗塞領域の候補領域を特定するRPN(Region Proposal Networks)102、特徴マップF40を梗塞領域の候補領域に基づいて切り出し、切り出した特徴マップを用いて候補領域のクラス、および候補領域の正規化断層画像Ss1,Ss2における座標情報を出力する分類ネットワーク103、および正規化断層画像Ss1,Ss2における梗塞領域を画素レベルで特定するセグメンテーション104を含む。
 畳み込み層101は、上記各実施形態におけるエンコーダと同様に、入力された正規化断層画像Ss1,Ss2および反転断層画像Sc1,Sc2に対して、各種カーネルを用いた畳み込み処理を行い、畳み込み処理により得られた特徴データからなる特徴マップF40を出力する。
 RPN102においては、複数種類のアスペクト比およびサイズを有するアンカーと呼ばれる矩形領域が予め定義される。RPN102においては、複数種類のアンカーを特徴マップF40の各画素位置に適用し、正規化断層画像Ss1,Ss2に含まれる物体候補との重なり率が最も大きいアンカーが選択される。そして、RPN102においては、選択されたアンカーを用いて、物体候補を囲む矩形(正解ボックス)と一致するようにアンカーを回帰させる(すなわち変形および移動させる)処理を、特徴マップF40の全画素において行い、正解ボックスと一致するように回帰されたアンカーの位置およびサイズが、入力された正規化断層画像Ss1,Ss2における梗塞領域の候補領域A10としてRPN102から出力される。なお、候補領域A10は、梗塞領域を囲む矩形の領域である。
 分類ネットワーク103は、全結合層からなり、候補領域A10および特徴マップF40に基づいて、正規化断層画像Ss1,Ss2における候補領域A10の分類、および候補領域A10の正規化断層画像Ss1,Ss2における座標情報の導出が行われる。
 セグメンテーション104は、FCN (Fully Convolutional Network)からなり、候補領域A10および特徴マップF40に基づいて、候補領域A10において梗塞領域となる画素を特定することにより、正規化断層画像Ss1,Ss2における梗塞領域をセグメンテーションする。なお、図31においては、正規化断層画像Ss1における梗塞領域105がセグメンテーションされた状態を示している。
 上記のように、第1の実施形態における判別モデル30として、MASK-RCNN100を用いることによっても、正規化断層画像Ss1,Ss2における梗塞領域を特定することができる。
 なお、上記第2の実施形態における判別モデル60として、MASK-RCNNを用いることも可能である。この場合、MASK-RCNNには、正規化断層画像Ss1,Ss2のみが入力され、畳み込み層101において、正規化断層画像Ss1,Ss2の特徴マップとその反転特徴マップとが生成される。さらに、畳み込み層101において、特徴マップとその反転特徴マップとの重ね合わせマップが生成されて出力される。なお、畳み込み層101において、重ね合わせマップに対してさらに畳み込みおよびプーリングを行い、畳み込みおよびプーリングを行った重ね合わせマップを出力するようにしてもよい。この場合、RPN102には、畳み込み層101が出力したマップが入力されて、正規化断層画像Ss1,Ss2における梗塞領域の候補領域A10が出力される。また、分類ネットワーク103およびセグメンテーション104には、畳み込み層101が出力したマップおよびRPN102が出力した候補領域A10が入力され、正規化断層画像Ss1,Ss2における梗塞領域105の特定が行われる。
 また、上記第3の実施形態における判別モデル70として、MASK-RCNNを用いることも可能である。この場合、MASK-RCNN100には、正規化断層画像Ss1,Ss2および反転断層画像Sc1,Sc2がそれぞれ入力されて、畳み込み層101において、正規化断層画像Ss1,Ss2についての特徴マップおよび反転断層画像Sc1,Sc2についての特徴マップ(以下、反転特徴マップとする)が生成され、さらに特徴マップとその反転特徴マップとの重ね合わせマップまたは差分マップが生成されて出力される。なお、畳み込み層101において、重ね合わせマップまたは差分マップに対してさらに畳み込みおよびプーリングを行い、畳み込みおよびプーリングを行った重ね合わせマップまたは差分マップを出力するようにしてもよい。この場合、RPN102には、畳み込み層101が出力したマップが入力されて、正規化断層画像Ss1,Ss2における梗塞領域の候補領域A10が出力される。また、分類ネットワーク103およびセグメンテーション104には、畳み込み層101が出力したマップおよびRPN102が出力した候補領域A10が入力され、正規化断層画像Ss1,Ss2における梗塞領域105の特定が行われる。
 また、上記第4の実施形態における判別モデル80として、MASK-RCNNを用いることも可能である。この場合、MASK-RCNN100には、分割正規化断層画像Ssh1,Ssh2および分割反転断層画像Sch1,Sch2がそれぞれ入力されて、畳み込み層101から分割正規化断層画像Ssh1,Ssh2および分割反転断層画像Sch1,Sch2の対応する画素位置における画素値の相違に着目した特徴マップが出力される。この場合、RPN102には、畳み込み層101が出力した特徴マップが入力されて、正規化断層画像Ss1,Ss2における梗塞領域の候補領域A10が出力される。また、分類ネットワーク103およびセグメンテーション104には、畳み込み層101が出力した特徴マップおよびRPN102が出力した候補領域A10が入力され、正規化断層画像Ss1,Ss2における梗塞領域105の特定が行われる。この場合、分類ネットワーク103およびセグメンテーション104の最終層の手前の処理層において、特徴マップが正規化断層画像Ss1,Ss2と同一サイズとなるように補間される。
 また、上述したように、上記第2の実施形態においても、上記第4の実施形態と同様の手法を適用することが可能であり、この場合に使用する判別モデルとして、MASK-RCNNを用いることが可能である。また、上述したように、上記第3の実施形態においても、上記第4の実施形態と同様の手法を適用することが可能であり、この場合に使用する判別モデルとして、MASK-RCNNを用いることが可能である。
 なお、上記各実施形態においては、ASPECTSを判断する複数の領域に断層画像S1,S2を分割しているが、これに限定されるものではない。例えば、ブロードマンの脳地図等のような脳を機能的な領域に分割する手法により、断層画像S1,S2を複数の領域に分割してもよい。
 また、上記実施形態においては、2次元の断層画像S1,S2に含まれる脳の基準線BLを導出しているが、これに限定されるものではない。3次元の脳画像B0を複数の領域に分割し、複数の領域に基づいて、3次元の脳画像B0に含まれる脳の正中面に対応する基準面を導出するようにしてもよい。
 また、上記各実施形態においては、判別結果表示画面50に、正規化断層画像Ss1,Ss2における判別結果を表示しているが、これに限定されるものではない。判別結果表示画面50に正規化前の断層画像S1,S2を表示してもよい。この場合、判別結果を含む正規化断層画像Ss1,Ss2と断層画像S1,S2との位置合わせを行って、断層画像S1,S2に梗塞領域を特定するマスクを表示すればよい。
 また、上記各実施形態においては、基準線導出部23および正規化部24において、左脳および右脳の重心の導出、基準線の導出および正規化を行うことにより生成された正規化断層画像Ss1,Ss2に対して、再度左脳および右脳の重心の導出、基準線の導出および正規化を行って、新たな正規化断層画像を生成してもよい。この場合、新たな正規化断層画像に対して、さらに左脳および右脳の重心の導出、基準線の導出および正規化を繰り返し行うようにしてもよい。これにより、正規化の精度を向上させることができるため、より精度よく梗塞領域を判別することができる。
 また、上記第2の実施形態においては、判別モデル60の第2判別器62において反転特徴マップF2を生成し、第3判別器63において特徴マップF1および反転特徴マップF2の重ね合わせマップを生成して梗塞領域の判別を行っているが、これに限定されるものではない。第3判別器63において、特徴マップF1と反転特徴マップF2との相対応する画素の間の差分を導出することにより差分マップを生成し、特徴マップF1と差分マップとに基づいて梗塞領域の判別を行うようにしてもよい。なお、第2の実施形態における判別モデル60として、MASK-RCNNを用いた場合においても、畳み込み層101において、特徴マップとその反転特徴マップとの差分マップを生成するようにしてもよい。この場合、RPN102には差分マップまたは差分マップに対してさらに畳み込みおよびプーリングを行ったマップが入力される。
 また、第2の実施形態における判別モデル60に含まれる第1判別器61、第2判別器62および第3判別器63は、同一種類のニューラルネットワークでなくてもよい。例えば、第1判別器61および第2判別器62を畳み込みニューラルネットワークとし、第3判別器63をCNNに代えてリカレントニューラルネットワークとしてもよい。
 また、第3の実施形態における判別モデル70に含まれる第1判別器71および第2判別器72と、第3判別器73とは、同一種類のニューラルネットワークでなくてもよい。例えば、第1判別器71および第2判別器72を畳み込みニューラルネットワークとし、第3判別器73をCNNに代えてリカレントニューラルネットワークとしてもよい。
 また、上記各実施形態においては、脳の梗塞領域を判別しているが、これに限定されるものではなく、脳の出血領域を判別するものとしてもよい。この場合、判別モデルは、脳の出血領域を判別するように学習がなされる。
 また、上記各実施形態においては、脳画像B0および断層画像S1,S2としてCT画像を用いているが、これに限定されるものではなく、MRI画像およびPET画像等の他の医用画像を用いてもよい。
 また、上記各実施形態においては、医用画像として脳画像を用いているが、これに限定されるものではない。例えば、肺、腎臓、眼球および耳等の線対称に存在する一対または複数対の構造物を含む医用画像における疾病領域を判別する場合にも、本開示の技術を適用することができる。
 また、上記各実施形態においては、画像取得部21、分割部22、基準線導出部23、正規化部24、反転部25、判別部26、表示制御部27、判別部29および導出部90といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
   1,1A,1B  医用画像処理装置
   2  3次元画像撮影装置
   3  画像保管サーバ
   4  ネットワーク
   11  CPU
   12  メモリ
   13  ストレージ
   14  ディスプレイ
   15  入力デバイス
   21  画像取得部
   22  分割部
   23  基準線導出部
   24  正規化部
   25  反転部
   26  判別部
   27  表示制御部
   29  判別部
   30,60,70,80  判別モデル
   30A,60A,70A,80A  エンコーダ
   30B,60B,70B,80B  デコーダ
   32、75,85,105  梗塞領域
   40  学習用画像
   41  正解データ
   50  判別結果表示画面
   51,52  ラベル
   55  ASPECTS
   61,71  第1判別器
   62,72  第2判別器
   63,73  第3判別器
   90  導出部
   100  MASK-RCNN
   101  畳み込み層
   102  RPN
   103  分類ネットワーク
   104  セグメンテーション
   A1,A2  特徴
   A10  候補領域
   B0  脳画像
   BL  基準線
   C0  中点
   D1,D2  標準分割画像
   F1,F11,F12,F21~F30,F40  特徴マップ
   F2  反転特徴マップ
   F3,F13  重ね合わせマップ
   Fh31,Fh32  分割特徴マップ
   GL4~GL6,GR4~GR6、GL,GR  重心
   M4~M6  領域
   S1,S2  断層画像
   Ss1,Ss2  正規化断層画像
   Ssh1,Ssh2  分割正規化断層画像
   Sc1,Sc2  反転断層画像
   Sch1,Sch2  分割反転断層画像
   X0  対称軸
   XL  垂線

Claims (16)

  1.  線対称な構造物を含む医用画像における前記構造物を、予め定められた複数の領域へ分割する分割部と、
     前記分割された複数の領域に基づいて、前記構造物の基準線を導出する基準線導出部とを備えた医用画像処理装置。
  2.  前記基準線に基づいて、前記医用画像に含まれる前記構造物の位置を正規化して正規化医用画像を生成する正規化部をさらに備えた請求項1に記載の医用画像処理装置。
  3.  前記正規化医用画像を前記基準線を基準として反転させた反転画像を生成する反転部と、
     前記正規化医用画像および前記反転画像を用いて、前記構造物の疾病領域を判別する判別部とをさらに備えた請求項2に記載の医用画像処理装置。
  4.  前記判別部は、前記正規化医用画像および前記反転画像の入力により、前記構造物の疾病領域の判別結果を出力する判別モデルを有する請求項3に記載の医用画像処理装置。
  5.  前記判別モデルは、前記正規化医用画像および前記反転画像の入力により、前記正規化医用画像および前記反転画像についての特徴マップを生成し、該特徴マップを用いて、前記構造物の疾病領域の判別結果を出力する請求項4に記載の医用画像処理装置。
  6.  前記判別モデルは、前記正規化医用画像および前記反転画像のそれぞれについて特徴マップを生成し、前記正規化医用画像についての特徴マップおよび前記反転画像についての特徴マップを用いて、前記構造物の疾病領域の判別結果を出力する請求項4に記載の医用画像処理装置。
  7.  前記正規化医用画像を用いて、前記構造物の疾病領域を判別する判別部をさらに備えた請求項2に記載の医用画像処理装置。
  8.  前記判別部は、前記正規化医用画像の入力により、前記正規化医用画像の反転画像を生成して前記構造物の疾病領域の判別結果を出力する判別モデルを有する請求項7に記載の医用画像処理装置。
  9.  前記判別モデルは、前記正規化医用画像の入力により、前記正規化医用画像から特徴マップを生成し、前記基準線に対応する対称軸を基準として前記特徴マップを反転させた反転特徴マップを生成し、前記特徴マップおよび前記反転特徴マップを用いて前記構造物の疾病領域の判別結果を出力する請求項8に記載の医用画像処理装置。
  10.  前記判別モデルは、少なくとも1つの処理層を有するニューラルネットワークからなる請求項4から6、8、9のいずれか1項に記載の医用画像処理装置。
  11.  前記判別の結果をディスプレイに表示する表示制御部をさらに備えた請求項3から10のいずれか1項に記載の医用画像処理装置。
  12.  前記構造物は脳であり、前記疾病領域は梗塞領域である請求項3から11のいずれか1項に記載の医用画像処理装置。
  13.  前記予め定められた複数の領域は、ASPECTSを導出するための領域である請求項12に記載の医用画像処理装置。
  14.  前記梗塞領域と前記ASPECTSを導出するための領域とを用いて、前記ASPECTSを導出する導出部をさらに備えた請求項13に記載の医用画像処理装置。
  15.  線対称な構造物を含む医用画像における前記構造物を、予め定められた複数の領域へ分割し、
     前記分割された複数の領域に基づいて、前記構造物の基準線を導出する医用画像処理方法。
  16.  線対称な構造物を含む医用画像における前記構造物を、予め定められた複数の領域へ分割する手順と、
     前記分割された複数の領域に基づいて、前記構造物の基準線を導出する手順とをコンピュータに実行させる医用画像処理プログラム。
PCT/JP2020/025401 2019-06-28 2020-06-26 医用画像処理装置、方法およびプログラム WO2020262683A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021528290A JP7234364B2 (ja) 2019-06-28 2020-06-26 医用画像処理装置、方法およびプログラム
US17/560,217 US20220115136A1 (en) 2019-06-28 2021-12-22 Medical image processing apparatus, method, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019-121016 2019-06-28
JP2019121016 2019-06-28
JP2020086247 2020-05-15
JP2020-086247 2020-05-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/560,217 Continuation US20220115136A1 (en) 2019-06-28 2021-12-22 Medical image processing apparatus, method, and program

Publications (1)

Publication Number Publication Date
WO2020262683A1 true WO2020262683A1 (ja) 2020-12-30

Family

ID=74060908

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/025401 WO2020262683A1 (ja) 2019-06-28 2020-06-26 医用画像処理装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US20220115136A1 (ja)
JP (1) JP7234364B2 (ja)
WO (1) WO2020262683A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112950600A (zh) * 2021-03-10 2021-06-11 武汉联影智融医疗科技有限公司 脑标识提取方法、装置、计算机设备和存储介质
WO2023053755A1 (ja) * 2021-09-30 2023-04-06 株式会社Lily MedTech 画像診断支援装置、画像診断支援方法、及び画像診断支援プログラム
WO2023171040A1 (ja) * 2022-03-07 2023-09-14 国立大学法人京都大学 情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル
WO2023171039A1 (ja) * 2022-03-07 2023-09-14 国立大学法人京都大学 情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7451305B2 (ja) * 2020-05-29 2024-03-18 キヤノンメディカルシステムズ株式会社 医用画像処理装置及び医用画像処理方法
CN114638776A (zh) * 2020-12-15 2022-06-17 通用电气精准医疗有限责任公司 脑卒中早期评估方法与系统及脑部区域分割方法
US11636596B1 (en) * 2022-04-28 2023-04-25 Qure.Ai Technologies Private Limited Monitoring brain CT scan image
US11501437B1 (en) * 2022-04-28 2022-11-15 Qure.Ai Technologies Private Limited Monitoring brain CT scan image

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005131011A (ja) * 2003-10-29 2005-05-26 Toshiba Corp 急性脳梗塞診断治療支援装置
WO2010150783A1 (ja) * 2009-06-25 2010-12-29 株式会社 日立メディコ 医用画像撮影装置
US20110116702A1 (en) * 2008-08-07 2011-05-19 Koninklijke Philips Electronics N.V. Interactive method of locating a mirror line for use in determining asymmetry of an image
JP2011167333A (ja) * 2010-02-18 2011-09-01 Hitachi Medical Corp 磁気共鳴画像解析装置および磁気共鳴画像解析方法
KR20150034433A (ko) * 2013-09-26 2015-04-03 건국대학교 산학협력단 다중모드 ct를 이용하여 뇌졸중의 예후를 예측하는 방법
JP2017174039A (ja) * 2016-03-23 2017-09-28 富士フイルム株式会社 画像分類装置、方法およびプログラム
JP2018011958A (ja) * 2016-07-21 2018-01-25 東芝メディカルシステムズ株式会社 医用画像処理装置及び医用画像処理プログラム
JP2019149130A (ja) * 2018-02-28 2019-09-05 富士フイルム株式会社 医用画像表示装置、方法およびプログラム
JP2020043927A (ja) * 2018-09-14 2020-03-26 富士フイルム株式会社 医用画像処理装置、方法およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7293118B2 (ja) * 2017-02-22 2023-06-19 ザ ユナイテッド ステイツ オブ アメリカ, アズ リプレゼンテッド バイ ザ セクレタリー, デパートメント オブ ヘルス アンド ヒューマン サービシーズ インスタンス重み付けを伴うランダムフォレストを使用するマルチパラメトリックmriにおける前立腺がんの検出、およびホリスティックネスト型ネットワークを用いたディープラーニングによるmr前立腺セグメント化

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005131011A (ja) * 2003-10-29 2005-05-26 Toshiba Corp 急性脳梗塞診断治療支援装置
US20110116702A1 (en) * 2008-08-07 2011-05-19 Koninklijke Philips Electronics N.V. Interactive method of locating a mirror line for use in determining asymmetry of an image
WO2010150783A1 (ja) * 2009-06-25 2010-12-29 株式会社 日立メディコ 医用画像撮影装置
JP2011167333A (ja) * 2010-02-18 2011-09-01 Hitachi Medical Corp 磁気共鳴画像解析装置および磁気共鳴画像解析方法
KR20150034433A (ko) * 2013-09-26 2015-04-03 건국대학교 산학협력단 다중모드 ct를 이용하여 뇌졸중의 예후를 예측하는 방법
JP2017174039A (ja) * 2016-03-23 2017-09-28 富士フイルム株式会社 画像分類装置、方法およびプログラム
JP2018011958A (ja) * 2016-07-21 2018-01-25 東芝メディカルシステムズ株式会社 医用画像処理装置及び医用画像処理プログラム
JP2019149130A (ja) * 2018-02-28 2019-09-05 富士フイルム株式会社 医用画像表示装置、方法およびプログラム
JP2020043927A (ja) * 2018-09-14 2020-03-26 富士フイルム株式会社 医用画像処理装置、方法およびプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112950600A (zh) * 2021-03-10 2021-06-11 武汉联影智融医疗科技有限公司 脑标识提取方法、装置、计算机设备和存储介质
WO2023053755A1 (ja) * 2021-09-30 2023-04-06 株式会社Lily MedTech 画像診断支援装置、画像診断支援方法、及び画像診断支援プログラム
WO2023171040A1 (ja) * 2022-03-07 2023-09-14 国立大学法人京都大学 情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル
WO2023171039A1 (ja) * 2022-03-07 2023-09-14 国立大学法人京都大学 情報処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに判別モデル

Also Published As

Publication number Publication date
JP7234364B2 (ja) 2023-03-07
JPWO2020262683A1 (ja) 2020-12-30
US20220115136A1 (en) 2022-04-14

Similar Documents

Publication Publication Date Title
WO2020262683A1 (ja) 医用画像処理装置、方法およびプログラム
Kim et al. Deep learning in medical imaging
Al-Kafri et al. Boundary delineation of MRI images for lumbar spinal stenosis detection through semantic segmentation using deep neural networks
JP7018856B2 (ja) 医用画像処理装置、方法およびプログラム
Kreiser et al. A survey of flattening‐based medical visualization techniques
CN112353381B (zh) 基于多模态大脑影像的阿尔茨海默症综合诊断系统
Mbarki et al. Lumbar spine discs classification based on deep convolutional neural networks using axial view MRI
Shakeri et al. Deep spectral-based shape features for Alzheimer’s disease classification
JP7129870B2 (ja) 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム
US11915414B2 (en) Medical image processing apparatus, method, and program
Al-Khasawneh et al. Alzheimer’s Disease Diagnosis Using MRI Images
Azcona et al. Interpretation of brain morphology in association to Alzheimer’s disease dementia classification using graph convolutional networks on triangulated meshes
WO2019102917A1 (ja) 読影医決定装置、方法およびプログラム
JP7098498B2 (ja) 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム
Wang et al. A 3D cross-hemisphere neighborhood difference Convnet for chronic stroke lesion segmentation
Siadat et al. Knowledge-based localization of hippocampus in human brain MRI
NL2028748B1 (en) Automatic segmentation and identification method of spinal vertebrae based on X-ray film
WO2021060461A1 (ja) 画像処理装置、方法およびプログラム
Afzali-Hashemi et al. Detection of small traumatic hemorrhages using a computer-generated average human brain CT
WO2021205991A1 (ja) 画像位置合わせ装置、方法およびプログラム
Kim et al. A fully automated landmark detection for spine surgery planning with a cascaded convolutional neural net
WO2020262681A1 (ja) 学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器
WO2021205990A1 (ja) 画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデル
Deshpande Cerebrovascular Morphology as an Imaging Marker for Enhanced Stroke Patient Assessment
US20230282336A1 (en) Information processing apparatus, information processing method, information processing program, learning device, learning method, learning program, and discriminative model

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20830605

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021528290

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20830605

Country of ref document: EP

Kind code of ref document: A1