WO2019003749A1 - 医用画像処理装置、方法およびプログラム - Google Patents

医用画像処理装置、方法およびプログラム Download PDF

Info

Publication number
WO2019003749A1
WO2019003749A1 PCT/JP2018/020310 JP2018020310W WO2019003749A1 WO 2019003749 A1 WO2019003749 A1 WO 2019003749A1 JP 2018020310 W JP2018020310 W JP 2018020310W WO 2019003749 A1 WO2019003749 A1 WO 2019003749A1
Authority
WO
WIPO (PCT)
Prior art keywords
brain
image
brain image
alignment
regions
Prior art date
Application number
PCT/JP2018/020310
Other languages
English (en)
French (fr)
Inventor
王 彩華
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2019526705A priority Critical patent/JP6788113B2/ja
Priority to EP18825135.9A priority patent/EP3648056A4/en
Publication of WO2019003749A1 publication Critical patent/WO2019003749A1/ja
Priority to US16/711,367 priority patent/US11216945B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T1/00Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
    • G01T1/16Measuring radiation intensity
    • G01T1/161Applications in the field of nuclear medicine, e.g. in vivo counting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Definitions

  • the present invention relates to a medical image processing apparatus, method, and program for determining the amount of change in brain using brain images including brains of the same subject having different imaging dates and times.
  • Alzheimer's disease With the advent of the aging society, patients with dementia disease are increasing year by year. Dementia develops when brain atrophy progresses by accumulation of a protein called amyloid ⁇ in the brain and cognitive ability declines. There is no cure for dementia, so early detection of brain atrophy and early treatment to slow the progression of dementia are important for maintaining quality of life.
  • SPECT Single Photon Emission Computed Tomography
  • PET PET
  • CT images and MRI Magnetic Resonance Imaging
  • Information on the state of the brain has become available by means of MRI images acquired by the device. For example, reductions in blood flow and metabolism in localized areas of the brain can be found by using SPECT and PET images to determine changes over time in localized areas of the brain.
  • brain atrophy can be found by determining the volume of a specific region of the brain by MRI images and comparing temporal changes in volume. For example, according to Patent Document 1, alignment of two brain images different in shooting date and time is performed, and then each of the two brain images is divided into tissue areas (gray matter and white matter), and the amount of change is determined for each tissue area. A method for acquiring has been proposed.
  • Non-Patent Documents 1 and 2 there has been proposed a method of subjecting a patient's brain image to segmentation by aligning a standard brain image segmented according to Brodmann's brain map with the patient's brain image.
  • the brain map of Brodmann it is indicated which area is responsible for which brain function (movement, language, perception, memory, vision, hearing, etc.) in the three-dimensional area of the cerebral cortex of the standard brain. It is done.
  • a method of dividing the brain image of a patient into regions and acquiring the amount of change in volume for each region Non-Patent Documents 1 and 2).
  • Non-Patent Documents 1 and 2 first, the first brain image of the patient and the standard brain image are aligned, the first brain image is segmented, and the first brain image is compared with the first brain image.
  • the second brain image of the patient whose imaging date and time is new is aligned with the standard brain image of the patient to segment the second brain image. Then, the amount of change in volume between corresponding regions in the first brain image and the second brain image is acquired.
  • the shape and size of the brain vary greatly depending on the person. For example, it is known that the shape and size of an individual's brain will differ by up to ⁇ 15% as compared to a standard brain. For this reason, in order to align a patient's brain image and a standard brain image, it may be necessary to greatly deform a patient's brain image. On the other hand, the degree of brain atrophy due to dementia, that is, the change in brain volume is several percent per year. In the non-patent documents 1 and 2 described above, the first and second brain images of the patient to be compared are respectively aligned with the standard brain image.
  • the present invention has been made in view of the above circumstances, and it is an object of the present invention to accurately obtain the amount of change between two brain images different in imaging date and time of the same patient.
  • a medical image processing apparatus aligns a plurality of brains included in a first brain image by aligning a first brain image including the brain of a subject with a standard brain image divided into a plurality of regions.
  • a division unit that divides into areas of An alignment unit for aligning a second brain image including the brain of the subject and having a different imaging date and time from the first brain image, and the first brain image;
  • the first brain image of at least one of a plurality of regions in the brain included in the second brain image
  • a change amount acquisition unit for acquiring a change amount from a corresponding region in the brain included.
  • the change amount acquisition unit calculates a volume change amount for at least one of a plurality of regions in the brain included in the second brain image. It is also good.
  • the medical image processing apparatus may further include a display control unit for displaying the volume change amount on the display unit.
  • the alignment unit is a movement vector of the corresponding pixel position between corresponding areas of the brain included in the first brain image and the second brain image. May be acquired as the amount of change.
  • the dividing unit performs the first alignment using the landmarks between the first brain image and the standard brain image, and then performs the first brain image and the standard.
  • a second alignment between brain images may be performed.
  • the first alignment may be alignment by similarity conversion
  • the second alignment may be alignment by non-linear conversion
  • the first registration is registration using landmarks
  • the second registration is registration using an arbitrary region between the standard brain image and the first brain image.
  • the alignment using an arbitrary area may be, for example, an alignment using the entire area between the standard brain image and the first brain image, or even if only an area is used. Good.
  • a “landmark” is an area having a characteristic shape in a brain image, and specifically, at least one of the characteristic areas such as the cerebral sulcus and the ventricles contained in the brain may be used as a landmark. it can.
  • the alignment unit performs the third alignment after using the landmarks between the first brain image and the second brain image.
  • a fourth alignment may be performed between the image and the second brain image.
  • the third alignment may be rigid alignment
  • the fourth alignment may be alignment by non-linear transformation
  • the third alignment is alignment using landmarks
  • the fourth alignment is alignment using an arbitrary area between the first brain image and the second brain image.
  • the alignment using an arbitrary area may be, for example, the alignment using the entire area between the first brain image and the second brain image, or only the partial area. May be
  • a plurality of brains included in the first brain image can be obtained by aligning the first brain image including the brain of the subject with the standard brain image divided into a plurality of regions. Divided into areas of Align a second brain image including the subject's brain and the first brain image, the first brain image and the imaging date and time being different; According to the alignment result of the first brain image and the second brain image, the first brain image of at least one of a plurality of regions in the brain included in the second brain image Acquire the amount of change from the corresponding area in the included brain.
  • the medical image processing method according to the present invention may be provided as a program for causing a computer to execute the method.
  • Another medical image processing apparatus is a memory for storing instructions to be executed by a computer.
  • a processor configured to execute the stored instructions, the processor
  • the brain included in the first brain image is divided into a plurality of regions by aligning the first brain image including the brain of the subject and the standard brain image divided into the plurality of regions, Align a second brain image including the subject's brain and the first brain image, the first brain image and the imaging date and time being different; According to the alignment result of the first brain image and the second brain image, the first brain image of at least one of a plurality of regions in the brain included in the second brain image The process of acquiring the amount of change from the corresponding region in the included brain is executed.
  • the plurality of regions of the brain included in the first brain image can be obtained.
  • the second brain image including the subject's brain and the first brain image having different imaging dates and times from the first brain image are aligned with each other, and the first brain image and the second brain image are An amount of change from a corresponding region in the brain included in the first brain image is acquired for at least one of the plurality of regions in the brain included in the second brain image based on the alignment result.
  • the second brain image is aligned with the first brain image, but since the first and second brain images are images of the same subject, the second brain image is deformed so much. Even if it does not, it can align with a 1st brain image precisely. For this reason, compared to the case where both the first brain image and the second brain image are aligned with the standard brain image, each region of the brain included in the first brain image and the second brain image It is possible to accurately obtain a slight amount of change between each included brain region.
  • a hardware configuration diagram showing an outline of a diagnosis support system to which a medical image processing apparatus according to an embodiment of the present invention is applied A diagram showing a schematic configuration of a medical image processing apparatus Figure showing a standard brain image Diagram showing the first brain image
  • FIG. 1 is a hardware configuration diagram showing an outline of a diagnosis support system to which a medical image processing apparatus according to an embodiment of the present invention is applied.
  • the medical image processing apparatus 1, the three-dimensional image capturing apparatus 2 and the image storage server 3 according to the present embodiment are connected in a communicable state via the network 4 There is.
  • the three-dimensional image capturing device 2 is a device that generates a three-dimensional image representing a region to be diagnosed as a medical image by capturing a region to be diagnosed of a patient who is a subject.
  • a CT device It is an MRI apparatus, a PET apparatus, and the like.
  • the medical image generated by the three-dimensional image capturing device 2 is transmitted to the image storage server 3 and stored.
  • the diagnosis target site of the patient who is the subject is the brain
  • the three-dimensional image capturing device 2 is the MRI device
  • the MRI image of the head including the brain of the subject is three-dimensional Generate as an image.
  • the image storage server 3 is a computer that stores and manages various data, and includes a large-capacity external storage device and software for database management.
  • the image storage server 3 communicates with other devices via a wired or wireless network 4 to transmit and receive image data and the like.
  • various data including image data of a medical image generated by the three-dimensional image capturing device 2 is acquired via a network, and stored and managed in a recording medium such as a large-capacity external storage device.
  • the storage format of image data and communication between devices via the network 4 are based on a protocol such as DICOM (Digital Imaging and Communication in Medicine).
  • DICOM Digital Imaging and Communication in Medicine
  • the medical image processing apparatus 1 is obtained by installing the medical image processing program of the present invention in one computer.
  • the computer may be a workstation or a personal computer directly operated by a doctor performing diagnosis, or a server computer connected with them via a network.
  • the medical image processing program is distributed by being recorded in a recording medium such as a digital versatile disc (DVD) or a compact disc read only memory (CD-ROM), and installed in a computer from the recording medium.
  • DVD digital versatile disc
  • CD-ROM compact disc read only memory
  • it is stored in a storage device of a server computer connected to a network or in a network storage in an accessible state from the outside, downloaded to a computer used by a doctor in response to a request, and installed.
  • FIG. 2 is a view showing a schematic configuration of a medical image processing apparatus realized by installing a medical image processing program in a computer.
  • the medical image processing apparatus 1 has a central processing unit (CPU) as a standard work station configuration. 11, a memory 12 and a storage 13 are provided. Further, the display 14 and an input unit 15 such as a keyboard and a mouse are connected to the medical image processing apparatus 1.
  • the display 14 corresponds to the display unit.
  • the storage 13 stores various information including a brain image of a subject acquired from the image storage server 3 via the network 4, a standard brain image to be described later, and information necessary for processing.
  • the memory 12 stores a medical image processing program.
  • the medical image processing program includes, as processing to be executed by the CPU 11, an image acquisition process for acquiring first and second brain images having different imaging dates and times including the brain of the same subject, and the first process including the brain of the subject.
  • Change amount acquisition processing for acquiring the amount of change from the corresponding region in the brain included in the first brain image for at least one region of the plurality of regions in the brain included in the brain image of Display on display 14 To define the that display control processing.
  • the medical image processing apparatus 1 may include a plurality of processors or processing circuits that respectively perform image acquisition processing, division processing, alignment processing, change amount acquisition processing, and display control processing.
  • the image acquisition unit 21 acquires, from the image storage server 3, two brain images different in imaging date and time, that is, the first brain image B1 and the second brain image B2 including the brains of the same subject.
  • the image acquiring unit 21 acquires the first and second brain images B1 and B2 from the storage 13.
  • the first brain image B1 has an imaging date and time older than that of the second brain image B2.
  • what is stored in the image storage server 3 is a brain image acquired by imaging the head of the subject, and also includes a structure other than the brain such as a skull.
  • the image acquisition unit 21 also acquires a standard brain image Bs from the image storage server 3.
  • the dividing unit 22 divides the brain included in the first brain image B1 into a plurality of regions by aligning the first brain image B1 with the standard brain image Bs divided into the plurality of regions.
  • the standard brain image Bs is a three-dimensional brain image representing a brain having a standard shape and size and a standard density (pixel value), that is, a standard brain.
  • the standard brain image Bs can be generated by extracting the brains from a plurality of brain images obtained by acquiring the heads of a plurality of healthy persons using a three-dimensional image capturing device and averaging the plurality of extracted brains.
  • the standard brain image Bs may be created by computer graphics or the like. Alternatively, the brain image of one healthy person may be used as a standard brain image Bs.
  • the standard brain image Bs is divided into a plurality of regions.
  • the cerebral cortex is divided into areas responsible for functions such as motion, speech, perception, memory, vision and hearing in a three-dimensional area of the cerebral cortex.
  • An approach can be used.
  • any known method such as a method of dividing into 6 types of regions of cerebrum, interbrain, midbrain, hindbrain, cerebellum and medulla oblongata, or a method of classifying cerebrum into frontal lobe, parietal lobe, temporal lobe and occipital lobe, etc. An approach can be used.
  • FIG. 3 is a view showing an example of a standard brain image.
  • the standard brain image Bs is divided into a plurality of regions in accordance with Brodmann's brain map.
  • FIG. 4 is a diagram showing a first brain image B1.
  • the first brain image B1 is different in shape and size from the standard brain image Bs shown in FIG.
  • the dividing unit 22 performs a first alignment using a landmark between the first brain image B1 and the standard brain image Bs. Then, after performing the first alignment, the second alignment using the entire region between the first brain image B1 and the standard brain image Bs is performed.
  • the landmark specifically, at least one of characteristic regions such as the cerebral sulcus and the ventricles included in the brain can be used.
  • the standard brain image Bs is described as being aligned with the first brain image B1, but the first brain image B1 may be aligned with the standard brain image Bs.
  • the dividing unit 22 extracts landmarks from the first brain image B1 and the standard brain image Bs.
  • the extraction of the landmark may be performed by template matching using, for example, a template representing the landmark, or may be performed by using a discriminator trained so as to discriminate the landmark included in the image.
  • the dividing unit 22 performs the first alignment so as to match the corresponding landmarks between the first brain image B1 and the standard brain image Bs.
  • the first alignment is alignment by similarity transformation. Specifically, alignment is performed by translating, rotating, and resizing the standard brain image Bs.
  • the dividing unit 22 performs similarity transformation on the standard brain image Bs so that the correlation between the landmarks included in the standard brain image Bs and the corresponding landmarks included in the first brain image B1 is maximized. Perform 1 alignment.
  • the dividing unit 22 After performing the first alignment using the landmark in this manner, the dividing unit 22 performs the second alignment using the entire region between the first brain image B1 and the standard brain image Bs.
  • the second alignment is alignment by non-linear transformation.
  • alignment by nonlinear conversion alignment by converting a pixel position nonlinearly using functions, such as B spline and thin plate spline (Thin Plate Spline), is mentioned, for example.
  • the dividing unit 22 performs the second alignment by non-linearly converting each pixel position of the standard brain image Bs after the first alignment to a corresponding pixel position included in the first brain image B1.
  • the division unit 22 thus aligns the standard brain image Bs with the first brain image B1, and applies the boundaries of the divided regions in the standard brain image Bs to the first brain image B1, as shown in FIG. As shown in 5, the first brain image B1 is divided into a plurality of regions.
  • the alignment unit 23 aligns a second brain image B2 including the subject's brain and the first brain image B1 that has a different imaging date and time from the first brain image B1. Specifically, after performing the third alignment using the landmark between the first brain image B1 and the second brain image B2, between the first brain image B1 and the second brain image B2 Perform a fourth alignment using the entire area of In the present embodiment, although the first brain image B1 is described as being aligned with the second brain image B2, the second brain image B2 may be aligned with the first brain image B1. Good.
  • the alignment unit 23 extracts landmarks from the first brain image B1 and the second brain image B2.
  • the extraction of the landmark may be performed in the same manner as the first alignment in the dividing unit 22.
  • the alignment unit 23 performs the third alignment so that corresponding landmarks coincide between the first brain image B1 and the second brain image B2.
  • the brain included in the first brain image B1 and the brain included in the second brain image B2 have the same size because the subject is the same. Therefore, in the present embodiment, rigid body alignment using only translation and rotation is performed as the third alignment.
  • FIG. 6 is a diagram for explaining rigid body alignment.
  • slice images G1 and G2 of corresponding tomographic planes in the first and second brain images B1 and B2 are shown for the sake of explanation.
  • the alignment unit 23 corresponds to the ventricle 31 which is one of the landmarks of the slice image G1 of the first brain image B1 and the correspondence included in the slice image G2 of the second brain image B2.
  • the first brain image B1 is translated and rotated to perform the third alignment which is the rigid body alignment so as to maximize the correlation with the ventricles 32.
  • a third aligned first brain image B11 (slice image G11 in FIG. 6) is acquired.
  • the alignment unit 23 After performing the third alignment using the landmark in this manner, the alignment unit 23 performs the fourth alignment using the entire region between the first brain image B1 and the second brain image B2. I do.
  • the fourth alignment is alignment by non-linear transformation.
  • the fourth alignment may be performed in the same manner as the second alignment in the dividing unit 22.
  • the movement vector to the corresponding pixel position of the second brain image B2 in each pixel of the first brain image B1 is acquired.
  • FIG. 7 is a diagram showing a movement vector. As shown in FIG. 7, at each pixel position of the brain in the first brain image B1, a movement vector Vm is acquired.
  • the change amount acquisition unit 24 determines the first brain image B1 for at least one of the plurality of regions in the brain included in the second brain image B2 based on the alignment result in the alignment unit 23. Acquire the amount of change from the corresponding area in the included brain. In the present embodiment, the amount of change for each of the plurality of regions is acquired. In the present embodiment, the movement vector Vm is acquired at each pixel position of the brain included in the first brain image B1 by the alignment of the alignment unit 23. The change amount acquisition unit 24 classifies the movement vector Vm at each pixel position of the brain included in the first brain image B1 into each of a plurality of regions in the first brain image B1.
  • the amount of change from the corresponding region in the brain included in the first brain image B1 is acquired for each of the plurality of regions in the brain included in the second brain image B2.
  • the amount of change is the movement vector Vm of the corresponding pixel in the corresponding region.
  • the change amount acquisition unit 24 calculates the volume change amount for each of a plurality of regions in the brain included in the second brain image B2.
  • FIG. 8 is a diagram for explaining the calculation of the volume change amount.
  • one region 40 included in the first brain image B1 is composed of three pixels 41, 42 and 43, and the pixels have not moved in the vertical direction in FIG.
  • the movement vector V1 of the pixel 41 is 0.3 pixels in the left direction
  • the movement vector V2 of the pixel 42 is the left direction
  • the motion vector V3 of the pixel 43 has a size of 0.8 pixel in the left direction.
  • the change amount acquisition unit 24 calculates the change amount of the pixel value of the region 40 as ⁇ 0.5 pixel.
  • the change amount acquisition unit 24 actually calculates the change amounts of pixel values in the directions of the three axes of x, y, and z for each region in the first brain image B1. In the case where the amount of change is a negative value, the area shrinks, and in the case of a positive value, the area is expanded.
  • the change amount acquisition unit 24 further calculates the volume change amount as follows. That is, for each region in the first brain image B1, the amounts of change calculated for the directions of the x, y, and z axes are added. Then, by dividing the added value obtained thereby by the total number of pixels in the corresponding area, the change rate of the area volume is calculated as the volume change amount. In this case, the volume change amount is expressed as a rate (for example, percentage) of change with respect to the volume of each region.
  • the volume change also has a negative value if the region is atrophy, and a positive value if the region is dilated.
  • the absolute value of the volume change amount which is a negative value is the atrophy rate of the brain.
  • an added value obtained by adding the amounts of change calculated for the directions of the three axes x, y, and z may be calculated as the amount of volume change.
  • the volume change amount is represented by the size of the pixel value, and is a negative value if the region is atrophy, and a positive value if the region is dilated.
  • the volume per pixel (that is, one voxel) is known in advance. Therefore, the amount of change in volume may be calculated by adding the amounts of change calculated in the directions of the three axes x, y, and z, and multiplying the sum obtained by this with the volume per pixel. . In this case, the volume change amount is represented by the magnitude of the volume change amount.
  • the change amount acquiring unit 24 compares the absolute value of the volume change amount, that is, the atrophy rate of the brain with the threshold value Th1 in the region where the value is negative, and the absolute value of the volume change amount is greater than the threshold value. Also, a large area is identified as an abnormal area and labeled. Here, the atrophy rate of the brain due to human aging is less than 1% a year, but it is about 1 to 3% in patients with dementia. For this reason, the change amount acquisition unit 24 sets, for example, the threshold value Th1 to ⁇ 1%, and identifies an area where the absolute value of the volume change amount is larger than the threshold value Th1 as an abnormal area.
  • FIG. 9 is a view for explaining the display of the volume change amount.
  • diagonal lines are given to the abnormal areas A10 and A11 among the plurality of areas of the brain, and labels L10 and L11 indicating the volume change amount are further given to the display 14.
  • labels L10 and L11 indicate the absolute value of the volume change amount, that is, the atrophy rate of the brain.
  • Each area may be displayed in different colors according to the magnitude of the volume change amount.
  • the change amount in the brain that is, the area judged to have a large atrophy rate is displayed identifiably, but the presence or absence of the onset of dementia is diagnosed automatically, The result may be displayed.
  • a discriminator is created by machine learning the amount of change for each region, that is, the atrophy rate and the presence or absence of occurrence of dementia, as teacher data (data with correct answer) for a plurality of patients in the past. Then, the amount of change for each new patient area calculated in the present embodiment, that is, the atrophy rate may be input to the discriminator to determine whether it is dementia or not.
  • regions that are considered to have particularly large effects on a disease to be diagnosed may be handled differently from other regions. For example, in the case of identifiably displaying the region determined to have a high brain contraction rate as described above, the region considered to have a particularly large influence on the disease to be diagnosed is displayed distinguishably from other regions. It is also good. Also, as described above, in the case of automatically diagnosing the presence or absence of occurrence of dementia, weighting of teacher data is performed when learning a discriminator for a region considered to have a particularly large influence on a disease to be diagnosed. May be increased. In addition, hippocampus, cerebellum, and temporal lobe etc. are mentioned as a site
  • FIG. 10 is a flowchart showing the process performed in the present embodiment.
  • the image acquiring unit 21 acquires a first brain image B1 and a second brain image B2 including the brain of a subject whose imaging dates and times are different for the same subject (step ST1).
  • the dividing unit 22 divides the brain included in the first brain image B1 into a plurality of areas by aligning the first brain image B1 with the standard brain image Bs divided into the plurality of areas. (Step ST2).
  • the alignment unit 23 aligns the second brain image B2 and the first brain image B1 (step ST3).
  • the change amount acquisition unit 24 is included in the first brain image B1 for at least one of a plurality of regions in the brain included in the second brain image B2 based on the alignment result.
  • the amount of change from the corresponding region in the brain is obtained (step ST4), and the amount of volume change is calculated for at least one of a plurality of regions in the brain included in the second brain image B2 (step ST5).
  • the display control unit 25 displays the volume change amount on the display 14 (step ST6), and the process ends.
  • the second brain image B2 is aligned with the first brain image B1, but the first and second brain images B1 and B2 are images of the same subject. Even if the second brain image B2 is not deformed so much, alignment with the first brain image B1 can be performed with high accuracy. For this reason, as compared with the case where both the first brain image B1 and the second brain image B2 are aligned with the standard brain image Bs, each region of the brain included in the first brain image B1 and the second region It is possible to accurately obtain a slight amount of change between each region of the brain included in the brain image B2 of FIG. Therefore, it is possible to accurately acquire the amount of change between two brain images B1 and B2 having different imaging dates and times of the same patient, and further, the amount of volume change.
  • the rigid registration is performed as the third registration, but the sizes of the brains contained in the first brain image B1 and the second brain image B2 may be different. is there.
  • scaling may be performed as the third alignment in addition to the rigid alignment.
  • volume change amount is calculated in the above embodiment, only the change amount of each region may be calculated.
  • the second alignment is performed after the first alignment using the landmarks in the dividing unit 22.
  • the second alignment that is, the alignment by nonlinear conversion is performed. May be performed.
  • the fourth alignment is performed after the third alignment using the landmarks in the alignment unit 23.
  • the fourth alignment that is, the alignment by nonlinear conversion is performed. You may do it only.
  • the standard brain image Bs and the first brain image Alignment may be performed using a partial area of B1.
  • alignment may be performed using only individual divided regions in the brain.
  • the alignment using the entire area of the first brain image B1 and the second brain image B2 is performed, but the first brain image B1 and the second brain image B1 are not Alignment may be performed using a partial region of two brain images B2. For example, alignment may be performed using only individual divided regions in the brain.
  • the MRI image of a test object is used as a medical image
  • the volume change amount of each region can be accurately acquired.
  • the alignment After performing the first alignment using the landmark and then performing the second alignment, after performing the alignment using the area where the alignment is easy to be performed, the alignment is further performed. Become. Therefore, the alignment between the first brain image and the standard brain image can be efficiently performed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)
  • Nuclear Medicine (AREA)

Abstract

医用画像処理装置、方法およびプログラムにおいて、同一患者の撮影日時が異なる2つの脳画像間の変化量を精度よく取得する。分割部22が、被検体の脳を含む第1の脳画像を複数の領域に分割された標準脳画像と位置合わせすることにより、第1の脳画像に含まれる脳を複数の領域に分割する。位置合わせ部23が、第1の脳画像と撮影日時が異なる、被検体の脳を含む第2の脳画像を、第1の脳画像と位置合わせする。変化量取得部24が、位置合わせの結果に基づいて、第2の脳画像に含まれる脳における複数の領域のうちの少なくとも1つの領域についての、第1の脳画像に含まれる脳における対応する領域からの変化量を取得する。

Description

医用画像処理装置、方法およびプログラム
 本発明は、撮影日時が異なる同一被検体についての脳を含む脳画像を用いて、脳の変化量を求める医用画像処理装置、方法およびプログラムに関するものである。
高齢化社会の到来により、認知症疾患の患者が年々増加している。認知症は脳にアミロイドβと呼ばれるタンパク質が蓄積することによって脳の萎縮が進行し、認知能力が低下することにより発症する。認知症の治療法は存在しないため、脳の萎縮を早期に発見し、認知症の進行を遅らせるための治療を早期に開始することが生活の質を維持する上で重要である。
 このような要望に応えるべく、近年、SPECT(Single Photon Emission Computed Tomography)およびPET(Positron Emission Tomography)等の核医学検査、並びにCT(Computerized Tomography)装置により取得されるCT画像およびMRI(Magnetic Resonance Imaging)装置により取得されるMRI画像によって脳の状態に関する情報が取得可能になってきている。例えば、脳の局所的な部位の血流および代謝の低下は、SPECTおよびPETの画像を用いて、脳の局所的な部位の経時的な変化を求めることにより発見することができる。
 一方、脳の萎縮については、MRI画像によって脳の特定部位の容積を求め、容積の経時的な変化を比較することにより発見することができる。例えば、特許文献1には、撮影日時が異なる2つの脳画像の位置合わせを行い、その後2つの脳画像のそれぞれを組織領域(灰白質および白質)に領域分割し、組織領域毎に変化量を取得する手法が提案されている。
 一方、例えばブロードマンの脳地図にしたがって領域分割された標準脳画像と、患者の脳画像とを位置合わせして、患者の脳画像を領域分割する手法が提案されている(特許文献2参照)。ここで、ブロードマンの脳地図においては、標準脳の大脳皮質の3次元領域内において、どの領域がどの脳機能(運動、言語、知覚、記憶、視覚、聴覚等)を司っているかが示されている。このように患者の脳画像を領域分割した上で、領域毎の容積の変化量を取得する手法が提案されている(非特許文献1,2)。非特許文献1,2に記載された手法においては、まず、患者の第1の脳画像と標準脳画像とを位置合わせして第1の脳画像を領域分割し、第1の脳画像よりも撮影日時が新しい患者の第2の脳画像と標準脳画像とを位置合わせして第2の脳画像を領域分割する。そして、第1の脳画像および第2の脳画像における対応する領域間における容積の変化量を取得している。
特開2014-042684号公報 特開2011-010828号公報
Subregional neuroanatomical change as a biomarker for Alzheimer's disease、Dominic Hollandら、Proceedings of the National Academy of Sciences、106巻、49号、20954-20959頁、2009/12/8 aBEAT: A Toolbox for Consistent Analysis of Longitudinal Adult Brain MRI、Yakang Daiら、Alzheimer's Disease Neuroimaging Initiative、April 3, 2013
 ところで、脳の形状および大きさは、人によって大きく異なる。例えば、標準脳と比較して、個人の脳の形状および大きさは、最大で±15%程度異なるものとなることが知られている。このため、患者の脳画像と標準脳画像とを位置合わせするためには、患者の脳画像を大きく変形する必要が生じる場合がある。一方、認知症による脳の萎縮の程度、すなわち脳の容積の変化量は年に数%である。上記非特許文献1,2に記載は、比較の対象となる患者の第1および第2の脳画像をそれぞれ標準脳画像と位置合わせをしている。この際、標準脳画像に対する第1および第2の脳画像それぞれの位置合わせのための変形の程度が大きくなることにより、変形による誤差も大きくなり。年にわずか数%という脳の変化量を精度よく取得することができない場合がある。
 本発明は上記事情に鑑みなされたものであり、同一患者の撮影日時が異なる2つの脳画像間の変化量を精度よく取得することを目的とする。
 本発明による医用画像処理装置は、被検体の脳を含む第1の脳画像と複数の領域に分割された標準脳画像とを位置合わせすることにより、第1の脳画像に含まれる脳を複数の領域に分割する分割部と、
 第1の脳画像と撮影日時が異なる、上記被検体の脳を含む第2の脳画像と、第1の脳画像とを位置合わせする位置合わせ部と、
 第1の脳画像と第2の脳画像との位置合わせの結果に基づいて、第2の脳画像に含まれる脳における複数の領域のうちの少なくとも1つの領域についての、第1の脳画像に含まれる脳における対応する領域からの変化量を取得する変化量取得部とを備える。
 なお、本発明による医用画像処理装置においては、変化量取得部は、第2の脳画像に含まれる脳における複数の領域のうちの少なくとも1つの領域についての容積変化量を算出するものであってもよい。
 また、本発明による医用画像処理装置においては、容積変化量を表示部に表示する表示制御部をさらに備えるものであってもよい。
 また、本発明による医用画像処理装置においては、位置合わせ部は、第1の脳画像に含まれる脳および第2の脳画像に含まれる脳における対応する領域間において、対応する画素位置の移動ベクトルを変化量として取得するものであってもよい。
 また、本発明による医用画像処理装置においては、分割部は、第1の脳画像および標準脳画像間でのランドマークを用いた第1の位置合わせを行った後に、第1の脳画像および標準脳画像間での第2の位置合わせを行うものであってもよい。
 この場合、第1の位置合わせは相似変換による位置合わせであり、第2の位置合わせは非線形変換による位置合わせであってもよい。
 第1の位置合わせはランドマークを用いた位置合わせであるが、第2の位置合わせは、標準脳画像および第1の脳画像間での任意の領域を用いた位置合わせである。任意の領域を用いた位置合わせは、例えば、標準脳画像および第1の脳画像間の全領域を用いた位置合わせであってもよく、一部の領域のみを用いた位置合わせであってもよい。
 「ランドマーク」とは、脳画像における特徴的な形状を有する領域であり、具体的には脳に含まれる脳溝および脳室等の特徴的な領域の少なくとも1つをランドマークとして用いることができる。
 また、本発明による医用画像処理装置においては、位置合わせ部は、第1の脳画像および第2の脳画像間でのランドマークを用いた第3の位置合わせを行った後に、第1の脳画像および第2の脳画像間での第4の位置合わせを行うものであってもよい。
 この場合、第3の位置合わせは剛体位置合わせであり、第4の位置合わせは非線形変換による位置合わせであってもよい。
 第3の位置合わせはランドマークを用いた位置合わせであるが、第4の位置合わせは、第1の脳画像および第2の脳画像間で任意の領域を用いた位置合わせである。任意の領域を用いた位置合わせは、例えば、第1の脳画像および第2の脳画像間の全領域を用いた位置合わせであってもよく、一部の領域のみを用いた位置合わせであってもよい。
 本発明による医用画像処理方法は、被検体の脳を含む第1の脳画像と複数の領域に分割された標準脳画像とを位置合わせすることにより、第1の脳画像に含まれる脳を複数の領域に分割し、
 第1の脳画像と撮影日時が異なる、被検体の脳を含む第2の脳画像と、第1の脳画像とを位置合わせし、
 第1の脳画像と第2の脳画像との位置合わせの結果に基づいて、第2の脳画像に含まれる脳における複数の領域のうちの少なくとも1つの領域についての、第1の脳画像に含まれる脳における対応する領域からの変化量を取得する。
 なお、本発明による医用画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
 本発明による他の医用画像処理装置は、コンピュータに実行させるための命令を記憶するメモリと、
 記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
 被検体の脳を含む第1の脳画像と複数の領域に分割された標準脳画像とを位置合わせすることにより、第1の脳画像に含まれる脳を複数の領域に分割し、
 第1の脳画像と撮影日時が異なる、被検体の脳を含む第2の脳画像と、第1の脳画像とを位置合わせし、
 第1の脳画像と第2の脳画像との位置合わせの結果に基づいて、第2の脳画像に含まれる脳における複数の領域のうちの少なくとも1つの領域についての、第1の脳画像に含まれる脳における対応する領域からの変化量を取得する処理を実行する。
 本発明によれば、被検体の脳を含む第1の脳画像と複数の領域に分割された標準脳画像とが位置合わせされることにより、第1の脳画像に含まれる脳が複数の領域に分割される。そして、第1の脳画像と撮影日時が異なる、被検体の脳を含む第2の脳画像と、第1の脳画像とが位置合わせされ、第1の脳画像と第2の脳画像との位置合わせの結果に基づいて第2の脳画像に含まれる脳における複数の領域のうちの少なくとも1つの領域についての、第1の脳画像に含まれる脳における対応する領域からの変化量が取得される。本発明においては、第2の脳画像は第1の脳画像と位置合わせされるが、第1および第2の脳画像は同一被検体の画像であるため、第2の脳画像をそれほど大きく変形しなくても、第1の脳画像と精度よく位置合わせをすることができる。このため、第1の脳画像および第2の脳画像の双方を標準脳画像と位置合わせする場合と比較して、第1の脳画像に含まれる脳の各領域と、第2の脳画像に含まれる脳の各領域との間のわずかな変化量を精度よく取得することができる。
本発明の実施形態による医用画像処理装置を適用した、診断支援システムの概要を示すハードウェア構成図 医用画像処理装置の概略構成を示す図 標準脳画像を示す図 第1の脳画像を示す図 複数の領域に分割された第1の脳画像を示す図 位置合わせを説明するための図 移動ベクトルを示す図 容積変化量の算出を説明するための図 容積変化量の表示を説明するための図 本実施形態において行われる処理を示すフローチャート
 以下、図面を参照して本発明の実施形態について説明する。図1は、本発明の実施形態による医用画像処理装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、診断支援システムでは、本実施形態による医用画像処理装置1、3次元画像撮影装置2、および画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。
 3次元画像撮影装置2は、被検体である患者の診断対象となる部位を撮影することにより、その部位を表す3次元画像を医用画像として生成する装置であり、具体的には、CT装置、MRI装置、およびPET装置等である。3次元画像撮影装置2により生成された医用画像は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、被検体である患者の診断対象部位は脳であり、3次元画像撮影装置2はMRI装置であり、被検体の脳を含む頭部のMRI画像を3次元の脳画像として生成する。
 画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で生成された医用画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式およびネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。なお、本実施形態においては、同一の被検体について、撮影日時が異なる複数の3次元の医用画像が画像保管サーバ3に保存されているものとする。また、画像保管サーバ3には、後述する標準脳画像の画像データも保存されているものとする。
 医用画像処理装置1は、1台のコンピュータに、本発明の医用画像処理プログラムをインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーションまたはパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。医用画像処理プログラムは、DVD(Digital Versatile Disc)あるいはCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。または、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータにダウンロードされ、インストールされる。
 図2は、コンピュータに医用画像処理プログラムをインストールすることにより実現される医用画像処理装置の概略構成を示す図である。図2に示すように、医用画像処理装置1は、標準的なワークステーションの構成として、CPU(Central Processing Unit)
11、メモリ12およびストレージ13を備えている。また、医用画像処理装置1には、ディスプレイ14、並びにキーボードおよびマウス等の入力部15が接続されている。なお、ディスプレイ14が表示部に対応する。
 ストレージ13には、ネットワーク4を経由して画像保管サーバ3から取得した、被検体の脳画像、後述する標準脳画像および処理に必要な情報を含む各種情報が記憶されている。
 また、メモリ12には、医用画像処理プログラムが記憶されている。医用画像処理プログラムは、CPU11に実行させる処理として、同一被検体についての脳を含む、撮影日時が異なる第1および第2の脳画像を取得する画像取得処理、被検体の脳を含む第1の脳画像と複数の領域に分割された標準脳画像とを位置合わせすることにより、第1の脳画像に含まれる脳を複数の領域に分割する分割処理、第1の脳画像と撮影日時が異なる、被検体の脳を含む第2の脳画像と第1の脳画像とを位置合わせする位置合わせ処理、第1の脳画像と第2の脳画像との位置合わせの結果に基づいて、第2の脳画像に含まれる脳における複数の領域のうちの少なくとも1つの領域についての、第1の脳画像に含まれる脳における対応する領域からの変化量を取得する変化量取得処理、並びに変化量をディスプレイ14に表示する表示制御処理を規定する。
 そして、CPU11がプログラムに従いこれらの処理を実行することにより、コンピュータは、画像取得部21、分割部22、位置合わせ部23、変化量取得部24および表示制御部25として機能する。なお、医用画像処理装置1は、画像取得処理、分割処理、位置合わせ処理、変化量取得処理および表示制御処理をそれぞれ行う複数のプロセッサまたは処理回路を備えるものであってもよい。
 画像取得部21は、同一被検体の脳を含む、撮影日時が異なる2つの脳画像、すなわち第1の脳画像B1および第2の脳画像B2を画像保管サーバ3から取得する。なお、第1および第2の脳画像B1,B2が既にストレージ13に記憶されている場合には、画像取得部21は、ストレージ13から第1および第2の脳画像B1,B2を取得するようにしてもよい。なお、第1の脳画像B1は、第2の脳画像B2よりも撮影日時が古いものとする。ここで、本実施形態においては、画像保管サーバ3に保管されているのは被検体の頭部を撮影することにより取得した脳画像であり、頭蓋骨等の脳以外の構造物も含まれる。また、画像取得部21は、標準脳画像Bsも画像保管サーバ3から取得する。
 分割部22は、第1の脳画像B1と複数の領域に分割された標準脳画像Bsとを位置合わせすることにより、第1の脳画像B1に含まれる脳を複数の領域に分割する。ここで、標準脳画像Bsとは、標準的な形状および大きさ、並びに標準的な濃度(画素値)を有する脳、すなわち標準脳を表す3次元の脳画像である。標準脳画像Bsは、複数の健常者の頭部を3次元画像撮影装置により取得した複数の脳画像から脳を抽出し、抽出した複数の脳を平均することにより生成することができる。また、標準脳画像Bsは、コンピュータグラフィックス等により作成されたものであってもよい。また、一人の健常者の脳画像を標準脳画像Bsとして用いてもよい。
 また、本実施形態においては、標準脳画像Bsは、複数の領域に分割されている。分割の手法としては、例えば、ブロードマンの脳地図に基づいて、大脳皮質の3次元領域内において、大脳皮質を運動、言語、知覚、記憶、視覚および聴覚等の各機能を司る領域に分割する手法を用いることができる。また、大脳、間脳、中脳、後脳、小脳および延髄の6種類の領域に分割する手法、あるいは大脳を前頭葉、頭頂葉、側頭葉および後頭葉に分類する手法等、公知の任意の手法を用いることができる。なお、単純に脳を等間隔で分割する手法を用いてもよい。図3は標準脳画像の例を示す図である。なお、図3においては、標準脳画像Bsは、ブロードマンの脳地図にしたがって複数の領域に分割されている。
 ここで、脳の大きさおよび形状は人により異なる。例えば、標準脳と比較した場合、最大で±15%程度大きさおよび形状が異なる。図4は第1の脳画像B1を示す図である。図4に示すように、第1の脳画像B1は図3に示す標準脳画像Bsと比較して、形状および大きさが異なるものとなっている。第1の脳画像B1を複数の領域に分割するために、分割部22は、第1の脳画像B1および標準脳画像Bs間でのランドマークを用いた第1の位置合わせを行う。そして、第1の位置合わせを行った後に、第1の脳画像B1および標準脳画像Bs間での全領域を用いた第2の位置合わせを行う。なお、ランドマークは、具体的には脳に含まれる脳溝および脳室等の特徴的な領域の少なくとも1つを用いることができる。また、本実施形態においては、標準脳画像Bsを第1の脳画像B1に位置合わせするものとして説明するが、第1の脳画像B1を標準脳画像Bsに位置合わせしてもよい。
 位置合わせのために、分割部22は、第1の脳画像B1および標準脳画像Bsからランドマークを抽出する。ランドマークの抽出は、例えばランドマークを表すテンプレートを用いたテンプレートマッチングにより行ってもよく、画像に含まれるランドマークを判別するように学習がなされた判別器を用いることにより行ってもよい。分割部22は、第1の脳画像B1および標準脳画像Bs間において、対応するランドマークを一致させるように第1の位置合わせを行う。本実施形態において、第1の位置合わせは相似変換による位置合わせである。具体的には、標準脳画像Bsを平行移動、回転および相似に拡大縮小することによる位置合わせである。分割部22は、標準脳画像Bsに含まれるランドマークと、第1の脳画像B1に含まれる対応するランドマークとの相関が最大となるように、標準脳画像Bsを相似変換して、第1の位置合わせを行う。
 分割部22は、このようにランドマークを用いた第1の位置合わせを行った後、第1の脳画像B1および標準脳画像Bs間での全領域を用いた第2の位置合わせを行う。本実施形態において、第2の位置合わせは非線形変換による位置合わせである。非線形変換による位置合わせとしては、例えばBスプラインおよびシンプレートスプライン(Thin Plate Spline)等の関数を用いて画素位置を非線形に変換することによる位置合わせが挙げられる。分割部22は、第1の位置合わせ後の標準脳画像Bsの各画素位置を、第1の脳画像B1に含まれる対応する画素位置に非線形変換することにより、第2の位置合わせを行う。
 分割部22は、このようにして標準脳画像Bsを第1の脳画像B1に位置合わせし、標準脳画像Bsにおける分割された領域の境界を第1の脳画像B1に適用することにより、図5に示すように、第1の脳画像B1を複数の領域に分割する。
 位置合わせ部23は、第1の脳画像B1と撮影日時が異なる、被検体の脳を含む第2の脳画像B2と、第1の脳画像B1とを位置合わせする。具体的には、第1の脳画像B1および第2の脳画像B2間でのランドマークを用いた第3の位置合わせを行った後に、第1の脳画像B1および第2の脳画像B2間での全領域を用いた第4の位置合わせを行う。なお、本実施形態においては、第1の脳画像B1を第2の脳画像B2に位置合わせするものとして説明するが、第2の脳画像B2を第1の脳画像B1に位置合わせしてもよい。
 位置合わせのために、位置合わせ部23は、第1の脳画像B1および第2の脳画像B2からランドマークを抽出する。ランドマークの抽出は、分割部22における第1の位置合わせと同様に行えばよい。位置合わせ部23は、第1の脳画像B1および第2の脳画像B2間において、対応するランドマークを一致させるように第3の位置合わせを行う。ここで、第1の脳画像B1に含まれる脳と第2の脳画像B2含まれる脳とは、被検体が同一であるため大きさが一致する。このため、本実施形態において、第3の位置合わせとして、平行移動および回転のみを用いた剛体位置合わせを行う。
 図6は剛体位置合わせを説明するための図である。なお、図6においては、説明のために、第1および第2の脳画像B1,B2における対応する断層面のスライス画像G1,G2を示している。位置合わせ部23は、図6に示すように、第1の脳画像B1のスライス画像G1のランドマークの1つである脳室31と、第2の脳画像B2のスライス画像G2に含まれる対応する脳室32との相関が最大となるように、第1の脳画像B1を平行移動および回転して、剛体位置合わせである第3の位置合わせを行う。これにより、第3の位置合わせ済みの第1の脳画像B11(図6においてはスライス画像G11)が取得される。
 位置合わせ部23は、このようにランドマークを用いた第3の位置合わせを行った後、第1の脳画像B1および第2の脳画像B2間での全領域を用いた第4の位置合わせを行う。本実施形態において、第4の位置合わせは非線形変換による位置合わせである。第4の位置合わせは、分割部22における第2の位置合わせと同様に行えばよい。これにより、第1の脳画像B1の各画素における第2の脳画像B2の対応する画素位置への移動ベクトルが取得される。図7は移動ベクトルを示す図である。図7に示すように、第1の脳画像B1における脳の各画素位置において、移動ベクトルVmが取得される。
 変化量取得部24は、位置合わせ部23における位置合わせ結果に基づいて、第2の脳画像B2に含まれる脳における複数の領域のうちの少なくとも1つの領域についての、第1の脳画像B1に含まれる脳における対応する領域からの変化量を取得する。本実施形態においては、複数の領域のそれぞれについての変化量を取得するものとする。本実施形態においては、位置合わせ部23の位置合わせにより、第1の脳画像B1に含まれる脳の各画素位置において、移動ベクトルVmが取得される。変化量取得部24は、第1の脳画像B1に含まれる脳の各画素位置における移動ベクトルVmを、第1の脳画像B1における複数の領域のそれぞれに分類する。これにより、第2の脳画像B2に含まれる脳における複数の領域のそれぞれについての、第1の脳画像B1に含まれる脳における対応する領域からの変化量を取得する。この場合、変化量は、対応する領域内における対応する画素の移動ベクトルVmとなる。さらに、変化量取得部24は、第2の脳画像B2に含まれる脳における複数の領域のそれぞれについての容積変化量を算出する。
 図8は容積変化量の算出を説明するための図である。ここでは説明のために、第1の脳画像B1に含まれる1つの領域40が3つの画素41,42,43からなり、図8における上下方向には画素は移動しなかったものとする。第1の脳画像B1における3つの画素41,42,43からなる領域A1について、画素41の移動ベクトルV1が左方向に大きさが0.3画素、画素42の移動ベクトルV2が左方向に大きさが0.4画素、画素43の移動ベクトルV3が左方向に大きさが0.8画素であったものとする。
 この場合、領域40の全体は左に移動している。また、画素41と画素42との間隔は0.1画素小さくなっている。また、画素42と画素43との間隔は0.4画素小さくなっている。このため、変化量取得部24は、領域40の画素値の変化量を-0.5画素として算出する。なお、変化量取得部24は、実際には第1の脳画像B1における各領域について、x,y,zの3軸の方向のそれぞれについての画素値の変化量を算出する。なお、変化量が負の値の場合は領域は萎縮しており、正の値の場合は膨張しているものとなる。
 変化量取得部24は、さらに、以下のように容積変化量を算出する。すなわち、第1の脳画像B1における各領域について、x,y,zの3軸の方向それぞれについて算出された変化量を加算する。そして、これにより得られる加算値を対応する領域内の総画素数で除算することにより、領域の容積の変化率を容積変化量として算出する。この場合、容積変化量は各領域の容積に対する変化の割合(例えば百分率)で表される。なお、容積変化量も、領域が萎縮していれば負の値となり、膨張していれば正の値となる。ここで、負の値となる容積変化量の絶対値が脳の萎縮率となる。
 なお、第1の脳画像B1における各領域について、x,y,zの3軸の方向それぞれについて算出された変化量を加算することにより得られる加算値を容積変化量として算出してもよい。この場合、容積変化量は画素値の大きさで表され、領域が萎縮していれば負の値となり、膨張していれば正の値となる。
 また、第1および第2の脳画像B1,B2においては1画素(すなわち1ボクセル)当たりの体積が予め分かっている。このため、x,y,zの3軸の方向それぞれについて算出された変化量を加算し、これにより得られる加算値に1画素当たりの体積を乗算することにより容積変化量を算出してもよい。この場合、容積変化量は容積の変化量の大きさで表される。
 さらに、変化量取得部24は、負の値となった領域について、容積変化量の絶対値、すなわち脳の萎縮率をしきい値Th1と比較し、容積変化量の絶対値がしきい値よりも大きい領域を、異常領域に特定してラベルを付与する。ここで、人間の加齢による脳の萎縮率は年に1%未満であるが、認知症の患者では1~3%程度となる。このため、変化量取得部24は、例えばしきい値Th1を-1%に設定し、容積変化量の絶対値がしきい値Th1よりも大きい領域を異常領域に特定する。
 表示制御部25は、容積変化量をディスプレイ14に表示する。図9は容積変化量の表示を説明するための図である。図9に示すように、ディスプレイ14には、脳の複数の領域のうちの異常領域A10,A11に斜線が付与されており、さらに、容積変化量を示すラベルL10,L11が付与される。ここで、図9においては、ラベルL10,L11には、容積変化量の絶対値、すなわち脳の萎縮率が示されている。なお、容積変化量の大きさに応じて、各領域を色分けして表示してもよい。
 なお、ここでは医師が診断を行うことを前提として、脳における変化量、すなわち萎縮率が大きいと判断された領域を識別可能に表示させたが、認知症の発生の有無を自動で診断し、その結果を表示してもよい。この場合、過去の複数の患者について、領域毎の変化量、すなわち萎縮率および認知症の発生有無を教師データ(正解付きデータ)として機械学習させることにより判別器を作成しておく。そして、本実施形態において算出された新たな患者の領域毎の変化量、すなわち萎縮率を判別器に入力して認知症であるか否かを判別させるようにすればよい 。
 また、分割された脳の領域のうち、診断対象の疾患に対する影響が特に大きいと考えられている領域について、他の領域と取り扱いを異なるものとしてもよい。例えば、上述した脳の委縮率が大きいと判断された領域を識別可能に表示する場合、診断対象の疾患に対する影響が特に大きいと考えられている領域を、他の領域と識別可能に表示してもよい。また、上述したように認知症の発生の有無を自動で診断する場合において、診断対象の疾患に対する影響が特に大きいと考えられている領域については、判別器を学習させる際に、教師データの重み付けを大きくするようにしてもよい。なお、疾患に対する影響が特に大きい部位としては海馬、小脳、および側頭葉等が挙げられる。
 次いで、本実施形態において行われる処理について説明する。図10は本実施形態において行われる処理を示すフローチャートである。まず、画像取得部21が、同一被検体について撮影日時が異なる、被検体の脳を含む第1の脳画像B1および第2の脳画像B2を取得する(ステップST1)。次いで、分割部22が、第1の脳画像B1と複数の領域に分割された標準脳画像Bsとを位置合わせすることにより、第1の脳画像B1に含まれる脳を複数の領域に分割する(ステップST2)。そして、位置合わせ部23が、第2の脳画像B2と第1の脳画像B1とを位置合わせする(ステップST3)。
 さらに、変化量取得部24が、位置合わせの結果に基づいて、第2の脳画像B2に含まれる脳における複数の領域のうちの少なくとも1つの領域についての、第1の脳画像B1に含まれる脳における対応する領域からの変化量を取得し(ステップST4)、さらに、第2の脳画像B2に含まれる脳における複数の領域のうちの少なくとも1つの領域についての容積変化量を算出する(ステップST5)。そして、表示制御部25が、容積変化量をディスプレイ14に表示し(ステップST6)、処理を終了する。
 このように、本実施形態においては、第2の脳画像B2は第1の脳画像B1と位置合わせされるが、第1および第2の脳画像B1,B2は同一被検体の画像であるため、第2の脳画像B2をそれほど大きく変形しなくても、第1の脳画像B1と精度よく位置合わせをすることができる。このため、第1の脳画像B1および第2の脳画像B2の双方を標準脳画像Bsと位置合わせする場合と比較して、第1の脳画像B1に含まれる脳の各領域と、第2の脳画像B2に含まれる脳の各領域との間のわずかな変化量を精度よく取得することができる。したがって、同一患者の撮影日時が異なる2つの脳画像B1,B2間の変化量、さらには容積変化量を精度よく取得することができる。
 また、ランドマークを用いた第1の位置合わせおよび第3の位置合わせを行った後に、画像間の全体の領域の位置合わせである第2の位置合わせおよび第4の位置合わせを行うことにより、ランドマークという位置を合わせやすい領域を用いて位置合わせを行った後に、さらなる位置合わせを行うこととなる。このため、第1の脳画像と標準脳画像との位置合わせ、および第1の脳画像と第2の脳画像との位置合わせを効率よく行うことができる。
 なお、上記実施形態においては、第3の位置合わせとして剛体位置合わせを行っているが、第1の脳画像B1と第2の脳画像B2において、含まれる脳のサイズが異なるものとなる場合がある。このような場合は、第3の位置合わせとして、剛体位置合わせに加えて、拡大縮小を行うようにしてもよい。
 また、上記実施形態においては、容積変化量を算出しているが、各領域の変化量のみを算出するようにしてもよい。
 また、上記実施形態においては、分割部22においてランドマークを用いた第1の位置合わせを行った後に第2の位置合わせを行っているが、第2の位置合わせ、すなわち非線形変換による位置合わせのみを行うようにしてもよい。
 また、上記実施形態においては、位置合わせ部23においてランドマークを用いた第3の位置合わせを行った後に第4の位置合わせを行っているが、第4の位置合わせ、すなわち非線形変換による位置合わせのみを行うようにしてもよい。
 また、上記実施形態においては、第2の位置合わせとして、標準脳画像Bsおよび第1の脳画像B1の全領域を用いた位置合わせを行っているが、標準脳画像Bsおよび第1の脳画像B1の一部の領域を用いた位置合わせを行うようにしてもよい。例えば、脳における個々の分割された領域のみを用いて位置合わせを行うようにしてもよい。
 また、上記実施形態においては、第4の位置合わせとして、第1の脳画像B1および第2の脳画像B2の全領域を用いた位置合わせを行っているが、第1の脳画像B1および第2の脳画像B2の一部の領域を用いた位置合わせを行うようにしてもよい。例えば、脳における個々の分割された領域のみを用いて位置合わせを行うようにしてもよい。
 また、上記実施形態においては、被検体のMRI画像を医用画像として用いているが、CT画像、PET画像等、MRI画像以外の脳画像を用いてもよい。
 以下、本実施形態の作用効果について説明する。
 第2の脳画像に含まれる脳についての複数の領域のうちの少なくとも1つの領域における容積変化量を取得することにより、各領域の容積変化量を精度よく取得することができる。
 ランドマークを用いた第1の位置合わせを行った後に、第2の位置合わせを行うことにより、ランドマークという位置を合わせやすい領域を用いて位置合わせを行った後に、さらなる位置合わせを行うこととなる。このため、第1の脳画像と標準脳画像との位置合わせを効率よく行うことができる。
 ランドマークを用いた第3の位置合わせを行った後に、第4の位置合わせを行うことにより、ランドマークという位置を合わせやすい領域を用いて位置合わせを行った後に、さらなる位置合わせを行うこととなる。このため、第1の脳画像と第2の脳画像との位置合わせを効率よく行うことができる。
   1  医用画像処理装置
   2  3次元画像撮影装置
   3  画像保管サーバ
   4  ネットワーク
   11  CPU
   12  メモリ
   13  ストレージ
   14  ディスプレイ
   15  入力部
   21  画像取得部
   22  分割部
   23  位置合わせ部
   24  変化量取得部
   25  表示制御部
   31,32  脳室
   40  領域
   41,42,43  画素
   B1  第1の脳画像
   B2  第2の脳画像
   Bs  標準脳画像
   G1,G2,G11  スライス画像
   L10,L11  ラベル
   Vm  移動ベクトル

Claims (10)

  1.  被検体の脳を含む第1の脳画像と複数の領域に分割された標準脳画像とを位置合わせすることにより、前記第1の脳画像に含まれる脳を複数の領域に分割する分割部と、
     前記第1の脳画像と撮影日時が異なる、前記被検体の脳を含む第2の脳画像と、前記第1の脳画像とを位置合わせする位置合わせ部と、
     前記第1の脳画像と前記第2の脳画像との位置合わせの結果に基づいて、前記第2の脳画像に含まれる脳における前記複数の領域のうちの少なくとも1つの領域についての、前記第1の脳画像に含まれる脳における対応する領域からの変化量を取得する変化量取得部とを備えた医用画像処理装置。
  2.  前記変化量取得部は、前記第2の脳画像に含まれる脳における前記複数の領域のうちの少なくとも1つの領域についての容積変化量を算出する請求項1に記載の医用画像処理装置。
  3.  前記容積変化量を表示部に表示する表示制御部をさらに備えた請求項2に記載の医用画像処理装置。
  4.  前記位置合わせ部は、前記第1の脳画像に含まれる脳および前記第2の脳画像に含まれる脳における対応する領域間において、対応する画素位置の移動ベクトルを前記変化量として取得する請求項1から3のいずれか1項に記載の医用画像処理装置。
  5.  前記分割部は、前記第1の脳画像および前記標準脳画像間でのランドマークを用いた第1の位置合わせを行った後に、前記第1の脳画像および前記標準脳画像間での第2の位置合わせを行う請求項1から4のいずれか1項に記載の医用画像処理装置。
  6.  前記第1の位置合わせは相似変換による位置合わせであり、前記第2の位置合わせは非線形変換による位置合わせである請求項5に記載の医用画像処理装置。
  7.  前記位置合わせ部は、前記第1の脳画像および前記第2の脳画像間でのランドマークを用いた第3の位置合わせを行った後に、前記第1の脳画像および前記第2の脳画像間での第4の位置合わせを行う請求項1から6のいずれか1項に記載の医用画像処理装置。
  8.  前記第3の位置合わせは剛体位置合わせであり、前記第4の位置合わせは非線形変換による位置合わせである請求項7に記載の医用画像処理装置。
  9.  被検体の脳を含む第1の脳画像と複数の領域に分割された標準脳画像とを位置合わせすることにより、前記第1の脳画像に含まれる脳を複数の領域に分割し、
     前記第1の脳画像と撮影日時が異なる、前記被検体の脳を含む第2の脳画像と、前記第1の脳画像とを位置合わせし、
     前記第1の脳画像と前記第2の脳画像との位置合わせの結果に基づいて、前記第2の脳画像に含まれる脳における前記複数の領域のうちの少なくとも1つの領域についての、前記第1の脳画像に含まれる脳における対応する領域からの変化量を取得する医用画像処理方法。
  10.  被検体の脳を含む第1の脳画像と複数の領域に分割された標準脳画像とを位置合わせすることにより、前記第1の脳画像に含まれる脳を複数の領域に分割する手順と、
     前記第1の脳画像と撮影日時が異なる、前記被検体の脳を含む第2の脳画像と、前記第1の脳画像とを位置合わせする手順と、
     前記第1の脳画像と前記第2の脳画像との位置合わせの結果に基づいて、前記第2の脳画像に含まれる脳における前記複数の領域のうちの少なくとも1つの領域についての、前記第1の脳画像に含まれる脳における対応する領域からの変化量を取得する手順とをコンピュータに実行させる医用画像処理プログラム。
PCT/JP2018/020310 2017-06-30 2018-05-28 医用画像処理装置、方法およびプログラム WO2019003749A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019526705A JP6788113B2 (ja) 2017-06-30 2018-05-28 医用画像処理装置、方法およびプログラム
EP18825135.9A EP3648056A4 (en) 2017-06-30 2018-05-28 MEDICAL IMAGE PROCESSING DEVICE, RELATED METHOD AND PROGRAM
US16/711,367 US11216945B2 (en) 2017-06-30 2019-12-11 Image processing for calculation of amount of change of brain

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2017129245 2017-06-30
JP2017-129245 2017-06-30
JP2017-146568 2017-07-28
JP2017146568 2017-07-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/711,367 Continuation US11216945B2 (en) 2017-06-30 2019-12-11 Image processing for calculation of amount of change of brain

Publications (1)

Publication Number Publication Date
WO2019003749A1 true WO2019003749A1 (ja) 2019-01-03

Family

ID=64741425

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/020310 WO2019003749A1 (ja) 2017-06-30 2018-05-28 医用画像処理装置、方法およびプログラム

Country Status (4)

Country Link
US (1) US11216945B2 (ja)
EP (1) EP3648056A4 (ja)
JP (1) JP6788113B2 (ja)
WO (1) WO2019003749A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022065062A1 (ja) * 2020-09-28 2022-03-31 富士フイルム株式会社 診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07239935A (ja) * 1992-09-16 1995-09-12 Yukio Kosugi 非線形画像変換装置および標準画像計算方法
US20100259263A1 (en) * 2007-11-14 2010-10-14 Dominic Holland Longitudinal registration of anatomy in magnetic resonance imaging
JP2011010828A (ja) 2009-07-01 2011-01-20 Toshiba Corp 医用画像表示装置および医用画像表示方法
JP2013165765A (ja) * 2012-02-14 2013-08-29 Toshiba Corp 画像診断支援装置及び画像診断支援方法
WO2015029135A1 (ja) * 2013-08-27 2015-03-05 株式会社日立製作所 罹患率評価装置、罹患率評価方法及び罹患率評価プログラム
JP2017023457A (ja) * 2015-07-23 2017-02-02 東芝メディカルシステムズ株式会社 医用画像処理装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8515200B2 (en) * 2004-10-29 2013-08-20 New York University System, software arrangement and method for segmenting an image
US8600135B2 (en) * 2007-06-28 2013-12-03 Mayo Foundation For Medical Education And Research System and method for automatically generating sample points from a series of medical images and identifying a significant region
WO2009003198A1 (en) * 2007-06-28 2008-12-31 Mayo Foundation For Medical Education And Research System and method for automatically detecting change in a series of medical images of a subject over time
US20130050207A1 (en) * 2011-08-24 2013-02-28 General Electric Company Method and system for navigating, segmenting, and extracting a three-dimensional image
JP6036009B2 (ja) 2012-08-28 2016-11-30 大日本印刷株式会社 医用画像処理装置、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07239935A (ja) * 1992-09-16 1995-09-12 Yukio Kosugi 非線形画像変換装置および標準画像計算方法
US20100259263A1 (en) * 2007-11-14 2010-10-14 Dominic Holland Longitudinal registration of anatomy in magnetic resonance imaging
JP2011010828A (ja) 2009-07-01 2011-01-20 Toshiba Corp 医用画像表示装置および医用画像表示方法
JP2013165765A (ja) * 2012-02-14 2013-08-29 Toshiba Corp 画像診断支援装置及び画像診断支援方法
WO2015029135A1 (ja) * 2013-08-27 2015-03-05 株式会社日立製作所 罹患率評価装置、罹患率評価方法及び罹患率評価プログラム
JP2017023457A (ja) * 2015-07-23 2017-02-02 東芝メディカルシステムズ株式会社 医用画像処理装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DOMINIC HOLLAND ET AL., PROCEEDINGS OF THE NATIONAL ACADEMY OF SCIENCES, vol. 106, no. 49, 8 December 2009 (2009-12-08), pages 20954 - 20959
DOMINIC HOLLAND ET AL., PROCEEDINGS OF THE NATIONAL ACADEMY OF SCIENCES, vol. 106, no. 49, 9 December 2009 (2009-12-09), pages 20954 - 20959
PRACTICE: IMAGE ANALYSIS HANDBOOK FOR MEDICAL SERVICE, 1 November 2012 (2012-11-01), pages 245 - 246 , 302-306, XP009518524, ISBN: 978-4-274-21282-6 *
See also references of EP3648056A4
YAKANG DAI ET AL., ALZHEIMER'S DISEASE NEUROIMAGING INITIATIVE, 3 April 2013 (2013-04-03)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022065062A1 (ja) * 2020-09-28 2022-03-31 富士フイルム株式会社 診断支援装置、診断支援装置の作動方法、診断支援装置の作動プログラム

Also Published As

Publication number Publication date
EP3648056A1 (en) 2020-05-06
US20200118267A1 (en) 2020-04-16
JP6788113B2 (ja) 2020-11-18
JPWO2019003749A1 (ja) 2020-05-21
EP3648056A4 (en) 2020-05-06
US11216945B2 (en) 2022-01-04

Similar Documents

Publication Publication Date Title
JP6036009B2 (ja) 医用画像処理装置、およびプログラム
US11158054B2 (en) Medical image processing apparatus, medical image processing method, and medical image processing program
WO2019044095A1 (ja) 医用情報表示装置、方法及びプログラム
US11257227B2 (en) Brain image normalization apparatus, brain image normalization method, and brain image normalization program
US11164296B2 (en) Medical image processing apparatus, medical image processing method, and medical image processing program
JP6945493B2 (ja) 医用画像処理装置、方法およびプログラム
KR20200116278A (ko) 치과 영상으로부터 피검체의 성별 및 연령을 판정하는 방법 및 이를 이용한 장치
US20190019304A1 (en) Medical image processing apparatus, method, and program
WO2019044081A1 (ja) 医用画像表示装置、方法及びプログラム
JP6788113B2 (ja) 医用画像処理装置、方法およびプログラム
JP7492769B2 (ja) 認知症診断に必要な情報の提供方法及び装置
US11315263B2 (en) Medical image processing apparatus, medical image processing method, and medical image processing program
WO2019044089A1 (ja) 医用情報表示装置、方法及びプログラム
US11335465B2 (en) Information output apparatus, information output method, and information output program
JP6765396B2 (ja) 医用画像処理装置、方法およびプログラム
US11424022B2 (en) Method for processing brain images
JP2021069574A (ja) Mri画像に基づく解剖学的部位の抽出装置,方法,プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18825135

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019526705

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2018825135

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2018825135

Country of ref document: EP

Effective date: 20200130