WO2022209298A1 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
WO2022209298A1
WO2022209298A1 PCT/JP2022/004602 JP2022004602W WO2022209298A1 WO 2022209298 A1 WO2022209298 A1 WO 2022209298A1 JP 2022004602 W JP2022004602 W JP 2022004602W WO 2022209298 A1 WO2022209298 A1 WO 2022209298A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
diffusion
adc
weighted
site
Prior art date
Application number
PCT/JP2022/004602
Other languages
English (en)
French (fr)
Inventor
壌 藤田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2023510581A priority Critical patent/JPWO2022209298A1/ja
Publication of WO2022209298A1 publication Critical patent/WO2022209298A1/ja
Priority to US18/460,714 priority patent/US20230410270A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/563Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution of moving material, e.g. flow contrast angiography
    • G01R33/56341Diffusion imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/546Interface between the MR system and the user, e.g. for controlling the operation of the MR system or for the design of pulse sequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/563Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution of moving material, e.g. flow contrast angiography
    • G01R33/56375Intentional motion of the sample during MR, e.g. moving table imaging
    • G01R33/56383Intentional motion of the sample during MR, e.g. moving table imaging involving motion of the sample as a whole, e.g. multistation MR or MR with continuous table motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Definitions

  • the technology of the present disclosure relates to an image processing device, an image processing method, and a program.
  • Patent Document 1 discloses an image processing device.
  • the image processing apparatus includes a reception unit, a parameter acquisition unit, a diagnostic image construction unit, and an output unit.
  • the reception unit receives the diffusion weighted image.
  • the parameter acquisition unit acquires two or more types of parameters for one or more processing units forming the diffusion weighted image.
  • the diagnostic image constructing unit obtains scores for two or more types of parameters for each of one or more processing units, and constructs a diagnostic image.
  • a diagnostic image is an image having pixel values corresponding to scores for each of one or more processing units.
  • the output unit outputs a diagnostic image.
  • Patent Document 2 discloses a magnetic resonance imaging apparatus.
  • a magnetic resonance imaging apparatus includes means for generating a diffusion-weighted image based on magnetic resonance signals emitted from a subject, and image-for-interpretation generating means for generating an image for interpretation.
  • the interpretation image is an image in which a region having a diffusion coefficient of less than a threshold value in the diffusion-weighted image is highlighted with respect to other regions.
  • Patent Document 3 discloses a magnetic resonance diagnostic apparatus.
  • a magnetic resonance diagnostic apparatus comprises imaging means, derivation means, and estimation means.
  • the imaging means captures at least two original images using at least two b values.
  • the b value is a value indicating the intensity of the gradient magnetic field during imaging by the MRI apparatus, and is determined in association with the part of the subject included in the imaging area.
  • the deriving means derives an apparent diffusion coefficient for each pixel position included in the region of interest of the at least two original images based on respective pixel values in the at least two original images.
  • the estimator estimates pixel values obtained using at least two different b-values based on the apparent diffusion coefficient. Also, at least two b values are predetermined according to a plurality of sites for pixel value estimation.
  • Patent Document 4 discloses a projection image arithmetic processing device.
  • the projection image arithmetic processing device comprises memory means, projection arithmetic processing means, and monitor means.
  • the memory means stores at least two types of medical image data obtained by photographing a subject.
  • the projection arithmetic processing means reads out at least two kinds of medical image data stored in the memory means, and performs projection arithmetic processing for projecting and displaying the medical image on the medical image data.
  • the monitor means projects and displays a medical image based on the medical image data subjected to the projection arithmetic processing by the projection arithmetic processing means.
  • the projection arithmetic processing means includes an area specifying section, a coordinate specifying section, and a projection arithmetic processing section.
  • the region specifying unit specifies a rendering region from first medical image data forming a first medical image among at least two types of medical image data.
  • the coordinate specifying unit performs the rendering specified by the first medical image data in the second medical image data constituting a second medical image different from the first medical image among the at least two types of medical image data. Identify pixels that have the same coordinates as each pixel in the region.
  • the projection arithmetic processing unit projects and displays each pixel in the rendering region in the first medical image projected and displayed on the monitor means based on the signal value of the pixel in the second medical image. Further, the projection image arithmetic processing device described in Patent Document 4 is characterized in that the first medical image is a diffusion weighted image and the second medical image is an ADC (Apparent Diffusion Coefficient) image.
  • Patent Document 5 discloses an image processing device.
  • the image processing apparatus includes an image acquisition section, a setting section, an image derivation section, and a display section.
  • the image acquisition unit acquires a first diffusion weighted image captured using a first b value.
  • the setting unit sets a second b-value and a first cutoff diffusion coefficient having a value of 0 or greater.
  • the image derivation unit uses a second b value based on the diffusion coefficient and the first diffusion weighted image in pixels where the diffusion coefficient corresponding to the pixel of the first diffusion weighted image is larger than the first cutoff diffusion coefficient. derive a virtual diffusion-weighted image of
  • the display displays a virtual diffusion weighted image.
  • JP 2015-167610 A Japanese Patent Application Laid-Open No. 2008-012172 JP 2013-255854 A JP 2020-137889 A Japanese Unexamined Patent Application Publication No. 2016-000102
  • One embodiment of the technology of the present disclosure is image processing that can obtain a highly accurate synthesized image compared to a synthesized image based on an ADC value derived from an image obtained by synthesizing diffusion weighted images of a plurality of parts.
  • An image processing method and a program are provided.
  • An image processing device includes a processor.
  • the processor obtains a site diffusion-weighted image for each of the plurality of sites, derives an ADC value for each site from the plurality of site diffusion-weighted images, and synthesizes the plurality of site diffusion-weighted images to obtain a composite diffusion-weighted image.
  • An ADC image is generated by synthesizing the ADC values of each part, and a synthesized image is generated by synthesizing the synthesized diffusion weighted image and the ADC image.
  • An image processing method includes acquiring a region diffusion-weighted image for each of a plurality of regions, deriving an ADC value of each region from the plurality of region diffusion-weighted images, Generating an ADC image by combining ADC values, generating a composite diffusion-weighted image by combining a plurality of site diffusion-weighted images, and combining the composite diffusion-weighted image and the ADC image to generate a composite image. including generating
  • a program causes a computer to obtain a site diffusion-weighted image for each of a plurality of sites, derive an ADC value of each site from the plurality of site diffusion-weighted images, generating an ADC image by synthesizing the ADC values of, generating a synthetic diffusion-weighted image by synthesizing a plurality of site diffusion-weighted images, and synthesizing and synthesizing the synthetic diffusion-weighted image and the ADC image Causes a process to be performed, including generating an image.
  • FIG. 1 is a conceptual diagram showing a schematic configuration of a medical service support device
  • FIG. 2 is a block diagram showing an example of an electrical hardware configuration of a medical service support apparatus
  • FIG. FIG. 2 is a block diagram showing an example of functions of an image processing device included in the medical service support device
  • 2 is a conceptual diagram showing an example of storage contents of a storage included in the image processing apparatus
  • FIG. FIG. 4 is a conceptual diagram showing an example of processing contents of a site ADC map generation unit
  • FIG. 11 is a conceptual diagram showing an example of processing contents of a composite diffusion-weighted image generation unit 24B
  • FIG. 11 is a conceptual diagram showing an example of processing contents of a combined ADC map generation unit 24C
  • FIG. 11 is a conceptual diagram showing an example of processing contents of a synthetic image generation unit 24D;
  • FIG. 10 is a conceptual diagram showing an example of processing contents of a threshold classification unit and processing contents of a volume calculation unit;
  • FIG. 2 is a conceptual diagram showing an example of a screen displayed on a display;
  • 7 is a flowchart showing an example of the flow of image generation output processing;
  • FIG. 10 is a conceptual diagram showing a modification of the processing contents of the threshold classifying section and the synthetic image generating section;
  • FIG. 10 is a conceptual diagram showing a modification of the screen displayed on the display;
  • 10 is a flowchart showing a modified example of the flow of image generation output processing;
  • 1 is a conceptual diagram showing a schematic configuration of a medical service support system;
  • FIG. 3 is a block diagram showing an example of a mode in which an image generation output processing program stored in a storage medium is installed in an image processing apparatus;
  • the medical service support device 10 includes an image processing device 12 , a reception device 14 and a display 16 and is used by a user 18 .
  • the user 18 includes, for example, a doctor, an engineer, and the like.
  • the medical service support apparatus 10 includes a communication I/F (Interface) 30, an external I/F 32, and a bus 34, as shown in FIG.
  • the receiving device 14 has a keyboard 20 and a mouse 22 and receives instructions from the user 18 .
  • FIG. 1 shows an example of a keyboard 20 and a mouse 22 as the reception device 14, other examples may be adopted.
  • the reception device 14 may be replaced with the keyboard 20 and/or the mouse 22, or in addition to the keyboard 20 and/or the mouse 22, a touch panel and/or a tablet or the like may be used.
  • Touch panels and tablets accept proximity input.
  • At least one of the keyboard 20, mouse 22, touch panel, tablet, voice input device, imaging device, and sensor may be used as the reception device 14.
  • the voice input device accepts voice input.
  • the imaging device accepts gesture input.
  • the reception device 14 is connected to the image processing device 12 .
  • the connection between the reception device 14 and the image processing device 12 may be wired or wireless.
  • the display 16 displays various information (eg, images, characters, etc.) under the control of the image processing device 12 .
  • the display 16 is, for example, an EL (Electro-Luminescence) display or a liquid crystal display.
  • a display 16 is also connected to the image processing device 12 .
  • Communication I/F Communication I/F 30 is connected to a network.
  • the network may be composed of at least one of, for example, a LAN (Local Area Network) and a WAN (Wide Area Network).
  • An external device or the like (not shown) is connected to the network, and the communication I/F 30 controls transmission and reception of information with the external communication device via the network.
  • the external communication device may include, for example, at least one of an MRI (Magnetic Resonance Imaging) device, a personal computer, a smart device, and the like.
  • the communication I/F 30 transmits information in response to a request from the processor 24, which will be described later, to the external communication device via the network.
  • Communication I/F 30 also receives information transmitted from an external communication device, and outputs the received information to processor 24 via bus 34, which will be described later.
  • the external I/F 32 controls exchange of various information between the medical service support apparatus 10 and an external apparatus (not shown).
  • the external device may be, for example, at least one of a smart device, a personal computer, a server, a USB (Universal Serial Bus) memory, a memory card, a printer, and the like.
  • An example of the external I/F 32 is a USB interface.
  • An external device is directly or indirectly connected to the USB interface.
  • Bus The bus 34 is a dedicated communication path for exchanging data, control information, etc. inside the medical service support apparatus 10 .
  • a communication I/F 30 and an external I/F 32 Connected to the bus 34 are a communication I/F 30 and an external I/F 32, as well as a processor 24, a storage 26, and a RAM 28 of the image processing apparatus 12, which will be described later.
  • the image processing device 12 is an example of a “computer” according to the technology of the present disclosure.
  • the image processing device 12 includes a processor 24 , a storage 26 and a random access memory (RAM) 28 .
  • RAM random access memory
  • the processor 24 has, for example, a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit).
  • the GPU operates under the control of the CPU and is responsible for executing processing on images.
  • the image-related processing includes, for example, image generation output processing (see FIGS. 3 and 11), which will be described later.
  • a memory is connected to the processor 24 .
  • the memory includes storage 26 and RAM 28 .
  • the storage 26 is a non-volatile storage device that stores various programs, various parameters, and the like. Examples of the storage 26 include HDDs (Hard Disk Drives) and SSDs (Solid State Drives). Note that the storage 26 is not limited to HDDs and SSDs, and at least one of HDDs, SSDs, flash memories, magnetoresistive memories, and ferroelectric memories may be used as the storages 26 .
  • the RAM 28 is a memory that temporarily stores information, and is used by the processor 24 as a work memory. Examples of the RAM 28 include DRAM (Dynamic Random Access Memory) and SRAM (Static Random Access Memory).
  • a method using PET (Positron Emission Tomography)-CT (Computed Tomography) is known as a general method for evaluating the distribution of tumors over the whole body of a human body, which is a subject.
  • DWIBS diffusion weighted whole body imaging with background body signal suppression
  • the DWIBS method focuses on the fact that the cell density of abnormal tissues such as malignant tumors (hereinafter also referred to as "lesions”) is higher than that of normal tissues. It is a method of detecting a part.
  • the DWIBS method uses an ADC map to assess tissue health.
  • the ADC map is an image of ADC (Apparent Diffusion Coefficient) values.
  • Whole body ADC values are calculated from whole body diffusion weighted images.
  • a diffusion-weighted image of the whole body is obtained by imaging with an MRI apparatus.
  • a diffusion-weighted image is an image in which the degree of microscopic irregular motion (for example, Brownian motion) of water molecules is indicated by a signal value.
  • the signal value of the diffusion-weighted image is lower as the degree of motion of water molecules is greater.
  • signal values indicating lesions are higher than those of normal tissue.
  • restriction of random motion of water molecules ie diffusion restriction, also results in signal values as high as those indicative of lesions. Therefore, in the DWIBS method, an ADC map is used to distinguish whether the signal value indicates a lesion or the signal value due to diffusion limitation.
  • the ADC map is an image showing ADC values calculated for each pixel from a plurality of diffusion weighted images. A plurality of diffusion-weighted images are obtained by applying gradient magnetic fields with different intensities in the MRI apparatus. The ADC value is calculated according to Equation (1) below.
  • ADC value ln(S1/S2)/(b2-b1) (1)
  • b1 and b2 are b values.
  • the b value is a value that indicates the strength of the gradient magnetic field during imaging by the MRI apparatus.
  • b2 is a b value larger than b1.
  • S1 is the signal value obtained when the gradient magnetic field of b1 is applied.
  • S2 is the signal value obtained when the gradient magnetic field of b2 is applied.
  • the DWIBS method will replace PET-CT as a general method for evaluating the distribution of lesions over the whole body in the future. This is because both the PET-CT and DWIBS methods can evaluate the distribution of lesions over the whole body, but compared to PET-CT, the DWIBS method has the advantages of "short imaging time", “no radiation exposure”, and "dietary restriction”. This is because there are many advantages such as "no injection” and "no test drug injection”.
  • multiple regions such as the chest, abdomen, and waist are imaged by an MRI device. Furthermore, one whole-body diffusion-weighted image is generated from the diffusion-weighted images obtained for each of the plurality of sites. That is, a whole-body diffusion-weighted image including a plurality of regions is generated by synthesizing a plurality of region diffusion-weighted images.
  • a part is a predetermined part of the subject. In this embodiment, one site and another site are adjacent. That is, the plurality of parts are continuous parts and constitute a predetermined area in the subject.
  • a diffusion-weighted image of multiple sites is also called a diffusion-weighted image of multiple phases. Conventional methods calculate ADC values from whole body diffusion weighted images.
  • a superimposed image in which the ADC map based on the calculated ADC values and the whole-body diffusion-weighted image are superimposed is displayed on the display.
  • the position and signal value of the lesion are visualized by classifying the ADC values with at least one threshold.
  • Causes on the modality side include, for example, differences in contrast between regions in diffusion-weighted images obtained by imaging multiple regions with an MRI device.
  • a specific organ for example, the heart
  • an area including the specific organ and organs around the specific organ for example, lungs
  • the specific organ can be imaged, but in the latter case, the signal value of the specific organ is affected by the signal values of organs surrounding the specific organ.
  • the spliced portion (that is, the boundary portion between the plurality of diffusion-weighted images) may become unnatural.
  • the spliced portion may become unnatural.
  • the chest diffusion-weighted image and the abdominal diffusion-weighted image There will be image regions showing heart tissue in both. Nevertheless, the signal values near the border of the chest diffusion-weighted image and the abdominal diffusion-weighted image are different, and the optimal contrast is also different.
  • the signal values are converted so that the images in the boundary regions between the multiple site diffusion-weighted images do not look unnatural. That is, when synthesizing site diffusion-weighted images of the same object with different signal values for each site, signal value conversion is performed in order to uniform the contrast of the site diffusion-weighted images for each site.
  • the processor 24 performs image generation output processing as described later (see FIG. 11).
  • the image generation output processing is processing for generating and outputting a composite image 52, which will be described later.
  • the image generation output processing is performed using an image generation output processing program.
  • the image generation output processing program is stored in the storage 26 .
  • the processor 24 reads the image generation output processing program 36 from the storage 26 and executes the read image generation output processing program 36 on the RAM 28 to perform image generation output processing.
  • the processor 24 performs the site ADC map generation unit 24A, the composite diffusion weighted image generation unit 24B, the composite ADC map generation unit 24C, the composite image generation unit 24D, and the threshold classification unit 24E according to the image generation output processing program 36. , the volume calculator 24F, and the display controller 24G.
  • the storage 26 stores diffusion-weighted images 38 of a plurality of parts in units of series.
  • the diffusion-weighted image 38 is obtained by imaging the human body as an imaging target for each b value obtained by changing the gradient magnetic field during imaging by the MRI apparatus.
  • a series means that each of a plurality of parts is imaged at a predetermined frame rate (e.g., 30 frames/second) under the same imaging conditions while maintaining the position and posture of the person to be imaged.
  • first diffusion-weighted image (first region diffusion-weighted image) 40 and a second diffusion-weighted image (second region diffusion-weighted image) are used as the diffusion-weighted images 38 of the regions included in the subject. ) 42 are shown stored in the storage 26 .
  • the first diffusion-weighted image 40 and the second diffusion-weighted image 42 differ in strength of the gradient magnetic field during imaging by the MRI apparatus.
  • the first diffusion weighted image 40 is classified into a plurality of parts.
  • the second diffusion weighted image 42 is also classified into a plurality of parts. In the example shown in FIG.
  • the storage 26 stores a series of chest diffusion-weighted images 40A, a series of abdominal diffusion-weighted images 40B, a series of lumbar diffusion-weighted images 40C, a series of chest diffusion-weighted images 42A, a series of abdominal diffusion-weighted images 42B, and a series of lumbar diffusion-weighted images.
  • a series of enhanced images 42C are stored.
  • the site ADC map generator 24A calculates ADC values based on diffusion-weighted images (site diffusion-weighted images) for each of a plurality of sites included in the subject. Further, the part ADC map generator 24A generates a part ADC map based on the ADC values.
  • the region ADC map 44 includes a chest ADC map 44A, an abdomen ADC map 44B, and a waist ADC map 44C. Specifically, as shown in FIG. 5 as an example, the site ADC map generator 24A acquires a plurality of site diffusion-weighted images from the storage 26 .
  • the multiple site diffusion-weighted images include site diffusion-weighted images captured with different b-values.
  • the region ADC map generator 24A acquires diffusion weighted images with different b values for the chest, abdomen, and waist.
  • the site ADC map generation unit 24A generates a first diffusion-weighted image (first site diffusion-weighted image) and a second diffusion-weighted image (second site diffusion-weighted image) for each of the plurality of sites, based on Derive the ADC value.
  • the site ADC map generator 24A calculates ADC values between the first b-value diffusion-weighted image and the second b-value diffusion-weighted image for each of the chest, abdomen, and waist. .
  • the site ADC map generator 24A generates ADC values for a plurality of chest diffusion-weighted images 40A and 42A, ADC values for a plurality of abdominal diffusion-weighted images 40B and 42B, and ADC values for lumbar diffusion-weighted images 40C and 42C. are calculated respectively.
  • part ADC map generator 24A generates part ADC map 44 based on the calculated ADC values.
  • the region ADC map 44 is classified into a chest ADC map 44A, an abdomen ADC map 44B, and a waist ADC map 44C. Specifically, the region ADC map generator 24A generates a chest ADC map 44A based on the ADC values of the chest diffusion weighted images 40A and 42A.
  • the site ADC map generator 24A generates an abdominal ADC map 44B based on the ADC values of the abdominal diffusion weighted images 40B and 42B. Further, the part ADC map generator 24A generates a waist ADC map 44C based on the ADC values of the waist diffusion weighted images 40C and 42C.
  • the region ADC map generation unit 24A acquires a plurality of chest diffusion weighted images 40A and 42A with different b values from the storage 26 in units of series. Then, the site ADC map generation unit 24A calculates the ADC value for each frame from the first frame to the last frame of the series of chest diffusion weighted images 40A and 42A acquired from the storage 26 . After that, the part ADC map generator 24A maps the calculated ADC values for each frame. Thus, the region ADC map generator 24A generates the chest ADC map 44A in units of series.
  • the site ADC map generation unit 24A acquires a plurality of abdominal diffusion weighted images 40B and 42B with different b values from the storage 26 in units of series. Then, the site ADC map generation unit 24A calculates the ADC value for each frame from the first frame to the last frame for the series of abdominal diffusion weighted images 40B and 42B acquired from the storage 26 . After that, the part ADC map generator 24A maps the calculated ADC values for each frame. In this manner, the site ADC map generator 24A generates the abdominal ADC map 44B in units of series.
  • the site ADC map generator 24A acquires a plurality of waist diffusion weighted images 40C and 42C with different b values from the storage 26 in units of series. Then, the site ADC map generator 24A calculates the ADC value for each frame instead of the first frame to the last frame for the series of waist diffusion weighted images 40C and 42C acquired from the storage 26 . After that, the part ADC map generator 24A maps the calculated ADC values for each frame. In this manner, the part ADC map generation unit 24A generates the waist ADC map 44C for each series.
  • the site ADC map generation unit 24A has described as an example a form in which the ADC value is calculated for each frame from the first frame to the last frame of the diffusion weighted image of each site, but the technology of the present disclosure is , but not limited to.
  • the ADC value of the representative frame may be calculated every several frames. More specifically, a frame obtained by thinning at intervals of several frames, a frame averaged over several frames, or the like may be used as a representative frame, and the ADC value of the representative frame may be calculated.
  • Calculating the ADC value is an example of “deriving the ADC value” according to the technology of the present disclosure, and the calculation of the ADC value is realized, for example, by using Equation (1) described above. .
  • calculation of the ADC value using equation (1) is merely an example.
  • an ADC value may be derived using an ADC value derivation table (not shown) that inputs b1, b2, S1, and S2 included in equation (1) and outputs an ADC value.
  • the synthetic diffusion-weighted image generation unit 24B synthesizes site diffusion-weighted images of a plurality of sites to generate a synthetic diffusion-weighted image.
  • the composite diffusion-weighted image generation unit 24B synthesizes a series of region diffusion-weighted images for all regions included in the subject, and generates a composite diffusion-weighted image that is a diffusion-weighted image of the entire subject.
  • the synthetic diffusion-weighted image generating unit 24B generates a synthetic diffusion-weighted image by synthesizing the partial diffusion-weighted images having the same intensity of the gradient magnetic field at the time of imaging.
  • the synthesized diffusion-weighted image is a diffusion-weighted image of the entire subject obtained by synthesizing a series of region diffusion-weighted images of a plurality of regions for each b value.
  • the synthesized diffusion-weighted images include a first synthesized diffusion-weighted image 46 and a second synthesized diffusion-weighted image 48 .
  • the specified one of the first synthetic diffusion-weighted image 46 and the second synthetic diffusion-weighted image 48 is synthesized by a synthetic ADC map generation unit 24C, which will be described later, into a synthetic ADC map 50 (see FIGS. 6 and 8).
  • the composite diffusion-weighted image generator 24B acquires a plurality of region diffusion-weighted images with different b values for the chest, abdomen, and waist. Further, the synthetic diffusion-weighted image generator 24B synthesizes a plurality of region diffusion-weighted images for each b value.
  • the composite diffusion-weighted image generator 24B acquires from the storage 26 a series of chest diffusion-weighted images 40A, a series of abdominal diffusion-weighted images 40B, and a series of waist diffusion-weighted images 40C.
  • the composite diffusion-weighted image generator 24B composites the chest diffusion-weighted image 40A, abdominal diffusion-weighted image 40B, and waist diffusion-weighted image 40C of the same series frame by frame from the first frame to the last frame.
  • the synthetic diffusion-weighted image generation unit 24B generates the first synthetic diffusion-weighted image 46 for each series.
  • the combined diffusion-weighted image generator 24B acquires from the storage 26 a series of chest diffusion-weighted images 42A, a series of abdominal diffusion-weighted images 42B, and a series of waist diffusion-weighted images 42C.
  • the composite diffusion-weighted image generator 24B composites the chest diffusion-weighted image 42A, abdominal diffusion-weighted image 42B, and waist diffusion-weighted image 42C of the same series frame by frame from the first frame to the last frame.
  • the synthetic diffusion-weighted image generation unit 24B generates the second synthetic diffusion-weighted image 48 for each series.
  • the synthetic ADC map generator 24C synthesizes a plurality of site ADC maps 44 (44A, 44B, 44C) to generate a synthetic ADC map 50.
  • the synthetic ADC map generation unit 24C generates the synthetic ADC map 50 for all parts included in the subject based on the plurality of part ADC maps 44 .
  • the combined ADC map generator 24C combines the ADC values obtained from each site ADC map 44 to generate a combined ADC map.
  • the synthesized ADC map generation unit 24C synthesizes the series of the chest ADC map 44A, the abdomen ADC map 44B, and the waist ADC map 44C for each frame from the first frame to the last frame, thereby generating a series Generate a unitary composite ADC map 50 . That is, the chest ADC map 44A, the abdomen ADC map 44B, and the waist ADC map 44C, which are obtained by mapping the ADC values of the chest, abdomen, and waist, are synthesized by the synthesis ADC map generation unit 24C. , a synthesized ADC map 50 is generated.
  • the synthesized ADC map 50 is an example of the "ADC image" according to the technology of the present disclosure.
  • the synthetic image generation unit 24D generates a synthetic image 52 by synthesizing the synthetic diffusion weighted image and the synthetic ADC map 50 .
  • the synthetic image generation unit 24D generates one of the specified synthetic diffusion-weighted image of the first synthetic diffusion-weighted image 46 and the second synthetic diffusion-weighted image 48, and the synthetic ADC map. 50 to generate a composite image 52 .
  • the synthesized diffusion-weighted image to be synthesized with the synthesized ADC map 50 is the specified one of the first synthesized diffusion-weighted image 46 and the second synthesized diffusion-weighted image 48 .
  • one of the specified series of synthetic diffusion-weighted images and the series of synthetic ADC maps 50 are synthesized frame by frame from the first frame to the last frame, thereby producing a synthetic image 52 for each series. is generated.
  • the synthesized diffusion-weighted image synthesized into the synthesized ADC map 50 is, for example, the first synthesized diffusion-weighted image 46 and the A second synthetic diffusion weighted image 48 is selected.
  • the synthetic image generation unit 24D generates a synthetic image 52 by synthesizing the synthetic diffusion weighted image and the synthetic ADC map of the same series.
  • An example of the synthesized image 52 is an image obtained by superimposing the synthesized diffusion weighted image and the synthesized ADC map 50.
  • the superimposition of the synthesized diffusion-weighted image and the synthesized ADC map 50 is performed in units of series. That is, the series of synthetic diffusion-weighted images and the series of synthetic ADC maps 50 are superimposed frame by frame from the first frame to the last frame, thereby realizing the superimposition of the synthetic diffusion-weighted images and the synthetic ADC map 50 in units of series. be done.
  • a method for superimposing two images includes alpha blending.
  • the transparency of the superimposed image is changed by changing the alpha value.
  • the alpha value may be a fixed value, or a variable value that is changed according to an instruction received by the reception device 14 (see FIG. 2) or various conditions (for example, imaging conditions).
  • Another example of the composite image 52 is an image in which the composite diffusion-weighted image and the composite ADC map 50 are integrated by embedding the composite ADC map 50 in the composite diffusion-weighted image.
  • the threshold classification unit 24E classifies the signal values of the synthesized ADC map 50 and enables heat mapping of the synthesized ADC map 50.
  • FIG. the signal values of the synthesized ADC map 50 are assumed to be ADC values. ADC values are also referred to as "signal values”.
  • the threshold classification unit 24E acquires the synthesized ADC map 50 included in the synthesized image 52.
  • FIG. The threshold classification unit 24E classifies the signal values of the combined ADC map 50 by threshold as shown in FIG. A plurality of thresholds are set within a specified numerical range. Although the numerical range is variable in this embodiment, the numerical range may be a constant range.
  • a plurality of thresholds are set in the numerical range, but the number of thresholds may be one. Also, the number of thresholds may be fixed or variable. When at least one of the numerical range and the number of thresholds is variable, the numerical range or the threshold is changed according to, for example, instructions received by the receiving device 14 (see FIG. 2) or various conditions (eg, imaging conditions). be done.
  • the threshold classification unit 24E classifies the signal values of the combined ADC map 50 with a plurality of thresholds. Specifically, the threshold classifier 24E classifies the ADC values using four thresholds: a first threshold, a second threshold, a third threshold, and a fourth threshold. More specifically, the threshold classification unit 24E classifies the signal values of the combined ADC map 50 into a plurality of threshold ranges set with a plurality of thresholds. The threshold classification unit 24E has a range of less than the first threshold, a range of the first threshold to less than the second threshold, a range of the second threshold to less than the third threshold, a range of the third threshold to less than the fourth threshold, and a fourth threshold.
  • the ADC values are classified into the above ranges. Further, the threshold classification unit 24E assigns a color according to the threshold range in which the ADC values are classified in the synthesized ADC map 50 included in the synthesized image 52 . Specifically, yellow is set in the range of the first threshold value or more and less than the second threshold value. Orange is set in the range from the second threshold value to less than the third threshold value. A scarlet color is set in the range from the third threshold value to less than the fourth threshold value. The range above the fourth threshold is colored red. No color is set in the range below the first threshold. Accordingly, the threshold classification unit 24E does not add color to pixels in a range in which the ADC value is less than the first threshold.
  • the threshold classifying unit 24E colors pixels whose ADC values are in the range of the first threshold to less than the second threshold in yellow, and colors pixels whose ADC values are in the range of the second threshold to less than the third threshold in orange. , pixels whose ADC values are in the range from the third threshold to less than the fourth threshold are colored in scarlet, and pixels whose ADC values are in the range of the fourth threshold or more are colored in red.
  • the synthesized ADC map 50 included in the synthesized image 52 is heatmapped.
  • a heat-mapped composite ADC map 50 is an example of a “classification result image” according to the technology of the present disclosure, and indicates the result of classifying signal values using thresholds.
  • the volume calculator 24F calculates a volume in the real space (real space volume) using information of the three-dimensional image region obtained based on the signal values classified into a plurality of threshold ranges. In other words, the volume calculator 24F calculates the real space volume corresponding to the three-dimensional image region obtained from the series of synthetic ADC maps 50. FIG. A three-dimensional image region is obtained based on the signal value information classified by the first, second, third and fourth thresholds. The volume calculator 24F converts the volume of the three-dimensional image region into the real space volume using a predetermined arithmetic expression or table.
  • the real space volume calculated by the volume calculator 24F includes a first real space volume, a second real space volume, a third real space volume, and a fourth real space volume.
  • the first real space volume is a real space volume corresponding to a three-dimensional image region in which pixels exhibiting signal values classified into a range of not less than the first threshold and less than the second threshold are distributed among the series of the synthesized ADC map 50.
  • the three-dimensional image area of the first real space volume is, for example, an area of pixels in which the signal values are distributed in the range of the first threshold value or more and less than the second threshold value through the series of the synthesized ADC map 50, and the synthesized ADC It is the area where the pixels colored yellow in the series of maps 50 are distributed.
  • the second real space volume is a real space volume corresponding to a three-dimensional image region in which pixels exhibiting signal values classified in the range of the second threshold or more and less than the third threshold are distributed among the series of the synthesized ADC map 50.
  • the three-dimensional image area of the second real space volume is, for example, an area of pixels in which the signal values are distributed in a range of the second threshold or more and less than the third threshold through the series of the synthesized ADC map 50, and the synthesized ADC It is the area where the pixels colored orange in the series of the map 50 are distributed.
  • the third real space volume is a real space volume corresponding to a three-dimensional image region in which pixels exhibiting signal values classified into the range of the third threshold or more and less than the fourth threshold are distributed among the series of the synthesized ADC map 50.
  • the three-dimensional image area of the third real space volume is, for example, an area of pixels in which the signal values are distributed in a range of the third threshold or more and less than the fourth threshold through the series of the synthesized ADC map 50, and the synthesized ADC It is the area where the pixels marked with scarlet in the series of the map 50 are distributed.
  • the fourth real space volume is a real space volume corresponding to a three-dimensional image area in which pixels exhibiting signal values classified into a range equal to or greater than the fourth threshold are distributed among the series of the synthesized ADC map 50 .
  • the three-dimensional image area of the fourth real space volume is, for example, an area of pixels in which signal values are distributed in a range equal to or greater than the fourth threshold through the series of the synthesized ADC map 50, and the series of the synthesized ADC map 50 This is the area in which the pixels colored red are distributed.
  • the volume calculation unit 24F calculates the sum of all real space volumes. Specifically, the volume calculator 24F calculates the total volume, which is the sum of the first real space volume, the second real space volume, the third real space volume, and the fourth real space volume.
  • the display control unit 24G displays a screen 54 on the display 16 by performing GUI (Graphical User Interface) control according to the instruction accepted by the accepting device 14.
  • GUI Graphic User Interface
  • FIG. The display control unit 24G outputs the screen data 56 to the display 16.
  • FIG. The screen data 56 is data for displaying the composite image 52 on the display 16 .
  • the screen data 56 is an example of "data" according to the technology of the present disclosure.
  • the screen data 56 is data representing the screen 54.
  • the display control unit 24 ⁇ /b>G inputs screen data 56 to the display 16 .
  • the screen 54 based on the screen data 56 is displayed on the display 16 .
  • Screen 54 includes composite image 52 .
  • Composite image 52 includes heat-mapped composite ADC map 50 .
  • the screen 54 also includes a legend 54A, a volume display area 54B, a setting panel 54C, and the like.
  • the display control unit 24G changes the content of the screen data 56 according to the instruction received by the receiving device 14.
  • the composite image 52 is displayed on the display 16 in units of series.
  • the display 16 displays the synthesized image 52 as a moving image.
  • the display 16 sequentially displays a series of composite images 52 from the first frame to the last frame at a predetermined frame rate (eg, 30 frames/second).
  • the screen 54 also includes the display 16 with a legend 54A, a volume display area 54B, and a setting panel 54C.
  • a legend 54A indicates the meaning of the colors assigned to the composite image 52.
  • FIG. 10 a legend 54A indicates that pixels corresponding to signal values classified in the range of the first threshold or more and less than the second threshold in the heat-mapped synthetic ADC map 50 included in the synthetic image 52 are yellow.
  • pixels corresponding to signal values classified into the range of the second threshold or more but less than the third threshold are colored orange
  • pixels corresponding to signal values classified into the range of the third threshold or more but less than the fourth threshold are colored in scarlet, and pixels corresponding to signal values classified into the range equal to or greater than the fourth threshold are colored in red.
  • the volume display area 54B displays the result of calculation by the volume calculator 24F (see FIG. 9). In the example shown in FIG. 10, the volume display area 54B displays the first real space volume, the second real space volume, the third real space volume, the fourth real space volume, and the total volume. .
  • the setting panel 54C is a panel that accepts instructions for changing various setting parameters.
  • Various setting parameters are received through operations on the receiving device 14 .
  • Various setting parameters include, for example, a first threshold, a second threshold, a third threshold, a fourth threshold, a numerical range, a color corresponding to the threshold range, and/or the number of thresholds set within the numerical range. mentioned.
  • the color corresponding to the threshold range means the color applied to pixels having signal values classified into a plurality of threshold ranges, as described above.
  • the output destination of the screen data 56 may be the storage 26 or an external device connected to a network (not shown). External devices are, for example, personal computers, servers, and/or printers. Moreover, the output destination of the screen data 56 may be a memory (for example, a USB memory) connected to the external I/F 32 or a printer connected to the external I/F 32 .
  • FIG. 11 shows an example of the flow of image generation output processing performed by the processor 24 .
  • the flow of image generation output processing shown in FIG. 11 is an example of the “image processing method” according to the technology of the present disclosure.
  • the storage 26 stores a site diffusion weighted image of at least one site.
  • step ST10 the region ADC map generation unit 24A acquires a non-acquired region diffusion weighted image from the storage .
  • step ST12 the image generation output process proceeds to step ST12.
  • step ST12 the site ADC map generation unit 24A determines whether or not the number of frames in the series of site diffusion-weighted images that have been acquired at this time is plural. In step ST12, when the number of frames in the series of the acquired region diffusion weighted images at present is single, the image generation output processing proceeds to step ST10. In step ST12, if the number of frames in the series of region diffusion-weighted images that have been acquired at present is plural, the image generation output process proceeds to step ST14.
  • step ST14 the site ADC map generation unit 24A determines whether or not there are a plurality of types of b-values related to the site diffusion-weighted images that have been acquired at this time. In step ST14, if the number of types of b-values relating to the currently acquired site diffusion weighted image is single, the image generation output process proceeds to step ST10. In step ST14, if there are a plurality of types of b-values related to the region diffusion weighted images that have been acquired at present, the image generation output process proceeds to step ST16.
  • step ST16 the site ADC map generation unit 24A determines whether or not there are multiple types of sites related to the site diffusion weighted images that have been acquired at this time. In step ST16, if the number of types of parts related to the acquired part diffusion weighted image at present is single, the image generation output process proceeds to step ST30. In step ST16, if there are a plurality of types of parts related to the part diffusion weighted images that have been acquired at present, the image generation output process proceeds to step ST18.
  • the site ADC map generation unit 24A calculates an ADC value from each frame of the series of each site diffusion weighted image that has already been acquired, and maps the calculated ADC value to each frame of the series to create a site ADC map 44. (see Figure 5). Specifically, as shown in FIG. 5, the site ADC map generator 24A calculates ADC values using site diffusion weighted images for a plurality of different b values. Further, the site ADC map generation unit 24A maps the obtained ADC values for each frame to generate a site ADC map 44 for each series.
  • the region ADC map generator 24A generates a chest ADC map 44A based on the obtained ADC values.
  • the site ADC map generator 24A generates an abdominal ADC map 44B based on the obtained ADC values.
  • the part ADC map generator 24A generates a waist ADC map 44C based on the obtained ADC values.
  • the chest ADC map 44A, the abdomen ADC map 44B, and the waist ADC map 44C are generated in series as the site ADC maps 44 (see FIG. 5).
  • the image generation output process proceeds to step ST22.
  • the synthesized ADC map generation unit 24C generates a series of synthesized ADC maps 50 by synthesizing the series of a plurality of site ADC maps 44 generated at step ST20 (see FIG. 7).
  • a series of images in which the chest ADC map 44A, the abdomen ADC map 44B, and the waist ADC map 44C are connected in series is generated as the series of the composite ADC map 50 (see FIG. 7).
  • the synthetic ADC map generator 24C synthesizes the chest ADC map 44A, abdominal ADC map 44B, and waist ADC map 44C of the same series to generate the synthetic ADC map 50 including all parts of the subject.
  • the image generation output process proceeds to step ST26.
  • the synthetic image generation unit 24D synthesizes the synthetic diffusion weighted image and the synthetic ADC map 50 to generate a synthetic image 52 (see FIG. 8). Specifically, the synthetic image generation unit 24D generates one of the designated series of synthetic diffusion-weighted images from the series of the first synthetic diffusion-weighted images 46 and the series of the second synthetic diffusion-weighted images 48, and the synthetic ADC The series of maps 50 are combined to generate a series of composite images 52 . Synthesis of the series of synthetic diffusion-weighted images and the series of synthetic ADC maps 50 is realized, for example, by superimposing the series of synthetic ADC maps 50 on the series of synthetic diffusion-weighted images for each frame. After the process of step ST26 is executed, the image generation output process proceeds to step ST28.
  • the threshold classification unit 24E classifies the signal values of the synthesized ADC map 50 by thresholds and performs color coding. Specifically, the threshold classification unit 24E acquires the series of the synthetic ADC maps 50 that form the synthetic image 52, and classifies the signal values of each frame of the series of the acquired synthetic ADC maps 50 with the first to fourth thresholds. . Then, the threshold classification unit 24E assigns a color determined according to the signal value to pixels having signal values classified by the first to fourth thresholds in each frame of the series of the synthesized ADC map 50 (see FIG. 9). reference). In other words, the threshold classification unit 24E colors the target pixel based on the threshold range into which the ADC values are classified and the color set in the threshold range.
  • step ST28 the volume calculator 24F calculates the first to fourth real space volumes. Furthermore, the volume calculator 24F calculates the total volume of the first to fourth real space volumes. That is, the volume calculator 24F calculates the real space volume corresponding to the colored three-dimensional image region in the series of the composite ADC map 50. FIG. After the process of step ST28 is executed, the image generation output process proceeds to step ST38.
  • step ST32 image generation output processing is performed when the obtained region diffusion-weighted image is a region diffusion-weighted image of one region. Therefore, the process is basically the same as the process in step ST20, except that there is only one local diffusion-weighted image to be processed. That is, in step ST32, the site ADC map generation unit 24A calculates an ADC value from each frame of the acquired site diffusion weighted image series, and maps the calculated ADC value for each frame of the series. Thereby, the part ADC map generation unit 24A generates the part ADC map 44 for each series. In this step ST32, for example, one of the chest ADC map 44A, abdomen ADC map 44B, and waist ADC map 44C is generated as the site ADC map 44 in units of series. After the process of step ST32 is executed, the image generation output process proceeds to step ST34.
  • an image generation output process is performed when the obtained region diffusion-weighted image is a region diffusion-weighted image of one region.
  • the composite image generation unit 24D synthesizes the region diffusion weighted image and the region ADC map for one region to generate a region composite image. For example, when the acquired region diffusion-weighted image is the chest diffusion-weighted image 40A, the composite image generator 24D synthesizes the chest diffusion-weighted image 40A and the chest ADC map 44A. Further, when the acquired region diffusion-weighted image is the abdominal diffusion-weighted image 40B, the composite image generator 24D synthesizes the abdominal diffusion-weighted image 40B and the abdominal ADC map 44B.
  • the composite image generator 24D synthesizes the waist diffusion-weighted image 40C and the waist ADC map 44C. That is, the synthetic image generation unit 24D synthesizes the series of the acquired site diffusion weighted images and the series of the site ADC map 44 generated in step ST32, so that the site synthesis, which is a series of synthetic images related to one site, is performed. Generate a series of images (not shown). After the process of step ST34 is executed, the image generation output process proceeds to step ST36.
  • step ST36 an image generation output process is performed when the obtained region diffusion-weighted image is a region diffusion-weighted image of one region.
  • the threshold classification unit 24E acquires the series of the site ADC maps 44 that constitute the site composite image, and classifies the signal values of each frame of the acquired series of the site ADC maps 44 into the first to fourth Classify by threshold. After that, the threshold classification unit 24E assigns a color determined according to the signal value to the pixels having the signal values classified by the first to fourth thresholds in each frame of the series of the site ADC map 44.
  • the threshold classification unit 24E assigns the color set for the threshold range in which the ADC values are classified to the pixels indicating the ADC values obtained in the site ADC map 44 .
  • the volume calculator 24F calculates the first to fourth real space volumes. Furthermore, the volume calculator 24F calculates the total volume of the first to fourth real space volumes. The volume calculator 24F calculates the real space volume corresponding to the colored three-dimensional image region in the series of the site ADC map 44 .
  • step ST38 the display control section 24G generates the screen data 56 and outputs it to the display 16 (see FIG. 10). If step ST38 is executed after the process of step ST28, the series of composite images 52 are included in the screen data 56 in step ST38. Moreover, when step ST38 is executed after step ST36, in step ST38, the screen data 56 includes a series of site composite images. When the screen data 56 is output to the display 16, the display 16 displays the screen 54 or a partially synthesized image screen (not shown). The partially synthesized image screen differs from the screen 54 in that a series of site synthesized images is displayed instead of the synthesized image 52 . After the process of step ST38 is executed, the image generation output process shown in FIG. 11 ends.
  • ADC values are calculated from a plurality of region diffusion weighted images, and the ADC values are mapped to generate a plurality of region ADC maps 44. . Further, the medical service support apparatus 10 synthesizes a plurality of region diffusion-weighted images to generate a composite diffusion-weighted image. Furthermore, the medical service support apparatus 10 generates a synthetic ADC map 50 by synthesizing a plurality of site ADC maps 44 . Further, the medical service support apparatus 10 generates a synthetic image 52 by synthesizing the synthetic diffusion weighted image and the synthetic ADC map 50 .
  • a conventional medical work support device synthesizes site diffusion-weighted images of a plurality of sites to generate a synthetic diffusion-weighted image including site diffusion-weighted images of all sites, and then calculates an ADC value based on the synthetic diffusion-weighted image. Then, an ADC map is generated based on the ADC values.
  • the medical service support apparatus 10 calculates an ADC value from each of a plurality of region diffusion weighted images, and generates a plurality of region ADC maps 44 using the ADC values. Further, the medical service support apparatus 10 synthesizes a plurality of site ADC maps 44 to generate a synthesized ADC map 50 .
  • the medical service support apparatus 10 synthesizes the partial diffusion-weighted images to generate a synthetic diffusion-weighted image, and then synthesizes the synthetic ADC map 50 and the synthetic diffusion-weighted image. Therefore, in the conventional medical service support device, when synthesizing a plurality of region diffusion-weighted images, the signal value (for example, ADC value) of the portion where the region diffusion-weighted images are joined is converted. Therefore, an ADC map obtained by a conventional medical service support apparatus is not mapped based on an appropriate signal value (ADC value), and as a result, the accuracy of the ADC map is degraded.
  • ADC value for example, ADC value
  • the site ADC map is generated based on the signal values (ADC values) of the site diffusion-weighted image before generating the composite diffusion-weighted image, and then the site ADC map is generated. are combined to generate a combined ADC map 50 . Therefore, the synthetic ADC map 50 generated by the medical service support apparatus 10 according to the present embodiment is more accurate than the ADC map generated by the conventional medical service support apparatus.
  • a highly accurate composite image 52 can be obtained.
  • a composite diffusion weighted image is generated and a composite ADC map 50 is generated.
  • the medical service support apparatus 10 derives ADC values before the synthetic diffusion-weighted image is generated, and then generates the synthetic diffusion-weighted image and the synthetic ADC map. Therefore, according to this configuration, compared with the conventional image obtained by synthesizing the ADC map using the ADC value calculated after synthesizing a plurality of site diffusion-weighted images and the diffusion-weighted image, it is highly accurate.
  • a composite image 52 can be obtained.
  • a plurality of region diffusion-weighted images are acquired for each b-value at the time of imaging by the MRI device, and an ADC value is calculated from the plurality of region diffusion-weighted images. Therefore, according to this configuration, a highly accurate ADC value can be obtained as compared with the case where the ADC value is calculated after a plurality of site diffusion weighted images are synthesized.
  • the medical service support apparatus 10 synthesizes the designated one of the first synthetic diffusion-weighted image 46 and the second synthetic diffusion-weighted image 48 with the synthetic ADC map 50 . Therefore, according to this configuration, compared to the case where the composite ADC map 50 is composited with each of the first composite diffusion-weighted image 46 and the second composite diffusion-weighted image 48, the processing load for composition can be reduced. .
  • the signal values in the composite ADC map 50 are classified according to the first to fourth threshold values. Therefore, according to this configuration, the difference between the signal values in the combined ADC map 50 can be easily discriminated.
  • a plurality of thresholds are set within a specified numerical range. Therefore, according to this configuration, the difference between the signal values in the combined ADC map 50 can be determined more precisely than when there is one threshold.
  • the numerical range of thresholds that can be set for classification of signal values is variable.
  • threshold values can be set using different numerical ranges depending on the type of target disease. Therefore, according to this configuration, the difference between the signal values in the composite ADC map 50 can be accurately determined for each of the plurality of types of diseases, as compared with the case where the numerical range is constant. That is, the medical service support apparatus 10 can generate highly accurate composite images even when various diseases are targeted.
  • the number of thresholds set within the numerical range is variable. Therefore, according to this configuration, the difference between the signal values in the combined ADC map 50 can be accurately determined with the resolution intended by the user 18, compared to the case where the number of thresholds is fixed.
  • the screen data 56 is output to the display 16 in the medical service support device 10 .
  • a screen 54 indicated by screen data 56 is displayed on the display 16 .
  • a screen 54 includes a composite image 52 obtained by superimposing a heat-mapped composite ADC map 50 on the composite diffusion weighted image, and the composite image 52 is visually recognized by the user 18 . Therefore, according to this configuration, the user 18 can easily visually recognize the difference between the signal values in the synthesized ADC map 50 .
  • the signal values in the synthesized ADC map 50 included in the synthesized image 52 are the first to fourth threshold values.
  • the technology of the present disclosure is not limited to this.
  • the signal values in the synthetic ADC map 50 may be classified according to the first to fourth threshold values. That is, the medical service support apparatus 10 may synthesize the composite diffusion-weighted image and the composite ADC map 50 after classifying the signal values of the composite ADC map 50 .
  • the threshold classification unit 24E acquires the composite ADC map 50 generated by the composite ADC map generation unit 24C. Further, the threshold classification unit 24E classifies the acquired signal values in the synthesized ADC map 50 according to the first to fourth threshold values, and colors the pixels in the synthesized ADC map 50 according to the threshold range. Thereafter, similarly to the description of the above embodiment, the volume calculator 24F calculates the respective volumes of the first to fourth real space volumes and the total volume.
  • the synthetic image generation unit 24D is provided with one of the designated synthetic diffusion-weighted images of the first synthetic diffusion-weighted image 46 and the second synthetic diffusion-weighted image 48, and a color corresponding to the threshold range.
  • a composite image 52 is generated by combining with a composite ADC map 50 having pixels. Also in this case, the same effects as those of the above-described embodiment can be obtained.
  • the state of the site is not evaluated based on the result of classifying the signal values in the composite ADC map 50 by thresholds. It is not limited to this.
  • the medical service support apparatus 10 may be configured such that the processor 24 evaluates the state of the site based on the result of classifying the signal values in the composite ADC map 50 with thresholds. In this case, for example, based on the result of classifying the signal values in the synthesized ADC map 50 using the first to fourth threshold values, the processor 24 evaluates the state of the site, and the evaluation result is displayed on the display 16. . That is, the processor 24 evaluates the state of the site according to the heat-mapped composite ADC map 50 and causes the display 16 to display the evaluation results.
  • FIG. Screen 54 is represented by screen data 56 generated by processor 24 .
  • the screen 54 shown here differs from the screen 54 (see FIG. 10) described in the above embodiment in that it includes a message 54D, a message 54E, and an evaluation result display area 54F.
  • Message 54D is a message indicating that the disease is likely to be severe. For example, message 54D indicates the highest stage of malignant tumor.
  • message 54D is associated with the red area of legend 54A.
  • Message 54E is a message indicating that the possibility of severe disease is low, and is associated with the yellow area of legend 54A.
  • the evaluation result display area 54F displays the evaluation result of the state of the part in the form of a message.
  • An assessment of the state of the site is made by the processor 24 based on the heat-mapped composite ADC map 50, as described above.
  • a message is displayed in the evaluation result display area 54F indicating that there is a high possibility that severe lesions are present in the chest and abdomen.
  • the processor 24 evaluates that there is a high possibility of severe disease when the volume of the red area is equal to or greater than the reference value. Then, the processor 24 outputs to the display 16 the screen data 56 including the information indicating the name of the site evaluated as having a high possibility of having a severe disease. As a result, in the evaluation result display area 54F of the display 16, the state of the site evaluated as having a high possibility of severe disease is displayed in the form of a message. Therefore, according to this configuration, the user 18 can grasp the result of the evaluation by the processor 24 regarding the state of the part.
  • step ST50 the process of step ST50 may be executed as shown in FIG.
  • the processor 24 concurrently generates a synthetic diffusion-weighted image for each b-value and a synthetic ADC map 50.
  • FIG. The synthesized diffusion-weighted image for each b-value means the first synthesized diffusion-weighted image 46 and the second synthesized diffusion-weighted image 48, as described above. Therefore, according to this configuration, the time required to obtain the synthetic image 52 is shortened compared to the case of waiting for the completion of the generation of one of the synthetic diffusion weighted image and the synthetic ADC map 50 and then generating the other. can contribute to
  • b values may be three or more different b values that can calculate the ADC value.
  • b values may be "0", "1000", and "2000”.
  • one ADC map may be generated from three or more b-value site diffusion-weighted images, or a plurality of ADC maps may be generated from three or more b-value site diffusion-weighted images.
  • a map may be generated.
  • ADC using site diffusion weighted images with b values of "0" and "1000”, b values of "1000" and "2000”, and b values of "0" and "2000” A map may be generated.
  • the chest, abdomen, and waist were exemplified as the multiple sites, but the multiple sites are not limited to these.
  • the configuration may be such that the user can arbitrarily select each of a plurality of parts.
  • a plurality of parts selected from the head, chest, abdomen, waist, legs, and the like may be used.
  • a plurality of divided parts obtained by dividing one part selected from the head, chest, abdomen, waist, legs, etc. (for example, the chest obtained by dividing from the head side to the abdomen side) divided portion).
  • a medical work support system 100 can be employed.
  • the medical service support system 100 includes an information processing device 101 and an external communication device 102 .
  • the information processing apparatus 101 is an apparatus obtained by removing the series of the image generation output processing program 36 and the diffusion weighted image 38 from the storage 26 of the image processing apparatus 12 described in the above embodiment.
  • the external communication device 102 is, for example, a server.
  • a server is implemented by, for example, a mainframe.
  • the server may be realized by cloud computing, or may be realized by network computing such as fog computing, edge computing, or grid computing.
  • a server is used as an example of the external communication device 102 here, at least one personal computer or the like may be used as the external communication device 102 instead of the server.
  • the external communication device 102 includes a processor 104 , storage 106 , RAM 108 and communication I/F 110 , and the processor 104 , storage 106 , RAM 108 and communication I/F 110 are connected by bus 112 .
  • Communication I/F 110 is connected to information processing apparatus 101 via network 114 .
  • Network 114 is, for example, the Internet. Note that the network 114 is not limited to the Internet, and may be a WAN and/or a LAN such as an intranet.
  • An image generation output processing program 36 and a plurality of diffusion weighted images 38 are stored in the storage 106 .
  • Processor 104 executes image generation output processing program 36 on RAM 108 .
  • the processor 104 performs the image generation output processing described above according to the image generation output processing program 36 executed on the RAM 108 .
  • the information processing device 101 transmits a request signal requesting execution of image generation output processing to the external communication device 102 .
  • Communication I/F 110 of external communication device 102 receives the request signal via network 114 .
  • the processor 104 performs image generation output processing according to the image generation output processing program 36 and transmits the processing result to the information processing apparatus 101 via the communication I/F 110 .
  • the information processing device 101 receives the processing result (for example, screen data 56) transmitted from the external communication device 102 through the communication I/F 30 (see FIG. 2), and transmits the received processing result to various devices such as the display 16. output.
  • the external communication device 102 is an example of the "image processing device” according to the technology of the present disclosure
  • the processor 104 is an example of the "processor” according to the technology of the present disclosure.
  • the image generation output processing may be distributed and performed by a plurality of devices including the information processing device 101 and the external communication device 102 .
  • the processor 24 may be a processor implemented by at least one of a CPU, GPU, GPGPU (General-purpose computing on graphics processing units), and TPU (Tensor processing unit).
  • the image generation output processing program 36 has been described as being stored in the storage 26, but the technology of the present disclosure is not limited to this.
  • the image generation output processing program 36 may be stored in a storage medium 116 such as an SSD or USB memory.
  • Storage medium 116 is a portable non-transitory storage medium.
  • the image generation output processing program 36 stored in the storage medium 116 is installed in the image processing device 12 of the medical service support device 10 .
  • the processor 24 executes image generation output processing according to the image generation output processing program 36 .
  • the image generation output processing program 36 is stored in a storage device such as another computer or a server device, downloaded from the storage device in response to a request from the medical service support device 10, and installed in the image processing device 12. You may do so. At this time, other computers, server devices, or the like are connected to the medical service support device 10 via a network (not shown).
  • the storage medium 116, storage devices such as other computers or server devices connected to the medical service support apparatus 10, and other external storages (eg, databases, etc.) are directly or indirectly connected to the processor 24. It is positioned as a memory used for
  • the image processing device 12 is exemplified as a computer in the above embodiment, the technology of the present disclosure is not limited to this.
  • a device including ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and/or PLD (Programmable Logic Device) may be applied instead of a computer.
  • a combination of hardware and software configurations may be used instead of a computer.
  • the processor includes, for example, a CPU.
  • the CPU is a general-purpose processor and functions as a hardware resource that executes image generation output processing by executing software, that is, programs.
  • Processors may also include, for example, dedicated electrical circuitry.
  • a dedicated electrical circuit is a processor that has circuitry specifically designed to perform a particular process.
  • the dedicated electric circuit is, for example, FPGA, PLD, ASIC, or the like.
  • Each processor has a built-in or connected memory, and each processor uses the memory to execute image generation output processing.
  • a hardware resource that executes image generation output processing may be configured with one of these various processors, or may be configured with a combination of two or more processors of the same or different type. For example, it may be a combination of multiple FPGAs or a combination of a CPU and an FPGA. Also, the hardware resource for executing image generation output processing may be one processor.
  • one processor is configured by a combination of one or more CPUs and software, and this processor functions as a hardware resource for executing image generation output processing.
  • this processor functions as a hardware resource for executing image generation output processing.
  • SoC System-on-a-chip
  • the functions of the entire system including multiple hardware resources that execute image generation and output processing can be implemented in a single IC (Integrated Circuit) chip.
  • IC Integrated Circuit
  • a and/or B is synonymous with “at least one of A and B.” That is, “A and/or B” means that only A, only B, or a combination of A and B may be used. Also, in this specification, when three or more matters are expressed by connecting with “and/or”, the same idea as “A and/or B" is applied.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Vascular Medicine (AREA)
  • Signal Processing (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

複数の部位の拡散強調画像を合成して得た画像から導出したADC値に基づく合成画像に比べ、高精度な合成画像を得ることができる画像処理装置。画像処理方法、及びプログラムを提供する。画像処理装置は、プロセッサを備え、プロセッサは、複数の部位の拡散強調画像を取得し、複数の部位の拡散強調画像から各部位のADC値を導出し、複数の部位の拡散強調画像を合成することで合成拡散強調画像を生成し、各部位のADC値を合成することでADC画像を生成し、合成拡散強調画像とADC画像とを合成させた合成画像を生成する。

Description

画像処理装置、画像処理方法、及びプログラム
 本開示の技術は、画像処理装置、画像処理方法、及びプログラムに関する。
 特許文献1には、画像処理装置が開示されている。画像処理装置は、受付部と、パラメータ取得部と、診断画像構成部と、出力部とを備える。受付部は、拡散強調画像を受け付ける。パラメータ取得部は、拡散強調画像を構成する1以上の各処理単位に対して、2種類以上のパラメータを取得する。診断画像構成部は、2種類以上のパラメータに対するスコアを1以上の処理単位ごとに取得し、診断画像を構成する。診断画像とは、スコアに対応する画素値を1以上の処理単位ごとに有する画像である。出力部は、診断画像を出力する。
 特許文献2には、磁気共鳴イメージング装置が開示されている。磁気共鳴イメージング装置は、被写体から放射される磁気共鳴信号に基づいて拡散強調画像を生成する手段と、読影用画像を生成する読影用画像生成手段とを備える。読影用画像は、拡散強調画像のうちで拡散係数が閾値未満である領域を他の領域に対して際立たせて表した画像である。
 特許文献3には、磁気共鳴診断装置が開示されている。磁気共鳴診断装置は、撮像手段と、導出手段と、推定手段とを具備する。撮像手段は、少なくとも2つのb値をそれぞれ用いて、少なくとも2つの元画像をそれぞれ撮像する。b値は、MRI装置による撮像時の傾斜磁場の強度を示す値であり、撮像領域に含まれる被写体の部位に関連付けて定められる。導出手段は、少なくとも2つの元画像の着目領域内に含まれる画素位置のそれぞれについて、少なくとも2つの元画像におけるそれぞれの画素値に基づいて画素位置に関する見かけの拡散係数を導出する。推定手段は、見かけの拡散係数に基づいて、少なくとも2つのb値は異なるb値を用いて得られる画素値を推定する。かつ、少なくとも2つのb値は、画素値の推定のために複数の部位に応じて予め定める。
 特許文献4には、投影画像演算処理装置が開示されている。投影画像演算処理装置は、メモリ手段と、投影演算処理手段と、モニタ手段とを備える。メモリ手段は、被検体を撮影した少なくとも2種類の医用画像データを格納する。投影演算処理手段は、メモリ手段に格納された少なくとも2種類の医用画像データを読み出し、医用画像データに、医用画像を投影表示するための投影演算処理を施す。モニタ手段は、投影演算処理手段において投影演算処理が施された医用画像データにより医用画像を投影表示する。また、投影演算処理手段は、領域特定部と、座標特定部と、投影演算処理部とを含む。領域特定部は、少なくとも2種類の医用画像データのうち、第1の医用画像を構成する第1の医用画像データからレンダリング領域を特定する。座標特定部は、少なくとも2種類の医用画像データのうち、第1の医用画像とは異なる第2の医用画像を構成する第2の医用画像データにおいて、第1の医用画像データで特定されたレンダリング領域の各画素と同一の座標を有する画素を特定する。投影演算処理部は、モニタ手段上に投影表示される第1の医用画像において、レンダリング領域の各画素について、第2の医用画像の画素の信号値に基づいて投影表示する。また、特許文献4に記載の投影画像演算処理装置は、第1の医用画像が拡散強調画像であり、第2の医用画像がADC(Apparent Diffusion Coefficient)画像であることを特徴とする。
 特許文献5には、画像処理装置が開示されている。画像処理装置は、画像取得部と、設定部と、画像導出部と、表示部と、を備える。画像取得部は、第1のb値を用いて撮像された第1の拡散強調画像を取得する。設定部は、第2のb値、及び0以上の値を有する第1のカットオフ拡散係数を設定する。画像導出部は、第1の拡散強調画像の画素に対応した拡散係数が第1のカットオフ拡散係数より大きい画素において、拡散係数及び第1の拡散強調画像に基づいて、第2のb値での仮想拡散強調画像を導出する。表示部は、仮想拡散強調画像を表示する。
特開2015-167610号公報 特開2008-012172号公報 特開2013-255854号公報 特開2020-137889号公報 特開2016-000102号公報
 本開示の技術に係る一つの実施形態は、複数の部位の拡散強調画像を合成して得た画像から導出したADC値に基づく合成画像に比べ、高精度な合成画像を得ることができる画像処理装置。画像処理方法、及びプログラムを提供する。
 本開示の第1の態様に係る画像処理装置は、プロセッサを備える。プロセッサは、複数の部位のそれぞれについて、部位拡散強調画像を取得し、複数の部位拡散強調画像から各部位のADC値を導出し、複数の部位拡散強調画像を合成することで合成拡散強調画像を生成し、各部位のADC値を合成することでADC画像を生成し、合成拡散強調画像とADC画像とを合成させて合成画像を生成する。
 本開示の第2の態様に係る画像処理方法は、複数の部位のそれぞれについて、部位拡散強調画像を取得すること、複数の部位拡散強調画像から各部位のADC値を導出すること、各部位のADC値を合成することでADC画像を生成すること、複数の部位拡散強調画像を合成することで合成拡散強調画像を生成すること、及び、合成拡散強調画像とADC画像とを合成させて合成画像を生成することを含む。
 本開示の第3の態様に係るプログラムは、コンピュータに、複数の部位のそれぞれについて、部位拡散強調画像を取得すること、複数の部位拡散強調画像から各部位のADC値を導出すること、各部位のADC値を合成することでADC画像を生成すること、複数の部位拡散強調画像を合成することで合成拡散強調画像を生成すること、及び、合成拡散強調画像とADC画像とを合成させて合成画像を生成することを含む処理を実行させる。
医療業務支援装置の概略構成を示す概念図である。 医療業務支援装置の電気系のハードウェア構成の一例を示すブロック図である。 医療業務支援装置に含まれる画像処理装置の要部機能の一例を示すブロック図である。 画像処理装置に含まれるストレージの記憶内容の一例を示す概念図である。 部位ADCマップ生成部の処理内容の一例を示す概念図である。 合成拡散強調画像生成部24Bの処理内容の一例を示す概念図である。 合成ADCマップ生成部24Cの処理内容の一例を示す概念図である。 合成画像生成部24Dの処理内容の一例を示す概念図である。 閾値分類部の処理内容及び体積算出部の処理内容の一例を示す概念図である。 ディスプレイに表示される画面の態様の一例を示す概念図である。 画像生成出力処理の流れの一例を示すフローチャートである。 閾値分類部及び合成画像生成部の処理内容の変形例を示す概念図である。 ディスプレイに表示される画面の態様の変形例を示す概念図である。 画像生成出力処理の流れの変形例を示すフローチャートである。 医療業務支援システムの概略構成を示す概念図である。 記憶媒体に記憶されている画像生成出力処理プログラムが画像処理装置にインストールされる態様の一例を示すブロック図である。
 添付図面に従って、本開示の技術に係る画像処理装置、画像処理方法、及びプログラムを用いた医療業務支援装置10の実施形態の一例について説明する。
1.全体構成
 図1に示すように、医療業務支援装置10は、画像処理装置12、受付装置14、及びディスプレイ16を備えており、ユーザ18によって使用される。ここで、ユーザ18としては、例えば、医師及び技師等が挙げられる。さらに、医療業務支援装置10は、図2に示すように、通信I/F(Interface)30、外部I/F32、及びバス34を備えている。
2.各部の構成
 2-1.受付装置
 受付装置14は、キーボード20及びマウス22等を有しており、ユーザ18からの指示を受け付ける。図1では、受付装置14として、キーボード20及びマウス22の例を示しているが、他の例を採用しても良い。例えば、受付装置14は、キーボード20及び/又はマウス22に代えて、或いは、キーボード20及び/又はマウス22と共に、タッチパネル及び/又はタブレット等が用いられてもよい。タッチパネル及びタブレットは、近接入力を受け付ける。また、受付装置14として、キーボード20、マウス22、タッチパネル、タブレット、音声入力装置、撮影装置、及びセンサーのうちの少なくとも1つが用いられてもよい。音声入力装置は、音声入力を受け付ける。撮像装置は、ジェスチャー入力を受け付ける。
 受付装置14は、画像処理装置12に接続されている。受付装置14と画像処理装置12との接続は、有線であっても無線であってもよい。
 2-2.ディスプレイ
 ディスプレイ16は、画像処理装置12の制御下で、各種情報(例えば、画像及び文字等)を表示する。ディスプレイ16は、例えば、EL(Electro-Luminescence)ディスプレイ又は液晶ディスプレイ等である。ディスプレイ16もまた、画像処理装置12に接続されている。
 2-3.通信I/F
 通信I/F30は、ネットワークに接続されている。ネットワークは、例えば、LAN(Local Area Network)及びWAN(Wide Area Network)等のうちの少なくとも1つで構成されていても良い。ネットワークには、図示しない外部装置等が接続されており、通信I/F30は、ネットワークを介して外部通信装置との間の情報の授受を司る。外部通信装置は、例えば、MRI(Magnetic Resonance Imaging)装置、パーソナル・コンピュータ、及びスマートデバイス等のうちの少なくとも1つを含んでもよい。例えば、通信I/F30は、後述するプロセッサ24からの要求に応じた情報を、ネットワークを介して外部通信装置に送信する。また、通信I/F30は、外部通信装置から送信された情報を受信し、受信した情報を、後述するバス34を介してプロセッサ24に出力する。
 2-4.外部I/F
 外部I/F32は、医療業務支援装置10と図示しない外部装置との間の各種情報の授受を司る。外部装置は、例えば、スマートデバイス、パーソナル・コンピュータ、サーバ、USB(Universal Serial Bus)メモリ、メモリカード、及びプリンタ等のうちの少なくとも1つであってもよい。外部I/F32の一例としては、USBインタフェースが挙げられる。USBインタフェースには、外部装置が直接的又は間接的に接続される。
 2-5.バス
 バス34は、医療業務支援装置10の内部で、データや制御情報などをやり取りするための専用の通信路である。バス34には、通信I/F30及び外部I/F32や、後述する画像処理装置12のプロセッサ24、ストレージ26、及びRAM28が接続されている。
 2-6.画像処理装置
 画像処理装置12は、本開示の技術に係る「コンピュータ」の一例である。画像処理装置12は、プロセッサ24、ストレージ26、及びRAM(Random access memory)28を備える。
 プロセッサ24は、例えば、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)を有する。GPUは、CPUの制御下で動作し、画像に関する処理の実行を担う。画像に関する処理には、例えば、後述の画像生成出力処理(図3及び図11参照)が含まれる。
 プロセッサ24には、メモリが接続されている。メモリは、ストレージ26及びRAM28を含む。ストレージ26は、各種プログラム及び各種パラメータ等を記憶する不揮発性の記憶装置である。ストレージ26としては、例えば、HDD(Hard Disk Drive)及びSSD(Solid State Drive)が挙げられる。なお、ストレージ26は、HDD及びSSDに限られず、HDD、SSD、フラッシュメモリ、磁気抵抗メモリ、及び強誘電体メモリのうちの少なくとも1つをストレージ26として用いてもよい。
 RAM28は、一時的に情報が記憶されるメモリであり、プロセッサ24によってワークメモリとして用いられる。RAM28としては、例えば、DRAM(Dynamic Random Access Memory)又はSRAM(Static Random Access Memory)等が挙げられる。
 ところで、被検体である人体の全身に対する腫瘍の分布を評価する一般的な方法として、PET(Positron Emission Tomography)-CT(Computed Tomography)を用いた方法が知られている。一方、近年、全身に対する腫瘍の分布を評価する新たな方法として、DWIBS(Diffusion weighted whole body imaging with background body signal suppression)法が普及している。
 DWIBS法は、正常組織の細胞密度に比べ悪性腫瘍等の異常組織(以下、「病変部」とも称する)の細胞密度が高いことに着目し、細胞間の水分子の動きの多寡に基づいて病変部を検出する方法である。DWIBS法では、ADCマップを用いて組織の状態が評価される。ADCマップは、ADC(Apparent Diffusion Coefficient)値を画像化したものである。全身のADC値は、全身の拡散強調画像から算出される。全身の拡散強調画像は、MRI装置によって撮像されて得られる。拡散強調画像は、微視的な水分子の不規則な運動(例えば、ブラウン運動)の程度を信号値で示した画像である。
 拡散強調画像の信号値は、水分子の運動の程度が大きいほど低い。拡散強調画像において、病変部を示す信号値は、正常組織の信号値よりも高い。しかし、水分子の不規則な運動の制限、すなわち、拡散制限によっても、病変部を示す信号値と同程度の高い信号値が得られる。そのため、DWIBS法では、病変部を示す信号値なのか、拡散制限による信号値なのかを区別するために、ADCマップを用いている。ADCマップは、複数の拡散強調画像から画素毎に算出されたADC値を示した画像である。複数の拡散強調画像は、MRI装置において強度が異なる傾斜磁場がそれぞれ印可されることによって得られる。ADC値は、以下の式(1)に従って算出される。
 ADC値=ln(S1/S2)/(b2-b1)・・・・(1)
 式(1)において、b1及びb2は、b値である。b値は、MRI装置による撮像時の傾斜磁場の強度を示す値である。b2は、b1よりも大きなb値である。S1は、b1の傾斜磁場が印加されているときに得られた信号値である。S2は、b2の傾斜磁場が印加されているときに得られた信号値である。
 このように、DWIBS法では、拡散強調画像から算出されるADC値を用いたADCマップに基づいて全身に対する病変部の分布を評価できる。そのため、DWIBS法は、将来的に、全身に対する病変部の分布を評価する一般的な方法として、PET-CTに置き換わるとも言われている。なぜならば、PET-CT及びDWIBS法のいずれも、全身に対する病変部の分布を評価できるが、PET-CTに比べてDWIBS法は、「撮像時間が短い」、「被曝がない」、「食事制限がない」及び「検査薬の注射がない」等の利点が多いからである。
 これまでに知られているDWIBS法では、先ず、胸部、腹部、及び腰部等の複数の部位がMRI装置によって撮像される。さらに、複数の部位毎に得られる拡散強調画像から一の全身拡散強調画像が生成される。すなわち、複数の部位拡散強調画像が合成されることによって複数の部位を含む全身拡散強調画像が生成される。部位とは、被写体の所定の部分である。本実施形態において、一の部位と他の部位とは隣接する。すなわち、複数の部位は、連続した部分であり、被写体における所定の領域を構成する。複数の部位の拡散強調画像は複数のフェーズの拡散強調画像とも呼ばれる。従来の方法では、全身拡散強調画像からADC値が算出される。ディスプレイには、算出されたADC値に基づくADCマップと全身拡散強調画像とが重畳された重畳画像が表示される。このとき、ADC値が少なくとも1つの閾値で分類されることによって、病変部の位置及び信号値が可視化される。
 しかし、複数の部位拡散強調画像を合成して全身拡散強調画像を生成した後に、全身拡散強調画像からADC値を算出すると、複数の部位拡散強調画像の合成に起因した信号値変換の影響により、正しいADC値が得られなくなってしまう。
 モダリティ側の原因は、例えば、MRI装置によって複数の部位が撮像されることで得られた拡散強調画像の部位間でのコントラストの違いが挙げられる。具体的に、特定臓器(例えば、心臓)のみがMRI装置によって撮像される場合と、特定臓器と特定臓器の周辺の臓器(例えば、肺)とを含めた領域がMRI装置によって撮像される場合とでは、何れの場合も特定臓器は撮像できるものの、後者の場合には、特定臓器の信号値が、特定臓器の周辺の臓器の信号値の影響を受けてしまう。このようにして得られた複数の拡散強調画像が合成されて繋ぎ合わされる場合、繋ぎ合わせ部分(すなわち、複数の拡散強調画像間の境界部分)が不自然になりうる。例えば、胸部に関する拡散強調画像(胸部拡散強調画像)と腹部に関する拡散強調画像(腹部拡散強調画像)との境界領域に心臓を示す画像領域があった場合、胸部拡散強調画像及び腹部拡散強調画像の両方に心臓組織を示す画像領域が存在することになる。それにも関わらず、胸部拡散強調画像及び腹部拡散強調画像の境界付近の信号値は異なり、最適なコントラストも異なる。複数の部位拡散強調画像間の境界領域の画像を滑らかにするためには、複数の部位拡散強調画像の間でコントラストを調節する必要がある。複数の部位拡散強調画像のコントラストを調節して合成する過程で信号値変換(例えばWW/WLを標準化する等)が生じる。また、複数の部位拡散強調画像の境界領域の画像が不自然になる原因として撮像時に使用するコイルが部位によって異なることも考えられる。
 そこで、複数の部位拡散強調画像間の境界領域の画像が不自然にならないように、複数の部位拡散強調画像のコントラストが調整されて合成される場合、信号値の変換が行われる。すなわち、同一対象の信号値が異なる部位拡散強調画像を部位毎に合成する際に、部位毎の部位拡散強調画像のコントラストを揃えるために信号値の変換が行われる。
 しかし、複数の部位拡散強調画像の合成によって部位間で信号値が変換されてしまうと、信号値の変換の影響によって正しいADC値が得られなくなり、全身に対する腫瘍の分布を正しく評価することが困難となる。
 このような事情を鑑みて、本実施形態では、一例として、プロセッサ24によって後述するような、画像生成出力処理が行われる(図11参照)。画像生成出力処理とは、後述する合成画像52を生成し出力するための処理である。画像生成出力処理は、画像生成出力処理プログラムを用いて行われる。画像生成出力処理プログラムは、ストレージ26に記憶されている。プロセッサ24は、ストレージ26から画像生成出力処理プログラム36を読み出し、読み出した画像生成出力処理プログラム36をRAM28上で実行することで画像生成出力処理を行う。画像生成出力処理は、画像生成出力処理プログラム36に従って、プロセッサ24が、部位ADCマップ生成部24A、合成拡散強調画像生成部24B、合成ADCマップ生成部24C、合成画像生成部24D、閾値分類部24E、体積算出部24F、及び表示制御部24Gとして動作することによって実現される。
 一例として図4に示すように、ストレージ26には、シリーズ単位で、複数の部位についての拡散強調画像38が記憶されている。拡散強調画像38は、MRI装置による撮像時の傾斜磁場を変えたb値の各々について、撮像対象とされた人体が撮像されることで得られる。図4に示す例では、傾斜磁場の強度は、それぞれ、b値=0及びb値=1000である。シリーズとは、撮像対象とされた人物の位置及び姿勢が維持されたまま、同一の撮像条件下で、かつ、複数の部位の各々が既定のフレームレート(例えば、30フレーム/秒)で撮像されることによって得られた複数フレームの拡散強調画像の集合を指す。図4に示す例では、複数の部位には、胸部、腹部、及び腰部という3つのフェーズが含まれる。
 図4に示す例では、被写体に含まれる各部位の拡散強調画像38として、第1拡散強調画像(第1の部位拡散強調画像)40と、第2拡散強調画像(第2の部位拡散強調画像)42とがストレージ26に記憶されている態様が示されている。第1拡散強調画像40及び第2拡散強調画像42は、MRI装置による撮像時の傾斜磁場の強度が異なる。具体的に、第1拡散強調画像40は、b=0の拡散強調画像38である。第2拡散強調画像42は、b=1000の拡散強調画像38である。すなわち、第1拡散強調画像40及び第2拡散強調画像42は、複数の強度別部位拡散強調画像である。
 第1拡散強調画像40は、複数の部位に類別されている。図4に示す例では、第1拡散強調画像40が、b=0の胸部を示す胸部拡散強調画像40A、b=0の腹部を示す腹部拡散強調画像40B、及びb=0の腰部を示す腰部拡散強調画像40Cに類別されている。一方、第2拡散強調画像42も、複数の部位に類別されている。図4に示す例では、第2拡散強調画像42が、b=1000の胸部を示す胸部拡散強調画像42A、b=1000の腹部を示す腹部拡散強調画像42B、及びb=1000の腰部を示す腰部拡散強調画像42Cに類別されている。
 すなわち、ストレージ26には、胸部拡散強調画像40Aのシリーズ、腹部拡散強調画像40Bのシリーズ、腰部拡散強調画像40Cのシリーズ、胸部拡散強調画像42Aのシリーズ、腹部拡散強調画像42Bのシリーズ、及び腰部拡散強調画像42Cのシリーズが記憶されている。
 なお、説明の便宜上、胸部拡散強調画像40A、腹部拡散強調画像40B、腰部拡散強調画像40C、胸部拡散強調画像42A、腹部拡散強調画像42B、及び腰部拡散強調画像42Cを区別して説明する必要がない場合、符号を付さずに「部位拡散強調画像」と称する。
 以下、画像生成出力処理プログラム36に従ってプロセッサ24が動作することで実現する機能部及び機能部による処理内容を説明する。
 [部位ADCマップ生成部]
 図5に示すように、部位ADCマップ生成部24Aは、被写体に含まれる複数の部位のそれぞれについての拡散強調画像(部位拡散強調画像)を基に、ADC値を算出する。また、部位ADCマップ生成部24Aは、当該ADC値に基づき、部位ADCマップを生成する。部位ADCマップ44には、胸部ADCマップ44A、腹部ADCマップ44B、及び腰部ADCマップ44Cが含まれる。
 具体的に、一例として図5に示すように、部位ADCマップ生成部24Aは、ストレージ26から複数の部位拡散強調画像を取得する。複数の部位拡散強調画像は、異なるb値で撮像された部位拡散強調画像を含む。言い換えると、部位ADCマップ生成部24Aは、胸部、腹部、及び腰部について、b値が異なる拡散強調画像を取得する。また、部位ADCマップ生成部24Aは、胸部、腹部、及び腰部について、b値が異なる拡散強調画像の間でADC値を算出する。
 より具体的に、部位ADCマップ生成部24Aは、胸部、腹部、及び腰部について、第1のb値(b=0)で拡散強調画像を取得し、かつ、胸部、腹部、及び腰部について、第2のb値(b=1000)で拡散強調画像を取得する。さらに、部位ADCマップ生成部24Aは、複数の部位のそれぞれについての、第1拡散強調画像(第1の部位拡散強調画像)及び第2拡散強調画像(第2の部位拡散強調画像)に基づいてADC値を導出する。言い換えると、部位ADCマップ生成部24Aは、胸部、腹部、及び腰部のそれぞれについて、第1のb値の拡散強調画像と、第2のb値の拡散強調画像との間でADC値を算出する。すなわち、部位ADCマップ生成部24Aは、複数の胸部拡散強調画像40A,42AについてのADC値、複数の腹部拡散強調画像40B,42BについてのADC値、及び腰部拡散強調画像40C,42CについてのADC値をそれぞれ算出する。
 その後、部位ADCマップ生成部24Aは、算出したADC値に基づいて部位ADCマップ44を生成する。部位ADCマップ44は、胸部ADCマップ44Aと、腹部ADCマップ44Bと、腰部ADCマップ44Cとに類別される。具体的に、部位ADCマップ生成部24Aは、胸部拡散強調画像40A,42AについてのADC値に基づき胸部ADCマップ44Aを生成する。また、部位ADCマップ生成部24Aは、腹部拡散強調画像40B,42BについてのADC値に基づき腹部ADCマップ44Bを生成する。さらに、部位ADCマップ生成部24Aは、腰部拡散強調画像40C,42CについてのADC値に基づき腰部ADCマップ44Cを生成する。
 具体的に、図5に示す例において、部位ADCマップ生成部24Aは、ストレージ26からb値の異なる複数の胸部拡散強調画像40A及び42Aをシリーズ単位で取得する。そして、部位ADCマップ生成部24Aは、ストレージ26から取得した胸部拡散強調画像40A及び42Aのシリーズについて、先頭フレームから最終フレームにかけて1フレーム毎にADC値を算出する。その後、部位ADCマップ生成部24Aは、算出したADC値を1フレーム毎にマッピングする。このようにして、部位ADCマップ生成部24Aは、シリーズ単位の胸部ADCマップ44Aを生成する。
 さらに、部位ADCマップ生成部24Aは、ストレージ26からb値の異なる複数の腹部拡散強調画像40B及び42Bをシリーズ単位で取得する。そして、部位ADCマップ生成部24Aは、ストレージ26から取得した腹部拡散強調画像40B及び42Bのシリーズについて、先頭フレームから最終フレームにかけて1フレーム毎にADC値を算出する。その後、部位ADCマップ生成部24Aは、算出したADC値を1フレーム毎にマッピングする。このようにして、部位ADCマップ生成部24Aは、シリーズ単位の腹部ADCマップ44Bを生成する。
 さらに、部位ADCマップ生成部24Aは、ストレージ26からb値の異なる複数の腰部拡散強調画像40C及び42Cをシリーズ単位で取得する。そして、部位ADCマップ生成部24Aは、ストレージ26から取得した腰部拡散強調画像40C及び42Cのシリーズについて、先頭フレームから最終フレームにかえて1フレーム毎にADC値を算出する。その後、部位ADCマップ生成部24Aは、算出したADC値を1フレーム毎にマッピングする。このようにして、部位ADCマップ生成部24Aは、シリーズ単位の腰部ADCマップ44Cを生成する。
 なお、ここでは、部位ADCマップ生成部24Aが、各部位の拡散強調画像の先頭フレームから最終フレームにかけて1フレーム毎にADC値を算出する形態を例に挙げて説明したが、本開示の技術は、これに限定されない。例えば、数フレーム毎に代表フレームのADC値が算出されるようにしてもよい。より具体的に、数フレーム間隔で間引かれて得られるフレーム、又は、数フレーム間で平均化されたフレーム等を代表フレームとし、当該代表フレームのADC値が算出されるようにしてもよい。
 なお、ADC値を算出することは、本開示の技術に係る「ADC値を導出する」ことの一例であり、ADC値の算出は、例えば、上述した式(1)を用いることによって実現される。但し、式(1)を用いたADC値の算出は、あくまでも一例に過ぎない。例えば、式(1)に含まれるb1、b2、S1、及びS2を入力とし、ADC値を出力とするADC値導出テーブル(図示省略)を用いてADC値が導出されるようにしてもよい。
 [合成拡散強調画像生成部]
 図6に示すように、合成拡散強調画像生成部24Bは、複数の部位についての部位拡散強調画像を合成して合成拡散強調画像を生成する。言い換えると、合成拡散強調画像生成部24Bは、被写体に含まれる全ての部位についての部位拡散強調画像のシリーズを合成し、被写体全体の拡散強調画像である合成拡散強調画像を生成する。合成拡散強調画像生成部24Bは、撮影時の傾斜磁場の強度が同一である部位拡散強調画像を合成して合成拡散強調画像を生成する。言い換えると、合成拡散強調画像は、複数の部位についての部位拡散強調画像のシリーズをb値毎に合成した被写体全体についての拡散強調画像である。
 合成拡散強調画像には、第1合成拡散強調画像46と、第2合成拡散強調画像48とが含まれる。第1合成拡散強調画像46は、b=0の複数の部位についての部位拡散強調画像の合成画像である。第2合成拡散強調画像48は、b=1000の複数の部位についての部位拡散強調画像の合成画像である。第1合成拡散強調画像46及び第2合成拡散強調画像48のうち、指定された一方は、後述する合成ADCマップ生成部24Cによって合成されて合成ADCマップ50になる(図6及び図8参照)。
 具体的に、合成拡散強調画像生成部24Bは、胸部、腹部、及び腰部について、b値が異なる複数の部位拡散強調画像を取得する。さらに、合成拡散強調画像生成部24Bは、b値毎に複数の部位拡散強調画像を合成する。
 より具体的に、合成拡散強調画像生成部24Bは、ストレージ26から胸部拡散強調画像40Aのシリーズ、腹部拡散強調画像40Bのシリーズ、及び腰部拡散強調画像40Cのシリーズを取得する。合成拡散強調画像生成部24Bは、同一シリーズの胸部拡散強調画像40A、腹部拡散強調画像40B、及び腰部拡散強調画像40Cを先頭フレームから最終フレームにかけて1フレーム毎に合成する。これにより、合成拡散強調画像生成部24Bは、シリーズ単位の第1合成拡散強調画像46を生成する。
 さらに、合成拡散強調画像生成部24Bは、ストレージ26から胸部拡散強調画像42Aのシリーズ、腹部拡散強調画像42Bのシリーズ、及び腰部拡散強調画像42Cのシリーズを取得する。合成拡散強調画像生成部24Bは、同一シリーズの胸部拡散強調画像42A、腹部拡散強調画像42B、及び腰部拡散強調画像42Cを先頭フレームから最終フレームにかけて1フレーム毎に合成する。これにより、合成拡散強調画像生成部24Bは、シリーズ単位の第2合成拡散強調画像48を生成する。
 [合成ADCマップ生成部]
 図7に示すように、合成ADCマップ生成部24Cは、複数の部位ADCマップ44(44A,44B,44C)を合成し、合成ADCマップ50を生成する。すなわち、合成ADCマップ生成部24Cは、複数の部位ADCマップ44に基づき、被写体に含まれる全ての部位についての合成ADCマップ50を生成する。すなわち、合成ADCマップ生成部24Cは、各部位ADCマップ44から得られるADC値を合成し、合成ADCマップを生成する。
 具体的に、合成ADCマップ生成部24Cは、胸部ADCマップ44Aのシリーズ、腹部ADCマップ44Bのシリーズ、及び腰部ADCマップ44Cのシリーズを先頭フレームから最終フレームにかけて1フレーム毎に合成することで、シリーズ単位の合成ADCマップ50を生成する。すなわち、胸部、腹部、及び腰部の各々のADC値がマッピングされることで得られた、胸部ADCマップ44A、腹部ADCマップ44B、及び腰部ADCマップ44Cが合成ADCマップ生成部24Cによって合成されることで合成ADCマップ50が生成される。ここで、合成ADCマップ50は、本開示の技術に係る「ADC画像」の一例である。
 [合成画像生成部]
 合成画像生成部24Dは、合成拡散強調画像と合成ADCマップ50とを合成し合成画像52を生成する。一例として図8に示すように、合成画像生成部24Dは、第1合成拡散強調画像46及び第2合成拡散強調画像48のうちの指定されたいずれか一方の合成拡散強調画像と、合成ADCマップ50とを合成することで合成画像52を生成する。言い換えると、合成ADCマップ50と合成させる合成拡散強調画像は、第1合成拡散強調画像46及び第2合成拡散強調画像48のうちの指定されたいずれか一方の合成拡散強調画像である。
 具体的には、指定されたいずれか一方の合成拡散強調画像のシリーズと合成ADCマップ50のシリーズとが、先頭フレームから最終フレームにかけて1フレーム毎に合成されることによって、シリーズ単位の合成画像52が生成される。合成ADCマップ50に合成される合成拡散強調画像は、例えば、受付装置14(図2参照)によって受け付けられた指示、又は、各種条件(例えば、撮像条件)に従って、第1合成拡散強調画像46及び第2合成拡散強調画像48から選択される。合成画像生成部24Dは、同一シリーズの、合成拡散強調画像と合成ADCマップとを合成して合成画像52を生成する。
 合成画像52の一例としては、合成拡散強調画像と合成ADCマップ50とを重畳させることで得られた画像が挙げられる。ここで、合成拡散強調画像と合成ADCマップ50との重畳は、シリーズ単位で行われる。すなわち、合成拡散強調画像のシリーズと合成ADCマップ50のシリーズとが先頭フレームから最終フレームにかけて1フレーム毎に重畳されることによって合成拡散強調画像と合成ADCマップ50とのシリーズ単位での重畳が実現される。
 二つの画像(ここでは、合成拡散強調画像及び合成ADCマップ50)を重畳させる方法としては、アルファブレンディングが挙げられる。この場合、アルファ値が変更されることによって重畳させる画像の透明度が変更される。アルファ値は、固定値であってもよいし、受付装置14(図2参照)によって受け付けられた指示、又は、各種条件(例えば、撮像条件)に応じて変更される可変値であってもよい。また、合成画像52の別例としては、合成拡散強調画像に対して合成ADCマップ50を埋め込むことで合成拡散強調画像と合成ADCマップ50とを一体化させた画像が挙げられる。
 [閾値分類部]
 閾値分類部24Eは、合成ADCマップ50の信号値を分類し、合成ADCマップ50のヒートマップ化を可能にする。本実施形態では、一例として、合成ADCマップ50の信号値を、ADC値とする。ADC値は、「信号値」とも称する。
 閾値分類部24Eは、合成画像52に含まれる合成ADCマップ50を取得する。閾値分類部24Eは、図9に示すように、合成ADCマップ50の信号値を閾値で分類する。
 閾値は、指定された数値範囲内で複数設定されている。本実施形態において数値範囲は可変であるが、数値範囲は一定の範囲であってもよい。また、本実施形態では、数値範囲に複数の閾値が設定されるが、閾値の個数は1つであってもよい。また、閾値の個数は、固定値であっても可変であってもよい。数値範囲及び閾値の個数少なくともいずれか一方が可変である場合、数値範囲または閾値は、例えば、受付装置14(図2参照)によって受け付けられた指示、又は、各種条件(例えば、撮像条件)に従って変更される。
 図9に示す例において、閾値分類部24Eは、合成ADCマップ50の信号値を、複数の閾値で分類する。具体的に、閾値分類部24Eは、第1閾値、第2閾値、第3閾値、及び第4閾値の四つの閾値を用いてADC値を分類する。より具体的に、閾値分類部24Eは、合成ADCマップ50の信号値を、複数の閾値で設定された複数の閾値範囲に分類する。閾値分類部24Eは、第1閾値未満の範囲、第1閾値以上第2閾値未満の範囲、第2閾値以上第3閾値未満の範囲、第3閾値以上第4閾値未満の範囲、及び第4閾値以上の範囲にADC値を分類する。
 また、閾値分類部24Eは、合成画像52に含まれる合成ADCマップ50において、ADC値が分類された閾値範囲に応じた色を付す。具体的に、第1閾値以上第2閾値未満の範囲には黄色が設定されている。第2閾値以上第3閾値未満の範囲には橙色が設定されている。第3閾値以上第4閾値未満の範囲には緋色が設定されている。第4閾値以上の範囲には赤色が設定されている。第1閾値未満の範囲には、何れの色も設定されていない。これにより、閾値分類部24Eは、ADC値が第1閾値未満の範囲の画素に対しては色を付さない。また、閾値分類部24Eは、ADC値が第1閾値以上第2閾値未満の範囲の画素に対して黄色を付し、ADC値が第2閾値以上第3閾値未満の範囲の画素に対して橙色を付し、ADC値が第3閾値以上第4閾値未満の範囲の画素に対して緋色を付し、ADC値が第4閾値以上の範囲の画素に対して赤色を付す。これによって、合成画像52に含まれる合成ADCマップ50がヒートマップ化される。ヒートマップ化された合成ADCマップ50は、本開示の技術に係る「分類結果画像」の一例であり、信号値が閾値で分類された結果を示している。
 [体積算出部]
 体積算出部24Fは、複数の閾値範囲に分類された信号値に基づいて得られた、3次元画像領域の情報を用いて、実空間上の体積(実空間体積)を算出する。言い換えると、体積算出部24Fは、合成ADCマップ50のシリーズから得られた3次元画像領域に対応する実空間体積を算出する。3次元画像領域は、第1閾値、第2閾値、第3閾値、及び第4閾値で分類された信号値の情報に基づいて得られる。体積算出部24Fは、既定の演算式又はテーブルを用いて、3次元画像領域の体積を実空間体積に変換する。
 具体的に、体積算出部24Fが算出する実空間体積には、第1実空間体積、第2実空間体積、第3実空間体積、及び第4実空間体積が含まれる。
 第1実空間体積は、合成ADCマップ50のシリーズのうち、第1閾値以上第2閾値未満の範囲に分類された信号値を示す画素が分布している3次元画像領域に対応する実空間体積である。ここで、第1実空間体積の3次元画像領域は、例えば、合成ADCマップ50のシリーズを通して信号値が第1閾値以上第2閾値未満の範囲で分布している画素の領域であり、合成ADCマップ50のシリーズのうちの黄色が付されている画素が分布している領域である。
 第2実空間体積は、合成ADCマップ50のシリーズのうち、第2閾値以上第3閾値未満の範囲に分類された信号値を示す画素が分布している3次元画像領域に対応する実空間体積である。ここで、第2実空間体積の3次元画像領域は、例えば、合成ADCマップ50のシリーズを通して信号値が第2閾値以上第3閾値未満の範囲で分布している画素の領域であり、合成ADCマップ50のシリーズのうちの橙色が付されている画素が分布している領域である。
 第3実空間体積は、合成ADCマップ50のシリーズのうち、第3閾値以上第4閾値未満の範囲に分類された信号値を示す画素が分布している3次元画像領域に対応する実空間体積である。ここで、第3実空間体積の3次元画像領域は、例えば、合成ADCマップ50のシリーズを通して信号値が第3閾値以上第4閾値未満の範囲で分布している画素の領域であり、合成ADCマップ50のシリーズのうちの緋色が付されている画素が分布している領域である。
 第4実空間体積は、合成ADCマップ50のシリーズのうち、第4閾値以上の範囲に分類された信号値を示す画素が分布している3次元画像領域に対応する実空間体積である。ここで、第4実空間体積の3次元画像領域は、例えば、合成ADCマップ50のシリーズを通して信号値が第4閾値以上の範囲で分布している画素の領域であり、合成ADCマップ50のシリーズのうちの赤色が付されている画素が分布している領域である。
 さらに、体積算出部24Fは、全ての実空間体積の和を算出する。具体的に、体積算出部24Fは、第1実空間体積、第2実空間体積、第3実空間体積、及び第4実空間体積の総和である総体積を算出する。
 [表示制御部]
 一例として図10に示すように、表示制御部24Gは、受付装置14によって受け付けられた指示に応じてGUI(Graphical User Interface)制御を行うことで、ディスプレイ16に対して画面54を表示させる。表示制御部24Gは、画面データ56をディスプレイ16に出力する。画面データ56は、合成画像52をディスプレイ16に対して表示させるためのデータである。ここで、画面データ56は、本開示の技術に係る「データ」の一例である。
 図10に示す例において、画面データ56は、画面54を示すデータである。表示制御部24Gは、ディスプレイ16に画面データ56を入力する。その結果、ディスプレイ16には、画面データ56に基づいた画面54が表示される。
 画面54には、合成画像52が含まれる。合成画像52は、ヒートマップ化された合成ADCマップ50を含む。また、画面54には、凡例54A、体積表示領域54B、及び設定パネル54C等が含まれる。
 また、表示制御部24Gは、受付装置14によって受け付けられた指示に従って画面データ56の内容を変更する。具体的に、表示制御部24Gは、ディスプレイ16に合成画像52のシリーズを表示させるためのフレームレートを変更したり、合成画像52のシリーズ内のフレームを間引いたり、ディスプレイ16に表示させる合成画像52を静止画像にしたりする。
 合成画像52は、シリーズ単位でディスプレイ16に表示される。例えば、ディスプレイ16には、合成画像52が動画像として表示される。具体的に、ディスプレイ16には、合成画像52のシリーズが先頭フレームから最終フレームにかけて既定のフレームレート(例えば、30フレーム/秒)で順次表示される。
 また、画面54には、凡例54A、体積表示領域54B、及び設定パネル54Cをディスプレイ16が含まれる。凡例54Aは、合成画像52に対して付された色の意味を示す。図10に示す例において、凡例54Aは、合成画像52に含まれるヒートマップ化された合成ADCマップ50において、第1閾値以上第2閾値未満の範囲に分類された信号値に対応する画素に黄色が付され、第2閾値以上第3閾値未満の範囲に分類された信号値に対応する画素に橙色が付され、第3閾値以上第4閾値未満の範囲に分類された信号値に対応する画素に緋色が付され、第4閾値以上の範囲に分類された信号値に対応する画素に赤色が付されていることを示している。
 体積表示領域54Bには、体積算出部24Fによる算出結果が表示される(図9参照)。図10に示す例では、体積表示領域54Bには、第1実空間体積と、第2実空間体積と、第3実空間体積と、第4実空間体積と、総体積と、が表示される。
 設定パネル54Cは、各種の設定パラメータを変更する指示を受け付けるパネルである。各種の設定パラメータは、受付装置14に対する操作を介して受け付けられる。各種の設定パラメータとしては、例えば、第1閾値、第2閾値、第3閾値、第4閾値、数値範囲、閾値範囲に対応する色、及び/又は、数値範囲内で設定される閾値の個数が挙げられる。閾値範囲に対応する色とは、上述したように、複数の閾値範囲に分類された信号値を有する画素に付す色を意味する。
 なお、ここでは、画面データ56がディスプレイ16に出力される形態を例に挙げて説明したが、本開示の技術は、これに限定されない。例えば、画面データ56の出力先は、ストレージ26であってもよいし、ネットワーク(図示省略)に接続された外部装置であってもよい。外部装置は、例えば、パーソナル・コンピュータ、サーバ、及び/又はプリンタ等である。また、画面データ56の出力先は、外部I/F32に接続されたメモリ(例えば、USBメモリ)等であってもよいし、外部I/F32に接続されたプリンタ等であってもよい。
 [作用]
 次に、医療業務支援装置10の作用について図11を参照しながら説明する。
 図11には、プロセッサ24によって行われる画像生成出力処理の流れの一例が示されている。図11に示す画像生成出力処理の流れは、本開示の技術に係る「画像処理方法」の一例である。なお、以下では、説明の便宜上、ストレージ26に少なくとも1つの部位に関する部位拡散強調画像が記憶されていることを前提として説明する。
 図11に示す画像生成出力処理では、先ず、ステップST10で、部位ADCマップ生成部24Aは、ストレージ26から未取得の部位拡散強調画像を取得する。ステップST10の処理が実行された後、画像生成出力処理は、ステップST12へ移行する。
 ステップST12で、部位ADCマップ生成部24Aは、現時点で取得済みの部位拡散強調画像のシリーズ内のフレーム数が複数であるか否かを判定する。ステップST12において、現時点で取得済みの部位拡散強調画像のシリーズ内のフレーム数が単数の場合は、画像生成出力処理はステップST10へ移行する。ステップST12において、現時点で取得済みの部位拡散強調画像のシリーズのフレーム数が複数の場合は、画像生成出力処理はステップST14へ移行する。
 ステップST14で、部位ADCマップ生成部24Aは、現時点で取得済みの部位拡散強調画像に関するb値の種類数が複数であるか否かを判定する。ステップST14において、現時点で取得済みの部位拡散強調画像に関するb値の種類数が単数の場合は、画像生成出力処理はステップST10へ移行する。ステップST14において、現時点で取得済みの部位拡散強調画像に関するb値の種類数が複数の場合は、画像生成出力処理はステップST16へ移行する。
 ステップST16で、部位ADCマップ生成部24Aは、現時点で取得済みの部位拡散強調画像に関する部位の種類数が複数であるか否かを判定する。ステップST16において、現時点で取得済みの部位拡散強調画像に関する部位の種類数が単数である場合は、画像生成出力処理はステップST30へ移行する。ステップST16において、現時点で取得済みの部位拡散強調画像に関する部位の種類数が複数である場合は、画像生成出力処理はステップST18へ移行する。
 ステップST18で、部位ADCマップ生成部24Aは、b値毎に各部位拡散強調画像のシリーズのフレーム数が一致しているか否かを判定する。言い換えると、部位ADCマップ生成部24Aは、b=0の各部位拡散強調画像のシリーズに含まれるフレーム数と、b=1000の各部位拡散強調画像のシリーズに含まれるフレーム数とが一致しているか否かを判定する。ステップST18において、b値毎に各部位拡散強調画像のシリーズのフレーム数が一致していない場合は、画像生成出力処理はステップST10へ移行する。ステップST18において、b値毎に各部位拡散強調画像のシリーズのフレーム数が一致している場合は、画像生成出力処理はステップST20へ移行する。
 ステップST20で、部位ADCマップ生成部24Aは、取得済みの各部位拡散強調画像のシリーズの各フレームからADC値を算出し、算出したADC値をシリーズのフレーム毎にマッピングすることで部位ADCマップ44のシリーズを生成する(図5参照)。
 具体的には、図5に示すように、部位ADCマップ生成部24Aは、複数の異なるb値についての部位拡散強調画像を用いてADC値を算出する。さらに、部位ADCマップ生成部24Aは、得られたADC値を1フレーム毎にマッピングし、シリーズ単位の部位ADCマップ44を生成する。
 より具体的に、部位ADCマップ生成部24Aは、b=0の胸部拡散強調画像のシリーズに含まれるフレームと、b=1000の胸部拡散強調画像のシリーズに含まれるフレームとに基づいて、ADC値を算出する。部位ADCマップ生成部24Aは、得られたADC値に基づいて胸部ADCマップ44Aを生成する。また、部位ADCマップ生成部24Aは、b=0の腹部拡散強調画像のシリーズに含まれるフレームと、b=1000の腹部拡散強調画像のシリーズに含まれるフレームとに基づいて、ADC値を算出する。部位ADCマップ生成部24Aは、得られたADC値に基づいて腹部ADCマップ44Bを生成する。さらに、部位ADCマップ生成部24Aは、b=0の腰部拡散強調画像のシリーズに含まれるフレームと、b=1000の腰部拡散強調画像のシリーズに含まれるフレームとに基づいて、ADC値を算出する。部位ADCマップ生成部24Aは、得られたADC値に基づいて腰部ADCマップ44Cを生成する。
 このように、本ステップST20では、例えば、部位ADCマップ44として、胸部ADCマップ44A、腹部ADCマップ44B、及び腰部ADCマップ44Cがシリーズ単位で生成される(図5参照)。ステップST20の処理が実行された後、画像生成出力処理は、ステップST22へ移行する。
 ステップST22で、合成拡散強調画像生成部24Bは、複数の部位拡散強調画像のシリーズをb値毎に合成し、合成拡散強調画像を生成する(図6参照)。具体的に、合成拡散強調画像生成部24Bは、b=0の複数の部位拡散強調画像をシリーズ単位で合成することにより第1合成拡散強調画像46のシリーズを生成する。また、合成拡散強調画像生成部24Bは、b=1000の複数の部位拡散強調画像をシリーズ単位で合成することにより第2合成拡散強調画像48のシリーズを生成する。ステップST22の処理が実行された後、画像生成出力処理は、ステップST24へ移行する。
 ステップST24で、合成ADCマップ生成部24Cは、ステップST20で生成された複数の部位ADCマップ44のシリーズを合成することで合成ADCマップ50のシリーズを生成する(図7参照)。本ステップST24では、例えば、合成ADCマップ50のシリーズとして、胸部ADCマップ44A、腹部ADCマップ44B、及び腰部ADCマップ44Cがシリーズ単位で繋ぎ合わされた画像のシリーズが生成される(図7参照)。言い換えると、合成ADCマップ生成部24Cは、同一シリーズの胸部ADCマップ44A、腹部ADCマップ44B、及び腰部ADCマップ44Cを合成し、被写体の全部位を含む合成ADCマップ50を生成する。ステップST24の処理が実行された後、画像生成出力処理は、ステップST26へ移行する。
 ステップST26で、合成画像生成部24Dは、合成拡散強調画像と合成ADCマップ50とを合成し、合成画像52を生成する(図8参照)。具体的に、合成画像生成部24Dは、第1合成拡散強調画像46のシリーズ及び第2合成拡散強調画像48のシリーズのうちの指定されたいずれか一方の合成拡散強調画像のシリーズと、合成ADCマップ50のシリーズとを合成して合成画像52のシリーズを生成する。合成拡散強調画像のシリーズと合成ADCマップ50のシリーズとの合成は、例えば、合成拡散強調画像のシリーズに対して合成ADCマップ50のシリーズがフレーム毎に重畳されることによって実現される。ステップST26の処理が実行された後、画像生成出力処理は、ステップST28へ移行する。
 ステップST28で、閾値分類部24Eは、合成ADCマップ50の信号値を閾値で分類して色分けを行う。具体的に、閾値分類部24Eは、合成画像52を構成する合成ADCマップ50のシリーズを取得し、取得した合成ADCマップ50のシリーズの各フレームの信号値を第1~第4閾値で分類する。そして、閾値分類部24Eは、合成ADCマップ50のシリーズの各フレームにおいて第1~第4閾値で分類した信号値を有する画素に対して、信号値に応じて定められた色を付す(図9参照)。言い換えると、閾値分類部24Eは、ADC値が分類された閾値範囲と、当該閾値範囲に設定された色とに基づき、対象となる画素に色を付す。また、ステップST28で、体積算出部24Fは、第1~第4実空間体積をそれぞれ算出する。さらに、体積算出部24Fは、第1~第4実空間体積の総体積を算出する。すなわち、体積算出部24Fは、合成ADCマップ50のシリーズにおいて色が付された3次元画像領域に対応する実空間体積を算出する。ステップST28の処理が実行された後、画像生成出力処理は、ステップST38へ移行する。
 ステップST30で、部位ADCマップ生成部24Aは、b値毎に部位拡散強調画像のシリーズのフレーム数が一致しているか否かを判定する。言い換えると、部位ADCマップ生成部24Aは、b=0の部位拡散強調画像のシリーズに含まれるフレーム数と、b=1000の部位拡散強調画像のシリーズに含まれるフレーム数とが一致しているか否かを判定する。ステップST30において、b=0の部位拡散強調画像のシリーズのフレーム数と、b=1000の部位拡散強調画像のシリーズのフレーム数とが一致していない場合は、画像生成出力処理はステップST10へ移行する。ステップST30において、b=0の部位拡散強調画像のシリーズのフレーム数と、b=1000の部位拡散強調画像のシリーズのフレーム数とが一致している場合は、画像生成出力処理はステップST32へ移行する。
 ステップST32では、得られた部位拡散強調画像が、一の部位についての部位拡散強調画像であった場合の画像生成出力処理を行う。そのため、処理対象となる部位拡散強調画像が一つであること以外は、基本的に、ステップST20の処理と同じである。すなわち、ステップST32で、部位ADCマップ生成部24Aは、取得済みの部位拡散強調画像のシリーズの各フレームからADC値を算出し、算出したADC値をシリーズのフレーム毎にマッピングする。これにより、部位ADCマップ生成部24Aは、シリーズ単位の部位ADCマップ44を生成する。本ステップST32では、例えば、部位ADCマップ44として、胸部ADCマップ44A、腹部ADCマップ44B、及び腰部ADCマップ44Cのいずれか一つがシリーズ単位で生成される。ステップST32の処理が実行された後、画像生成出力処理は、ステップST34へ移行する。
 ステップST34においても、得られた部位拡散強調画像が、一の部位についての部位拡散強調画像であった場合の画像生成出力処理を行う。具体的に、ステップST34で、合成画像生成部24Dは、一の部位についての、部位拡散強調画像及び部位ADCマップを合成し、部位合成画像を生成する。例えば、取得済みの部位拡散強調画像が胸部拡散強調画像40Aであった場合、合成画像生成部24Dは、胸部拡散強調画像40Aと、胸部ADCマップ44Aとを合成する。また、取得済みの部位拡散強調画像が腹部拡散強調画像40Bであった場合、合成画像生成部24Dは、腹部拡散強調画像40Bと、腹部ADCマップ44Bとを合成する。さらに、取得済みの部位拡散強調画像が腰部拡散強調画像40Cであった場合、合成画像生成部24Dは、腰部拡散強調画像40Cと、腰部ADCマップ44Cとを合成する。すなわち、合成画像生成部24Dは、取得済みの部位拡散強調画像のシリーズとステップST32で生成された部位ADCマップ44のシリーズとを合成することで、1つの部位に関する合成画像のシリーズである部位合成画像のシリーズ(図示省略)を生成する。ステップST34の処理が実行された後、画像生成出力処理は、ステップST36へ移行する。
 ステップST36においても、得られた部位拡散強調画像が、一の部位についての部位拡散強調画像であった場合の画像生成出力処理を行う。具体的に、ステップST36で、閾値分類部24Eは、部位合成画像を構成する部位ADCマップ44のシリーズを取得し、取得した部位ADCマップ44のシリーズの各フレームの信号値を第1~第4閾値で分類する。その後、閾値分類部24Eは、部位ADCマップ44のシリーズの各フレームにおいて第1~第4閾値で分類した信号値を有する画素に対して、信号値に応じて定められた色を付す。言い換えると、閾値分類部24Eは、部位ADCマップ44で得られるADC値を示す画素に対して、ADC値が分類された閾値範囲に対して設定された色を付す。また、ステップST36で、体積算出部24Fは、第1~第4実空間体積をそれぞれ算出する。さらに、体積算出部24Fは、第1~第4実空間体積の総体積を算出する。体積算出部24Fは、部位ADCマップ44のシリーズにおいて色が付された3次元画像領域に対応する実空間体積を算出する。ステップST36の処理が実行された後、画像生成出力処理は、ステップST38へ移行する。
 ステップST38で、表示制御部24Gは、画面データ56を生成してディスプレイ16に出力する(図10参照)。ステップST38がステップST28の処理の後に実行された場合、ステップST38では、画面データ56には、合成画像52のシリーズが含まれる。また、ステップST38がステップST36の後に実行された場合、ステップST38では、画面データ56には、部位合成画像のシリーズが含まれる。
 画面データ56がディスプレイ16に出力されると、ディスプレイ16には、画面54又は部分合成画像画面(図示省略)が表示される。部分合成画像画面は、合成画像52に代えて部位合成画像のシリーズが表示される点で、画面54と異なる。ステップST38の処理が実行された後、図11に示す画像生成出力処理が終了する。
 [特徴]
 (1)以上説明したように、上記実施形態に係る医療業務支援装置10では、複数の部位拡散強調画像からADC値が算出され、ADC値がマッピングされて複数の部位ADCマップ44が生成される。また、医療業務支援装置10は、複数の部位拡散強調画像を合成して合成拡散強調画像を生成する。さらに、医療業務支援装置10は、複数の部位ADCマップ44を合成することで合成ADCマップ50を生成する。また、医療業務支援装置10は、合成拡散強調画像と合成ADCマップ50とを合成して合成画像52を生成する。
 従来の医療業務支援装置は、複数の部位についての部位拡散強調画像を合成して全部位の部位拡散強調画像を含む合成拡散強調画像を生成した後、当該合成拡散強調画像に基づきADC値を算出し、当該ADC値に基づいてADCマップを生成していた。
 一方、本実施形態に係る医療業務支援装置10は、複数の部位拡散強調画像のそれぞれからADC値を算出し、当該ADC値を用いて複数の部位ADCマップ44を生成する。また、医療業務支援装置10は、複数の部位ADCマップ44を合成して合成ADCマップ50を生成する。さらに、医療業務支援装置10は、部位拡散強調画像を合成して合成拡散強調画像を生成し、その後、合成ADCマップ50と合成拡散強調画像とを合成する。
 そのため、従来の医療業務支援装置では、複数の部位拡散強調画像の合成時に、部位拡散強調画像を繋ぎ合わせた部分の信号値(例えば、ADC値)が変換されていた。そのため、従来の医療業務支援装置で得られるADCマップは、適切な信号値(ADC値)に基づいてマッピングが行われず、結果として、ADCマップの精度が低下してしまっていた。
 しかし、本実施形態に係る医療業務支援装置10は、合成拡散強調画像を生成する前の部位拡散強調画像の信号値(ADC値)に基づいて、部位ADCマップが生成され、その後、部位ADCマップを合成して合成ADCマップ50が生成される。そのため、本実施形態に係る医療業務支援装置10で生成された合成ADCマップ50は、従来の医療業務支援装置で生成されたADCマップに比べて、精度が向上する。従って、本実施形態で説明した構成を用いた医療業務支援装置10によれば、複数の部位の拡散強調画像を合成して得た合成拡散強調画像から導出したADC値に基づく合成画像に比べ、高精度な合成画像52を得ることができる。
 (2)また、医療業務支援装置10では、ADC値が算出された後、合成拡散強調画像が生成され、かつ、合成ADCマップ50が生成される。言い換えると、医療業務支援装置10は、合成拡散強調画像が生成される前にADC値を導出し、その後、合成拡散強調画像及び合成ADCマップを生成する。従って、本構成によれば、複数の部位拡散強調画像を合成してから算出したADC値を用いたADCマップと拡散強調画像とを合成することで得た、従来の画像に比べ、高精度な合成画像52を得ることができる。
 また、医療業務支援装置10では、MRI装置による撮像時のb値毎に複数の部位拡散強調画像が取得され、複数の部位拡散強調画像からADC値が算出される。従って、本構成によれば、複数の部位拡散強調画像が合成されてからADC値が算出される場合に比べ、高精度なADC値を得ることができる。
 また、医療業務支援装置10は、第1合成拡散強調画像46及び第2合成拡散強調画像48のうち、指定された一方の合成拡散強調画像と合成ADCマップ50とを合成する。従って、本構成によれば、第1合成拡散強調画像46及び第2合成拡散強調画像48の各々に対して合成ADCマップ50を合成させる場合に比べ、合成にかかる処理負荷を軽減することができる。
 また、医療業務支援装置10では、合成ADCマップ50内の信号値が第1~第4閾値で分類される。従って、本構成によれば、合成ADCマップ50内の信号値間の違いを容易に判別させることができる。
 また、医療業務支援装置10では、指定された数値範囲内で閾値が複数設定されている。従って、本構成によれば、閾値が1つの場合に比べ、合成ADCマップ50内の信号値間の違いを精緻に判別することができる。
 また、医療業務支援装置10では、信号値の分類に設定可能な閾値の数値範囲が可変である。例えば、医療業務支援装置10では、対象とする疾患の種類に応じて異なる数値範囲を用いて閾値を設定することができる。従って、本構成によれば、数値範囲が一定である場合に比べ、複数種類の疾患の各々について合成ADCマップ50内の信号値間の違いを精度良く判別することができる。すなわち、医療業務支援装置10は、様々な疾患を対象にした場合であっても、高精度の合成画像を生成することができる。
 また、医療業務支援装置10では、数値範囲内で設定される閾値の個数は可変である。従って、本構成によれば、閾値の個数が固定されている場合に比べ、ユーザ18が意図する分解能で合成ADCマップ50内の信号値間の違いを精度良く判別することができる。
 また、医療業務支援装置10では、画面データ56がディスプレイ16に出力される。ディスプレイ16には、画面データ56により示される画面54が表示される。画面54には、ヒートマップ化された合成ADCマップ50が合成拡散強調画像に重畳されることで得られた合成画像52が含まれており、合成画像52はユーザ18によって視認される。従って、本構成によれば、ユーザ18に対して、合成ADCマップ50内の信号値間の違いを視覚的に容易に認識させることができる。
 [変形例]
 (1)上記実施形態では、合成拡散強調画像及び合成ADCマップ50からなる合成画像52が生成された後に、合成画像52に含まれる合成ADCマップ50内の信号値が第1~第4閾値で分類される例を説明したが、本開示の技術は、これに限定されない。例えば、合成画像52が生成される前段階で、合成ADCマップ50内の信号値が第1~第4閾値で分類されるようにしてもよい。すなわち、医療業務支援装置10は、合成ADCマップ50の信号値を分類した後、合成拡散強調画像及び合成ADCマップ50を合成してもよい。
 この場合、一例として図12に示すように、閾値分類部24Eは、合成ADCマップ生成部24Cによって生成された合成ADCマップ50を取得する。また、閾値分類部24Eは、取得した合成ADCマップ50内の信号値を第1~第4閾値で分類して合成ADCマップ50内の画素に対して閾値範囲に応じた色を付す。その後、上記実施形態の説明と同様に、体積算出部24Fは、第1~第4実空間体積のそれぞれの体積及び総体積を算出する。また、合成画像生成部24Dは、第1合成拡散強調画像46及び第2合成拡散強調画像48のうち、指定されたいずれか一方の合成拡散強調画像と、閾値範囲に応じた色が付された画素を有する合成ADCマップ50とを合成することで合成画像52を生成する。この場合も、上記実施形態と同様の効果を奏する。
 (2)また、上記実施形態に係る医療業務支援装置10では、合成ADCマップ50内の信号値を閾値で分類した結果に基づいて部位の状態が評価されていないが、本開示の技術は、これに限定されない。具体的に、医療業務支援装置10は、合成ADCマップ50内の信号値を閾値で分類した結果に基づいて、プロセッサ24が部位の状態を評価するように構成してもよい。この場合、例えば、合成ADCマップ50内の信号値を第1~第4閾値を用いて分類した結果に基づいて、プロセッサ24による部位の状態評価が行われ、評価結果がディスプレイ16に表示される。すなわち、ヒートマップ化された合成ADCマップ50に従って、プロセッサ24が部位の状態を評価し、評価結果をディスプレイ16に表示させる。
 一例を図13に示す。画面54は、プロセッサ24によって生成された画面データ56により示される。ここで示す画面54は、上記実施形態で説明した画面54(図10参照)に比べ、メッセージ54D、メッセージ54E、及び評価結果表示領域54Fを含む点が異なる。メッセージ54Dは、重度の疾患である可能性が高いことを示すメッセージである。例えば、メッセージ54Dには、悪性腫瘍のステージが最も高いことを示すメッセージが示される。メッセージ54Dは、凡例54Aの赤色の領域に対して対応付けられている。メッセージ54Eは、重度の疾患である可能性が低いことを示すメッセージであり、凡例54Aの黄色の領域に対して対応付けられている。評価結果表示領域54Fには、部位の状態についての評価結果がメッセージ形式で表示される。部位の状態についての評価は、上述したように、ヒートマップ化された合成ADCマップ50に基づいてプロセッサ24によって行われる。図13に示す例では、評価結果表示領域54Fに、胸部及び腹部に重度の病変部が存在する可能性が高いことを示すメッセージが表示されている。
 この場合、例えば、プロセッサ24は、赤色の領域の体積が基準値以上の場合に、重度の疾患である可能性が高いと評価する。そして、プロセッサ24は、重度の疾患である可能性が高いと評価した部位の名称を示す情報を画面データ56に含めてディスプレイ16に出力する。これにより、ディスプレイ16の評価結果表示領域54Fには、重度の疾患である可能性が高いと評価した部位の状態がメッセージ形式で表示される。従って、本構成によれば、ユーザ18は、部位の状態について、プロセッサ24によって評価された結果を把握することができる。
 (3)また、上記実施形態では、一例として、合成拡散強調画像の生成が行われた後に合成ADCマップ50の生成が行われる形態を説明したが(図11のステップST22及びステップST24参照)、本開示の技術はこれに限定されない。すなわち、合成ADCマップ50の生成が行われた後に合成拡散強調画像の生成が行われるようにしてもよい。
 (4)また、上記実施形態では、図11に示すように、b値毎に合成拡散強調画像を生成した後(ステップST22)、合成ADCマップを生成する例を説明したが(ステップST24)、ステップST22及びステップST24に代えて、図14に示すように、ステップST50の処理が実行されるようにしてもよい。ステップST50では、プロセッサ24によって、b値毎の合成拡散強調画像の生成と合成ADCマップ50の生成とが並行して行われる。b値毎の合成拡散強調画像は、上述したように、第1合成拡散強調画像46及び第2合成拡散強調画像48を意味する。
 従って、本構成によれば、合成拡散強調画像及び合成ADCマップ50のうちの一方の生成が完了するのを待ってから他方を生成する場合に比べ、合成画像52を得るまでに要する時間の短縮に寄与することができる。
 (5)また、上記実施形態では、b値として、“0”及び“1000”を例示したが、b値は、ADC値を算出可能な異なる3つ以上のb値であってもよい。例えば、b値が、“0”、“1000”、及び“2000”であってもよい。なお、b値が3つ以上の場合、3つ以上のb値の部位拡散強調画像から1つのADCマップが生成されてもよいし、3つ以上のb値の部位拡散強調画像から複数のADCマップが生成されても良い。複数のADCマップとして、例えば、b値が“0”と“1000”、b値が“1000”と“2000”、及びb値が“0”と“2000”の部位拡散強調画像を用いたADCマップが生成されてもよい。
 (6)また、上記実施形態では、複数の部位として、胸部、腹部、及び腰部を例示したが、複数の部位はこれに限定されない。ユーザが任意に複数の部位のそれぞれを選択可能な構成であっても良く、例えば、頭部、胸部、腹部、腰部、及び脚部等から選択された複数の部位であればよい。また、頭部、胸部、腹部、腰部、及び脚部等から選択された1つの部位が分割されて得られた複数の分割部位(例えば、胸部が頭部側から腹部側にかけて分割されて得られた分割部位)であってもよい。
 (7)また、上記実施形態では、医療業務支援装置10に含まれる画像処理装置12のプロセッサ24によって画像生成出力処理が行われる例を説明したが、本開示の技術はこれに限定されず、画像生成出力処理を行うデバイスは、医療業務支援装置10の外部に設けられていてもよい。
 この場合、一例として図15に示すように、医療業務支援システム100を採用することができる。医療業務支援システム100は、情報処理装置101及び外部通信装置102を備える。情報処理装置101は、上記実施形態で説明した画像処理装置12のストレージ26から画像生成出力処理プログラム36及び拡散強調画像38のシリーズが除かれた装置である。外部通信装置102は、例えば、サーバである。サーバは、例えば、メインフレームによって実現される。なお、サーバは、クラウドコンピューティングによって実現されてもよいし、フォグコンピューティング、エッジコンピューティング、又はグリッドコンピューティング等のネットワークコンピューティングによって実現されてもよい。ここでは、外部通信装置102の一例として、サーバを挙げているが、サーバに代えて、少なくとも1台のパーソナル・コンピュータ等を外部通信装置102として用いてもよい。
 外部通信装置102は、プロセッサ104、ストレージ106、RAM108、及び通信I/F110を備えており、プロセッサ104、ストレージ106、RAM108、及び通信I/F110は、バス112で接続されている。通信I/F110は、ネットワーク114を介して情報処理装置101に接続されている。ネットワーク114は、例えば、インターネットである。なお、ネットワーク114は、インターネットに限らず、WAN、及び/又は、イントラネット等のLANであってもよい。
 ストレージ106には、画像生成出力処理プログラム36及び複数の拡散強調画像38が記憶されている。プロセッサ104は、RAM108上で画像生成出力処理プログラム36を実行する。プロセッサ104は、RAM108上で実行する画像生成出力処理プログラム36に従って、上述した画像生成出力処理を行う。
 情報処理装置101は、外部通信装置102に対して画像生成出力処理の実行を要求する要求信号を送信する。外部通信装置102の通信I/F110は、ネットワーク114を介して要求信号を受信する。プロセッサ104は、画像生成出力処理プログラム36に従って画像生成出力処理を行い、処理結果を通信I/F110を介して情報処理装置101に送信する。情報処理装置101は、外部通信装置102から送信された処理結果(例えば、画面データ56)を通信I/F30(図2参照)で受信し、受信した処理結果をディスプレイ16等の各種装置に対して出力する。
 なお、図15に示す例において、外部通信装置102は、本開示の技術に係る「画像処理装置」の一例であり、プロセッサ104は、本開示の技術に係る「プロセッサ」の一例である。
 (8)また、画像生成出力処理は、情報処理装置101及び外部通信装置102を含む複数の装置によって分散されて行われるようにしてもよい。
 (9)また、上記実施形態では、プロセッサ24がCPU及びGPUによって実現される例を挙げたが、本開示の技術は、これに限定されされない。例えば、プロセッサ24は、CPU、GPU、GPGPU(General-purpose computing on graphics processing units)、及びTPU(Tensor processing unit)のうち、少なくともいずれか一つによって実現されるプロセッサであってもよい。
 (10)また、上記実施形態では、画像生成出力処理プログラム36は、ストレージ26に記憶されている例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図16に示すように、画像生成出力処理プログラム36がSSD又はUSBメモリなどの記憶媒体116に記憶されていてもよい。記憶媒体116は、可搬型の非一時的記憶媒体である。記憶媒体116に記憶されている画像生成出力処理プログラム36は、医療業務支援装置10の画像処理装置12にインストールされる。プロセッサ24は、画像生成出力処理プログラム36に従って画像生成出力処理を実行する。
 また、画像生成出力処理プログラム36は、他のコンピュータ又はサーバ装置等の記憶装置に記憶させておき、医療業務支援装置10の要求に応じて記憶装置からダウンロードされて、画像処理装置12にインストールされるようにしてもよい。この時、他のコンピュータ又はサーバ装置等は、図示しないネットワークを介して医療業務支援装置10に接続される。
 画像生成出力処理プログラム36の全てを、医療業務支援装置10に接続される他のコンピュータやサーバ装置等の記憶装置、又はストレージ26に記憶させておく必要はなく、画像生成出力処理プログラム36の一部を記憶させておいてもよい。なお、記憶媒体116、医療業務支援装置10に接続される他のコンピュータ又はサーバ装置等の記憶装置、及びその他の外部ストレージ(例えば、データベース等)は、プロセッサ24に直接的又は間接的に接続されて用いられるメモリとして位置付けられる。
 (11)また、上記実施形態では、画像処理装置12がコンピュータとして例示されているが、本開示の技術はこれに限定されない。コンピュータに代えて、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、及び/又はPLD(Programmable Logic Device)を含むデバイスを適用してもよい。また、コンピュータに代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
 (12)上記実施形態で説明した画像生成出力処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、CPUが挙げられる。CPUは汎用的なプロセッサであり、ソフトウェア、すなわち、プログラムを実行することで、画像生成出力処理を実行するハードウェア資源として機能する。また、プロセッサとしては、例えば、専用電気回路も挙げられる。専用電気回路は、特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである。専用電気回路は、例えば、FPGA、PLD、又はASIC等である。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで画像生成出力処理を実行する。
 画像生成出力処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせで構成されてもよい。例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせであってもよい。また、画像生成出力処理を実行するハードウェア資源は1つのプロセッサであってもよい。
 1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、画像生成出力処理を実行するハードウェア資源として機能する形態がある。第2に、SoC(System-on-a-chip)などに代表されるように、画像生成出力処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、画像生成出力処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 更に、これら各種プロセッサのハードウェア構成としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の画像生成出力処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 (13)上述の記載及び図示内容は、本開示の技術の一例に過ぎない。例えば、上述の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例にすぎない。よって、本開示の技術の主旨を逸脱しない範囲内において、上述の記載及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は、上述の記載及び図示内容から省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
10 医療業務支援装置
12 画像処理装置
14 受付装置
16 ディスプレイ
18 ユーザ
20 キーボード
22 マウス
24,104 プロセッサ
24A 部位ADCマップ生成部
24B 合成拡散強調画像生成部
24C 合成ADCマップ生成部
24D 合成画像生成部
24E 閾値分類部
24F 体積算出部
24G 表示制御部
26,106 ストレージ
28,108 RAM
30,110 通信I/F
32 外部I/F
34,112 バス
36 画像生成出力処理プログラム
38 拡散強調画像
40 第1拡散強調画像
40A,42A 胸部拡散強調画像
40B,42B 腹部拡散強調画像
40C,42C 腰部拡散強調画像
42 第2拡散強調画像
44 部位ADCマップ
44A 胸部ADCマップ
44B 腹部ADCマップ
44C 腰部ADCマップ
46 第1合成拡散強調画像
48 第2合成拡散強調画像
50 合成ADCマップ
52 合成画像
54 画面
54A 凡例
54B 体積表示領域
54C 設定パネル
54D,54E メッセージ
54F 評価結果表示領域
56 画面データ
100 医療業務支援システム
101 情報処理装置
102 外部通信装置
114 ネットワーク
116 記憶媒体

Claims (13)

  1.  プロセッサを備え、
     前記プロセッサは、
     複数の部位のそれぞれについて、部位拡散強調画像を取得し、
     複数の前記部位拡散強調画像から各部位のADC値を導出し、
     前記複数の部位拡散強調画像を合成することで合成拡散強調画像を生成し、
     前記各部位の前記ADC値を合成することでADC画像を生成し、
     前記合成拡散強調画像と前記ADC画像とを合成させて合成画像を生成する、
    画像処理装置。
  2.  前記プロセッサは、前記ADC値を導出した後、前記合成拡散強調画像を生成し、かつ、前記ADC画像を生成する、
    請求項1に記載の画像処理装置。
  3.  前記プロセッサは、前記複数の部位のそれぞれについて、撮像時の傾斜磁場の強度が異なる複数の前記部位拡散強調画像を取得し、
     前記複数の部位のそれぞれについて、前記強度が異なる前記複数の部位拡散強調画像に基づき、前記ADC値を導出する、
    請求項1又は請求項2に記載の画像処理装置。
  4.  前記プロセッサは、前記部位拡散強調画像を、撮像時の傾斜磁場の強度が異なる複数の強度別部位拡散強調画像として取得し、
     前記ADC画像と合成させる前記合成拡散強調画像は、前記複数の強度別部位拡散強調画像から指定された強度別部位拡散強調画像が、前記複数の部位間で合成されることによって得られた画像である、
    請求項1から請求項3の何れか一項に記載の画像処理装置。
  5.  前記プロセッサは、前記ADC画像の信号値を閾値で分類する、
    請求項1から請求項4の何れか一項に記載の画像処理装置。
  6.  前記プロセッサは、前記信号値を前記閾値で分類した結果に基づいて前記部位の状態を評価する、
    請求項5に記載の画像処理装置。
  7.  前記閾値は、指定された数値範囲内で複数設定されている、
    請求項5又は請求項6に記載の画像処理装置。
  8.  前記数値範囲は、可変である、
    請求項7に記載の画像処理装置。
  9.  前記数値範囲内で設定される前記閾値の個数は、可変である、
    請求項7又は請求項8に記載の画像処理装置。
  10.  前記プロセッサは、前記信号値を前記閾値で分類した結果を示す分類結果画像をディスプレイに対して表示させるためのデータを出力する、
    請求項5から請求項9の何れか一項に記載の画像処理装置。
  11.  前記合成拡散強調画像の生成と前記ADC画像の生成とが並行して行われる、
    請求項1から請求項10の何れか一項に記載の画像処理装置。
  12.  複数の部位のそれぞれについて、部位拡散強調画像を取得すること、
     複数の前記部位拡散強調画像から各部位のADC値を導出すること、
     前記各部位の前記ADC値を合成することでADC画像を生成すること、
     前記複数の部位拡散強調画像を合成することで合成拡散強調画像を生成すること、及び、
     前記合成拡散強調画像と前記ADC画像とを合成させて合成画像を生成すること、
    を含む画像処理方法。
  13.  コンピュータに、
     複数の部位のそれぞれについて、部位拡散強調画像を取得すること、
     複数の前記部位拡散強調画像から各部位のADC値を導出すること、
     前記各部位の前記ADC値を合成することでADC画像を生成すること、
     前記複数の部位拡散強調画像を合成することで合成拡散強調画像を生成すること、及び、
     前記合成拡散強調画像と前記ADC画像とを合成させて合成画像を生成すること、
    を含む処理を実行させるためのプログラム。
PCT/JP2022/004602 2021-03-29 2022-02-07 画像処理装置、画像処理方法、及びプログラム WO2022209298A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023510581A JPWO2022209298A1 (ja) 2021-03-29 2022-02-07
US18/460,714 US20230410270A1 (en) 2021-03-29 2023-09-05 Image processing apparatus, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021056180 2021-03-29
JP2021-056180 2021-03-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/460,714 Continuation US20230410270A1 (en) 2021-03-29 2023-09-05 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
WO2022209298A1 true WO2022209298A1 (ja) 2022-10-06

Family

ID=83458845

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/004602 WO2022209298A1 (ja) 2021-03-29 2022-02-07 画像処理装置、画像処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US20230410270A1 (ja)
JP (1) JPWO2022209298A1 (ja)
WO (1) WO2022209298A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240153151A1 (en) * 2022-11-04 2024-05-09 Lemon Inc. Generation of images corresponding to input text using multi-algorithm diffusion sampling

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008012172A (ja) * 2006-07-07 2008-01-24 Toshiba Corp 磁気共鳴イメージング装置および画像処理装置
JP2015517375A (ja) * 2012-05-23 2015-06-22 コーニンクレッカ フィリップス エヌ ヴェ マルチエコーpresto
JP2019037465A (ja) * 2017-08-25 2019-03-14 株式会社Aze 医用画像処理装置、その制御方法、及びプログラム
JP2019180937A (ja) * 2018-04-12 2019-10-24 キヤノンメディカルシステムズ株式会社 磁気共鳴イメージング装置、処理装置および硬さ情報生成方法
JP2020137889A (ja) * 2019-02-28 2020-09-03 株式会社PixSpace 投影画像演算処理装置、投影画像演算処理方法および投影画像演算処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008012172A (ja) * 2006-07-07 2008-01-24 Toshiba Corp 磁気共鳴イメージング装置および画像処理装置
JP2015517375A (ja) * 2012-05-23 2015-06-22 コーニンクレッカ フィリップス エヌ ヴェ マルチエコーpresto
JP2019037465A (ja) * 2017-08-25 2019-03-14 株式会社Aze 医用画像処理装置、その制御方法、及びプログラム
JP2019180937A (ja) * 2018-04-12 2019-10-24 キヤノンメディカルシステムズ株式会社 磁気共鳴イメージング装置、処理装置および硬さ情報生成方法
JP2020137889A (ja) * 2019-02-28 2020-09-03 株式会社PixSpace 投影画像演算処理装置、投影画像演算処理方法および投影画像演算処理プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FERJAOUI RADHIA; CHERNI MOHAMED ALI; KRAIEM NOUR EL HOUDA; KRAIEM TAREK: "Lymphoma Lesions Detection from Whole Body Diffusion-Weighted Magnetic Resonance Images", 2018 5TH INTERNATIONAL CONFERENCE ON CONTROL, DECISION AND INFORMATION TECHNOLOGIES (CODIT), IEEE, 10 April 2018 (2018-04-10), pages 364 - 369, XP033364439, DOI: 10.1109/CoDIT.2018.8394840 *
TAKAHARA, TARO: "Concept and usefulness of DWIBS method", HINYOKI GEKA - JAPANESE JOURNAL OF UROLOGICAL SURGERY, IGAKU TOSHO SHUPPAN, TOKYO, JP, vol. 32, no. 10, 1 January 2019 (2019-01-01), JP , pages 1251 - 1261, XP009540147, ISSN: 0914-6180 *

Also Published As

Publication number Publication date
JPWO2022209298A1 (ja) 2022-10-06
US20230410270A1 (en) 2023-12-21

Similar Documents

Publication Publication Date Title
US9471987B2 (en) Automatic planning for medical imaging
JP6316671B2 (ja) 医療画像処理装置および医用画像処理プログラム
JP2005518915A (ja) ボリュームどうしの融像の視覚化
CN111563523A (zh) 利用机器训练的异常检测的copd分类
US10332305B2 (en) Cinematic rendering of unfolded 3D volumes
US10188361B2 (en) System for synthetic display of multi-modality data
JP2019103848A (ja) 医用画像処理方法、医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
JP2005169118A (ja) 断層画像データのセグメント化方法および画像処理システム
CN108269292B (zh) 用于根据三维图像数据组产生二维投影图像的方法和设备
JP2022077991A (ja) 医用画像処理装置、医用画像処理方法、医用画像処理プログラム、モデルトレーニング装置、およびトレーニング方法
JP2021140769A (ja) 医用情報処理装置、医用情報処理方法及び医用情報処理プログラム
US20230410270A1 (en) Image processing apparatus, image processing method, and program
US8933926B2 (en) Image processing apparatus, method, and program
Preim et al. Survey of the visual exploration and analysis of perfusion data
Zhong et al. Flexible prediction of CT images from MRI data through improved neighborhood anchored regression for PET attenuation correction
US8331638B2 (en) Creation of motion compensated MRI M-mode images of the myocardial wall
US20220108540A1 (en) Devices, systems and methods for generating and providing image information
CN115311191A (zh) 使用深度学习估计的扫描方案遮罩来生成三维解剖结构扫描的重新格式化视图
JP2017051598A (ja) 磁気共鳴イメージング装置及び画像処理装置
US20240020838A1 (en) Medical image processing device, operation method of medical image processing device, and operation program of medical image processing device
US20230214664A1 (en) Learning apparatus, method, and program, image generation apparatus, method, and program, trained model, virtual image, and recording medium
JP6564075B2 (ja) 医用画像を表示するための伝達関数の選択
US10896501B2 (en) Rib developed image generation apparatus using a core line, method, and program
Zhang et al. MR and ultrasound cardiac image dynamic visualization and synchronization over Internet for distributed heart function diagnosis
EP2343687B1 (en) Tomographic image generating apparatus, tomographic image generating method, and program for generating tomographic images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22779527

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023510581

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22779527

Country of ref document: EP

Kind code of ref document: A1