WO2022163402A1 - 学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置 - Google Patents

学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置 Download PDF

Info

Publication number
WO2022163402A1
WO2022163402A1 PCT/JP2022/001351 JP2022001351W WO2022163402A1 WO 2022163402 A1 WO2022163402 A1 WO 2022163402A1 JP 2022001351 W JP2022001351 W JP 2022001351W WO 2022163402 A1 WO2022163402 A1 WO 2022163402A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
dimensional
resolution
generator
learning
Prior art date
Application number
PCT/JP2022/001351
Other languages
English (en)
French (fr)
Inventor
彰 工藤
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022578244A priority Critical patent/JPWO2022163402A1/ja
Priority to EP22745625.8A priority patent/EP4287114A1/en
Publication of WO2022163402A1 publication Critical patent/WO2022163402A1/ja
Priority to US18/357,986 priority patent/US20230368442A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/441AI-based methods, deep learning or artificial neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Definitions

  • the present invention relates to a method of generating a trained model, a machine learning system, a program, and a medical image processing apparatus, and more particularly to machine learning technology and image processing technology for domain conversion of 3D images.
  • AI Artificial intelligence
  • Patent Document 1 describes a diagnosis support system that uses AI to extract organ regions from medical images.
  • Patent Literature 2 describes an image processing method for generating high-definition three-dimensional data obtained by changing the slice thickness from three-dimensional data of a predetermined slice thickness captured by a modality such as a CT apparatus.
  • Non-Patent Document 1 uses a network that combines two configurations of Generative Adversarial Networks (GAN), and converts images of two different domains to each other without using paired images as training data. technology is disclosed.
  • GAN Generative Adversarial Networks
  • Non-Patent Document 2 applies the technology of Non-Patent Document 1 and proposes a method for learning the task of domain transformation and organ region extraction for three-dimensional medical images.
  • Medical images are generated by various modalities, and the characteristics of the images differ for each modality.
  • a computer-aided diagnosis (Computer Aided Diagnosis, Computer Aided Detection: CAD) system using AI is generally constructed for each modality in which target medical images are taken. If it is possible to apply the technology constructed with a specific modality to images of other modalities, it is expected to be used in more situations.
  • a high-performance image conversion process between different modalities such as processing to generate a pseudo MR image from a CT image, or conversely, processing to generate a pseudo CT image from an MR image.
  • An image converter is required. Note that “image conversion” may be rephrased as “image generation”, and the converter may be rephrased as “generator”. Modality is understood as a kind of domain corresponding to image features.
  • Medical images taken using a CT device or MRI device can be three-dimensional data in which two-dimensional slice images are continuous in the slice thickness direction. desired.
  • Non-Patent Document 1 deals with two-dimensional images and does not describe application to three-dimensional images.
  • Non-Patent Document 2 proposes a method of learning image conversion between different domains targeting three-dimensional medical images. It is necessary to train the model using high-resolution datasets for each of the three cross-sections of .
  • 3D data taken under different shooting conditions such as 3D data in which only one specific cross section among the three types of cross sections has high resolution.
  • 3D data in which only one specific cross section among the three types of cross sections has high resolution For example, three-dimensional data of a thick slice, which is widely used in actual clinical practice, has low resolution in the slice thickness direction, and only one specific cross section out of three types of cross sections has high resolution.
  • three-dimensional data of thin slices with a slice thickness of 1 mm or less have high resolution in each of the three orthogonal axes (eg, x-axis, y-axis and z-axis) including the slice thickness direction. All of the cross-sections are high resolution. Thin-slice three-dimensional data takes longer to capture than thick-slice three-dimensional data, and the amount of data is also larger. Therefore, many medical institutions usually acquire thick-slice data. Therefore, thick slice data can be obtained relatively easily compared to thin slice data.
  • the features of the generated image generated by the model depend on the data used for learning.
  • the learning architecture for two-dimensional images described in Non-Patent Document 1 is applied as it is to the architecture for three-dimensional images, and easily available thick slice data is used as training data.
  • the generated images are obtained under the same conditions (thick slices) as the data used for learning, so it is difficult to generate high-resolution three-dimensional images for each of the three types of cross sections.
  • the present disclosure has been made in view of such circumstances. It is an object of the present invention to provide a trained model generating method, a machine learning system, a program, and a medical image processing apparatus capable of generating a high-resolution 3D generated image by transforming the domain of a 3D image that has been generated.
  • a method of generating a trained model is a method of generating a trained model that transforms the domain of an input 3D image and outputs a 3D generated image of a different domain, wherein the first domain
  • a first generator configured using a three-dimensional convolutional neural network that receives an input of a three-dimensional image of and outputs a three-dimensional generated image of a second domain different from the first domain, and generated by the first generator
  • a two-dimensional convolutional neural network that accepts input of a two-dimensional image showing a cross-sectional image in the first slice plane direction cut out from the three-dimensional generated image of the second domain and determines the authenticity of the input two-dimensional image
  • a learning model having a structure of an adversarial generation network including a configured first discriminator
  • a computer uses a three-dimensional image captured under a first imaging condition and a second imaging condition different from the first imaging condition Acquiring a plurality of learning data including a three-dimensional image captured by the method, and performing a learning
  • the learning data can be divided into two-dimensional images of cross-sectional images whose first slice plane direction is the slice plane direction with relatively high resolution, and can be input to the first discriminator.
  • the first generator can generate the cross-sectional image in the direction of the first slice plane.
  • a trained primary generator can be used as a trained model to perform the task of hetero-domain image generation that transforms the domain of a 3D image.
  • the method of generating a trained model is understood as the method of producing a trained model. Also, the method of generating a trained model may be understood as a machine learning method implemented using a computer. Resolution may also be called spatial resolution.
  • a computer In a method of generating a trained model according to another aspect of the present disclosure, a computer generates a two-dimensional image showing a cross-sectional image in the direction of the first slice plane from the three-dimensional generated image of the second domain generated by the first generator.
  • the configuration may include performing a first clipping process of clipping, and inputting the two-dimensional image clipped by the first clipping process to the first discriminator.
  • the first imaging condition includes that the device used for imaging is the first imaging device, and the second imaging condition is that the device used for imaging is It is possible to adopt a configuration including being a second imaging device of a type different from the first imaging device.
  • the first imaging condition includes that the resolution condition is the first resolution condition
  • the second imaging condition is that the resolution condition is the first resolution condition. It can be configured to include a second resolution condition different from .
  • At least one of the first imaging condition and the second imaging condition has resolution in one of the three orthogonal axes as a resolution condition. lower than the resolution in each of the two axial directions of .
  • the resolution in one of the three orthogonal axes is higher than the resolution in each of the other two axes.
  • Anisotropic three-dimensional data with low resolution is used, and the first slice plane direction is a slice plane direction parallel to other two axial directions with relatively high resolution in the anisotropic three-dimensional data. be able to.
  • the learning model further includes a first A second discriminator configured using a two-dimensional convolutional neural network that receives an input of a two-dimensional image representing a cross-sectional image in the two-slice plane direction and discriminates whether the input two-dimensional image is true or false; , a process of making the first generator and the second discriminator learn in an adversarial manner.
  • a computer In a method for generating a trained model according to another aspect of the present disclosure, a computer generates a two-dimensional image showing a cross-sectional image in the direction of the second slice plane from the three-dimensional generated image of the second domain generated by the first generator.
  • a configuration may include performing a second clipping process of clipping, and inputting the two-dimensional image clipped by the second clipping process to the second discriminator.
  • the learning data is defined as follows: Anisotropic 3D data with z-axis low resolution lower than the resolution and y-axis low-resolution anisotropy 3 whose y-axis direction resolution is lower than the respective resolutions in the z-axis direction and the x-axis direction
  • the first slice plane direction is the slice plane direction parallel to the x-axis direction and the y-axis direction
  • the second slice plane direction is the slice plane direction parallel to the z-axis direction and the x-axis direction. It can be configured as follows.
  • the learning data is defined as: y-axis low-resolution anisotropic 3D data lower than the resolution and x-axis low-resolution anisotropic 3 whose x-axis direction resolution is lower than the respective resolutions in the y-axis direction and z-axis direction
  • the first slice plane direction is the slice plane direction parallel to the z-axis direction and the x-axis direction
  • the second slice plane direction is the slice plane direction parallel to the y-axis direction and the z-axis direction. It can be configured as follows.
  • the learning data is defined as: x-axis low-resolution anisotropic 3D data lower than resolution and z-axis low-resolution anisotropic 3 whose z-axis direction resolution is lower than the respective resolutions in the x-axis direction and y-axis direction
  • the first slice plane direction is the slice plane direction parallel to the y-axis direction and the z-axis direction
  • the second slice plane direction is the slice plane direction parallel to the x-axis direction and the y-axis direction. It can be configured as follows.
  • a first discrimination used for authenticity discrimination of the three-dimensional generated image of the second domain according to the condition of the resolution of the input learning data It is possible to adopt a configuration in which the device or the second discriminator is selectively switched.
  • the resolution in one of the three orthogonal axes is higher than the resolution in the other two directions.
  • a configuration in which low anisotropic three-dimensional data is used can be employed.
  • a computer transforms a three-dimensional image captured under a first imaging condition into isotropic three-dimensional data having the same resolution in each axial direction of three orthogonal axes.
  • the configuration may include performing a first isotropic process for conversion and inputting the isotropic three-dimensional data after conversion by the first isotropic process to the first generator.
  • the first generator receives input of isotropic three-dimensional data having the same resolution in each axial direction of three orthogonal axes, and generates a three-dimensional generated image. It can be configured to output isotropic three-dimensional data.
  • the learning model further includes a three-dimensional convolutional neural network that receives an input of a three-dimensional image of the second domain and outputs a three-dimensional generated image of the first domain. and a two-dimensional image representing a cross-sectional image in a specific slice plane direction extracted from the three-dimensional generated image of the first domain generated by the second generator, and input a third discriminator constructed using a two-dimensional convolutional neural network that discriminates truth or falsehood of the generated two-dimensional image, and the learning process adversarially learns the second generator and the third discriminator It can be configured to include a process for causing
  • This aspect can be an application of the so-called CycleGAN mechanism described in Non-Patent Document 1.
  • a computer In a method for generating a trained model according to another aspect of the present disclosure, a computer generates a two-dimensional image showing a cross-sectional image in a specific slice plane direction from a three-dimensional generated image of a first domain generated by a second generator.
  • the configuration may include performing a third clipping process of clipping, and inputting the two-dimensional image clipped by the third clipping process to the third discriminator.
  • the computer inputs the 3D generated image of the second domain output from the first generator to the second generator, thereby generating Based on the output first reconstructed image, a process of calculating the first reconstruction loss of the conversion process using the first generator and the second generator in this order; A first transformation process using the second generator and the first generator in this order based on the second reconstructed generated image output from the first generator by inputting the three-dimensional generated image of the domain into the first generator. 2 calculating the reconstruction loss;
  • the computer used for input to the first generator when generating the first reconstructed image for the first reconstructed image A first average pooling process is performed to convert the original learning data into three-dimensional data with the same resolution, and the three-dimensional data after conversion by the first average pooling process and the original learning data used as input to the first generator Calculating a first reconstruction loss based on .
  • the computer used for input to the second generator when generating the second reconstructed image for the second reconstructed image A second average pooling process is performed to convert the original training data into three-dimensional data with the same resolution. calculating a second reconstruction loss based on .
  • the learning model further includes a slice orthogonal to a specific slice plane direction extracted from the three-dimensional generated image of the first domain generated by the second generator.
  • a fourth discriminator configured using a two-dimensional convolutional neural network that receives an input of a two-dimensional image representing a cross-sectional image in the plane direction and discriminates whether the input two-dimensional image is true or false; It is possible to adopt a configuration including a process of making the second generator and the fourth discriminator learn hostilely.
  • a computer In a method of generating a trained model according to another aspect of the present disclosure, a computer generates a cross-sectional image in a slice plane direction orthogonal to a specific slice plane direction from a three-dimensional generated image of a first domain generated by a second generator. and inputting the two-dimensional image cut out by the fourth cut-out process to the fourth discriminator.
  • the specific slice plane direction may be the first slice plane direction.
  • a computer transforms a three-dimensional image captured under the second imaging condition into isotropic three-dimensional data having the same resolution in each direction of three orthogonal axes.
  • a configuration may include performing a second isotropic process for conversion and inputting isotropic three-dimensional data after conversion by the second isotropic process to a second generator.
  • the first imaging condition may correspond to the first domain
  • the second imaging condition may correspond to the second domain
  • the three-dimensional image captured under the first imaging condition is a first modality image captured using a first modality that is a medical device
  • the The three-dimensional image captured under the two imaging conditions is a second modality image captured using a second modality, which is a type of medical device different from the first modality
  • the learning model receives the input of the first modality image.
  • learning may be performed to generate a pseudo second modality-generated image having features of an image captured using the second modality.
  • the first domain may have a first resolution
  • the second domain may have a second resolution higher than the first resolution
  • the three-dimensional image captured under the first imaging condition is such that the resolution in the first axial direction among the three orthogonal axes is the resolution in each of the other two axial directions.
  • the 3D image captured under the second imaging condition has a resolution in the second axis direction different from the first axis direction out of the three orthogonal axes, and the resolution in the second axis direction is the other two.
  • the learning model receives at least one input of the first-axis low-resolution three-dimensional data and the second-axis low-resolution three-dimensional data; , learning is performed so as to generate isotropic three-dimensional data having a resolution higher than that of the input three-dimensional data.
  • a computer performs resolution reduction processing for reducing the resolution of a three-dimensional generated image in a first domain generated by a first generator, Calculating the reconstruction loss of the image conversion by the super-resolution processing and the low-resolution processing by the first generator based on the reconstructed generated image obtained by the low-resolution processing. can be done.
  • a machine learning system is a machine learning system that trains a learning model that transforms the domain of an input 3D image to generate a 3D generated image of a different domain, comprising at least one a first processor and at least one first storage device storing a program executed by the at least one first processor, the learning model receiving an input of a three-dimensional image of a first domain; a first generator configured using a three-dimensional convolutional neural network that outputs a three-dimensional generated image of a second domain different from the domain; A first discriminator configured using a two-dimensional convolutional neural network that accepts input of a two-dimensional image showing a cross-sectional image in the first slice plane direction and discriminates the authenticity of the input two-dimensional image a three-dimensional image captured under a first imaging condition and a three-dimensional image captured under a second imaging condition different from the first imaging condition by executing the instructions of the program; A plurality of learning data including the generated three-dimensional image is acquired, and a learning process is performed to make the
  • a program causes a computer to execute a process of training a learning model that converts the domain of an input 3D image to generate a 3D generated image of a different domain
  • the learning model includes a first generator configured using a three-dimensional convolutional neural network that receives an input of a three-dimensional image of a first domain and outputs a three-dimensional generated image of a second domain different from the first domain; Receiving an input of a two-dimensional image representing a cross-sectional image in a first slice plane direction extracted from a three-dimensional generated image of the second domain generated by the first generator, and determining whether the input two-dimensional image is true or false (2) a first discriminator constructed using a dimensional convolutional neural network, and a computer having a three-dimensional image captured under the first imaging condition and a different image from the first imaging condition; Acquire a plurality of learning data including a three-dimensional image captured under a second imaging condition, and execute a learning process for hostile learning of the first generator and the first discrimin
  • a medical image processing apparatus stores a first trained model, which is a first trained generator trained by performing a trained model generation method according to the present disclosure.
  • a storage device and a second processor that performs image processing using the first trained model, the first trained model receives an input of the first medical image, and generates a domain different from that of the first medical image.
  • FIG. 1 shows examples of three cross-sectional images cut out from a three-dimensional morphological image of the brain taken by an MRI apparatus.
  • FIG. 2 is an image example showing the expression difference between a thin slice and a thick slice in a CT image.
  • FIG. 3 is an example of a thick-slice MR image captured using an MRI apparatus.
  • FIG. 4 is an example of a thin-slice CT image captured using a CT apparatus.
  • FIG. 5 is a conceptual diagram showing an overview of processing in the machine learning system according to the first embodiment.
  • FIG. 6 is a functional block diagram showing a configuration example of the machine learning system according to the first embodiment.
  • FIG. 7 is a functional block diagram illustrating a configuration example of a learning data generation unit;
  • FIG. 1 shows examples of three cross-sectional images cut out from a three-dimensional morphological image of the brain taken by an MRI apparatus.
  • FIG. 2 is an image example showing the expression difference between a thin slice and a thick slice in a
  • FIG. 8 is a conceptual diagram of a learning data set used in the first embodiment.
  • FIG. 9 is a conceptual diagram showing Modification 1 of the first embodiment.
  • FIG. 10 is a conceptual diagram showing an outline of processing in the machine learning system 100 that learns the MR ⁇ CT domain conversion task.
  • FIG. 11 is a conceptual diagram of a learning data set used in the second embodiment.
  • FIG. 12 is a functional block diagram showing a configuration example of a machine learning system according to the second embodiment.
  • FIG. 13 is a schematic diagram showing the processing flow at the time of CT input in the machine learning system according to the second embodiment.
  • FIG. 14 is a schematic diagram showing the processing flow at the time of MR input in the machine learning system according to the second embodiment.
  • FIG. 15 is a schematic diagram showing a processing flow when a thick-slice MR image having a high-resolution axial section is input.
  • FIG. 16 is a schematic diagram showing a processing flow when a thick-slice MR image with a high-resolution coronal section is input.
  • FIG. 17 is an example image showing the performance of CT ⁇ MR conversion by a trained generator obtained by performing learning using the machine learning system according to the second embodiment.
  • FIG. 18 is an image example showing the performance of MR ⁇ CT conversion by a trained generator obtained by performing learning using the machine learning system according to the second embodiment.
  • FIG. 19 is a configuration example of a learning model applied to a machine learning system according to a comparative example.
  • FIG. 20 is an example of a pseudo MR image generated by a generator that has learned a CT ⁇ MR conversion task using a machine learning system according to a comparative example.
  • FIG. 21 is a block diagram showing a configuration example of an information processing device applied to the machine learning system.
  • FIG. 22 is a block diagram showing a configuration example of a medical image processing apparatus using a learned generator generated by performing learning using a machine learning system.
  • FIG. 23 is a conceptual diagram showing an outline of processing of the machine learning system according to the third embodiment.
  • FIG. 24 is a conceptual diagram showing an overview of processing in the machine learning system according to the fourth embodiment.
  • FIG. 25 is a schematic diagram showing a processing flow when a three-dimensional image with a high-resolution axial section is input in the machine learning system according to the fourth embodiment.
  • FIG. 26 is a schematic diagram showing a processing flow when a high-resolution three-dimensional image of a coronal cross section is input in the machine learning system according to the fourth embodiment.
  • FIG. 27 is a block diagram showing an example of the hardware configuration of a computer;
  • Modalities such as CT devices and MRI devices are typical examples of devices that take medical images.
  • the basic idea is to obtain three-dimensional data representing the three-dimensional form of an object by continuously capturing two-dimensional slice images.
  • three-dimensional data includes the concept of a set of two-dimensional slice images taken continuously, and is synonymous with three-dimensional images.
  • image includes the meaning of image data.
  • a collection of consecutive two-dimensional slice images is sometimes called a "two-dimensional image sequence" or a "two-dimensional image series.”
  • the term "two-dimensional image” includes the concept of a two-dimensional slice image derived from three-dimensional data.
  • cross-sections Three types of cross-sections (two-dimensional slice cross-sections) obtained by reconstructing data from imaging equipment such as CT devices or MRI devices are conceivable: axial cross-sections, sagittal cross-sections, and coronal cross-sections.
  • Fig. 1 is an example of images of three types of cross sections extracted from a three-dimensional morphological image of the brain taken by an MRI device.
  • a sagittal cross-sectional image is shown from the left
  • an axial cross-sectional image is shown in the center
  • a coronal cross-sectional image is shown on the right.
  • an orthogonal coordinate system is introduced in which the body axis direction is the z-axis direction
  • the horizontal direction (horizontal direction) of the human body in a standing posture is the x-axis direction
  • the depth direction front-rear direction
  • the axial section is a section (xy plane) perpendicular to the z-axis, ie, a plane parallel to the x-axis direction and the y-axis direction.
  • a sagittal section is a section (yz plane) perpendicular to the x-axis.
  • a coronal cross section is a cross section (zx plane) orthogonal to the y-axis.
  • FIG. 2 is an image example showing the expression difference between a thin slice and a thick slice in a CT image.
  • the upper part of FIG. 2 shows an image example of each of three types of cross sections when a thin slice with a slice thickness of 1 mm is reconstructed in the axial cross section.
  • the lower part of FIG. 2 shows an example of images of three types of cross sections when a thick slice with a slice thickness of 8 mm is reconstructed in the axial cross section.
  • the left is an axial section
  • the center is a sagittal section
  • the right is a coronal section.
  • FIG. 3 shows an example of a MR thick slice as modality A
  • FIG. 4 shows an example of a CT thin slice as modality B. As shown in FIG. 3
  • the three images shown on the left side of FIG. 3 are examples of MR images reconstructed from thick slices with a high-resolution coronal section, and the three images shown on the right side of FIG.
  • This is an example of an MR image in which thick slices that are resolved are reconstructed.
  • MR images taken by an MRI apparatus only the coronal section has high resolution, and both the axial section and the sagittal section are three-dimensional data with low resolution, while only the axial section has high resolution. There may be cases where the resolution of the coronal and sagittal sections is low-resolution three-dimensional data.
  • Three-dimensional data in which only the coronal cross section has high resolution is data with high resolution in the x-axis and z-axis directions and low resolution in the y-axis direction.
  • three-dimensional data in which only the axial section has high resolution is data with high resolution in the x-axis and y-axis directions and low resolution in the z-axis direction.
  • MR images actual MR images
  • MR images can include various types of images such as T1-weighted images, T2-weighted images, HeavyT2-weighted images, and diffusion-weighted images.
  • the thin slice three-dimensional data obtained by imaging using a CT apparatus has high resolution for all three types of cross sections (all three axial directions), as shown in FIG. can be data.
  • the difference in resolution in each axial direction in the three-dimensional data as shown in FIGS. 3 and 4 depends on the shooting conditions when acquiring the three-dimensional data. Note that when a thick slice is also imaged by a CT apparatus, as shown in FIG. 3, only a cross section in a specific direction can be three-dimensional data with high resolution.
  • FIG. 5 is a conceptual diagram showing an outline of processing in the machine learning system 10 according to the first embodiment.
  • the source domain is CT
  • the target domain is MR
  • a method of learning an image transformation task of generating a pseudo MR image from a CT image based on the GAN architecture will be described.
  • the machine learning system 10 includes a generator 20G configured using a three-dimensional CNN (Convolutional Neural Network), and at least two discriminators 24D and 26D each configured using a two-dimensional CNN including.
  • the generator 20G is a three-dimensional generation network (3D generator) that receives input of three-dimensional data having CT domain features and outputs three-dimensional data having MR domain features.
  • a V-net type architecture which is a three-dimensional extension of the U-net, for example, is applied to the generator 20G.
  • U-net is a neural network widely used for segmentation of medical images.
  • An example of a document describing U-net is “Olaf Ronneberger, et al. "U-Net: Convolutional Networks for Biomedical Image Segmentation", MICCAI, 2015.”
  • V-net for example, there is “Fausto Milletari, et.al. "V-Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation”.
  • the plurality of discriminators 24D and 26D are two-dimensional discriminator networks (2D discriminators) that discriminate the authenticity of images corresponding to the input of two-dimensional images in different cross-sectional directions.
  • Each of the discriminators 24D and 26D employs, for example, a two-dimensional discriminator architecture used in a technique called Pix2Pix.
  • An example of a document describing Pix2Pix is "Phillip Isola, et.al. "Image-to-Image Translation with Conditional Adversarial Nets".
  • the inputs to the discriminators 24D and 26D are treated as two-dimensional images divided in a specific slice thickness direction. Then, the average values of the outputs of the truth discrimination results obtained for each of these divided slice images (two-dimensional images) are used as the final outputs of the discriminators 24D and 26D.
  • three-dimensional CT data actually obtained by imaging using a CT apparatus
  • MR data actually obtained by imaging using an MRI apparatus.
  • 3D data real MR images
  • the heterogeneous modality images given as inputs have the same imaging target region.
  • the output (generated image) after conversion by the generator 20G is assumed to be an image of the same part as the input image.
  • the paired CT three-dimensional data and the MR three-dimensional data used for training are regarded as the same imaging range or substantially the same imaging range for the same patient. It is assumed that approximately the same photographing range is photographed within a permissible range.
  • the three-dimensional data of MR used for learning are thick slice data with high resolution of the axial section (low resolution of the sagittal section and coronal section) and high resolution of the coronal section (axial section). and the resolution of the sagittal section is low).
  • one discriminator 24D is a 2D axial discriminator that discriminates true/false with respect to the input of the two-dimensional image of the axial section
  • the other discriminator 26D is the input of the two-dimensional image of the coronal section. It is a 2D coronal discriminator that discriminates authenticity.
  • the three-dimensional data of CT used for learning in the first embodiment may be thin-slice data (see FIG. 4) with high resolution of each of three types of cross sections, or three types of data similar to MR. Thick slice data having a low resolution of any one of the cross sections may be used.
  • the generator 20G is configured to receive an isotropic resolution 3D CT image and output an isotropic resolution 3D MR generated image.
  • the machine learning system 10 includes an isotropic processing unit 12 that performs isotropic processing of three-dimensional data in the preceding stage of the generator 20G.
  • the isotropic process is a process of converting the size of pixels in each of the x-axis direction, y-axis direction, and z-axis direction to equal intervals. This is the process of converting the unit length of the direction into a physical size of equal intervals. That is, the isotropic process corresponds to a process of transforming voxels in three-dimensional data into cubes of a predetermined size.
  • Isotropic resolution means that the shape of the voxel is cubic, that is, that the resolution in the x-axis, y-axis, and z-axis directions of the three-dimensional image is the same.
  • the isotropic processing unit 12 uses, for example, nearest neighbor interpolation, linear interpolation, spline interpolation, or the like to interpolate data with a physical size of 1 mm 3 in regular grid units in a three-dimensional space.
  • the physical size of the regular lattice unit is not limited to 1 mm 3 , and may be any size that provides sufficient resolution required for interpretation.
  • the three-dimensional data of CT may be subjected to isotropic processing using a known technique before being input to the generator 20G, or pseudo data output from the generator 20G without isotropic processing.
  • the 3D CNN of generator 20G may be designed such that the MR images are isotropic.
  • a three-dimensional CT image with an anisotropic unit lattice of (x, y, z) is input, and the same A generator may be designed to output an anisotropic 3D pseudo-MR image of grid size (x, y, z respective pixel spacing preserved).
  • the machine learning system 10 further includes a first cutout processing unit 14 and a second cutout processing unit 16 that cut out two-dimensional images in at least two slice plane (cross-section) directions from the three-dimensional data generated by the generator 20G.
  • the clipping processing performed by the first clipping processing unit 14 and the second clipping processing unit 16 is processing for extracting a slice (two-dimensional image) in a specific direction from three-dimensional data.
  • the specific direction in which the clipping process is performed corresponds to the direction of the cross section of the two-dimensional image representing the cross section image input to each of the classifiers 24D and 26D.
  • a first slice of the axial section is cut out corresponding to each of the discriminator 24D that receives the input of the two-dimensional image of the axial section and the discriminator 26D that receives the input of the two-dimensional image of the coronal section. It has a cutout processing unit 14 and a second cutout processing unit 16 for cutting out a slice of the coronal cross section.
  • Each of the first cutout processing unit 14 and the second cutout processing unit 16 may perform processing for extracting all slices in a specific direction from the three-dimensional pseudo MR image output from the generator 20G.
  • the first cutout processing unit 14 extracts 64 two-dimensional images whose image size in the xy plane is 64 ⁇ 64.
  • the clipping processing unit 16 may be configured to extract 64 two-dimensional images having an image size of 64 ⁇ 64 on the zx plane.
  • the discriminator 24D receives a two-dimensional image cut out by the first cut-out processing unit 14, or a two-dimensional image extracted from three-dimensional data with a high-resolution axial section from the actual MR images included in the learning data.
  • a discriminator 24D discriminates whether the image is a real image or a fake image generated by the generator 20G.
  • the discriminator 26D receives the two-dimensional image extracted by the second clipping processing unit 16 or the two-dimensional image extracted from the three-dimensional data of MR with high resolution of the coronal cross section among the learning data, The discriminator 26D discriminates whether the image is a real image or a fake image.
  • Real image means an actual image obtained by actually taking a picture using a shooting device.
  • a “fake image” means a generated image (pseudo image) artificially generated by image conversion processing without photographing.
  • data used as learning data to be input to the learning model 44 is a "real image”
  • the generated image generated by the generator 20G is a "fake image”.
  • the real MR images prepared as learning data have high resolution only in one of the three cross-sectional directions, authenticity determination is performed using the high-resolution cross-sectional two-dimensional image.
  • the two-dimensional discriminators 24D and 26D corresponding to the high-resolution slice plane direction are selectively switched and used according to the input data.
  • the discriminators 24D and 26D used for image evaluation for discriminating authenticity are selectively used according to the resolution condition of the input image, and only two-dimensional cross-sectional images with high resolution are used to obtain real images. An image is evaluated as to whether it is an image or a fake image.
  • the generator 20G is an example of the "first generator” in the present disclosure.
  • the discriminator 24D is an example of the "first discriminator” in the present disclosure, and the discriminator 26D is an example of the "second discriminator” in the present disclosure.
  • the CT domain is an example of the "first domain” in the present disclosure, and the MR domain is an example of the "second domain”.
  • An example of the “second imaging condition” in the present disclosure is that the imaging equipment used for imaging is an MRI apparatus.
  • a CT apparatus is an example of a "first imaging device” and a "first modality” in the present disclosure
  • a CT image is an example of a "first modality image” in the present disclosure.
  • An MRI apparatus is an example of a "second imaging device” and a "second modality” in the present disclosure
  • an MR image is an example of a "second modality image” in the present disclosure.
  • a thin slice is an example of the "first resolution condition” in the present disclosure.
  • a thick slice is an example of a "second resolution condition” in the present disclosure.
  • a slice plane direction in which an axial section is obtained is an example of a "first slice plane direction” in the present disclosure
  • a slice plane direction in which a coronal section is obtained is an example of a "second slice plane direction” in the present disclosure
  • the clipping process performed by the first clipping processor 14 is an example of the "first clipping process” in the present disclosure
  • the clipping process performed by the second clipping processor 16 is an example of the "second clipping process” in the present disclosure
  • the isotropic processing performed by the isotropic processing unit 12 is an example of the “first isotropic processing” in the present disclosure.
  • FIG. 6 is a functional block diagram showing a configuration example of the machine learning system 10 according to the first embodiment.
  • the machine learning system 10 includes a learning data generator 30 and a learning processor 40 .
  • Machine learning system 10 may further include image storage 50 and learning data storage 54 .
  • the machine learning system 10 can be implemented by a computer system including one or more computers.
  • Each function of the learning data generation unit 30, the learning processing unit 40, the image storage unit 50, and the learning data storage unit 54 can be realized by a combination of computer hardware and software.
  • the function of each of these units may be realized by one computer, or may be realized by dividing the function of processing by two or more computers.
  • the learning data generation unit 30, the learning processing unit 40, the image storage unit 50, and the learning data storage unit 54 may be connected to each other via an electric communication line.
  • connection is not limited to wired connections, but also includes the concept of wireless connections.
  • a telecommunications line may be a local area network or a wide area network.
  • the image storage unit 50 includes a large-capacity storage device that stores CT reconstructed images (CT images) captured by a medical X-ray CT apparatus and MR reconstructed images (MR images) captured by an MRI apparatus.
  • CT images CT reconstructed images
  • MR images MR reconstructed images
  • the image storage unit 50 may be, for example, a DICOM server that stores medical images according to the DICOM (Digital Imaging and Communications in Medicine) standard.
  • the medical image stored in the image storage unit 50 may be an image of each part of the human body, or may be an image of the whole body.
  • the learning data generation unit 30 generates training data (learning data) used for machine learning.
  • Learning data is synonymous with "training data.”
  • three-dimensional data which are real CT images actually taken using a CT apparatus
  • three-dimensional data which are real MR images actually taken using an MRI apparatus.
  • Such learning data can be generated from data stored in the image storage unit 50 .
  • the learning data generation unit 30 acquires the original three-dimensional data from the image storage unit 50, performs preprocessing such as isotropicization, posture transformation, and extraction of a fixed size area, and converts the data into data suitable for input to the learning processing unit 40. Three-dimensional data with a desired number of pixels (voxels) and image size is generated. In order to efficiently implement the learning process by the learning processing unit 40, a plurality of pieces of learning data may be generated in advance using the learning data generation unit 30 and stored in storage as a learning data set. .
  • the learning data storage unit 54 includes a storage for storing preprocessed learning data generated by the learning data generation unit 30.
  • the learning data generated by the learning data generation unit 30 is read from the learning data storage unit 54 and input to the learning processing unit 40 .
  • the learning data storage unit 54 may be included in the learning data generation unit 30, or part of the storage area of the image storage unit 50 may be used as the learning data storage unit 54. Also, part or all of the processing functions of the learning data generation unit 30 may be included in the learning processing unit 40 .
  • the learning processing unit 40 includes an image acquisition unit 42 and a learning model 44 having a GAN structure.
  • the image acquisition unit 42 acquires learning data to be input to the learning model 44 from the learning data storage unit 54 .
  • Learning data acquired via the image acquisition unit 42 is input to the learning model 44 .
  • the learning model 44 includes a generator 20G, a first clipping processor 14, a second clipping processor 16, and discriminators 24D and 26D.
  • the learning processing unit 40 further includes an error computing unit 46 and an optimizer 48 .
  • the error calculator 46 uses a loss function to evaluate the error between the output from the classifiers 24D and 26D and the correct answer. Furthermore, the error calculation unit 46 evaluates the error between the pseudo MR (fake MR) two-dimensional image extracted by the first clipping processing unit 14 and the corresponding correct (real MR) two-dimensional image. .
  • An error can be rephrased as a loss.
  • the optimizer 48 performs processing for updating network parameters in the learning model 44 based on the calculation result of the error calculation unit 46 .
  • the network parameters include filter coefficients (weights of connections between nodes) and node biases used for processing each layer of the CNN.
  • the optimizer 48 performs a parameter calculation process for calculating the update amounts of the parameters of the networks of the generator 20G and the discriminators 24D and 26D from the calculation results of the error calculation unit 46, and the generator 20G and discriminators 24D and 26D.
  • the optimizer 48 updates parameters based on algorithms such as the gradient descent method.
  • the learning processing unit 40 repeats adversarial learning using the generator 20G and the discriminators 24D and 26D based on the input learning data, thereby improving the performance of each model while improving the learning model 44. let them learn
  • FIG. 7 is a functional block diagram showing a configuration example of the learning data generator 30.
  • the learning data generation unit 30 includes an isotropic processing unit 12 , a posture conversion unit 32 , and a fixed-size area cutout processing unit 34 .
  • the learning data generating unit 30 converts the three-dimensional data isotropic by the isotropic processing unit 12 to 1 mm in pixel unit size in each of the x-axis, y-axis, and z-axis directions with the orientation transforming unit 32 .
  • the fixed-size area clipping processing unit 34 randomly clips a fixed-size area.
  • the fixed-size area may be a three-dimensional area having a cubic shape, for example, "160 ⁇ 160 ⁇ 160" in the number of pixels in the x-axis direction ⁇ y-axis direction ⁇ z-axis direction.
  • the original three-dimensional data input to the learning data generation unit 30 may be CT images or MR images.
  • the fixed-size three-dimensional data extracted into the fixed-size area by the fixed-size area extraction processing unit 34 is stored in the learning data storage unit 54 . Note that fixed-size three-dimensional data cut out into fixed-size regions may be understood as learning data, and original three-dimensional data before being cut out into fixed-size regions may be understood as learning data.
  • FIG. 8 is a conceptual diagram of the learning data set used in the first embodiment.
  • a plurality of pairs of CT thin-slice three-dimensional data and corresponding MR thick-slice three-dimensional data are prepared, and these image pairs are used as learning data.
  • the discriminators 24D and 26D used for authenticity discrimination are switched according to the input three-dimensional data. That is, when an image pair of an MR image having a high-resolution axial section and a corresponding CT image is input, the determination of the generated image after conversion by the generator 20G evaluates the two-dimensional image of the axial section. This is performed by the discriminator 24D.
  • the generated image after conversion by the generator 20G is determined by evaluating a two-dimensional image of the coronal section. This is performed by the discriminator 26D.
  • the generator 20G can achieve high resolution in each of the x-axis, y-axis, and z-axis directions. Acquire the ability to generate a three-dimensional image of the image.
  • a three-dimensional generator 20G capable of obtaining high-resolution images of each of the axial, coronal, and sagittal sections. can.
  • a method of generating a trained generator 20G by learning processing using the machine learning system 10 is an example of a "trained model generation method" in the present disclosure.
  • the thin-slice CT image used for learning is an example of the “three-dimensional image captured under the first imaging condition” in the present disclosure
  • the thick-slice MR image is the “three-dimensional image captured under the second imaging condition” in the present disclosure. It is an example of "dimensional image”.
  • Thick-slice three-dimensional data is an example of “isotropic three-dimensional data” in the present disclosure
  • thick-slice three-dimensional data is an example of “anisotropic three-dimensional data” in the present disclosure.
  • Thick slice 3D data with a high-resolution axial section is anisotropic 3D data in which the resolution in the z-axis direction is lower than the resolution in each of the other two axial directions (x-axis direction and y-axis direction).
  • the direction of the axial section in the axial high-resolution three-dimensional data is the slice plane direction parallel to the x-axis direction and the y-axis direction with relatively high resolution.
  • Three-dimensional data of a thick slice with a high-resolution coronal cross section is an example of “y-axis low-resolution anisotropic three-dimensional data” in the present disclosure.
  • a pseudo MR image output from the generator 20G is an example of a “second modality generated image” in the present disclosure.
  • FIG. 9 is a conceptual diagram showing Modification 1 of the first embodiment.
  • elements common to those in FIG. 5 are denoted by the same reference numerals, and overlapping descriptions are omitted.
  • FIG. 9 points different from FIG. 5 will be described.
  • the machine learning system 11 includes, in addition to the configuration of FIG. 18 and a discriminator 28D for evaluating the two-dimensional image of the sagittal section.
  • the discriminator 28D is configured using a two-dimensional CNN, like the other discriminators 24D and 26D.
  • a pair of a thick-slice MR image with a high sagittal section resolution and a corresponding CT image can be used as learning data.
  • the machine learning system 11 when a pair of images of an MR image with a high-resolution sagittal section and a corresponding CT image is input, the generated image after conversion by the generator 20G is discriminated. is performed by a discriminator 28D that evaluates the two-dimensional image of the sagittal section.
  • ⁇ Modification 2>> In the first embodiment, an example of using low-resolution anisotropic three-dimensional data on the z-axis and low-resolution anisotropic three-dimensional data on the y-axis as learning data has been described. Combinations of low-resolution data are not limited to this example.
  • the discriminators are a 2D coronal discriminator that accepts input of a two-dimensional image of a coronal cross section and discriminates true/false, and a two-dimensional image of a sagittal cross section that receives input of a true/false discriminator.
  • a 2D sagittal discriminator is used to discriminate , and when inputting to each discriminator, a cross-sectional image in the slice plane direction corresponding to each discriminator is cut out from the three-dimensional generated image.
  • Three-dimensional data of a thick slice with a high-resolution sagittal section is an example of three-dimensional data with low resolution in the x-axis direction, and an example of "anisotropic three-dimensional data with low resolution on the x-axis" in the present disclosure. is.
  • a 2D sagittal classifier and a 2D axial classifier are used as classifiers, and when inputting to each classifier, a three-dimensional generated image corresponds to each classifier.
  • the cutout processing of the corresponding cross-sectional image in the direction of the sliced plane is performed.
  • the same architecture as that of the learning model according to the first embodiment may be applied.
  • 3D discriminator three-dimensional discriminator
  • FIG. 10 is a conceptual diagram showing an outline of processing in the machine learning system 100 that learns the MR ⁇ CT domain conversion task.
  • the machine learning system 100 includes a generator 120F configured using a 3D CNN and a discriminator 124D configured using a 3D CNN.
  • the machine learning system 100 may include an isotropic processing unit 112 that performs isotropic processing on the three-dimensional data before input to the generator 120F, and an attitude transforming unit and a fixed-size region clipping processing unit (not shown).
  • the discriminator 124D receives the input of the three-dimensional data generated by the generator 120F or the three-dimensional data that is a real CT image included in the learning data, and determines whether the input three-dimensional data is a real image, Determine whether the image is a fake image.
  • FIG. 11 is a conceptual diagram of a learning data set used in the second embodiment.
  • an image group of real CT images and an image group of real MR images need only exist.
  • three-dimensional data of a plurality of real images are used in the respective domains of CT and MRI as data used for learning.
  • the three-dimensional data of each domain may be the same as those described with reference to FIGS. 3 and 4.
  • FIG. 11 is a conceptual diagram of a learning data set used in the second embodiment.
  • an image group of real CT images and an image group of real MR images need only exist.
  • three-dimensional data of a plurality of real images are used in the respective domains of CT and MRI as data used for learning.
  • the three-dimensional data of each domain may be the same as those described with reference to FIGS. 3 and 4.
  • the learning data set used in the second embodiment includes a plurality of thin-slice three-dimensional data and a plurality of thick-slice three-dimensional data captured using an MRI apparatus. Note that the learning data set may include three-dimensional data of thick slices captured using a CT apparatus.
  • FIG. 12 is a functional block diagram showing a configuration example of the machine learning system 210 according to the second embodiment. 12, elements identical or similar to those in the configuration shown in FIG.
  • the learning data storage unit 54 shown in FIG. 12 stores a learning data set in which thin-slice three-dimensional data and thick-slice three-dimensional data as described in FIG. 11 are mixed.
  • the machine learning system 210 includes a learning processing unit 240 instead of the learning processing unit 40 in FIG.
  • the learning processing unit 240 includes an image acquisition unit 42 , a preprocessing unit 230 , a learning model 244 , an error calculation unit 246 and an optimizer 248 .
  • the preprocessing unit 230 performs processing similar to that of the learning data generation unit 30 described with reference to FIG.
  • the preprocessing unit 230 performs preprocessing for input to the learning model 244 on the three-dimensional data acquired via the image acquisition unit 42 .
  • preprocessing isotropic processing, posture conversion, and extraction processing of a fixed-size region are exemplified, but these processing may be performed as necessary, and some or all of the processing in preprocessing section 230 may be performed. can be omitted.
  • the preprocessing unit 230 may be configured separately with a preprocessing unit for CT that preprocesses CT images and a preprocessing unit for MR that preprocesses MR images.
  • the learning model 244 includes a first generator 220G, a first clipping processor 14, a second clipping processor 16, a first discriminator 224D, a second discriminator 226D, a second generator 250F, a second It includes a 3-cutout processing unit 254, a fourth cut-out processing unit 256, a third discriminator 264D, and a fourth discriminator 266D.
  • the first generator 220G and the second generator 250F are each configured using a three-dimensional CNN. Each network structure of the first generator 220G and the second generator 250F may be similar to the generator 20G described in the first embodiment.
  • Each of the first discriminator 224D, the second discriminator 226D, the third discriminator 264D, and the fourth discriminator 266D is configured using a two-dimensional CNN.
  • the network structure of these classifiers may be the same as the classifiers 24D and 26D described in the first embodiment.
  • the first generator 220G is a 3D generator that performs domain conversion from CT to MRI, receives input of three-dimensional data having CT domain features, generates and outputs three-dimensional data having MR domain features. do.
  • the description “3D_CT” input to the first generator 220G in FIG. 12 represents three-dimensional data of an isotropic real CT image.
  • the second generator 250F is a 3D generator that performs domain conversion from MRI to CT, receives input of 3D data having MR domain features, and generates and outputs 3D data having CT domain features. do.
  • the description “3D_MR” input to the second generator 250F in FIG. 12 represents three-dimensional data of an isotropic real MR image.
  • the output of the first generator 220G is connected to the input of the second generator 250F, and the pseudo MR image generated by the first generator 220G can be input to the second generator 250F.
  • the output of the second generator 250F is connected to the input of the first generator 220G, and the pseudo CT image generated by the first generator 220G can be input to the second generator 250F.
  • the third clipping processing unit 254 performs clipping processing for extracting a slice of an axial section from the three-dimensional data of the pseudo CT image output from the second generator 250F.
  • the two-dimensional image extracted by the third clipping processor 254 is input to the third discriminator 264D.
  • the third classifier 264D the two-dimensional image extracted by the third extraction processing unit 254 or the two-dimensional image of the axial section extracted from the actual three-dimensional CT data (real CT image) included in the learning data. is input, and the third discriminator 264D discriminates whether the image is a real image or a fake image generated by the second generator 250F.
  • the fourth clipping processing unit 256 performs clipping processing for extracting coronal cross-section slices from the three-dimensional pseudo CT image output from the second generator 250F.
  • the two-dimensional image extracted by the fourth clipping processor 254 is input to the fourth discriminator 266D.
  • the fourth discriminator 266D receives the two-dimensional image extracted by the fourth extraction processing unit 256, or the two-dimensional image of the coronal cross section extracted from the actual three-dimensional CT data (real CT image) included in the learning data. is input, and the fourth discriminator 266D discriminates whether the image is a real image or a fake image.
  • the error calculator 46 uses a loss function to evaluate the error (Adversarial Loss) between the output from each discriminator (224D, 226D, 264D, 266D) and the correct answer. Further, the error calculator 46 evaluates the reconstruction loss (Cycle Consistency Loss) due to the image conversion connecting the first generator 220G and the second generator 250F.
  • the reconstruction loss includes a reconstructed generated image output from the second generator 250F by inputting the output of CT ⁇ MR conversion by the first generator 220G to the second generator 250F, and By inputting the error from the input original input image (reconstruction loss due to CT->MR->CT conversion) and the output of the MR->CT conversion by the second generator 250F to the second generator 250F, the first generator 220G and the original input image input to the second generator 250F (reconstruction loss due to MR ⁇ CT ⁇ MR conversion).
  • the optimizer 248 performs processing for updating network parameters in the learning model 244 based on the calculation result of the error calculation unit 246 .
  • the optimizer 248 calculates each of the first generator 220G, the first discriminator 224D, the second discriminator 226D, the second generator 250F, the third discriminator 264D, and the fourth discriminator 266D from the calculation result of the error calculation unit 46.
  • a parameter calculation process for calculating an update amount of a network parameter and a parameter update process for updating each network parameter according to the calculation result of the parameter calculation process are performed.
  • FIG. 13 is a conceptual diagram showing the flow of processing during CT input in the machine learning system 210 according to the second embodiment.
  • each of the first generator 220G and the second generator 250F receives input of a three-dimensional image of isotropic resolution and outputs a three-dimensional generated image of isotropic resolution will be explained.
  • it may be a generator that accepts input of a three-dimensional image with an anisotropic resolution.
  • the three-dimensional data of CT is input to the first generator 220G as a three-dimensional CT image CTr with isotropic resolution through isotropic processing, etc. by the isotropic processing unit 12 .
  • the first generator 220G receives the CT image CTr, performs CT ⁇ MR conversion, and outputs a pseudo MR image MRsyn.
  • This pseudo MR image MRsyn is divided into slices (two-dimensional images) in specific cross-sectional directions by the first cut-out processing unit 14 and the second cut-out processing unit 16, respectively. It is input to the second discriminator 226D, and authenticity discrimination is performed by each of the first discriminator 224D and the second discriminator 226D.
  • the pseudo MR image MRsyn is further input to the second generator 250F, MR ⁇ CT conversion is performed by the second generator 250F, and the reconstructed CT image CTrec is output from the second generator 250F.
  • the machine learning system 210 evaluates the reconstruction loss that indicates the difference between the reconstructed CT image CTrec output from the second generator 250F and the original CT image CTr.
  • This reconstruction loss is an example of the "first reconstruction loss" in the present disclosure.
  • a reconstructed CT image CTrec generated by transform processing using the first generator 220G and the second generator 250F in this order is an example of a "first reconstructed generated image" in the present disclosure.
  • FIG. 14 is a conceptual diagram showing the flow of processing during MR input in the machine learning system 210 according to the second embodiment.
  • the three-dimensional data of MR is subjected to isotropic processing by the isotropic processing unit 12, etc., and is input to the second generator 250F as a three-dimensional MR image MRr of isotropic resolution.
  • the second generator 250F receives the input of the MR image MRr, performs MR ⁇ CT conversion, and outputs a pseudo CT image CTsyn.
  • the isotropic processing performed on the MR three-dimensional data is an example of the “second isotropic processing” in the present disclosure.
  • This pseudo CT image CTsyn is divided into slices (two-dimensional images) in specific cross-sectional directions by the third cut-out processing unit 254 and the fourth cut-out processing unit 256, respectively. It is input to the 4 discriminator 266D, and authenticity discrimination is performed by each of the third discriminator 264D and the fourth discriminator 266D.
  • the pseudo CT image CTsyn is further input to the first generator 220G, CT ⁇ MR conversion is performed by the first generator 220G, and the reconstructed MR image MRrec is output from the first generator 220G.
  • the difference between the reconstructed MR image MRrec and the original MR image MRr may be calculated in the same manner as in FIG. , the reconstructed MR image MRrec is subjected to average pooling processing, converted to the same size as the MR image (before isotropic) of the thick slice used for input, and then the original (isotroized) It is preferable to calculate the error (reconstruction loss) with the previous) MR image.
  • This reconstruction loss is an example of the "second reconstruction loss" in the present disclosure.
  • the reconstructed MR image MRrec generated by conversion processing using the second generator 250F and the first generator 220G in this order is an example of the "second reconstructed generated image" in the present disclosure.
  • FIG. 15 shows an example in which a thick-slice MR image MRax whose axial section has a high resolution is input.
  • the machine learning system 210 has an average pooling processing unit 270 .
  • the average pooling processing unit 270 performs average pooling processing in the z-axis direction on the isotropic resolution reconstructed MR image MRrec output from the first generator 220G, and the original MR image MRax used for input. 3D data with the same slice interval is restored.
  • a reconstruction loss is calculated by comparing the reconstructed MR image MRaxrec output from the average pooling processor 270 and the original MR image MRax.
  • FIG. 16 shows an example in which a thick-slice MR image MRco with a high-resolution coronal cross section is input.
  • Machine learning system 210 further comprises an average pooling processor 272 .
  • the average pooling processing unit 272 performs average pooling processing in the y-axis direction on the isotropic resolution reconstructed MR image MRrec output from the first generator 220G, and the original MR image MRco used for input. 3D data with the same slice interval is restored.
  • a reconstruction loss is calculated by comparing the reconstructed MR image MRcorec output from the average pooling processor 270 and the original MR image MRco.
  • the average pooling processors 270 and 272 may be provided between the second generator 250F and the error calculator 246 in FIG. 12, or may be incorporated in the error calculator 246.
  • the reconstructed CT image CTrec is subjected to An average pooling process, and the reconstruction loss may be calculated based on the three-dimensional data after conversion by the average pooling process and the three-dimensional data that is the original input image.
  • the average pooling process performed on the reconstructed CT image CTrec is an example of the "first average pooling process" in the present disclosure.
  • the average pooling process performed on the reconstructed MR image MRrec is an example of the "second average pooling process" in the present disclosure.
  • the first generator 220G acquires the image generation capability of CT ⁇ MR conversion, and generates a high-resolution pseudo MR image. It can be a converter.
  • the second generator 250F can be a three-dimensional image converter that acquires MR ⁇ CT conversion image generation capability and generates high-resolution pseudo-CT images.
  • FIG. 17 is an example image showing the performance of CT ⁇ MR conversion by the trained first generator 220G obtained by performing learning using the machine learning system 210 according to the second embodiment.
  • FIG. 17 shows the results of learning using a thin-slice CT data set and a thick-slice MR data set.
  • the MR data set used for learning includes only two types of thick slices with high-resolution axial sections and thick slices with high-resolution coronal sections.
  • FIG. 17 shows an example of a pseudo MR image generated when a CT thin slice image is input.
  • the pseudo MR images generated by the trained first generator 220G are the axial, coronal, and sagittal slices in spite of the fact that no MR thick slice has been learned. A high-definition image with high resolution is obtained in each cross-section.
  • FIG. 18 is an image example showing the performance of MR ⁇ CT conversion by the trained second generator 250F obtained by performing learning using the machine learning system 210 according to the second embodiment.
  • FIG. 18 shows an example of a pseudo CT image obtained when a thick-slice MR image is input.
  • the pseudo CT images generated by the trained second generator 250F are high-definition images with high resolution in each of the axial, coronal, and sagittal sections.
  • FIG. 19 is a configuration example of a learning model 344 applied to a machine learning system according to a comparative example.
  • the learning model 344 is a 3D-CycleGAN extended to three-dimensional input and output based on the CycleGAN architecture. and discriminators 324D and 364D configured.
  • the generator 320G is an image generation network that performs CT ⁇ MR conversion, receives input of CT three-dimensional data, and outputs MR three-dimensional data.
  • the generator 350F is an image generation network that performs MR ⁇ CT conversion, receives input of MR three-dimensional data, and outputs CT three-dimensional data.
  • the discriminator 324D is a three-dimensional discriminator that receives input of three-dimensional data of the pseudo MR image generated by the generator 320G or the real MR image included in the learning data and discriminates whether the image is true or false. . Similarly, the discriminator 364D receives the input of the pseudo CT image generated by the generator 350F or the three-dimensional data of the real CT image included in the learning data, and determines the authenticity of the image by a three-dimensional discriminator. Noeta.
  • the machine learning system includes, in addition to the learning model 344, an error calculator and an optimizer (not shown).
  • the pseudo MR image generated by the generator 320G in response to the input of the actual CT image is input to the generator 350F, and the MR ⁇ CT conversion is performed by the generator 350F.
  • An image is output. Based on this reconstructed CT image and the original real CT image, the reconstruction loss due to CT ⁇ MR ⁇ CT conversion is evaluated.
  • the pseudo CT image generated by the generator 350F in response to the input of the real MR image is input to the generator 320G, the CT ⁇ MR conversion is performed by the generator 320G, and the reconstructed MR image is generated from the generator 320G. output. Based on this reconstructed MR image and the original real MR image, reconstruction loss due to MR ⁇ CT ⁇ MR conversion is evaluated.
  • FIG. 20 shows an example of a generated image obtained when learning is performed using a machine learning system according to a comparative example and using a learning data set similar to that of the second embodiment as learning data.
  • the figure is an example of a pseudo-MR image generated by a generator trained on the task of CT to MR conversion.
  • the slice thickness (Thickness) of the learning data domain is also learned at the same time. Therefore, if the MR images used for learning are thick-slice three-dimensional data, the generated images will reproduce the image expression of the thick slices, and the image quality of each cross section will be low, making it difficult to generate high-definition images.
  • FIG. 21 is a block diagram showing a configuration example of an information processing device 400 applied to the machine learning systems 10 and 210.
  • the information processing device 400 includes a processor 402 , a tangible, non-transitory computer-readable medium 404 , a communication interface 406 , an input/output interface 408 , a bus 410 , an input device 414 , and a display device 416 .
  • Processor 402 is an example of the "first processor" in this disclosure.
  • Computer-readable medium 404 is an example of a "first storage device" in this disclosure.
  • the processor 402 includes a CPU (Central Processing Unit). Processor 402 may include a GPU (Graphics Processing Unit). Processor 402 is coupled to computer readable media 404 , communication interface 406 and input/output interface 408 via bus 410 . Input device 414 and display device 416 are connected to bus 410 via input/output interface 408 .
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the computer-readable medium 404 includes memory, which is a main memory device, and storage, which is an auxiliary memory device.
  • Computer readable medium 404 may be, for example, a semiconductor memory, a hard disk drive (HDD) device, or a solid state drive (SSD) device, or a combination of some of these.
  • the information processing device 400 is connected to an electric communication line (not shown) via a communication interface 406 .
  • the telecommunication line may be a wide area communication line, a local communication line, or a combination thereof.
  • the computer-readable medium 404 stores multiple programs and data for performing various types of processing.
  • the computer-readable medium 404 stores, for example, an isotropic processing program 420, an attitude conversion program 422, a fixed-size region clipping processing program 424, a learning processing program 430, and the like.
  • Learning processing program 430 includes learning model 244 , error calculation program 436 , and parameter update program 438 .
  • the information processing apparatus 400 including the processor 402 functions as a processing unit corresponding to the program.
  • the processor 402 functions as the isotropic processing unit 12 that performs the isotropic processing by executing the instructions of the isotropic processing program 420 .
  • the processor 402 functions as the learning processing units 40 and 240 that perform learning processing by executing the instructions of the learning processing program 430 by the processor 402 . The same is true for other programs.
  • the computer-readable medium 404 also stores a display control program (not shown).
  • the display control program generates display signals necessary for display output to the display device 416 and controls the display of the display device 416 .
  • the display device 416 is configured by, for example, a liquid crystal display, an organic electro-luminescence (OEL) display, a projector, or an appropriate combination thereof.
  • the input device 414 is configured by, for example, a keyboard, mouse, multi-touch panel, or other pointing device, voice input device, or an appropriate combination thereof. The input device 414 accepts various inputs by the operator.
  • FIG. 22 is a block diagram showing an example hardware configuration of a medical image processing apparatus 500 to which a trained model generated by performing learning processing using the machine learning systems 10 and 210 is applied.
  • the medical imaging device 500 comprises a processor 502, a tangible non-transitory computer readable medium 504, a communication interface 506, an input/output interface 508, a bus 510, an input device 514, and a display device 516. .
  • the hardware configuration of the processor 502, the computer-readable medium 504, the communication interface 506, the input/output interface 508, the bus 510, the input device 514, the display device 516, etc. is the same as the processor 402, the computer-readable medium, and the like in the information processing apparatus 400 described with reference to FIG. 404 , communication interface 406 , input/output interface 408 , bus 410 , input device 414 and display device 416 .
  • Processor 502 is an example of a "second processor” in this disclosure.
  • “Computer-readable medium 504" is an example of a "second storage device” in the present disclosure.
  • At least one of a CT-MR conversion program 520 and an MR-CT conversion program 530 is stored in the computer-readable medium 504 of the medical image processing apparatus 500 .
  • the CT-MR conversion program 520 includes a trained generator 522 that has learned the CT ⁇ MR domain conversion.
  • Trained generator 522 is a trained model corresponding to generator 20G in FIG. 5 or first generator 220G in FIG. Trained generator 522 is an example of a “first trained model” in this disclosure.
  • a CT image input to the first generator 220G is an example of a "first medical image” in the present disclosure.
  • a pseudo MR image output from the first generator 220G is an example of a "second medical image” in the present disclosure.
  • a pseudo MR image output from the trained generator 522 is an example of a “second medical image” in the present disclosure.
  • the MR-CT conversion program 530 includes a trained generator 532 that has learned the MR ⁇ CT domain conversion.
  • the trained generator 532 is a trained model corresponding to the second generator 250F in FIG.
  • the computer-readable medium 504 may further include at least one of an isotropic processing program 420 , an organ recognition AI program 540 , a disease detection AI program 542 and a report generation support program 544 .
  • the isotropic processing program 420 may be included in each of the CT-MR conversion program 520 and the MR-CT conversion program 530 .
  • the organ recognition AI program 540 includes a processing module that performs organ segmentation.
  • the organ recognition AI program 540 may include a lung segment labeling program, a blood vessel region extraction program, a bone labeling program, and the like.
  • the disease detection AI program 542 includes detection processing modules corresponding to specific diseases.
  • the disease detection AI program 542 may include, for example, at least one of a lung nodule detection program, a lung nodule characterization program, a pneumonia CAD program, a mammary gland CAD program, a liver CAD program, a brain CAD program, and a colon CAD program. .
  • the report creation support program 544 includes a trained document generation model that generates finding sentence candidates corresponding to target medical images.
  • Various processing programs such as the organ recognition AI program 540, the disease detection AI program 542, and the report creation support program 544 apply machine learning such as deep learning to obtain the desired task output. It may be an AI processing module that contains a model.
  • AI models for CAD can be constructed using, for example, various CNNs with convolutional layers.
  • Input data for the AI model includes, for example, medical images such as two-dimensional images, three-dimensional images, or moving images, and output from the AI model is, for example, information indicating the position of a diseased area (lesion site) in the image, or It may be information indicating class classification such as a disease name, or a combination thereof.
  • AI models that handle time-series data, document data, etc. can be constructed using, for example, various recurrent neural networks (RNN).
  • the time-series data includes, for example, electrocardiogram waveform data.
  • the document data includes, for example, observation statements created by doctors.
  • the generated images produced by CT-MR conversion program 520 or MR-CT conversion program 530 can be input into at least one of organ recognition AI program 540, disease detection AI program 542 and report generation support program 544. . This makes it possible to apply an AI processing module built for a specific modality to images of other modalities, expanding the scope of application.
  • FIG. 23 is a conceptual diagram showing an outline of processing of the machine learning system 600 according to the third embodiment.
  • a method of learning a super-resolution image generation task (super-resolution task) for generating a high-resolution 3-dimensional image from a low-resolution 3-dimensional image, targeting MR images will be described.
  • the low-resolution 3D MR images used as input consist of a series of axial images with high resolution only for the axial section (low resolution for the other sections), and a series of high resolution only for the coronal section ( is a low resolution) coronal image series.
  • An axial image series is three-dimensional data with a lower resolution in the z-axis direction than in the other two axial directions, and is understood as a "z-axis direction low-resolution image”.
  • a coronal image series is three-dimensional data with a lower resolution in the y-direction than in the other two directions, and is understood as a "low-resolution y-direction image”.
  • the axial image series will be referred to as "axial three-dimensional images”
  • the coronal image series will be referred to as "coronal three-dimensional images”.
  • Super-resolution in the third embodiment means slice interpolation for interpolating data in the slice thickness direction (axial direction) with low resolution.
  • an image pair of an axial three-dimensional image and a coronal three-dimensional image obtained by photographing the same part of the same patient and performing three-dimensional alignment is used as data for learning.
  • An image group including a plurality of image pairs in which an axial three-dimensional image and a coronal three-dimensional image are associated is used as a training data set.
  • the machine learning system 600 includes a generator 610 that performs first super-resolution processing, a generator 612 that performs second super-resolution processing, an axial image clipping processing unit 620, a coronal image clipping processing unit 622, an axial image and a discriminator 632 for discriminating the truth of the coronal image.
  • Each of generators 610 and 612 is a generation network constructed using a 3D CNN.
  • the network structure of each of generators 610 and 612 may be similar to generator 20 in the first embodiment.
  • Each of the discriminators 630 and 632 is a discrimination network constructed using a two-dimensional CNN.
  • the network structure of each of the classifiers 630, 632 may be the same as the classifiers 24D, 26D in the first embodiment.
  • the first super-resolution processing includes super-resolution processing in the z-axis direction.
  • the generator 610 accepts an input of an axial 3D image and outputs an isotropic resolution 3D generated image.
  • the second super-resolution processing includes super-resolution processing in the y-axis direction.
  • the generator 612 accepts input of a coronal 3D image and outputs an isotropic resolution 3D generated image. Note that the notation "SR" in the figure represents processing for super resolution.
  • the axial image clipping processing unit 620 performs clipping processing for extracting a two-dimensional image of an axial section from the three-dimensional generated image SRsyn generated by the generator 610 or generator 612 .
  • the coronal image clipping processing unit 622 performs clipping processing for extracting a two-dimensional image of a coronal cross section from the three-dimensional generated image SRsyn generated by the generator 610 or generator 612 .
  • the discriminator 630 receives an input of a two-dimensional image extracted from the three-dimensional generated image SRsyn by the axial image clipping processing unit 620 or a slice image of an axial three-dimensional image included in the learning data set. , to determine whether the image is a real image or a fake image.
  • the discriminator 632 receives an input of a two-dimensional image extracted from the three-dimensional generated image SRsyn by the coronal image clipping processing unit 622 or a two-dimensional image that is a slice image of the coronal three-dimensional image included in the learning data set. , to determine whether the image is a real image or a fake image.
  • the generator 610 When an axial high-resolution image is input to the generator 610, the three-dimensional generated image generated by the first super-resolution processing by the generator 610 is cut out in the coronal cross-sectional direction, and is combined with the correct coronal image. An error (absolute error) is calculated.
  • the machine learning system 600 repeats adversarial learning for the generators 610, 612 and the discriminators 630, 632 to improve the performance of both.
  • a trained generator 610 that generates a high-definition isotropic three-dimensional image from a low-resolution axial three-dimensional image and a low-resolution
  • a trained generator 612 can be obtained that generates an isotropic resolution high definition 3D image from a coronal 3D image of the image.
  • the axial three-dimensional image used for learning in the third embodiment is an example of the "three-dimensional image captured under the first imaging condition" in the present disclosure
  • the coronal three-dimensional image is the "three-dimensional image captured under the second imaging condition” in the present disclosure.
  • This is an example of a "three-dimensional image”.
  • the z-axis direction in the axial three-dimensional image is an example of the "first axis direction” in the present disclosure
  • the axial three-dimensional image is an example of the "first axis low-resolution three-dimensional data" in the present disclosure.
  • the y-axis direction in the sagittal three-dimensional image is an example of the "second axis direction" in the present disclosure
  • the sagittal three-dimensional image is an example of the "second axis low-resolution three-dimensional data" in the present disclosure.
  • FIG. 24 is a conceptual diagram showing an outline of processing in the machine learning system 602 according to the fourth embodiment. 24, the same or similar elements as those in the configuration shown in FIG. 23 are denoted by the same reference numerals, and overlapping descriptions are omitted. Regarding the configuration shown in FIG. 24, points different from FIG. 23 will be described.
  • the third embodiment an example was described in which two discriminators 630 and 632 are used to discriminate authenticity of the three-dimensional generated image SRsyn generated by the generator 610 or the generator 612.
  • a process for reducing the resolution of a 3D generated image is added to the architecture of the third embodiment, and a conversion process is performed in which a super-resolution process and a low-resolution process corresponding to its inverse transform are performed in this order.
  • a mechanism for evaluating the reconstruction loss by is incorporated, and one of the discriminators 630 and 632 is used for the three-dimensional generated image.
  • the machine learning system 602 shown in FIG. 24 includes a resolution reduction processing unit 614 that performs a z-axis direction resolution reduction process on the three-dimensional generated image SRsyn, and a y-axis direction processing on the three-dimensional generated image SRsyn. and a resolution reduction processing unit 616 that performs resolution reduction processing.
  • the resolution reduction by the resolution reduction processing unit 614 corresponds to inverse conversion processing for the first super-resolution processing of the generator 610 .
  • the machine learning system 602 evaluates the reconstruction loss based on the original input axial 3D image and the axial 3D reconstructed generated image to update the parameters of the generator 610 . Note that the notation "LR" in the figure represents processing for low resolution.
  • the resolution reduction by the resolution reduction processing unit 616 corresponds to inverse conversion processing for the second super-resolution processing of the generator 612.
  • a reconstructed image (coronal three-dimensional reconstructed image) corresponding to the coronal three-dimensional image used for input is obtained.
  • the machine learning system 602 evaluates the reconstruction loss based on the original input image, the coronal 3D image, and the coronal 3D reconstructed generated image, and updates the parameters of the generator 612 .
  • the structure is similar to that of CycleGAN, and there is no need for a pair relationship between the axial 3D image and the coronal 3D image used for learning. It is sufficient if there is a learning data group for each of the three-dimensional image groups.
  • a configuration is adopted in which randomly given axial three-dimensional images and coronal three-dimensional images are repeatedly learned.
  • FIG. 25 is a processing flow when an axial three-dimensional image is input in the machine learning system 602.
  • the axial three-dimensional image is input to the generator 610, and the generator 610 outputs the three-dimensional generated image SRsyn1.
  • This three-dimensional generated image SRsyn1 is subjected to resolution reduction by a resolution reduction processing unit 614 to generate an axial three-dimensional reconstruction generated image, and a reconstruction loss is calculated.
  • a two-dimensional image of a coronal cross section is cut out from the three-dimensional generated image SRsyn1 output from the generator 610, and a discriminator 632 is used to determine whether the coronal image is true or false. make a judgment.
  • Machine learning system 602 repeats adversarial learning for generator 612 and classifier 632 to improve their performance.
  • FIG. 26 is a processing flow when a coronal three-dimensional image is input in the machine learning system 602.
  • the coronal 3D image is input to the generator 612 and the 3D generated image SRsyn is output from the generator 612 .
  • This three-dimensional generated image SRsyn2 is subjected to resolution reduction by a resolution reduction processing unit 616 to generate a coronal three-dimensional reconstructed generated image, and a reconstruction loss is calculated.
  • a coronal three-dimensional image is input to the generator 612
  • a two-dimensional image of an axial section is cut out from the three-dimensional generated image SRsyn2 output from the generator 612, and a discriminator 630 is used to determine the authenticity of the axial image. make a judgment.
  • Machine learning system 602 repeats adversarial learning for generator 612 and classifier 630 to improve their performance.
  • a learned generator 610 that generates a high-definition isotropic three-dimensional image from a low-resolution axial three-dimensional image and a low-resolution
  • a trained generator 612 can be obtained that generates an isotropic resolution high definition 3D image from a coronal 3D image of the image.
  • ⁇ Modification 4>> Other examples of domain transforms include transforming between different image types such as T1-weighted, T2-weighted, fat-suppressed, contrast-enhanced and non-contrast-enhanced images in MR, or between contrast-enhanced and non-contrast-enhanced images in CT.
  • the technology of the present disclosure can also be applied to conversion between images.
  • the technology of the present disclosure is applicable not only to CT images and MR images, but also to various medical images such as ultrasound images that project human body information and PET images captured using a Positron Emission Tomography (PET) apparatus. is included in the scope of application.
  • PET Positron Emission Tomography
  • the technology of the present disclosure can be applied not only to medical images captured by medical equipment, but also to three-dimensional images for various purposes captured by various imaging devices.
  • FIG. 27 is a block diagram showing an example of the hardware configuration of a computer;
  • Computer 800 may be a personal computer, a workstation, or a server computer.
  • the computer 800 can be used as a part or all of any of the machine learning systems 10, 11, 210, 600, 602 and the medical image processing apparatus 500 already described, or as a device having a plurality of these functions.
  • the computer 800 includes a CPU 802 , a RAM (Random Access Memory) 804 , a ROM (Read Only Memory) 806 , a GPU 808 , a storage 810 , a communication section 812 , an input device 814 , a display device 816 and a bus 818 .
  • the GPU 808 may be provided as needed.
  • the CPU 802 reads various programs stored in the ROM 806, storage 810, etc., and executes various processes.
  • a RAM 804 is used as a work area for the CPU 802 . Also, the RAM 804 is used as a storage unit that temporarily stores read programs and various data.
  • the storage 810 includes, for example, a hard disk device, an optical disk, a magneto-optical disk, or a semiconductor memory, or a storage device configured using an appropriate combination thereof.
  • Various programs, data, and the like are stored in the storage 810 .
  • a program stored in the storage 810 is loaded into the RAM 804 and executed by the CPU 802, whereby the computer 800 functions as means for performing various processes defined by the program.
  • the communication unit 812 is an interface that performs wired or wireless communication processing with an external device and exchanges information with the external device.
  • the communication unit 812 can serve as an information acquisition unit that receives input such as an image.
  • the input device 814 is an input interface that receives various operational inputs to the computer 800 .
  • Input device 814 may be, for example, a keyboard, mouse, multi-touch panel, or other pointing device, or voice input device, or any suitable combination thereof.
  • the display device 816 is an output interface that displays various information.
  • the display device 816 may be, for example, a liquid crystal display, an organic electro-luminescence (OEL) display, a projector, or an appropriate combination thereof.
  • OEL organic electro-luminescence
  • a program that causes a computer to implement part or all of at least one processing function is recorded on a computer-readable medium that is a tangible non-temporary information storage medium such as an optical disk, a magnetic disk, or a semiconductor memory, and this information storage It is possible to provide the program through a medium.
  • At least one of various processing functions such as an image acquisition function, a preprocessing function and a learning processing function in the machine learning systems 10, 11, 210, 600, 602, and an image processing function in the medical image processing apparatus 500 may be realized by cloud computing, and can also be provided as a Sass (Software as a Service) service.
  • Sass Software as a Service
  • processors include CPUs, which are general-purpose processors that run programs and function as various processing units, GPUs, which are processors specialized for image processing, and FPGAs (Field Programmable Gate Arrays).
  • PLD Programmable Logic Device
  • ASIC Application Specific Integrated Circuit
  • a single processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types.
  • one processing unit may be configured by a plurality of FPGAs, a combination of CPU and FPGA, or a combination of CPU and GPU.
  • a plurality of processing units may be configured by one processor.
  • a single processor is configured by combining one or more CPUs and software. There is a form in which a processor functions as multiple processing units.
  • SoC System On Chip
  • the various processing units are configured using one or more of the above various processors as a hardware structure.
  • the hardware structure of these various processors is, more specifically, an electrical circuit that combines circuit elements such as semiconductor elements.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

入力された3次元画像のドメインを変換して高解像度の3次元生成画像を生成することができる学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置を提供する。本開示の一態様に係る学習済みモデルの生成方法は、第1ドメインの3次元画像の入力を受け付け、第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有する学習モデルを用い、コンピュータが第1撮影条件により撮影された3次元画像と、第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データに基づき、第1生成器と第1判別器とを敵対的に学習させる学習処理を行うことを含む。

Description

学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置
 本発明は、学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置に係り、特に、3次元画像のドメイン変換を行う機械学習技術および画像処理技術に関する。
 医療分野においては、CT(Computed Tomography)装置あるいはMRI(Magnetic Resonance Imaging)装置等の各種モダリティによって撮影された医療画像を用いて画像診断が行われている。近年は深層学習を用いて医療画像から臓器等の部位の抽出、病変領域の検出、あるいは病名などの分類等を行う人工知能(Artificial Intelligence:AI)の開発が進められている。
 特許文献1には、AIを利用して医療画像から臓器領域を抽出する診断支援システムが記載されている。特許文献2には、CT装置等のモダリティによって撮影された所定のスライス厚さの3次元データからスライス厚さを変更した高精細の3次元データを生成する画像処理方法が記載されている。
 非特許文献1は、敵対的生成ネットワーク(Generative Adversarial Networks:GAN)の構成を2つ組み合わせたネットワークを用い、学習データとしてペアの画像を用いることなく、2つの異なるドメインの画像を相互に変換する技術を開示している。
 非特許文献2は、非特許文献1の技術を応用し、3次元の医療画像に対してドメイン変換および臓器の領域抽出のタスクを学習する方法を提案している。
特開2019-149094号公報 特許第6583875号
Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros, "Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks", ArXiv: 1703.10593 Zizhao Zhang, Lin Yang, Yefeng Zheng "Translating and Segmenting Multimodal Medical Volumes with Cycle- and Shape-Consistency Generative Adversarial Network", ArXiv: 1802.09655
 医療画像は様々なモダリティによって生成され、モダリティごとに画像の特徴が異なる。AIを用いたコンピュータ支援診断(Computer Aided Diagnosis, Computer Aided Detection :CAD)システムなどは、対象とする医療画像を撮影したモダリティごとに構築されることが一般的である。特定のモダリティで構築された技術を、他のモダリティの画像にも適応することができれば、より多くの場面での活用が期待される。
 例えば、CT画像を入力して臓器の領域抽出を行う臓器抽出CADのシステムが構築されている場合に、この技術を基にMR(Magnetic Resonance)画像からでも同様に、臓器の領域抽出を実現するといった応用が可能になる。
 そのためには、例えば、CT画像から擬似的なMR画像を生成する処理、あるいは、逆に、MR画像から擬似的なCT画像を生成する処理などの、異種モダリティ間で画像変換を行う高性能な画像変換器が要求される。なお、「画像変換」は「画像生成」と言い換えてもよく、変換器は「生成器」と言い換えてもよい。モダリティは画像の特徴に対応するドメインの一種と理解される。
 CT装置あるいはMRI装置などを用いて撮影された医療画像は、2次元スライス画像がスライス厚方向に連続する3次元データとなり得るため、このような3次元画像を対象とする画像変換器の開発が望まれる。
 この点、非特許文献1は、2次元画像を対象とする内容であり、3次元画像への適用については記載されていない。非特許文献2は、3次元の医療画像を対象として、異なるドメイン間での画像変換を学習する方法を提案しているが、非特許文献2に記載の方法はアキシャル断面、サジタル断面およびコロナル断面の3種類のそれぞれの断面について高解像度のデータセットを用いてモデルを訓練する必要がある。
 しかしながら、医療画像においては、3種類すべての断面について高解像度の3次元データを入手できるケースは少なく、異種のモダリティにおいて撮影範囲およびスライス厚などの撮影の条件が同じデータを十分に入手できるケースは少ない。
 その一方で、3種類の断面のうち特定の1断面のみが高解像度である3次元データなど、異なる撮影の条件にて撮影された3次元データなどは入手可能なケースがある。例えば、実際の臨床にて広く利用されているスライス厚が厚いThickスライスの3次元データは、スライス厚方向の解像度が低く、3種類の断面のうち特定の1断面のみが高解像度である。
 これに対して、スライス厚が1mm以下のThinスライスの3次元データは、スライス厚方向を含む直交3軸(例えば、x軸、y軸およびz軸)の各軸方向の解像度が高く、3種類の断面のすべてについて高解像度である。Thinスライスの3次元データは、Thickスライスに比べて、撮影に時間を要し、さらにデータ量も大きくなることから、多くの医療機関では通常はThickスライスのデータが取得される。このため、Thickスライスのデータは、Thinスライスのデータに比べて、比較的容易に入手可能である。
 深層学習ベースのアルゴリズムを用いてドメイン変換のタスクを行うモデルを訓練する場合、モデルによって生成される生成画像の特徴は学習に使用したデータに依存する。仮に、非特許文献1に記載されている2次元画像を対象とする学習アーキテクチャを、そのまま3次元画像を対象とするアーキテクチャに応用し、訓練用のデータとして、入手容易なThickスライスのデータを使用して学習を実施した場合、生成される画像は学習に用いたデータと同じ条件(Thickスライス)で得られるため、3種類の各断面について高解像度の3次元画像の生成は困難である。
 上記のような課題は、医療画像に限らず、各種用途の3次元画像を対象とするドメイン変換を実現する場合に共通する課題として把握される。
 本開示はこのような事情に鑑みてなされたものであり、3次元の各軸方向のうち一部の軸方向の解像度が相対的に低い3次元データを学習に用いる場合であっても、入力された3次元画像のドメインを変換して高解像度の3次元生成画像を生成することができる学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置を提供することを目的とする。
 本開示の一態様に係る学習済みモデルの生成方法は、入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を出力する学習済みモデルの生成方法であって、第1ドメインの3次元画像の入力を受け付け、第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、第1生成器によって生成された第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有する学習モデルを用い、コンピュータが、第1撮影条件により撮影された3次元画像と、第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得し、複数の学習データに基づき、第1生成器と第1判別器とを敵対的に学習させる学習処理を行うことを含む。
 この態様によれば、第1生成器によって生成された3次元生成画像について、リアル画像(実画像)であるか、フェイク画像(生成画像)であるかの真偽判別を行う際に、リアル画像としての学習データにおいて相対的に解像度が高いスライス面方向を第1スライス面方向とする断面画像の2次元画像に分割して第1判別器に入力することができる。これにより、第1生成器への入力に使用される3次元画像において第1スライス面方向の断面画像の解像度が低い場合であっても、第1生成器は、第1スライス面方向の断面画像の解像度が高い3次元生成画像を生成できるように訓練される。学習済みの第1生成器は、3次元画像のドメインを変換する異種ドメイン画像生成のタスクを行う学習済みモデルとして利用することができる。
 学習済みモデルの生成方法は、学習済みモデルを生産する方法と理解される。また、学習済みモデルの生成方法は、コンピュータを用いて実施される機械学習方法と理解してもよい。解像度は空間分解能と言い換えてもよい。
 本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第1生成器によって生成された第2ドメインの3次元生成画像から第1スライス面方向の断面画像を示す2次元画像を切り出す第1切り出し処理を行い、第1切り出し処理により切り出された2次元画像を第1判別器に入力することを含む構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、第1撮影条件は、撮影に使用した機器が第1撮影機器であることを含み、第2撮影条件は、撮影に使用した機器が第1撮影機器とは異なる種類の第2撮影機器であることを含む構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、第1撮影条件は、解像度の条件が第1解像度条件であることを含み、第2撮影条件は、解像度の条件が第1解像度条件とは異なる第2解像度条件であることを含む構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、第1撮影条件および第2撮影条件のうち少なくとも1つは、解像度の条件として、直交3軸のうち1つの軸方向の解像度が他の2つの軸方向のそれぞれの解像度よりも低いことを含む構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、第2撮影条件により撮影された3次元画像として、直交3軸のうち1軸方向の解像度が他の2軸方向のそれぞれの解像度よりも低い非等方性3次元データが用いられ、第1スライス面方向は、非等方性3次元データにおいて相対的に解像度が高い他の2軸方向に平行なスライス面方向である構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、学習モデルは、さらに、第1生成器によって生成された第2ドメインの3次元生成画像から切り出される第1スライス面方向と直交する第2スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第2判別器を含み、学習処理は、第1生成器と第2判別器とを敵対的に学習させる処理を含む構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第1生成器によって生成された第2ドメインの3次元生成画像から第2スライス面方向の断面画像を示す2次元画像を切り出す第2切り出し処理を行い、第2切り出し処理により切り出された2次元画像を第2判別器に入力することを含む構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、学習データとして、x軸、y軸およびz軸の直交3軸のうちz軸方向の解像度がx軸方向およびy軸方向のそれぞれの解像度よりも低いz軸低解像の非等方性3次元データと、y軸方向の解像度がz軸方向およびx軸方向のそれぞれの解像度よりも低いy軸低解像の非等方性3次元データとが用いられ、第1スライス面方向は、x軸方向およびy軸方向に平行なスライス面方向であり、第2スライス面方向は、z軸方向およびx軸方向に平行なスライス面方向である構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、学習データとして、x軸、y軸およびz軸の直交3軸のうちy軸方向の解像度がz軸方向およびx軸方向のそれぞれの解像度よりも低いy軸低解像の非等方性3次元データと、x軸方向の解像度がy軸方向およびz軸方向のそれぞれの解像度よりも低いx軸低解像の非等方性3次元データとが用いられ、第1スライス面方向は、z軸方向およびx軸方向に平行なスライス面方向であり、第2スライス面方向は、y軸方向およびz軸方向に平行なスライス面方向である構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、学習データとして、x軸、y軸およびz軸の直交3軸のうちx軸方向の解像度がy軸方向およびz軸方向のそれぞれの解像度よりも低いx軸低解像の非等方性3次元データと、z軸方向の解像度がx軸方向およびy軸方向のそれぞれの解像度よりも低いz軸低解像の非等方性3次元データとが用いられ、第1スライス面方向は、y軸方向およびz軸方向に平行なスライス面方向であり、第2スライス面方向は、x軸方向およびy軸方向に平行なスライス面方向である構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、入力された学習データの解像度の条件に応じて、第2ドメインの3次元生成画像の真偽判別に使用する第1判別器または第2判別器を選択的に切り替える構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、第1撮影条件により撮影された3次元画像として、直交3軸のうちの1軸方向の解像度が他の2軸方向の解像度よりも低い非等方性3次元データが用いられる構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第1撮影条件により撮影された3次元画像を、直交3軸の各軸方向の解像度が等しい等方性3次元データに変換する第1等方化処理を行い、第1等方化処理による変換後の等方性3次元データを第1生成器に入力することを含む構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、第1生成器は、直交3軸の各軸方向の解像度が等しい等方性3次元データの入力を受け付け、3次元生成画像としての等方性3次元データを出力する構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、学習モデルは、さらに、第2ドメインの3次元画像の入力を受け付け、第1ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第2生成器と、第2生成器によって生成された第1ドメインの3次元生成画像から切り出される特定のスライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第3判別器と、を含み、学習処理は、第2生成器と第3判別器とを敵対的に学習させる処理を含む構成とすることができる。
 この態様は、非特許文献1に記載のいわゆるCycleGANの仕組みを応用するものとなり得る。
 本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第2生成器により生成された第1ドメインの3次元生成画像から特定のスライス面方向の断面画像を示す2次元画像を切り出す第3切り出し処理を行い、第3切り出し処理により切り出された2次元画像を第3判別器に入力することを含む構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第1生成器から出力された第2ドメインの3次元生成画像を第2生成器に入力することにより第2生成器から出力される第1再構成生成画像に基づき、第1生成器および第2生成器をこの順に用いた変換処理の第1再構成ロスを計算する処理と、第2生成器から出力された第1ドメインの3次元生成画像を第1生成器に入力することにより第1生成器から出力される第2再構成生成画像に基づき第2生成器および第1生成器をこの順に用いた変換処理の第2再構成ロスを計算する処理と、を行うことを含む構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第1再構成生成画像に対して、第1再構成生成画像を生成する際の第1生成器への入力に使用した元の学習データと同じ解像度の3次元データに変換する第1アベレージプーリング処理を行い、第1アベレージプーリング処理による変換後の3次元データと、第1生成器への入力に使用した元の学習データとに基づいて第1再構成ロスを計算することを含む構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第2再構成生成画像に対して、第2再構成生成画像を生成する際の第2生成器への入力に使用した元の学習データと同じ解像度の3次元データに変換する第2アベレージプーリング処理を行い、第2アベレージプーリング処理による変換後の3次元データと、第2生成器への入力に使用した元の学習データとに基づいて第2再構成ロスを計算することを含む構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、学習モデルは、さらに、第2生成器により生成された第1ドメインの3次元生成画像から切り出される特定のスライス面方向と直交するスライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第4判別器を含み、学習処理は、第2生成器と第4判別器とを敵対的に学習させる処理を含む構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第2生成器により生成された第1ドメインの3次元生成画像から特定のスライス面方向と直交するスライス面方向の断面画像を示す2次元画像を切り出す第4切り出し処理を行い、第4切り出し処理により切り出された2次元画像を第4判別器に入力することを含む構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、特定のスライス面方向は第1スライス面方向である構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第2撮影条件により撮影された3次元画像を、直交3軸の各軸方向の解像度が等しい等方性3次元データに変換する第2等方化処理を行い、第2等方化処理による変換後の等方性3次元データを第2生成器に入力することを含む構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、第1撮影条件は第1ドメインに対応し、第2撮影条件は第2ドメインに対応している構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、第1撮影条件により撮影された3次元画像は、医療機器である第1モダリティを用いて撮影された第1モダリティ画像であり、第2撮影条件により撮影された3次元画像は、第1モダリティとは異なる種類の医療機器である第2モダリティを用いて撮影された第2モダリティ画像であり、学習モデルは、第1モダリティ画像の入力を受けて、第2モダリティを用いて撮影された画像の特徴を持つ擬似的な第2モダリティ生成画像を生成するように学習が行われる構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、第1ドメインは第1解像度、第2ドメインは第1解像度よりも高解像の第2解像度である構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、第1撮影条件により撮影された3次元画像は、直交3軸のうち第1軸方向の解像度が他の2軸方向のそれぞれの解像度よりも低い第1軸低解像3次元データであり、第2撮影条件により撮影された3次元画像は、直交3軸のうち第1軸方向とは異なる第2軸方向の解像度が他の2軸方向の解像度よりも低い第2軸低解像3次元データであり、学習モデルは、第1軸低解像3次元データおよび第2軸低解像3次元データの少なくとも1つの入力を受けて、入力された3次元データよりも高解像度の等方性3次元データを生成するように学習が行われる構成とすることができる。
 本開示の他の態様に係る学習済みモデルの生成方法において、コンピュータが、第1生成器により生成された第1ドメインの3次元生成画像に対して解像度を低下させる低解像化処理を行い、低解像化処理によって得られた再構成生成画像に基づいて、第1生成器による超解像処理と低解像化処理とによる画像変換の再構成ロスを計算することを含む構成とすることができる。
 本開示の他の態様に係る機械学習システムは、入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を生成する学習モデルを訓練する機械学習システムであって、少なくとも1つの第1プロセッサと、少なくとも1つの第1プロセッサによって実行されるプログラムが記憶される少なくとも1つの第1記憶装置と、を備え、学習モデルは、第1ドメインの3次元画像の入力を受け付け、第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、第1生成器によって生成された第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有し、少なくとも1つのプロセッサは、プログラムの命令を実行することにより、第1撮影条件により撮影された3次元画像と、第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得し、複数の学習データに基づき、第1生成器と第1判別器とを敵対的に学習させる学習処理を行う。
 本開示の他の態様に係るプログラムは、コンピュータに、入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を生成する学習モデルを訓練する処理を実行させるプログラムであって、学習モデルは、第1ドメインの3次元画像の入力を受け付け、第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、第1生成器によって生成された第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有し、コンピュータに、第1撮影条件により撮影された3次元画像と、第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得させ、複数の学習データに基づき、第1生成器と第1判別器とを敵対的に学習させる学習処理を実行させる。
 本開示の他の態様に係る医療画像処理装置は、本開示による学習済みモデルの生成方法を実施することにより訓練された学習済みの第1生成器である第1学習済みモデルを記憶する第2記憶装置と、第1学習済みモデルを用いて画像処理を行う第2プロセッサと、を備え、第1学習済みモデルは、第1医療画像の入力を受けて、第1医療画像とは異なるドメインの第2医療画像を出力するように訓練されたモデルである。
 本発明によれば、入力された3次元画像のドメインを変換して異種ドメインの特徴を持つ高解像度の3次元生成画像を生成することが可能になる。
図1は、MRI装置によって撮影された脳の3次元形態画像から切り出した3種類の各断面の画像例である。 図2は、CT画像におけるThinスライスと、Thickスライスとの表現差を示す画像例である。 図3は、MRI装置を用いて撮影されたThickスライスのMR画像の例である。 図4は、CT装置を用いて撮影されたThinスライスのCT画像の例である。 図5は、第1実施形態に係る機械学習システムにおける処理の概要を示す概念図である。 図6は、第1実施形態に係る機械学習システムの構成例を示す機能ブロック図である。 図7は、学習データ生成部の構成例を示す機能ブロック図である。 図8は、第1実施形態において使用される学習データセットの概念図である。 図9は、第1実施形態の変形例1を示す概念図である。 図10は、MR→CTのドメイン変換タスクを学習する機械学習システム100における処理の概要を示す概念図である。 図11は、第2実施形態において使用する学習データセットの概念図である。 図12は、第2実施形態に係る機械学習システムの構成例を示す機能ブロック図である。 図13は、第2実施形態に係る機械学習システムにおけるCT入力時の処理フローを示す模式図である。 図14は、第2実施形態に係る機械学習システムにおけるMR入力時の処理フローを示す模式図である。 図15は、アキシャル断面が高解像のThickスライスのMR画像が入力された場合の処理フローを示す模式図である。 図16は、コロナル断面が高解像のThickスライスのMR画像が入力された場合の処理フローを示す模式図である。 図17は、第2実施形態に係る機械学習システムを用いて学習を実施することにより得られた学習済みの生成器によるCT→MR変換の性能を示す画像例である。 図18は、第2実施形態に係る機械学習システムを用いて学習を実施することにより得られた学習済みの生成器によるMR→CT変換の性能を示す画像例である。 図19は、比較例に係る機械学習システムに適用される学習モデルの構成例である。 図20は、比較例に係る機械学習システムを用いてCT→MR変換のタスクを学習させた生成器によって生成された疑似MR画像の例である。 図21は、機械学習システムに適用される情報処理装置の構成例を示すブロック図である。 図22は、機械学習システムを用いた学習を実施して生成された学習済み生成器を用いた医療画像処理装置の構成例を示すブロック図である。 図23は、第3実施形態に係る機械学習システムの処理の概要を示す概念図である。 図24は、第4実施形態に係る機械学習システムにおける処理の概要を示す概念図である。 図25は、第4実施形態に係る機械学習システムにおいてアキシャル断面が高解像の3次元画像が入力された場合の処理フローを示す模式図である。 図26は、第4実施形態に係る機械学習システムにおいてコロナル断面が高解像の3次元画像が入力された場合の処理フローを示す模式図である。 図27は、コンピュータのハードウェア構成の例を示すブロック図である。
 以下、添付図面に従って本発明の好ましい実施形態について説明する。
 《医療画像の例》
 医療画像を撮影する装置の代表的な例としてCT装置あるいはMRI装置といったモダリティが挙げられる。これらのモダリティにおいては、基本的な考え方として、2次元スライス画像を連続的に撮影することによって対象物の3次元形態を示す3次元データが得られる。本明細書において「3次元データ」という用語は、連続的に撮影された2次元スライス画像の集合体の概念を含み、3次元画像と同義である。なお、「画像」という用語は、画像データの意味を含む。連続する2次元スライス画像の集合体は「2次元画像シーケンス」あるいは「2次元画像シリーズ」と呼ばれる場合がある。「2次元画像」という用語は、3次元データから取り出される2次元スライス画像の概念を含む。
 CT装置あるいはMRI装置などの撮影機器からのデータの再構成によって得られる断面(2次元のスライス断面)としてアキシャル断面、サジタル断面およびコロナル断面の3種類が考えられる。
 図1は、MRI装置によって撮影された脳の3次元形態画像から切り出した3種類の各断面の画像例である。図1において左からサジタル断面画像、中央にアキシャル断面画像、右にコロナル断面画像が示されている。本明細書では、体軸方向をz軸方向とし、立位姿勢の人体における水平方向(左右方向)をx軸方向、奥行き方向(前後方向)をy軸方向とする直交座標系を導入する。アキシャル断面はz軸に直交する断面(xy面)、すなわちx軸方向およびy軸方向に平行な面である。サジタル断面はx軸に直交する断面(yz面)である。コロナル断面はy軸に直交する断面(zx面)である。
 図2は、CT画像におけるThinスライスと、Thickスライスとの表現差を示す画像例である。図2の上段は、アキシャル断面にてスライス厚が1mmのthinスライスが再構成されている場合の3種類の各断面の画像例を示す。図2の下段はアキシャル断面にてスライス厚が8mmのThickスライスが再構成されている場合の3種類の各断面の画像例を示す。図2において左がアキシャル断面、中央がサジタル断面、右がコロナル断面のそれぞれの画像例である。
 図2の上段に示すThinスライスの場合、3種類のすべての断面について高解像度の画像が得られている。一方で、下段に示すThickスライスの場合、アキシャル断面は高解像度の画像が得られているものの、他の断面については8mm厚のスライス情報が平均化されるため、サジタル断面およびコロナル断面の画像の解像度が低下する。
 《医療画像を対象としたドメイン変換による画像生成の課題》
 医療画像を対象とするドメイン変換(ここでは、異種モダリティ画像生成)のタスクを深層学習ベースのアルゴリズムを用いて学習させる場合、既述のとおり、学習に用いるデータの収集が課題の1つである。異種のモダリティにおいて、同じ撮影範囲を、同じ解像度の条件にて撮影したデータを十分に揃えることは困難である。多くの場合、モダリティごとに撮影時の解像度の条件が異なる。
 図3および図4に、モダリティ間で画像の解像度が異なる例を示す。図3には、モダリティAとしてのMRのThickスライスの例を示し、図4には、モダリティBとしてのCTのThinスライスの例を示す。
 図3の左側に示す3枚の画像は、コロナル断面が高解像となるThickスライスが再構成されたMR画像の例であり、図3の右側に示す3枚の画像は、アキシャル断面が高解像となるThickスライスが再構成されたMR画像の例である。MRI装置によって撮影されたMR画像は、コロナル断面のみが解像度が高く、アキシャル断面とサジタル断面との2断面はどちらも解像度が低い3次元データの場合もあれば、アキシャル断面のみが解像度が高く、コロナル断面とサジタル断面との解像度が低い3次元データの場合もあり得る。
 コロナル断面のみが高解像である3次元データは、x軸方向およびz軸方向の解像度が高く、y軸方向の解像度が低いデータである。一方、アキシャル断面のみが高解像である3次元データは、x軸方向およびy軸方向の解像度が高く、z軸方向の解像度が低いデータである。
 このように実際の撮影によって取得されたMR画像(実MR画像)の場合、3種類の断面のうち1つの断面のみが高解像度であり、他の2つの断面は低解像度である場合が多い。なお、MR画像には、T1強調画像、T2強調画像、HeavyT2強調画像、あるいは拡散強調画像など、様々な種類の画像があり得る。
 これに対し、CT装置を用いた撮影によって得られるThinスライスの3次元データは、図4に示すように、3種類の断面のすべての断面について(3軸のすべての軸方向について)解像度が高いデータとなり得る。
 図3および図4に示すような3次元データにおける各軸方向の解像度の違いは、3次元データを取得する際の撮影条件に依存する。なお、CT装置においてもThickスライスの撮影を行った場合には、図3のように、特定の方向の断面のみが解像度の高い3次元データとなり得る。
 《第1実施形態》
 第1実施形態では、図3に例示するような一部の軸方向の解像度が低い3次元データが混在する学習データセットを用いる場合であっても、3軸すべての方向(すなわち、3種類の各断面)について高解像の生成画像が得られる異種ドメイン画像生成(画像変換)を実現する機械学習システムの例を説明する。
 図5は、第1実施形態に係る機械学習システム10における処理の概要を示す概念図である。ここでは、ソースドメインをCT、ターゲットドメインをMRとし、CT画像から擬似的なMR画像を生成する画像変換タスクを、GANのアーキテクチャをベースにして学習する方法について説明する。
 第1実施形態に係る機械学習システム10は、3次元CNN(Convolutional Neural Network)を用いて構成された生成器20Gと、それぞれが2次元CNNを用いて構成された少なくとも2つの判別器24D、26Dとを含む。生成器20Gは、CTのドメインの特徴を持つ3次元データの入力を受けて、MRのドメインの特徴を持つ3次元データを出力する3次元の生成ネットワーク(3Dジェネレータ)である。生成器20Gには、例えば、U-netを3次元に拡張したV-net型のアーキテクチャが適用される。
 U-netは、医療画像のセグメンテーション等に広く用いられているニューラルネットワークである。U-netについて記載された文献として例えば、「Olaf Ronneberger, et al. "U-Net: Convolutional Networks for Biomedical Image Segmentation", MICCAI,2015」がある。また、V-netについて記載された文献として例えば、「Fausto Milletari, et.al. "V-Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation"」がある。
 複数の判別器24D、26Dは、それぞれが異なる断面方向の2次元画像の入力に対応して画像の真偽を判別する2次元の判別ネットワーク(2Dディスクリミネータ)である。判別器24D、26Dのそれぞれには、例えば、いわゆるPix2Pixと呼ばれる技術で用いられる2次元のディスクリミネータのアーキテクチャが適用される。Pix2Pixについて記載された文献として例えば、「Phillip Isola, et.al. "Image-to-Image Translation with Conditional Adversarial Nets"」がある。
 第1実施形態では、生成器20Gによる生成画像が3次元であることから、判別器24D,26Dへの入力は、特定のスライス厚方向に分割した2次元の画像として扱う。そして、これら分割された各スライス画像(2次元画像)について得られた真偽の判別結果の出力の平均値を最終的な判別器24D,26Dの出力として用いる。
 第1実施形態においては、訓練用のデータとして、CT装置を用いた撮影によって実際に得られたCTの3次元データ(実CT画像)と、MRI装置を用いた撮影によって実際に得られたMRの3次元データ(実MR画像)との画像のペアが用いられる。
 入力として与える異種モダリティ画像は、撮影対象部位が同一であることが望ましい。また、生成器20Gによる変換後の出力(生成画像)は、入力画像と同一部位の画像とする。第1実施形態において、訓練に使用するペアの関係にあるCTの3次元データと、MRの3次元データとは、同じ患者について、同じ撮影範囲若しくは、実質的に同じ撮影範囲と見做すことができる程度の許容範囲で概ね同じ撮影範囲を撮影したものであるとする。第1実施形態の場合、学習に用いるMRの3次元データは、アキシャル断面の解像度が高い(サジタル断面とコロナル断面の解像度が低い)Thickスライスのデータ、および、コロナル断面の解像度が高い(アキシャル断面とサジタル断面の解像度が低い)Thickスライスのデータであるとする(図3参照)。
 この場合、一方の判別器24Dは、アキシャル断面の2次元画像の入力に対して真偽を判別する2Dアキシャル判別器であり、他方の判別器26Dはコロナル断面の2次元画像の入力に対して真偽を判別する2Dコロナル判別器である。
 また、第1実施形態において学習に用いるCTの3次元データについては、3種類の各断面の解像度が高いThinスライスのデータ(図4参照)であってもよいし、MRと同様に、3種類の断面のうちいずれか1断面の解像度が低いThickスライスのデータであってもよい。
 生成器20Gは、等方解像度の3次元CT画像の入力を受けて、等方解像度の3次元MR生成画像を出力するように構成される。機械学習システム10は、生成器20Gの前段において、3次元データの等方化処理を行う等方化処理部12を含む。等方化処理は、x軸方向、y軸方向およびz軸方向の各軸方向の画素の大きさを等間隔に変換する処理であり、3次元データにおける(x,y,z)の各軸方向の単位長さを等間隔の物理サイズに変換する処理である。すなわち、等方化処理は、3次元データにおけるボクセルを所定サイズの立方体に変換する処理に相当する。ボクセルの形状が立方体であること、つまり、3次元画像のx軸、y軸およびz軸のすべて軸方向の解像度が等しいことを等方解像度という。
 等方化処理部12は、例えば、最近傍補間、線形補間、あるいはスプライン補間などを用いて、3次元空間の正規格子単位が1mmの物理サイズでデータを補間する。正規格子単位の物理サイズは1mmに限定されず、読影に求められる十分な解像度が得られるサイズであればよい。
 CTの3次元データは、生成器20Gへの入力前に、公知の技術を用いて等方化処理を実施してもよいし、等方化処理を省略して生成器20Gから出力される疑似MR画像が等方化されたものとなるように生成器20Gの3次元CNNを設計してもよい。
 また、例えば、等方解像度の3次元画像の入力および出力を行う生成器20Gに代えて、(x,y,z)の単位格子が非等方の3次元CT画像の入力を受けて、同じ格子サイズの(x,y,zそれぞれの画素間隔が維持された)非等方の3次元疑似MR画像を出力する生成器を設計してもよい。
 機械学習システム10は、さらに、生成器20Gが生成した3次元データから少なくとも2つのスライス面(断面)方向についての2次元画像を切り出す第1切り出し処理部14および第2切り出し処理部16を含む。第1切り出し処理部14および第2切り出し処理部16が行う切り出し処理は、3次元データから特定の方向のスライス(2次元画像)を取り出す処理である。切り出し処理が行われる特定の方向は、判別器24D、26Dのそれぞれに入力させる断面画像を示す2次元画像の断面の方向に対応している。
 第1実施形態では、アキシャル断面の2次元画像の入力を受け付ける判別器24Dと、コロナル断面の2次元画像の入力を受け付ける判別器26Dとのそれぞれに対応して、アキシャル断面のスライスを切り出す第1切り出し処理部14と、コロナル断面のスライスを切り出す第2切り出し処理部16とを備える。
 第1切り出し処理部14および第2切り出し処理部16のそれぞれは、生成器20Gから出力された3次元の疑似MR画像から特定の方向のスライスをすべて取り出す処理を実施してもよい。例えば、疑似MR画像の画像サイズが64×64×64である場合、第1切り出し処理部14は、xy面の画像サイズが64×64である2次元画像を64枚取り出す処理を行い、第2切り出し処理部16は、zx面の画像サイズが64×64である2次元画像を64枚取り出す処理を行う構成であってもよい。
 判別器24Dには、第1切り出し処理部14によって切り出された2次元画像、または学習データに含まれる実MR画像のうちアキシャル断面が高解像度の3次元データから取り出された2次元画像が入力され、判別器24Dにおいて、リアル画像であるか、生成器20Gによって生成されたフェイク画像であるかの真偽判別が行われる。
 同様に、判別器26Dには、第2切り出し処理部16によって取り出された2次元画像、または学習データのうちコロナル断面が高解像度のMRの3次元データから取り出された2次元画像が入力され、判別器26Dにおいて、リアル画像であるか、フェイク画像であるかの真偽判別が行われる。
 「リアル画像」とは、撮影機器を用いて実際に撮影が行われることによって得られた実際の画像を意味する。「フェイク画像」とは、撮影を行うことなく、画像変換の処理によって人工的に生成された生成画像(疑似画像)を意味する。第1実施形態の場合、学習モデル44に入力する学習データとして使用するデータは「リアル画像」であり、生成器20Gが生成した生成画像は「フェイク画像」である。
 学習データとして用意された実MR画像は、3種類の断面方向のうちいずれか1方向にのみ高解像であるため、その高解像の断面の2次元画像を用いて真偽判別を行うように、入力されるデータに応じて、高解像のスライス面方向に対応した2次元の判別器24D,26Dを選択的に切り替えて使用する。
 このように、機械学習システム10においては、入力画像の解像度の条件に応じて、真偽判別の画像評価に用いる判別器24D,26Dを使い分け、解像度の高い断面の2次元画像のみを用いてリアル画像であるか、フェイク画像であるかの評価が行われる。
 生成器20Gは本開示における「第1生成器」の一例である。判別器24Dは本開示における「第1判別器」の一例であり、判別器26Dは本開示における「第2判別器」の一例である。CTのドメインは本開示における「第1ドメイン」の一例であり、MRのドメインは「第2ドメイン」の一例である。
 撮影に使用した撮影機器がCT装置であることは本開示における「第1撮影条件」の一例である。撮影に使用した撮影機器がMRI装置であることは本開示における「第2撮影条件」の一例である。CT装置は本開示における「第1撮影機器」、「第1モダリティ」の一例であり、CT画像は本開示における「第1モダリティ画像」の一例である。MRI装置は本開示における「第2撮影機器」、「第2モダリティ」の一例であり、MR画像は本開示における「第2モダリティ画像」の一例である。Thinスライスは本開示における「第1解像度条件」の一例である。Thickスライスは本開示における「第2解像度条件」の一例である。
 アキシャル断面が得られるスライス面方向は本開示における「第1スライス面方向の一例であり、コロナル断面が得られるスライス面方向は本開示における「第2スライス面方向」の一例である。第1切り出し処理部14が行う切り出し処理は本開示における「第1切り出し処理」の一例であり、第2切り出し処理部16が行う切り出し処理は本開示における「第2切り出し処理」の一例である。等方化処理部12が行う等方化処理は本開示における「第1等方化処理」の一例である。
 《機械学習システム10の構成例》
 図6は、第1実施形態に係る機械学習システム10の構成例を示す機能ブロック図である。機械学習システム10は、学習データ生成部30と、学習処理部40とを含む。機械学習システム10は、さらに、画像保存部50と学習データ保存部54とを含んでいてもよい。
 機械学習システム10は、1台又は複数台のコンピュータを含むコンピュータシステムによって実現することができる。学習データ生成部30、学習処理部40、画像保存部50および学習データ保存部54のそれぞれの機能は、コンピュータのハードウェアとソフトウェアの組み合わせによって実現できる。これら各部の機能は1台のコンピュータで実現してもよいし、2以上の複数台のコンピュータで処理の機能を分担して実現してもよい。
 ここでは、学習データ生成部30、学習処理部40、画像保存部50および学習データ保存部54のそれぞれが別々の装置として構成される例を説明する。例えば、学習データ生成部30、学習処理部40、画像保存部50および学習データ保存部54は、電気通信回線を介して互いに接続されていてもよい。「接続」という用語は、有線接続に限らず、無線接続の概念も含む。電気通信回線は、ローカルエリアネットワークであってもよいし、ワイドエリアネットワークであってもよい。このように構成することで、学習データの生成処理と生成モデルの学習処理とを物理的にも時間的にも互いに束縛されることなく実施することができる。
 画像保存部50は、医療用X線CT装置によって撮影されたCT再構成画像(CT画像)およびMRI装置によって撮影されたMR再構成画像(MR画像)を保存する大容量ストレージ装置を含む。画像保存部50は、例えば、DICOM(Digital Imaging and Communications in Medicine)の規格に準じて医療画像を保存するDICOMサーバであってもよい。画像保存部50に保存される医療画像は、人体の部位毎の画像であってもよいし、全身を撮影した画像であってもよい。
 学習データ生成部30は、機械学習に用いる訓練用のデータ(学習データ)を生成する。学習データは、「訓練データ」と同義である。第1実施形態に係る機械学習システム10においては、CT装置を用いて実際に撮影された実CT画像である3次元データと、MRI装置を用いて実際に撮影された実MR画像である3次元データとが関連付けされた複数の画像ペアを学習データとして使用する。このような学習データは、画像保存部50に保存されているデータから生成することが可能である。
 学習データ生成部30は、画像保存部50からオリジナルの3次元データを取得し、等方化、姿勢変換および固定サイズ領域の切り出しなどの前処理を行い、学習処理部40への入力に適した所望の画素数(ボクセル数)および画像サイズの3次元データを生成する。学習処理部40による学習の処理を効率的に実施するために、事前に学習データ生成部30を用いて複数の学習データを生成しておき、学習データセットとしてストレージに保存しておいてもよい。
 学習データ保存部54は、学習データ生成部30により生成された前処理済みの学習データを保存しておくストレージを含む。学習データ生成部30によって生成された学習データは、学習データ保存部54から読み出され、学習処理部40に入力される。
 なお、学習データ保存部54は、学習データ生成部30に含まれてもよし、画像保存部50の記憶領域の一部が学習データ保存部54として用いられてもよい。また、学習データ生成部30の処理機能の一部または全部は、学習処理部40に含まれていてもよい。
 学習処理部40は、画像取得部42と、GANの構造を持つ学習モデル44とを含む。画像取得部42は、学習データ保存部54から学習モデル44に入力する学習データを取得する。画像取得部42を介して取得された学習データは学習モデル44に入力される。学習モデル44は、生成器20Gと、第1切り出し処理部14と、第2切り出し処理部16と、判別器24D,26Dとを含んで構成される。
 学習処理部40は、さらに、誤差演算部46と、オプティマイザ48とを含む。誤差演算部46は、損失関数を用いて判別器24D,26Dからの出力と正解との誤差を評価する。さらに、誤差演算部46は、第1切り出し処理部14によって取り出された疑似MR(フェイクMR)の2次元画像と、これに対応する正解の(リアルMRの)2次元画像との誤差を評価する。誤差はロス(損失)と言い換えてもよい。
 オプティマイザ48は、誤差演算部46の演算結果を基に、学習モデル44におけるネットワークのパラメータを更新する処理を行う。ネットワークのパラメータは、CNNの各層の処理に用いるフィルタのフィルタ係数(ノード間の結合の重み)およびノードのバイアスなどを含む。
 すなわち、オプティマイザ48は、誤差演算部46の演算結果から生成器20Gおよび判別器24D,26Dのそれぞれのネットワークのパラメータの更新量を算出するパラメータ演算処理と、パラメータ演算処理の演算結果に従い、生成器20Gおよび判別器24D,26Dのそれぞれのネットワークのパラメータを更新するパラメータ更新処理とを行う。オプティマイザ48は、勾配降下法などのアルゴリズムに基づきパラメータの更新を行う。
 学習処理部40は、入力された学習データに基づいて、生成器20Gと判別器24D,26Dとを用いた敵対的な学習を繰り返すことにより、それぞれのモデルの性能を高めながら、学習モデル44を学習させる。
 《学習データの生成について》
 図7は、学習データ生成部30の構成例を示す機能ブロック図である。学習データ生成部30は、等方化処理部12と、姿勢変換部32と、固定サイズ領域切り出し処理部34とを含む。学習データ生成部30は、例えば、等方化処理部12によってx軸、y軸およびz軸の各方向の画素単位のサイズを1mmに等方化した3次元データに対して、姿勢変換部32にて姿勢変換を行い、その後、固定サイズ領域切り出し処理部34により、無作為に固定サイズ領域を切り出す処理を行う。固定サイズ領域は、x軸方向×y軸方向×z軸方向の画素数が、例えば「160×160×160」などの立方体形状の3次元領域であってよい。
 学習データ生成部30に入力されるオリジナルの3次元データは、CT画像であってもよいし、MR画像であってもよい。固定サイズ領域切り出し処理部34によって固定サイズ領域に切り出された固定サイズの3次元データは、学習データ保存部54に保存される。なお、固定サイズ領域に切り出された固定サイズの3次元データを学習データと理解してもよいし、固定サイズ領域に切り出す前のオリジナルの3次元データを学習データと理解してもよい。
 図8は、第1実施形態において使用される学習データセットの概念図である。第1実施形態においては、CTのThinスライスの3次元データと、これに対応するMRのThickスライスの3次元データとのペアが複数組み用意され、これらの画像ペアが学習データとして用いられる。
 《第1実施形態における学習方法》
 第1実施形態における機械学習システム10では、入力される3次元データに応じて、真偽判別に用いる判別器24D,26Dの切り替えが行われる。すなわち、アキシャル断面が高解像のMR画像とこれに対応するCT画像との画像ペアが入力された場合、生成器20Gによる変換後の生成画像の判別は、アキシャル断面の2次元画像を評価する判別器24Dによって行われる。
 一方、コロナル断面が高解像のMR画像とこれに対応するCT画像との画像ペアが入力された場合、生成器20Gによる変換後の生成画像の判別は、コロナル断面の2次元画像を評価する判別器26Dによって行われる。
 このように、敵対的学習において、高解像の断面の2次元画像のみを用いて生成画像の評価を行うことにより、生成器20Gはx軸、y軸およびz軸の各軸方向について高解像の3次元画像を生成する性能を獲得する。第1実施形態に係る機械学習システム10を用いて学習を実行することにより、アキシャル断面、コロナル断面およびサジタル断面の各断面が高解像の画像が得られる3次元の生成器20Gを得ることができる。
 機械学習システム10を用いた学習処理によって学習済みの生成器20Gを生成する方法は、本開示における「学習済みモデルの生成方法」の一例である。学習に使用したThinスライスのCT画像は本開示における「第1撮影条件により撮影された3次元画像」の一例であり、ThickスライスのMR画像は本開示における「第2撮影条件により撮影された3次元画像」の一例である。Thickスライスの3次元データは本開示における「等方性3次元データ」の一例であり、Thickスライスの3次元データは本開示における「非等方性3次元データ」の一例である。アキシャル断面が高解像のThickスライスの3次元データは、z軸方向の解像度が他の2軸方向(x軸方向およびy軸方向)のそれぞれの解像度よりも低い非等方性3次元データであり、本開示における「z軸低解像の非等方性3次元データ」の一例である。アキシャル高解像の3次元データにおけるアキシャル断面の方向は、相対的に解像度が高いx軸方向およびy軸方向に平行なスライス面方向である。コロナル断面が高解像のThickスライスの3次元データは、本開示における「y軸低解像の非等方性3次元データ」の一例である。生成器20Gから出力される疑似MR画像は本開示における「第2モダリティ生成画像」の一例である。
 《変形例1》
 図9は、第1実施形態の変形例1を示す概念図である。図9において、図5と共通する要素には同一の符号を付し、重複する説明は省略する。図9に示す構成について、図5と異なる点を説明する。
 図5に示す第1実施形態では、アキシャル断面の2次元画像を評価する判別器24Dと、コロナル断面の2次元画像を評価する判別器26Dとの2種類の2次元ディスクリミネータを用いる例を説明したが、図9に示す変形例1に係る機械学習システム11は、図5の構成に加えて、生成器20Gの生成画像からサジタル断面方向の2次元画像を取り出す切り出し処理を行う切り出し処理部18と、サジタル断面の2次元画像を評価する判別器28Dとを備える。判別器28Dは、他の判別器24D,26Dと同様に、2次元CNNを用いて構成される。
 この変形例1の場合、学習データとして、サジタル断面の解像度が高いThickスライスのMR画像とこれに対応するCT画像とのペアを用いることができる。
 変形例1に係る機械学習システム11によれば、サジタル断面が高解像のMR画像とこれに対応するCT画像とのペア画像が入力された場合、生成器20Gによる変換後の生成画像の判別は、サジタル断面の2次元画像を評価する判別器28Dによって行われる。
 変形例1に係る機械学習システム11を用いて学習を実行することにより、アキシャル断面、コロナル断面およびサジタル断面の各断面が高解像の生成画像が得られる3次元の画像変換(ドメイン変換)を行う生成器20Gを得ることができる。
 《変形例2》
 第1実施形態では、学習データとして、z軸低解像の非等方性3次元データと、y軸低解像の非等方性3次元データとを用いる例を説明したが、2種類の低解像度データの組み合わせについては、この例に限らない。
 z軸方向が低解像度の3次元データと、y軸方向が低解像度の3次元データと、x軸方向が低解像度の3次元データとの3種類の低解像度データが想定される場合、2種類の低解像度データの組み合わせは、全部で3通りある。
 [組み合わせ1]z軸方向が低解像度の3次元データとy軸方向が低解像度の3次元データとの組み合わせ
 [組み合わせ2]y軸方向が低解像度の3次元データとx軸方向が低解像度の3次元データとの組み合わせ
 [組み合わせ3]x軸方向が低解像度の3次元データとz軸方向が低解像度の3次元データとの組み合わせ
 第1実施形態で説明した例は[組み合わせ1]のケースである。[組み合わせ2]の学習データを用いる場合、判別器として、コロナル断面の2次元画像の入力を受け付けて真偽を判別する2Dコロナル判別器と、サジタル断面の2次元画像の入力を受け付けて真偽を判別する2Dサジタル判別器とが用いられ、各判別器への入力に際して3次元生成画像から各判別器に対応したスライス面方向の断面画像の切り出し処理が行われる。
 サジタル断面が高解像のThickスライスの3次元データは、x軸方向が低解像度の3次元データの一例であり、本開示における「x軸低解像の非等方性3次元データ」の一例である。
 同様に、[組み合わせ3]の学習データを用いる場合、判別器として、2Dサジタル判別器と、2Dアキシャル判別器とが用いられ、各判別器への入力に際して3次元生成画像から各判別器に対応したスライス面方向の対応した断面画像の切り出処理が行われる。
 《MRI→CT変換について》
 第1実施形態では実CT画像から疑似MR画像を生成するCT→MR変換の例を説明したが、第1実施形態における学習に使用した学習データと同様のデータセット(Thickスライスのデータを含むデータセット)を用いて、MR画像から疑似CT画像を生成するMRI→CT変換を行う生成器を学習させることも可能である。
 この場合、第1実施形態に係る学習モデルと同様のアーキテクチャを適用してもよいが、ThinスライスのCT画像のように、3種類の各断面がすべて高解像の3次元データが存在する場合は、生成された疑似CT画像を評価する判別器として3次元の判別器(3Dディスクリミネータ)を適用し得る。
 図10は、MR→CTのドメイン変換タスクを学習する機械学習システム100における処理の概要を示す概念図である。機械学習システム100は、3次元CNNを用いて構成された生成器120Fと、3次元CNNを用いて構成された判別器124Dとを含む。機械学習システム100は、生成器120Fの入力前に3次元データを等方化処理する等方化処理部112および図示しない姿勢変換部および固定サイズ領域切り出し処理部を含んでいてもよい。
 判別器124Dは、生成器120Fによって生成された3次元データ、または、学習データに含まれる実CT画像である3次元データの入力を受けて、入力された3次元データがリアル画像であるか、フェイク画像であるかの判別を行う。
 学習データとして用いられるThinスライスの実CT画像は、3軸の各方向に高解像のため、図10のように、3次元の判別器124Dを用いて学習することが可能である。
 《第2実施形態》
 医療画像の場合、異種モダリティ間で対応するペア画像を用意することが困難な場合も多い。第2実施形態では、非特許文献2に記載されているCycleGANの仕組みをベースにしたアーキテクチャを採用し、対応関係の無い(ペアでない)それぞれのドメインの画像群を学習データとして用いて、ドメイン変換のタスクを学習する例を説明する。
 図11は、第2実施形態において使用する学習データセットの概念図である。第2実施形態の場合、実CT画像の画像群と、実MR画像の画像群とがそれぞれ存在していればよい。第2実施形態では、学習に用いるデータとして、CTおよびMRIのそれぞれのドメインにおいて複数の実画像の3次元データが用いられる。それぞれのドメインの3次元データは、図3および図4において説明したものと同様であってよい。
 第2実施形態に用いる学習データセットには、Thinスライスの3次元データと、MRI装置を用いて撮影されたThickスライスの3次元データとがそれぞれ複数個含まれる。なお、学習データセットには、CT装置を用いて撮影されたThickスライスの3次元データが含まれていてもよい。
 図12は、第2実施形態に係る機械学習システム210の構成例を示す機能ブロック図である。図12において、図6に示す構成と同一または類似の要素には同一の符号を付し、重複する説明は省略する。
 図12に示す学習データ保存部54には、図11で説明したようなThinスライスの3次元データとThickスライスの3次元データとが混在する学習データセットが保存されている。
 機械学習システム210は、図6における学習処理部40に代えて、学習処理部240を含む。学習処理部240は、画像取得部42と、前処理部230と、学習モデル244と、誤差演算部246と、オプティマイザ248とを含む。
 前処理部230は、図7において説明した学習データ生成部30と同様の処理を行うものであり、等方化処理部12、姿勢変換部32および固定サイズ領域切り出し処理部34を含む。前処理部230は、画像取得部42を介して取得した3次元データに対して、学習モデル244への入力のための前処理を行う。ここでは、前処理として、等方化処理、姿勢変換および固定サイズ領域の取り出し処理を例示するが、これらの処理は必要に応じて実施さればよく、前処理部230における処理の一部または全部は省略することも可能である。また、前処理部230は、CT画像の前処理を行うCT用の前処理部と、MR画像の前処理を行うMR用の前処理部とが別々に構成されていてもよい。
 学習モデル244は、第1生成器220Gと、第1切り出し処理部14と、第2切り出し処理部16と、第1判別器224Dと、第2判別器226Dと、第2生成器250Fと、第3切り出し処理部254と、第4切り出し処理部256と、第3判別器264Dと、第4判別器266Dとを含んで構成される。
 第1生成器220Gと第2生成器250Fとはそれぞれが3次元CNNを用いて構成される。第1生成器220Gおよび第2生成器250Fのそれぞれのネットワーク構造は、第1実施形態で説明した生成器20Gと同様であってよい。
 第1判別器224D、第2判別器226D、第3判別器264Dおよび第4判別器266Dのそれぞれは2次元CNNを用いて構成される。これらの判別器のネットワーク構造は、第1実施形態で説明した判別器24D,26Dと同様であってよい。
 第1生成器220Gは、CT→MRIのドメイン変換を行う3Dジェネレータであり、CTのドメインの特徴を持つ3次元データの入力を受け付け、MRのドメインの特徴を持つ3次元データを生成して出力する。図12において第1生成器220Gに入力される「3D_CT」という記載は、等方化された実CT画像の3次元データを表している。
 第2生成器250Fは、MRI→CTのドメイン変換を行う3Dジェネレータであり、MRのドメインの特徴を持つ3次元データの入力を受け付け、CTのドメインの特徴を持つ3次元データを生成して出力する。図12において第2生成器250Fに入力される「3D_MR」という記載は、等方化された実MR画像の3次元データを表している。
 第1生成器220Gの出力は、第2生成器250Fの入力と接続され、第1生成器220Gによって生成された疑似MR画像は、第2生成器250Fに入力され得る。
 また、第2生成器250Fの出力は、第1生成器220Gの入力と接続され、第1生成器220Gによって生成された疑似CT画像は、第2生成器250Fに入力され得る。
 第3切り出し処理部254は、第2生成器250Fから出力された疑似CT画像の3次元データから、アキシャル断面のスライスを取り出す切り出し処理を行う。第3切り出し処理部254によって取り出された2次元画像は第3判別器264Dに入力される。
 第3判別器264Dには、第3切り出し処理部254によって取り出された2次元画像、または学習データに含まれる実際のCTの3次元データ(リアルCT画像)から取り出されたアキシャル断面の2次元画像が入力され、第3判別器264Dにおいて、リアル画像であるか、第2生成器250Fによって生成されたフェイク画像であるかの判別が行われる。
 第4切り出し処理部256は、第2生成器250Fから出力された3次元の疑似CT画像から、コロナル断面のスライスを取り出す切り出し処理を行う。第4切り出し処理部254によって取り出された2次元画像は第4判別器266Dに入力される。
 第4判別器266Dには、第4切り出し処理部256によって取り出された2次元画像、または学習データに含まれる実際のCTの3次元データ(リアルCT画像)から取り出されたコロナル断面の2次元画像が入力され、第4判別器266Dにおいて、リアル画像であるか、フェイク画像であるかの判別が行われる。
 誤差演算部46は、損失関数を用いてそれぞれの判別器(224D,226D,264D,266D)からの出力と正解との誤差(Adversarial Loss)を評価する。さらに、誤差演算部46は、第1生成器220Gと第2生成器250Fとを接続した画像変換による再構成ロス(Cycle Consistency Loss)を評価する。
 再構成ロスには、第1生成器220GによるCT→MR変換の出力を第2生成器250Fに入力することにより第2生成器250Fから出力される再構成生成画像と、第1生成器220Gに入力した元の入力画像との誤差(CT→MR→CT変換による再構成ロス)と、第2生成器250FによるMR→CT変換の出力を第2生成器250Fに入力することにより第1生成器220Gから出力される再構成生成画像と、第2生成器250Fに入力した元の入力画像との誤差(MR→CT→MR変換による再構成ロス)とがある。
 オプティマイザ248は、誤差演算部246の演算結果を基に、学習モデル244におけるネットワークのパラメータを更新する処理を行う。オプティマイザ248は、誤差演算部46の演算結果から第1生成器220G、第1判別器224D、第2判別器226D、第2生成器250F、第3判別器264Dおよび第4判別器266Dのそれぞれのネットワークのパラメータの更新量を算出するパラメータ演算処理と、パラメータ演算処理の演算結果に従い、それぞれのネットワークのパラメータを更新するパラメータ更新処理とを行う。
 〈CT入力時の処理(CT→MR)の概要〉
 図13は、第2実施形態に係る機械学習システム210におけるCT入力時の処理の流れを示す概念図である。以下の説明では、第1生成器220Gおよび第2生成器250Fのそれぞれが等方解像度の3次元画像の入力を受けて、等方解像度の3次元生成画像を出力する構成である場合を説明するが、既述のとおり、非等方解像度の3次元画像の入力を受け付ける生成器であってもよい。
 CTの3次元データは、等方化処理部12による等方化処理等を経て等方解像度の3次元のCT画像CTrとして第1生成器220Gに入力される。第1生成器220Gは、CT画像CTrの入力を受けて、CT→MR変換を行い、疑似MR画像MRsynを出力する。
 この疑似MR画像MRsynは、第1切り出し処理部14および第2切り出し処理部16のそれぞれによって特定の断面方向のスライス(2次元画像)に分割されて、断面方向ごとの第1判別器224Dおよび第2判別器226Dに入力され、第1判別器224Dおよび第2判別器226Dのそれぞれにより真偽判別が行われる。
 また、疑似MR画像MRsynは、さらに第2生成器250Fに入力され、第2生成器250FによりMR→CT変換が行われて第2生成器250Fから再構成CT画像CTrecが出力される。
 機械学習システム210では、第2生成器250Fから出力された再構成CT画像CTrecと、元のCT画像CTrとの差異を示す再構成ロスが評価される。この再構成ロスは本開示における「第1再構成ロス」の一例である。
 第1生成器220Gと第2生成器250Fとをこの順に用いた変換処理によって生成される再構成CT画像CTrecは本開示における「第1再構成生成画像」の一例である。
 〈MR入力時の処理(MR→CT)の概要〉
 図14は、第2実施形態に係る機械学習システム210におけるMR入力時の処理の流れを示す概念図である。MRの3次元データは、等方化処理部12による等方化処理等を経て等方解像度の3次元のMR画像MRrとして第2生成器250Fに入力される。第2生成器250Fは、MR画像MRrの入力を受けて、MR→CT変換を行い、疑似CT画像CTsynを出力する。MRの3次元データに対して行われる等方化処理は本開示における「第2等方化処理」の一例である。
 この疑似CT画像CTsynは、第3切り出し処理部254および第4切り出し処理部256のそれぞれによって特定の断面方向のスライス(2次元画像)に分割されて、断面方向ごとの第3判別器264Dおよび第4判別器266Dに入力され、第3判別器264Dおよび第4判別器266Dのそれぞれにより真偽判別が行われる。
 また、疑似CT画像CTsynは、さらに第1生成器220Gに入力され、第1生成器220GによりCT→MR変換が行われて第1生成器220Gから再構成MR画像MRrecが出力される。
 MR→CT→MRの再構成ロスについては、図13と同様に、再構成MR画像MRrecと、元のMR画像MRrとの差異を計算してもよいが、図15および図16に示すように、再構成MR画像MRrecに対して、アベレージプーリング処理を行い、入力に用いられたThickスライスの(等方化する前の)MR画像と同じサイズに変換してから、元の(等方化する前の)MR画像との誤差(再構成ロス)を計算することが好ましい。この再構成ロスは本開示における「第2再構成ロス」の一例である。
 第2生成器250Fと第1生成器220Gとをこの順に用いた変換処理によって生成される再構成MR画像MRrecは本開示における「第2再構成生成画像」の一例である。
 図15には、アキシャル断面が高解像のThickスライスのMR画像MRaxが入力される場合の例が示されている。機械学習システム210は、アベレージプーリング処理部270を備える。アベレージプーリング処理部270は、第1生成器220Gから出力された等方解像度の再構成MR画像MRrecに対して、z軸方向にアベレージプーリング処理を行い、入力に用いられた元のMR画像MRaxと同じスライス間隔の3次元データに戻す。アベレージプーリング処理部270から出力された再構成MR画像MRaxrecと、元のMR画像MRaxとを比較して再構成ロスが計算される。
 図16には、コロナル断面が高解像のThickスライスのMR画像MRcoが入力される場合の例が示されている。機械学習システム210は、さらにアベレージプーリング処理部272を備える。アベレージプーリング処理部272は、第1生成器220Gから出力された等方解像度の再構成MR画像MRrecに対して、y軸方向にアベレージプーリング処理を行い、入力に用いられた元のMR画像MRcoと同じスライス間隔の3次元データに戻す。アベレージプーリング処理部270から出力された再構成MR画像MRcorecと、元のMR画像MRcoとを比較して再構成ロスが計算される。
 アベレージプーリング処理部270,272は、図12における第2生成器250Fと誤差演算部246との間に設けられてもよいし、誤差演算部246の中に組み込まれていてもよい。
 なお、図13で説明したCT→MR変換についても、入力用のCT画像としてThickスライスの3次元データが用いられる場合には、図15および図16と同様に、再構成CT画像CTrecに対してアベレージプーリング処理を行い、アベレージプーリング処理による変換後の3次元データと、元の入力画像である3次元データとに基づいて再構成ロスを計算してもよい。
 再構成CT画像CTrecに対して行うアベレージプーリング処理は本開示における「第1アベレージプーリング処理」の一例である。再構成MR画像MRrecに対して行うアベレージプーリング処理は本開示における「第2アベレージプーリング処理」の一例である。
 〈第2実施形態の効果〉
 第2実施形態に係る機械学習システム210を用いて学習を行うことにより、第1生成器220Gは、CT→MR変換の画像生成能力を獲得し、高解像度の疑似MR画像を生成する3次元画像変換器となり得る。第2生成器250Fは、MR→CT変換の画像生成能力を獲得し、高解像度の疑似CT画像を生成する3次元画像変換器となり得る。
 図17は、第2実施形態に係る機械学習システム210を用いて学習を実施することにより得られた学習済みの第1生成器220GによるCT→MR変換の性能を示す画像例である。図17は、ThinスライスのCTデータセットと、ThickスライスのMRデータセットとを用いて学習を行った結果である。学習に用いたMRデータセットは、アキシャル断面が高解像のThickスライスと、コロナル断面が高解像のThickスライスとの2種類しか含まないものである。
 図17の左側が入力画像、右側が出力画像(生成画像)の例である。図17には、CTのThinスライスの画像を入力した場合に生成される疑似MR画像の例が示されている。図17に示すように、MRのThickスライスを1枚も学習させていない状況にもかかわらず、学習済みの第1生成器220Gによって生成される疑似MR画像は、アキシャル断面、コロナル断面およびサジタル断面の各断面において解像度の高い高精細な画像となる。
 図18は、第2実施形態に係る機械学習システム210を用いて学習を実施することにより得られた学習済みの第2生成器250FによるMR→CT変換の性能を示す画像例である。図18には、ThickスライスのMR画像を入力した場合に得られる疑似CT画像の例が示されている。図18に示すように、学習済みの第2生成器250Fによって生成される疑似CT画像は、アキシャル断面、コロナル断面およびサジタル断面の各断面において解像度の高い高精細な画像となる。
 Thinスライスの3次元データは高解像度で非常に用量が大きいため、医療機関では多くのデータがThickスライスとしてデータベースに保存されている。Thickスライスのデータを画像変換に用いて各断面について高解像度の画像を生成し得る3次元学習ができるということは、実用面で大きなメリットである。
 なお、上述の第2実施形態では、学習データとして、アキシャル断面が高解像の3次元データ(z軸方向が低解像度のデータ)と、コロナル断面が高解像の3次元データ(y軸方向が低解像度のデータ)とを用いる例を説明したが、第1実施形態の変形例2で説明したように、他のデータの種類の組み合わせについても同様に適用可能である。
 《比較例》
 図19は、比較例に係る機械学習システムに適用される学習モデル344の構成例である。学習モデル344は、CycleGANのアーキテクチャをベースにして、3次元の入力および出力に拡張した3D-CycleGANであり、3次元CNNを用いて構成される生成器320G,350Fと、3次元CNNを用いて構成される判別器324D,364Dとを含む。
 生成器320Gは、CT→MR変換を行う画像生成ネットワークであり、CTの3次元データの入力を受けて、MRの3次元データを出力する。生成器350Fは、MR→CT変換を行う画像生成ネットワークであり、MRの3次元データの入力を受けて、CTの3次元データを出力する。
 判別器324Dは、生成器320Gによって生成された疑似MR画像、または、学習データに含まれる実MR画像の3次元データの入力を受け付けて、画像の真偽を判別する3次元ディスクリミネータである。同様に、判別器364Dは、生成器350Fによって生成された疑似CT画像、または、学習データに含まれる実CT画像の3次元データの入力を受け付けて、画像の真偽を判別する3次元ディスクリミネータである。
 比較例に係る機械学習システムは、学習モデル344の他に、図示しない誤差演算部とオプティマイザとを含む。学習の際に、実CT画像の入力を受けて生成器320Gによって生成された疑似MR画像は生成器350Fに入力され、生成器350FによりMR→CT変換が行われて生成器350Fから再構成CT画像が出力される。この再構成CT画像と元の実CT画像とを基に、CT→MR→CTの変換による再構成ロスが評価される。
 同様に、実MR画像の入力を受けて生成器350Fによって生成された疑似CT画像は生成器320Gに入力され、生成器320GによりCT→MR変換が行われて生成器320Gから再構成MR画像が出力される。この再構成MR画像と元の実MR画像とを基に、MR→CT→MRの変換による再構成ロスが評価される。
 比較例に係る機械学習システムを用い、第2実施形態と同様の学習データセットを学習データとして使用して学習を実施した場合に得られる生成画像の例を図20に示す。図は、CT→MR変換のタスクを学習させた生成器によって生成された疑似MR画像の例である。3次元の判別器を用いた比較例に係る機械学習システムの場合、学習データのドメインのスライス厚(Thickness)も同時に学習してしまう。したがって、学習に用いたMR画像がThickスライスの3次元データであれば、生成画像はThickスライスの画像表現を再現してしまい、各断面において画質が低く、高精細の画像生成が困難である。
 この点、第1実施形態および第2実施形態にて説明した方法によれば、Thickスライスの3次元データを学習に用いる場合であっても、各断面において高精細な画像が得られる画像生成が可能となる。
 《機械学習システムの構成例》
 図21は、機械学習システム10,210に適用される情報処理装置400の構成例を示すブロック図である。情報処理装置400は、プロセッサ402と、有体物である非一時的なコンピュータ可読媒体404と、通信インターフェース406と、入出力インターフェース408と、バス410と、入力装置414おと、表示装置416とを備える。プロセッサ402は本開示における「第1プロセッサ」の一例である。コンピュータ可読媒体404は本開示における「第1記憶装置」の一例である。
 プロセッサ402はCPU(Central Processing Unit)を含む。プロセッサ402はGPU(Graphics Processing Unit)を含んでもよい。プロセッサ402は、バス410を介してコンピュータ可読媒体404、通信インターフェース406および入出力インターフェース408と接続される。入力装置414および表示装置416は入出力インターフェース408を介してバス410に接続される。
 コンピュータ可読媒体404は、主記憶装置であるメモリおよび補助記憶装置であるストレージを含む。コンピュータ可読媒体404は、例えば、半導体メモリ、ハードディスク(Hard Disk Drive:HDD)装置、もしくはソリッドステートドライブ(Solid State Drive:SSD)装置またはこれらの複数の組み合わせであってよい。
 情報処理装置400は、通信インターフェース406を介して図示しない電気通信回線に接続される。電気通信回線は、広域通信回線であってもよいし、構内通信回線であってもよく、これらの組み合わせであってもよい。
 コンピュータ可読媒体404には、各種の処理を行うための複数のプログラムおよびデータ等が記憶される。コンピュータ可読媒体404には、例えば、等方化処理プログラム420、姿勢変換プログラム422、固定サイズ領域切り出し処理プログラム424および学習処理プログラム430などが記憶される。学習処理プログラム430は、学習モデル244と、誤差演算ブログラム436と、パラメータ更新プログラム438とを含む。
 プロセッサ402が、これらのプログラムの命令を実行することにより、プロセッサ402を含む情報処理装置400は、プログラムに対応した処理部として機能する。例えば、プロセッサ402が等方化処理プログラム420の命令を実行することにより、プロセッサ402は、等方化処理を行う等方化処理部12として機能する。また、プロセッサ402が学習処理プログラム430の命令を実行することにより、プロセッサ402は、学習処理を行う学習処理部40,240として機能する。他のプログラムについても同様である。
 また、コンピュータ可読媒体404には、図示しない表示制御プログラムが格納される。表示制御プログラムは、表示装置416への表示出力に必要な表示用信号を生成し、表示装置416の表示制御を行う。
 表示装置416は、例えば、液晶ディスプレイ、有機EL(organic electro-luminescence:OEL)ディスプレイ、もしくは、プロジェクタ、またはこれらの適宜の組み合わせによって構成される。入力装置414は、例えば、キーボード、マウス、マルチタッチパネル、もしくはその他のポインティングデバイス、もしくは、音声入力装置、またはこれらの適宜の組み合わせによって構成される。入力装置414は、オペレータによる種々の入力を受け付ける。
 《学習済みモデルを用いた医療画像処理装置の例》
 図22は、機械学習システム10,210を用いた学習処理を実施して生成された学習済みモデルが適用される医療画像処理装置500のハードウェア構成の例を示すブロック図である。
 医療画像処理装置500は、プロセッサ502と、有体物である非一時的なコンピュータ可読媒体504と、通信インターフェース506と、入出力インターフェース508と、バス510と、入力装置514と、表示装置516とを備える。
 プロセッサ502、コンピュータ可読媒体504、通信インターフェース506、入出力インターフェース508、バス510、入力装置514および表示装置516等のハードウェア構成は、図21で説明した情報処理装置400におけるプロセッサ402、コンピュータ可読媒体404、通信インターフェース406、入出力インターフェース408、バス410、入力装置414および表示装置416の対応する要素と同様であってよい。プロセッサ502は本開示における「第2プロセッサ」の一例である。「コンピュータ可読媒体504」は本開示における「第2記憶装置」の一例である。
 医療画像処理装置500のコンピュータ可読媒体504には、CT-MR変換プログラム520と、MR-CT変換プログラム530とのうち少なくとも1つが格納される。CT-MR変換プログラム520は、CT→MRのドメイン変換を学習した学習済み生成器522を含む。学習済み生成器522は、図5における生成器20Gまたは図12における第1生成器220Gに対応する学習済みモデルである。学習済み生成器522は本開示における「第1学習済みモデル」の一例である。第1生成器220Gに入力されるCT画像は本開示における「第1医療画像」の一例である。第1生成器220Gから出力される疑似MR画像は本開示における「第2医療画像」の一例である。学習済み生成器522から出力される疑似MR画像は本開示における「第2医療画像」の一例である。
 MR-CT変換プログラム530は、MR→CTのドメイン変換を学習した学習済み生成器532を含む。学習済み生成器532は、図12における第2生成器250Fに対応する学習済みモデルである。
 コンピュータ可読媒体504は、さらに、等方化処理プログラム420、臓器認識AIプログラム540、疾患検出AIプログラム542およびレポート作成支援プログラム544のうち少なくとも1つのプログラムを含んでいてもよい。等方化処理プログラム420は、CT-MR変換プログラム520およびMR-CT変換プログラム530のそれぞれのプログラムに含まれていてもよい。
 臓器認識AIプログラム540は、臓器セグメンテーションを行う処理モジュールを含む。臓器認識AIプログラム540の中には、肺区域ラベリングプログラム、血管領域抽出プログラムおよび骨ラベリングプログラムなどが含まれてもよい。
 疾患検出AIプログラム542は、特定の疾患に対応した検出処理モジュールを含む。疾患検出AIプログラム542として、例えば、肺結節検出プログラム、肺結節性状分析プログラム、肺炎CADプログラム、乳腺CADプログラム、肝臓CADプログラム、脳CADプログラムおよび大腸CADプログラムのうち少なくとも1つのプログラムが含まれてよい。
 レポート作成支援プログラム544は、対象とする医療画像に対応する所見文の候補を生成する学習済み文書生成モデルを含む。
 臓器認識AIプログラム540、疾患検出AIプログラム542およびレポート作成支援プログラム544などの各種の処理プログラムは、深層学習などの機械学習を適用して目的のタスクの出力が得られるように学習された学習済みモデルを含むAI処理モジュールであってよい。
 CAD用のAIモデルは、例えば、畳み込み層を有する各種のCNNを用いて構成することができる。AIモデルに対する入力データは、例えば、2次元画像、3次元画像または動画像など医用画像を含み、AIモデルからの出力は例えば、画像内における疾病領域(病変部位)などの位置を示す情報、もしくは病名などのクラス分類を示す情報、またはこれらの組み合わせであってよい。
 時系列データや文書データなどを扱うAIモデルは、例えば、各種の再帰型ニューラルネットワーク(Recurrent Neural Network:RNN)を用いて構成することができる。時系列データには、例えば心電図の波形データなどが含まれる。文書データには、例えば、医師によって作成される所見文などが含まれる。
 CT-MR変換プログラム520またはMR-CT変換プログラム530によって生成された生成画像は、臓器認識AIプログラム540、疾患検出AIプログラム542およびレポート作成支援プログラム544のうち少なくとも1つのプログラムに入力することができる。これにより、特定のモダリティにて構築されたAI処理モジュールを他のモダリティの画像にも適用することが可能となり、応用範囲が広がる。
 《第3実施形態》
 これまでドメイン変換の例として異種モダリティ間の画像生成タスクの例を説明したが、第3実施形態では、ソースドメインをThickスライス(すなわち、低解像度)、ターゲットドメインをThinスライス(すなわち、高解像度)とする超解像タスクの例を示す。
 図23は、第3実施形態に係る機械学習システム600の処理の概要を示す概念図である。ここでは、MR画像を対象とし、低解像度の3次元画像から高解像度の3次元画像を生成する超解像画像生成タスク(超解像タスク)を学習させる方法について説明する。
 入力として用いられる低解像3次元MR画像は、3断面のうちアキシャル断面のみが高解像(他の断面は低解像)のアキシャル画像シリーズと、コロナル断面のみが高解像(他の断面は低解像)のコロナル画像シリーズとであるとする。
 アキシャル画像シリーズは、z軸方向の解像度が他の2軸方向よりも低い3次元データであり、「z軸方向低解像画像」と理解される。コロナル画像シリーズは、y軸方向の解像度が他の2軸方向よりも低い3次元データであり、「y軸方向低解像画像」と理解される。以下、アキシャル画像シリーズを「アキシャル3次元画像」と記載し、コロナル画像シリーズを「コロナル3次元画像」と記載する。第3実施形態における超解像は、解像度が低いスライス厚方向(軸方向)のデータを補間するスライス補間の意味を持つ。
 第3実施形態の場合、学習用のデータとして、同じ患者の同一部位を撮影して三次元的な位置合わせを行ったアキシャル3次元画像とコロナル3次元画像との画像ペアが用いられる。アキシャル3次元画像とコロナル3次元画像とが関連付けされた複数の画像ペアを含む画像群が学習用のデータセットとして用いられる。
 機械学習システム600は、第1超解像処理を行う生成器610と、第2超解像処理を行う生成器612と、アキシャル画像切り出し処理部620と、コロナル画像切り出し処理部622と、アキシャル画像に対する真偽を判別する判別器630と、コロナル画像に対する真偽を判別する判別器632とを含む。
 生成器610,612のそれぞれは3次元CNNを用いて構成される生成ネットワークである。生成器610,612のそれぞれのネットワーク構造は、第1実施形態における生成器20と同様であってよい。判別器630,632のそれぞれは2次元CNNを用いて構成される判別ネットワークである。判別器630,632のそれぞれのネットワーク構造は、第1実施形態における判別器24D,26Dと同様であってよい。
 第1超解像処理は、z軸方向に超解像化する処理を含む。生成器610は、アキシャル3次元画像の入力を受け付け、等方解像度の3次元生成画像を出力する。第2の超解像処理は、y軸方向に超解像化する処理を含む。生成器612は、コロナル3次元画像の入力を受け付け、等方解像度の3次元生成画像を出力する。なお、図中の「SR」の表記は超解像(Super resolution)化の処理を表す。
 アキシャル画像切り出し処理部620は、生成器610または生成器612によって生成された3次元生成画像SRsynからアキシャル断面の2次元画像を取り出す切り出し処理を行う。コロナル画像切り出し処理部622は、生成器610または生成器612によって生成された3次元生成画像SRsynからコロナル断面の2次元画像を取り出す切り出し処理を行う。
 判別器630は、アキシャル画像切り出し処理部620によって3次元生成画像SRsynから取り出された2次元画像または学習用のデータセットに含まれるアキシャル3次元画像のスライス画像である2次元画像の入力を受け付けて、リアル画像であるかフェイク画像であるかの真偽判別を行う。
 判別器632は、コロナル画像切り出し処理部622によって3次元生成画像SRsynから取り出された2次元画像または学習用のデータセットに含まれるコロナル3次元画像のスライス画像である2次元画像の入力を受け付けて、リアル画像であるかフェイク画像であるかの真偽判別を行う。
 生成器610に対してアキシャル高解像画像が入力された場合、生成器610による第1超解像処理にて生成された3次元生成画像をコロナル断面方向に切り出して、正解のコロナル画像との誤差(絶対誤差)が計算される。
 一方、生成器612に対してコロナル3次元画像が入力された場合、生成器612による第2超解像処理にて生成された3次元生成画像をアキシャル断面方向に切り出して、正解のアキシャル画像との誤差(絶対誤差)が計算される。
 機械学習システム600は、生成器610,612と判別器630,632とについて敵対的学習を繰り返すことにより、両者の性能を高めていく。
 第3実施形態に係る機械学習システム600を用いて学習を行うことにより、低解像のアキシャル3次元画像から等方解像度の高精細な3次元画像を生成する学習済みの生成器610および低解像のコロナル3次元画像から等方解像度の高精細な3次元画像を生成する学習済みの生成器612を得ることができる。
 第3実施形態において学習に使用したアキシャル3次元画像は本開示における「第1撮影条件により撮影された3次元画像」の一例であり、コロナル3次元画像は本開示における「第2撮影条件により撮影された3次元画像」の一例である。アキシャル3次元画像におけるz軸方向は本開示における「第1軸方向」の一例であり、アキシャル3次元画像は本開示における「第1軸低解像3次元データ」の一例である。サジタル3次元画像におけるy軸方向は本開示における「第2軸方向」の一例であり、サジタル3次元画像は本開示における「第2軸低解像3次元データ」の一例である。
 《第4実施形態》
 図24は、第4実施形態に係る機械学習システム602における処理の概要を示す概念図である。図24について、図23に示す構成と同一または類似の要素には同一の符号を付し、重複する説明は省略する。図24に示す構成について、図23と異なる点を説明する。
 第3実施形態では、生成器610または生成器612によって生成された3次元生成画像SRsynに対して、2つの判別器630,632を使用して真偽判別を行う例を説明したが、第4実施形態では、第3実施形態のアーキテクチャに3次元生成画像に対する低解像化の処理が追加され、超解像処理とその逆変換に相当する低解像化処理とをこの順に実施する変換処理による再構成ロスを評価する仕組みが組み込まれ、3次元生成画像に対して判別器630または判別器632のいずれか1つの判別器を使用する形態となっている。
 図24に示す機械学習システム602は、3次元生成画像SRsynに対してz軸方向の低解像化処理を行う低解像化処理部614と、3次元生成画像SRsynに対してy軸方向の低解像化処理を行う低解像化処理部616とを含む。
 低解像化処理部614による低解像化は、生成器610の第1超解像処理に対する逆変換の処理に相当する。生成器610の第1超解像処理→低解像化処理部614の低解像化処理をこの順に行うことにより、入力に用いたアキシャル3次元画像に対応する再構成生成画像(アキシャル3次元再構成生成画像)が得られる。機械学習システム602は、元の入力画像であるアキシャル3次元画像と、アキシャル3次元再構成生成画像とに基づいて再構成ロスを評価して生成器610のパラメータを更新する。なお、図中の「LR」の表記は低解像(Low resolution)化の処理を表す。
 同様に、低解像化処理部616による低解像化は、生成器612の第2超解像処理に対する逆変換の処理に相当しており、生成器612の超解像処理→低解像化処理部616の低解像化処理を行うことにより、入力に用いたコロナル3次元画像に対応する再構成生成画像(コロナル3次元再構成生成画像)が得られる。機械学習システム602は、元の入力画像であるコロナル3次元画像と、コロナル3次元再構成生成画像とに基づいて再構成ロスを評価して生成器612のパラメータを更新する。
 第4実施形態の場合、CycleGANの仕組みと類似した構成となり、学習に用いるアキシャル3次元画像とコロナル3次元画像との間にペアの関係は不要であり、アキシャル3次元画像の画像群と、コロナル3次元画像の画像群とのそれぞれの学習データ群が存在すればよい。第4実施形態では、ランダムに与えたアキシャル3次元画像とコロナル3次元画像とをそれぞれ繰り返し学習する構成となる。
 図25は、機械学習システム602においてアキシャル3次元画像が入力された場合の処理フローである。アキシャル3次元画像は生成器610に入力され、生成器610から3次元生成画像SRsyn1が出力される。この3次元生成画像SRsyn1に対して低解像化処理部614による低解像化を行い、アキシャル3次元再構成生成画像を生成し、再構成ロスを計算する。
 また、生成器610にアキシャル3次元画像を入力した場合、生成器610から出力された3次元生成画像SRsyn1からコロナル断面の2次元画像を切り出し、判別器632を用いて、コロナル画像について真偽の判別を行う。機械学習システム602は、生成器612と判別器632とについて敵対的学習を繰り返すことにより、両者の性能を高めていく。
 図26は、機械学習システム602においてコロナル3次元画像が入力された場合の処理フローである。コロナル3次元画像は生成器612に入力され、生成器612から3次元生成画像SRsynが出力される。この3次元生成画像SRsyn2に対して低解像化処理部616による低解像化を行い、コロナル3次元再構成生成画像を生成し、再構成ロスを計算する。
 また、生成器612にコロナル3次元画像を入力した場合、生成器612から出力された3次元生成画像SRsyn2からアキシャル断面の2次元画像を切り出し、判別器630を用いて、アキシャル画像について真偽の判別を行う。機械学習システム602は、生成器612と判別器630とについて敵対的学習を繰り返すことにより、両者の性能を高めていく。
 第4実施形態に係る機械学習システム602を用いて学習を行うことにより、低解像のアキシャル3次元画像から等方解像度の高精細な3次元画像を生成する学習済みの生成器610および低解像のコロナル3次元画像から等方解像度の高精細な3次元画像を生成する学習済みの生成器612を得ることができる。
 《変形例3》
 図25に示すアキシャル3次元画像を超解像化する処理フローと、図26に示すコロナル3次元画像を超解像化する処理フローとは、必ずしも両方を実施する必要はない。例えば、アキシャル3次元画像を入力とした超解像タスクのみを実現する場合には、図25の処理フローだけで学習が可能である。
 《変形例4》
 ドメイン変換の他の例として、MRの中でのT1強調画像、T2強調画像、脂肪抑制画像、造影画像および非造影画像などの異なる画像種間での変換、あるいはCTの中でも造影画像と非造影画像との間の変換などについても本開示の技術を適用できる。
 《3次元画像の種類について》
 本開示の技術は、CT画像およびMR画像に限らず、人体情報を投影する超音波画像および陽電子放射断層撮影(Positron Emission Tomography:PET)装置を用いて撮影されるPET画像など、各種の医療画像が応用範囲に含まれる。また、本開示の技術は、医療機器によって撮影される医療画像に限らず、様々な撮影装置によって撮影される各種用途の3次元画像に適用できる。
 《コンピュータのハードウェア構成の例》
 図27は、コンピュータのハードウェア構成の例を示すブロック図である。コンピュータ800は、パーソナルコンピュータであってもよいし、ワークステーションであってもよく、また、サーバコンピュータであってもよい。コンピュータ800は、既に説明した機械学習システム10,11,210,600,602および医療画像処理装置500のいずれかの一部または全部、あるいはこれらの複数の機能を備えた装置として用いることができる。
 コンピュータ800は、CPU802、RAM(Random Access Memory)804、ROM(Read Only Memory)806、GPU808、ストレージ810、通信部812、入力装置814、表示装置816およびバス818を備える。なお、GPU808は、必要に応じて設ければよい。
 CPU802は、ROM806またはストレージ810等に記憶された各種のプログラムを読み出し、各種の処理を実行する。RAM804は、CPU802の作業領域として使用される。また、RAM804は、読み出されたプログラムおよび各種のデータを一時的に記憶する記憶部として用いられる。
 ストレージ810は、例えば、ハードディスク装置、光ディスク、光磁気ディスク、もしくは半導体メモリ、またはこれらの適宜の組み合わせを用いて構成される記憶装置を含んで構成される。ストレージ810には、各種プログラムやデータ等が記憶される。ストレージ810に記憶されているプログラムがRAM804にロードされ、これをCPU802が実行することにより、コンピュータ800は、プログラムで規定される各種の処理を行う手段として機能する。
 通信部812は、有線または無線により外部装置との通信処理を行い、外部装置との間で情報のやり取りを行うインターフェースである。通信部812は、画像等の入力を受け付ける情報取得部の役割を担うことができる。
 入力装置814は、コンピュータ800に対する各種の操作入力を受け付ける入力インターフェースである。入力装置814は、例えば、キーボード、マウス、マルチタッチパネル、もしくはその他のポインティングデバイス、もしくは、音声入力装置、またはこれらの適宜の組み合わせであってよい。
 表示装置816は、各種の情報が表示される出力インターフェースである。表示装置816は、例えば、液晶ディスプレイ、有機EL(organic electro-luminescence:OEL)ディスプレイ、もしくは、プロジェクタ、またはこれらの適宜の組み合わせであってよい。
 《コンピュータを動作させるプログラムについて》
 上記の実施形態で説明した機械学習システム10,11,210,600,602における画像取得機能、前処理機能および学習処理機能、ならびに医療画像処理装置500における画像処理機能などの各種の処理機能のうち少なくとも1つの処理機能の一部または全部をコンピュータに実現させるプログラムを、光ディスク、磁気ディスク、もしくは、半導体メモリその他の有体物たる非一時的な情報記憶媒体であるコンピュータ可読媒体に記録し、この情報記憶媒体を通じてプログラムを提供することが可能である。
 またこのような有体物たる非一時的なコンピュータ可読媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの電気通信回線を利用してプログラム信号をダウンロードサービスとして提供することも可能である。
 さらに、機械学習システム10,11,210,600,602における画像取得機能、前処理機能および学習処理機能、ならびに医療画像処理装置500における画像処理機能などの各種の処理機能のうち少なくとも1つの処理機能をクラウドコンピューティングによって実現してもよく、また、SasS(Software as a Service)サービスとして提供することも可能である。
 《各処理部のハードウェア構成について》
 等方化処理部12、生成器20G、第1切り出し処理部14、第2切り出し処理部16、切り出し処理部18、判別器24D,26D,28D、学習データ生成部30、姿勢変換部、固定サイズ領域切り出し処理部34、学習処理部40、画像取得部42、誤差演算部46,246、オプティマイザ48,248、前処理部230、第1生成器220G、第2生成器250F、第3切り出し処理部254、第4切り出し処理部256、第1判別器224D、第2判別器226D、第3判別器264D、第4判別器266D、アベレージプーリング処理部270,272、生成器610,612、判別器630,632、アキシャル画像切り出し処理部620、コロナル画像切り出し処理部622および低解像化処理部614,616などの各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、例えば、次に示すような各種のプロセッサ(processor)である。
 各種のプロセッサには、プログラムを実行して各種の処理部として機能する汎用的なプロセッサであるCPU、画像処理に特化したプロセッサであるGPU、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサで構成されてもよい。例えば、1つの処理部は、複数のFPGA、あるいは、CPUとFPGAの組み合わせ、またはCPUとGPUの組み合わせによって構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第一に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第二に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 《その他》
 以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成を変更、追加、または削除することが可能である。本発明は以上説明した実施形態に限定されず、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。
10、11 機械学習システム
12 等方化処理部
14 第1切り出し処理部
16 第2切り出し処理部
18 切り出し処理部
20G 生成器
24D 判別器
26D、28D 判別器
30 学習データ生成部
32 姿勢変換部
34 固定サイズ領域切り出し処理部
40 学習処理部
42 画像取得部
44 学習モデル
46 誤差演算部
48 オプティマイザ
50 画像保存部
54 学習データ保存部
100 機械学習システム
112 等方化処理部
120F 生成器
124D 判別器
210 機械学習システム
220G 第1生成器
224D 第1判別器
226D 第2判別器
230 前処理部
240 学習処理部
244 学習モデル
246 誤差演算部
248 オプティマイザ
250F 第2生成器
254 第3切り出し処理部
256 第4切り出し処理部
264D 第3判別器
266D 第4判別器
270、272 アベレージプーリング処理部
320G 生成器
324D 判別器
344 学習モデル
350F 生成器
364D 判別器
400 情報処理装置
402 プロセッサ
404 コンピュータ可読媒体
406 通信インターフェース
408 入出力インターフェース
410 バス
414 入力装置
416 表示装置
420 等方化処理プログラム
422 姿勢変換プログラム
424 固定サイズ領域切り出し処理プログラム
430 学習処理プログラム
436 誤差演算ブログラム
438 パラメータ更新プログラム
500 医療画像処理装置
502 プロセッサ
504 コンピュータ可読媒体
506 通信インターフェース
508 入出力インターフェース
510 バス
514 入力装置
516 表示装置
520 CT-MR変換プログラム
522 学習済み生成器
530 MR-CT変換プログラム
532 学習済み生成器
540 臓器認識AIプログラム
542 疾患検出AIプログラム
544 レポート作成支援プログラム
600、602 機械学習システム
610、612 生成器
614、616 低解像化処理部
620 アキシャル画像切り出し処理部
622 コロナル画像切り出し処理部
630、632 判別器
800 コンピュータ
802 CPU
804 RAM
806 ROM
808 GPU
810 ストレージ
812 通信部
814 入力装置
816 表示装置
818 バス
CTr CT画像
CTrec 再構成CT画像
CTsyn 疑似CT画像
MRax MR画像
MRaxrec 再構成MR画像
MRco MR画像
MRcorec 再構成MR画像
MRr MR画像
MRrec 再構成MR画像
MRsyn 疑似MR画像
SRsyn、SRsyn1、SRsyn2 3次元生成画像

Claims (33)

  1.  入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を出力する学習済みモデルの生成方法であって、
     第1ドメインの3次元画像の入力を受け付け、前記第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、
     前記第1生成器によって生成された前記第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有する学習モデルを用い、
     コンピュータが、
     第1撮影条件により撮影された3次元画像と、前記第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得し、
     前記複数の学習データに基づき、前記第1生成器と前記第1判別器とを敵対的に学習させる学習処理を行うことを含む、
     学習済みモデルの生成方法。
  2.  前記コンピュータが、
     前記第1生成器によって生成された前記第2ドメインの3次元生成画像から前記第1スライス面方向の断面画像を示す2次元画像を切り出す第1切り出し処理を行い、
     前記第1切り出し処理により切り出された2次元画像を前記第1判別器に入力することを含む、
     請求項1に記載の学習済みモデルの生成方法。
  3.  前記第1撮影条件は、撮影に使用した機器が第1撮影機器であることを含み、
     前記第2撮影条件は、撮影に使用した機器が前記第1撮影機器とは異なる種類の第2撮影機器であることを含む、
     請求項1または2に記載の学習済みモデルの生成方法。
  4.  前記第1撮影条件は、解像度の条件が第1解像度条件であることを含み、
     前記第2撮影条件は、解像度の条件が前記第1解像度条件とは異なる第2解像度条件であることを含む、
     請求項1から3のいずれか一項に記載の学習済みモデルの生成方法。
  5.  前記第1撮影条件および前記第2撮影条件のうち少なくとも1つは、解像度の条件として、直交3軸のうち1つの軸方向の解像度が他の2つの軸方向のそれぞれの解像度よりも低いことを含む、
     請求項1から4のいずれか一項に記載の学習済みモデルの生成方法。
  6.  前記第2撮影条件により撮影された3次元画像として、直交3軸のうち1軸方向の解像度が他の2軸方向のそれぞれの解像度よりも低い非等方性3次元データが用いられ、
     前記第1スライス面方向は、前記非等方性3次元データにおいて相対的に解像度が高い前記他の2軸方向に平行なスライス面方向である、
     請求項1から4のいずれか一項に記載の学習済みモデルの生成方法。
  7.  前記学習モデルは、さらに、
     前記第1生成器によって生成された前記第2ドメインの3次元生成画像から切り出される前記第1スライス面方向と直交する第2スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第2判別器を含み、
     前記学習処理は、前記第1生成器と前記第2判別器とを敵対的に学習させる処理を含む、
     請求項1から6のいずれか一項に記載の学習済みモデルの生成方法。
  8.  前記コンピュータが、
     前記第1生成器によって生成された前記第2ドメインの3次元生成画像から前記第2スライス面方向の断面画像を示す2次元画像を切り出す第2切り出し処理を行い、
     前記第2切り出し処理により切り出された2次元画像を前記第2判別器に入力することを含む、
     請求項7に記載の学習済みモデルの生成方法。
  9.  前記学習データとして、x軸、y軸およびz軸の直交3軸のうちz軸方向の解像度がx軸方向およびy軸方向のそれぞれの解像度よりも低いz軸低解像の非等方性3次元データと、
     前記y軸方向の解像度が前記z軸方向および前記x軸方向のそれぞれの解像度よりも低いy軸低解像の非等方性3次元データとが用いられ、
     前記第1スライス面方向は、前記x軸方向および前記y軸方向に平行なスライス面方向であり、
     前記第2スライス面方向は、前記z軸方向および前記x軸方向に平行なスライス面方向である、
     請求項7または8に記載の学習済みモデルの生成方法。
  10.  前記学習データとして、x軸、y軸およびz軸の直交3軸のうちy軸方向の解像度がz軸方向およびx軸方向のそれぞれの解像度よりも低いy軸低解像の非等方性3次元データと、
     前記x軸方向の解像度が前記y軸方向および前記z軸方向のそれぞれの解像度よりも低いx軸低解像の非等方性3次元データとが用いられ、
     前記第1スライス面方向は、前記z軸方向および前記x軸方向に平行なスライス面方向であり、
     前記第2スライス面方向は、前記y軸方向および前記z軸方向に平行なスライス面方向である、
     請求項7または8に記載の学習済みモデルの生成方法。
  11.  前記学習データとして、x軸、y軸およびz軸の直交3軸のうちx軸方向の解像度がy軸方向およびz軸方向のそれぞれの解像度よりも低いx軸低解像の非等方性3次元データと、
     前記z軸方向の解像度が前記x軸方向および前記y軸方向のそれぞれの解像度よりも低いz軸低解像の非等方性3次元データとが用いられ、
     前記第1スライス面方向は、前記y軸方向および前記z軸方向に平行なスライス面方向であり、
     前記第2スライス面方向は、前記x軸方向および前記y軸方向に平行なスライス面方向である、
     請求項7または8に記載の学習済みモデルの生成方法。
  12.  前記コンピュータが、
     入力された前記学習データの解像度の条件に応じて、前記第2ドメインの3次元生成画像の真偽判別に使用する前記第1判別器または前記第2判別器を選択的に切り替える、
     請求項7から11のいずれか一項に記載の学習済みモデルの生成方法。
  13.  前記第1撮影条件により撮影された3次元画像として、直交3軸のうちの1軸方向の解像度が他の2軸方向の解像度よりも低い非等方性3次元データが用いられる、
     請求項1から12のいずれか一項に記載の学習済みモデルの生成方法。
  14.  前記コンピュータが、
     前記第1撮影条件により撮影された3次元画像を、直交3軸の各軸方向の解像度が等しい等方性3次元データに変換する第1等方化処理を行い、
     前記第1等方化処理による変換後の等方性3次元データを前記第1生成器に入力することを含む、
     請求項13に記載の学習済みモデルの生成方法。
  15.  前記第1生成器は、直交3軸の各軸方向の解像度が等しい等方性3次元データの入力を受け付け、前記3次元生成画像としての等方性3次元データを出力する、
     請求項1から14のいずれか一項に記載の学習済みモデルの生成方法。
  16.  前記学習モデルは、さらに、
     前記第2ドメインの3次元画像の入力を受け付け、前記第1ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第2生成器と、
     前記第2生成器によって生成された前記第1ドメインの3次元生成画像から切り出される特定のスライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第3判別器と、を含み、
     前記学習処理は、前記第2生成器と前記第3判別器とを敵対的に学習させる処理を含む、
     請求項1から15のいずれか一項に記載の学習済みモデルの生成方法。
  17.  前記コンピュータが、
     前記第2生成器により生成された前記第1ドメインの3次元生成画像から前記特定のスライス面方向の断面画像を示す2次元画像を切り出す第3切り出し処理を行い、
     前記第3切り出し処理により切り出された2次元画像を前記第3判別器に入力することを含む、
     請求項16に記載の学習済みモデルの生成方法。
  18.  前記コンピュータが、
     前記第1生成器から出力された前記第2ドメインの3次元生成画像を前記第2生成器に入力することにより前記第2生成器から出力される第1再構成生成画像に基づき、前記第1生成器および前記第2生成器をこの順に用いた変換処理の第1再構成ロスを計算する処理と、
     前記第2生成器から出力された前記第1ドメインの3次元生成画像を前記第1生成器に入力することにより前記第1生成器から出力される第2再構成生成画像に基づき前記第2生成器および前記第1生成器をこの順に用いた変換処理の第2再構成ロスを計算する処理と、を行うことを含む、
     請求項16または17に記載の学習済みモデルの生成方法。
  19.  前記コンピュータが、
     前記第1再構成生成画像に対して、前記第1再構成生成画像を生成する際の前記第1生成器への入力に使用した元の前記学習データと同じ解像度の3次元データに変換する第1アベレージプーリング処理を行い、第1アベレージプーリング処理による変換後の3次元データと、前記第1生成器への入力に使用した元の前記学習データとに基づいて前記第1再構成ロスを計算することを含む、
     請求項18に記載の学習済みモデルの生成方法。
  20.  前記コンピュータが、
     前記第2再構成生成画像に対して、前記第2再構成生成画像を生成する際の前記第2生成器への入力に使用した元の前記学習データと同じ解像度の3次元データに変換する第2アベレージプーリング処理を行い、前記第2アベレージプーリング処理による変換後の3次元データと、前記第2生成器への入力に使用した元の前記学習データとに基づいて前記第2再構成ロスを計算することを含む、
     請求項18または19に記載の学習済みモデルの生成方法。
  21.  前記学習モデルは、さらに、
     前記第2生成器により生成された前記第1ドメインの3次元生成画像から切り出される前記特定のスライス面方向と直交するスライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第4判別器を含み、
     前記学習処理は、前記第2生成器と前記第4判別器とを敵対的に学習させる処理を含む、
     請求項16から20のいずれか一項に記載の学習済みモデルの生成方法。
  22.  前記コンピュータが、
     前記第2生成器により生成された前記第1ドメインの3次元生成画像から前記特定のスライス面方向と直交するスライス面方向の断面画像を示す2次元画像を切り出す第4切り出し処理を行い、
     前記第4切り出し処理により切り出された2次元画像を前記第4判別器に入力することを含む、
     請求項21に記載の学習済みモデルの生成方法。
  23.  前記特定のスライス面方向は前記第1スライス面方向である、
     請求項21または22に記載の学習済みモデルの生成方法。
  24.  前記コンピュータが、
     前記第2撮影条件により撮影された3次元画像を、直交3軸の各軸方向の解像度が等しい等方性3次元データに変換する第2等方化処理を行い、
     前記第2等方化処理による変換後の等方性3次元データを前記第2生成器に入力することを含む、
     請求項16から23のいずれか一項に記載の学習済みモデルの生成方法。
  25.  前記第1撮影条件は前記第1ドメインに対応し、前記第2撮影条件は前記第2ドメインに対応している、
     請求項1から24のいずれか一項に記載の学習済みモデルの生成方法。
  26.  前記第1撮影条件により撮影された3次元画像は、医療機器である第1モダリティを用いて撮影された第1モダリティ画像であり、
     前記第2撮影条件により撮影された3次元画像は、前記第1モダリティとは異なる種類の医療機器である第2モダリティを用いて撮影された第2モダリティ画像であり、
     前記学習モデルは、前記第1モダリティ画像の入力を受けて、前記第2モダリティを用いて撮影された画像の特徴を持つ擬似的な第2モダリティ生成画像を生成するように学習が行われる、
     請求項25に記載の学習済みモデルの生成方法。
  27.  前記第1ドメインは第1解像度、前記第2ドメインは前記第1解像度よりも高解像の第2解像度であり、
     請求項1から24のいずれか一項に記載の学習済みモデルの生成方法。
  28.  前記第1撮影条件により撮影された3次元画像は、直交3軸のうち第1軸方向の解像度が他の2軸方向のそれぞれの解像度よりも低い第1軸低解像3次元データであり、
     前記第2撮影条件により撮影された3次元画像は、直交3軸のうち前記第1軸方向とは異なる第2軸方向の解像度が他の2軸方向の解像度よりも低い第2軸低解像3次元データであり、
     前記学習モデルは、前記第1軸低解像3次元データおよび前記第2軸低解像3次元データの少なくとも1つの入力を受けて、入力された3次元データよりも高解像度の等方性3次元データを生成するように学習が行われる、
     請求項27に記載の学習済みモデルの生成方法。
  29.  前記コンピュータが、
     前記第1生成器により生成された前記第1ドメインの3次元生成画像に対して解像度を低下させる低解像化処理を行い、
     前記低解像化処理によって得られた再構成生成画像に基づいて、前記第1生成器による超解像処理と前記低解像化処理とによる画像変換の再構成ロスを計算することを含む、
     請求項27または28に記載の学習済みモデルの生成方法。
  30.  入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を生成する学習モデルを訓練する機械学習システムであって、
     少なくとも1つの第1プロセッサと、
     前記少なくとも1つの第1プロセッサによって実行されるプログラムが記憶される少なくとも1つの第1記憶装置と、を備え、
     前記学習モデルは、
     第1ドメインの3次元画像の入力を受け付け、前記第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、
     前記第1生成器によって生成された前記第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有し、
     前記少なくとも1つのプロセッサは、前記プログラムの命令を実行することにより、
     第1撮影条件により撮影された3次元画像と、前記第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得し、
     前記複数の学習データに基づき、前記第1生成器と前記第1判別器とを敵対的に学習させる学習処理を行う、
     機械学習システム。
  31.  コンピュータに、
     入力された3次元画像のドメインを変換して異なるドメインの3次元生成画像を生成する学習モデルを訓練する処理を実行させるプログラムであって、
     前記学習モデルは、
     第1ドメインの3次元画像の入力を受け付け、前記第1ドメインとは異なる第2ドメインの3次元生成画像を出力する3次元畳み込みニューラルネットワークを用いて構成される第1生成器と、
     前記第1生成器によって生成された前記第2ドメインの3次元生成画像から切り出される第1スライス面方向の断面画像を示す2次元画像の入力を受け付け、入力された2次元画像の真偽を判別する2次元畳み込みニューラルネットワークを用いて構成される第1判別器とを含む敵対的生成ネットワークの構造を有し、
     前記コンピュータに、
     第1撮影条件により撮影された3次元画像と、前記第1撮影条件とは異なる第2撮影条件により撮影された3次元画像とを含む複数の学習データを取得させ、
     前記複数の学習データに基づき、前記第1生成器と前記第1判別器とを敵対的に学習させる学習処理を実行させる、
     プログラム。
  32.  非一時的かつコンピュータ読取可能な記録媒体であって、請求項31に記載のプログラムが記録された記録媒体。
  33.  請求項1から29のいずれか一項に記載の学習済みモデルの生成方法を実施することにより訓練された学習済みの前記第1生成器である第1学習済みモデルを記憶する第2記憶装置と、
     前記第1学習済みモデルを用いて画像処理を行う第2プロセッサと、を備え、
     前記第1学習済みモデルは、
     第1医療画像の入力を受けて、前記第1医療画像とは異なるドメインの第2医療画像を出力するように訓練されたモデルである、
     医療画像処理装置。
PCT/JP2022/001351 2021-01-26 2022-01-17 学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置 WO2022163402A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022578244A JPWO2022163402A1 (ja) 2021-01-26 2022-01-17
EP22745625.8A EP4287114A1 (en) 2021-01-26 2022-01-17 Learned model generation method, machine learning system, program, and medical image processing device
US18/357,986 US20230368442A1 (en) 2021-01-26 2023-07-24 Method of generating trained model, machine learning system, program, and medical image processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021010459 2021-01-26
JP2021-010459 2021-05-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/357,986 Continuation US20230368442A1 (en) 2021-01-26 2023-07-24 Method of generating trained model, machine learning system, program, and medical image processing apparatus

Publications (1)

Publication Number Publication Date
WO2022163402A1 true WO2022163402A1 (ja) 2022-08-04

Family

ID=82654658

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/001351 WO2022163402A1 (ja) 2021-01-26 2022-01-17 学習済みモデルの生成方法、機械学習システム、プログラムおよび医療画像処理装置

Country Status (4)

Country Link
US (1) US20230368442A1 (ja)
EP (1) EP4287114A1 (ja)
JP (1) JPWO2022163402A1 (ja)
WO (1) WO2022163402A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117745725B (zh) * 2024-02-20 2024-05-14 阿里巴巴达摩院(杭州)科技有限公司 图像处理方法、图像处理模型训练方法、三维医学图像处理方法、计算设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018505705A (ja) * 2014-12-10 2018-03-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 機械学習を用いた医用イメージングの変換のためのシステムおよび方法
JP2019149094A (ja) 2018-02-28 2019-09-05 富士フイルム株式会社 診断支援システム、診断支援方法、及びプログラム
JP6583875B1 (ja) 2019-06-20 2019-10-02 Psp株式会社 画像処理方法、画像処理システム及び画像処理プログラム
JP2019534763A (ja) * 2016-09-06 2019-12-05 エレクタ、インク.Elekta, Inc. 合成医療画像を生成するためのニューラルネットワーク
JP2020054579A (ja) * 2018-10-01 2020-04-09 富士フイルム株式会社 疾患領域抽出装置、方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018505705A (ja) * 2014-12-10 2018-03-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 機械学習を用いた医用イメージングの変換のためのシステムおよび方法
JP2019534763A (ja) * 2016-09-06 2019-12-05 エレクタ、インク.Elekta, Inc. 合成医療画像を生成するためのニューラルネットワーク
JP2019149094A (ja) 2018-02-28 2019-09-05 富士フイルム株式会社 診断支援システム、診断支援方法、及びプログラム
JP2020054579A (ja) * 2018-10-01 2020-04-09 富士フイルム株式会社 疾患領域抽出装置、方法及びプログラム
JP6583875B1 (ja) 2019-06-20 2019-10-02 Psp株式会社 画像処理方法、画像処理システム及び画像処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YAMASOBA CHIKATO, TOZAKI TETSUYA, SENDA MICHIO: "Generation and Evaluation of Another Modality of Medical Images Based on GAN", 2020 INFORMATION SCIENCE AND TECHNOLOGY FORUM (FIT), IEICE, JP, 18 August 2020 (2020-08-18) - 3 September 2020 (2020-09-03), JP, pages 277 - 278, XP055954730 *

Also Published As

Publication number Publication date
JPWO2022163402A1 (ja) 2022-08-04
US20230368442A1 (en) 2023-11-16
EP4287114A1 (en) 2023-12-06

Similar Documents

Publication Publication Date Title
Beers et al. High-resolution medical image synthesis using progressively grown generative adversarial networks
Du et al. Super-resolution reconstruction of single anisotropic 3D MR images using residual convolutional neural network
JP7246866B2 (ja) 医用画像処理装置
Liang et al. Sketch guided and progressive growing GAN for realistic and editable ultrasound image synthesis
Gerig et al. Symbolic description of 3-D structures applied to cerebral vessel tree obtained from MR angiography volume data
CN109978037B (zh) 图像处理方法、模型训练方法、装置、和存储介质
CN109754394B (zh) 三维医学图像处理装置及方法
CN111368849B (zh) 图像处理方法、装置、电子设备及存储介质
CN111429474B (zh) 基于混合卷积的乳腺dce-mri图像病灶分割模型建立及分割方法
KR20200130374A (ko) 두꺼운 이미지 슬라이스들로부터 얇은 이미지 슬라이스들을 생성하기 위한 시스템들 및 방법들
AlZu'bi et al. Transferable hmm trained matrices for accelerating statistical segmentation time
Du et al. Accelerated super-resolution MR image reconstruction via a 3D densely connected deep convolutional neural network
Feng et al. Brain MRI super-resolution using coupled-projection residual network
Chen et al. Generative adversarial U-Net for domain-free medical image augmentation
JP7423338B2 (ja) 画像処理装置及び画像処理方法
US20230368442A1 (en) Method of generating trained model, machine learning system, program, and medical image processing apparatus
JP2022077991A (ja) 医用画像処理装置、医用画像処理方法、医用画像処理プログラム、モデルトレーニング装置、およびトレーニング方法
Angermann et al. Projection-based 2.5 d u-net architecture for fast volumetric segmentation
US20240005498A1 (en) Method of generating trained model, machine learning system, program, and medical image processing apparatus
WO2020175445A1 (ja) 学習方法、学習装置、生成モデル及びプログラム
Iddrisu et al. 3D reconstructions of brain from MRI scans using neural radiance fields
Karthik et al. Automatic quality enhancement of medical diagnostic scans with deep neural image super-resolution models
Ma et al. A frequency domain constraint for synthetic and real x-ray image super resolution
CN114049334A (zh) 一种以ct图像为输入的超分辨率mr成像方法
Feng et al. Coupled-projection residual network for mri super-resolution

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22745625

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022578244

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2022745625

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022745625

Country of ref document: EP

Effective date: 20230828