WO2021260928A1 - 吸収係数画像生成方法、核医学診断装置および学習済みモデルの作成方法 - Google Patents

吸収係数画像生成方法、核医学診断装置および学習済みモデルの作成方法 Download PDF

Info

Publication number
WO2021260928A1
WO2021260928A1 PCT/JP2020/025275 JP2020025275W WO2021260928A1 WO 2021260928 A1 WO2021260928 A1 WO 2021260928A1 JP 2020025275 W JP2020025275 W JP 2020025275W WO 2021260928 A1 WO2021260928 A1 WO 2021260928A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
absorption coefficient
tissue
machine learning
learning model
Prior art date
Application number
PCT/JP2020/025275
Other languages
English (en)
French (fr)
Inventor
哲哉 小林
結衣 繁木
Original Assignee
株式会社島津製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社島津製作所 filed Critical 株式会社島津製作所
Priority to CN202080102355.5A priority Critical patent/CN115702365A/zh
Priority to US18/012,846 priority patent/US20230281889A1/en
Priority to JP2022532213A priority patent/JPWO2021260928A1/ja
Priority to PCT/JP2020/025275 priority patent/WO2021260928A1/ja
Publication of WO2021260928A1 publication Critical patent/WO2021260928A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/40Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4057Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for generating radiation specially adapted for radiation diagnosis by using radiation sources located in the interior of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/502Clinical applications involving diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5282Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to scatter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5294Devices using data or image processing specially adapted for radiation diagnosis involving using additional data, e.g. patient information, image labeling, acquisition parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T1/00Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
    • G01T1/16Measuring radiation intensity
    • G01T1/161Applications in the field of nuclear medicine, e.g. in vivo counting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present invention relates to a method for generating an absorption coefficient image, a nuclear medicine diagnostic device, and a method for creating a trained model.
  • Patent Document 1 a method of generating an absorption coefficient image for a nuclear medicine diagnostic device. Such a method is disclosed, for example, in US Patent Application Publication No. 2019/0130569 (hereinafter, simply referred to as "Patent Document 1").
  • Patent Document 1 discloses a method for generating an absorption coefficient image for a positron emission tomography apparatus (nuclear medicine diagnostic apparatus).
  • a machine learning model trained in advance is used to generate an absorption coefficient image.
  • a PET image generated from PET (Positron Emission Tomography) data is input to the machine learning model.
  • the absorption coefficient image is output from the machine learning model.
  • an absorption coefficient image is generated from PET data (measurement data) by a machine learning model without performing CT (Computed Tomography) imaging or MR (Magnetic Resonance) imaging of the subject.
  • the present invention has been made to solve the above-mentioned problems, and one object of the present invention is to obtain an absorption coefficient image from measurement data without performing CT imaging or MR imaging on a subject. It is an object of the present invention to provide an absorption coefficient image generation method and a nuclear medicine diagnostic apparatus capable of ensuring that the absorption coefficient of an absorption coefficient image is within an appropriate range (normally possible value) even when the image is generated. ..
  • the absorption coefficient image generation method in the first aspect of the present invention is an absorption coefficient image generation method for a nuclear medicine diagnostic apparatus that generates an absorption coefficient image in a subject, and is from the subject.
  • the measurement data acquired based on the detection of emitted radiation is imaged to generate an input image, and based on the input image, an intermediate image including an image relating to the tissue region is generated. It comprises a step of generating an absorption coefficient image based on the intermediate image and a known absorption coefficient of the tissue region.
  • the "tissue” means, for example, the brain, bones, skin, muscles, internal organs, and body cavities.
  • the nuclear medicine diagnostic apparatus captures a radioactivity distribution image in the subject based on a detection unit that detects the radiation generated from the radioactive agent in the subject and the detection of the radiation by the detection unit.
  • the processing unit includes a processing unit for generating, and the processing unit generates an input image by performing an imaging process on the measurement data acquired based on the detection of the radiation emitted from the subject, and the input image is used. Based on, it is configured to generate an intermediate image containing an image of the tissue region and, based on the intermediate image and the known absorption coefficient of the tissue region, generate an absorption coefficient image for generating a radioactivity distribution image. There is.
  • the method for creating a trained model in the third aspect of the present invention is a method for creating a trained model for a nuclear medicine diagnostic apparatus, which is a step of preparing a tissue label image showing a tissue to which each pixel belongs. , Create pseudo-measurement data by performing simulation calculations based on the steps to create a pseudo-radiation distribution image and pseudo-absorption coefficient image based on the tissue label image and the pseudo-radiation distribution image and pseudo-absorption coefficient image.
  • a step of generating a pseudo image by performing an imaging process on the pseudo measurement data, and a step of creating a trained model using the pseudo image as training data are provided.
  • an input image is generated, an intermediate image including an image relating to the tissue region is generated based on the input image, and an absorption coefficient image is generated based on the intermediate image and a known absorption coefficient of the tissue region.
  • an absorption coefficient image is generated based on the intermediate image and a known absorption coefficient of the tissue region.
  • a step of preparing a tissue label image showing the tissue to which each pixel belongs and a pseudo-radioactivity distribution based on the tissue label image A step to create an image and a pseudo-absorption coefficient image, a step to create a pseudo-measurement data by performing a simulation calculation based on a pseudo-radioactivity distribution image and a pseudo-absorption coefficient image, and an imaging for the pseudo-measurement data.
  • It includes a step of generating a pseudo image by performing processing and a step of creating a trained model using the pseudo image as training data.
  • This makes it possible to create a trained model using the pseudo image obtained by the simulation calculation as training data.
  • it is not necessary to collect a large number of clinical images. This makes it possible to create a trained model without going through the difficult task of collecting a large number of clinical images from the viewpoint of personal information protection.
  • the PET device 1 is a device for photographing the subject 100 by detecting radiation (gamma rays) generated from the inside of the subject 100 due to a radioactive agent previously administered to the subject 100.
  • the subject 100 is a human.
  • a ray (gamma ray) is annihilation radiation generated in the subject 100 due to pair annihilation of a positron generated from a radioactive agent and an electron possessed by an atom in the vicinity of the positron.
  • the PET device 1 is configured to generate a radioactivity distribution image 10 (see FIG. 3) of the subject 100 based on the shooting result of the subject 100.
  • the PET device 1 may be configured to be capable of photographing the entire body of the subject 100, or may be configured to be capable of photographing a part of the subject 100 (breast, head, etc.). Further, the PET device 1 is an example of the "nuclear medicine diagnostic device" in the claims.
  • the PET device 1 includes a detector ring 2 that surrounds the subject 100.
  • the detector ring 2 is provided so that a plurality of layers are stacked in the body axis direction of the subject 100.
  • a plurality of radiation (gamma ray) detectors 3 are provided inside the detector ring 2.
  • the detector ring 2 is configured to detect radiation (gamma rays) generated from the radioactive agent in the subject 100.
  • the detector ring 2 is an example of a "detection unit" in the claims.
  • the PET device 1 includes a control unit 4.
  • the control unit 4 includes a coincidence circuit 40 and a processing circuit 41.
  • FIG. 1 shows only two wirings from the radiation detector 3 (see FIG. 2) to the control unit 4 (coincidence circuit 40), in reality, the photomultiplier tube described later in the radiation detector 3 is shown. It is connected to the control unit 4 (coincidence circuit 40) for the total number of channels of the photomultiplier tube (PMT: Photo Multiplier Tube) 33 (see FIG. 2).
  • the processing circuit 41 is an example of a "processing unit" in the claims. Further, a sensor other than PMT, for example, a sensor such as SiPM (Silicon Photomultiplier) may be used.
  • the radiation detector 3 includes a scintillator block 31, a light guide 32, and a photomultiplier tube 33.
  • the light guide 32 may not be used.
  • the scintillator block 31 converts radiation (gamma rays) generated from the subject 100 (see FIG. 1) to which the radiopharmaceutical is administered into light.
  • a radiopharmaceutical is administered to the subject 100, two radiations (gamma rays) are generated by the disappearance of the positron-emitting RI positron.
  • Each scintillator element constituting the scintillator block 31 converts radiation (gamma rays) into light by emitting light with the incident of radiation (gamma rays).
  • the light guide 32 is optically coupled to each of the scintillator block 31 and the photomultiplier tube 33.
  • the light emitted in the scintillator element of the scintillator block 31 is diffused in the scintillator block 31 and input to the photomultiplier tube 33 via the light guide 32.
  • the photomultiplier tube 33 multiplies the light input via the light guide 32 and converts it into an electric signal. This electrical signal is transmitted to the coincidence circuit 40 (see FIG. 1).
  • the coincidence circuit 40 (see FIG. 1) generates detection signal data (count value) based on the electric signal transmitted from the photomultiplier tube 33.
  • the coincidence circuit 40 (see FIG. 1) checks the position of the scintillator block 31 and the incident timing of radiation (gamma rays), and is located on both sides of the subject 100 (on the diagonal line centered on the subject 100). Only when radiation (gamma rays) are simultaneously incident on the two scintillator blocks 31, the transmitted electric signal is determined to be appropriate data. That is, in the coincidence counting circuit 40, radiation (gamma rays) are simultaneously observed (that is, simultaneous counting) by two radiation detectors 3 on both sides of the subject 100 (on the diagonal line centered on the subject 100) based on the above-mentioned electric signal. ) Is detected.
  • the detection signal data (count value) composed of appropriate data determined to be coincident counting by the coincidence counting circuit 40 is transmitted to the processing circuit 41 (see FIG. 1).
  • the processing circuit 41 generates a radioactivity distribution image 10 (see FIG. 3) in the subject 100 based on the detection of radiation (gamma rays) by the detector ring 2.
  • radioactivity distribution image generation process by the PET apparatus 1 of the embodiment will be described with reference to the flowchart of FIG. 3 and FIGS. 4 to 6.
  • the radioactivity distribution image generation process is performed by the processing circuit 41 of the control unit 4.
  • step 101 the measurement data 5 is acquired based on the detection of the radiation emitted from the subject 100.
  • the input image 6 is generated by performing an imaging process on the measurement data 5.
  • the input image 6 is generated by performing an imaging process by histogram formation, an imaging process by machine learning, or a process including a back projection process.
  • the imaging process by histogram formation a method of imaging by adding an event to the position having the highest probability based on the TOF (Time Of Flight) information included in the measurement data 5 can be adopted.
  • the image processing by machine learning a method of imaging using a machine learning model that converts the measurement data 5 into the input image 6 can be adopted.
  • the process including the back projection process for example, a simple back projection process, a reconstruction process, and the like can be adopted.
  • an analytical reconstruction process for example, an analytical reconstruction process, a successive approximation reconstruction process, and the like can be adopted.
  • the analytical reconstruction process for example, an FBP (Filtered Back Projection) method or the like can be adopted.
  • the successive approximation reconstruction process for example, an OSEM (Ordered Subsets Expectation Maximization) method or the like can be adopted.
  • a reconstruction process is performed. In this case, the input image 6 is a reconstructed image.
  • the input image 6 is an image showing the inside of the subject 100.
  • the input image 6 is a three-dimensional image, an axial cross-sectional image, a coronal cross-sectional image, a sagittal cross-sectional image, a patch image obtained by cutting out a part of the area from the three-dimensional image, a patch image obtained by cutting out a part of the area from the axial cross-sectional image, and a coronal. It contains at least one of a patch image obtained by cutting out a part of a region from a cross-sectional image and a patch image obtained by cutting out a part of a region from a sagittal cross-sectional image.
  • the "cross-sectional image” means a two-dimensional image of one slice.
  • the axial cross-sectional image means an image of a cross section orthogonal to the body axis.
  • the coronal cross-sectional image means an image of a cross-section of a cross section parallel to the body axis.
  • the sagittal cross-sectional image means an image of a vertical cross-section parallel to the body axis.
  • the input image 6 may be only one slice or may be several consecutive slices.
  • the input image 6 is generated without performing at least one of the absorption correction process and the scattering correction process.
  • the absorption correction process is a process for correcting the absorption of radiation in the subject 100.
  • the scattering correction process is a process for correcting the scattering of radiation in the subject 100.
  • the input image 6 without correction in which at least one of the absorption correction process and the scattering correction process is not performed is generated from the measurement data 5.
  • the image quality conversion process may not be performed, the image quality conversion process may be performed, or the area identification process may be performed.
  • the input image 6 may include at least one of an image to which the image quality conversion process is not applied, an image to which the image quality conversion process is applied, and an image to which the area identification process is applied.
  • the image quality conversion process for example, a gamma correction process, a histogram flattening process, a smoothing process, an edge detection process, and the like can be adopted.
  • a process of adding random noise of a distribution such as a uniform distribution, a normal distribution, a Poisson distribution, and a Laplace distribution can be adopted.
  • the image quality conversion process a process of multiplying the entire image or a specific area of the image by a constant can be adopted.
  • the area identification process a process of identifying the contour of the subject 100 in the image can be adopted.
  • an intermediate image 7 including an image relating to the tissue region is generated based on the input image 6.
  • the intermediate image 7 is generated by applying the machine learning model 8 learned in advance to the input image 6.
  • the machine learning model 8 is a machine learning model that inputs an input image 6 and outputs an intermediate image 7.
  • the machine learning model 8 is a machine learning model that inputs a three-dimensional image, a machine learning model that inputs an axial cross-sectional image, a machine learning model that inputs a coronal cross-sectional image, and a machine that inputs a sagittal cross-sectional image.
  • a learning model a machine learning model that inputs a patch image cut out from a three-dimensional image, a machine learning model that inputs a patch image cut out from an axial cross-sectional image, and a patch image cut out from a coronal cross-sectional image as input. It includes at least one of a machine learning model and a machine learning model that inputs a patch image cut out from a sagittal cross section image.
  • the machine learning model 8 inputs an input image 6 which is an axial cross-sectional image, and an intermediate image 7 corresponding to the axial cross-sectional image 7 is used. An example of outputting is shown in the figure.
  • the intermediate image 7 is composed of a combination of N (finite) tissues having a known absorption coefficient, such as brain, bone, skin, muscle, and internal organs.
  • N finite tissues having a known absorption coefficient
  • the elements (tissues) constituting the image relating to the tissue region of the intermediate image 7 are the background (outside the subject), the cavity (nasal cavity and oral cavity, etc.), and the soft tissue. It contains at least one of tissue (such as brain and skin) and bone (skull).
  • the element (tissue) constituting the image relating to the tissue region of the intermediate image 7 is at least the background (outside the subject) and the soft tissue. Includes one.
  • the intermediate image 7 includes a tissue composition ratio image 71 showing the proportion of the tissue contained in each pixel as an image relating to the tissue region.
  • the tissue composition ratio image 71 is a multi-channel image in which the ratio of a plurality of tissues included in each pixel is used as a pixel value.
  • the tissue composition ratio image 71 is an image of the human head and includes four channel images of background, cavity, soft tissue and bone.
  • the image of the background channel is configured with the ratio of the background included in each pixel as the pixel value.
  • the image of the channel of the cavity is configured with the ratio of the cavity included in each pixel as the pixel value.
  • the image of the channel of the soft tissue is configured with the ratio of the soft tissue contained in each pixel as the pixel value.
  • the image of the bone channel is configured with the ratio of the bone contained in each pixel as the pixel value. Since the pixel value of each image of 4 channels indicates a ratio, the sum of the pixel values of the images of 4 channels for a certain pixel is 1.
  • an absorption coefficient image 9 is generated based on the intermediate image 7 and the known absorption coefficient of the tissue region.
  • the absorption coefficient image 9 is generated by assigning the absorption coefficient to the tissue in the tissue composition ratio image 71 based on the known absorption coefficient.
  • the absorption coefficient image 9 is generated by performing a linear combination process of the tissue composition ratio image 71 of each tissue using the known absorption coefficient as a coefficient. More specifically, according to the following equation (1), a linear combination process of the tissue composition ratio image 71 of each tissue using a known absorption coefficient as a coefficient is performed.
  • the tissue composition ratio image 71 is an image of a human head and includes images of four channels of background, cavity, soft tissue and bone, it is generally known that the background absorption coefficient ⁇ . * 0, the absorption coefficient of the cavity mu * 1, the absorption coefficient mu * 2 of soft tissue, and, using the absorption coefficient mu * 3 bone, the above equation (1), the known absorption coefficients each tissue was coefficients The linear combination process of the tissue composition ratio image 71 of the above is performed.
  • the radioactivity distribution image 10 is generated by performing the reconstruction process based on the absorption coefficient image 9 and the measurement data 5. At this time, at least one of the absorption correction process and the scattering correction process is performed based on the absorption coefficient image 9. For example, in step 105, absorption correction processing is performed based on the absorption coefficient image 9, and scattering correction processing is performed based on the scattering distribution data acquired based on the absorption coefficient image 9 and the measurement data 5. In step 105, a quantitative radioactivity distribution image 10 that has undergone absorption correction processing and scattering correction processing is generated.
  • the machine learning model 8 included in the PET device 1 of the embodiment will be described with reference to FIGS. 7 to 9.
  • the input image 6 and the intermediate image 7 as learning data will be referred to as an input image 6a and an intermediate image 7a, respectively.
  • the machine learning model 8 is learned by supervised learning using a pair of a plurality of input images 6a and an intermediate image 7a as learning data. Specifically, the machine learning model 8 is trained by using the input image 6a prepared in advance as an input and the intermediate image 7a prepared in advance as a teacher image (correct answer image). The details of learning of the machine learning model 8 will be described later.
  • the machine learning model 8 includes a deep neural network. Further, the deep neural network of the machine learning model 8 includes a convolution process. That is, the machine learning model 8 includes a deep convolutional neural network.
  • the deep convolutional neural network of the machine learning model 8 for example, a U-shaped network (U-Net) having a skip connection can be adopted. Further, the Softmax function can be adopted as the activation function of the deep convolutional neural network of the machine learning model 8.
  • a method of creating a machine learning model 8 (a method of creating a trained model) included in the PET device 1 of one embodiment will be described with reference to the flowchart of FIG. 8 and FIG.
  • a tissue label image 11 indicating the tissue to which each pixel belongs by a label is prepared.
  • the tissue label image 11 can be prepared by subjecting a medical image such as an MR image and a CT image to a region dividing process. Further, the tissue label image 11 can be prepared by obtaining a tissue label image (for example, BrainWeb) published on the Internet.
  • a tissue label image for example, BrainWeb
  • the pseudo-radioactivity distribution image 12 and the pseudo-absorption coefficient image 13 are created based on the tissue label image 11.
  • the pseudo-radioactivity distribution image 12 is created by assigning the radioactivity concentration to each tissue of the tissue label image 11.
  • the pseudo-absorption coefficient image 13 is created by assigning an absorption coefficient to each tissue of the tissue label image 14 created by integrating the labels of each tissue of the tissue label image 11.
  • the tissue label image 14 is an image in which the number of labels is reduced with respect to the tissue label image 11 by integrating the labels.
  • the pseudo measurement data 15 is created by performing a simulation calculation based on the pseudo-radioactivity distribution image 12 and the pseudo absorption coefficient image 13.
  • the pseudo-measurement data 15 is created by inputting the pseudo-radioactivity distribution image 12, the pseudo-absorption coefficient image 13, and various simulation conditions and performing the simulation calculation.
  • the simulation calculation for example, a Monte Carlo simulation calculation, an analytical simulation calculation, or the like can be adopted.
  • the machine learning model 8 is trained using the Monte Carlo simulation calculation and the pseudo-measurement data 15 generated based on at least one of the analytical simulation calculations.
  • the machine learning model 8 is trained using the Monte Carlo simulation calculation and the pseudo measurement data 15 generated based on the analytical simulation calculation among the analytical simulation calculations.
  • the pseudo-reconstructed image 16 is generated by performing a process (imaging process) including a back projection process on the pseudo measurement data 15. Specifically, in step 114, the pseudo-reconstructed image 16 is generated by inputting various reconstruction conditions including the pseudo-measurement data 15 and the pixel size and performing the reconstruction process. In the reconstruction process, resolution information (pixel size information) is input as a parameter.
  • the pseudo-reconstructed image 16 is an example of a "pseudo-image" in the claims.
  • a normalized pseudo-reconstructed image 16 is generated by performing a normalization process for normalizing the pixel value range to [0, 1] on the pseudo-reconstructed image 16. .. Further, in step 114, the normalized pseudo-reconstructed image 16 may be multiplied by a coefficient larger than 0 and smaller than 1, or the normalized pseudo-reconstructed image 16 or the pre-normalized pseudo-reconstructed image 16. A positive coefficient may be multiplied for a specific area of the pseudo-reconstructed image 16. By doing so, it is possible to train the machine learning model 8 by using the pseudo-reconstructed image 16 having various pixel values.
  • the input image 6a (pseudo-reconstructed image 16) as the training data of the machine learning model 8 is larger than 0 and 1 with respect to the normalized image in which the pixel value range is normalized and the normalized image. It contains at least one of an image multiplied by a smaller factor and an image multiplied by a positive factor for a particular region of the normalized or unnormalized image.
  • n 2 to 10 (in increments of 1)
  • n 20 to 100 (in increments of 10)
  • n 200 to 1000 (in increments of 100).
  • a large number of input images 6a can be generated.
  • an organizational unit area can be adopted as the specific area.
  • the normalized image is an image of the human head
  • the gray matter of the brain, white matter, cerebellum, skin of the head, and muscles of the head can be employed as specific areas. This makes it possible to learn the machine learning model 8 in consideration of the diversity of radioactivity distribution caused by individual differences and differences in radiopharmaceuticals.
  • the image quality conversion process may not be performed, the image quality conversion process may be performed, or the area identification process may be performed.
  • the input image 6a includes at least one of an image to which the image quality conversion process is not applied, an image to which the image quality conversion process is applied, and an image to which the area identification process is applied.
  • the image quality conversion process for example, a gamma correction process, a histogram flattening process, a smoothing process, an edge detection process, and the like can be adopted.
  • a process of adding random noise of a distribution such as a uniform distribution, a normal distribution, a Poisson distribution, and a Laplace distribution can be adopted.
  • the image quality conversion process a process of multiplying the entire image or a specific area of the image by a constant can be adopted. By doing so, it is possible to train the machine learning model 8 by input images 6a having various pixel values. Further, for example, as the area identification process, a process of identifying the contour of the subject 100 in the image can be adopted.
  • an intermediate image (teacher image) 7a as learning data is created based on the tissue label image 11.
  • the intermediate image 7a is created based on the tissue label image 14 created by integrating the labels of each tissue of the tissue label image 11. More specifically, assuming the same low-resolution pixel size as the pseudo-reconstructed image 16, the ratio (composition ratio) of each tissue contained in one pixel is calculated with respect to the high-resolution tissue label image 14. As a result, an intermediate image 7a as a tissue composition ratio image is created.
  • a machine learning model 8 as a trained model is created using a large number of pseudo-reconstructed images 16 and intermediate images 7a as training data.
  • the machine learning model 8 is trained using the Monte Carlo simulation calculation and the pseudo-reconstructed image 16 generated based on at least one of the analytical simulation calculations.
  • the input image 6 is generated by performing imaging processing on the measurement data 5 acquired based on the detection of the radiation emitted from the subject 100, and the input image 6 is generated.
  • An intermediate image 7 including an image relating to the tissue region is generated based on the above, and an absorption coefficient image 9 is generated based on the intermediate image 7 and a known absorption coefficient of the tissue region.
  • the absorption coefficient image 9 can be generated based on the intermediate image 7 including the image relating to the tissue region.
  • the absorption coefficient of the absorption coefficient image 9 is within an appropriate range (normally taken). It can be guaranteed that the value will be obtained).
  • the intermediate image 7 includes the tissue composition ratio image 71 showing the proportion of the tissue contained in each pixel as an image relating to the tissue region.
  • the absorption coefficient image 9 having an absorption coefficient within an appropriate range can be easily obtained based on the ratio of the tissue contained in each pixel of the tissue composition ratio image 71. Can be generated.
  • the step of generating the absorption coefficient image 9 includes a step of assigning an absorption coefficient to the tissue in the tissue composition ratio image 71 based on the known absorption coefficient of each tissue region. ..
  • the absorption coefficient image 9 having a value within an appropriate range of the absorption coefficient can be easily generated based on the tissue composition ratio image 71 to which the absorption coefficient is assigned based on the known absorption coefficient.
  • the step of generating the input image 6 includes a step of generating the input image 6 without performing at least one of the absorption correction process and the scattering correction process. ..
  • the absorption correction process and the scattering correction process is performed as compared with the case where at least one of the absorption correction process and the scattering correction process is performed to generate the input image 6.
  • the process for generating the input image 6 can be easily performed as much as possible.
  • the step of generating the input image 6 includes a step of performing a process including a back projection process on the measurement data 5.
  • the input image 6 can be easily generated by performing a process including a back projection process on the measurement data 5.
  • the input image 6 is an image to which the image quality conversion processing is not applied, an image to which the image quality conversion processing is applied, and an area of the measurement data 5 that has been imaged. Includes at least one of the images to which the identification process has been applied.
  • the intermediate image 7 can be generated based on at least one of the image to which the image quality conversion process is applied and the image to which the area identification process is applied to the imaged measurement data 5. can.
  • the step of generating the intermediate image 7 includes the step of applying the machine learning model 8 learned in advance to the input image 6.
  • the intermediate image 7 can be easily generated only by applying the machine learning model 8 learned in advance to the input image 6.
  • the input image 6a as the training data of the machine learning model 8 is larger than 0 and 1 with respect to the normalized image in which the pixel value range is normalized and the normalized image. Includes an image multiplied by a smaller coefficient and at least one of a normalized or unnormalized image multiplied by a positive coefficient for a particular region of the image.
  • the machine learning model 8 can be trained by the input images 6a having various pixel values. As a result, it is possible to create a machine learning model 8 that is resistant to variations in pixel values.
  • the machine learning model 8 inputs a machine learning model 8 that inputs a three-dimensional image, a machine learning model 8 that inputs an axial cross-sectional image, and a coronal cross-sectional image.
  • Machine learning model 8 to input machine learning model 8 to input machine learning model 8 to input, machine learning model 8 to input sagittal cross-sectional image, machine learning model 8 to input patch image cut out from 3D image, and patch image cut out from axial cross-sectional image as input.
  • It includes at least one of a machine learning model 8 and a machine learning model 8 in which a patch image cut out from a coronal cross-sectional image is input, and a machine learning model 8 in which a patch image cut out from a sagittal cross-sectional image is input. ..
  • An intermediate image 7 can be generated by inputting a patch image cut out from the image.
  • the machine learning model 8 includes a deep neural network. As a result, learning can be effectively performed by the machine learning model 8 including the deep neural network.
  • the deep neural network includes a convolution process.
  • learning can be performed more effectively by the deep neural network including the convolution process.
  • the machine learning model 8 is trained using the pseudo-reconstructed image 16 generated based on at least one of the Monte Carlo simulation calculation and the analytical simulation calculation. ing.
  • the machine learning model 8 can be created by using the pseudo-reconstructed image 16 generated based on at least one of the Monte Carlo simulation calculation and the analytical simulation calculation.
  • the machine learning model 8 can be easily created.
  • the tissue composition ratio image of each tissue using the known absorption coefficient as a coefficient is used.
  • a step of performing a linear combination process of 71 is included.
  • the absorption coefficient has a value within an appropriate range by performing a linear combination process of the tissue composition ratio image 71 of each tissue using a known absorption coefficient as a coefficient.
  • the absorption coefficient image 9 can be easily generated.
  • the measurement data 5 is the measurement data of the human head
  • the elements constituting the image relating to the tissue region of the intermediate image 7 are the background, the cavity, the soft tissue, and the soft tissue. Contains at least one of the bones.
  • the measurement data 5 is the measurement data of the human breast
  • the elements constituting the image relating to the tissue region of the intermediate image 7 are at least the background and the soft tissue. Includes one.
  • the absorption coefficient image 9 having an absorption coefficient within an appropriate range can be easily generated from the intermediate image 7 including the image relating to the tissue region. ..
  • the processing circuit 41 is configured to perform at least one of the absorption correction process and the scattering correction process based on the absorption coefficient image 9. Thereby, an appropriate absorption correction process or an appropriate scattering correction process can be performed based on the absorption coefficient image 9 whose absorption coefficient is within an appropriate range.
  • the method of creating the trained model is based on the step of preparing the tissue label image 11 showing the tissue to which each pixel belongs and the pseudo-radioactivity distribution image based on the tissue label image 11.
  • 12 and a step of creating a pseudo absorption coefficient image 13 a step of creating a pseudo measurement data 15 by performing a simulation calculation based on the pseudo radioactivity distribution image 12 and the pseudo absorption coefficient image 13, and a pseudo measurement data 15.
  • a step of generating a pseudo-reconstructed image 16 by performing an imaging process on the image 16 and a step of creating a trained model (machine learning model 8) using the pseudo-reconstructed image 16 as training data are provided.
  • a trained model (machine learning model 8) can be created using the pseudo-reconstructed image 16 obtained by the simulation calculation as training data.
  • a trained model (machine learning model 8) using an actual reconstructed image (clinical image) as training data, it is not necessary to collect a large number of clinical images. This makes it possible to create a trained model (machine learning model 8) without going through the difficult work of collecting a large number of clinical images from the viewpoint of personal information protection.
  • the intermediate image 7 includes a tissue label image 72 showing the tissue to which each pixel belongs as an image relating to the tissue region.
  • the absorption coefficient image 9 having an absorption coefficient within an appropriate range can be easily generated based on the tissue to which each pixel of the tissue label image 72 belongs. ..
  • the tissue label image 72 when a plurality of tissues are mixed in one pixel, the pixel is labeled as belonging to the tissue occupying the largest proportion.
  • the tissue label image 72 is an image of the human head and includes four labels: background, cavity, soft tissue and bone.
  • the area of the background label is configured with the pixel value assigned to the background label as the pixel value.
  • the area of the label of the cavity is configured with the pixel value assigned to the label of the cavity as the pixel value.
  • the area of the label of the soft tissue is configured with the pixel value assigned to the label of the soft tissue as the pixel value.
  • the area of the bone label is configured with the pixel value assigned to the bone label as the pixel value. Note that the four labels are assigned different pixel values (integer values) from each other.
  • the absorption coefficient image 9 is generated based on the tissue label image 72 of the intermediate image 7 and the known absorption coefficient of the tissue region. Specifically, an absorption coefficient is assigned to the tissue in the tissue label image 72 based on a known absorption coefficient. Thereby, the absorption coefficient image 9 having a value within the appropriate range of the absorption coefficient can be easily generated based on the tissue label image 72 to which the absorption coefficient is assigned based on the known absorption coefficient. More specifically, a known absorption coefficient allocation process corresponding to the label value of the tissue label image 72 is performed. As a result, when the intermediate image 7 includes the tissue label image 72, the absorption coefficient image 9 having an absorption coefficient within an appropriate range is performed by performing a known absorption coefficient allocation process corresponding to the label value of the tissue label image 72. Can be easily generated.
  • the known absorption coefficient allocation processing corresponding to the label value of the tissue label image 72 is performed by the following equation (3).
  • j Pixel number l j : Label value (organization number) of pixel j ⁇ j : Absorption coefficient of pixel j ⁇ * l : Absorption coefficient of label value l (known absorption coefficient) Is.
  • the tissue label image 72 is an image of a human head and contains four labels: background, cavity, soft tissue and bone
  • the background absorption coefficient ⁇ * 0. Cavity absorption coefficient ⁇ * 1 , soft tissue absorption coefficient ⁇ * 2 , and bone absorption coefficient ⁇ * 3 , according to the above equation (3), known corresponding to the label value of the tissue label image 72.
  • the absorption coefficient allocation process is performed.
  • the machine learning model 8 that outputs the tissue label image 72 basically does not directly output the tissue label image 72, but outputs the reliability for each pixel as an intermediate output.
  • Reliability is an index that can have probabilistic implications for determining which label a pixel belongs to.
  • the machine learning model 8 that outputs the tissue label image 72 finally outputs the tissue label image 72, assuming that the pixel belongs to the label with the highest reliability acquired.
  • the reliability can be a value of 0 to 1, and the sum of the reliabilitys of all the labels can be 1. Therefore, it is also possible to generate the absorption coefficient image 9 by reading the tissue composition ratio in the above embodiment as reliability and performing the linear combination process in the same manner as in the tissue composition ratio image 71 of the above embodiment.
  • the absorption coefficient image 9 may be generated by performing a linear combination process of the reliability image which is an intermediate output of the tissue label image 72 using a known absorption coefficient as a coefficient.
  • the absorption coefficient is within an appropriate range by performing a linear combination process of the reliability image which is the intermediate output of the tissue label image 72 with the known absorption coefficient as the coefficient.
  • the absorption coefficient image 9 of the value in can be easily and accurately generated.
  • step 115 of the above embodiment the same low resolution pixel size as the pseudo-reconstructed image 16 is assumed, and one pixel is used for the high resolution tissue label image 14.
  • An intermediate image 7a as a tissue label image is created by calculating the ratio (composition ratio) of each tissue contained in the image and attaching a label assuming that the pixel belongs to the tissue occupying the maximum ratio.
  • the machine learning model 8 is a machine learning model for an axial cross section, a machine learning model for a coronal cross section, and a machine learning model for a sagittal cross section. It contains three machine learning models.
  • the machine learning model for an axial cross section is learned by inputting an input image 6a which is an axial cross section image and using an intermediate image 7a corresponding to the axial cross section image as a teacher image.
  • the machine learning model for the coronal cross section is learned by inputting the input image 6a which is the coronal cross section image and using the intermediate image 7a corresponding to the coronal cross section image as the teacher image.
  • the machine learning model for the sagittal cross section is learned by inputting the input image 6a which is the sagittal cross section image and using the intermediate image 7a corresponding to the sagittal cross section image as the teacher image.
  • step 102 of the embodiment three input images 6 of an axial cross-sectional image, a coronal cross-sectional image, and a sagittal cross-sectional image are generated. To.
  • the tissue composition ratio image corresponding to the axial cross-sectional image, the tissue composition ratio image corresponding to the coronal cross-sectional image, and the sagittal cross-sectional image correspond to each other.
  • Three intermediate images 7 with the tissue composition ratio image are generated.
  • the tissue composition ratio image corresponding to the axial cross-sectional image, the tissue composition ratio image corresponding to the coronal cross-sectional image, and the sagittal cross-sectional image correspond to each other.
  • An absorption coefficient image 9 is generated based on the three intermediate images 7 with the tissue composition ratio image. Specifically, any two of the tissue composition ratio image corresponding to the axial cross-section image, the structure composition ratio image corresponding to the coronal cross-section image, and the structure composition ratio image corresponding to the sagittal cross-section image are the remaining two.
  • the cross-section conversion process is performed so that the image corresponds to one cross-section.
  • an average image (average tissue composition ratio image) of the three tissue composition ratio images having the same cross section is generated.
  • a simple averaging process may be performed, or a weighted averaging process in which a cross section with high accuracy is weighted may be performed.
  • the absorption coefficient image 9 is generated by performing the linear combination processing of the average tissue composition ratio image.
  • step 103 of the embodiment the tissue label image corresponding to the axial cross-sectional image and the tissue label image corresponding to the coronal cross-section image are shown. And three intermediate images 7 of the structure label image corresponding to the sagittal cross-sectional image are generated.
  • the tissue label image corresponding to the axial cross-sectional image, the tissue label image corresponding to the coronal cross-section image, and the sagittal cross-section image are obtained.
  • the absorption coefficient image 9 is generated based on the three intermediate images 7 with the tissue label image corresponding to. Specifically, any two of the tissue label image corresponding to the axial cross-section image, the tissue label image corresponding to the coronal cross-section image, and the tissue label image corresponding to the sagittal cross-section image are the remaining one cross-section.
  • the cross-section conversion process is performed so that the image corresponds to.
  • a majority decision image (majority decision tissue label image) in which the label value of each pixel is determined by a majority vote of three tissue label images having the same cross section is generated.
  • the label value of the predetermined cross section may be adopted.
  • the absorption coefficient image 9 is generated by performing the allocation processing of the majority voting organization label image.
  • the absorption coefficient image 9 can also be generated by a method other than majority voting. Specifically, as shown in FIG. 14, in the second modification of the second modification of the above embodiment, unlike the first modification of the second modification of the above embodiment, the three modified examples have the same cross section. Three absorption coefficient images are generated corresponding to each of the tissue label images. Then, an absorption coefficient image as an average image of the three absorption coefficient images is generated as the final absorption coefficient image 9.
  • the machine learning model 8 outputs the tissue composition ratio image 71 of the intermediate image 7 based on the two types of input images 6.
  • the combination of the input images 6 is not limited to the combination of the reconstructed image generated by performing the reconstruction process and the back projection image generated by performing the simple back projection process.
  • the combination of the input images 6 may be a combination of a plurality of types of reconstructed images having different reconstruction algorithms from each other.
  • the combination of the input images 6 may be a combination of a plurality of types of reconstructed images in which the number of iterations of the successive approximation image reconstruction process is different from each other.
  • the combination of the input images 6 may be a plurality of types of reconstructed images having different resolutions from each other.
  • the input image 6 includes images having two or more kinds of resolutions.
  • the intermediate image 7 can be generated based on the input images 6 having various types of resolutions, as compared with the case where the images having only one type of resolution are included.
  • the combination of the input images 6 may be a combination of a plurality of types of reconstructed images that have been subjected to image processing different from each other. Further, the combination of the input images 6 may be a combination of these images.
  • the machine learning model 8 outputs the tissue composition ratio image 71 of the intermediate image 7 based on the input image 6 and the tissue label image 17 as auxiliary information. ..
  • the machine learning model 8 outputs the tissue composition ratio image 71 of the intermediate image 7 based on the input image 6 and the subject area indication image 18 as auxiliary information. do.
  • a single tissue area indicating image showing an area of a single tissue may be used.
  • the input image (reconstructed image) 6 and the mixed structure number image 19 showing the number of types of tissues included in the pixels are shown. These two types are the inputs of the machine learning model 8.
  • the machine learning model 8 outputs the tissue composition ratio image 71 of the intermediate image 7 based on the input image 6 and the mixed tissue number image 19 as auxiliary information. do.
  • the input image (reconstructed image) 6 and the information 20 regarding the spatial position of the input image 6 which is non-image information are obtained.
  • These two types are the inputs of the machine learning model 8. That is, in the fourth modification of the third modification of the above embodiment, the machine learning model 8 inputs information 20 regarding the spatial position of the input image 6 in addition to the input image 6. As a result, not only the input image 6 but also the information 20 regarding the spatial position of the input image 6 can be effectively generated as the input.
  • the information 20 regarding the spatial position of the input image 6 for example, the distance from the center of gravity of the subject and the relative distance can be adopted.
  • the machine learning model 8 has the tissue composition of the intermediate image 7 based on the input image 6 and the information 20 regarding the spatial position of the input image 6 as auxiliary information.
  • the ratio image 71 is output.
  • the intermediate image 7 including the tissue composition ratio image 71, and the reconstructed image to which at least one of the absorption correction process and the scattering correction process is applied.
  • Two types of images with 21 are the outputs of the machine learning model 8.
  • the machine learning model 8 simultaneously outputs the reconstructed image 21 to which at least one of the absorption correction process and the scattering correction process is applied, in addition to the intermediate image 7.
  • the configuration image 21 can also be generated.
  • the machine learning model 8 outputs an intermediate image 7 and a reconstructed image 21 to which absorption correction processing is applied.
  • the machine learning model 8 is a multi-output type (multitask type) deep convolutional neural network that outputs two types of images, an intermediate image 7 and a reconstructed image 21. Includes.
  • the machine learning model 8 includes a plurality of machine learning models corresponding to each tissue of the tissue composition ratio image 71 of the intermediate image 7.
  • the tissue composition ratio image 71 is an image of a human head.
  • the machine learning model 8 includes four machine learning models: a machine learning model for the background, a machine learning model for the cavity, a machine learning model for the soft tissue, and a machine learning model for the bone.
  • the machine learning model for the background takes the input image 6 as an input and outputs the tissue composition ratio image 71 corresponding to the background.
  • the machine learning model for the cavity takes the input image 6 as an input and outputs the tissue composition ratio image 71 corresponding to the cavity.
  • the machine learning model for the soft tissue takes the input image 6 as an input and outputs the tissue composition ratio image 71 corresponding to the soft tissue.
  • the machine learning model for bone takes the input image 6 as an input and outputs the tissue composition ratio image 71 corresponding to the bone.
  • the linear combination process of the tissue composition ratio image 71 of each tissue using the known absorption coefficient as a coefficient is performed by the following formula (4). .. here, n: tissue number j: pixel number ⁇ j : absorption coefficient of pixel j ⁇ * n : absorption coefficient of tissue n (known absorption coefficient) r nj : Composition ratio of the structure n of the pixel j (0 ⁇ r nj ⁇ 1) Is.
  • the tissue composition ratio image 71 of each tissue is generated by a machine learning model independent of each other. Therefore, unlike the above embodiment, the condition that the sum of the composition ratios is 1 is automatically set. Not satisfied. Therefore, in the fifth modification of the above embodiment, as shown in the above equation (4), a normalization process (a process of dividing by the denominator term of the above equation (4)) is performed at the time of the linear combination process. There is.
  • the machine learning model 8 includes a deep neural network for an axial cross section, a deep neural network for a coronal cross section, and a deep neural network for a sagittal cross section.
  • the deep neural network for the axial cross section takes the input image 6 which is a three-dimensional axial cross section image as an input, and outputs the tissue composition ratio image corresponding to the axial cross section image.
  • the deep neural network for the coronal cross section takes the input image 6 which is a three-dimensional coronal cross section image as an input, and outputs the tissue composition ratio image corresponding to the coronal cross section image.
  • the deep neural network for the sagittal cross section takes the input image 6 which is a three-dimensional sagittal cross section image as an input, and outputs the tissue composition ratio image corresponding to the sagittal cross section image.
  • the machine learning model 8 has a tissue composition ratio image corresponding to an axial cross-sectional image, a tissue composition ratio image corresponding to a coronal cross-sectional image, and a tissue composition corresponding to a sagittal cross-sectional image. Any two of the ratio images are configured to perform cross-section conversion processing so that the image corresponds to the remaining one cross-section. Further, in the sixth modification of the above embodiment, the machine learning model 8 inputs three tissue composition ratio images having a uniform cross section, and has a three-dimensional tissue composition corresponding to the three tissue composition ratio images having the same cross section. It contains a deep neural network that outputs ratio images. As a result, in the sixth modification of the above embodiment, the intermediate image 7 is generated as a three-dimensional tissue composition ratio image.
  • the nuclear medicine diagnostic device is a PET device
  • the present invention is not limited to this.
  • the nuclear medicine diagnostic apparatus may be a SPECT (Single photon emission computed tomography) apparatus other than the PET apparatus.
  • the normalization range may be any range such as [-1,1] other than [0,1].
  • the machine learning model may be trained using both a pseudo image and a real image (an image of an actual subject). As a result, the machine learning model can be trained with various data. As a result, it is possible to create a machine learning model that is resistant to variations among subjects. Further, the machine learning model may be additionally trained using a real image using the machine learning model learned by the pseudo image as a base model. As a result, the machine learning model can be efficiently trained even when the machine learning model is trained using both the pseudo image and the real image.
  • an input image is generated without performing at least one of absorption correction processing and scattering correction processing is shown, but the present invention is not limited to this.
  • an input image in which both the absorption correction process and the scattering correction process are performed may be generated.
  • an absorption coefficient image is generated by performing a linear combination process of the tissue composition ratio image of each tissue using a known absorption coefficient as a coefficient.
  • the absorption coefficient image is obtained by performing a known absorption coefficient allocation process corresponding to the tissue having the maximum tissue composition ratio in each pixel. May be generated.
  • the machine learning model has three machine learning models: a machine learning model for an axial section, a machine learning model for a coronal section, and a machine learning model for a sagittal section.
  • a machine learning model for an axial section a machine learning model for a coronal section
  • a machine learning model for a sagittal section a machine learning model for a sagittal section.
  • an example in which two types of images, an intermediate image and a reconstructed image, are outputs of a machine learning model has been described, but the present invention is not limited to this. ..
  • three or more types of images may be the output of the machine learning model.
  • the intermediate image and the image other than the reconstructed image may be the output of the machine learning model.
  • an intermediate image and a mixed tissue number image showing the number of tissue types contained in the pixels may be the output of the machine learning model.
  • each process of the processing circuit has been described using a “flow drive type” flowchart, but the present invention is not limited to this.
  • each of the above processes may be performed by an "event-driven type" that is executed in event units. In this case, it may be completely event-driven, or it may be a combination of event-driven and flow-driven.
  • An absorption coefficient image generation method for a nuclear medicine diagnostic device that generates an absorption coefficient image in a subject.
  • a step of generating an input image by performing an imaging process on the measurement data acquired based on the detection of the radiation emitted from the subject.
  • Based on the input image a step of generating an intermediate image including an image relating to a tissue region, and
  • a method for generating an absorption coefficient image comprising: a step of generating an absorption coefficient image based on the intermediate image and a known absorption coefficient of a tissue region.
  • Item 1 includes the intermediate image including at least one of a tissue composition ratio image showing the proportion of tissue contained in each pixel and a tissue label image showing the tissue to which each pixel belongs as an image relating to a tissue region. The absorption coefficient image generation method described.
  • the input image is at least one of an image to which the image quality conversion process is not applied, an image to which the image quality conversion process is applied, and an image to which the area identification process is applied to the measured data that has been imaged.
  • the absorption coefficient image generation method according to item 1 wherein the input image includes images having two or more types of resolutions.
  • the step of generating the intermediate image includes a step of applying a machine learning model learned in advance to the input image.
  • the input image as training data of the machine learning model is a normalized image in which a pixel value range is normalized, an image obtained by multiplying the normalized image by a coefficient larger than 0 and smaller than 1.
  • the absorption coefficient image generation method according to item 8 further comprising at least one of the normalized image or an image obtained by multiplying a specific region of the unnormalized image by a positive coefficient.
  • Item 10 (Item 10) Item 8. The absorption coefficient image generation method according to item 8, wherein the machine learning model simultaneously outputs a reconstructed image to which at least one of an absorption correction process and a scattering correction process is applied in addition to the intermediate image.
  • the machine learning model is A machine learning model that inputs 3D images and A machine learning model that inputs an axial cross-section image, A machine learning model that inputs a coronal cross-section image, A machine learning model that inputs a sagittal cross-section image, A machine learning model that inputs a patch image cut out from a 3D image, A machine learning model that inputs a patch image cut out from an axial cross-section image, A machine learning model that inputs a patch image cut out from a coronal cross-section image, A machine learning model that inputs a patch image cut out from a sagittal cross-section image,
  • the absorption coefficient image generation method according to item 8, which comprises at least one of.
  • the step of generating the absorption coefficient image is When the intermediate image includes the tissue composition ratio image, a step of performing a linear combination process of the tissue composition ratio image of each tissue using a known absorption coefficient as a coefficient is included.
  • the method for generating an absorption coefficient image according to item 3 wherein when the intermediate image includes the tissue label image, the step of assigning a known absorption coefficient corresponding to the label value of the tissue label image is included.
  • the step of generating the absorption coefficient image is a step of performing linear coupling processing of a reliability image which is an intermediate output of the tissue label image using a known absorption coefficient as a coefficient when the intermediate image includes the tissue label image.
  • the measurement data is measurement data of the human head, and is The absorption coefficient image generation method according to item 1, wherein the elements constituting the image relating to the tissue region include at least one of a background, a cavity, a soft tissue, and a bone.
  • the measurement data is measurement data of a human breast, and is The absorption coefficient image generation method according to item 1, wherein the elements constituting the image relating to the tissue region include at least one of a background and a soft tissue.
  • a detector that detects radiation generated by radioactive agents in the subject, A processing unit that generates a radioactivity distribution image in the subject based on the detection of radiation by the detection unit is provided.
  • the processing unit An input image is generated by performing an imaging process on the measurement data acquired based on the detection of the radiation emitted from the subject. Based on the input image, an intermediate image including an image relating to the tissue region is generated.
  • a nuclear medicine diagnostic apparatus configured to generate an absorption coefficient image for generating the radioactivity distribution image based on the intermediate image and a known absorption coefficient of the tissue region.
  • (Item 23) Item 22.

Abstract

この吸収係数画像生成方法は、入力画像(6)を生成するステップと、入力画像(6)に基づいて、組織領域に関する画像を含む中間画像(7)を生成するステップと、中間画像(7)と組織領域の既知の吸収係数とに基づいて、吸収係数画像(9)を生成するステップと、を備える。

Description

吸収係数画像生成方法、核医学診断装置および学習済みモデルの作成方法
 本発明は、吸収係数画像生成方法、核医学診断装置および学習済みモデルの作成方法に関する。
 従来、核医学診断装置のための吸収係数画像を生成する方法が知られている。このような方法は、たとえば、米国特許出願公開第2019/0130569号明細書(以下、単に「特許文献1」という)に開示されている。
 上記特許文献1には、陽電子放出断層撮影装置(核医学診断装置)のための吸収係数画像を生成する方法が開示されている。この方法では、予め学習された機械学習モデルを用いて、吸収係数画像を生成する。具体的には、機械学習モデルに、PET(Positron Emission Tomography)データから生成されたPET画像を入力する。そして、機械学習モデルから、吸収係数画像を出力する。これにより、被写体に対してCT(Computed Tomography)撮影およびMR(Magnetic Resonance)撮影などを行わずに、機械学習モデルによりPETデータ(測定データ)から吸収係数画像を生成する。
米国特許出願公開第2019/0130569号明細書
 上記特許文献1に記載された方法では、被写体に対してCT撮影およびMR撮影などを行わずに、機械学習モデルによりPETデータ(測定データ)から吸収係数画像を生成することができる。しかしながら、機械学習モデルが吸収係数画像を出力する場合、吸収係数画像の吸収係数が適正範囲内の値(通常取り得る値)であるか否かが考慮されないため、吸収係数画像の吸収係数が適正範囲外の値(通常取り得ない値)となる可能性がある。このため、被写体に対してCT撮影およびMR撮影などを行わずに、機械学習モデルによりPETデータ(測定データ)から吸収係数画像を生成しつつ、吸収係数画像の吸収係数が適正範囲外の値となる可能性を排除することが困難であるという問題点がある。
 この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、被写体に対してCT撮影およびMR撮影などを行わずに、測定データから吸収係数画像を生成する場合にも、吸収係数画像の吸収係数が適正範囲内の値(通常取り得る値)となることを保証することが可能な吸収係数画像生成方法および核医学診断装置を提供することである。
 上記目的を達成するために、この発明の第1の局面における吸収係数画像生成方法は、被写体内の吸収係数画像を生成する核医学診断装置のための吸収係数画像生成方法であって、被写体から放射された放射線の検出に基づいて取得された測定データに対して、画像化処理を行うことにより、入力画像を生成するステップと、入力画像に基づいて、組織領域に関する画像を含む中間画像を生成するステップと、中間画像と組織領域の既知の吸収係数とに基づいて、吸収係数画像を生成するステップと、を備える。ここで、「組織」とは、たとえば、脳、骨、皮膚、筋肉、内臓、および、体腔などを意味している。
 また、この発明の第2の局面における核医学診断装置は、被写体内の放射性薬剤から発生した放射線を検出する検出部と、検出部による放射線の検出に基づいて、被写体内の放射能分布画像を生成する処理部と、を備え、処理部は、被写体から放射された放射線の検出に基づいて取得された測定データに対して、画像化処理を行うことにより、入力画像を生成し、入力画像に基づいて、組織領域に関する画像を含む中間画像を生成し、中間画像と組織領域の既知の吸収係数とに基づいて、放射能分布画像を生成するための吸収係数画像を生成するように構成されている。
 また、この発明の第3の局面における学習済みモデルの作成方法は、核医学診断装置のための学習済みモデルの作成方法であって、各画素が属する組織を示す組織ラベル画像を準備するステップと、組織ラベル画像に基づいて、疑似放射能分布画像および疑似吸収係数画像を作成するステップと、疑似放射能分布画像および疑似吸収係数画像に基づいて、シミュレーション計算を行うことにより、疑似測定データを作成するステップと、疑似測定データに対して画像化処理を行うことにより、疑似画像を生成するステップと、疑似画像を学習データとして、学習済みモデルを作成するステップと、を備える。
 この発明の第1の局面における吸収係数画像生成方法および第2の局面における核医学診断装置では、上記のように、被写体から放射された放射線の検出に基づいて取得された測定データに対して、画像化処理を行うことにより、入力画像を生成し、入力画像に基づいて、組織領域に関する画像を含む中間画像を生成し、中間画像と組織領域の既知の吸収係数とに基づいて、吸収係数画像を生成する。これにより、組織領域に関する画像を含む中間画像に基づいて、吸収係数画像を生成することができる。その結果、被写体に対してCT撮影およびMR撮影などを行わずに、測定データから吸収係数画像を生成する場合にも、吸収係数画像の吸収係数が適正範囲内の値(通常取り得る値)となることを保証することができる。
 また、この発明の第3の局面における学習済みモデルの作成方法では、上記のように、各画素が属する組織を示す組織ラベル画像を準備するステップと、組織ラベル画像に基づいて、疑似放射能分布画像および疑似吸収係数画像を作成するステップと、疑似放射能分布画像および疑似吸収係数画像に基づいて、シミュレーション計算を行うことにより、疑似測定データを作成するステップと、疑似測定データに対して画像化処理を行うことにより、疑似画像を生成するステップと、疑似画像を学習データとして、学習済みモデルを作成するステップと、を備える。これにより、シミュレーション計算により得られた疑似画像を学習データとして学習済みモデルを作成することができる。その結果、実際の画像(臨床画像)を学習データとして学習済みモデルを作成する場合と異なり、多数の臨床画像を収集する必要がない。これにより、多数の臨床画像を収集するという,個人情報保護の観点などから容易でない作業を経ずに学習済みモデルを作成することができる。
一実施形態によるPET装置の構成を示した模式図である。 一実施形態による放射線(ガンマ線)検出器の構成を示した模式的な斜視図である。 一実施形態による放射能分布画像生成処理を説明するためのフローチャートである。 一実施形態による放射能分布画像の生成を説明するための図である。 一実施形態による入力画像からの中間画像の生成を説明するための図である。 一実施形態による中間画像からの吸収係数画像の生成を説明するための図である。 一実施形態による機械学習モデルの学習を説明するための図である。 一実施形態による学習済みモデル作成方法を説明するためのフローチャートである。 一実施形態による機械学習モデルの学習の詳細を説明するための図である。 一実施形態の第1変形例による入力画像からの中間画像の生成を説明するための図である。 一実施形態の第2変形例による機械学習モデルを説明するための図である。 一実施形態の第2変形例による中間画像からの吸収係数画像の生成を説明するための図である。 一実施形態の第2変形例の第1変形例による中間画像からの吸収係数画像の生成を説明するための図である。 一実施形態の第2変形例の第2変形例による中間画像からの吸収係数画像の生成を説明するための図である。 一実施形態の第3変形例による入力画像からの中間画像の生成を説明するための図である。 一実施形態の第3変形例の第1変形例による入力画像からの中間画像の生成を説明するための図である。 一実施形態の第3変形例の第2変形例による入力画像からの中間画像の生成を説明するための図である。 一実施形態の第3変形例の第3変形例による入力画像からの中間画像の生成を説明するための図である。 一実施形態の第3変形例の第4変形例による入力画像からの中間画像の生成を説明するための図である。 一実施形態の第4変形例による入力画像からの中間画像および吸収補正ありの再構成画像の生成を説明するための図である。 一実施形態の第5変形例による入力画像からの中間画像の生成を説明するための図である。 一実施形態の第5変形例による中間画像からの吸収係数画像の生成を説明するための図である。 一実施形態の第6変形例による機械学習モデルを説明するための図である。
 以下、本発明を具体化した実施形態を図面に基づいて説明する。
(PET装置の構成)
 図1および図2を参照して、一実施形態によるPET(Positron Emission Tomography:陽電子断層撮影)装置1の構成について説明する。
 図1に示すように、PET装置1は、被写体100に予め投与された放射性薬剤に起因して被写体100内から発生した放射線(ガンマ線)を検出することにより、被写体100を撮影する装置である。被写体100は、ヒトである。射線(ガンマ線)は、被写体100内において、放射性薬剤から発生した陽電子と、この陽電子の近傍の原子が有する電子との対消滅に起因して発生する消滅放射線である。PET装置1は、被写体100の撮影結果に基づいて、被写体100の放射能分布画像10(図3参照)を生成するように構成されている。なお、PET装置1は、被写体100の全身を撮影可能に構成されていてもよいし、被写体100の一部(乳房および頭部など)を撮影可能に構成されていてもよい。また、PET装置1は、請求の範囲の「核医学診断装置」の一例である。
 PET装置1は、被写体100の周囲を取り囲む検出器リング2を備えている。検出器リング2は、被写体100の体軸方向に複数層積層されるように設けられている。検出器リング2の内部には、複数の放射線(ガンマ線)検出器3(図2参照)が設けられている。これにより、検出器リング2は、被写体100内の放射性薬剤から発生した放射線(ガンマ線)を検出するように構成されている。なお、検出器リング2は、請求の範囲の「検出部」の一例である。
 また、PET装置1は、制御部4を備えている。制御部4は、同時計数回路40と、処理回路41とを含んでいる。なお、図1では、放射線検出器3(図2参照)から制御部4(同時計数回路40)への配線を2つのみ図示しているが、実際には、放射線検出器3の後述する光電子増倍管(PMT: Photo Multiplier Tube)33(図2参照)の総チャンネル数分、制御部4(同時計数回路40)に接続されている。なお、処理回路41は、請求の範囲の「処理部」の一例である。また、PMT以外の、たとえば、SiPM(Silicon Photomultiplier)などのセンサが用いられる場合もある。
 図2に示すように、放射線検出器3は、シンチレータブロック31と、ライトガイド32と、光電子増倍管33とを含んでいる。なお、ライトガイド32が用いられない場合もある。
 シンチレータブロック31は、放射性薬剤が投与された被写体100(図1参照)から発生した放射線(ガンマ線)を光に変換する。被写体100に放射性薬剤が投与されると、ポジトロン放出型のRIのポジトロンが消滅することにより、2本の放射線(ガンマ線)が発生する。シンチレータブロック31を構成する各シンチレータ素子は、放射線(ガンマ線)の入射に伴って発光することによって、放射線(ガンマ線)を光に変換する。
 ライトガイド32は、シンチレータブロック31および光電子増倍管33の各々に光学的に結合されている。シンチレータブロック31のシンチレータ素子において発光した光がシンチレータブロック31において拡散され、ライトガイド32を介して光電子増倍管33に入力される。
 光電子増倍管33は、ライトガイド32を介して入力された光を増倍させ、電気信号に変換する。この電気信号は、同時計数回路40(図1参照)に送信される。
 同時計数回路40(図1参照)は、光電子増倍管33から送信された電気信号に基づいて、検出信号データ(カウント値)を生成する。
 具体的には、同時計数回路40(図1参照)は、シンチレータブロック31の位置と放射線(ガンマ線)の入射タイミングとをチェックし、被写体100の両側(被写体100を中心とした対角線上)にある2つのシンチレータブロック31に放射線(ガンマ線)が同時に入射したときのみ、送信された電気信号を適正なデータと判定する。すなわち、同時計数回路40は、上述した電気信号に基づいて、被写体100の両側(被写体100を中心とした対角線上)にある2つの放射線検出器3において放射線(ガンマ線)が同時観測(すなわち同時計数)されたことを検出する。
 同時計数回路40により同時計数と判定された適正なデータにより構成された検出信号データ(カウント値)は、処理回路41(図1参照)に送信される。処理回路41は、検出器リング2による放射線(ガンマ線)の検出に基づいて、被写体100内の放射能分布画像10(図3参照)を生成する。
(放射能分布画像の生成)
 次に、図3のフローチャートおよび図4~図6を参照して、一実施形態のPET装置1による放射能分布画像生成処理について説明する。なお、放射能分布画像生成処理は、制御部4の処理回路41により行われる。
 図3および図4に示すように、まず、ステップ101では、被写体100から放出された放射線の検出に基づいて、測定データ5が取得される。
 そして、ステップ102では、測定データ5に対して、画像化処理を行うことにより、入力画像6が生成される。具体的には、ステップ102では、ヒストグラム化による画像化処理、機械学習による画像化処理、または、逆投影処理を含む処理を行うことにより、入力画像6が生成される。ヒストグラム化による画像化処理としては、測定データ5に含まれるTOF(Time Of Flight)情報に基づいて、最も確率が高い位置にイベントを加算することにより画像化する方法を採用することができる。また、機械学習による画像化処理としては、測定データ5を入力画像6に変換する機械学習モデルを用いて画像化する方法を採用することができる。また、逆投影処理を含む処理としては、たとえば、単純逆投影処理、および、再構成処理などを採用することができる。また、再構成処理としては、たとえば、解析的再構成処理、および、逐次近似再構成処理などを採用することができる。また、解析的再構成処理としては、たとえば、FBP(Filtered Back Projection)法などを採用することができる。また、逐次近似再構成処理としては、たとえば、OSEM(Ordered Subsets Expectation Maximization)法などを採用することができる。ステップ102では、たとえば、再構成処理が行われる。この場合、入力画像6は、再構成画像である。
 入力画像6は、被写体100の内部を示す画像である。入力画像6は、3次元画像、アキシャル断面画像、コロナル断面画像、サジタル断面画像、3次元画像から一部の領域を切り出したパッチ画像、アキシャル断面画像から一部の領域を切り出したパッチ画像、コロナル断面画像から一部の領域を切り出したパッチ画像、サジタル断面画像から一部の領域を切り出したパッチ画像のうちの少なくとも1つを含んでいる。ここで、「断面画像」とは、1スライスの2次元画像を意味している。また、アキシャル断面画像とは、体軸に直交する断面の画像を意味している。また、コロナル断面画像とは、体軸に平行な横切りの断面の画像を意味している。また、サジタル断面画像とは、体軸に平行な縦切りの断面の画像を意味している。また、入力画像6は、1スライスのみでもよいし、連続する数スライスであってもよい。
 また、ステップ102では、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを行うことなく、入力画像6が生成される。吸収補正処理とは、被写体100内での放射線の吸収に対する補正を行う処理である。また、散乱補正処理とは、被写体100内での放射線の散乱に対する補正を行う処理である。ステップ102では、測定データ5から、吸収補正処理、および、散乱補正処理のうちの少なくとも1つが行われていない補正なしの入力画像6が生成される。
 また、ステップ102では、画質変換処理が行われなくてもよいし、画質変換処理が行われてもよいし、領域識別処理が行われてもよい。本実施形態では、入力画像6は、画質変換処理を適用していない画像、画質変換処理を適用した画像、および、領域識別処理を適用した画像のうちの少なくとも1つを含んでいてもよい。画質変換処理としては、たとえば、γ補正処理、ヒストグラム平坦化処理、平滑化処理、および、エッジ検出処理などを採用することができる。また、たとえば、画質変換処理としては、均一分布、正規分布、ポアソン分布、および、ラプラス分布などの分布のランダムノイズを加える処理を採用することができる。また、たとえば、画質変換処理としては、画像全体または画像の特定の領域を定数倍する処理を採用することができる。また、たとえば、領域識別処理としては、画像中の被写体100の輪郭を識別する処理を採用することができる。
 そして、ステップ103では、入力画像6に基づいて、組織領域に関する画像を含む中間画像7が生成される。具体的には、ステップ103では、入力画像6に対して、予め学習された機械学習モデル8が適用されることにより、中間画像7が生成される。機械学習モデル8は、入力画像6を入力とするとともに、中間画像7を出力とする機械学習モデルである。機械学習モデル8は、3次元画像を入力とする機械学習モデルと、アキシャル断面画像を入力とする機械学習モデルと、コロナル断面画像を入力とする機械学習モデルと、サジタル断面画像を入力とする機械学習モデルと、3次元画像から切り出したパッチ画像を入力とする機械学習モデルと、アキシャル断面画像から切り出したパッチ画像を入力とする機械学習モデルと、コロナル断面画像から切り出したパッチ画像を入力とする機械学習モデルと、サジタル断面画像から切り出したパッチ画像を入力とする機械学習モデルと、のうちの少なくとも1つを含んでいる。
 なお、本実施形態の図面(図5、図6および図8)では、説明の便宜上、機械学習モデル8が、アキシャル断面画像である入力画像6を入力とし、アキシャル断面画像に対応する中間画像7を出力とする例について図示している。
 中間画像7は、脳、骨、皮膚、筋肉および内臓などの、吸収係数が既知のN個(有限個)の組織の組み合わせで構成されている。たとえば、測定データ5が、ヒトの頭部の測定データである場合、中間画像7の組織領域に関する画像を構成する要素(組織)は、背景(被写体外)、空洞(鼻腔および口腔など)、軟部組織(脳および皮膚など)、および、骨(頭蓋骨)のうちの少なくとも1つを含んでいる。また、たとえば、測定データ5が、ヒトの乳房の測定データである場合、中間画像7の組織領域に関する画像を構成する要素(組織)は、背景(被写体外)、および、軟部組織のうちの少なくとも1つを含む。
 本実施形態では、図5に示すように、中間画像7は、各画素に含まれる組織の割合を示す組織組成比画像71を、組織領域に関する画像として含んでいる。組織組成比画像71は、各画素に含まれる複数の組織の割合を画素値とするマルチチャンネル画像である。図5に示す例では、組織組成比画像71は、ヒトの頭部の画像であり、背景、空洞、軟部組織および骨の4チャンネルの画像を含んでいる。背景のチャンネルの画像は、各画素に含まれる背景の割合を画素値として構成されている。また、空洞のチャンネルの画像は、各画素に含まれる空洞の割合を画素値として構成されている。また、軟部組織のチャンネルの画像は、各画素に含まれる軟部組織の割合を画素値として構成されている。また、骨のチャンネルの画像は、各画素に含まれる骨の割合を画素値として構成されている。なお、4チャンネルの各画像の画素値は割合を示しているため、ある画素についての4チャンネルの画像の画素値の和は、1となる。
 そして、図3および図4に示すように、ステップ104では、中間画像7と組織領域の既知の吸収係数とに基づいて、吸収係数画像9が生成される。本実施形態では、図6に示すように、ステップ104では、既知の吸収係数に基づいて、組織組成比画像71中の組織に吸収係数が割り当てられることにより、吸収係数画像9が生成される。具体的には、ステップ104では、既知の吸収係数を係数とした各組織の組織組成比画像71の線形結合処理が行われることにより、吸収係数画像9が生成される。より具体的には、以下の式(1)により、既知の吸収係数を係数とした各組織の組織組成比画像71の線形結合処理が行われる。
Figure JPOXMLDOC01-appb-M000001
 
ここで、
n:組織ラベル(組織番号)
j:画素番号
μ:画素jの吸収係数
μ* n:組織nの吸収係数(既知の吸収係数)
nj:画素jの組織nの組成比
である。
なお、rnjは、以下の式(2)を満たしている。
Figure JPOXMLDOC01-appb-M000002
 
 たとえば、組織組成比画像71が、ヒトの頭部の画像であり、背景、空洞、軟部組織および骨の4チャンネルの画像を含んでいる場合、一般的に知られている、背景の吸収係数μ* 0、空洞の吸収係数μ* 1、軟部組織の吸収係数μ* 2、および、骨の吸収係数μ* 3を用いて、上記式(1)により、既知の吸収係数を係数とした各組織の組織組成比画像71の線形結合処理が行われる。
 そして、図3および図4に示すように、ステップ105では、吸収係数画像9および測定データ5に基づいて、再構成処理が行われることにより、放射能分布画像10が生成される。この際、吸収係数画像9に基づいて、吸収補正処理、および、散乱補正処理のうちの少なくとも1つが行われる。たとえば、ステップ105では、吸収係数画像9に基づいて、吸収補正処理が行われるとともに、吸収係数画像9および測定データ5に基づいて取得された散乱分布データに基づいて、散乱補正処理が行われる。ステップ105では、吸収補正処理、および、散乱補正処理が行われた定量的な放射能分布画像10が生成される。
(機械学習モデル)
 次に、図7~図9を参照して、一実施形態のPET装置1が備える機械学習モデル8について説明する。なお、以下では、理解の容易化のため、学習データとしての入力画像6および中間画像7を、それぞれ、入力画像6aおよび中間画像7aと称する。
 図7に示すように、機械学習モデル8は、複数の入力画像6aおよび中間画像7aのペアを学習データとして、教師あり学習により学習されている。具体的には、機械学習モデル8は、予め準備された入力画像6aを入力とし、予め準備された中間画像7aを教師画像(正解画像)として、学習されている。なお、機械学習モデル8の学習の詳細については、後述する。
 また、機械学習モデル8は、深層ニューラルネットワークを含んでいる。また、機械学習モデル8の深層ニューラルネットワークは、畳み込み処理を含んでいる。すなわち、機械学習モデル8は、深層畳み込みニューラルネットワークを含んでいる。機械学習モデル8の深層畳み込みニューラルネットワークとしては、たとえば、スキップ結合を有するU字型ネットワーク(U-Net)を採用することができる。また、機械学習モデル8の深層畳み込みニューラルネットワークの活性化関数としては、Softmax関数を採用することができる。
 図8のフローチャートおよび図9を参照して、一実施形態のPET装置1が備える機械学習モデル8の作成方法(学習済みモデルの作成方法)について説明する。
 図8および図9に示すように、まず、ステップ111では、各画素が属する組織をラベルにより示す組織ラベル画像11が準備される。組織ラベル画像11は、MR画像およびCT画像などの医用画像に対して領域分割処理を施すことで準備することができる。また、組織ラベル画像11は、インターネット上に公開されている組織ラベル画像(例えば、BrainWeb)を入手することにより、準備することができる。
 そして、ステップ112では、組織ラベル画像11に基づいて、疑似放射能分布画像12および疑似吸収係数画像13が作成される。具体的には、組織ラベル画像11の各組織に対して放射能濃度を割り当てることにより、疑似放射能分布画像12が作成される。また、組織ラベル画像11の各組織のラベルを統合することにより作成された組織ラベル画像14の各組織に対して吸収係数を割り当てることにより、疑似吸収係数画像13が作成される。組織ラベル画像14は、ラベルを統合することにより、組織ラベル画像11に対してラベルの数を減らした画像である。
 そして、ステップ113では、疑似放射能分布画像12および疑似吸収係数画像13に基づいて、シミュレーション計算を行うことにより、疑似測定データ15が作成される。具体的には、ステップ113では、疑似放射能分布画像12、疑似吸収係数画像13、および、各種のシミュレーション条件を入力して、シミュレーション計算を行うことにより、疑似測定データ15が作成される。シミュレーション計算としては、たとえば、モンテカルロシミュレーション計算、および、解析的シミュレーション計算などを採用することができる。本実施形態では、機械学習モデル8は、モンテカルロシミュレーション計算、および、解析的シミュレーション計算のうちの少なくとも1つに基づいて生成された疑似測定データ15を用いて学習されている。たとえば、機械学習モデル8は、モンテカルロシミュレーション計算、および、解析的シミュレーション計算のうちの解析的シミュレーション計算に基づいて生成された疑似測定データ15を用いて学習されている。
 そして、ステップ114では、疑似測定データ15に対して逆投影処理を含む処理(画像化処理)を行うことにより、疑似再構成画像16が生成される。具体的には、ステップ114では、疑似測定データ15および画素サイズを含む各種の再構成条件を入力して、再構成処理を行うことにより、疑似再構成画像16が生成される。再構成処理においては、解像度情報(画素サイズの情報)が、パラメータとして入力される。なお、疑似再構成画像16は、請求の範囲の「疑似画像」の一例である。
 また、ステップ114では、疑似再構成画像16に対して、画素値範囲を[0,1]に正規化する正規化処理が行われることにより、正規化された疑似再構成画像16が生成される。また、ステップ114では、正規化された疑似再構成画像16に対して0よりも大きく、1よりも小さい係数を乗算してもよいし、正規化された疑似再構成画像16または正規化前の疑似再構成画像16の特定領域に対して正の係数を乗算してもよい。このようにすれば、多様な画素値の疑似再構成画像16により、機械学習モデル8を学習させることが可能である。本実施形態では、機械学習モデル8の学習データとしての入力画像6a(疑似再構成画像16)は、画素値範囲が正規化された正規化画像、正規化画像に対して0よりも大きく、1よりも小さい係数が乗算された画像、および、正規化画像または正規化前の画像の特定領域に対して正の係数が乗算された画像のうちの少なくとも1つを含んでいる。
 正規化画像に対して0よりも大きく、1よりも小さい係数を乗算する場合、たとえば、1/n(nは正の整数)を係数として乗算する。この場合、n=2~10(1刻み)、n=20~100(10刻み)、および、n=200~1000(100刻み)などとして、画素値の大きさ(画像の明るさ)が異なる多数の入力画像6aを生成することができる。
 また、正規化画像または正規化前の画像の特定領域に対して正の係数を乗算する場合、特定の領域として、組織単位の領域を採用することができる。たとえば、正規化画像がヒトの頭部の画像である場合、特定の領域として、脳の灰白質、白質、小脳、頭部の皮膚、および、頭部の筋肉などを採用することができる。これにより、個人差や放射性薬剤の違いなどに起因する放射能分布の多様性を考慮して、機械学習モデル8の学習を行うことが可能である。
 また、ステップ114では、画質変換処理が行われなくてもよいし、画質変換処理が行われてもよいし、領域識別処理が行われてもよい。本実施形態では、入力画像6aは、画質変換処理を適用していない画像、画質変換処理を適用した画像、および、領域識別処理を適用した画像のうちの少なくとも1つを含んでいる。画質変換処理としては、たとえば、γ補正処理、ヒストグラム平坦化処理、平滑化処理、および、エッジ検出処理などを採用することができる。また、たとえば、画質変換処理としては、均一分布、正規分布、ポアソン分布、および、ラプラス分布などの分布のランダムノイズを加える処理を採用することができる。また、たとえば、画質変換処理としては、画像全体または画像の特定の領域を定数倍する処理を採用することができる。このようにすれば、多様な画素値の入力画像6aにより、機械学習モデル8を学習させることが可能である。また、たとえば、領域識別処理としては、画像中の被写体100の輪郭を識別する処理を採用することができる。
 また、ステップ115では、組織ラベル画像11に基づいて、学習データとしての中間画像(教師画像)7aが作成される。具体的には、ステップ115では、組織ラベル画像11の各組織のラベルを統合することにより作成された組織ラベル画像14に基づいて、中間画像7aが作成される。より具体的には、疑似再構成画像16と同じ低解像度の画素サイズを仮定し、高解像度の組織ラベル画像14に対して、1つの画素に含まれる各組織の割合(組成比)を計算することにより、組織組成比画像としての中間画像7aが作成される。
 そして、ステップ116では、多数の疑似再構成画像16および中間画像7aを学習データとして、学習済みモデルとしての機械学習モデル8が作成される。本実施形態では、機械学習モデル8は、モンテカルロシミュレーション計算、および、解析的シミュレーション計算のうちの少なくとも1つに基づいて生成された疑似再構成画像16を用いて学習されている。
(本実施形態の効果)
 本実施形態では、以下のような効果を得ることができる。
 本実施形態では、上記のように、被写体100から放射された放射線の検出に基づいて取得された測定データ5に対して、画像化処理を行うことにより、入力画像6を生成し、入力画像6に基づいて、組織領域に関する画像を含む中間画像7を生成し、中間画像7と組織領域の既知の吸収係数とに基づいて、吸収係数画像9を生成する。これにより、組織領域に関する画像を含む中間画像7に基づいて、吸収係数画像9を生成することができる。その結果、被写体100に対してCT撮影およびMR撮影などを行わずに、測定データ5から吸収係数画像9を生成する場合にも、吸収係数画像9の吸収係数が適正範囲内の値(通常取り得る値)となることを保証することができる。
 また、本実施形態では、上記のように、中間画像7は、各画素に含まれる組織の割合を示す組織組成比画像71を、組織領域に関する画像として含む。これにより、中間画像7が組織組成比画像71を含む場合、組織組成比画像71の各画素に含まれる組織の割合に基づいて、吸収係数が適正範囲内の値の吸収係数画像9を容易に生成することができる。
 また、本実施形態では、上記のように、吸収係数画像9を生成するステップは、各組織領域の既知の吸収係数に基づいて、組織組成比画像71中の組織に吸収係数を割り当てるステップを含む。これにより、既知の吸収係数に基づいて吸収係数を割り当てた組織組成比画像71に基づいて、吸収係数が適正範囲内の値の吸収係数画像9を容易に生成することができる。
 また、本実施形態では、上記のように、入力画像6を生成するステップは、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを行うことなく、入力画像6を生成するステップを含む。これにより、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを行って、入力画像6を生成する場合に比べて、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを行わない分だけ、入力画像6を生成するための処理を簡単に行うことができる。
 また、本実施形態では、上記のように、入力画像6を生成するステップは、測定データ5に対して、逆投影処理を含む処理を行うステップを含む。これにより、測定データ5に対して、逆投影処理を含む処理を行うことにより、入力画像6を容易に生成することができる。
 また、本実施形態では、上記のように、入力画像6は、画像化処理された測定データ5に対して、画質変換処理を適用していない画像、画質変換処理を適用した画像、および、領域識別処理を適用した画像のうちの少なくとも1つを含む。これにより、画像化処理された測定データ5に対して、画質変換処理を適用した画像、および、領域識別処理を適用した画像のうちの少なくとも1つに基づいて、中間画像7を生成することができる。
 また、本実施形態では、上記のように、中間画像7を生成するステップは、入力画像6に対して、予め学習された機械学習モデル8を適用するステップを含む。これにより、入力画像6に対して、予め学習された機械学習モデル8を適用するだけで、中間画像7を容易に生成することができる。
 また、本実施形態では、上記のように、機械学習モデル8の学習データとしての入力画像6aは、画素値範囲が正規化された正規化画像、正規化画像に対して0よりも大きく、1よりも小さい係数が乗算された画像、および、正規化画像または正規化前の画像の特定領域に対して正の係数が乗算された画像のうちの少なくとも1つを含む。これにより、多様な画素値の入力画像6aにより、機械学習モデル8を学習させることができる。その結果、画素値のばらつきに強い機械学習モデル8を作成することができる。
 また、本実施形態では、上記のように、機械学習モデル8は、3次元画像を入力とする機械学習モデル8と、アキシャル断面画像を入力とする機械学習モデル8と、コロナル断面画像を入力とする機械学習モデル8と、サジタル断面画像を入力とする機械学習モデル8と、3次元画像から切り出したパッチ画像を入力とする機械学習モデル8と、アキシャル断面画像から切り出したパッチ画像を入力とする機械学習モデル8と、コロナル断面画像から切り出したパッチ画像を入力とする機械学習モデル8と、サジタル断面画像から切り出したパッチ画像を入力とする機械学習モデル8と、のうちの少なくとも1つを含む。これにより、3次元画像、アキシャル断面画像、コロナル断面画像、サジタル断面画像、3次元画像から切り出したパッチ画像、アキシャル断面画像から切り出したパッチ画像、コロナル断面画像から切り出したパッチ画像、または、サジタル断面画像から切り出したパッチ画像を入力として、中間画像7を生成することができる。
 また、本実施形態では、上記のように、機械学習モデル8は、深層ニューラルネットワークを含む。これにより、深層ニューラルネットワークを含む機械学習モデル8により、学習を効果的に行うことができる。
 また、本実施形態では、上記のように、深層ニューラルネットワークは、畳み込み処理を含む。これにより、畳み込み処理を含む深層ニューラルネットワークにより、学習をより効果的に行うことができる。
 また、本実施形態では、上記のように、機械学習モデル8は、モンテカルロシミュレーション計算、および、解析的シミュレーション計算のうちの少なくとも1つに基づいて生成された疑似再構成画像16を用いて学習されている。これにより、モンテカルロシミュレーション計算、および、解析的シミュレーション計算のうちの少なくとも1つに基づいて生成された疑似再構成画像16を用いて機械学習モデル8を作成することができる。その結果、実際の再構成画像(臨床画像)を用いて機械学習モデル8を作成する場合と異なり、多数の臨床画像を収集する必要がない。これにより、機械学習モデル8を容易に作成することができる。
 また、本実施形態では、上記のように、吸収係数画像9を生成するステップは、中間画像7が組織組成比画像71を含む場合、既知の吸収係数を係数とした各組織の組織組成比画像71の線形結合処理を行うステップを含む。これにより、中間画像7が組織組成比画像71を含む場合、既知の吸収係数を係数とした各組織の組織組成比画像71の線形結合処理を行うことにより、吸収係数が適正範囲内の値の吸収係数画像9を容易に生成することができる。
 また、本実施形態では、上記のように、測定データ5は、ヒトの頭部の測定データであり、中間画像7の組織領域に関する画像を構成する要素は、背景、空洞、軟部組織、および、骨のうちの少なくとも1つを含む。これにより、測定データ5がヒトの頭部の測定データである場合に、組織領域に関する画像を含む中間画像7から、吸収係数が適正範囲内の値の吸収係数画像9を容易に生成することができる。
 また、本実施形態では、上記のように、測定データ5は、ヒトの乳房の測定データであり、中間画像7の組織領域に関する画像を構成する要素は、背景、および、軟部組織のうちの少なくとも1つを含む。これにより、測定データ5がヒトの乳房の測定データである場合に、組織領域に関する画像を含む中間画像7から、吸収係数が適正範囲内の値の吸収係数画像9を容易に生成することができる。
 また、本実施形態では、上記のように、処理回路41は、吸収係数画像9に基づいて、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを行うように構成されている。これにより、吸収係数が適正範囲内の値の吸収係数画像9に基づいて、適切な吸収補正処理、または、適切な散乱補正処理を行うことができる。
 また、本実施形態では、上記のように、学習済みモデルの作成方法は、各画素が属する組織を示す組織ラベル画像11を準備するステップと、組織ラベル画像11に基づいて、疑似放射能分布画像12および疑似吸収係数画像13を作成するステップと、疑似放射能分布画像12および疑似吸収係数画像13に基づいて、シミュレーション計算を行うことにより、疑似測定データ15を作成するステップと、疑似測定データ15に対して画像化処理を行うことにより、疑似再構成画像16を生成するステップと、疑似再構成画像16を学習データとして、学習済みモデル(機械学習モデル8)を作成するステップと、を備える。これにより、シミュレーション計算により得られた疑似再構成画像16を学習データとして学習済みモデル(機械学習モデル8)を作成することができる。その結果、実際の再構成画像(臨床画像)を学習データとして学習済みモデル(機械学習モデル8)を作成する場合と異なり、多数の臨床画像を収集する必要がない。これにより、多数の臨床画像を収集するという,個人情報保護の観点などから容易でない作業を経ずに学習済みモデル(機械学習モデル8)を作成することができる。
(第1変形例)
 次に、図10を参照して、上記実施形態の第1変形例について説明する。上記実施形態の第1変形例では、中間画像が、組織ラベル画像を含む例について説明する。なお、上記実施形態と同一の構成については、図中において同じ符号を付して図示し、その説明を省略する。
 図10に示すように、上記実施形態の第1変形例では、中間画像7は、各画素が属する組織を示す組織ラベル画像72を、組織領域に関する画像として含んでいる。これにより、中間画像7が組織ラベル画像72を含む場合、組織ラベル画像72の各画素が属する組織に基づいて、吸収係数が適正範囲内の値の吸収係数画像9を容易に生成することができる。組織ラベル画像72では、1つの画素に複数の組織が混在している場合、最も大きな割合を占める組織に画素が属するとして、ラベルが付されている。
 図10に示す例では、組織ラベル画像72は、ヒトの頭部の画像であり、背景、空洞、軟部組織および骨の4つのラベルを含んでいる。背景のラベルの領域は、背景のラベルに割り当てられた画素値を画素値として構成されている。また、空洞のラベルの領域は、空洞のラベルに割り当てられた画素値を画素値として構成されている。また、軟部組織のラベルの領域は、軟部組織のラベルに割り当てられた画素値を画素値として構成されている。また、骨のラベルの領域は、骨のラベルに割り当てられた画素値を画素値として構成されている。なお、4つのラベルには、互いに異なる画素値(整数値)が割り当てられている。
 上記実施形態の第1変形例では、上記実施形態のステップ104において、中間画像7の組織ラベル画像72と組織領域の既知の吸収係数とに基づいて、吸収係数画像9が生成される。具体的には、既知の吸収係数に基づいて、組織ラベル画像72中の組織に吸収係数が割り当てられる。これにより、既知の吸収係数に基づいて吸収係数を割り当てた組織ラベル画像72に基づいて、吸収係数が適正範囲内の値の吸収係数画像9を容易に生成することができる。より具体的には、組織ラベル画像72のラベル値に対応した既知の吸収係数の割り当て処理が行われる。これにより、中間画像7が組織ラベル画像72を含む場合、組織ラベル画像72のラベル値に対応した既知の吸収係数の割り当て処理を行うことにより、吸収係数が適正範囲内の値の吸収係数画像9を容易に生成することができる。
 上記実施形態の第1変形例では、以下の式(3)により、組織ラベル画像72のラベル値に対応した既知の吸収係数の割り当て処理が行われる。
Figure JPOXMLDOC01-appb-M000003
 
ここで、
j:画素番号
:画素jのラベル値(組織番号)
μ:画素jの吸収係数
μ* l:ラベル値lの吸収係数(既知の吸収係数)
である。
 たとえば、組織ラベル画像72が、ヒトの頭部の画像であり、背景、空洞、軟部組織および骨の4つのラベルを含んでいる場合、一般的に知られている、背景の吸収係数μ* 0、空洞の吸収係数μ* 1、軟部組織の吸収係数μ* 2、および、骨の吸収係数μ* 3を用いて、上記式(3)により、組織ラベル画像72のラベル値に対応した既知の吸収係数の割り当て処理が行われる。
 また、組織ラベル画像72を出力とする機械学習モデル8は、基本的に、組織ラベル画像72を直接出力するのではなく、中間出力として、画素毎に信頼度を出力する。信頼度は、画素がいずれのラベルに属するかを決定するための確率的な意味合いをもち得る指標である。そして、組織ラベル画像72を出力とする機械学習モデル8は、取得した信頼度が最大のラベルに画素が属するとして、組織ラベル画像72を最終的に出力する。ここで、信頼度は、0~1の値とすることでき、かつ、全てのラベルの信頼度の和を1とすることができる。このため、上記実施形態における組織組成比を信頼度に読み替えて、上記実施形態の組織組成比画像71と同様に線形結合処理を行うことにより、吸収係数画像9を生成することも可能である。すなわち、既知の吸収係数を係数とした、組織ラベル画像72の中間出力である信頼度画像の線形結合処理が行われることにより、吸収係数画像9が生成されてもよい。これにより、中間画像7が組織ラベル画像72を含む場合、既知の吸収係数を係数とした、組織ラベル画像72の中間出力である信頼度画像の線形結合処理を行うことにより、吸収係数が適正範囲内の値の吸収係数画像9を容易かつ正確に生成することができる。
 また、上記実施形態の第1変形例では、上記実施形態のステップ115において、疑似再構成画像16と同じ低解像度の画素サイズを仮定し、高解像度の組織ラベル画像14に対して、1つの画素に含まれる各組織の割合(組成比)を計算し、最大割合を占める組織に画素が属するとして、ラベルを付すことにより、組織ラベル画像としての中間画像7aが作成される。
(第2変形例)
 次に、図11および図12を参照して、上記実施形態の第2変形例について説明する。上記実施形態の第2変形例では、複数の機械学習モデルを組み合わせる例について説明する。なお、上記実施形態と同一の構成については、図中において同じ符号を付して図示し、その説明を省略する。
 図11に示すように、上記実施形態の第2変形例では、機械学習モデル8は、アキシャル断面用の機械学習モデルと、コロナル断面用の機械学習モデルと、サジタル断面用の機械学習モデルとの3つの機械学習モデルを含んでいる。アキシャル断面用の機械学習モデルは、アキシャル断面画像である入力画像6aを入力とし、アキシャル断面画像に対応する中間画像7aを教師画像として学習されている。コロナル断面用の機械学習モデルは、コロナル断面画像である入力画像6aを入力とし、コロナル断面画像に対応する中間画像7aを教師画像として学習されている。サジタル断面用の機械学習モデルは、サジタル断面画像である入力画像6aを入力とし、サジタル断面画像に対応する中間画像7aを教師画像として学習されている。
 また、上記実施形態の第2変形例では、図12に示すように、上記実施形態のステップ102において、アキシャル断面画像と、コロナル断面画像と、サジタル断面画像との3つの入力画像6が生成される。
 そして、上記実施形態の第2変形例では、上記実施形態のステップ103において、アキシャル断面画像に対応する組織組成比画像と、コロナル断面画像に対応する組織組成比画像と、サジタル断面画像に対応する組織組成比画像との3つの中間画像7が生成される。
 そして、上記実施形態の第2変形例では、上記実施形態のステップ104において、アキシャル断面画像に対応する組織組成比画像と、コロナル断面画像に対応する組織組成比画像と、サジタル断面画像に対応する組織組成比画像との3つの中間画像7に基づいて、吸収係数画像9が生成される。具体的には、アキシャル断面画像に対応する組織組成比画像と、コロナル断面画像に対応する組織組成比画像と、サジタル断面画像に対応する組織組成比画像とのうちのいずれか2つが、残りの1つの断面に対応する画像となるように断面変換処理が行われる。そして、断面が揃った3つの組織組成比画像の平均画像(平均組織組成比画像)が生成される。この際、単純平均処理が行われてもよいし、精度が高い断面に重みを掛けた加重平均処理が行われてもよい。そして、上記実施形態と同様に、平均組織組成比画像の線形結合処理が行われることにより、吸収係数画像9が生成される。
(第2変形例の第1および第2変形例)
 次に、図13および図14を参照して、上記実施形態の第2変形例の第1および第2変形例について説明する。上記実施形態の第2変形例の第1および第2変形例では、上記第2変形例において中間画像が組織ラベル画像を含む例について説明する。なお、上記実施形態と同一の構成については、図中において同じ符号を付して図示し、その説明を省略する。
 図13に示すように、上記実施形態の第2変形例の第1変形例では、上記実施形態のステップ103において、アキシャル断面画像に対応する組織ラベル画像と、コロナル断面画像に対応する組織ラベル画像と、サジタル断面画像に対応する組織ラベル画像との3つの中間画像7が生成される。
 そして、上記実施形態の第2変形例の第1変形例では、上記実施形態のステップ104において、アキシャル断面画像に対応する組織ラベル画像と、コロナル断面画像に対応する組織ラベル画像と、サジタル断面画像に対応する組織ラベル画像との3つの中間画像7に基づいて、吸収係数画像9が生成される。具体的には、アキシャル断面画像に対応する組織ラベル画像と、コロナル断面画像に対応する組織ラベル画像と、サジタル断面画像に対応する組織ラベル画像とのうちのいずれか2つが、残りの1つの断面に対応する画像となるように断面変換処理が行われる。そして、断面が揃った3つの組織ラベル画像の多数決により各画素のラベル値を決定した多数決画像(多数決組織ラベル画像)が生成される。この際、多数決によりラベル値が決定できない場合には、予め決められた断面のラベル値が採用されてもよい。そして、上記実施形態の第1変形例と同様に、多数決組織ラベル画像の割り当て処理が行われることにより、吸収係数画像9が生成される。
 また、多数決以外の方法により、吸収係数画像9を生成することもできる。具体的には、図14に示すように、上記実施形態の第2変形例の第2変形例では、上記実施形態の第2変形例の第1変形例とは異なり、断面が揃った3つの組織ラベル画像の各々に対応するように3つの吸収係数画像が生成される。そして、3つの吸収係数画像の平均画像としての吸収係数画像が、最終的な吸収係数画像9として生成される。
(第3変形例)
 次に、図15を参照して、上記実施形態の第3変形例について説明する。上記実施形態の第3変形例では、機械学習モデルに対して複数種類の入力を行う例(入力画像のマルチチャンネル化)について説明する。なお、上記実施形態と同一の構成については、図中において同じ符号を付して図示し、その説明を省略する。
 図15に示すように、上記実施形態の第3変形例では、再構成処理を行うことにより生成された再構成画像と、単純逆投影処理を行うことにより生成された逆投影画像との2種類の入力画像6が、機械学習モデル8の入力となっている。上記実施形態の第3変形例では、機械学習モデル8は、2種類の入力画像6に基づいて、中間画像7の組織組成比画像71を出力する。
 なお、入力画像6の組み合わせは、再構成処理を行うことにより生成された再構成画像と、単純逆投影処理を行うことにより生成された逆投影画像との組み合わせには限られない。たとえば、入力画像6の組み合わせは、再構成アルゴリズムが互いに異なる複数種類の再構成画像の組み合わせであってもよい。また、たとえば、入力画像6の組み合わせは、逐次近似画像再構成処理の反復回数が互いに異なる複数種類の再構成画像の組み合わせであってもよい。また、たとえば、入力画像6の組み合わせは、解像度が互いに異なる複数種類の再構成画像であってもよい。この場合、入力画像6は、2種類以上の解像度の画像を含んでいる。これにより、1種類のみの解像度の画像を含む場合に比べて、多様な種類の解像度の入力画像6に基づいて、中間画像7を生成することができる。また、入力画像6の組み合わせは、互いに異なる画像処理が施された複数種類の再構成画像の組み合わせであってもよい。また、入力画像6の組み合わせは、これらの画像の組み合わせであってもよい。
(第3変形例の第1~第4変形例)
 次に、図16~図19を参照して、上記実施形態の第3変形例の第1~第4変形例について説明する。上記実施形態の第3変形例の第1~第3変形例では、上記第3変形例において再構成画像と再構成画像および逆投影画像以外の情報とを組み合わせる例について説明する。なお、上記実施形態と同一の構成については、図中において同じ符号を付して図示し、その説明を省略する。
 図16に示すように、上記実施形態の第3変形例の第1変形例では、入力画像(再構成画像)6と、各画素が属する組織を示す組織ラベル画像17との2種類が、機械学習モデル8の入力となっている。上記実施形態の第3変形例の第1変形例では、機械学習モデル8は、入力画像6と補助情報としての組織ラベル画像17とに基づいて、中間画像7の組織組成比画像71を出力する。
 また、図17に示すように、上記実施形態の第3変形例の第2変形例では、入力画像(再構成画像)6と、被写体100の領域を示す被写体領域指示画像18との2種類が、機械学習モデル8の入力となっている。上記実施形態の第3変形例の第2変形例では、機械学習モデル8は、入力画像6と補助情報としての被写体領域指示画像18とに基づいて、中間画像7の組織組成比画像71を出力する。また、被写体領域指示画像18に代えて、単一組織の領域を示す単一組織領域指示画像が用いられてもよい。
 また、図18に示すように、上記実施形態の第3変形例の第3変形例では、入力画像(再構成画像)6と、画素に含まれる組織の種類の数を示す混合組織数画像19との2種類が、機械学習モデル8の入力となっている。上記実施形態の第3変形例の第3変形例では、機械学習モデル8は、入力画像6と補助情報としての混合組織数画像19とに基づいて、中間画像7の組織組成比画像71を出力する。
 また、図19に示すように、上記実施形態の第3変形例の第4変形例では、入力画像(再構成画像)6と、非画像情報である入力画像6の空間的位置に関する情報20との2種類が、機械学習モデル8の入力となっている。すなわち、上記実施形態の第3変形例の第4変形例では、機械学習モデル8は、入力画像6に加えて、入力画像6の空間的位置に関する情報20を入力としている。これにより、入力画像6だけでなく、入力画像6の空間的位置に関する情報20も入力として、中間画像7を効果的に生成することができる。入力画像6の空間的位置に関する情報20としては、たとえば、被写体の重心からの距離および相対距離などを採用することができる。上記実施形態の第3変形例の第4変形例では、機械学習モデル8は、入力画像6と補助情報としての入力画像6の空間的位置に関する情報20とに基づいて、中間画像7の組織組成比画像71を出力する。
(第4変形例)
 次に、図20を参照して、上記実施形態の第4変形例について説明する。上記実施形態の第4変形例では、機械学習モデルから複数種類の出力を行う例について説明する。なお、上記実施形態と同一の構成については、図中において同じ符号を付して図示し、その説明を省略する。
 図20に示すように、上記実施形態の第4変形例では、組織組成比画像71を含む中間画像7と、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを適用した再構成画像21との2種類の画像が、機械学習モデル8の出力となっている。上記実施形態の第4変形例では、機械学習モデル8は、中間画像7に加えて、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを適用した再構成画像21も同時に出力する。これにより、入力画像6に対して、予め学習された機械学習モデル8を適用するだけで、中間画像7だけでなく、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを適用した再構成画像21も生成することができる。上記実施形態の第4変形例では、たとえば、機械学習モデル8は、中間画像7と、吸収補正処理を適用した再構成画像21とを出力する。
 また、上記実施形態の第4変形例では、機械学習モデル8は、中間画像7と、再構成画像21との2種類の画像を出力するマルチ出力型(マルチタスク型)の深層畳み込みニューラルネットワークを含んでいる。
(第5変形例)
 次に、図21および図22を参照して、上記実施形態の第5変形例について説明する。上記実施形態の第5変形例では、組織組成比画像の各組織に対応する複数の機械学習モデルを組み合わせる例について説明する。なお、上記実施形態と同一の構成については、図中において同じ符号を付して図示し、その説明を省略する。
 図21に示すように、上記実施形態の第5変形例では、機械学習モデル8は、中間画像7の組織組成比画像71の各組織に対応する複数の機械学習モデルを含んでいる。図21に示す例では、組織組成比画像71は、ヒトの頭部の画像である。この場合、機械学習モデル8は、背景用の機械学習モデルと、空洞用の機械学習モデルと、軟部組織用の機械学習モデルと、骨用の機械学習モデルとの4つの機械学習モデルを含んでいる。背景用の機械学習モデルは、入力画像6を入力とし、背景に対応する組織組成比画像71を出力する。空洞用の機械学習モデルは、入力画像6を入力とし、空洞に対応する組織組成比画像71を出力する。軟部組織用の機械学習モデルは、入力画像6を入力とし、軟部組織に対応する組織組成比画像71を出力する。骨用の機械学習モデルは、入力画像6を入力とし、骨に対応する組織組成比画像71を出力する。
 また、上記実施形態の第5変形例では、図22に示すように、以下の式(4)により、既知の吸収係数を係数とした各組織の組織組成比画像71の線形結合処理が行われる。
Figure JPOXMLDOC01-appb-M000004
 
ここで、
n:組織番号
j:画素番号
μ:画素jの吸収係数
μ* n:組織nの吸収係数(既知の吸収係数)
nj:画素jの組織nの組成比(0≦rnj≦1)
である。
 上記実施形態の第5変形例では、互いに独立した機械学習モデルにより、各組織の組織組成比画像71を生成するため、上記実施形態とは異なり、組成比の和が1であるという条件を自動的には満たさない。このため、上記実施形態の第5変形例では、上記式(4)に示すように、線形結合処理時に、正規化処理(上記式(4)の分母の項で除する処理)が行われている。
(第6変形例)
 次に、図23を参照して、上記実施形態の第6変形例について説明する。上記実施形態の第6変形例では、1つの機械学習モデルが、互いに異なる断面の画像を処理する例について説明する。なお、上記実施形態と同一の構成については、図中において同じ符号を付して図示し、その説明を省略する。
 図23に示すように、上記実施形態の第6変形例では、機械学習モデル8は、アキシャル断面用の深層ニューラルネットワークと、コロナル断面用の深層ニューラルネットワークと、サジタル断面用の深層ニューラルネットワークと、を含んでいる。アキシャル断面用の深層ニューラルネットワークは、3次元のアキシャル断面画像である入力画像6を入力とし、アキシャル断面画像に対応する組織組成比画像を出力する。コロナル断面用の深層ニューラルネットワークは、3次元のコロナル断面画像である入力画像6を入力とし、コロナル断面画像に対応する組織組成比画像を出力する。サジタル断面用の深層ニューラルネットワークは、3次元のサジタル断面画像である入力画像6を入力とし、サジタル断面画像に対応する組織組成比画像を出力する。
 また、上記実施形態の第6変形例では、機械学習モデル8は、アキシャル断面画像に対応する組織組成比画像と、コロナル断面画像に対応する組織組成比画像と、サジタル断面画像に対応する組織組成比画像とのうちのいずれか2つが、残りの1つの断面に対応する画像となるように断面変換処理を行うように構成されている。また、上記実施形態の第6変形例では、機械学習モデル8は、断面が揃った3つの組織組成比画像を入力とし、断面が揃った3つ組織組成比画像に対応する3次元の組織組成比画像を出力する深層ニューラルネットワークを含んでいる。これにより、上記実施形態の第6変形では、3次元の組織組成比画像として、中間画像7が生成される。
[変形例]
 なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく、請求の範囲によって示され、さらに請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
 たとえば、本発明では、上記実施形態および第1~第6変形例に記載された構成のうち、互いに適用可能な構成同士を適宜組み合わせることが可能である。
 また、上記実施形態では、核医学診断装置が、PET装置である例を示したが、本発明はこれに限られない。たとえば、核医学診断装置が、PET装置以外のSPECT(Single photon emission computed tomography:単一光子放射断層撮影)装置であってもよい。
 また、上記実施形態では、疑似再構成画像に対して、画素値範囲を[0,1]に正規化する正規化処理が行われる例を示したが、本発明はこれに限られない。本発明では、正規化範囲は、[0,1]以外の[-1,1]などの任意の範囲であってもよい。
 また、上記実施形態では、機械学習モデルが、シミュレーション計算に基づいて準備した疑似画像を用いて学習されている例を示したが、本発明はこれに限られない。本発明では、機械学習モデルが、疑似画像と実画像(実際の被験者の画像)との両方を用いて学習されていてもよい。これにより、機械学習モデルを多様なデータにより学習させることができる。その結果、被写体毎のばらつきに強い機械学習モデルを作成することができる。また、機械学習モデルが、疑似画像で学習された機械学習モデルをベースモデルとして、実画像を用いて追加学習されていてもよい。これにより、疑似画像と実画像との両方を用いて機械学習モデルを学習させる場合にも、機械学習モデルを効率よく学習させることができる。
 また、上記実施形態では、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを行うことなく、入力画像が生成される例を示したが、本発明はこれに限られない。本発明では、吸収補正処理、および、散乱補正処理のうちの両方が行われた入力画像が生成されてもよい。
 また、上記実施形態では、既知の吸収係数を係数とした各組織の組織組成比画像の線形結合処理が行われることにより、吸収係数画像が生成される例を示したが、本発明はこれに限られない。本発明では、組織組成比画像から吸収係数画像が生成される場合に、各画素で最大の組織組成比を有する組織に対応した既知の吸収係数の割り当て処理が行われることにより、吸収係数画像が生成されてもよい。
 また、上記実施形態の第2変形例では、機械学習モデルが、アキシャル断面用の機械学習モデルと、コロナル断面用の機械学習モデルと、サジタル断面用の機械学習モデルとの3つの機械学習モデルを含んでいる例を説明したが、本発明はこれに限られない。本発明では、機械学習モデルが、アキシャル断面用の機械学習モデルと、コロナル断面用の機械学習モデルと、サジタル断面用の機械学習モデルとのうちのいずれか2つの機械学習モデルを含んでいてもよい。
 また、上記実施形態の第4変形例では、中間画像と、再構成画像との2種類の画像が、機械学習モデルの出力となっている例を説明したが、本発明はこれに限られない。本発明では、3種類以上の画像が、機械学習モデルの出力となっていてもよい。また、中間画像と、再構成画像以外の画像とが、機械学習モデルの出力となっていてもよい。たとえば、中間画像と、画素に含まれる組織の種類の数を示す混合組織数画像とが、機械学習モデルの出力となっていてもよい。
 また、上記実施形態では、説明の便宜上、処理回路の各処理を「フロー駆動型」のフローチャートを用いて説明したが、本発明はこれに限られない。本発明では、上記各処理をイベント単位で実行する「イベント駆動型」により行ってもよい。この場合、完全なイベント駆動型で行ってもよいし、イベント駆動およびフロー駆動を組み合わせて行ってもよい。
[態様]
 上記した例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
(項目1)
 被写体内の吸収係数画像を生成する核医学診断装置のための吸収係数画像生成方法であって、
 前記被写体から放射された放射線の検出に基づいて取得された測定データに対して、画像化処理を行うことにより、入力画像を生成するステップと、
 前記入力画像に基づいて、組織領域に関する画像を含む中間画像を生成するステップと、
 前記中間画像と組織領域の既知の吸収係数とに基づいて、吸収係数画像を生成するステップと、を備える、吸収係数画像生成方法。
(項目2)
 前記中間画像は、各画素に含まれる組織の割合を示す組織組成比画像、および、各画素が属する組織を示す組織ラベル画像のうちの少なくとも1つを、組織領域に関する画像として含む、項目1に記載の吸収係数画像生成方法。
(項目3)
 前記吸収係数画像を生成するステップは、既知の吸収係数に基づいて、前記組織組成比画像中の組織または前記組織ラベル画像中の組織に吸収係数を割り当てるステップを含む、項目2に記載の吸収係数画像生成方法。
(項目4)
 前記入力画像を生成するステップは、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを行うことなく、前記入力画像を生成するステップを含む、項目1に記載の吸収係数画像生成方法。
(項目5)
 前記入力画像を生成するステップは、前記測定データに対して、逆投影処理を含む処理を行うステップを含む、項目1に記載の吸収係数画像生成方法。
(項目6)
 前記入力画像は、画像化処理された前記測定データに対して、画質変換処理を適用していない画像、画質変換処理を適用した画像、および、領域識別処理を適用した画像のうちの少なくとも1つを含む、項目1に記載の吸収係数画像生成方法。
(項目7)
 前記入力画像は、2種類以上の解像度の画像を含む、項目1に記載の吸収係数画像生成方法。
(項目8)
 前記中間画像を生成するステップは、前記入力画像に対して、予め学習された機械学習モデルを適用するステップを含む、項目1に記載の吸収係数画像生成方法。
(項目9)
 前記機械学習モデルの学習データとしての前記入力画像は、画素値範囲が正規化された正規化画像、前記正規化画像に対して0よりも大きく、1よりも小さい係数が乗算された画像、および、前記正規化画像または正規化前の画像の特定領域に対して正の係数が乗算された画像のうちの少なくとも1つを含む、項目8に記載の吸収係数画像生成方法。
(項目10)
 前記機械学習モデルは、前記中間画像に加えて、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを適用した再構成画像も同時に出力する、項目8に記載の吸収係数画像生成方法。
(項目11)
 前記機械学習モデルは、
 3次元画像を入力とする機械学習モデルと、
 アキシャル断面画像を入力とする機械学習モデルと、
 コロナル断面画像を入力とする機械学習モデルと、
 サジタル断面画像を入力とする機械学習モデルと、
 3次元画像から切り出したパッチ画像を入力とする機械学習モデルと、
 アキシャル断面画像から切り出したパッチ画像を入力とする機械学習モデルと、
 コロナル断面画像から切り出したパッチ画像を入力とする機械学習モデルと、
 サジタル断面画像から切り出したパッチ画像を入力とする機械学習モデルと、
 のうちの少なくとも1つを含む、項目8に記載の吸収係数画像生成方法。
(項目12)
 前記機械学習モデルは、前記入力画像に加えて、前記入力画像の空間的位置に関する情報を入力とする、項目8に記載の吸収係数画像生成方法。
(項目13)
 前記機械学習モデルは、深層ニューラルネットワークを含む、項目8に記載の吸収係数画像生成方法。
(項目14)
 前記深層ニューラルネットワークは、畳み込み処理を含む、項目13に記載の吸収係数画像生成方法。
(項目15)
 前記機械学習モデルは、モンテカルロシミュレーション計算、および、解析的シミュレーション計算のうちの少なくとも1つに基づいて生成された疑似画像を用いて学習されている、項目8に記載の吸収係数画像生成方法。
(項目16)
 前記機械学習モデルは、前記疑似画像と実際の被験者の画像との両方を用いて学習されている、項目15に記載の吸収係数画像生成方法。
(項目17)
 前記機械学習モデルは、前記疑似画像で学習された機械学習モデルをベースモデルとして、実際の被験者の画像を用いて追加学習されている、項目16に記載の吸収係数画像生成方法。
(項目18)
 前記吸収係数画像を生成するステップは、
 前記中間画像が前記組織組成比画像を含む場合、既知の吸収係数を係数とした各組織の前記組織組成比画像の線形結合処理を行うステップを含み、
 前記中間画像が前記組織ラベル画像を含む場合、前記組織ラベル画像のラベル値に対応した既知の吸収係数の割り当て処理を行うステップを含む、項目3に記載の吸収係数画像生成方法。
(項目19)
 前記吸収係数画像を生成するステップは、前記中間画像が前記組織ラベル画像を含む場合、既知の吸収係数を係数とした、前記組織ラベル画像の中間出力である信頼度画像の線形結合処理を行うステップを含む、項目3に記載の吸収係数画像生成方法。
(項目20)
 前記測定データは、ヒトの頭部の測定データであり、
 組織領域に関する画像を構成する要素は、背景、空洞、軟部組織、および、骨のうちの少なくとも1つを含む、項目1に記載の吸収係数画像生成方法。
(項目21)
 前記測定データは、ヒトの乳房の測定データであり、
 組織領域に関する画像を構成する要素は、背景、および、軟部組織のうちの少なくとも1つを含む、項目1に記載の吸収係数画像生成方法。
(項目22)
 被写体内の放射性薬剤から発生した放射線を検出する検出部と、
 前記検出部による放射線の検出に基づいて、前記被写体内の放射能分布画像を生成する処理部と、を備え、
 前記処理部は、
 前記被写体から放射された放射線の検出に基づいて取得された測定データに対して、画像化処理を行うことにより、入力画像を生成し、
 前記入力画像に基づいて、組織領域に関する画像を含む中間画像を生成し、
 前記中間画像と組織領域の既知の吸収係数とに基づいて、前記放射能分布画像を生成するための吸収係数画像を生成するように構成されている、核医学診断装置。
(項目23)
 前記処理部は、前記吸収係数画像に基づいて、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを行うように構成されている、項目22に記載の核医学診断装置。
(項目24)
 核医学診断装置のための学習済みモデルの作成方法であって、
 各画素が属する組織を示す組織ラベル画像を準備するステップと、
 前記組織ラベル画像に基づいて、疑似放射能分布画像および疑似吸収係数画像を作成するステップと、
 前記疑似放射能分布画像および前記疑似吸収係数画像に基づいて、シミュレーション計算を行うことにより、疑似測定データを作成するステップと、
 前記疑似測定データに対して画像化処理を行うことにより、疑似画像を生成するステップと、
 前記疑似画像を学習データとして、学習済みモデルを作成するステップと、を備える、学習済みモデルの作成方法。
 1 PET装置(核医学診断装置)
 2 検出器リング(検出部)
 5 測定データ
 6、6a 入力画像
 7、7a 中間画像
 8 機械学習モデル
 9 吸収係数画像
 10 放射能分布画像
 11 組織ラベル画像
 12 疑似放射能分布画像
 13 疑似吸収係数画像
 15 疑似測定データ
 16 疑似再構成画像(疑似画像)
 20 空間的な位置に関する情報
 21 再構成画像
 41 処理回路(処理部)
 71 組織組成比画像
 72 組織ラベル画像
 100 被写体

Claims (24)

  1.  被写体内の吸収係数画像を生成する核医学診断装置のための吸収係数画像生成方法であって、
     前記被写体から放射された放射線の検出に基づいて取得された測定データに対して、画像化処理を行うことにより、入力画像を生成するステップと、
     前記入力画像に基づいて、組織領域に関する画像を含む中間画像を生成するステップと、
     前記中間画像と組織領域の既知の吸収係数とに基づいて、吸収係数画像を生成するステップと、を備える、吸収係数画像生成方法。
  2.  前記中間画像は、各画素に含まれる組織の割合を示す組織組成比画像、および、各画素が属する組織を示す組織ラベル画像のうちの少なくとも1つを、組織領域に関する画像として含む、請求項1に記載の吸収係数画像生成方法。
  3.  前記吸収係数画像を生成するステップは、既知の吸収係数に基づいて、前記組織組成比画像中の組織または前記組織ラベル画像中の組織に吸収係数を割り当てるステップを含む、請求項2に記載の吸収係数画像生成方法。
  4.  前記入力画像を生成するステップは、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを行うことなく、前記入力画像を生成するステップを含む、請求項1に記載の吸収係数画像生成方法。
  5.  前記入力画像を生成するステップは、前記測定データに対して、逆投影処理を含む処理を行うステップを含む、請求項1に記載の吸収係数画像生成方法。
  6.  前記入力画像は、画像化処理された前記測定データに対して、画質変換処理を適用していない画像、画質変換処理を適用した画像、および、領域識別処理を適用した画像のうちの少なくとも1つを含む、請求項1に記載の吸収係数画像生成方法。
  7.  前記入力画像は、2種類以上の解像度の画像を含む、請求項1に記載の吸収係数画像生成方法。
  8.  前記中間画像を生成するステップは、前記入力画像に対して、予め学習された機械学習モデルを適用するステップを含む、請求項1に記載の吸収係数画像生成方法。
  9.  前記機械学習モデルの学習データとしての前記入力画像は、画素値範囲が正規化された正規化画像、前記正規化画像に対して0よりも大きく、1よりも小さい係数が乗算された画像、および、前記正規化画像または正規化前の画像の特定領域に対して正の係数が乗算された画像のうちの少なくとも1つを含む、請求項8に記載の吸収係数画像生成方法。
  10.  前記機械学習モデルは、前記中間画像に加えて、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを適用した再構成画像も同時に出力する、請求項8に記載の吸収係数画像生成方法。
  11.  前記機械学習モデルは、
     3次元画像を入力とする機械学習モデルと、
     アキシャル断面画像を入力とする機械学習モデルと、
     コロナル断面画像を入力とする機械学習モデルと、
     サジタル断面画像を入力とする機械学習モデルと、
     3次元画像から切り出したパッチ画像を入力とする機械学習モデルと、
     アキシャル断面画像から切り出したパッチ画像を入力とする機械学習モデルと、
     コロナル断面画像から切り出したパッチ画像を入力とする機械学習モデルと、
     サジタル断面画像から切り出したパッチ画像を入力とする機械学習モデルと、
     のうちの少なくとも1つを含む、請求項8に記載の吸収係数画像生成方法。
  12.  前記機械学習モデルは、前記入力画像に加えて、前記入力画像の空間的位置に関する情報を入力とする、請求項8に記載の吸収係数画像生成方法。
  13.  前記機械学習モデルは、深層ニューラルネットワークを含む、請求項8に記載の吸収係数画像生成方法。
  14.  前記深層ニューラルネットワークは、畳み込み処理を含む、請求項13に記載の吸収係数画像生成方法。
  15.  前記機械学習モデルは、モンテカルロシミュレーション計算、および、解析的シミュレーション計算のうちの少なくとも1つに基づいて生成された疑似画像を用いて学習されている、請求項8に記載の吸収係数画像生成方法。
  16.  前記機械学習モデルは、前記疑似画像と実際の被験者の画像との両方を用いて学習されている、請求項15に記載の吸収係数画像生成方法。
  17.  前記機械学習モデルは、前記疑似画像で学習された機械学習モデルをベースモデルとして、実際の被験者の画像を用いて追加学習されている、請求項16に記載の吸収係数画像生成方法。
  18.  前記吸収係数画像を生成するステップは、
     前記中間画像が前記組織組成比画像を含む場合、既知の吸収係数を係数とした各組織の前記組織組成比画像の線形結合処理を行うステップを含み、
     前記中間画像が前記組織ラベル画像を含む場合、前記組織ラベル画像のラベル値に対応した既知の吸収係数の割り当て処理を行うステップを含む、請求項3に記載の吸収係数画像生成方法。
  19.  前記吸収係数画像を生成するステップは、前記中間画像が前記組織ラベル画像を含む場合、既知の吸収係数を係数とした、前記組織ラベル画像の中間出力である信頼度画像の線形結合処理を行うステップを含む、請求項3に記載の吸収係数画像生成方法。
  20.  前記測定データは、ヒトの頭部の測定データであり、
     組織領域に関する画像を構成する要素は、背景、空洞、軟部組織、および、骨のうちの少なくとも1つを含む、請求項1に記載の吸収係数画像生成方法。
  21.  前記測定データは、ヒトの乳房の測定データであり、
     組織領域に関する画像を構成する要素は、背景、および、軟部組織のうちの少なくとも1つを含む、請求項1に記載の吸収係数画像生成方法。
  22.  被写体内の放射性薬剤から発生した放射線を検出する検出部と、
     前記検出部による放射線の検出に基づいて、前記被写体内の放射能分布画像を生成する処理部と、を備え、
     前記処理部は、
     前記被写体から放射された放射線の検出に基づいて取得された測定データに対して、画像化処理を行うことにより、入力画像を生成し、
     前記入力画像に基づいて、組織領域に関する画像を含む中間画像を生成し、
     前記中間画像と組織領域の既知の吸収係数とに基づいて、前記放射能分布画像を生成するための吸収係数画像を生成するように構成されている、核医学診断装置。
  23.  前記処理部は、前記吸収係数画像に基づいて、吸収補正処理、および、散乱補正処理のうちの少なくとも1つを行うように構成されている、請求項22に記載の核医学診断装置。
  24.  核医学診断装置のための学習済みモデルの作成方法であって、
     各画素が属する組織を示す組織ラベル画像を準備するステップと、
     前記組織ラベル画像に基づいて、疑似放射能分布画像および疑似吸収係数画像を作成するステップと、
     前記疑似放射能分布画像および前記疑似吸収係数画像に基づいて、シミュレーション計算を行うことにより、疑似測定データを作成するステップと、
     前記疑似測定データに対して画像化処理を行うことにより、疑似画像を生成するステップと、
     前記疑似画像を学習データとして、学習済みモデルを作成するステップと、を備える、学習済みモデルの作成方法。
PCT/JP2020/025275 2020-06-26 2020-06-26 吸収係数画像生成方法、核医学診断装置および学習済みモデルの作成方法 WO2021260928A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202080102355.5A CN115702365A (zh) 2020-06-26 2020-06-26 吸收系数图像生成方法、核医学诊断装置以及学习完毕模型的制作方法
US18/012,846 US20230281889A1 (en) 2020-06-26 2020-06-26 Attenuation coefficient image generation method, nuclear medicine diagnostic apparatus, and trained model generation method
JP2022532213A JPWO2021260928A1 (ja) 2020-06-26 2020-06-26
PCT/JP2020/025275 WO2021260928A1 (ja) 2020-06-26 2020-06-26 吸収係数画像生成方法、核医学診断装置および学習済みモデルの作成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/025275 WO2021260928A1 (ja) 2020-06-26 2020-06-26 吸収係数画像生成方法、核医学診断装置および学習済みモデルの作成方法

Publications (1)

Publication Number Publication Date
WO2021260928A1 true WO2021260928A1 (ja) 2021-12-30

Family

ID=79282200

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/025275 WO2021260928A1 (ja) 2020-06-26 2020-06-26 吸収係数画像生成方法、核医学診断装置および学習済みモデルの作成方法

Country Status (4)

Country Link
US (1) US20230281889A1 (ja)
JP (1) JPWO2021260928A1 (ja)
CN (1) CN115702365A (ja)
WO (1) WO2021260928A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230177747A1 (en) * 2021-12-06 2023-06-08 GE Precision Healthcare LLC Machine learning generation of low-noise and high structural conspicuity images

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010008164A (ja) * 2008-06-25 2010-01-14 Fujita Gakuen 減弱係数マップ作成装置、減弱係数マップ作成方法およびプログラム
JP2013185855A (ja) * 2012-03-06 2013-09-19 Shimadzu Corp Pet用乳房パッドおよびそれを用いたマンモ用pet装置
JP2019032211A (ja) * 2017-08-07 2019-02-28 株式会社島津製作所 核医学診断装置
US20190130569A1 (en) * 2017-10-26 2019-05-02 Wisconsin Alumni Research Foundation Deep learning based data-driven approach for attenuation correction of pet data
WO2019172181A1 (ja) * 2018-03-09 2019-09-12 日本メジフィジックス株式会社 診断支援装置、プログラム、学習済みモデル、および学習装置
JP2019531783A (ja) * 2016-08-26 2019-11-07 エレクタ、インク.Elekta, Inc. 畳み込みニューラルネットワークを用いた画像セグメンテーションのためのシステムおよび方法
WO2019240257A1 (ja) * 2018-06-15 2019-12-19 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010008164A (ja) * 2008-06-25 2010-01-14 Fujita Gakuen 減弱係数マップ作成装置、減弱係数マップ作成方法およびプログラム
JP2013185855A (ja) * 2012-03-06 2013-09-19 Shimadzu Corp Pet用乳房パッドおよびそれを用いたマンモ用pet装置
JP2019531783A (ja) * 2016-08-26 2019-11-07 エレクタ、インク.Elekta, Inc. 畳み込みニューラルネットワークを用いた画像セグメンテーションのためのシステムおよび方法
JP2019032211A (ja) * 2017-08-07 2019-02-28 株式会社島津製作所 核医学診断装置
US20190130569A1 (en) * 2017-10-26 2019-05-02 Wisconsin Alumni Research Foundation Deep learning based data-driven approach for attenuation correction of pet data
WO2019172181A1 (ja) * 2018-03-09 2019-09-12 日本メジフィジックス株式会社 診断支援装置、プログラム、学習済みモデル、および学習装置
WO2019240257A1 (ja) * 2018-06-15 2019-12-19 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム

Also Published As

Publication number Publication date
JPWO2021260928A1 (ja) 2021-12-30
US20230281889A1 (en) 2023-09-07
CN115702365A (zh) 2023-02-14

Similar Documents

Publication Publication Date Title
US9619905B2 (en) Apparatus and method for generation of attenuation map
KR100991640B1 (ko) 핵의학 진단장치, 형태단층촬영 진단장치, 핵의학용 데이터연산처리방법 및 형태단층화상 연산처리방법
US20210052233A1 (en) Full dose pet image estimation from low-dose pet imaging using deep learning
EP3224801B1 (en) Multi-modality imaging system and method
US7840052B2 (en) Restoration of the nuclear medicine 2D planar image by iterative constrained deconvolution
US10371825B2 (en) Radiation detector and computer tomography apparatus including the same
US8716669B2 (en) Line of response estimation for high-resolution PET detector
CN108242068B (zh) 用于成像系统的方法和ct/pet系统
CN111436958B (zh) 一种用于pet图像衰减校正的ct图像生成方法
US20120305812A1 (en) Spect targeted volume molecular imaging using multiple pinhole apertures
EP1891899A1 (en) Method and system for performing local tomography
US10772580B2 (en) Multiple emission energies in single photon emission computed tomography
US7756310B2 (en) System and method for segmentation
WO2021260928A1 (ja) 吸収係数画像生成方法、核医学診断装置および学習済みモデルの作成方法
US8605988B2 (en) Image registration system and method
US7569828B2 (en) Application-driven optimization of acquisition and reconstruction of SPECT/PET projection data
JP2010008164A (ja) 減弱係数マップ作成装置、減弱係数マップ作成方法およびプログラム
US20200085397A1 (en) Attenuation coefficient image estimation method, attenuation coefficient image estimation program, and positron ct apparatus equipped with the same
Caucci Task performance with list-mode data
JP2018013419A (ja) 被ばく線量計測方法および被ばく線量計測装置
US7890282B2 (en) Estimation of crystal efficiency with axially compressed sinogram
US20240037814A1 (en) Convolutional neural network for dynamic pet frame clustering
WO2022096335A1 (en) System and method for nuclear medicine imaging with adaptive stopping criteria
JP2023141790A (ja) 核医学診断装置および吸収係数画像推定方法
Tadesse et al. Attenuation Correction for Dedicated Cardiac SPECT Imaging Without Using Transmission Data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20941891

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022532213

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20941891

Country of ref document: EP

Kind code of ref document: A1