WO2021171394A1 - 学習済みモデルの作成方法、画像生成方法および画像処理装置 - Google Patents

学習済みモデルの作成方法、画像生成方法および画像処理装置 Download PDF

Info

Publication number
WO2021171394A1
WO2021171394A1 PCT/JP2020/007600 JP2020007600W WO2021171394A1 WO 2021171394 A1 WO2021171394 A1 WO 2021171394A1 JP 2020007600 W JP2020007600 W JP 2020007600W WO 2021171394 A1 WO2021171394 A1 WO 2021171394A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
ray
extracted
generated
trained model
Prior art date
Application number
PCT/JP2020/007600
Other languages
English (en)
French (fr)
Inventor
▲高▼橋 渉
翔太 押川
湧一郎 平野
洋平 菅原
正妍 高
和恵 水野
Original Assignee
株式会社島津製作所
株式会社 Preferred Networks
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社島津製作所, 株式会社 Preferred Networks filed Critical 株式会社島津製作所
Priority to JP2022502635A priority Critical patent/JPWO2021171394A1/ja
Priority to CN202080097558.XA priority patent/CN115209808A/zh
Priority to PCT/JP2020/007600 priority patent/WO2021171394A1/ja
Priority to US17/802,303 priority patent/US20230097849A1/en
Publication of WO2021171394A1 publication Critical patent/WO2021171394A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7792Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being an automated module, e.g. "intelligent oracle"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Definitions

  • the present invention relates to a trained model creation method, an image generation method, and an image processing device.
  • the International Publication No. 2019/138438 discloses that an image representing a specific part is created by converting an X-ray image of a region including a specific part of a subject using a trained model. ing.
  • the above-mentioned International Publication No. 2019/138438 exemplifies the bone part of a subject, a blood vessel into which a contrast medium is injected, and a stent placed in the body as specific sites.
  • the trained model is created by performing machine learning using the first DRR (Digitally Reconstructed Radiography) image and the second DRR image reconstructed from the CT image data as a teacher input image and a teacher output image, respectively. By differentiating the image obtained by the conversion using the trained model from the original image, it is possible to generate an image in which a specific part is removed.
  • DRR Digitally Reconstructed Radiography
  • the present invention has been made to solve the above-mentioned problems, and one object of the present invention is to perform image processing on various image elements and also on a plurality of image elements.
  • the method of creating a trained model in the first aspect of the present invention generates a reconstructed image obtained by reconstructing three-dimensional X-ray image data into a two-dimensional projected image, and by simulation.
  • a two-dimensional projected image is generated from the three-dimensional model of the image element to be extracted, the projected image of the image element is superposed on the reconstructed image to generate a superposed image, and the superposed image is used as teacher input data and the reconstructed image.
  • a trained model that performs a process of extracting image elements included in the input image is created.
  • a plurality of image elements are separately extracted from an X-ray image by using a trained model trained in a process of extracting a specific image element from an input image.
  • a processed image in which image processing is performed on each image element included in the X-ray image is generated. ..
  • the image processing apparatus uses an image acquisition unit for acquiring an X-ray image and a trained model trained in a process of extracting a specific image element from an input image to obtain an X-ray image. It is included in the X-ray image by performing an inter-image calculation using an extraction processing unit that separately extracts a plurality of image elements from the image, a plurality of extracted images extracted for each image element, and an X-ray image. Each image element is provided with an image generation unit that generates a processed image in which image processing is performed.
  • the “processing of extracting an image element” means to generate an image representing the extracted image element by extracting the image element, and X-rays from which the image element has been removed by the extraction. It is a broad concept that includes both the generation of images. More specifically, the "processing of extracting" an image element includes generating an image of only the image element and generating an image obtained by removing the image element from the original X-ray image. .. Further, “inter-image calculation” means that one image is generated by performing operations such as addition, subtraction, multiplication, and division between one image and another image. More specifically, "inter-image calculation” means that a pixel value calculation process is performed for each corresponding pixel between a plurality of images to determine the pixel value of that pixel in the calculated image. means.
  • the reconstructed image obtained by reconstructing the three-dimensional X-ray image data into a two-dimensional projected image and the three-dimensional model of the image element to be extracted by simulation Since the superimposed image obtained by superimposing the two-dimensional projected image generated from the above is used as the teacher input data and the reconstructed image or the projected image is used as the teacher output data, the three-dimensional X-ray image data includes the image element to be extracted. Even if you don't have it, you can perform machine learning using the image elements to be extracted generated by simulation. That is, the teacher data can be prepared without actually preparing the CT image data including the image element to be extracted.
  • the teacher data can be prepared even for the image element included in the CT image data but difficult to separate and extract. As a result, it is possible to efficiently create a trained model for performing image processing on various image elements and on a plurality of image elements.
  • X-rays are used using a trained model in which a process of extracting a specific image element from an input image is trained.
  • a processed image is generated by extracting a plurality of image elements separately from the image and performing an inter-image calculation using the plurality of extracted images extracted for each image element and an X-ray image, so that the processed image is input.
  • Various image elements are separately extracted as extracted images from the X-ray image, and each extracted image is freely added or subtracted from the X-ray image according to the type of the extracted image element. be able to.
  • image processing can be performed on various image elements and also on a plurality of image elements.
  • FIG. 1 It is a block diagram which showed the image processing apparatus by one Embodiment. It is a figure which showed an example of the X-ray photographing apparatus. It is a figure for demonstrating the machine learning and the trained model for the training model. It is a figure which showed the example of the image element. It is a figure which showed the 1st example of the extraction of the image element by a trained model. It is a figure which showed the 2nd example of the extraction of the image element by the trained model, and the generation of a processed image. It is a figure which showed the example which image processing is performed on the extracted image unlike FIG. It is a flowchart for demonstrating the image generation method by one Embodiment.
  • the image processing device 100 uses the trained model 40 created by machine learning to extract the image element 50 included in the X-ray image 201, and uses the extracted image element 50 to perform image processing of the X-ray image 201. It is configured to do.
  • the image processing device 100 takes the X-ray image 201 captured by the X-ray imaging device 200 as an input, and generates a processed image 22 in which image processing is performed on each image element 50 included in the X-ray image 201 as an output.
  • the image processing device 100 includes an image acquisition unit 10, an extraction processing unit 20, and an image generation unit 30.
  • the image processing device 100 includes one or a plurality of processors 101 such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), and one or a plurality of processors such as an HDD (Hard Disk Drive) and an SSD (Solid State Drive). It is composed of a storage unit 102 and a computer including the storage unit 102.
  • the image processing device 100 is connected to the display device 103.
  • the image acquisition unit 10 is configured to acquire the X-ray image 201.
  • the image acquisition unit 10 is composed of, for example, an interface for communicably connecting an external device and an image processing device 100.
  • the interface of the image acquisition unit 10 may include a communication interface such as a LAN (Local Area Network).
  • the image acquisition unit 10 may include an input / output interface such as HDMI (registered trademark), DisplayPort, and a USB port.
  • the image acquisition unit 10 can acquire the X-ray image 201 from the X-ray photographing apparatus 200 or from the server apparatus connected via the network by communication.
  • the X-ray image 201 is a medical image obtained by photographing a patient or a subject with an X-ray imaging apparatus 200.
  • the X-ray image 201 may be either a still image or a moving image.
  • a moving image is a collection of still images taken at a predetermined frame rate.
  • the X-ray image 201 is a two-dimensional image.
  • the X-ray image 201 may be various images taken by simple X-ray photography, fluoroscopy, angiography, or the like.
  • the extraction processing unit 20 is configured to separately extract a plurality of image elements 50 from the X-ray image 201 by using the learned model 40 stored in the storage unit 102.
  • the trained model 40 is a trained model in which a process of extracting a specific image element 50 from an input image is trained.
  • the image element 50 is an image portion or image information constituting the X-ray image 201, and is defined as a group of the same or the same type.
  • Image element 50 can be a part of the human body that is anatomically classified.
  • Such an image element 50 is a living tissue such as a bone or a blood vessel.
  • the image element 50 can be an object introduced or placed in the body of a subject in an operation or the like.
  • Such image element 50 can be, for example, a device such as a catheter, guidewire, stent, surgical instrument, fixture, etc. that is introduced into the body.
  • the image element 50 may be noise, artifacts, scattered X-ray components, or the like generated during imaging processing in X-ray photography.
  • the image element 50 may be clothing worn by the subject and reflected at the time of shooting.
  • clothing is a concept that includes clothing, ornaments, and other accessories.
  • clothing buttons, fasteners, accessories, metal fittings, and the like are reflected in the X-ray image 201.
  • the trained model 40 is created in advance by machine learning that learns the process of extracting a specific image element 50 from the input image.
  • the extraction processing unit 20 extracts the image element 50 using one or a plurality of trained models 40.
  • the extraction processing unit 20 generates a plurality of extracted images 21 obtained by extracting different image elements 50 from the X-ray image 201.
  • the first extracted image 21 includes a first image element 50
  • the second extracted image 21 includes a second image element 50 different from the first image element 50.
  • the method of creating the trained model 40 will be described later.
  • the image generation unit 30 performs an inter-image calculation using the plurality of extracted images 21 extracted for each image element 50 and the X-ray image 201 to form each image element 50 included in the X-ray image 201. It is configured to generate a processed image 22 that has undergone image processing.
  • the image processing includes, for example, an enhancement process of the image element 50 or a removal process of the image element 50.
  • the enhancement process is a process of relatively increasing the pixel value of the pixels belonging to the image element 50.
  • the removal process is a process of relatively lowering the pixel values of the pixels belonging to the image element 50.
  • the removal process includes not only removing completely from the image, but also reducing visibility by partial removal.
  • the enhancement process may be, for example, an edge enhancement process.
  • the removal process can be a noise removal process.
  • the inter-image calculation is to determine the pixel value of the corresponding pixel in the processed image 22 by calculating the pixel value for each corresponding pixel between the plurality of extracted images 21 and the X-ray image 201.
  • the content of the operation is not particularly limited, but may be, for example, four arithmetic operations of addition, subtraction, multiplication and division.
  • the inter-image calculation includes weighting addition or subtraction of individual extracted images 21 with respect to the X-ray image 201. By weighting and adding the extracted image 21 to the X-ray image 201, the image element 50 included in the X-ray image 201 can be emphasized. By weighting and subtracting the extracted image 21 on the X-ray image 201, the image element 50 included in the X-ray image 201 can be removed. By adjusting the weight value, the degree of emphasis or the degree of removal of the image element 50 can be optimized.
  • the processor 101 functions as the extraction processing unit 20 and the image generation unit 30 by executing a program (not shown) stored in the storage unit 102. That is, in the example of FIG. 1, the extraction processing unit 20 and the image generation unit 30 are realized as functional blocks of the processor 101.
  • the extraction processing unit 20 and the image generation unit 30 may be configured as separate hardware.
  • the individual hardware includes that the extraction processing unit 20 and the image generation unit 30 are configured by separate processors.
  • the individual hardware includes a plurality of computers (PCs) in the image processing device 100, and a computer (PC) that functions as an extraction processing unit and a computer (PC) that functions as an image generation unit are separately provided. Including being
  • the image processing device 100 causes the display device 103 to display the processed image 22 generated by the image generation unit 30.
  • the image processing device 100 transmits, for example, the generated processed image 22 to the server device via the network.
  • the image processing device 100 records, for example, the generated processed image 22 in the storage unit 102.
  • FIG. 2 shows a configuration example of the X-ray imaging apparatus 200.
  • FIG. 2 shows an example of a blood vessel X-ray imaging apparatus capable of performing fluoroscopic imaging of blood vessels.
  • the X-ray imaging apparatus 200 includes a top plate 210, an X-ray irradiation unit 220, and an X-ray detector 230.
  • the top plate 210 is configured to support the subject 1 (person).
  • the X-ray irradiation unit 220 includes an X-ray source such as an X-ray tube, and is configured to irradiate X-rays toward the X-ray detector 230.
  • the X-ray detector 230 is composed of, for example, an FPD (Flat Panel Detector), and is configured to detect X-rays emitted from the X-ray irradiation unit 220 and transmitted through the subject 1.
  • FPD Full Panel Detector
  • the X-ray irradiation unit 220 and the X-ray detector 230 are held by the C arm 240.
  • the C-arm 240 is movable in the first direction 250 along the arcuate arm portion and is rotatable in the second direction 252 around the rotation axis 251.
  • the X-ray imaging apparatus 200 can change the projection direction of X-rays from the X-ray irradiation unit 220 toward the X-ray detector 230 to the first direction 250 and the second direction 252 by a predetermined angle range, respectively. ..
  • the extraction process of the image element 50 included in the X-ray image 201 is performed by the trained model 40 created by machine learning. As shown in FIG. 3, the trained model 40 extracts a pre-learned image element 50 from the input image, and outputs an extracted image 21 displaying only the extracted image element 50.
  • the trained model 40 uses the reconstructed image 60 reconstructed from the three-dimensional image data into a two-dimensional projected image, and the projected image 61 created from the three-dimensional model of the image element 50 by simulation. It is created in advance by machine learning.
  • any method such as a full-layer convolutional neural network (FCN), a neural network, a support vector machine (SVM), and boosting can be used.
  • FCN full-layer convolutional neural network
  • SVM support vector machine
  • LM trained model 40
  • Such a learning model LM (learned model 40) includes an input layer 41 into which an image is input, a convolution layer 42, and an output layer 43.
  • machine learning is performed using the training data 66 including the teacher input data 64 and the teacher output data 65.
  • the teacher input data 64 and the teacher output data 65 included in one learning data 66 have a relationship between the data before extraction and the data after extraction for the same image element 50.
  • Machine learning is performed for each image element of the plurality of image elements 50 to be extracted. That is, the learning data 66 is prepared for each image element 50 to be extracted.
  • the plurality of image elements 50 include a first element 51 which is a living tissue and a second element 52 which is a non-living tissue. Further, the plurality of image elements 50 include at least a plurality of bone 53, blood vessels 54, a device 55 introduced into the body, clothing 56, noise 57, and a scattered ray component 58 of X-rays. Of these, the bone 53 and the blood vessel 54 correspond to the first element 51.
  • the first element 51 may include a living tissue other than the bone 53 and the blood vessel 54. Of these, the device 55, clothing 56, noise 57, and the scattered X-ray component 58 introduced into the body correspond to the second element 52.
  • the second element 52 may include image elements other than the device 55, clothing 56, noise 57 and scattered radiation component 58.
  • one trained model 40 is configured to extract a plurality of image elements 50 separately.
  • the trained model 40 has one input channel and a plurality (N) output channels. N is an integer greater than or equal to 2.
  • the trained model 40 extracts N image elements 50 separately.
  • the trained model 40 outputs the extracted first to Nth image elements 50 as first extracted images 21-1 to Nth extracted images 21-N from N output channels, respectively.
  • the trained model 40 has one input channel and N + 1 output channels.
  • the trained model 40 extracts a plurality of (N) image elements 50 from the input image without duplication.
  • “No duplication” means that the image information extracted in one of the extracted images (for example, the first extracted image 21-1) is the other extracted image (for example, the second extracted image 21-2 to the Nth extracted image 21-N). Means that it is not included in.
  • the trained model 40 outputs the extracted first to Nth image elements as the first extracted image 21-1 to the Nth extracted image 21-N, respectively. Then, the trained model 40 outputs the residual image element 59 remaining after extraction as the N + 1 extracted image 21x from the N + 1th output channel.
  • the first extracted image 21-1 to the Nth extracted image 21-N do not include the same image information. Then, among the input X-ray images 201, the image information that remains without being extracted is included in the N + 1 extracted image 21x. Therefore, when the first extracted image 21-1 to the Nth extracted image 21-N and the N + 1 extracted image 21x are added, the original X-ray image 201 is returned.
  • the trained model 40 extracts a plurality of image elements 50 from the input image without duplication, and extracts the extracted plurality of image elements 50 and the residual image elements 59 remaining after the extraction. Each is configured to output. As a result, the total of the image information extracted by the extraction process does not increase or decrease as compared with the input image.
  • the image generation unit 30 adds a weighting coefficient 23 to the first extracted image 21-1 to the Nth extracted image 21-N with respect to the input X-ray image 201.
  • the inter-image calculation for addition or subtraction is performed to generate the processed image 22.
  • the N + 1 extracted image 21x representing the residual image element 59 does not need to be used for image processing.
  • the coefficients w1 to wn are individually set corresponding to each of the first extracted images 21-1 to the Nth extracted images 21-N.
  • the weighting coefficient 23 may be, for example, a fixed value set in advance in the storage unit 102. However, a plurality of types of weighting coefficients may be set depending on the use of the processed image 22 and the like.
  • the first set value of the weighting coefficient 23 is used for the first extracted image 21-1
  • the second set value of the weighting coefficient 23 is used for the first extracted image 21-1. It is done, and so on.
  • the weighting coefficient 23 may be set to an arbitrary value according to the operation input of the user.
  • image processing may be performed on each of the extracted images 21 before performing the inter-image calculation between each extracted image 21 and the X-ray image 201.
  • the image generation unit 30 is configured to separately perform image processing on a part or all of the plurality of extracted images 21.
  • the processed image 22 is generated by an inter-image calculation between the plurality of extracted images 21 after image processing and the X-ray image 201.
  • the image generation unit 30 performs the first image processing 25-1 on the first extracted image 21-1 and the second image processing 25-2 on the second extracted image 21-2. , ..., The Nth image processing 25-N is performed on the Nth extracted image 21-N. Since it may not be necessary to perform image processing depending on the image element 50, image processing may be performed only on a part of the extracted images 21.
  • the image processing performed on each extracted image is not particularly limited, but may be, for example, image correction processing or image interpolation processing.
  • the image correction process may include an edge enhancement process and a noise removal process.
  • the image correction process may be, for example, contrast adjustment, line enhancement process, smoothing process, or the like.
  • the image interpolation process is a process of interpolating the interrupted portion of the image element 50 that appears to be interrupted in the middle because it is difficult to be captured in the X-ray image 201 such as a guide wire or a catheter.
  • contrast adjustment, line enhancement processing, etc. appropriate parameters differ for each image element 50, and it is difficult to process all the image elements 50 at once, but image processing is performed on each extracted image 21. As a result, optimal image processing is performed for each image element 50.
  • the image generation method of the present embodiment includes at least the following steps S2 and S5 shown in FIG. (S2) A plurality of image elements 50 are separately extracted from the X-ray image 201 by using the trained model 40 trained in the process of extracting the specific image element 50 from the input image. (S5) By performing an inter-image calculation using a plurality of extracted images 21 extracted for each image element 50 and an X-ray image 201, image processing is performed on each image element 50 included in the X-ray image 201. The processed image 22 that has been performed is generated. Further, the image generation method of the present embodiment may further include steps S1, S3, S4, and S6 shown in FIG.
  • step S1 the X-ray image 201 is acquired.
  • the image acquisition unit 10 acquires the X-ray image 201 captured by the X-ray imaging device 200 shown in FIG. 2, for example, by communication with the X-ray imaging device 200 or the server device. do.
  • step S2 the extraction processing unit 20 separately extracts a plurality of image elements 50 from the X-ray image 201 using the trained model 40.
  • the extraction processing unit 20 inputs the X-ray image 201 acquired in step S1 into the trained model 40.
  • the trained model 40 outputs the first extracted image 21-1 to the Nth extracted image 21-N as shown in FIG. 5 or FIG.
  • step S3 image processing may be performed on a part or all of the extracted plurality of extracted images 21.
  • the image generation unit 30 executes preset image processing with predetermined parameters for the extracted image 21 to be image processed. Whether or not to perform image processing may be determined according to the input from the user. Whether or not to perform image processing may be determined according to the image quality of the extracted image 21. Step S3 does not have to be executed.
  • step S4 the image generation unit 30 acquires calculation parameters for each extracted image 21.
  • the calculation parameters include, for example, a set value of the weighting coefficient 23 and a set value of the calculation method.
  • the set value of the calculation method indicates whether to perform weighting addition (that is, emphasis processing of the image element 50) or weighting subtraction (that is, removal processing of the image element 50) for the target extracted image 21.
  • the setting value of the calculation method and the setting value of the weighting coefficient 23 are preset in the storage unit 102 for each type of the extracted image element 50.
  • step S5 the image generation unit 30 performs inter-image calculation using the plurality of extracted images 21 extracted for each image element 50 and the X-ray image 201.
  • the image generation unit 30 performs an inter-image calculation according to the parameters acquired in step S4.
  • the image generation unit 30 multiplies each of the first extracted images 21-1 to the Nth extracted images 21-N by the corresponding weighting factors 23, and performs inter-image calculation on the X-ray image 201 by the corresponding calculation methods. I do.
  • the X-ray image 201 weighted or subtracted by each extracted image 21 is generated as the processed image 22.
  • the image generation unit 30 generates a processed image 22 (see FIG. 6 or 7) in which each image element 50 included in the X-ray image 201 is subjected to image processing that is an enhancement process or a removal process.
  • step S6 the image processing device 100 outputs the processed image 22.
  • the image processing device 100 outputs the processed image 22 to the display device 103 or the server device. Further, the image processing device 100 stores the processed image 22 in the storage unit 102.
  • the image generation unit 30 may accept an operation input for changing the calculation parameter.
  • the image generation unit 30 may accept the input of the value of the weighting coefficient 23, or may accept the selection of another preset parameter.
  • the image generation unit 30 may accept changes in the image processing parameters in step S3. Then, the image generation unit 30 may regenerate the processed image 22 using the changed parameters according to the operation input of the user.
  • the trained model 40 may be created by the processor 101 of the image processing device 100, but may be executed by using a computer for machine learning (learning device 300, see FIG. 10).
  • the method of creating the trained model of the present embodiment includes the following steps S11 to S14.
  • S11 A reconstructed image 60 is generated by reconstructing the CT (Computed Tomography) image data 80 into a two-dimensional projected image.
  • the CT image data 80 is an example of "three-dimensional X-ray image data”.
  • S12 A two-dimensional projection image 61 is generated from the three-dimensional model of the image element 50 to be extracted by the simulation.
  • the projected image 61 of the image element 50 is superimposed on the reconstructed image 60 to generate the superimposed image 67.
  • S14 An image included in the input image by performing machine learning using the superimposed image 67 as the teacher input data 64 (see FIG. 3) and the reconstructed image 60 or the projected image 61 as the teacher output data 65 (see FIG. 3).
  • a trained model 40 (see FIG. 3) that performs a process of extracting the element 50 is created.
  • machine learning inputs teacher input data 64 (see FIG. 3) and teacher output data 65 (see FIG. 3) created for each image element 50 to one learning model LM.
  • machine learning may be performed on a separate learning model LM for each of the image elements 50 to be extracted.
  • CT image data 80 is acquired.
  • the CT image data 80 is three-dimensional image data that reflects the three-dimensional structure of the subject 1 obtained by taking a CT image of the subject 1.
  • the CT image data 80 is a three-dimensional aggregate of voxel data including three-dimensional position coordinates and a CT value at the position coordinates.
  • four-dimensional 4D-CT data including time changes in three-dimensional information may be used. As a result, it is possible to accurately learn even an object that moves with time.
  • step S11 a reconstructed image 60 obtained by reconstructing the CT image data 80 into a two-dimensional projected image is generated.
  • the reconstructed image 60 is a DRR image generated from the CT image data 80.
  • the DRR image is created as a two-dimensional projection image by virtual perspective projection simulating the geometric projection conditions of the X-ray irradiation unit 220 and the X-ray detector 230 of the X-ray imaging apparatus 200 as shown in FIG. This is a simulated X-ray image.
  • the virtual X-ray tube 91 and the virtual X-ray detector 92 are virtually placed in a predetermined projection direction with respect to the CT image data 80.
  • a three-dimensional spatial arrangement (photographing geometry) of a virtual X-ray imaging system is generated.
  • the arrangement of the CT image data 80, the virtual X-ray tube 91, and the virtual X-ray detector 92 is such that the actual subject 1 shown in FIG. 2 and the X-ray irradiation unit 220 and the X-ray detector 230 are arranged. It is the same shooting geometry as.
  • the imaging geometry means the geometrical arrangement relationship between the subject 1 and the X-ray irradiation unit 220 and the X-ray detector 230 in a three-dimensional space.
  • the pixel value of each pixel in the reconstructed image 60 is added by adding the sum of the CT values in each voxel that the X-rays emitted from the virtual X-ray tube 91 have passed by the time it reaches the virtual X-ray detector 92. Is calculated.
  • the shooting geometry it is possible to generate a simulated X-ray image at an arbitrary projection angle.
  • the learning device 300 In the method of creating the trained model, the learning device 300 generates a plurality of reconstructed images 60 from one three-dimensional data (CT image data 80).
  • the number of generated reconstructed images 60 can be, for example, about 100,000.
  • the learning device 300 generates a plurality of reconstructed images 60 by making each parameter such as projection angle, projection coordinates, parameters for DRR image generation, contrast, and edge enhancement different from each other.
  • the plurality of reconstructed images 60 that are different from each other can be generated by, for example, an algorithm that randomly changes the above parameters to generate the reconstructed image 60.
  • the reconstructed image 60 since the superimposed image 67 superimposed on the projected image 61 including the image element 50 is created, the reconstructed image 60 does not include the image element 50 to be extracted, or even if the image element 50 is included. It does not have to have extractable contrast.
  • random and random number mean non-regularity and a non-regular sequence of numbers (set of numbers), but they do not have to be completely random and are pseudo-random. , Pseudo-random numbers shall be included.
  • step S12 of FIG. 9 a two-dimensional projection image 61 is generated from the three-dimensional model of the image element 50 to be extracted by the simulation.
  • the projected image 61 is a two-dimensional image representing the image element 50 to be extracted by the trained model 40.
  • the projected image 61 includes, for example, only the image element 50.
  • the learning device 300 acquires a three-dimensional model of the image element 50 to be extracted, and generates a projection image 61 from the three-dimensional model by simulation.
  • the three-dimensional model is created, for example, by performing CT imaging of an object including the image element 50 to be extracted, and extracting the image element 50 from the obtained CT data.
  • the three-dimensional model can be created by using, for example, a CT image database published by a research institution or the like.
  • the CT image database includes, for example, a lung CT image data set, LIDC / IDRI (The Lung Image Data base Consortium and Image Data Base Initiative) by the National Cancer Institute of the United States.
  • LIDC / IDRI The Lung Image Data base Consortium and Image Data Base Initiative
  • a brain CT image data set, a standardized three-dimensional model of the skeleton, and the like can be used.
  • the device 55 and the clothing 56 can be created by using the three-dimensional CAD data.
  • the three-dimensional model is, for example, three-dimensional image data including only the image element 50 to be extracted.
  • a projection image 61 can be created by acquiring two-dimensional data (X-ray image) that actually includes the image element 50 to be extracted and separating and extracting the image element 50 included in the acquired image.
  • the learning device 300 generates a plurality of two-dimensional projected images 61 by making parameters such as a projection direction, a translation amount, a rotation amount, a deformation amount, and a contrast different from each other with respect to a three-dimensional model or two-dimensional data.
  • the plurality of projected images 61 randomly change variable parameters such as translation amount, rotation amount, deformation amount, and contrast with respect to the original data (three-dimensional model, two-dimensional data, other projected images 61). It can be generated by the processing algorithm.
  • the learning device 300 generates a plurality of two-dimensional projected images 61 for each type of image element 50.
  • the learning device 300 generates a plurality of projection images 61 from one original data (three-dimensional data, two-dimensional data, or projection image 61).
  • the number of projected images 61 generated from one original data can be, for example, about 100,000.
  • step S13 the projection image 61 generated in step S12 is superimposed on the reconstructed image 60 generated in step S11 to generate a superimposed image 67 (see FIG. 10).
  • a superimposition image 67 including a projection image 61 of the image element 50 to be extracted is generated in the two-dimensional reconstructed image 60.
  • a plurality of superimposed images 67 are also generated by combining the plurality of reconstructed images 60 and the plurality of projected images 61.
  • One training data 66 includes a superposed image 67 and any of the reconstructed image 60 and the projected image 61 used to generate the superposed image 67.
  • Machine learning is performed in step S14 of FIG.
  • the superimposed image 67 is used as the teacher input data 64 input to the input layer 41 of the learning model LM of FIG.
  • the reconstructed image 60 or the projected image 61 is used as the teacher output data 65 input to the output layer 43 of the learning model.
  • the learning model LM learns to extract the image element 50 from the input image and generate the extracted image 21 that does not include the image element 50.
  • the teacher output data 65 is the projected image 61
  • the learning model LM learns to extract the image element 50 from the input image and generate the extracted image 21 representing the extracted image element 50.
  • the extracted image 21 can be an image containing only the image element 50.
  • Adopting 60 and adopting the projected image 61 can be considered to be equivalent from the viewpoint of image processing.
  • the reconstructed image 60 that actually includes the image element 50 to be extracted may be used as the teacher input data 64, and the projected image 61 of the image element 50 extracted from the reconstructed image 60 may be used as the teacher output data 65.
  • step S15 of FIG. 9 the learning device 300 determines whether or not machine learning is completed.
  • the learning device 300 determines that the machine learning is completed when, for example, all the learning data 66 are machine-learned a predetermined number of iterations.
  • the learning device 300 determines that machine learning is completed when, for example, the value of the evaluation function for evaluating the performance of the learning model LM becomes equal to or greater than a predetermined value.
  • the learning device 300 determines that the machine learning has not been completed, the learning data 66 is changed in step S16, and the machine learning in step S14 is executed using the next learning data 66.
  • the learned learning model LM is stored as the learned model 40 in step S17. This completes the creation of the trained model 40.
  • the created trained model 40 is recorded via a network or on a non-transient recording medium and provided to the image processing apparatus 100.
  • FIG. 12 shows an example in which the image element 50 is a bone 53.
  • the teacher input data 64 is, for example, a superimposed image 67 of the reconstructed image 60 not including the bone 53 and the projected image 61 including the bone 53.
  • the superimposed image 67 is generated by creating a projection image 61 from the CT image data 80 or a three-dimensional model of the skeleton and superimposing it on the reconstructed image 60 from which the bone 53 has been removed.
  • the reconstructed image 60 from which the bone 53 has been removed is generated by clipping (fixing) the CT value to zero for the pixels in the CT value range of the bone 53.
  • the CT value of the bone is generally about 200 HU to about 1000 HU, so the threshold value may be set to a predetermined value of about 0 HU to 200 HU.
  • the teacher output data 65 is a projection image 61 including only the bone 53.
  • the projection image 61 used for generating the superimposed image 67 is used.
  • the reconstructed image 60 generated from the CT image data 80 may be used as the teacher input data 64. Therefore, it is not always necessary to create the superimposed image 67.
  • the teacher output data 65 is the reconstructed image 60 including only the bone 53.
  • the reconstructed image 60 including only the bone 53 is generated by clipping the CT value to zero for a pixel having a CT value less than the CT value of the bone 53 among the reconstructed images 60 including the bone 53, for example. ..
  • the learning model LM learns to generate an extracted image 21 in which the bone 53 is extracted like the teacher output data 65 from the input image such as the teacher input data 64.
  • the image processing device 100 weights and subtracts the extracted image 21 generated by the trained model 40 with respect to the X-ray image 201 acquired by the X-ray photographing device 200. As a result, as shown in FIG. 13, a processed image 22 in which the image element 50 of the bone 53 is removed from the X-ray image 201 is generated. In FIG. 13, for convenience of explanation, the image element 50 of the removed bone 53 is shown by a broken line.
  • FIG. 14 shows an example in which the image element 50 is the device 55.
  • the device 55 is a guide wire.
  • the teacher input data 64 is a superimposed image 67 including the device 55.
  • the reconstructed image 60 generated from the CT image data 80 does not include the image element 50.
  • the projection image 61 of only the device 55 generated from the three-dimensional model of the device 55 is superimposed on the reconstructed image 60.
  • a superimposed image 67 including the device 55 is generated as shown in FIG.
  • a plurality of variations of the projection image 61 whose shape and the like are changed by a simulation may be created by taking a two-dimensional X-ray image of the device 55.
  • a plurality of superimposed images 67 are generated using the plurality of projected images 61.
  • the projected image 61 of the image element 50 determines the shape of the three-dimensional model of the device 55 based on random coordinate values. It is generated by simulating with the generated curve.
  • examples (A) to (I) in which a projected image 61 of the guide wire 55b holding the stent 55a is generated in a random shape by a curve simulation are shown.
  • the guide wire 55b in each projected image 61 is generated in a different shape by a Bezier curve with a random coordinate value as a base point.
  • the Bezier curve is a K-1 degree curve obtained from K control points (K is an integer of 3 or more).
  • K is an integer of 3 or more).
  • a large number of projection images 61 of devices 55 having various shapes can be generated by an algorithm that randomly specifies the coordinate values of K control points.
  • a plurality of single projection images 61 of the stent 55a placed in the body are generated by applying random translation, rotation, deformation, and contrast change to the three-dimensionally modeled pseudo-stent.
  • the teacher output data 65 is a projection image 61 including only the device 55.
  • the projection image 61 used for generating the superimposed image 67 is used.
  • the learning model LM learns to generate an extracted image 21 obtained by extracting the device 55 like the teacher output data 65 from an input image such as the teacher input data 64.
  • the image processing device 100 weights and adds the extracted image 21 generated by the trained model 40 to the X-ray image 201 acquired by the X-ray photographing device 200.
  • a processed image 22 in which the image element 50 of the device 55 is emphasized is generated from the X-ray image 201.
  • the device 55 is emphasized by showing the device 55 thicker than in FIG.
  • the enhancement process may include not only a process of increasing the pixel value but also a process of coloring and displaying the image element 50 of the device 55 by the image process before the inter-image calculation shown in FIG. 7.
  • FIG. 17 shows an example in which the image element 50 is noise 57.
  • the noise 57 is, for example, random noise, but is shown in FIG. 17 as a set of dotted lines in the horizontal direction for convenience of explanation.
  • the teacher input data 64 is a superimposed image 67 including noise 57.
  • the reconstructed image 60 generated from the CT image data 80 does not include the noise 57.
  • the randomly generated projection image 61 containing only the noise 57 is superimposed on the reconstructed image 60.
  • the superimposed image 67 including the noise 57 is generated as shown in FIG.
  • the noise 57 is created by randomly generating Gaussian noise that follows a Gaussian distribution and Poisson noise that follows a Poisson distribution for each projected image 61.
  • the teacher output data 65 is a projection image 61 containing only noise 57.
  • the projection image 61 used for generating the superimposed image 67 is used.
  • the learning model LM learns to generate an extracted image 21 in which noise 57 is extracted, such as teacher output data 65, from an input image such as teacher input data 64.
  • the image processing device 100 weights and subtracts the extracted image 21 generated by the trained model 40 with respect to the X-ray image 201 acquired by the X-ray photographing device 200.
  • a processed image 22 in which the image element 50 of the noise 57 is removed from the X-ray image 201 is generated.
  • the processed image 22 of FIG. 18 shows that the noise 57 has been removed from the X-ray image 201 including the noise 57 as in the teacher input data 64 of FIG.
  • FIG. 19 shows an example in which the image element 50 is a blood vessel 54.
  • the blood vessel 54 is a contrast-enhanced blood vessel imaged by introducing a contrast medium.
  • FIG. 19 shows an example of a cerebral blood vessel in the head, but other blood vessels may be used.
  • the blood vessels can be, for example, the coronary arteries of the heart.
  • the teacher input data 64 is a superposed image 67 including a blood vessel 54.
  • the reconstructed image 60 generated from the CT image data 80 taken without contrast medium contains almost no blood vessels 54 (does not have sufficient contrast).
  • the projection image 61 of only the blood vessel 54 generated from the three-dimensional model of the blood vessel 54 is superimposed on the reconstructed image 60.
  • a superimposed image 67 including the blood vessel 54 is generated as shown in FIG.
  • the projected image 61 of the image element 50 is generated by a simulation in which the shape of the three-dimensional model of the blood vessel 54 is randomly changed.
  • the blood vessels of the projected image 61 are subjected to random translation, rotation, deformation, contrast change, etc. by simulation. That is, similar to the device 55 shown in FIG. 16, a variation of the projected image 61 of the blood vessel 54 that has been randomly changed is generated.
  • the projected image 61 of the blood vessel 54 may be created from the CT image data of the contrast-enhanced blood vessel taken contrast-enhanced.
  • the teacher output data 65 is a projection image 61 including only the blood vessel 54.
  • the projection image 61 used for generating the superimposed image 67 is used.
  • the learning model LM learns to generate an extracted image 21 in which a blood vessel 54 is extracted like a teacher output data 65 from an input image such as a teacher input data 64.
  • the image processing device 100 weights and adds the extracted image 21 generated by the trained model 40 to the X-ray image 201 acquired by the X-ray photographing device 200.
  • a processed image 22 in which the image element 50 of the blood vessel 54 is emphasized is generated from the X-ray image 201.
  • the processed image 22 of FIG. 20 shows that the blood vessel 54 is highlighted in the X-ray image 201 including the image element 50 of the blood vessel 54 as in the teacher input data 64 of FIG.
  • FIG. 21 shows an example in which the image element 50 is clothing 56.
  • the image element 50 is clothing 56.
  • a button of the garment and a necklace worn by the subject are shown.
  • the teacher input data 64 is a superimposed image 67 including clothing 56.
  • the reconstructed image 60 generated from the CT image data 80 does not include clothing 56.
  • the projection image 61 of only the clothing 56 generated from the three-dimensional model of the clothing 56 is superimposed on the reconstructed image 60.
  • a superimposed image 67 including clothing 56 is generated.
  • the three-dimensional model of the clothing 56 may be created from the CT image of the clothing 56 alone, or may be created from, for example, CAD data.
  • a two-dimensional X-ray image of the clothing 56 may be taken to obtain a projected image 61.
  • the projected image 61 is subjected to random translation, rotation, deformation, contrast change, etc. by simulation.
  • the teacher output data 65 is a projection image 61 including only clothing 56.
  • the same data as the projection image 61 used for generating the superimposed image 67 is used.
  • the learning model LM learns to generate an extracted image 21 in which clothing 56 is extracted like the teacher output data 65 from an input image such as the teacher input data 64.
  • the image processing device 100 weights and subtracts the extracted image 21 generated by the trained model 40 with respect to the X-ray image 201 acquired by the X-ray photographing device 200. As a result, as shown in FIG. 22, a processed image 22 in which the image element 50 of the garment 56 is removed from the X-ray image 201 is generated. In FIG. 22, for convenience, the portion of the image element 50 of the removed clothing 56 is shown by a broken line to explain that it has been removed.
  • FIG. 23 shows an example in which the image element 50 is an X-ray scattered ray component 58.
  • the teacher input data 64 is a superposed image 67 including a scattered radiation component 58.
  • the scattered ray component 58 is not included in the reconstructed operation.
  • the projected image 61 of only the scattered ray component 58 generated by the Monte Carlo simulation modeling the shooting environment of the input image is superimposed on the reconstructed image 60.
  • the superimposed image 67 including the scattered radiation component 58 is generated.
  • each of the X-ray photons emitted from the X-ray irradiation unit 220 and detected by the X-ray detector 230 is calculated (simulated) as a stochastic phenomenon using a random number. That is, in the simulation, the physical properties related to the projection direction of X-rays, the shape (body shape) of the subject, and the interaction with photons are assumed.
  • the interaction such as absorption and scattering phenomenon that occurs when the X-ray photon passes through the subject is calculated by using a random number as a stochastic phenomenon.
  • a predetermined number of photons is calculated, and a projection image 61 formed by the X-ray photons detected by the virtual X-ray detector 230 is generated.
  • the predetermined number of photons may be a number sufficient for imaging, for example, about 10 billion.
  • a plurality of projected images 61 of the image element 50 are generated by changing the projection angle over the projection angle range that can be photographed by the X-ray imaging apparatus 200 in the imaging environment model 85. ..
  • the projection direction can be changed to the first direction 250 and the second direction 252 by moving the C arm 240. Therefore, as shown in FIG. 25, Monte Carlo with a plurality of projection angles changed to different angle values over the entire projection angle range of ⁇ ⁇ degrees in the first direction 250 and ⁇ ⁇ degrees in the second direction 252.
  • the projected image 61 by simulation is generated.
  • the projection angle may be changed at equal intervals over the entire projection angle range, or may be a value randomly changed by a predetermined number within the projection angle range. Further, the projected image 61 may be generated at an angle value outside the projection angle range and near the limit of the projection angle ( ⁇ ⁇ degree, ⁇ ⁇ degree).
  • a plurality of projected images 61 of the image element 50 which is the scattered radiation component 58, are generated by changing the energy spectrum of the virtual radiation source in the photographing environment model 85. That is, the projection image 61 is created by Monte Carlo simulation under a plurality of conditions in which the energy spectrum of the X-rays irradiated by the X-ray irradiation unit 220 assumed as the photographing environment model 85 is changed to different spectra.
  • the second energy spectrum 112 is a spectrum having a relatively higher energy than the first energy spectrum 111.
  • the horizontal axis of the graph shows the energy [keV] of X-ray photons
  • the vertical axis of the graph shows the relative intensity of X-rays (that is, the number of X-ray photons detected).
  • a beam hardening phenomenon that is relatively biased toward the high energy side occurs in the process of detecting the energy spectrum of the X-ray irradiated to the subject.
  • the reconstructed image 60 generated from the CT image data 80 cannot simulate the image quality change caused by the beam hardening phenomenon, but the projected image 61 by the Monte Carlo simulation can simulate the influence of the beam hardening phenomenon. It is possible.
  • FIG. 23 shows, as an example, a projection image 61 of the scattered radiation component 58 due to Compton scattering obtained by Monte Carlo simulation.
  • a scattered radiation component 58 other than Compton scattering such as Rayleigh scattering may be obtained.
  • the scattered radiation component 58 due to multiple scattering as well as single scattering may be obtained.
  • Machine learning may be performed so that these various scattered radiation components 58 are created as separate projection images 61 and extracted separately, or a projection image 61 that collectively displays the various scattered radiation components 58 is created. , Machine learning may be performed so as to collectively extract various scattered radiation components 58.
  • the teacher output data 65 is a projection image 61 containing only the scattered radiation component 58.
  • the same data as the projection image 61 used for generating the superimposed image 67 is used.
  • the learning model LM learns to generate an extracted image 21 in which the scattered ray component 58 is extracted like the teacher output data 65 from the input image such as the teacher input data 64.
  • the image processing device 100 weights and subtracts the extracted image 21 generated by the trained model 40 with respect to the X-ray image 201 acquired by the X-ray photographing device 200.
  • a processed image 22 in which the image element 50 of the scattered radiation component 58 is removed from the X-ray image 201 is generated. Since the scattered ray component 58 is a factor that lowers the contrast of the X-ray image, it is possible to improve the contrast in the processed image 22 by removing the scattered ray component 58.
  • the processed image 22 of FIG. 24 shows that the contrast is improved by removing the scattered ray component 58 from the X-ray image 201 whose contrast is lowered by the scattered ray component 58 as in the teacher input data 64 of FIG. 23. Shown.
  • each of the created teacher input data 64 and each teacher output data 65 is limited by a collimator (not shown) included in the X-ray imaging apparatus 200 (X-ray irradiation unit 220).
  • the collimator image 68 is included. In the collimator image 68, the image is formed only in a part of the area in the image, and the area shielded by the collimator does not include the image information.
  • a part of each teacher input data 64 and each teacher output data 65 shows the shape of the X-ray irradiation range (that is, the image area) and the influence of the collimator by simulation based on the image actually taken by the collimator.
  • a plurality of collimator images 68 in which the parameters of the received image quality are randomly different are included. Image quality parameters affected by the collimator include transparency (contrast), edge blur, and noise content.
  • the collimator image 68 is generated, for example, by removing an image portion outside the simulated irradiation range of the superimposed image 67, the reconstructed image 60, and the projected image 61, and performing image processing simulating the influence of the collimator. ..
  • the collimator image 68 may be generated from an image actually taken using a collimator. This makes it possible to improve the robustness of the extraction process of the image element 50 against changes in the X-ray irradiation range and changes in image quality due to the use of the collimator.
  • machine learning for each type of the image element 50 and generation of the processed image 22 by the image processing device 100 are performed.
  • each image element 50 and processed image 22 have been described individually.
  • the X-ray image 201 input to the image processing device 100 includes the above-mentioned bone 53, blood vessel 54, device 55, clothing 56, and noise 57.
  • a plurality of scattered ray components 58 are included.
  • the image processing device 100 generates an extracted image 21 in which individual image elements 50 are extracted from the input X-ray image 201 by the trained model 40, and performs inter-image calculation.
  • a processed image 22 in which each of the plurality of image elements 50 is emphasized or removed is generated.
  • the first extracted image 21-1 represents the bone 53
  • the second extracted image 21-2 represents the device 55
  • the fourth extracted image represents the blood vessel 54
  • the fifth extracted image represents the clothing 56
  • the sixth extracted image represents the noise 57. Represents the scattered radiation component 58.
  • the processed image 22 is applied to an X-ray image of the front of the chest of the subject by simple X-ray photography.
  • the bone 53, the noise 57, the clothing 56, and the scattered radiation component 58 are removed. Removal of bone 53 improves visibility of areas of interest such as the heart and lungs. Further, by removing the noise 57 and the scattered ray component 58, the visibility of the entire image is improved. Since the image element 50 of the clothing 56 can be removed, the subject can perform X-ray photography without removing the clothing, accessories, etc. containing metal or the like. This brings about useful effects such as improvement of work efficiency and reduction of waiting time of subjects when X-ray photography of a large number of subjects is continuously performed, for example, in a mass examination.
  • the processed image 22 is applied to an X-ray fluoroscopic image in X-ray interventional radiology (IVR) such as catheter treatment using an X-ray angiography apparatus.
  • IVR X-ray interventional radiology
  • the bone 53, the noise 57, and the scattered radiation component 58 are removed.
  • devices 55 such as catheters, guide wires and stents and blood vessels 54 are highlighted. The removal of the bone 53, the noise 57 and the scattered radiation component 58 improves the visibility of the fluoroscopic image.
  • the visibility of the area of interest in catheter treatment and the device being manipulated is improved.
  • the reconstructed image 60 in which the CT image data 80 is reconstructed into a two-dimensional projected image and the three-dimensional model of the image element 50 to be extracted by simulation are used.
  • the superimposed image 67 on which the generated two-dimensional projected image 61 is superimposed is used as the teacher input data 64, and the reconstructed image 60 or the projected image 61 is used as the teacher output data 65.
  • the teacher data can be prepared without actually preparing the CT image data 80 including the image element 50 to be extracted.
  • the teacher data can be prepared even for the image element 50 which is difficult to separate and extract even if it is included in the CT image data 80. ..
  • a plurality of image elements from the X-ray image 201 are used by using the trained model 40 trained in the process of extracting a specific image element 50 from the input image.
  • the 50 are extracted separately, and the processed image 22 is generated by performing an inter-image calculation using the plurality of extracted images 21 extracted for each image element 50 and the X-ray image 201.
  • various image elements 50 are separately extracted as the extracted image 21 from the input X-ray image 201, and each extracted image 21 is extracted as the X-ray image 201 according to the type of the extracted image element 50. Can be freely added or subtracted.
  • image processing can be performed on various image elements 50 and also on a plurality of image elements 50.
  • a plurality of superimposed images 67 are created for each of a plurality of image elements 50 that are different from each other, and the plurality of image elements 50 are a first element 51 that is a biological tissue and a second image element that is a non-living tissue. Includes element 52 and.
  • image processing for the image element 50 of the biological tissue such as the bone 53 and the blood vessel 54 and the image element 50 of the non-living tissue such as the device 55 introduced into the body and the clothing 56 worn by the subject are used.
  • By using such a trained model 40 in the image processing apparatus 100 it is possible to perform both image processing on the image element 50 of the living tissue and image processing on the image element 50 of the non-living tissue in a complex manner.
  • a plurality of superimposed images 67 are created for each of a plurality of image elements 50 different from each other, and the plurality of image elements 50 include a bone 53, a blood vessel 54, a device 55 introduced into the body, clothing 56, and the like. It contains at least a plurality of noise 57 and scattered X-ray component 58.
  • the image element 50 includes a linear or tubular device 55
  • the projected image 61 of the image element 50 is a curve generated by generating the shape of the three-dimensional model of the device 55 based on random coordinate values. It is generated by simulating with.
  • teacher data for learning the image element 50 of the device 55 which is long and bends into various shapes such as a guide wire and a catheter, can be generated in a large amount in various shapes by simulation.
  • efficient machine learning can be performed without actually preparing a large amount of three-dimensional CT data in which the device 55 is placed inside the subject.
  • the image element 50 includes the blood vessel 54, and the projected image 61 of the image element 50 is generated by a simulation in which the shape of the three-dimensional model of the blood vessel 54 is randomly changed.
  • teacher data for learning the image element 50 of the blood vessel 54 that bends into a long and complicated shape can be generated by simulation in a large amount and including various individual differences.
  • efficient machine learning can be performed without preparing a large amount of 3D CT data of various subjects.
  • the image element 50 includes the scattered X-ray component 58, and the projected image 61 of the image element 50 is generated by a Monte Carlo simulation modeling the shooting environment of the input image.
  • a projected image 61 of the scattered X-ray component 58 which is difficult to separate and extract from the actual 3D CT data and the 2D X-ray image 201, can be generated by Monte Carlo simulation.
  • a plurality of projected images 61 of the image element 50 are formed by changing the projection angle over the projection angle range ( ⁇ ⁇ , ⁇ ⁇ ) that can be photographed by the X-ray imaging apparatus 200 in the imaging environment model 85. Will be generated.
  • X-ray radiography can be performed at various projection angles. It is possible to create a highly versatile trained model 40 capable of effectively extracting the scattered ray component 58 even when the X-ray imaging is performed while changing the projection angle.
  • a plurality of projected images 61 of the image element 50 are generated by changing the energy spectrum of the virtual radiation source in the photographing environment model 85.
  • X-ray imaging is performed under various imaging conditions having different energy spectra depending on the imaging site, etc., but according to the above configuration, the X-ray image 201 is imaged with various energy spectra. Even if this is the case, a highly versatile trained model 40 capable of effectively extracting the scattered ray component 58 can be created.
  • machine learning includes inputting teacher input data 64 and teacher output data 65 created for each image element 50 to one learning model LM, and the trained model 40 is a trained model 40.
  • a plurality of image elements 50 are extracted from the input image without duplication, and the extracted plurality of image elements 50 and the residual image element 59 remaining after the extraction are output.
  • Doctors and the like who make a diagnosis using the X-ray image 201 find the basis of the diagnosis in the image information contained in the original image even if various image processes for improving the visibility are performed. According to the trained model 40 capable of extracting the image element 50 so as not to cause loss, a doctor or the like can provide a reliable image even when performing complex image processing.
  • a part or all of the plurality of extracted images 21 is image-processed separately, and the processed image 22 is a combination of the plurality of extracted images 21 after the image processing and the X-ray image 201. Generated by inter-image calculation.
  • the extracted image 21 of each extracted image element 50 can be independently corrected by utilizing the fact that a plurality of image elements 50 can be extracted separately using the trained model 40.
  • image processing such as complement processing can be performed.
  • the image processing algorithm becomes complicated and heavy, and the specific image element 50 becomes complicated. Other image elements 50 may be adversely affected.
  • the inter-image calculation includes weighting addition or weighting subtraction of each extracted image 21 with respect to the X-ray image 201.
  • the inter-image calculation includes weighting addition or weighting subtraction of each extracted image 21 with respect to the X-ray image 201.
  • the device for performing machine learning (learning device 300) and the image processing device 100 are separate devices, but the present invention is not limited to this.
  • machine learning may be performed in the image processing device.
  • the learning device 300 may be configured by a server computer provided on the cloud.
  • a plurality of image elements 50 may be extracted by a plurality of trained models.
  • one trained model 40 may be provided for each image element 50 to be extracted.
  • a trained model 40-1, a trained model 40-2, ..., A trained model 40-N are provided.
  • One trained model 40 extracts one (one type) image element 50.
  • a plurality of trained models 40 created so as to extract a plurality of image elements 50 may be provided.
  • the plurality of image elements 50 include at least a plurality of bone 53, blood vessel 54, device 55, clothing 56, noise 57, and scattered radiation component 58.
  • the image element 50 may include image elements other than bone 53, blood vessels 54, device 55, clothing 56, noise 57 and scattered radiation component 58.
  • the image element 50 may be a specific structural part such as a specific organ in the body. Further, for example, the image element 50 of the bone at a specific site in the bone 53 and the image element 50 of the blood vessel at the specific site among the blood vessels 54 may be extracted separately from other bones and other blood vessels.
  • the image element 50 may be free of bone 53, blood vessels 54, device 55, clothing 56, noise 57 and scattered radiation component 58.
  • the bone 53 is subjected to the removal treatment and the blood vessel 54 and the device 55 are subjected to the enhancement treatment by the inter-image calculation is shown, but the present invention is not limited to this.
  • the bone 53 may be highlighted, or one or both of the blood vessels 54 and the device 55 may be removed.
  • the inter-image operation may be addition or subtraction without weighting factors.
  • the enhancement process of the image element 50 may be performed by multiplication with or without a weighting factor.
  • the removal process of the image element 50 may be performed by division with or without a weighting factor.
  • a reconstructed image obtained by reconstructing 3D X-ray image data into a 2D projection image is generated.
  • a two-dimensional projection image is generated from the three-dimensional model of the image element to be extracted.
  • the projected image of the image element is superimposed on the reconstructed image to generate a superimposed image.
  • a trained model that performs a process of extracting the image element included in the input image is created. How to create a trained model.
  • (Item 2) A plurality of the superimposed images are created for each of a plurality of image elements that are different from each other.
  • a plurality of the superimposed images are created for each of a plurality of image elements that are different from each other.
  • the image element includes a linear or tubular device.
  • the image element includes blood vessels and The method for creating a trained model according to item 1, wherein the projected image of the image element is generated by a simulation in which the shape of a three-dimensional model of a blood vessel is randomly changed.
  • the image element contains a scattered X-ray component.
  • the machine learning includes inputting the teacher input data and the teacher output data created for each image element into one learning model.
  • the trained model is configured to extract the plurality of image elements from the input image without duplication, and output the extracted plurality of image elements and the residual image elements remaining after the extraction, respectively.
  • the method for creating a trained model according to item 1.
  • Image processing is performed separately on a part or all of the plurality of extracted images.
  • the image generation method according to item 10 wherein the processed image is generated by an inter-image calculation between the plurality of extracted images after image processing and the X-ray image.
  • the trained model is configured to extract the plurality of image elements from the input image without duplication, and output the extracted plurality of image elements and the residual image elements remaining after the extraction, respectively.
  • the trained model is pre-created by machine learning using a reconstructed image reconstructed from 3D image data into a 2D projected image and a projected image created from the 3D model of the image element by simulation.
  • the image generation method according to item 10.
  • An image acquisition unit that acquires X-ray images and An extraction processing unit that separately extracts a plurality of image elements from the X-ray image using a trained model trained in a process of extracting a specific image element from an input image, and an extraction processing unit.
  • An image processing device including an image generation unit for generating.
  • Image acquisition unit 20 Extraction processing unit 21 (21-1, 21-2, 21-N) Extracted image 22 Processed image 30
  • Image generation unit 40 (40-1, 40-2, 40-N) Trained model 50 images Element 51 1st element 52 2nd element 53 Bone 54 Vascular 55 Device 56 Clothing 57 Noise 58 Scattered ray component 59 Residual image element 60 Reconstructed image 61 Projection image 64
  • Teacher input data 65
  • Teacher output data 67
  • Superimposed image 80 3D X-ray image data
  • Shooting environment model 100
  • Image processing device 111 First energy spectrum (energy spectrum) 112 Second energy spectrum (energy spectrum) 200
  • X-ray imaging device 201 X-ray image LM learning model

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Image Analysis (AREA)

Abstract

この学習済みモデルの作成方法は、3次元X線画像データ(80)を再構成した再構成画像(60)を生成する。シミュレーションにより、画像要素(50)の3次元モデルから投影像(61)を生成する。投影像を再構成画像に重畳して重畳画像(67)を生成する。重畳画像と、再構成画像または投影像とで機械学習を行うことにより、学習済みモデル(40)を作成する。

Description

学習済みモデルの作成方法、画像生成方法および画像処理装置
 本発明は、学習済みモデルの作成方法、画像生成方法および画像処理装置に関する。
 従来、学習済みモデルを用いて画像処理を行う方法が知られている。このような方法は、たとえば、国際公開2019/138438号に開示されている。
 上記国際公開2019/138438号には、被験者の特定部位を含む領域のX線画像に対して、学習済みモデルを利用して変換を行うことにより、特定部位を表す画像を作成することが開示されている。上記国際公開2019/138438号には、特定部位として、被験者の骨部、造影剤が注入された血管、体内に留置されるステントが例示されている。学習済みモデルは、CT画像データから再構成した第1DRR(Digitally Reconstructed Radiography)画像と第2DRR画像とをそれぞれ教師入力画像と教師出力画像として機械学習を行うことにより作成される。学習済みモデルを用いた変換により得られた画像を元の画像から差分することにより、特定部位を除去した画像を生成できる。
国際公開2019/138438号
 上記国際公開2019/138438号では、特定部位として骨部を表す画像を作成すること、造影剤が注入された血管を表す画像を作成すること、体内に留置されるステントを表す画像を作成することという、特定の1種の画像要素(特定部位)に対して画像処理を行うことが開示されている。しかし、多様な利用シーンにおける医用画像の視認性向上のため、特定の1つの画像要素(特定部位)に限定された画像処理だけでなく、様々な画像要素に対して、かつ、複数の画像要素に対しても画像処理を行えるようにすることが望まれている。
 また、上記国際公開2019/138438号では、CT画像データから再構成した第1DRR画像および第2DRR画像を用いて機械学習を行うため、抽出すべき画像要素(特定部位)を実際に含んだCT画像データを準備する必要がある。様々な画像要素に対する機械学習を効率的に行うためには、抽出すべき画像要素を実際に含んだCT画像データの利用に限定されずに機械学習を行えるようにすることや、CT画像データに含まれていてもその画像要素のみを分離抽出することが困難な画像要素についても機械学習を行えるようにすることが望まれる。
 この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、様々な画像要素に対して、かつ、複数の画像要素に対しても画像処理を行うことが可能な画像生成方法および画像処理装置を提供すること、および、そのような画像処理に用いる学習済みモデルの作成を効率的に行うことが可能な学習済みモデルの作成方法を提供することである。
 上記目的を達成するために、この発明の第1の局面における学習済みモデルの作成方法は、3次元X線画像データを2次元の投影画像に再構成した再構成画像を生成し、シミュレーションにより、抽出対象となる画像要素の3次元モデルから2次元の投影像を生成し、画像要素の投影像を再構成画像に重畳して重畳画像を生成し、重畳画像を教師入力データとし、再構成画像または投影像を教師出力データとして機械学習を行うことにより、入力画像に含まれる画像要素を抽出する処理を行う学習済みモデルを作成する。
 この発明の第2の局面における画像生成方法は、入力画像中から特定の画像要素を抽出する処理を学習させた学習済みモデルを用いて、X線画像から複数の画像要素を別々に抽出し、画像要素毎に抽出された複数の抽出画像と、X線画像と、を用いた画像間演算を行うことにより、X線画像に含まれる各画像要素に画像処理が行われた処理画像を生成する。
 この発明の第3の局面における画像処理装置は、X線画像を取得する画像取得部と、入力画像中から特定の画像要素を抽出する処理を学習させた学習済みモデルを用いて、X線画像から複数の画像要素を別々に抽出する抽出処理部と、画像要素毎に抽出された複数の抽出画像と、X線画像と、を用いた画像間演算を行うことにより、X線画像に含まれる各画像要素に画像処理が行われた処理画像を生成する画像生成部と、を備える。
 なお、本明細書において、画像要素を「抽出する処理」とは、当該画像要素の抽出により、抽出した画像要素を表す画像を生成すること、および、抽出により当該画像要素が除去されたX線画像を生成すること、の両方を含む広い概念である。より具体的には、画像要素を「抽出する処理」とは、当該画像要素のみの画像を生成することと、元のX線画像から当該画像要素を除去した画像を生成することと、を含む。また、「画像間演算」とは、ある画像と別の画像とで互いに加算、減算、乗算、除算等の演算を行うことにより、1つの画像を生成することを意味する。より具体的には、「画像間演算」とは、複数の画像の間で、対応する画素毎に画素値の演算処理を行って、演算後の画像におけるその画素の画素値を決定することを意味する。
 上記第1の局面における学習済みモデルの作成方法によれば、3次元X線画像データを2次元の投影画像に再構成した再構成画像と、シミュレーションにより、抽出対象となる画像要素の3次元モデルから生成した2次元の投影像とを重畳した重畳画像を教師入力データとし、再構成画像または投影像を教師出力データとするので、3次元X線画像データが抽出対象となる画像要素を含んでいなくても、シミュレーションにより生成した抽出対象の画像要素を用いて機械学習を行える。つまり、抽出すべき画像要素を実際に含んだCT画像データを準備しなくても、教師データを用意することができる。また、シミュレーションにより抽出対象の画像要素の投影像を生成するので、CT画像データに含まれているが分離抽出することが困難な画像要素についても、教師データを用意することができる。その結果、様々な画像要素に対して、かつ、複数の画像要素に対して画像処理を行うための学習済みモデルの作成を効率的に行うことができる。
 また、上記第2の局面における画像生成方法および上記第3の局面における画像処理装置によれば、入力画像中から特定の画像要素を抽出する処理を学習させた学習済みモデルを用いて、X線画像から複数の画像要素を別々に抽出し、画像要素毎に抽出された複数の抽出画像と、X線画像と、を用いた画像間演算を行うことにより処理画像を生成するので、入力されたX線画像から様々な画像要素を抽出画像として別々に抽出した上で、抽出された画像要素の種類に応じて、それぞれの抽出画像をX線画像に対して自由に加算したり減算したりすることができる。その結果、様々な画像要素に対して、かつ、複数の画像要素に対しても画像処理を行うことができる。
一実施形態による画像処理装置を示したブロック図である。 X線撮影装置の一例を示した図である。 学習モデルに対する機械学習および学習済みモデルを説明するための図である。 画像要素の例を示した図である。 学習済みモデルによる画像要素の抽出の第1の例を示した図である。 学習済みモデルによる画像要素の抽出の第2の例および処理画像の生成を示した図である。 図6と異なり抽出画像に対して画像処理を行う例を示した図である。 一実施形態による画像生成方法を説明するためのフローチャートである。 一実施形態による学習済みモデルの作成方法を説明するためのフローチャートである。 機械学習に用いる重畳画像の生成を説明するための図である。 再構成画像の生成方法を説明するための図である。 画像要素が骨である場合の教師入力データおよび教師出力データの例を示した図である。 画像要素が骨である場合の処理画像の例を示した図である。 画像要素がデバイスである場合の教師入力データおよび教師出力データの例を示した図である。 画像要素がデバイスである場合の処理画像の例を示した図である。 3次元モデルから生成したデバイスの投影像のバリエーション(A)~(I)を示した図である。 画像要素がノイズである場合の教師入力データおよび教師出力データの例を示した図である。 画像要素がノイズである場合の処理画像の例を示した図である。 画像要素が血管である場合の教師入力データおよび教師出力データの例を示した図である。 画像要素が血管である場合の処理画像の例を示した図である。 画像要素が衣類である場合の教師入力データおよび教師出力データの例を示した図である。 画像要素が衣類である場合の処理画像の例を示した図である。 画像要素がX線の散乱線成分である場合の教師入力データおよび教師出力データの例を示した図である。 画像要素がX線の散乱線成分である場合の処理画像の例を示した図である。 モンテカルロシミュレーションにおけるX線の第1方向(A)および第2方向(B)における投影角度範囲を示した図である。 モンテカルロシミュレーションにおけるX線のエネルギースペクトルの第1の例を示した図である。 モンテカルロシミュレーションにおけるX線のエネルギースペクトルの第2の例を示した図である。 教師入力データおよび教師出力データに用いるコリメータ画像の一例を示した図である。 複数の学習済みモデルにより画像要素を抽出する例を示した図である。
 以下、本発明を具体化した実施形態を図面に基づいて説明する。
 図1~図28を参照して、一実施形態による画像処理装置100の構成、一実施形態の画像生成方法、一実施形態の学習済みモデルの作成方法について説明する。
 (画像処理装置の構成)
 まず、図1を参照して、画像処理装置100の構成について説明する。
 画像処理装置100は、機械学習により作成された学習済みモデル40を用いて、X線画像201に含まれる画像要素50を抽出し、抽出した画像要素50を用いてX線画像201の画像処理を行うように構成されている。画像処理装置100は、X線撮影装置200により撮影されたX線画像201を入力とし、X線画像201に含まれる各画像要素50に画像処理が行われた処理画像22を出力として生成する。
 図1に示すように、画像処理装置100は、画像取得部10と、抽出処理部20と、画像生成部30と、を備える。画像処理装置100は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などの1つ又は複数のプロセッサ101と、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの1つ又は複数の記憶部102と、を備えたコンピュータにより構成されている。画像処理装置100は、表示装置103と接続されている。
 画像取得部10は、X線画像201を取得するように構成されている。画像取得部10は、たとえば、外部装置と画像処理装置100とを通信可能に接続するためのインターフェースにより構成される。画像取得部10は、インターフェースは、LAN(Local Area Network)などの通信インターフェースを含みうる。画像取得部10は、HDMI(登録商標)、Display Port、USBポートなどの入出力インターフェースを含みうる。画像取得部10は、通信により、X線撮影装置200から、または、ネットワークを介して接続されたサーバ装置からX線画像201を取得することができる。
 X線画像201は、X線撮影装置200により患者または被験者を撮影した医用画像である。X線画像201は、静止画像または動画像のいずれでもよい。動画像は、所定のフレームレートで撮影された静止画像の集まりである。X線画像201は、2次元画像である。X線画像201は、単純X線撮影、透視撮影、血管造影撮影などにより撮影された各種の画像でありうる。
 抽出処理部20は、記憶部102に記憶された学習済みモデル40を用いて、X線画像201から複数の画像要素50を別々に抽出するように構成されている。学習済みモデル40は、入力画像中から特定の画像要素50を抽出する処理を学習させた学習済みモデルである。
 画像要素50は、X線画像201を構成する画像部分または画像情報であって、同一または同種のまとまりとして定義されるものである。画像要素50は、解剖学的に分類される人体の部位でありうる。そのような画像要素50は、たとえば骨、血管などの生体組織である。画像要素50は、手術などにおいて被験者の体内に導入または留置される物体でありうる。そのような画像要素50は、たとえば体内に導入されるカテーテル、ガイドワイヤ、ステント、手術器具、固定具などのデバイスでありうる。画像要素50は、X線撮影における画像化処理に際して発生するノイズ、アーチファクト、X線の散乱線成分などでありうる。画像要素50は、被験者が身に着けており撮影時に写り込んだ衣類でありうる。なお、衣類とは、衣服、装飾品その他の装着物を含む概念である。X線画像201には、たとえば衣類のボタン、ファスナー、アクセサリ、金具部分などが写り込む。
 学習済みモデル40は、入力画像中から特定の画像要素50を抽出する処理を学習させる機械学習により予め作成されている。抽出処理部20は、1つまたは複数の学習済みモデル40を用いて画像要素50の抽出を行う。これにより、抽出処理部20は、X線画像201から別々の画像要素50を抽出した複数の抽出画像21を生成する。たとえば第1の抽出画像21には、第1の画像要素50が含まれ、第2の抽出画像21には、第1の画像要素50とは異なる第2の画像要素50が含まれる。学習済みモデル40の作成方法については、後述する。
 画像生成部30は、画像要素50毎に抽出された複数の抽出画像21と、X線画像201と、を用いた画像間演算を行うことにより、X線画像201に含まれる各画像要素50に画像処理が行われた処理画像22を生成するように構成されている。画像処理は、たとえば画像要素50の強調処理または画像要素50の除去処理を含む。なお、強調処理は、当該画像要素50に属する画素の画素値を相対的に高くする処理である。除去処理は、当該画像要素50に属する画素の画素値を相対的に低くする処理である。除去処理は、画像中から完全に除去することのみならず、部分的な除去により視認性を低下させることを含む。また、強調処理は、たとえばエッジ強調処理でありうる。除去処理は、ノイズ除去処理でありうる。
 画像間演算とは、複数の抽出画像21と、X線画像201との間で、対応する画素毎に画素値の演算を行うことにより、処理画像22における対応する画素の画素値を決定することである。演算の内容は、特に限定されないが、たとえば、加算、減算、乗算および除算の四則演算でありうる。本実施形態では、画像間演算は、X線画像201に対する、個々の抽出画像21の重み付け加算または重み付け減算を行うことを含む。X線画像201に抽出画像21の重み付け加算を行うことにより、X線画像201に含まれる画像要素50の強調処理を行える。X線画像201に抽出画像21の重み付け減算を行うことにより、X線画像201に含まれる画像要素50の除去処理を行える。重みの値を調整することにより、画像要素50の強調度合いまたは除去度合いを最適化できる。
 図1の例では、プロセッサ101が、記憶部102に記憶されたプログラム(図示せず)を実行することにより、抽出処理部20および画像生成部30として機能する。すなわち、図1の例では、抽出処理部20および画像生成部30がプロセッサ101の機能ブロックとして実現されている。抽出処理部20および画像生成部30が個別のハードウェアとして構成されていてもよい。
 なお、個別のハードウェアとは、抽出処理部20および画像生成部30が別々のプロセッサによって構成されることを含む。個別のハードウェアとは、画像処理装置100が複数台のコンピュータ(PC)を含み、抽出処理部として機能するコンピュータ(PC)と、画像生成部として機能するコンピュータ(PC)とが、別々に設けられることを含む。
 画像処理装置100は、画像生成部30により生成された処理画像22を、表示装置103に表示させる。画像処理装置100は、たとえば、生成された処理画像22を、ネットワークを介してサーバ装置に送信する。画像処理装置100は、たとえば、生成された処理画像22を記憶部102に記録する。
 X線撮影装置200の構成例を図2に示す。図2は、血管透視撮影を行うことが可能な血管X線撮影装置の例を示している。X線撮影装置200は、天板210と、X線照射部220と、X線検出器230とを含んでいる。天板210は、被写体1(人)を支持するように構成されている。X線照射部220は、X線管球などのX線源を含み、X線検出器230に向けてX線を照射するように構成されている。X線検出器230は、たとえばFPD(Flat Panel Detector)により構成され、X線照射部220から照射され、被写体1を透過したX線を検出するように構成されている。
 図2の例では、X線照射部220と、X線検出器230とはCアーム240に保持されている。Cアーム240は、弧状のアーム部に沿って第1方向250に移動可能かつ回転軸線251回りに第2方向252に回転可能である。これにより、X線撮影装置200は、X線照射部220からX線検出器230に向かうX線の投影方向を、第1方向250および第2方向252にそれぞれ所定角度範囲ずつ変更することができる。
 (学習済みモデル)
 図1に示したように、X線画像201に含まれる画像要素50の抽出処理は、機械学習によって作成された学習済みモデル40によって実施される。学習済みモデル40は、図3に示すように、入力された画像から、予め学習された画像要素50を抽出し、抽出した画像要素50のみを表示した抽出画像21を出力する。
 本実施形態では、学習済みモデル40は、3次元画像データから2次元の投影画像に再構成した再構成画像60と、シミュレーションにより画像要素50の3次元モデルから作成された投影像61とを用いて機械学習により予め作成されている。
 機械学習法として、全層畳み込みニューラルネットワーク(FullyConvolutionalNetworks;FCN)、ニューラルネットワーク、サポートベクターマシン(SVM)、ブースティング等の任意の手法を用いることができる。本実施形態の学習モデルLM(学習済みモデル40)には、畳み込みニューラルネットワーク、より好ましくは、全層畳み込みニューラルネットワークを用いるとよい。そのような学習モデルLM(学習済みモデル40)は、画像が入力される入力層41、畳み込み層42、出力層43を含んで構成される。
 学習済みモデル40を作成するためには、教師入力データ64と教師出力データ65とを含んだ学習データ66を用いた機械学習が行われる。1つの学習データ66に含まれる教師入力データ64と教師出力データ65とは、同一の画像要素50についての抽出前のデータと抽出後のデータとの関係にある。
 機械学習は、抽出される複数の画像要素50について、画像要素毎に行われる。つまり、抽出すべき画像要素50毎に、学習データ66が準備される。
 図4に示すように、複数の画像要素50は、生体組織である第1要素51と、非生体組織である第2要素52とを含む。また、複数の画像要素50は、骨53、血管54、体内に導入されるデバイス55、衣類56、ノイズ57およびX線の散乱線成分58のうち少なくとも複数を含む。これらの内、骨53および血管54が、第1要素51に該当する。第1要素51は、骨53、血管54以外の生体組織を含んでもよい。これらの内、体内に導入されるデバイス55、衣類56、ノイズ57およびX線の散乱線成分58が、第2要素52に該当する。第2要素52は、デバイス55、衣類56、ノイズ57および散乱線成分58以外の画像要素を含んでもよい。
 図5に示す例では、1つの学習済みモデル40が、複数の画像要素50を別々に抽出するように構成されている。学習済みモデル40は、1つの入力チャネルと、複数(N個)の出力チャネルとを有する。Nは、2以上の整数である。学習済みモデル40は、入力チャネルに、X線画像201が入力されると、N個の画像要素50を別々に抽出する。学習済みモデル40は、抽出した1番目~N番目の画像要素50を、N個の出力チャネルから、それぞれ第1抽出画像21-1~第N抽出画像21-Nとして出力する。
 図5とは異なる例として、図6の例では、学習済みモデル40は、1つの入力チャネルと、N+1個の出力チャネルとを有する。学習済みモデル40は、入力チャネルにX線画像201が入力されると、入力画像から複数(N個)の画像要素50を重複なしで抽出する。重複なしとは、いずれかの抽出画像(たとえば第1抽出画像21-1)に抽出された画像情報が、他の抽出画像(たとえば第2抽出画像21-2~第N抽出画像21-N)には含まれることがないことを意味する。学習済みモデル40は、抽出した1番目~N番目の画像要素をそれぞれ第1抽出画像21-1~第N抽出画像21-Nとして出力する。そして、学習済みモデル40は、抽出後に残る残余画像要素59を、N+1番目の出力チャネルから第N+1抽出画像21xとして出力する。
 この場合、第1抽出画像21-1~第N抽出画像21-Nは、互いに同一の画像情報を含まない。そして、入力されたX線画像201のうち、抽出されずに残る画像情報は第N+1抽出画像21xに含まれる。そのため、第1抽出画像21-1~第N抽出画像21-Nと第N+1抽出画像21xとを加算すると、元のX線画像201に戻ることになる。
 このように、図6の例では、学習済みモデル40は、入力画像から複数の画像要素50を重複なしで抽出し、抽出した複数の画像要素50と、抽出後に残る残余画像要素59と、をそれぞれ出力するように構成されている。この結果、入力画像と比べて、抽出処理によって抽出された画像情報の合計が増えることも減ることもない。
 図6に示すように、画像生成部30(図1参照)は、入力されたX線画像201に対して、第1抽出画像21-1~第N抽出画像21-Nに重み係数23を加味して加算または減算する画像間演算を行い、処理画像22を生成する。残余画像要素59を表す第N+1抽出画像21xは、画像処理には用いる必要がない。重み係数23としては、第1抽出画像21-1~第N抽出画像21-Nのそれぞれに対応して、係数w1~wnが個別に設定される。重み係数23は、たとえば、予め記憶部102に設定された固定値でありうる。ただし、処理画像22の用途などに応じて、複数種類の重み係数が設定されていてもよい。たとえば、処理モードAでは第1抽出画像21-1に重み係数23の第1の設定値が使用され、処理モードBでは第1抽出画像21-1に重み係数23の第2の設定値が使用される、といった具合である。また、重み係数23は、ユーザの操作入力に応じて任意の値に設定可能であってもよい。
 図7に示すように、各抽出画像21とX線画像201との画像間演算を行う前に、それぞれの抽出画像21に対して画像処理を行ってもよい。図7の例では、画像生成部30は、複数の抽出画像21の一部または全部に対して、別々に画像処理を行うように構成されている。処理画像22は、画像処理後の複数の抽出画像21と、X線画像201との画像間演算により生成される。
 たとえば図7では、画像生成部30は、第1抽出画像21-1に対して第1画像処理25-1を行い、第2抽出画像21-2に対して第2画像処理25-2を行い、・・・、第N抽出画像21-Nに対して第N画像処理25-Nを行う。画像要素50によっては画像処理を行う必要がない場合もあるので、一部の抽出画像21に対してのみ画像処理を行ってもよい。
 個々の抽出画像に対して行う画像処理は、特に限定されないが、たとえば画像補正処理または画像補間処理でありうる。画像補正処理は、エッジ強調処理、ノイズ除去処理を含みうる。画像補正処理は、たとえばコントラスト調整、線強調処理、平滑化処理などでありうる。画像補間処理は、たとえばガイドワイヤやカテーテルなどX線画像201中で写りにくいために途中で途切れたように見える画像要素50について、途切れた部分を補間する処理である。コントラスト調整や線強調処理などは、画像要素50毎に、適切なパラメータが異なり、全ての画像要素50を一括で処理することは困難であるが、個々の抽出画像21に対して画像処理を行うことによって、1つ1つの画像要素50に最適な画像処理が行われる。
 (画像生成方法)
 次に、図8を参照して、本実施形態の画像生成方法について説明する。画像生成方法は、画像処理装置100によって実施することができる。本実施形態の画像生成方法は、少なくとも、図8に示した以下のステップS2およびステップS5を備える。
(S2)入力画像中から特定の画像要素50を抽出する処理を学習させた学習済みモデル40を用いて、X線画像201から複数の画像要素50を別々に抽出する。
(S5)画像要素50毎に抽出された複数の抽出画像21と、X線画像201と、を用いた画像間演算を行うことにより、X線画像201に含まれる各画像要素50に画像処理が行われた処理画像22を生成する。
 また、本実施形態の画像生成方法は、図8に示したステップS1、S3、S4、S6をさらに備えていてもよい。
 ステップS1において、X線画像201を取得する。具体的には、画像取得部10(図1参照)が、たとえば図2に示したX線撮影装置200によって撮影されたX線画像201を、X線撮影装置200またはサーバ装置との通信によって取得する。
 ステップS2では、抽出処理部20が、学習済みモデル40を用いて、X線画像201から複数の画像要素50を別々に抽出する。抽出処理部20は、ステップS1で取得したX線画像201を学習済みモデル40に入力する。これにより、学習済みモデル40が、図5または図6に示したように第1抽出画像21-1~第N抽出画像21-Nを出力する。
 ステップS3において、図7に示したように、抽出された複数の抽出画像21の一部または全部に対して、画像処理を行ってもよい。この場合、画像生成部30が、画像処理の対象となる抽出画像21に対して、予め設定された画像処理を所定のパラメータで実行する。画像処理を行うか否かを、ユーザからの入力に応じて決定してもよい。画像処理を行うか否かを、抽出画像21の画像品質に応じて決定してもよい。ステップS3は実行しなくてもよい。
 ステップS4において、画像生成部30が、抽出画像21毎に、演算パラメータを取得する。演算パラメータは、たとえば重み係数23の設定値、演算方法の設定値を含む。演算方法の設定値は、対象となる抽出画像21について、重み付け加算(すなわち、画像要素50の強調処理)を行うか、重み付け減算(すなわち、画像要素50の除去処理)を行うか、を表す。演算方法の設定値および重み係数23の設定値は、抽出される画像要素50の種類毎に記憶部102に予め設定される。
 ステップS5では、画像生成部30が、画像要素50毎に抽出された複数の抽出画像21と、X線画像201と、を用いた画像間演算を行う。画像生成部30は、ステップS4で取得したパラメータに従って画像間演算を行う。画像生成部30は、第1抽出画像21-1~第N抽出画像21-Nの各々について、それぞれ対応する重み係数23を乗算して、それぞれ対応する演算方法によってX線画像201に対する画像間演算を行う。その結果、各抽出画像21によって重み付け加算または重み付け減算されたX線画像201が、処理画像22として生成される。これにより、画像生成部30が、X線画像201に含まれる各画像要素50に強調処理または除去処理である画像処理が行われた処理画像22(図6または図7参照)を生成する。
 ステップS6において、画像処理装置100は、処理画像22を出力する。画像処理装置100は、表示装置103、またはサーバ装置に処理画像22を出力する。また、画像処理装置100は、記憶部102に処理画像22を記憶する。
 処理画像22を表示装置103に表示させた後、画像生成部30は、演算パラメータを変更する操作入力を受け付けてもよい。たとえば画像生成部30は、重み係数23の値の入力を受け付けてもよいし、別のプリセットパラメータの選択を受け付けてもよい。たとえば画像生成部30は、ステップS3における画像処理のパラメータの変更を受け付けてもよい。そして、画像生成部30は、ユーザの操作入力に応じて、変更後のパラメータを用いて処理画像22を生成し直してもよい。
 (学習済みモデルの作成方法)
 次に、学習済みモデルの作成方法について説明する。学習済みモデル40の作成は、画像処理装置100のプロセッサ101によって実施してもよいが、機械学習用のコンピュータ(学習装置300、図10参照)を用いて実行されうる。
 図9および図10に示すように、本実施形態の学習済みモデルの作成方法は、以下のステップS11~S14を含む。
(S11)CT(コンピュータ断層撮影)画像データ80を2次元の投影画像に再構成した再構成画像60を生成する。CT画像データ80は、「3次元X線画像データ」の一例である。
(S12)シミュレーションにより、抽出対象となる画像要素50の3次元モデルから2次元の投影像61を生成する。
(S13)画像要素50の投影像61を再構成画像60に重畳して重畳画像67を生成する。
(S14)重畳画像67を教師入力データ64(図3参照)とし、再構成画像60または投影像61を教師出力データ65(図3参照)として機械学習を行うことにより、入力画像に含まれる画像要素50を抽出する処理を行う学習済みモデル40(図3参照)を作成する。
 本実施形態では、機械学習は、1つの学習モデルLMに対して、画像要素50毎に作成された教師入力データ64(図3参照)および教師出力データ65(図3参照)を入力することを含む。抽出対象となる画像要素50毎に、別々の学習モデルLMに対して機械学習を行ってもよい。
 まず、図10のステップS10において、CT画像データ80が取得される。CT画像データ80は、被写体1をCT撮影することにより得られた、被写体1の3次元構造を反映した3次元画像データである。CT画像データ80は、3次元位置座標と、当該位置座標におけるCT値とを含むボクセルデータの3次元集合体である。血管などの動く(拍動する)部分の画像要素については、3次元情報に時間変化も含めた4次元の4D-CTデータを用いてもよい。これにより、時間に伴って動く対象でも精度よく学習を行うことが可能である。
 ステップS11において、CT画像データ80を2次元の投影画像に再構成した再構成画像60が生成される。
 再構成画像60は、CT画像データ80から生成されるDRR画像である。DRR画像は、図2に示したようなX線撮影装置200のX線照射部220とX線検出器230との幾何学的投影条件を模擬した仮想的透視投影によって2次元投影画像として作成される模擬X線画像である。
 具体的には、図11に示すように、3次元仮想空間上において、仮想X線管91と仮想X線検出器92とを、CT画像データ80に対して所定の投影方向となるように仮想的に配置することによって、仮想的なX線撮影系の3次元空間的配置(撮影ジオメトリ)を生成する。これらのCT画像データ80と、仮想X線管91および仮想X線検出器92との配置は、図2に示した実際の被写体1と、X線照射部220およびX線検出器230との配置と同一の撮影ジオメトリとされる。なお、撮影ジオメトリとは、被写体1とX線照射部220およびX線検出器230との3次元空間における幾何学的な配置関係を意味する。
 そして、仮想X線管91から照射されたX線が仮想X線検出器92に到達するまでに通過した各ボクセルにおけるCT値の合計を加算することによって、再構成画像60における各画素の画素値が算出される。撮影ジオメトリを変更することによって、任意の投影角度における模擬X線画像を生成することができる。
 学習済みモデルの作成方法では、学習装置300により、1つの3次元データ(CT画像データ80)から、複数の再構成画像60が生成される。再構成画像60の生成数は、たとえば、約10万程度でありうる。学習装置300は、投影角度、投影座標、DRR画像生成のためのパラメータ、コントラスト、エッジ強調などの各パラメータを互いに異ならせて、複数の再構成画像60を生成する。互いに異ならせた複数の再構成画像60は、たとえば上記のパラメータをランダムに変更して再構成画像60を生成するアルゴリズムにより生成されうる。
 本実施形態では、画像要素50を含む投影像61と重畳した重畳画像67を作成するので、再構成画像60は、抽出対象となる画像要素50を含まないか、画像要素50を含んでいても抽出可能なコントラストを有していなくてもよい。
 また、本明細書において、「ランダム」、「乱数」という用語は、規則性がないこと、規則性がない数列(数の集合)を意味するが、完全にランダムである必要はなく、擬似ランダム、擬似乱数を含むものとする。
 図9のステップS12において、シミュレーションにより、抽出対象となる画像要素50の3次元モデルから2次元の投影像61が生成される。
 投影像61は、学習済みモデル40による抽出の対象となる画像要素50を表す2次元画像である。投影像61は、たとえば画像要素50のみを含む。学習装置300は、抽出対象となる画像要素50の3次元モデルを取得し、3次元モデルからシミュレーションにより投影像61を生成する。
 3次元モデルは、たとえば、抽出対象となる画像要素50を含む対象物のCT撮影を行い、得られたCTデータから画像要素50を抽出することにより作成される。3次元モデルは、たとえば、研究機関等により公開されているCT画像データベースを利用して作成しうる。CT画像データベースは、たとえば、肺部CT画像データセットとして、米国国立がん研究所によるLIDC/IDRI(The Lung Image Data base Consortium and Image Database Resource Initiative)がある。この他にも、脳CT画像データセットや、標準化された骨格の3次元モデルなどを利用しうる。また、デバイス55、衣類56については、3次元CADデータを利用して作成しうる。3次元モデルは、たとえば、抽出対象となる画像要素50のみを含む3次元画像データである。
 なお、機械学習に用いる全ての投影像61を、3次元モデルからシミュレーションにより生成する必要はない。抽出すべき画像要素50を実際に含んだ2次元データ(X線画像)を取得し、取得された画像に含まれる画像要素50を分離抽出することにより、投影像61を作成しうる。
 学習装置300は、3次元モデルまたは2次元データに対して、投影方向、平行移動量、回転量、変形量、コントラストなどのパラメータを互いに異ならせて、2次元の投影像61を複数生成する。複数の投影像61は、元になるデータ(3次元モデル、2次元データ、他の投影像61)に対して、平行移動量、回転量、変形量、コントラストなどの可変パラメータをランダムに変更する処理を行うアルゴリズムによって生成されうる。
 学習装置300は、画像要素50の種類毎に、複数ずつ、2次元の投影像61を生成する。学習装置300は、1つの元データ(3次元データ、2次元データまたは投影像61)から、複数の投影像61を生成する。1つの元データからの投影像61の生成数は、たとえば、約10万程度でありうる。
 ステップS13において、ステップS12で生成した投影像61を、ステップS11で生成した再構成画像60に重畳して、重畳画像67(図10参照)を生成する。重畳により、2次元の再構成画像60中に、抽出すべき画像要素50の投影像61を含んだ重畳画像67が生成される。複数の再構成画像60と複数の投影像61との組み合わせにより、重畳画像67も複数生成される。1つの学習データ66(図3参照)は、重畳画像67と、その重畳画像67の生成に使用した再構成画像60および投影像61のうちのいずれかと、を含む。
 図9のステップS14において、機械学習が行われる。図3の学習モデルLMの入力層41に入力される教師入力データ64として、重畳画像67が使用される。そして、学習モデルの出力層43に入力される教師出力データ65として、再構成画像60または投影像61が使用される。
 教師出力データ65が再構成画像60である場合、学習モデルLMは、入力画像から画像要素50を抽出して、当該画像要素50を含まない抽出画像21を生成することを学習する。教師出力データ65が投影像61である場合、学習モデルLMは、入力画像から画像要素50を抽出して、抽出した画像要素50を表す抽出画像21を生成することを学習する。抽出画像21は、画像要素50のみを含む画像でありうる。なお、画像要素50を含まない処理画像22を生成し、入力されたX線画像201から減算することにより、抽出した画像要素50のみを含む画像が生成できることから、教師出力データ65として再構成画像60を採用することと、投影像61を採用することとは、画像処理の観点で同等と考えることができる。
 なお、機械学習に用いる全ての学習データ66を、重畳画像67により作成する必要はない。抽出すべき画像要素50を実際に含んだ再構成画像60を教師入力データ64とし、その再構成画像60から抽出した画像要素50の投影像61を教師出力データ65としてもよい。
 図9のステップS15において、学習装置300は、機械学習が完了したか否かを判断する。学習装置300は、たとえば、全ての学習データ66について、所定の反復回数の機械学習が行われた場合に、機械学習が完了したと判断する。学習装置300は、たとえば学習モデルLMの性能を評価する評価関数の値が所定値以上となった場合に、機械学習が完了したと判断する。学習装置300は、機械学習が完了していないと判断した場合には、ステップS16において学習データ66を変更して、次の学習データ66を用いてステップS14の機械学習を実行する。
 機械学習が完了した場合、ステップS17において、学習された学習モデルLMが、学習済みモデル40として記憶される。これにより、学習済みモデル40の作成が完了する。作成された学習済みモデル40は、ネットワークを介して、または、非一過性の記録媒体に記録され、画像処理装置100に提供される。
 (画像要素毎の具体例)
 次に、画像要素50毎の、重畳画像67(教師入力データ64)と、再構成画像60または投影像61(教師出力データ65)との具体例を説明する。また、画像要素50毎の、抽出画像21を用いた処理画像22の例を説明する。
 〈骨部〉
 図12は、画像要素50が骨53である例を示す。教師入力データ64は、たとえば骨53を含まない再構成画像60と、骨53を含む投影像61との重畳画像67である。
 たとえばCT画像データ80または骨格の3次元モデルから投影像61を作成し、骨53を除去した再構成画像60に重畳することにより、重畳画像67が生成される。骨53を除去した再構成画像60は、骨53が有するCT値の範囲の画素について、CT値をゼロにクリップ(固定)することにより生成される。骨部が有するCT値は、一般に、約200HU~約1000HUとされるので、閾値を0HU~200HU程度の所定値に設定すればよい。
 教師出力データ65は、骨53のみを含む投影像61である。教師出力データ65には、重畳画像67の生成に使用した投影像61が使用される。
 なお、被験者を撮影したCT画像データ80には、通常、骨部が含まれるため、CT画像データ80から生成した再構成画像60を教師入力データ64としてもよい。そのため、必ずしも重畳画像67を作成する必要はない。
 この場合、教師出力データ65は、骨53のみを含む再構成画像60である。骨53のみを含む再構成画像60は、たとえば骨53を含む再構成画像60のうち、骨53が有するCT値未満のCT値を有する画素について、CT値をゼロにクリップすることにより生成される。
 機械学習により、学習モデルLMは、教師入力データ64のような入力画像から、教師出力データ65のように骨53を抽出した抽出画像21を生成することを学習する。
 画像処理装置100は、X線撮影装置200により取得されたX線画像201に対して、学習済みモデル40により生成した抽出画像21を重み付け減算する。これにより、図13に示すように、X線画像201から骨53の画像要素50を除去した処理画像22が生成される。図13では、説明のため便宜的に、除去された骨53の画像要素50を破線で示している。
 〈デバイス〉
 図14は、画像要素50がデバイス55である例を示す。図14では、デバイス55がガイドワイヤである。
 教師入力データ64は、デバイス55を含む重畳画像67である。CT画像データ80から生成した再構成画像60には、画像要素50が含まれていない。デバイス55の3次元モデルから生成されたデバイス55のみの投影像61が、再構成画像60に重畳される。その結果、図14のようにデバイス55を含む重畳画像67が生成される。
 上記のように、デバイス55の2次元X線画像を撮影して、シミュレーションにより形状等を変化させた投影像61のバリエーションが複数作成されてもよい。複数の投影像61を用いて、複数の重畳画像67が生成される。
 特に、図16に示すように、画像要素50が、線状または管状のデバイス55である場合、画像要素50の投影像61は、デバイス55の3次元モデルの形状をランダムな座標値に基づいて生成した曲線でシミュレーションすることにより生成される。図16では、デバイス55の一例として、ステント55aを保持したガイドワイヤ55bの投影像61を、曲線シミュレーションによってランダムな形状で生成した例(A)~(I)を示す。
 それぞれの投影像61におけるガイドワイヤ55bは、ランダムな座標値を基点としたベジェ曲線によって異なる形状に生成されている。ベジェ曲線は、K個(Kは3以上の整数)の制御点から得られるK-1次曲線である。K個の制御点の座標値をランダムに指定するアルゴリズムによって、多様な形状のデバイス55の投影像61が大量に生成できる。
 体内に留置されたステント55aの単独の投影像61は、3次元モデル化した擬似ステントにランダムな平行移動、回転、変形、コントラスト変化を加えることによって、複数生成される。
 図14に戻り、教師出力データ65は、デバイス55のみを含む投影像61である。教師出力データ65には、重畳画像67の生成に使用した投影像61が使用される。
 機械学習により、学習モデルLMは、教師入力データ64のような入力画像から、教師出力データ65のようにデバイス55を抽出した抽出画像21を生成することを学習する。
 画像処理装置100は、X線撮影装置200により取得されたX線画像201に対して、学習済みモデル40により生成した抽出画像21を重み付け加算する。これにより、図15に示すように、X線画像201からデバイス55の画像要素50を強調した処理画像22が生成される。図15では、図14と比べてデバイス55を太く図示することにより、強調されたことを示している。強調処理は、画素値を増大させる処理だけでなく、図7に示した画像間演算の前の画像処理により、デバイス55の画像要素50を着色して表示する処理なども含まれうる。
 〈ノイズ〉
 図17は、画像要素50がノイズ57である例を示す。ノイズ57は、たとえばランダムノイズであるが、図17では、説明のために便宜的に、水平方向の点線の集合として示している。
 教師入力データ64は、ノイズ57を含む重畳画像67である。CT画像データ80から生成した再構成画像60には、ノイズ57が含まれていない。ランダムに生成されたノイズ57のみの投影像61が、再構成画像60に重畳される。その結果、図17のようにノイズ57を含む重畳画像67が生成される。ノイズ57は、ガウス分布に従うガウスノイズや、ポアソン分布に従うポアソンノイズを、投影像61毎にランダムに生成することによって作成される。
 教師出力データ65は、ノイズ57のみを含む投影像61である。教師出力データ65には、重畳画像67の生成に使用した投影像61が使用される。
 機械学習により、学習モデルLMは、教師入力データ64のような入力画像から、教師出力データ65のようにノイズ57を抽出した抽出画像21を生成することを学習する。
 画像処理装置100は、X線撮影装置200により取得されたX線画像201に対して、学習済みモデル40により生成した抽出画像21を重み付け減算する。これにより、図18に示すように、X線画像201からノイズ57の画像要素50を除去した処理画像22が生成される。図18の処理画像22は、図17の教師入力データ64のようにノイズ57が含まれるX線画像201から、ノイズ57が除去されたことを示している。
 〈血管〉
 図19は、画像要素50が血管54である例を示す。血管54は、造影剤を導入して画像化された造影血管である。図19は、頭部の脳血管の例を示しているが、その他の血管でもよい。血管は、たとえば心臓の冠動脈でありうる。
 教師入力データ64は、血管54を含む重畳画像67である。造影なしで撮影されたCT画像データ80から生成した再構成画像60には、血管54がほぼ含まれていない(十分なコントラストを有していない)。血管54の3次元モデルから生成された血管54のみの投影像61が、再構成画像60に重畳される。その結果、図19のように血管54を含む重畳画像67が生成される。
 画像要素50が血管54である場合、画像要素50の投影像61は、血管54の3次元モデルの形状をランダムに変化させるシミュレーションにより生成される。投影像61の血管には、シミュレーションによりランダムな平行移動、回転、変形、コントラスト変化等が施される。すなわち、図16に示したデバイス55と同様に、ランダムな変化が施された血管54の投影像61のバリエーションが生成される。上記のように、造影撮影された造影血管のCT画像データから、血管54の投影像61を作成してもよい。
 教師出力データ65は、血管54のみを含む投影像61である。教師出力データ65には、重畳画像67の生成に使用した投影像61が使用される。
 機械学習により、学習モデルLMは、教師入力データ64のような入力画像から、教師出力データ65のように血管54を抽出した抽出画像21を生成することを学習する。
 画像処理装置100は、X線撮影装置200により取得されたX線画像201に対して、学習済みモデル40により生成した抽出画像21を重み付け加算する。これにより、図20に示すように、X線画像201から血管54の画像要素50を強調した処理画像22が生成される。図20の処理画像22は、図19の教師入力データ64のように血管54の画像要素50を含むX線画像201において、当該血管54が強調表示されたことを示している。
 〈衣類〉
 図21は、画像要素50が衣類56である例を示す。図21では、衣類56の例として、衣服のボタンおよび被験者が身に着けるネックレスを示している。
 教師入力データ64は、衣類56を含む重畳画像67である。CT画像データ80から生成した再構成画像60には、衣類56が含まれていない。衣類56の3次元モデルから生成された衣類56のみの投影像61が、再構成画像60に重畳される。その結果、図21のように衣類56を含む重畳画像67が生成される。衣類56の3次元モデルは、衣類56のみのCT画像から作成してもよいし、たとえばCADデータなどから作成してもよい。上記のように、衣類56の2次元X線画像を撮影して、投影像61としてもよい。投影像61には、シミュレーションによりランダムな平行移動、回転、変形、コントラスト変化等が施される。
 教師出力データ65は、衣類56のみを含む投影像61である。教師出力データ65には、重畳画像67の生成に使用した投影像61と同一のデータが使用される。
 機械学習により、学習モデルLMは、教師入力データ64のような入力画像から、教師出力データ65のように衣類56を抽出した抽出画像21を生成することを学習する。
 画像処理装置100は、X線撮影装置200により取得されたX線画像201に対して、学習済みモデル40により生成した抽出画像21を重み付け減算する。これにより、図22に示すように、X線画像201から衣類56の画像要素50を除去した処理画像22が生成される。図22では、除去されたことを説明するため、便宜的に、除去された衣類56の画像要素50の部分を破線で示している。
 〈散乱線成分〉
 図23は、画像要素50がX線の散乱線成分58である例を示す。
 教師入力データ64は、散乱線成分58を含む重畳画像67である。CT画像データ80から生成した再構成画像60では、再構成演算に散乱線成分58が含まれない。入力画像の撮影環境をモデル化したモンテカルロシミュレーションにより生成された散乱線成分58のみの投影像61が、再構成画像60に重畳される。その結果、散乱線成分58を含む重畳画像67が生成される。
 モンテカルロシミュレーションでは、たとえば図2(または図11)に示したように、X線照射部220からX線検出器230に至る入力画像(X線画像201)の撮影環境を3次元モデル化した撮影環境モデル85を作成する。そして、X線照射部220から出射され、X線検出器230により検出されるX線光子の1つ1つを、乱数を利用した確率現象として計算(シミュレーション)する。すなわち、シミュレーションにおいて、X線の投影方向、被験者の形状(体形)および光子に対する相互作用に関わる物性が仮定される。そして、X線光子が被験者を通過する際に生じる吸収、散乱現象などの相互作用が、確率現象として乱数を利用して計算される。モンテカルロシミュレーションでは、所定の光子数の計算を行い、仮想したX線検出器230により検出されたX線光子が形成する投影像61を生成する。所定の光子数は、画像化するのに十分な数であればよく、たとえば100億個程度である。
 本実施形態では、散乱線成分58である画像要素50の投影像61は、撮影環境モデル85におけるX線撮影装置200が撮影可能な投影角度範囲に亘って投影角度を変化させて複数生成される。たとえば図2に示した例では、Cアーム240の移動により第1方向250および第2方向252に投影方向を変更可能である。そこで、図25に示すように、第1方向250に±α度、第2方向252に±β度の投影角度範囲の全体に亘って、異なる角度値に変化させた複数の投影角度で、モンテカルロシミュレーションによる投影像61が生成される。投影角度は、投影角度範囲の全体に亘って等角度間隔で変更されてもよいし、投影角度範囲内で所定の数だけランダムに変更させた値としてもよい。さらに、投影角度範囲の外部であって、投影角度の限界(±α度、±β度)付近の角度値での投影像61を生成してもよい。
 また、本実施形態では、散乱線成分58である画像要素50の投影像61は、撮影環境モデル85における仮想線源のエネルギースペクトルを変化させて複数生成される。すなわち、撮影環境モデル85として仮定したX線照射部220により照射されるX線のエネルギースペクトルを、異なるスペクトルに変化させた複数条件で、モンテカルロシミュレーションによる投影像61の作成が行われる。
 一般に、X線の光子エネルギーが低い程、被験者の体内で吸収されやすく、散乱線成分58が発生しにくい。X線の光子エネルギーが高い程、被験者の体内で吸収されにくく、散乱線成分58が発生しやすい。そこで、たとえば図26に示す第1エネルギースペクトル111に基づく投影像61と、図27に示す第2エネルギースペクトル112に基づく投影像61とが、作成される。第2エネルギースペクトル112は、第1エネルギースペクトル111よりも相対的に高エネルギーのスペクトルである。図26および図27において、グラフの横軸はX線光子のエネルギー[keV]を示し、グラフの縦軸はX線の相対強度(すなわち、検出されるX線光子の数)を示す。
 なお、吸収スペクトルの相違に起因して、被験者に照射されたX線のエネルギースペクトルが検出される過程で相対的に高エネルギー側に偏るビームハードニング現象が発生する。CT画像データ80から生成した再構成画像60では、ビームハードニング現象に起因する画質変化をシミュレートすることができないが、モンテカルロシミュレーションによる投影像61では、ビームハードニング現象の影響を模擬することが可能である。
 図23は、一例として、モンテカルロシミュレーションによって求められたコンプトン散乱による散乱線成分58の投影像61を示している。本実施形態では、レイリー散乱などのコンプトン散乱以外の散乱線成分58を求めてもよい。さらに単一散乱だけでなく多重散乱による散乱線成分58を求めてもよい。これらの各種の散乱線成分58を別々の投影像61として作成し、別々に抽出するように機械学習を行ってもよいし、各種の散乱線成分58をまとめて表示する投影像61を作成し、各種の散乱線成分58を一括して抽出するように機械学習を行ってもよい。
 教師出力データ65は、散乱線成分58のみを含む投影像61である。教師出力データ65には、重畳画像67の生成に使用した投影像61と同一のデータが使用される。
 機械学習により、学習モデルLMは、教師入力データ64のような入力画像から、教師出力データ65のように散乱線成分58を抽出した抽出画像21を生成することを学習する。
 画像処理装置100は、X線撮影装置200により取得されたX線画像201に対して、学習済みモデル40により生成した抽出画像21を重み付け減算する。これにより、図24に示すように、X線画像201から散乱線成分58の画像要素50を除去した処理画像22が生成される。散乱線成分58は、X線画像のコントラストを低下させる要因となるため、処理画像22では、散乱線成分58の除去によりコントラストを改善することが可能である。図24の処理画像22は、図23の教師入力データ64のように散乱線成分58によりコントラストが低下したX線画像201から、散乱線成分58が除去されることにより、コントラストが改善したことを示している。
 〈コリメータ画像〉
 本実施形態では、作成される各教師入力データ64および各教師出力データ65の一部には、X線撮影装置200(X線照射部220)が備えるコリメータ(図示せず)によって撮影範囲が制限されたコリメータ画像68が含まれる。コリメータ画像68では、画像中の一部の領域にのみ画像が形成され、コリメータによって遮蔽された領域には画像情報が含まれない。各教師入力データ64および各教師出力データ65のうち一部は、コリメータを用いて実際に撮影された画像に基づくシミュレーションにより、X線の照射範囲(すなわち、画像領域)の形状、コリメータによる影響を受ける画質のパラメータをランダムに異ならせた複数のコリメータ画像68を含む。コリメータによる影響を受ける画質のパラメータは、透過度合い(コントラスト)、エッジのボケ、ノイズの含有量などである。
 コリメータ画像68は、たとえば、重畳画像67、再構成画像60および投影像61に対して、シミュレーションした照射範囲外の画像部分を除去し、コリメータによる影響を模擬した画像処理を施すことにより生成される。コリメータ画像68は、コリメータを用いて実際に撮影された画像から生成してもよい。これにより、コリメータの利用によるX線の照射範囲の変化や画質の変化に対する、画像要素50の抽出処理の頑健性を向上できる。
 以上のようにして、画像要素50の種類毎の機械学習と、画像処理装置100による処理画像22の生成とが行われる。
 上記の各具体例では、説明の便宜のため、個々の画像要素50および処理画像22を個別に説明した。しかし、実際の画像処理装置100による処理画像22の生成の際には、画像処理装置100に入力されるX線画像201には、上記の骨53、血管54、デバイス55、衣類56、ノイズ57および散乱線成分58のうち複数が含まれる。画像処理装置100は、入力されたX線画像201から、学習済みモデル40によって個々の画像要素50を抽出した抽出画像21を生成して、画像間演算を行う。その結果、複数の画像要素50の1つ1つについて強調処理または除去処理が行われた処理画像22が生成される。
 たとえば図7に示した例では、N=6であり、第1抽出画像21-1が骨53を表し、第2抽出画像21-2がデバイス55を表し、第3抽出画像(21-3とする)がノイズ57を表し、第4抽出画像(21-4とする)が血管54を表し、第5抽出画像(21-5とする)が衣類56を表し、第6抽出画像(21-6とする)が散乱線成分58を表す。
 処理画像22の利用シーンについて、いくつかの例を示す。
 たとえば処理画像22は、単純X線撮影による、被験者の胸部正面のX線画像などに適用される。この場合、処理画像22において、骨53、ノイズ57、衣類56および散乱線成分58が除去される。骨53の除去により、心臓や肺などの関心領域の視認性が向上する。また、ノイズ57および散乱線成分58が除去されることにより、画像全体の視認性が向上する。衣類56の画像要素50が除去可能となることから、被験者が金属等を含む衣服、アクセサリ等を取り外すことなく、X線撮影を行うことができる。このことは、たとえば集団検診など、多数の被験者のX線撮影を連続的に行う場合に、作業効率の向上、被験者の待ち時間の削減などの有用な効果をもたらす。
 また、たとえば処理画像22は、X線血管撮影装置を利用したカテーテル治療のように、X線画像下治療(IVR;Interventional Radiology)におけるX線透視画像などに適用される。この場合、処理画像22において、骨53、ノイズ57および散乱線成分58が除去される。処理画像22において、カテーテルやガイドワイヤ、ステントなどのデバイス55および血管54が強調される。骨53、ノイズ57および散乱線成分58の除去により、透視画像の視認性が向上する。デバイス55および血管54が強調されることにより、カテーテル治療における関心領域や操作しているデバイスの視認性が向上する。
(本実施形態の効果)
 本実施形態では、以下のような効果を得ることができる。
 本実施形態の学習済みモデル40の作成方法によれば、CT画像データ80を2次元の投影画像に再構成した再構成画像60と、シミュレーションにより、抽出対象となる画像要素50の3次元モデルから生成した2次元の投影像61とを重畳した重畳画像67を教師入力データ64とし、再構成画像60または投影像61を教師出力データ65とする。これにより、CT画像データ80が抽出対象となる画像要素50を含んでいなくても、シミュレーションにより生成した抽出対象の画像要素50を用いて機械学習を行える。つまり、抽出すべき画像要素50を実際に含んだCT画像データ80を準備しなくても、教師データを用意することができる。また、シミュレーションにより抽出対象の画像要素50の投影像61を生成するので、CT画像データ80に含まれていても分離抽出することが困難な画像要素50についても、教師データを用意することができる。その結果、様々な画像要素50に対して、かつ、複数の画像要素50に対して画像処理を行うための学習済みモデル40の作成を効率的に行うことができる。
 本実施形態の画像生成方法および画像処理装置100によれば、入力画像中から特定の画像要素50を抽出する処理を学習させた学習済みモデル40を用いて、X線画像201から複数の画像要素50を別々に抽出し、画像要素50毎に抽出された複数の抽出画像21と、X線画像201と、を用いた画像間演算を行うことにより処理画像22を生成する。これにより、入力されたX線画像201から様々な画像要素50を抽出画像21として別々に抽出した上で、抽出された画像要素50の種類に応じて、それぞれの抽出画像21をX線画像201に対して自由に加算したり減算したりすることができる。その結果、様々な画像要素50に対して、かつ、複数の画像要素50に対しても画像処理を行うことができる。
 また、上記実施形態の例では、以下のように構成したことによって、更なる効果が得られる。
 すなわち、本実施形態では、重畳画像67は、互いに異なる複数の画像要素50毎に、複数作成され、複数の画像要素50は、生体組織である第1要素51と、非生体組織である第2要素52とを含む。このように構成すれば、骨53や血管54などの生体組織の画像要素50に対する画像処理と、体内に導入されるデバイス55や被験者が装着している衣類56などの非生体組織の画像要素50に対する画像処理とを、複合的に実行可能な学習済みモデル40を作成できる。このような学習済みモデル40を画像処理装置100に用いることにより、生体組織の画像要素50に対する画像処理と、非生体組織の画像要素50に対する画像処理とを、複合的に実行できる。
 また、本実施形態では、重畳画像67は、互いに異なる複数の画像要素50毎に、複数作成され、複数の画像要素50は、骨53、血管54、体内に導入されるデバイス55、衣類56、ノイズ57およびX線の散乱線成分58のうち少なくとも複数を含む。このように構成すれば、X線画像201の様々な利用シーンに応じた多様な画像要素50に対する画像処理を、複合的に実行可能な学習済みモデル40を作成できる。このような学習済みモデル40を画像処理装置100に用いることにより、X線画像201の様々な利用シーンに応じた多様な画像要素50に対する画像処理を、複合的に実行できる。
 また、本実施形態では、画像要素50は、線状または管状のデバイス55を含み、画像要素50の投影像61は、デバイス55の3次元モデルの形状をランダムな座標値に基づいて生成した曲線でシミュレーションすることにより生成される。このように構成すれば、ガイドワイヤやカテーテルなどの長くて様々な形状に曲がるデバイス55の画像要素50を学習するための教師データを、シミュレーションにより多様な形状でかつ大量に生成できる。その結果、実際に被験者の体内にデバイス55が配置された状態の3次元CTデータを大量に用意しなくても、効率的な機械学習を行える。
 また、本実施形態では、画像要素50は、血管54を含み、画像要素50の投影像61は、血管54の3次元モデルの形状をランダムに変化させるシミュレーションにより生成される。このように構成すれば、長くて複雑な形状に曲がる血管54の画像要素50を学習するための教師データを、シミュレーションにより、大量に、かつ、多様な個人差を含むように生成できる。その結果、様々な被験者の3次元CTデータを大量に用意しなくても、効率的な機械学習を行える。
 また、本実施形態では、画像要素50は、X線の散乱線成分58を含み、画像要素50の投影像61は、入力画像の撮影環境をモデル化したモンテカルロシミュレーションにより生成される。このように構成すれば、実際の3次元CTデータや2次元のX線画像201からは分離抽出することが困難なX線の散乱線成分58の投影像61を、モンテカルロシミュレーションによって生成できる。このようにして生成した投影像61を用いて、散乱線成分58を抽出する学習済みモデル40を作成することにより、実際に被験者を撮影したX線画像201から散乱線成分58を除去する画像処理を、モンテカルロシミュレーションのような複雑かつ高負荷の計算処理を行うことなく実現できる。そのため、たとえば散乱線成分58の影響が大きい腹部や骨部付近のコントラストを効果的に改善できる。また、たとえばX線撮影において散乱線成分58の影響を軽減するために用いられるX線吸収グリッドを使用しないで撮影を行い、散乱線成分58を画像処理によって除去するといった利用も可能となる。その場合、X線吸収グリッドを使用しない分だけX線量を低減できるので、被験者の被曝線量を効果的に低減できる。
 また、本実施形態では、画像要素50の投影像61は、撮影環境モデル85におけるX線撮影装置200が撮影可能な投影角度範囲(±α、±β)に亘って投影角度を変化させて複数生成される。このように構成すれば、単純X線撮影のように特定の投影方向(胸部正面、胸部側面など)からのみ撮影する場合だけでなく、X線画像下治療において多様な投影角度でX線撮影が行われたり、投影角度を変化させながらX線撮影が行われたりする場合にも、散乱線成分58を効果的に抽出可能な汎用性の高い学習済みモデル40を作成できる。
 また、本実施形態では、画像要素50の投影像61は、撮影環境モデル85における仮想線源のエネルギースペクトルを変化させて複数生成される。実際の医療現場では、撮影部位などに応じて、エネルギースペクトルが異なる様々な撮影条件でX線撮影が行われるが、上記構成によれば、そのようにX線画像201が様々なエネルギースペクトルで撮影される場合でも、散乱線成分58を効果的に抽出可能な汎用性の高い学習済みモデル40を作成できる。
 また、本実施形態では、機械学習は、1つの学習モデルLMに対して、画像要素50毎に作成された教師入力データ64および教師出力データ65を入力することを含み、学習済みモデル40は、入力画像から複数の画像要素50を重複なしで抽出し、抽出した複数の画像要素50と、抽出後に残る残余画像要素59と、をそれぞれ出力するように構成されている。このように構成すれば、抽出された複数の画像要素50と、残余画像要素59と、を全て加算すると元の入力画像に戻るように画像要素50の抽出が行える学習済みモデル40を提供できる。つまり、1つのX線画像201から複数の画像要素50を抽出した場合でも、当該X線画像201に含まれる画像情報のロスや、画像情報の意図しない増大が発生しない。X線画像201を用いて診断を行う医師等は、たとえ視認性を向上させる各種の画像処理を行ったとしても、元画像に含まれている画像情報に診断の根拠を見出すため、画像情報のロスが発生しないように画像要素50を抽出可能な学習済みモデル40によれば、複合的な画像処理を行う場合でも医師等が信頼可能な画像を提供できる。
 また、本実施形態では、複数の抽出画像21の一部または全部に対して、別々に画像処理を行い、処理画像22は、画像処理後の複数の抽出画像21と、X線画像201との画像間演算により生成される。このように構成すれば、学習済みモデル40を用いて複数の画像要素50を別々に抽出できることを利用して、抽出された各画像要素50の抽出画像21に対して、それぞれ独立して補正処理や補完処理などの画像処理が行える。ここで、たとえば抽出前のX線画像201に対して、特定の画像要素50だけに作用する画像処理を実行しようとする場合、その画像処理アルゴリズムは複雑かつ高負荷になり、特定の画像要素50以外の画像要素50に悪影響が及ぶこともありうる。これに対して、抽出画像21に対して画像処理を行う場合、他の画像要素50が存在しないことから、抽出画像21全体に対する単純なフィルタリング処理などを行うだけでも高い画像処理精度が得られる。そして、画像処理後の抽出画像21を用いて画像間演算を行うことにより、複数の画像要素50を単に強調したり除去したりするだけでなく、さらに個々の画像要素50に限定した高精度な画像処理を実行した処理画像22を、簡単に生成できる。
 また、本実施形態では、画像間演算は、X線画像201に対する、個々の抽出画像21の重み付け加算または重み付け減算を行うことを含む。このように構成すれば、抽出した複数の画像要素50を1つずつ個別に強調したり、除去したりした処理画像22を得ることができる。また、個々の画像要素50の強調度合いまたは除去度合いを、重み係数23の調整によって適切に設定できるので、X線画像201の様々な利用シーンに応じて、必要とされる画像要素50に対して高い視認性が得られる処理画像22を生成できる。
 (変形例)
 なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく、請求の範囲によって示され、さらに請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
 たとえば、上記実施形態では、機械学習を行う装置(学習装置300)と、画像処理装置100とが別々の装置である例を示したが、本発明はこれに限られない。本発明では、画像処理装置において機械学習を行ってもよい。また、学習装置300は、クラウド上に設けられたサーバコンピュータにより構成されていてもよい。
 また、上記実施形態(図5~図7参照)では、1つの学習済みモデル40により、複数の画像要素50の抽出を行う例を示したが、本発明はこれに限られない。本発明では、複数の学習済みモデルによって複数の画像要素50の抽出を行ってもよい。たとえば図29に示すように、抽出すべき画像要素50毎に、1つずつ学習済みモデル40を設けてもよい。図29では、学習済みモデル40-1、学習済みモデル40-2、・・・、学習済みモデル40-Nが設けられている。1つの学習済みモデル40は、1つ(1種類)の画像要素50の抽出を行う。この他、複数の画像要素50を抽出するように作成された学習済みモデル40を、複数設けてもよい。
 また、上記実施形態では、複数の画像要素50が、骨53、血管54、デバイス55、衣類56、ノイズ57および散乱線成分58のうち少なくとも複数を含む例を示したが、本発明はこれに限られない。画像要素50は、骨53、血管54、デバイス55、衣類56、ノイズ57および散乱線成分58以外の画像要素を含んでもよい。画像要素50は、たとえば体内の特定の臓器などの特定の構造部分であってもよい。また、たとえば骨53のうち、特定部位の骨の画像要素50や、血管54のうち、特定部位の血管の画像要素50を他の骨や他の血管とは別に抽出してもよい。画像要素50は、骨53、血管54、デバイス55、衣類56、ノイズ57および散乱線成分58を含まなくてもよい。
 また、上記実施形態では、画像間演算により、骨53に除去処理を施し、血管54およびデバイス55に強調処理を施す例を示したが、本発明はこれに限られない。骨53に強調処理を施してもよいし、血管54およびデバイス55の一方または両方に除去処理を施してもよい。
 また、上記実施形態では、画像間演算の例として重み付け加算、重み付け減算の2つの例を示したが、本発明はこれに限られない。画像間演算は、重み係数なしの加算または減算であってもよい。画像要素50の強調処理を、重み係数あり、または重み係数なしの乗算により行ってもよい。画像要素50の除去処理を、重み係数あり、または重み係数なしの除算により行ってもよい。
 [態様]
 上記した例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
 (項目1)
 3次元X線画像データを2次元の投影画像に再構成した再構成画像を生成し、
 シミュレーションにより、抽出対象となる画像要素の3次元モデルから2次元の投影像を生成し、
 前記画像要素の前記投影像を前記再構成画像に重畳して重畳画像を生成し、
 前記重畳画像を教師入力データとし、前記再構成画像または前記投影像を教師出力データとして機械学習を行うことにより、入力画像に含まれる前記画像要素を抽出する処理を行う学習済みモデルを作成する、学習済みモデルの作成方法。
 (項目2)
 前記重畳画像は、互いに異なる複数の画像要素毎に、複数作成され、
 前記複数の画像要素は、生体組織である第1要素と、非生体組織である第2要素とを含む、項目1に記載の学習済みモデルの作成方法。
 (項目3)
 前記重畳画像は、互いに異なる複数の画像要素毎に、複数作成され、
 前記複数の画像要素は、骨、血管、体内に導入されるデバイス、衣類、ノイズおよびX線の散乱線成分のうち少なくとも複数を含む、項目1に記載の学習済みモデルの作成方法。
 (項目4)
 前記画像要素は、線状または管状のデバイスを含み、
 前記画像要素の前記投影像は、前記デバイスの3次元モデルの形状をランダムな座標値に基づいて生成した曲線でシミュレーションすることにより生成される、項目1に記載の学習済みモデルの作成方法。
 (項目5)
 前記画像要素は、血管を含み、
 前記画像要素の前記投影像は、血管の3次元モデルの形状をランダムに変化させるシミュレーションにより生成される、項目1に記載の学習済みモデルの作成方法。
 (項目6)
 前記画像要素は、X線の散乱線成分を含み、
 前記画像要素の前記投影像は、前記入力画像の撮影環境をモデル化したモンテカルロシミュレーションにより生成される、項目1に記載の学習済みモデルの作成方法。
 (項目7)
 前記画像要素の前記投影像は、撮影環境モデルにおけるX線撮影装置が撮影可能な投影角度範囲に亘って投影角度を変化させて複数生成される、項目6に記載の学習済みモデルの作成方法。
 (項目8)
 前記画像要素の前記投影像は、撮影環境モデルにおける仮想線源のエネルギースペクトルを変化させて複数生成される、項目6に記載の学習済みモデルの作成方法。
 (項目9)
 前記機械学習は、1つの学習モデルに対して、前記画像要素毎に作成された前記教師入力データおよび前記教師出力データを入力することを含み、
 前記学習済みモデルは、前記入力画像から前記複数の画像要素を重複なしで抽出し、抽出した前記複数の画像要素と、抽出後に残る残余画像要素と、をそれぞれ出力するように構成されている、項目1に記載の学習済みモデルの作成方法。
 (項目10)
 入力画像中から特定の画像要素を抽出する処理を学習させた学習済みモデルを用いて、X線画像から複数の画像要素を別々に抽出し、
 画像要素毎に抽出された複数の抽出画像と、前記X線画像と、を用いた画像間演算を行うことにより、前記X線画像に含まれる各画像要素に画像処理が行われた処理画像を生成する、画像生成方法。
 (項目11)
 前記画像処理は、強調処理または除去処理を含む、項目10に記載の画像生成方法。
 (項目12)
 複数の画像要素は、生体組織である第1要素と、非生体組織である第2要素とを含む、項目10に記載の画像生成方法。
 (項目13)
 複数の画像要素は、骨、血管、体内に導入されるデバイス、衣類、ノイズおよびX線の散乱線成分のうち少なくとも複数を含む、項目10に記載の画像生成方法。
 (項目14)
 前記複数の抽出画像の一部または全部に対して、別々に画像処理を行い、
 前記処理画像は、画像処理後の前記複数の抽出画像と、前記X線画像との画像間演算により生成される、項目10に記載の画像生成方法。
 (項目15)
 前記画像間演算は、前記X線画像に対する、個々の抽出画像の重み付け加算または重み付け減算を行うことを含む、項目10に記載の画像生成方法。
 (項目16)
 前記学習済みモデルは、前記入力画像から前記複数の画像要素を重複なしで抽出し、抽出した前記複数の画像要素と、抽出後に残る残余画像要素と、をそれぞれ出力するように構成されている、項目10に記載の画像生成方法。
 (項目17)
 前記学習済みモデルは、3次元画像データから2次元の投影画像に再構成した再構成画像と、シミュレーションにより前記画像要素の3次元モデルから作成された投影像とを用いて機械学習により予め作成されている、項目10に記載の画像生成方法。
 (項目18)
 X線画像を取得する画像取得部と、
 入力画像中から特定の画像要素を抽出する処理を学習させた学習済みモデルを用いて、前記X線画像から複数の画像要素を別々に抽出する抽出処理部と、
 画像要素毎に抽出された複数の抽出画像と、前記X線画像と、を用いた画像間演算を行うことにより、前記X線画像に含まれる各画像要素に画像処理が行われた処理画像を生成する画像生成部と、を備える、画像処理装置。
 10 画像取得部
 20 抽出処理部
 21(21-1、21-2、21-N) 抽出画像
 22 処理画像
 30 画像生成部
 40(40-1、40-2、40-N) 学習済みモデル
 50 画像要素
 51 第1要素
 52 第2要素
 53 骨
 54 血管
 55 デバイス
 56 衣類
 57 ノイズ
 58 散乱線成分
 59 残余画像要素
 60 再構成画像
 61 投影像
 64 教師入力データ
 65 教師出力データ
 67 重畳画像
 80 CT画像データ(3次元X線画像データ)
 85 撮影環境モデル
 100 画像処理装置
 111 第1エネルギースペクトル(エネルギースペクトル)
 112 第2エネルギースペクトル(エネルギースペクトル)
 200 X線撮影装置
 201 X線画像
 LM 学習モデル

Claims (18)

  1.  3次元X線画像データを2次元の投影画像に再構成した再構成画像を生成し、
     シミュレーションにより、抽出対象となる画像要素の3次元モデルから2次元の投影像を生成し、
     前記画像要素の前記投影像を前記再構成画像に重畳して重畳画像を生成し、
     前記重畳画像を教師入力データとし、前記再構成画像または前記投影像を教師出力データとして機械学習を行うことにより、入力画像に含まれる前記画像要素を抽出する処理を行う学習済みモデルを作成する、学習済みモデルの作成方法。
  2.  前記重畳画像は、互いに異なる複数の画像要素毎に、複数作成され、
     前記複数の画像要素は、生体組織である第1要素と、非生体組織である第2要素とを含む、請求項1に記載の学習済みモデルの作成方法。
  3.  前記重畳画像は、互いに異なる複数の画像要素毎に、複数作成され、
     前記複数の画像要素は、骨、血管、体内に導入されるデバイス、衣類、ノイズおよびX線の散乱線成分のうち少なくとも複数を含む、請求項1に記載の学習済みモデルの作成方法。
  4.  前記画像要素は、線状または管状のデバイスを含み、
     前記画像要素の前記投影像は、前記デバイスの3次元モデルの形状をランダムな座標値に基づいて生成した曲線でシミュレーションすることにより生成される、請求項1に記載の学習済みモデルの作成方法。
  5.  前記画像要素は、血管を含み、
     前記画像要素の前記投影像は、血管の3次元モデルの形状をランダムに変化させるシミュレーションにより生成される、請求項1に記載の学習済みモデルの作成方法。
  6.  前記画像要素は、X線の散乱線成分を含み、
     前記画像要素の前記投影像は、前記入力画像の撮影環境をモデル化したモンテカルロシミュレーションにより生成される、請求項1に記載の学習済みモデルの作成方法。
  7.  前記画像要素の前記投影像は、撮影環境モデルにおけるX線撮影装置が撮影可能な投影角度範囲に亘って投影角度を変化させて複数生成される、請求項6に記載の学習済みモデルの作成方法。
  8.  前記画像要素の前記投影像は、撮影環境モデルにおける仮想線源のエネルギースペクトルを変化させて複数生成される、請求項6に記載の学習済みモデルの作成方法。
  9.  前記機械学習は、1つの学習モデルに対して、前記画像要素毎に作成された前記教師入力データおよび前記教師出力データを入力することを含み、
     前記学習済みモデルは、前記入力画像から前記複数の画像要素を重複なしで抽出し、抽出した前記複数の画像要素と、抽出後に残る残余画像要素と、をそれぞれ出力するように構成されている、請求項1に記載の学習済みモデルの作成方法。
  10.  入力画像中から特定の画像要素を抽出する処理を学習させた学習済みモデルを用いて、X線画像から複数の画像要素を別々に抽出し、
     画像要素毎に抽出された複数の抽出画像と、前記X線画像と、を用いた画像間演算を行うことにより、前記X線画像に含まれる各画像要素に画像処理が行われた処理画像を生成する、画像生成方法。
  11.  前記画像処理は、強調処理または除去処理を含む、請求項10に記載の画像生成方法。
  12.  複数の画像要素は、生体組織である第1要素と、非生体組織である第2要素とを含む、請求項10に記載の画像生成方法。
  13.  複数の画像要素は、骨、血管、体内に導入されるデバイス、衣類、ノイズおよびX線の散乱線成分のうち少なくとも複数を含む、請求項10に記載の画像生成方法。
  14.  前記複数の抽出画像の一部または全部に対して、別々に画像処理を行い、
     前記処理画像は、画像処理後の前記複数の抽出画像と、前記X線画像との画像間演算により生成される、請求項10に記載の画像生成方法。
  15.  前記画像間演算は、前記X線画像に対する、個々の抽出画像の重み付け加算または重み付け減算を行うことを含む、請求項10に記載の画像生成方法。
  16.  前記学習済みモデルは、前記入力画像から前記複数の画像要素を重複なしで抽出し、抽出した前記複数の画像要素と、抽出後に残る残余画像要素と、をそれぞれ出力するように構成されている、請求項10に記載の画像生成方法。
  17.  前記学習済みモデルは、3次元画像データから2次元の投影画像に再構成した再構成画像と、シミュレーションにより前記画像要素の3次元モデルから作成された投影像とを用いて機械学習により予め作成されている、請求項10に記載の画像生成方法。
  18.  X線画像を取得する画像取得部と、
     入力画像中から特定の画像要素を抽出する処理を学習させた学習済みモデルを用いて、前記X線画像から複数の画像要素を別々に抽出する抽出処理部と、
     画像要素毎に抽出された複数の抽出画像と、前記X線画像と、を用いた画像間演算を行うことにより、前記X線画像に含まれる各画像要素に画像処理が行われた処理画像を生成する画像生成部と、を備える、画像処理装置。
PCT/JP2020/007600 2020-02-26 2020-02-26 学習済みモデルの作成方法、画像生成方法および画像処理装置 WO2021171394A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022502635A JPWO2021171394A1 (ja) 2020-02-26 2020-02-26
CN202080097558.XA CN115209808A (zh) 2020-02-26 2020-02-26 学习完毕模型的制作方法、图像生成方法以及图像处理装置
PCT/JP2020/007600 WO2021171394A1 (ja) 2020-02-26 2020-02-26 学習済みモデルの作成方法、画像生成方法および画像処理装置
US17/802,303 US20230097849A1 (en) 2020-02-26 2020-02-26 Creation method of trained model, image generation method, and image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/007600 WO2021171394A1 (ja) 2020-02-26 2020-02-26 学習済みモデルの作成方法、画像生成方法および画像処理装置

Publications (1)

Publication Number Publication Date
WO2021171394A1 true WO2021171394A1 (ja) 2021-09-02

Family

ID=77490800

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/007600 WO2021171394A1 (ja) 2020-02-26 2020-02-26 学習済みモデルの作成方法、画像生成方法および画像処理装置

Country Status (4)

Country Link
US (1) US20230097849A1 (ja)
JP (1) JPWO2021171394A1 (ja)
CN (1) CN115209808A (ja)
WO (1) WO2021171394A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023161848A1 (en) * 2022-02-24 2023-08-31 Auris Health, Inc. Three-dimensional reconstruction of an instrument and procedure site
WO2023166417A1 (en) * 2022-03-01 2023-09-07 Verb Surgical Inc. Apparatus, systems, and methods for intraoperative instrument tracking and information visualization

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7352382B2 (ja) * 2019-05-30 2023-09-28 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7413216B2 (ja) * 2020-09-15 2024-01-15 富士フイルム株式会社 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム
CN116433476B (zh) * 2023-06-09 2023-09-08 有方(合肥)医疗科技有限公司 Ct图像处理方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018159775A1 (ja) * 2017-03-03 2018-09-07 国立大学法人筑波大学 対象追跡装置
JP2018206382A (ja) * 2017-06-01 2018-12-27 株式会社東芝 画像処理システム及び医用情報処理システム
WO2019138438A1 (ja) * 2018-01-09 2019-07-18 株式会社島津製作所 画像作成装置
JP2019130275A (ja) * 2018-01-31 2019-08-08 株式会社リコー 医用画像処理装置、医用画像処理方法、プログラム及び医用画像処理システム
WO2019176734A1 (ja) * 2018-03-12 2019-09-19 東芝エネルギーシステムズ株式会社 医用画像処理装置、治療システム、および医用画像処理プログラム
JP2020018705A (ja) * 2018-08-02 2020-02-06 キヤノンメディカルシステムズ株式会社 医用画像処理装置、画像生成方法、及び画像生成プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018159775A1 (ja) * 2017-03-03 2018-09-07 国立大学法人筑波大学 対象追跡装置
JP2018206382A (ja) * 2017-06-01 2018-12-27 株式会社東芝 画像処理システム及び医用情報処理システム
WO2019138438A1 (ja) * 2018-01-09 2019-07-18 株式会社島津製作所 画像作成装置
JP2019130275A (ja) * 2018-01-31 2019-08-08 株式会社リコー 医用画像処理装置、医用画像処理方法、プログラム及び医用画像処理システム
WO2019176734A1 (ja) * 2018-03-12 2019-09-19 東芝エネルギーシステムズ株式会社 医用画像処理装置、治療システム、および医用画像処理プログラム
JP2020018705A (ja) * 2018-08-02 2020-02-06 キヤノンメディカルシステムズ株式会社 医用画像処理装置、画像生成方法、及び画像生成プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AMBROSINI, PIERRE ET AL.: "Fully Automatic and Real-Time Catheter Segmentation in X-Ray Fluoroscopy", ARXIV:1707.05137V1 [CS.CV], 2017, XP080777275, Retrieved from the Internet <URL:https://arxiv.org/pdf/1707.05137.pdf> [retrieved on 20200420] *
EGKERT, DOMINIK ET AL.: "Deep learning-based denoising of mammographic images using physics- driven data augmentation", ARXIV:1912.05240V1 [EESS.IV], 2019, XP055850408, Retrieved from the Internet <URL:https://arxiv.org/pdf/1912.05240.pdf> [retrieved on 20200420] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023161848A1 (en) * 2022-02-24 2023-08-31 Auris Health, Inc. Three-dimensional reconstruction of an instrument and procedure site
WO2023166417A1 (en) * 2022-03-01 2023-09-07 Verb Surgical Inc. Apparatus, systems, and methods for intraoperative instrument tracking and information visualization

Also Published As

Publication number Publication date
US20230097849A1 (en) 2023-03-30
JPWO2021171394A1 (ja) 2021-09-02
CN115209808A (zh) 2022-10-18

Similar Documents

Publication Publication Date Title
WO2021171394A1 (ja) 学習済みモデルの作成方法、画像生成方法および画像処理装置
Abadi et al. DukeSim: a realistic, rapid, and scanner-specific simulation framework in computed tomography
US9934597B2 (en) Metal artifacts reduction in cone beam reconstruction
US9754390B2 (en) Reconstruction of time-varying data
EP1913558B1 (en) 3d-2d adaptive shape model supported motion compensated reconstruction
JP5635730B2 (ja) 画像から関心のある特徴部を抽出するためのシステム及び方法
CN110461235A (zh) 心肌ct灌注图像合成
US10147207B2 (en) System and method for high-temporal resolution, time-resolved cone beam CT angiography
CN106456080B (zh) 用于修改x射线数据中的对tee探头的成像的设备
Schnurr et al. Simulation-based deep artifact correction with convolutional neural networks for limited angle artifacts
Do et al. A decomposition-based CT reconstruction formulation for reducing blooming artifacts
WO2016134127A1 (en) Common-mask guided image reconstruction for enhanced four-dimensional come-beam computed tomography
JP2017537674A (ja) 複数回の取得にわたってコントラストを正規化するための方法およびシステム
CN107886554B (zh) 流数据的重构
McCollough et al. Milestones in CT: past, present, and future
JP2021041090A (ja) 医用画像処理装置、x線画像処理システム、および、学習モデルの生成方法
Natalinova et al. Computer spatially oriented reconstruction of a 3d heart shape based on its tomographic imaging
Manhart et al. Iterative denoising algorithms for perfusion C-arm CT with a rapid scanning protocol
EP4160538A1 (en) Metal artifact reduction in computed tomography
EP4160539A1 (en) Adaptive auto-segmentation in computed tomography
Karangelis 3D simulation of external beam radiotherapy
Zhang Motion and Metal Artifact Correction for Enhancing Plaque Visualization in Coronary Computed Tomography Angiography
WO2022200089A1 (en) Subtraction imaging
Giordano Perfusion imaging in the peripheral vasculature using interventional C-arm systems
JP6035167B2 (ja) 医用画像処理プログラム、医用画像処理方法および医用画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20922377

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022502635

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20922377

Country of ref document: EP

Kind code of ref document: A1