JP2021041089A - Medical image processing device, x-ray image processing system and generation method of learning model - Google Patents

Medical image processing device, x-ray image processing system and generation method of learning model Download PDF

Info

Publication number
JP2021041089A
JP2021041089A JP2019167627A JP2019167627A JP2021041089A JP 2021041089 A JP2021041089 A JP 2021041089A JP 2019167627 A JP2019167627 A JP 2019167627A JP 2019167627 A JP2019167627 A JP 2019167627A JP 2021041089 A JP2021041089 A JP 2021041089A
Authority
JP
Japan
Prior art keywords
image
ray
specific portion
dimensional
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019167627A
Other languages
Japanese (ja)
Inventor
翔太 押川
Shota Oshikawa
翔太 押川
▲高▼橋 渉
渉 ▲高▼橋
Wataru Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2019167627A priority Critical patent/JP2021041089A/en
Publication of JP2021041089A publication Critical patent/JP2021041089A/en
Priority to JP2023079096A priority patent/JP2023103359A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To provide a medical image processing device which can suppress the reduction of the accuracy of extraction or removal of a specific portion by using a learning model generated with machine learning even when components included in an X-ray image and a two-dimensional projection image are different from each other, and provide an X-ray image processing system and a generation method of a learning model.SOLUTION: An X-ray image processing system 100 extracts a specific portion Q or removes the specific portion Q on the basis of a generated first learning model M1 with machine learning by using an input teacher image T1 including at least one of an image obtained by adding an object shape image B to a DRR image D and an image obtained by subtracting the object shape image from the DRR image and an output teacher image T2 being an image indicating the specific portion Q in the same region as the input teacher image T1 or an image excluding the specific portion Q.SELECTED DRAWING: Figure 1

Description

本発明は、医用画像処理装置、X線画像処理システム、および、学習モデルの生成方法に関する。 The present invention relates to a medical image processing apparatus, an X-ray image processing system, and a method of generating a learning model.

従来、被検者の特定部位を含むX線透視画像から特定部位の位置を検出し、特定部位に対して治療ビームを照射するために、特定部位の動きを追跡する放射線治療用追跡装置が知られている(たとえば、特許文献1参照)。 Conventionally, a radiotherapy tracking device that tracks the movement of a specific site in order to detect the position of the specific site from an X-ray fluoroscopic image including the specific site of the subject and irradiate the specific site with a treatment beam has been known. (See, for example, Patent Document 1).

上記特許文献1には、DRR(Digitally Reconstructed Radiography)画像作成部と、識別器学習部と、特定部位領域検出部とを備える放射線治療用追跡装置が開示されている。DRR画像作成部は、治療計画時に作成された特定部位を含む領域のCT画像データに対して仮想的透視投影を行うことによって、特定部位を含むDRR画像を作成する。識別器学習部は、DRR画像を入力とし、特定部位の領域を示す教師ラベル画像を出力として、機械学習を実行することにより、特定部位の領域を認識するための識別器を学習する。特定部位領域検出部は、特定部位を含むX線透視画像に対して、学習された識別器を使用して識別を行うことによって、特定部位の領域を検出する。上記特許文献1に記載の放射線治療用追跡装置は、上記の構成によって、予めDRR画像と教師ラベル画像とを機械学習することによって識別器を学習し、この識別器とX線透視画像とを利用して識別を実行することにより、特定部位の位置を検出する。そして、上記特許文献1に記載の放射線治療用追跡装置は、特定部位に対して治療ビームを照射するために、特定部位の動きを追跡する。 The above-mentioned Patent Document 1 discloses a radiotherapy tracking device including a DRR (Digitally Reconstructed Radiography) image creating unit, a discriminator learning unit, and a specific site region detecting unit. The DRR image creation unit creates a DRR image including a specific site by performing a virtual perspective projection on the CT image data of the region including the specific site created at the time of treatment planning. The discriminator learning unit learns a discriminator for recognizing a region of a specific region by executing machine learning by inputting a DRR image and outputting a teacher label image indicating a region of a specific region as an output. The specific site region detection unit detects the region of the specific region by discriminating the X-ray fluoroscopic image including the specific region by using the learned classifier. The radiotherapy tracking device described in Patent Document 1 learns a classifier by machine learning a DRR image and a teacher label image in advance according to the above configuration, and uses the classifier and an X-ray fluoroscopic image. By executing the identification, the position of a specific part is detected. Then, the radiotherapy tracking device described in Patent Document 1 tracks the movement of a specific site in order to irradiate the treatment beam to the specific site.

国際公開第2019/003434号International Publication No. 2019/003434

しかしながら、上記特許文献1に記載の放射線治療用追跡装置において、X線透視画像に含まれる構造物または部材(X線透視画像に含まれる構成物)が、CT画像データ(3次元データ)に基づいて生成されたDRR画像には含まれていない場合がある。構造物は、たとえば、被検体が載置される天板の一部とX線検出器のカバーとを含む。また、部材は、たとえば、被検体の体内に留置されるガイドワイヤおよびカテーテルを含む。また、被検体の体内に留置されているマーカーの位置または個数が、DRR画像を生成した時点とX線透視画像が撮影された時点とでは変化している場合がある。これらの場合では、X線透視画像とDRR画像とにおいて画像に含まれる構成物が異なることに起因して、DRR画像に基づく機械学習によって生成された識別器を用いてX線透視画像を識別する際に、識別の精度が低下する場合があると考えられる。そのため、X線透視画像(X線画像)とDRR画像(2次元投影画像)とにおいて、画像に含まれる構成物が異なる場合においても、機械学習によって生成された識別器(学習モデル)を用いて特定部位(特定部分)の抽出または除去の精度が低下することを抑制することが可能な医用画像処理装置、X線画像処理システム、および、学習モデルの生成方法の開発が望まれている。 However, in the radiotherapy tracking device described in Patent Document 1, the structure or member (structure included in the X-ray fluoroscopic image) included in the X-ray fluoroscopic image is based on CT image data (three-dimensional data). It may not be included in the DRR image generated in the above. The structure includes, for example, a part of the top plate on which the subject is placed and a cover of the X-ray detector. The member also includes, for example, a guide wire and a catheter that are placed in the body of the subject. In addition, the position or number of markers placed in the body of the subject may change between the time when the DRR image is generated and the time when the fluoroscopic image is taken. In these cases, the X-ray fluoroscopic image is identified using a classifier generated by machine learning based on the DRR image due to the difference in the components contained in the image between the X-ray fluoroscopic image and the DRR image. In some cases, it is considered that the accuracy of identification may decrease. Therefore, even if the components included in the X-ray fluoroscopic image (X-ray image) and the DRR image (two-dimensional projection image) are different, the classifier (learning model) generated by machine learning is used. It is desired to develop a medical image processing apparatus, an X-ray image processing system, and a learning model generation method capable of suppressing a decrease in the accuracy of extraction or removal of a specific part (specific part).

この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、X線画像と2次元投影画像とにおいて、画像に含まれる構成物が異なる場合においても、機械学習によって生成された学習モデルを用いて、特定部分の抽出または除去の精度が低下することを抑制することが可能な医用画像処理装置、X線画像処理システム、および、学習モデルの生成方法を提供することである。 The present invention has been made to solve the above-mentioned problems, and one object of the present invention is to use an X-ray image and a two-dimensional projected image even when the components contained in the images are different. , A medical image processing device capable of suppressing a decrease in the accuracy of extraction or removal of a specific part using a learning model generated by machine learning, an X-ray image processing system, and a method of generating a learning model. Is to provide.

上記目的を達成するために、この発明の第1の局面における医用画像処理装置は、3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、2次元投影画像に対して物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像と、入力教師画像と同じ領域における特定部分を示す画像または特定部分を除く画像である出力教師画像と、を生成する学習画像生成部と、入力教師画像および出力教師画像を用いて、機械学習を行うことにより、特定部分を抽出するか、または、特定部分を除去するための第1学習モデルを生成する学習モデル生成部と、学習済みの第1学習モデルに基づいて、X線撮影によって取得された被検体の特定部分を含むX線画像に対して、特定部分を抽出する処理と、特定部分を除去する処理とのいずれか一方を行う特定部分処理部と、を備える。なお、「X線画像」とは、X線透視画像およびX線撮影画像を含む。 In order to achieve the above object, the medical image processing apparatus according to the first aspect of the present invention relates to a region including a specific part of a subject acquired based on three-dimensional data having pixel value data in three dimensions. An image in which an object shape image including an image relating to a predetermined object separate from the subject is added to the dimensional projection image, and an image in which the object shape image is subtracted from the two-dimensional projection image. A learning image generator that generates an input teacher image including at least one, an image showing a specific part in the same area as the input teacher image, or an output teacher image that is an image excluding the specific part, and an input teacher image and an output teacher image. Based on a learning model generation unit that generates a first learning model for extracting a specific part or removing a specific part by performing machine learning using, and a trained first learning model. , A specific part processing unit that performs either a process of extracting a specific part or a process of removing a specific part of an X-ray image including a specific part of a subject acquired by X-ray imaging. Be prepared. The "X-ray image" includes a fluoroscopic image and an X-ray photographed image.

この発明の第2の局面における、X線画像処理システムは、3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、2次元投影画像に対して物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像と、入力教師画像と同じ領域における特定部分を示す画像または特定部分を除く画像である出力教師画像と、を生成する学習画像生成部と、入力教師画像および出力教師画像を用いて、機械学習を行うことにより、特定部分を抽出するか、または、特定部分を除去するための第1学習モデルを生成する学習モデル生成部と、X線撮影によって被検体の特定部分を含むX線画像を取得するX線撮影部と、学習済みの第1学習モデルに基づいて、特定部分を含むX線画像に対して、特定部分を抽出する処理と、特定部分を除去する処理とのいずれか一方を行う特定部分処理部と、を備える。 The X-ray image processing system in the second aspect of the present invention relates to a two-dimensional projected image of a region including a specific part of a subject acquired based on the three-dimensional data having pixel value data in three dimensions. , An input teacher that includes at least one of an image to which an object shape image including an image relating to a predetermined object separate from the subject is added and an image in which the object shape image is subtracted from the two-dimensional projected image. Machine learning using a learning image generator that generates an image and an image showing a specific part in the same area as the input teacher image or an image excluding the specific part, and an input teacher image and an output teacher image. By performing the above, a learning model generation unit that extracts a specific part or generates a first learning model for removing the specific part, and an X-ray image including a specific part of the subject are acquired by X-ray photography. Based on the X-ray imaging unit and the trained first learning model, either the process of extracting the specific part or the process of removing the specific part is performed on the X-ray image including the specific part. It is provided with a specific partial processing unit.

この発明の第3の局面における、学習モデルの生成方法は、3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、2次元投影画像に対して物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像を生成するステップと、3次元データに基づいて、入力教師画像と同じ領域における特定部分を示す画像または特定部分を除く画像である出力教師画像を生成するステップと、入力教師画像および出力教師画像を用いて、機械学習を行うことにより、特定部分を抽出するか、または、特定部分を除去するための第1学習モデルを生成するステップと、を備える。 The method of generating a learning model in the third aspect of the present invention is for a two-dimensional projected image of a region including a specific part of a subject acquired based on three-dimensional data having pixel value data in three dimensions. , An input teacher that includes at least one of an image to which an object shape image including an image relating to a predetermined object separate from the subject is added and an image in which the object shape image is subtracted from the two-dimensional projected image. A step to generate an image, a step to generate an output teacher image which is an image showing a specific part in the same area as the input teacher image or an image excluding the specific part based on 3D data, and an input teacher image and an output teacher image. It is provided with a step of extracting a specific part or generating a first learning model for removing the specific part by performing machine learning using the above.

上記第1の局面における医用画像処理装置と、上記第2の局面におけるX線画像処理システムとでは、学習画像生成部を、3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、2次元投影画像に対して上記物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像と、入力教師画像と同じ領域における特定部分を示す画像または特定部分を除く画像である出力教師画像と、を生成するように構成する。そして、学習モデル生成部を、上記入力教師画像および出力教師画像を用いて、機械学習を行うことにより、特定部分を抽出するか、または、特定部分を除去するための第1学習モデルを生成するように構成する。これにより、2次元投影画像に対して上記物体形状画像を加えることと減じることとの少なくとも一方を行うので、X線画像に含まれる構成物に対応するように2次元投影画像に含まれる構成物を変更することができる。つまり、2次元投影画像に含まれる構成物とX線画像に含まれる構成物との間に差異がある場合においても対応可能な学習モデルを生成することができる。たとえば、2次元投影画像に対してX線画像にのみ含まれる構成物を疑似的に含ませた画像(物体形状画像を含んだ画像)を入力教師画像として、機械学習を行うことによって学習モデルを生成することができる。このため、X線画像と2次元投影画像とにおいて、画像に含まれる構成物が異なる場合においても、機械学習によって生成された学習モデルを用いて、特定部分の抽出、または、特定部分の除去の精度が低下することを抑制することができる。 In the medical image processing apparatus in the first aspect and the X-ray image processing system in the second aspect, the learning image generation unit is acquired based on the three-dimensional data having the pixel value data in the three dimensions. An image in which an object shape image including an image of a predetermined object separate from the subject is added to a two-dimensional projected image of a region including a specific part of the sample, and an image of the above object with respect to the two-dimensional projected image. To generate an image with the shape image reduced, an input teacher image containing at least one of them, and an output teacher image that is an image showing a specific part in the same area as the input teacher image or an image excluding the specific part. Configure. Then, the learning model generation unit performs machine learning using the input teacher image and the output teacher image to extract a specific part or generate a first learning model for removing the specific part. It is configured as follows. As a result, at least one of adding and reducing the object shape image to the two-dimensional projected image is performed, so that the components included in the two-dimensional projected image correspond to the components included in the X-ray image. Can be changed. That is, it is possible to generate a learning model that can handle even when there is a difference between the constituents included in the two-dimensional projected image and the constituents included in the X-ray image. For example, a learning model is created by performing machine learning using an image (an image including an object shape image) in which a component contained only in an X-ray image is pseudo-included in a two-dimensional projected image as an input teacher image. Can be generated. Therefore, even when the components contained in the image are different between the X-ray image and the two-dimensional projected image, the learning model generated by machine learning is used to extract a specific part or remove the specific part. It is possible to suppress a decrease in accuracy.

また、この発明の上記第3の局面における学習モデルの生成方法では、3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、2次元投影画像に対して物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像を生成するステップと、3次元データに基づいて、入力教師画像と同じ領域における特定部分を示す画像または特定部分を除く画像である出力教師画像を生成するステップと、を備える。これにより、2次元投影画像に対して上記物体形状画像を加えることと減じることとの少なくとも一方を行うので、X線画像に含まれる構成物に対応するように2次元投影画像に含まれる構成物を変更することができる。つまり、2次元投影画像に含まれる構成物とX線画像に含まれる構成物との間に差異がある場合においても対応可能な学習モデルを生成することができる。たとえば、X線画像に含まれる構成物を疑似的に含ませた状態(物体形状画像を含んだ状態)の2次元投影画像を入力教師画像として、機械学習を行うことができる。その結果、X線画像と2次元投影画像とにおいて、画像に含まれる構成物が異なる場合においても、特定部分の抽出または除去の精度が低下することを抑制することが可能な学習モデルを提供することができる。 Further, in the method of generating a learning model in the third aspect of the present invention, a two-dimensional projected image of a region including a specific part of a subject acquired based on three-dimensional data having pixel value data in three dimensions is obtained. On the other hand, it includes at least one of an image to which an object shape image including an image relating to a predetermined object separate from the subject is added and an image in which the object shape image is subtracted from the two-dimensional projected image. It includes a step of generating an input teacher image and a step of generating an output teacher image which is an image showing a specific portion in the same region as the input teacher image or an image excluding the specific portion based on three-dimensional data. As a result, at least one of adding and reducing the object shape image to the two-dimensional projected image is performed, so that the components included in the two-dimensional projected image correspond to the components included in the X-ray image. Can be changed. That is, it is possible to generate a learning model that can handle even when there is a difference between the constituents included in the two-dimensional projected image and the constituents included in the X-ray image. For example, machine learning can be performed using a two-dimensional projected image in a state in which a component included in an X-ray image is pseudo-included (a state in which an object shape image is included) as an input teacher image. As a result, a learning model capable of suppressing a decrease in the accuracy of extraction or removal of a specific portion even when the components contained in the image are different between the X-ray image and the two-dimensional projection image is provided. be able to.

第1実施形態によるX線画像処理システムの全体構成を説明するためのブロック図である。It is a block diagram for demonstrating the whole structure of the X-ray image processing system by 1st Embodiment. 第1実施形態による放射線治療時におけるX線画像処理システムの構成を説明するための図である。It is a figure for demonstrating the structure of the X-ray image processing system at the time of radiotherapy by 1st Embodiment. 第1実施形態によるCT画像データを説明するための図である。It is a figure for demonstrating the CT image data by 1st Embodiment. 第1実施形態による第1制御部および第2制御部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the 1st control part and the 2nd control part by 1st Embodiment. 第1学習モデルによる特定部分の抽出に関して説明するための図である。It is a figure for demonstrating the extraction of the specific part by the 1st learning model. DRR画像の生成について説明するための図である。It is a figure for demonstrating the generation of a DRR image. DRR画像とX線画像との構成の差について説明するための図である。It is a figure for demonstrating the difference in composition between a DRR image and an X-ray image. FPDカバーを模した場合の物体形状画像について説明するための図である。It is a figure for demonstrating the object shape image at the time of imitating an FPD cover. X線透視画像に生じる横線状のノイズを説明するための図である。It is a figure for demonstrating the horizontal line noise which occurs in an X-ray fluoroscopic image. マーカーを模した場合の物体形状画像について説明するための図である。It is a figure for demonstrating the object shape image at the time of imitating a marker. 第2学習モデルによる特定部分の抽出に関して説明するための図である。It is a figure for demonstrating the extraction of the specific part by the 2nd learning model. 第1学習モデルの生成方法を説明するためのフローチャートである。It is a flowchart for demonstrating the generation method of the 1st learning model. 第1実施形態によるX線画像処理システムの制御を説明するためのフローチャートである。It is a flowchart for demonstrating the control of the X-ray image processing system by 1st Embodiment. 第1実施形態によるX線画像処理システムの使用例を説明するためのフローチャートである。It is a flowchart for demonstrating the use example of the X-ray image processing system by 1st Embodiment. 第2実施形態によるX線画像処理システムの全体構成を説明するためのブロック図である。It is a block diagram for demonstrating the whole structure of the X-ray image processing system by 2nd Embodiment. 第2実施形態による血管造影におけるX線画像処理システムの構成を説明するための図である。It is a figure for demonstrating the structure of the X-ray image processing system in angiography by 2nd Embodiment. 第2実施形態によるDRR画像を説明するための図である。It is a figure for demonstrating the DRR image by 2nd Embodiment. 第2実施形態による第1制御部および第2制御部の機能的構成を示すためのブロック図である。It is a block diagram for showing the functional structure of the 1st control part and the 2nd control part by 2nd Embodiment. 第2実施形態による入力教師画像と出力教師画像を説明するための図である。It is a figure for demonstrating the input teacher image and the output teacher image by 2nd Embodiment. 第3学習モデルによる骨部の除去に関して説明するための図である。It is a figure for demonstrating the removal of the bone part by the 3rd learning model. 第2実施形態によるX線画像処理システムの制御を説明するためのフローチャートである。It is a flowchart for demonstrating the control of the X-ray image processing system by 2nd Embodiment.

以下、本発明を具体化した実施形態を図面に基づいて説明する。 Hereinafter, embodiments embodying the present invention will be described with reference to the drawings.

[第1実施形態]
図1〜図11を参照して、本発明の第1実施形態によるX線画像処理システム100の構成について説明する。
[First Embodiment]
The configuration of the X-ray image processing system 100 according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 11.

(X線画像処理システムの構成)
図1に示すように、X線画像処理システム100は、放射線治療装置1と、治療計画装置2と、学習装置3と、X線撮影部4と、X線画像処理装置5と、を備える。なお、学習装置3およびX線画像処理装置5は、特許請求の範囲の「医用画像処理装置」の一例である。
(Configuration of X-ray image processing system)
As shown in FIG. 1, the X-ray image processing system 100 includes a radiotherapy device 1, a treatment planning device 2, a learning device 3, an X-ray imaging unit 4, and an X-ray image processing device 5. The learning device 3 and the X-ray image processing device 5 are examples of "medical image processing devices" within the scope of the claims.

X線画像処理システム100は、放射線治療装置1によって、がんなどの腫瘍を含む特定部分Qを治療する際に、被検体Pの呼吸などによって位置が変化する特定部分Qを追跡する追跡装置として構成されている。 The X-ray image processing system 100 is a tracking device that tracks a specific part Q whose position changes due to the respiration of the subject P or the like when treating a specific part Q including a tumor such as cancer by the radiotherapy device 1. It is configured.

図2に示すように、放射線治療装置1は、天板11、ガントリー12、基台13、および、ヘッド14を備える。天板11は、放射線を照射される被検体Pが載置される。ガントリー12は、床面に配置されている基台13に対して移動可能に構成されている。ヘッド14は、ガントリー12に配置されており、被検体Pに対して治療ビームを照射する。そして、放射線治療装置1は、ガントリー12が基台13に対して回動することによって、ヘッド14から照射する治療ビームの被検体Pに対する照射方向を変更可能なように構成されている。 As shown in FIG. 2, the radiotherapy apparatus 1 includes a top plate 11, a gantry 12, a base 13, and a head 14. A subject P to be irradiated with radiation is placed on the top plate 11. The gantry 12 is configured to be movable with respect to the base 13 arranged on the floor surface. The head 14 is arranged in the gantry 12 and irradiates the subject P with a therapeutic beam. The radiation therapy device 1 is configured so that the irradiation direction of the treatment beam irradiated from the head 14 with respect to the subject P can be changed by rotating the gantry 12 with respect to the base 13.

また、放射線治療装置1は、後述するX線画像処理装置5からの信号に基づいて、治療ビームを照射する位置および照射するタイミングを制御するように構成されている。具体的には、被検体Pの特定部分Qに治療ビームを照射する際に、被検体Pの呼吸などによって、特定部分Qの位置が変化する。放射線治療装置1は、X線画像処理装置5によって取得された特定部分Qの位置に基づく信号によって、特定部分Qに放射線(治療ビーム)を照射することが可能なように構成されている。 Further, the radiotherapy device 1 is configured to control the position and timing of irradiating the treatment beam based on a signal from the X-ray image processing device 5 described later. Specifically, when the treatment beam is irradiated to the specific portion Q of the subject P, the position of the specific portion Q changes due to the respiration of the subject P or the like. The radiotherapy apparatus 1 is configured so that the specific portion Q can be irradiated with radiation (treatment beam) by a signal based on the position of the specific portion Q acquired by the X-ray image processing apparatus 5.

治療計画装置2は、医師が被検体Pに対する放射線治療の計画を行うための装置である。すなわち、図示しないCT(Computed Tomography:コンピュータ断層撮影)装置によって、特定部分Qを含む領域についての3次元のCT画像データCが生成される。そして、治療計画装置2において、3次元のCT画像データCと被検体Pに関する診察情報とに基づいて、治療の計画が行われる。つまり、治療計画装置2は、3次元のCT画像データCと被検体Pに関する診察情報に基づいて、治療計画データを生成する。CT画像データCは、3次元における画素値データ(CT値)を有する3次元データである。CT値は、X線の透過しやすさを数値で表したものである。CT画像は、図3に示すように、被検体Pの体内についてのCT値の大小を濃淡で表した画像である。ここで、CT画像データCは、複数の2次元のCT画像に基づいて生成された3次元のボクセルデータである。また、治療計画装置2において、CT画像データC上の特定部分Qに対応する画素部分(ボクセル)が、医師によって特定部分Qとして指定される。そして、治療計画装置2は、指定された特定部分Qについての情報を含んだ状態のCT画像データCを記憶する。なお、CT画像データCは、特許請求の範囲の「3次元データ」の一例である。 The treatment planning device 2 is a device for a doctor to plan radiotherapy for a subject P. That is, a CT (Computed Tomography) device (not shown) generates three-dimensional CT image data C for a region including a specific portion Q. Then, in the treatment planning device 2, the treatment is planned based on the three-dimensional CT image data C and the medical examination information regarding the subject P. That is, the treatment planning device 2 generates treatment planning data based on the three-dimensional CT image data C and the examination information regarding the subject P. The CT image data C is three-dimensional data having pixel value data (CT value) in three dimensions. The CT value is a numerical value indicating the ease with which X-rays can be transmitted. As shown in FIG. 3, the CT image is an image showing the magnitude of the CT value of the subject P in the body in shades of light. Here, the CT image data C is three-dimensional voxel data generated based on a plurality of two-dimensional CT images. Further, in the treatment planning device 2, the pixel portion (voxel) corresponding to the specific portion Q on the CT image data C is designated as the specific portion Q by the doctor. Then, the treatment planning device 2 stores the CT image data C in a state including the information about the designated specific portion Q. The CT image data C is an example of "three-dimensional data" in the claims.

図1に示すように、学習装置3は、第1制御部30を含む。第1制御部30は、たとえば、CPU(Central Processing Unit)を有する。学習装置3は、ハードウェア的な構成として、たとえば、CPU、GPU(Graphics Processing Unit)、ROM(Read Only Memory)、および、RAM(Random Access Memory)などを有する。また、学習装置3は、記憶部として、HDD(Hard Disk Drive)または不揮発性のメモリなどを含んでいる。 As shown in FIG. 1, the learning device 3 includes a first control unit 30. The first control unit 30 has, for example, a CPU (Central Processing Unit). The learning device 3 has, for example, a CPU, a GPU (Graphics Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like as a hardware configuration. Further, the learning device 3 includes an HDD (Hard Disk Drive), a non-volatile memory, or the like as a storage unit.

図4に示すように、第1制御部30は、機能的な構成として、DRR画像生成部31、教師画像生成部32、および、学習モデル生成部33を含む。DRR画像生成部31、教師画像生成部32、および、学習モデル生成部33は、プログラム(ソフトウェア)として構成されている。すなわち、第1制御部30が、プログラム(ソフトウェア)を実行することによって、DRR画像生成部31、教師画像生成部32、および、学習モデル生成部33として機能するように構成されている。なお、DRR画像生成部31および教師画像生成部32は、特許請求の範囲の「学習画像生成部」の一例である。 As shown in FIG. 4, the first control unit 30 includes a DRR image generation unit 31, a teacher image generation unit 32, and a learning model generation unit 33 as functional configurations. The DRR image generation unit 31, the teacher image generation unit 32, and the learning model generation unit 33 are configured as programs (software). That is, the first control unit 30 is configured to function as a DRR image generation unit 31, a teacher image generation unit 32, and a learning model generation unit 33 by executing a program (software). The DRR image generation unit 31 and the teacher image generation unit 32 are examples of the “learning image generation unit” in the claims.

また、第1制御部30は、図5に示すように、治療計画装置2によって取得されたCT画像データCに基づいて、入力教師画像T1および出力教師画像T2を生成する処理を行うとともに、機械学習を行うことによって、特定部分Qを抽出するための第1学習モデルM1とマーカーEを抽出するための第2学習モデルM2(図11参照)とを生成する処理を行う。なお、第1学習モデルM1および第2学習モデルM2についての詳細は後述する。 Further, as shown in FIG. 5, the first control unit 30 performs a process of generating an input teacher image T1 and an output teacher image T2 based on the CT image data C acquired by the treatment planning device 2, and also performs a machine learning process. By performing the learning, a process of generating a first learning model M1 for extracting the specific portion Q and a second learning model M2 (see FIG. 11) for extracting the marker E is performed. The details of the first learning model M1 and the second learning model M2 will be described later.

X線撮影部4は、図2に示すように、X線撮影によって被検体Pの特定部分Qを含むX線透視画像Aを取得する。X線撮影部4は、X線照射部41と、X線検出部42とを含む。X線照射部41は、第1X線管41a、第2X線管41b、第3X線管41c、および、第4X線管41dを有する。また、X線検出部42は、第1X線検出器42a、第2X線検出器42b、第3X線検出器42c、および、第4X線検出器42dを有する。第1〜第4X線検出器42a〜42dは、それぞれ、たとえば、FPD(Flat Panel Detector)を有する。第1X線検出器42aは、第1X線管41aより照射されたX線を検出する。第1X線管41aと第1X線検出器42aとは、第1X線撮影系を構成する。同様に、第2X線検出器42bは、第2X線管41bより照射されたX線を検出する。第2X線管41bと第2X線検出器42bとは、第2X線撮影系を構成する。同様に、第3X線検出器42cは、第3X線管41cより照射されたX線を検出する。第3X線管41cと第3X線検出器42cとは、第3X線撮影系を構成する。同様に、第4X線検出器42dは、第4X線管41dより照射されたX線を検出する。第4X線管41dと第4X線検出器42dとは、第4X線撮影系を構成する。なお、X線透視画像Aは、特許請求の範囲の「X線画像」の一例である。 As shown in FIG. 2, the X-ray imaging unit 4 acquires an X-ray fluoroscopic image A including a specific portion Q of the subject P by X-ray imaging. The X-ray imaging unit 4 includes an X-ray irradiation unit 41 and an X-ray detection unit 42. The X-ray irradiation unit 41 includes a first X-ray tube 41a, a second X-ray tube 41b, a third X-ray tube 41c, and a fourth X-ray tube 41d. Further, the X-ray detector 42 includes a first X-ray detector 42a, a second X-ray detector 42b, a third X-ray detector 42c, and a fourth X-ray detector 42d. The first to fourth X-ray detectors 42a to 42d each have, for example, an FPD (Flat Panel Detector). The first X-ray detector 42a detects the X-rays emitted from the first X-ray tube 41a. The first X-ray tube 41a and the first X-ray detector 42a constitute a first X-ray imaging system. Similarly, the second X-ray detector 42b detects the X-rays emitted from the second X-ray tube 41b. The second X-ray tube 41b and the second X-ray detector 42b form a second X-ray imaging system. Similarly, the third X-ray detector 42c detects the X-rays emitted from the third X-ray tube 41c. The third X-ray tube 41c and the third X-ray detector 42c form a third X-ray imaging system. Similarly, the 4th X-ray detector 42d detects the X-rays emitted from the 4th X-ray tube 41d. The 4th X-ray tube 41d and the 4th X-ray detector 42d constitute a 4th X-ray imaging system. The X-ray fluoroscopic image A is an example of the "X-ray image" in the claims.

なお、放射線治療を行うために被検体Pの特定部分Qを含む領域をX線撮影する際には、第1〜第4X線撮影系の4つの撮影系のうちから2つの撮影系が選択されてX線撮影部4として使用される。 When X-ray imaging a region including a specific portion Q of the subject P for radiotherapy, two imaging systems are selected from the four imaging systems of the first to fourth X-ray imaging systems. It is used as an X-ray imaging unit 4.

図1に示すように、X線画像処理装置5は、第2制御部50および操作部53を含む。第2制御部50は、たとえば、CPUを有する。X線画像処理装置5は、ハードウェア的な構成として、たとえば、CPU、GPU、ROM、および、RAMなどを有する。また、X線画像処理装置5は、記憶部として、HDDまたは不揮発性のメモリなどを含んでいる。 As shown in FIG. 1, the X-ray image processing device 5 includes a second control unit 50 and an operation unit 53. The second control unit 50 has, for example, a CPU. The X-ray image processing device 5 has, for example, a CPU, a GPU, a ROM, a RAM, and the like as a hardware configuration. Further, the X-ray image processing device 5 includes an HDD, a non-volatile memory, or the like as a storage unit.

図4に示すように、第2制御部50は、機能的な構成として、特定部分処理部51、および、マーカー処理部52を含む。特定部分処理部51、および、マーカー処理部52は、プログラム(ソフトウェア)によって構成されている。すなわち、第2制御部50は、プログラム(ソフトウェア)を実行することによって、特定部分処理部51、および、マーカー処理部52として機能するように構成されている。 As shown in FIG. 4, the second control unit 50 includes a specific partial processing unit 51 and a marker processing unit 52 as functional configurations. The specific partial processing unit 51 and the marker processing unit 52 are configured by a program (software). That is, the second control unit 50 is configured to function as the specific partial processing unit 51 and the marker processing unit 52 by executing the program (software).

X線画像処理装置5は、図5に示すように、学習装置3によって生成された第1学習モデルM1および第2学習モデルM2(図11参照)に基づいて、X線撮影部4によって撮影されたX線画像であるX線透視画像Aに対して、特定部分Qを抽出する処理を行う。X線透視は、一般X線撮影に比べて少ない量のX線を連続的に照射することによって、被ばく量の増加を抑制しながら、被検体Pの体内の様子を動画像として取得する方法である。X線画像処理装置5は、X線撮影部4によって撮影されたX線透視画像Aを入力データとして、学習装置3において機械学習によって生成された第1学習モデルM1および第2学習モデルM2を用いることによって、特定部分Qの位置を追跡するための出力画像Aαを取得する。そして、X線画像処理装置5は、取得した特定部分Qの位置に関する情報に基づいて、放射線治療装置1が治療ビームを照射する位置と、治療ビームを照射するタイミングとを制御するための信号を、放射線治療装置1に対して送信する。 As shown in FIG. 5, the X-ray image processing device 5 is photographed by the X-ray photographing unit 4 based on the first learning model M1 and the second learning model M2 (see FIG. 11) generated by the learning device 3. A process for extracting a specific portion Q is performed on the X-ray fluoroscopic image A which is an X-ray image. X-ray fluoroscopy is a method of continuously irradiating a smaller amount of X-rays than general X-ray photography to acquire a moving image of the inside of the subject P while suppressing an increase in the amount of exposure. is there. The X-ray image processing device 5 uses the first learning model M1 and the second learning model M2 generated by machine learning in the learning device 3 as input data of the X-ray fluoroscopic image A captured by the X-ray photographing unit 4. By doing so, the output image Aα for tracking the position of the specific portion Q is acquired. Then, the X-ray image processing device 5 outputs a signal for controlling the position at which the radiotherapy device 1 irradiates the treatment beam and the timing at which the treatment beam is radiated, based on the acquired information regarding the position of the specific portion Q. , Transmit to the radiotherapy device 1.

特定部分処理部51は、学習済みの第1学習モデルM1に基づいて、X線撮影によって取得された被検体Pの特定部分Qを含むX線透視画像Aに対して、特定部分Qを抽出する処理を行う。 The specific part processing unit 51 extracts the specific part Q from the fluoroscopic image A including the specific part Q of the subject P acquired by X-ray imaging based on the trained first learning model M1. Perform processing.

マーカー処理部52は、学習済みの第2学習モデルM2に基づいて、X線撮影によって取得された被検体Pの特定部分Qを含むX線透視画像Aに対して、マーカーEを抽出することによって特定部分Qを抽出する処理を行う。 The marker processing unit 52 extracts the marker E from the X-ray fluoroscopic image A including the specific portion Q of the subject P acquired by X-ray imaging based on the trained second learning model M2. A process for extracting a specific part Q is performed.

操作部53は、特定部分処理部51とマーカー処理部52とのいずれによって、処理を行うかを選択するための入力操作を受け付ける。具体的には、被検体Pの体内に留置されているマーカーEの位置および個数の少なくとも一方が、CT画像データCとX線透視画像Aとで変化している場合には、マーカーEの位置および個数によらず特定部分Qを抽出するために特定部分処理部51による処理が選択される。また、被検体Pの体内に留置されているマーカーEの位置および個数の両方が、CT画像データCとX線透視画像Aとで変化していない場合には、マーカーEを抽出するためにマーカー処理部52による処理が選択される。操作部53は、たとえば、マウスおよびキーボードを含む。 The operation unit 53 accepts an input operation for selecting whether to perform processing by the specific partial processing unit 51 or the marker processing unit 52. Specifically, when at least one of the position and the number of markers E placed in the body of the subject P changes between the CT image data C and the fluoroscopic image A, the position of the marker E And the process by the specific partial processing unit 51 is selected to extract the specific partial Q regardless of the number. Further, when both the position and the number of markers E placed in the body of the subject P are not changed between the CT image data C and the fluoroscopic image A, the markers are used to extract the markers E. Processing by the processing unit 52 is selected. The operation unit 53 includes, for example, a mouse and a keyboard.

(第1実施形態における第1学習モデルの生成に関して)
ここで、本実施形態では、DRR画像生成部31によって、CT画像データCに基づいて、被検体Pの特定部分Qを含む領域についてのDRR画像Dが生成され取得される。そして、教師画像生成部32によって、取得されたDRR画像Dに対して、被検体Pとは別個の所定の物体に関する画像を含む物体形状画像Bが加えられている画像と、DRR画像Dに対して物体形状画像Bが減じられている画像との少なくとも一方を含む入力教師画像T1が生成される。また、教師画像生成部32によって、入力教師画像T1と同じ領域における特定部分Qを示す画像である出力教師画像T2が生成される。そして、学習モデル生成部33によって、入力教師画像T1および出力教師画像T2を用いて、機械学習を行うことにより、特定部分Qの抽出を行うための第1学習モデルM1を生成する。
(Regarding the generation of the first learning model in the first embodiment)
Here, in the present embodiment, the DRR image generation unit 31 generates and acquires a DRR image D for a region including a specific portion Q of the subject P based on the CT image data C. Then, the teacher image generation unit 32 adds an object shape image B including an image relating to a predetermined object separate from the subject P to the acquired DRR image D, and the DRR image D. The input teacher image T1 including at least one of the image in which the object shape image B is reduced is generated. Further, the teacher image generation unit 32 generates an output teacher image T2 which is an image showing a specific portion Q in the same region as the input teacher image T1. Then, the learning model generation unit 33 generates a first learning model M1 for extracting a specific portion Q by performing machine learning using the input teacher image T1 and the output teacher image T2.

<DRR画像の生成に関して>
DRR画像生成部31は、図6に示すように、コンピュータ断層撮影による3次元データであるCT画像データCに基づいて、デジタル再構成シミュレーションによって特定部分Qを含むDRR画像Dを生成する。なお、DRR画像Dは、特許請求の範囲における「2次元投影画像」の一例である。
<Regarding DRR image generation>
As shown in FIG. 6, the DRR image generation unit 31 generates a DRR image D including a specific portion Q by a digital reconstruction simulation based on CT image data C which is three-dimensional data obtained by computed tomography. The DRR image D is an example of a "two-dimensional projected image" in the claims.

DRR画像生成部31は、DRR画像Dを生成するにあたって、3次元仮想空間上において、仮想的なX線管41αと仮想的なX線検出器42αとを、CT画像データCに対してX線撮影を行うように配置することによって、仮想的なX線撮影系の3次元空間的配置(撮影ジオメトリ)を生成する。これらのCT画像データCと、CT画像データCに対する仮想的なX線撮影系の配置は、図2に示す実際の被検体PとX線照射部41とX線検出部42との配置と同一の撮影ジオメトリとなっている。ここで、撮影ジオメトリとは、被検体PとX線照射部41およびX線検出部42との3次元空間における幾何学的な配置関係を意味する。 In generating the DRR image D, the DRR image generation unit 31 uses a virtual X-ray tube 41α and a virtual X-ray detector 42α in a three-dimensional virtual space to X-ray the CT image data C. By arranging so as to perform imaging, a three-dimensional spatial arrangement (imaging geometry) of a virtual X-ray imaging system is generated. The arrangement of these CT image data C and the virtual X-ray imaging system with respect to the CT image data C is the same as the arrangement of the actual subject P, the X-ray irradiation unit 41, and the X-ray detection unit 42 shown in FIG. It is the shooting geometry of. Here, the imaging geometry means the geometrical arrangement relationship between the subject P and the X-ray irradiation unit 41 and the X-ray detection unit 42 in a three-dimensional space.

そして、DRR画像生成部31は、仮想的なX線管41αから仮想的なX線検出器42αに対してX線を照射することによって、CT画像データCを仮想的にX線撮影する。このとき、DRR画像生成部31は、X線管41αから照射されたX線が仮想的なX線検出器42αに到達するまでに通過した画素部分(ボクセル)におけるCT値の合計を加算することによってDRR画像Dにおける各画素値を計算する。 Then, the DRR image generation unit 31 virtually takes an X-ray image of the CT image data C by irradiating the virtual X-ray detector 42α with X-rays from the virtual X-ray tube 41α. At this time, the DRR image generation unit 31 adds the total CT values in the pixel portions (voxels) that the X-rays emitted from the X-ray tube 41α have passed by the time they reach the virtual X-ray detector 42α. Each pixel value in the DRR image D is calculated by.

上記のようにして、DRR画像生成部31は、3次元における画素値データであるCT画像データCに対して、X線撮影部4によって取得される被検体PのX線透視画像Aと同一領域を同一角度から撮影したものとなるように、仮想的にX線撮影が行われたものとして2次元に投影することによってDRR画像Dを生成する。 As described above, the DRR image generation unit 31 has the same region as the X-ray fluoroscopic image A of the subject P acquired by the X-ray imaging unit 4 with respect to the CT image data C which is the pixel value data in three dimensions. The DRR image D is generated by projecting the images in two dimensions as if they were virtually X-rayed so that the images were taken from the same angle.

<入力教師画像および出力教師画像の生成に関して>
CT画像データCに基づいて生成されたDRR画像Dと、X線撮影部4によって撮影されたX線透視画像Aとでは、画像に含まれる構成物が異なる場合がある。たとえば、図7に示すように、X線検出部42に含まれるFPDのカバーFは、CT画像データCに基づいて生成されるDRR画像Dには含まれないが、X線透視画像Aには含まれる場合がある。このように、DRR画像Dに含まれる構成物とX線透視画像Aに含まれる構成物との間に差異がある場合、学習モデルを用いた特定部分Qの抽出の精度が低下する場合がある。そのため、DRR画像Dに含まれる構成物とX線透視画像Aに含まれる構成物との間に差異がある場合においても特定部分Qの抽出が精度よく行われるように、教師画像生成部32によって、DRR画像Dに対して処理を行う。言い換えると、DRR画像Dに含まれる構成物をX線透視画像Aに含まれる構成物に対応させた状態のDRR画像Dを入力教師画像T1として機械学習を行う。
<Regarding the generation of input teacher image and output teacher image>
The DRR image D generated based on the CT image data C and the X-ray fluoroscopic image A captured by the X-ray imaging unit 4 may have different components included in the image. For example, as shown in FIG. 7, the cover F of the FPD included in the X-ray detection unit 42 is not included in the DRR image D generated based on the CT image data C, but is included in the X-ray fluoroscopic image A. May be included. As described above, when there is a difference between the component included in the DRR image D and the component included in the fluoroscopic image A, the accuracy of extracting the specific portion Q using the learning model may decrease. .. Therefore, the teacher image generation unit 32 ensures that the specific portion Q is extracted accurately even when there is a difference between the component included in the DRR image D and the component included in the X-ray fluoroscopic image A. , DRR image D is processed. In other words, machine learning is performed using the DRR image D in a state in which the component included in the DRR image D corresponds to the component included in the fluoroscopic image A as the input teacher image T1.

具体的には、教師画像生成部32は、図8に示すように、生成されたDRR画像Dに対して被検体Pとは別個の所定の物体に関する画像を含む物体形状画像Bが加えられている画像と、生成されたDRR画像Dに対して物体形状画像Bが減じられている画像との少なくとも一方を含む入力教師画像T1を生成する。教師画像生成部32は、生成されたDRR画像Dに対して2次元の物体形状画像Bを加えることと、生成されたDRR画像Dに対して2次元の物体形状画像Bを減じることとの少なくとも一方を行うことによって、入力教師画像T1を生成するように構成されている。 Specifically, as shown in FIG. 8, the teacher image generation unit 32 adds an object shape image B including an image relating to a predetermined object separate from the subject P to the generated DRR image D. The input teacher image T1 including at least one of the image and the image in which the object shape image B is subtracted from the generated DRR image D is generated. The teacher image generation unit 32 adds at least a two-dimensional object shape image B to the generated DRR image D and subtracts the two-dimensional object shape image B from the generated DRR image D. By doing one of them, the input teacher image T1 is generated.

物体形状画像Bは、X線透視画像Aに含まれる構成物を模した画像とX線透視画像Aに含まれる構成物を撮影した画像との少なくとも一方を含む。物体形状画像Bは、被検体Pとは別個の所定の物体として、X線を検出するための検出器(第1〜第4X線検出器42a〜42d)および被検体Pが載置されている天板11の少なくとも一方を含む構造物と、マーカーE、カテーテル、および、ステントの少なくとも1つを含む被検体Pの体内に留置される部材との少なくとも一方を含む。すなわち、物体形状画像Bは、DRR画像Dには含まれていないが、X線透視画像Aには含まれている構成物を含む画像である。また、物体形状画像Bは、前述した構造物および部材に限られず、放射線照射装置による治療ビームの散乱によるノイズを模した図形も含む。 The object shape image B includes at least one of an image imitating a component included in the X-ray fluoroscopic image A and an image obtained by photographing the component included in the X-ray fluoroscopic image A. In the object shape image B, detectors (first to fourth X-ray detectors 42a to 42d) for detecting X-rays and subject P are placed as predetermined objects separate from the subject P. It includes at least one of a structure including at least one of the top plate 11 and a member placed in the body of the subject P including the marker E, the catheter, and at least one of the stents. That is, the object shape image B is an image including components that are not included in the DRR image D but are included in the X-ray fluoroscopic image A. Further, the object shape image B is not limited to the above-mentioned structures and members, but also includes a figure that imitates noise due to scattering of a treatment beam by an irradiation device.

たとえば、X線透視画像Aに被検体Pとは別個の物体である構造物としてX線検出部42の一部であるFPDのカバーFが映りこむ場合、DRR画像Dに対してFPDのカバーFを模した物体形状画像Bを加えた画像を入力教師画像T1として機械学習を行う。この場合、物体形状画像Bは、FPDのカバーFを模した直線状の画像として表される。また、図9に示すように、放射線治療を行う際には、放射線治療装置1による治療ビームによる散乱線の影響で、X線透視画像Aに横線状のノイズが生じる場合がある。この場合は、直線状の画像である物体形状画像Bを横線としてDRR画像Dに加えることによって、治療ビームによるノイズを模すことができる。 For example, when the cover F of the FPD, which is a part of the X-ray detection unit 42, is reflected on the X-ray fluoroscopic image A as a structure that is an object separate from the subject P, the cover F of the FPD is reflected on the DRR image D. Machine learning is performed using the image to which the object shape image B imitating the above is added as the input teacher image T1. In this case, the object shape image B is represented as a linear image imitating the cover F of the FPD. Further, as shown in FIG. 9, when performing radiotherapy, horizontal noise may be generated in the X-ray fluoroscopic image A due to the influence of scattered rays generated by the treatment beam by the radiotherapy device 1. In this case, the noise caused by the treatment beam can be imitated by adding the object shape image B, which is a linear image, to the DRR image D as a horizontal line.

また、たとえば、図10に示すように、被検体Pの体内に金属で構成されたマーカーEが留置されている場合は、X線透視画像AとDRR画像Dとの両方にマーカーEが映りこむ。なお、マーカーEは、放射線治療を行う際に、被検体Pの特定部分Qの位置を特定するための印として、CT画像データCを取得する前に被検体Pの体内に穿刺などによって留置されるものである。しかし、CT画像データCを取得した時点から、放射線治療を行う時点までの間に、被検体Pの体内に留置していたマーカーEが脱落すること、および、マーカーEの位置が移動することなど、が起こる場合がある。そうした場合、CT画像データCに基づいて生成されたDRR画像Dに含まれるマーカーEの位置および個数と、X線透視画像Aに含まれるマーカーEの位置および個数と、に変化が現れることとなる。この変化がある場合には、学習モデルを用いた特定部分Qの抽出の精度が低下することがある。そのため、学習モデルを生成する際に、予めマーカーEの位置および個数が変更された複数のDRR画像Dを入力教師画像T1として、機械学習を行うことによってマーカーEの個数が変化している場合においても特定部分Qの抽出が可能な学習モデルを生成する。この場合、物体形状画像Bは、マーカーEを模した円形の画像で表される。そして、DRR画像Dに対してマーカーEを模した円形の画像を加えた入力教師画像T1を生成する。 Further, for example, as shown in FIG. 10, when the marker E made of metal is placed in the body of the subject P, the marker E is reflected in both the fluoroscopic image A and the DRR image D. .. The marker E is placed in the body of the subject P by puncture or the like before acquiring the CT image data C as a mark for specifying the position of the specific portion Q of the subject P when performing radiotherapy. It is a thing. However, between the time when the CT image data C is acquired and the time when the radiotherapy is performed, the marker E indwelled in the body of the subject P falls off, and the position of the marker E moves. , May occur. In such a case, the position and number of markers E included in the DRR image D generated based on the CT image data C and the position and number of markers E included in the fluoroscopic image A will change. .. When there is this change, the accuracy of extracting the specific part Q using the learning model may decrease. Therefore, when the learning model is generated, the number of markers E is changed by performing machine learning using a plurality of DRR images D whose positions and numbers of markers E are changed in advance as input teacher images T1. Also generates a learning model that can extract a specific part Q. In this case, the object shape image B is represented by a circular image imitating the marker E. Then, the input teacher image T1 is generated by adding a circular image imitating the marker E to the DRR image D.

このようにして、教師画像生成部32は、生成されたDRR画像Dに対して2次元の物体形状画像Bを加えることと、生成されたDRR画像Dに対して2次元の物体形状画像Bを減じることとの少なくとも一方を行うことによって、入力教師画像T1を生成するように構成されている。 In this way, the teacher image generation unit 32 adds the two-dimensional object shape image B to the generated DRR image D, and adds the two-dimensional object shape image B to the generated DRR image D. It is configured to generate the input teacher image T1 by doing at least one of the reductions.

また、2次元の物体形状画像Bを用いる場合とは別に、3次元の画素値データを有するCT画像データCに3次元的に処理を行うことによって、X線透視画像Aに含まれる構成物に、DRR画像Dを対応させた状態で入力教師画像T1を生成する場合も考えられる。すなわち、教師画像生成部32は、コンピュータ断層撮影による3次元データであるCT画像データCに対して、3次元の物体形状画素値データを加えることと、3次元データに対して3次元の物体形状画素値データを減じることとの少なくとも一方を行った状態で、デジタル再構成シミュレーションにより2次元に投影することによって、入力教師画像T1を生成するように構成されている。 Further, apart from the case where the two-dimensional object shape image B is used, the CT image data C having the three-dimensional pixel value data is processed three-dimensionally to obtain the component included in the X-ray fluoroscopic image A. , It is also conceivable to generate the input teacher image T1 in a state where the DRR image D is associated with each other. That is, the teacher image generation unit 32 adds the three-dimensional object shape pixel value data to the CT image data C, which is the three-dimensional data obtained by computer tomography, and the three-dimensional object shape to the three-dimensional data. It is configured to generate the input teacher image T1 by projecting it in two dimensions by a digital reconstruction simulation in a state where at least one of the pixel value data is reduced.

たとえば、マーカーEが脱落および移動したX線透視画像Aを模したDRR画像Dを入力教師画像T1として生成する場合について考える。CT画像データCにおいて、被検体Pの体内に留置されたマーカーEは、金属であるため、被検体Pの体組織と比べて非常に高いCT値を示す。そのため、CT値に基づいて、体内にマーカーEを留置された状態で取得された被検体PについてのCT画像データCのうちからマーカーEを表す画素部分(ボクセル)を指定することが可能である。つまり、ある値(たとえば、CT値が1000)よりも大きい画素部分(ボクセル)をマーカーEとして指定する。そこで、指定されたマーカーEを示す画素部分(ボクセル)を除去することと、CT画像データ中の適当な位置にマーカーEと同じ値のCT値を加えることとを行う。このように、教師画像生成部32は、3次元データであるCT画像データCにおいて、物体形状画素値データ(マーカーEについてのCT値)を加えることと、物体形状画素値データを減じることとを行い、CT画像データC上で、仮想的にマーカーEの位置および個数を自由に変更させることが可能となる。そして、教師画像生成部32は、マーカーEの位置および個数を変更させた状態において、デジタル再構築シミュレーションによって、マーカーEの位置および個数が変更された複数の入力教師画像T1を生成する。 For example, consider a case where a DRR image D imitating an X-ray fluoroscopic image A in which the marker E is dropped and moved is generated as an input teacher image T1. In the CT image data C, since the marker E placed in the body of the subject P is a metal, it shows a very high CT value as compared with the body tissue of the subject P. Therefore, based on the CT value, it is possible to specify a pixel portion (voxel) representing the marker E from the CT image data C of the subject P acquired with the marker E placed in the body. .. That is, a pixel portion (voxel) larger than a certain value (for example, a CT value of 1000) is designated as the marker E. Therefore, the pixel portion (voxel) indicating the designated marker E is removed, and the CT value having the same value as the marker E is added to an appropriate position in the CT image data. In this way, the teacher image generation unit 32 adds the object shape pixel value data (CT value for the marker E) to the CT image data C which is three-dimensional data, and reduces the object shape pixel value data. This makes it possible to virtually freely change the position and number of markers E on the CT image data C. Then, the teacher image generation unit 32 generates a plurality of input teacher images T1 in which the position and the number of the markers E are changed by the digital reconstruction simulation in the state where the position and the number of the markers E are changed.

また、教師画像生成部32は、入力教師画像T1を生成する際、DRR画像Dに対して被検体Pとは別個の所定の物体に関する画像を含む物体形状画像Bを、ランダムな位置にランダムな大きさで加えることと、DRR画像Dに対して物体形状画像Bをランダムな位置にランダムな大きさで減じることと、の少なくとも一方を行うように構成されている。たとえば、直線で表された物体形状画像Bについて、位置、角度、線の太さ、画素値、および、本数などをランダムに変更させながらDRR画像Dに加えることによって入力教師画像T1を生成する。また、円形である物体形状画像Bについて、位置、大きさ(半径)、画素値、および、個数をランダムに変更させながらDRR画像Dに加えることによって入力教師画像T1を生成する。また、DRR画像Dに含まれるマーカーEの数をランダムに減少させることによって入力教師画像T1を生成する。 Further, when the teacher image generation unit 32 generates the input teacher image T1, the object shape image B including an image relating to a predetermined object different from the subject P with respect to the DRR image D is randomly generated at a random position. It is configured to perform at least one of adding by size and subtracting the object shape image B to a random position by a random size with respect to the DRR image D. For example, the input teacher image T1 is generated by adding the object shape image B represented by a straight line to the DRR image D while randomly changing the position, angle, line thickness, pixel value, number of lines, and the like. Further, the input teacher image T1 is generated by adding the circular object shape image B to the DRR image D while randomly changing the position, size (radius), pixel value, and number. Further, the input teacher image T1 is generated by randomly reducing the number of markers E included in the DRR image D.

上記のように、教師画像生成部32は、生成されたDRR画像Dのランダムな位置にランダムな大きさの2次元での物体形状画像Bを加えることと、2次元での物体形状画像Bを減じることと、3次元のCT画像データCに対して、3次元の物体形状画素値データを加えることと、3次元の物体形状データを減じることとを、それぞれ、ランダムに組み合わせることによって、複数のパターンの入力教師画像T1を生成する。 As described above, the teacher image generation unit 32 adds the object shape image B in two dimensions of random size to the random position of the generated DRR image D, and the object shape image B in two dimensions. By randomly combining the reduction, the addition of the three-dimensional object shape pixel value data to the three-dimensional CT image data C, and the reduction of the three-dimensional object shape data, a plurality of pieces are used. Pattern input A teacher image T1 is generated.

図5に示すように、教師画像生成部32は、入力教師画像T1と同様に、DRR画像Dに基づいて出力教師画像T2を生成する。具体的には、CT画像データCのうちの医師によって登録された特定部分Qに関する画素部分(ボクセル)についてのみのDRR画像Dを生成する。すなわち、CT画像データC全体ではなく、特定部分Qのみに対して、仮想的なX線撮影を行う。その結果、得られた特定部分QについてのDRR画像Dを、特定部分Qを含む領域と特定部分Qを含まない領域との2つの領域に区分して、2値化した出力教師画像T2を生成する。なお、複数のDRR画像Dに基づいて複数の入力教師画像T1を生成する場合には、複数の入力教師画像T1のそれぞれに対応する複数の出力教師画像T2を生成する。すなわち、複数の入力教師画像T1の各々における撮影ジオメトリと同一の撮影ジオメトリを用いて、出力教師画像T2を生成する。言い換えると、複数の入力教師画像T1の各々に対して、入力教師画像T1と同じ領域における特定部分Qを示す画像を出力教師画像T2として生成する。 As shown in FIG. 5, the teacher image generation unit 32 generates the output teacher image T2 based on the DRR image D in the same manner as the input teacher image T1. Specifically, the DRR image D is generated only for the pixel portion (voxel) related to the specific portion Q registered by the doctor in the CT image data C. That is, virtual X-ray imaging is performed only on the specific portion Q, not on the entire CT image data C. As a result, the obtained DRR image D for the specific portion Q is divided into two regions, a region including the specific portion Q and a region not including the specific portion Q, and a binarized output teacher image T2 is generated. To do. When a plurality of input teacher images T1 are generated based on a plurality of DRR images D, a plurality of output teacher images T2 corresponding to each of the plurality of input teacher images T1 are generated. That is, the output teacher image T2 is generated by using the same shooting geometry as the shooting geometry in each of the plurality of input teacher images T1. In other words, for each of the plurality of input teacher images T1, an image showing a specific portion Q in the same region as the input teacher image T1 is generated as the output teacher image T2.

<第1学習モデルの生成に関して>
学習モデル生成部33は、図5に示すように、教師画像生成部32によって生成された入力教師画像T1を入力層として取得する。そして、学習モデル生成部33は、治療計画装置2において登録された特定部分Qの領域を表すように教師画像生成部32によって生成された2チャンネルのラベル画像である出力教師画像T2を出力層として取得する。そして、学習モデル生成部33は、入力層および出力層を用いて、機械学習を行う。学習モデル生成部33は、学習モデルとして使用する畳み込み層を学習することによって、第1学習モデルM1を生成する。そして、特定部分処理部51は、生成された第1学習モデルM1を用いて、X線透視画像Aにおける特定部分Qの領域を抽出する。X線透視画像Aを入力層として、学習モデル生成部33によって生成された第1学習モデルM1を用いることにより、出力層として2チャンネルのラベル画像である出力画像Aαを生成する。
<Regarding the generation of the first learning model>
As shown in FIG. 5, the learning model generation unit 33 acquires the input teacher image T1 generated by the teacher image generation unit 32 as an input layer. Then, the learning model generation unit 33 uses the output teacher image T2, which is a 2-channel label image generated by the teacher image generation unit 32 so as to represent the region of the specific portion Q registered in the treatment planning device 2, as an output layer. get. Then, the learning model generation unit 33 performs machine learning using the input layer and the output layer. The learning model generation unit 33 generates the first learning model M1 by learning the convolution layer used as the learning model. Then, the specific part processing unit 51 extracts the region of the specific part Q in the X-ray fluoroscopic image A by using the generated first learning model M1. By using the X-ray fluoroscopic image A as an input layer and using the first learning model M1 generated by the learning model generation unit 33, an output image Aα which is a 2-channel label image is generated as an output layer.

画像処理において、たとえば、画像内の各々の画素をクラスに分類する(ラベル付けする)手法であるセマンティック・セグメンテーションを用いて特定部分Qを抽出する。セマンティック・セグメンテーションの手法として、FCN(Fully Convolutional Network:全層畳み込みネットワーク)が用いられる。FCNにおいて用いられる畳み込みニューラルネットワークは、たとえば、図5のような構成となる。そして、中間層は、畳み込み層のみで構成されており、機械学習によってパラメータが決定される。 In image processing, for example, a specific part Q is extracted by using semantic segmentation, which is a method of classifying (labeling) each pixel in an image into classes. As a method of semantic segmentation, FCN (Full Convolutional Network) is used. The convolutional neural network used in FCN has, for example, the configuration shown in FIG. The intermediate layer is composed of only the convolution layer, and the parameters are determined by machine learning.

(第2学習モデルによるマーカーの抽出に関して)
続いて、図11を参照して、第2学習モデルM2に関して説明する。特定部分Qを抽出するために用いられた第1学習モデルM1と異なり、第2学習モデルM2は、被検体Pの体内に留置されたマーカーEを抽出するために用いられる。
(Regarding marker extraction by the second learning model)
Subsequently, the second learning model M2 will be described with reference to FIG. Unlike the first learning model M1 used to extract the specific portion Q, the second learning model M2 is used to extract the marker E placed in the body of the subject P.

第2学習モデルM2は、図11に示すように、特定部分Qを示すためのマーカーEが被検体Pの体内に留置された状態で生成された入力教師画像T1であるマーカー抽出用入力教師画像T11と、マーカーEの位置を示す画像であるマーカー抽出用出力教師画像T3を用いて、学習モデル生成部33によって機械学習を行うことにより生成される。 As shown in FIG. 11, the second learning model M2 is an input teacher image for marker extraction, which is an input teacher image T1 generated in a state where the marker E for showing the specific portion Q is placed in the body of the subject P. It is generated by performing machine learning by the learning model generation unit 33 using T11 and the output teacher image T3 for marker extraction, which is an image showing the position of the marker E.

教師画像生成部32は、入力教師画像T1と同様に、DRR画像Dに基づいてマーカー抽出用出力教師画像T3を生成する。具体的には、CT画像データCのうちのマーカーEに対応する画素部分に対して、仮想的なX線管41αと仮想的なX線検出器42αによって、マーカーEを投影するように仮想的なX線撮影を行う。その結果、得られた画像を、マーカーEとマーカーE以外との2つの領域に区分して、2値化したマーカー抽出用出力教師画像T3を生成する。なお、複数のDRR画像Dに基づいて複数のマーカー抽出用入力教師画像T11を生成する場合には、出力教師画像T2と同様に、複数のマーカー抽出用入力教師画像T11のそれぞれに対応する複数のマーカー抽出用出力教師画像T3を生成する。 The teacher image generation unit 32 generates the output teacher image T3 for marker extraction based on the DRR image D, similarly to the input teacher image T1. Specifically, the marker E is virtually projected onto the pixel portion of the CT image data C corresponding to the marker E by the virtual X-ray tube 41α and the virtual X-ray detector 42α. X-ray photography is performed. As a result, the obtained image is divided into two regions, a marker E and a region other than the marker E, and a binarized output teacher image T3 for marker extraction is generated. When a plurality of marker extraction input teacher images T11 are generated based on a plurality of DRR images D, a plurality of marker extraction input teacher images T11 corresponding to each of the plurality of marker extraction input teacher images T11 are similarly generated as in the output teacher image T2. The output teacher image T3 for marker extraction is generated.

学習モデル生成部33は、第1学習モデルM1の生成と同様に、マーカー抽出用入力教師画像T11を入力層として、マーカー抽出用出力教師画像T3を出力層として機械学習を行うことによってマーカーEを抽出するための第2学習モデルM2を生成する。なお、第2学習モデルM2を生成する際のアルゴリズムは、第1学習モデルM1と同様である。 Similar to the generation of the first learning model M1, the learning model generation unit 33 performs machine learning using the marker extraction input teacher image T11 as an input layer and the marker extraction output teacher image T3 as an output layer to generate the marker E. A second learning model M2 for extraction is generated. The algorithm for generating the second learning model M2 is the same as that of the first learning model M1.

上記のようにして生成された、第1学習モデルM1および第2学習モデルM2に基づいて、特定部分Qが抽出される。そして、抽出された特定部分Qの位置に基づいて、放射線治療装置1に対して、放射線を照射する位置および放射線を照射するタイミングを制御するための信号が送られる。 The specific portion Q is extracted based on the first learning model M1 and the second learning model M2 generated as described above. Then, a signal for controlling the position to irradiate the radiation and the timing to irradiate the radiation is sent to the radiotherapy device 1 based on the position of the extracted specific portion Q.

(第1学習モデルの生成方法に関して)
次に、図12を参照して、学習装置3による第1学習モデルM1の生成方法について説明する。
(Regarding the generation method of the first learning model)
Next, a method of generating the first learning model M1 by the learning device 3 will be described with reference to FIG.

まず、ステップ101において、CT画像データCが取得される。 First, in step 101, CT image data C is acquired.

次に、ステップ102において、CT画像データCに基づいて取得された被検体Pの特定部分Qを含む領域についてのDRR画像Dに対して、被検体Pとは別個の所定の物体に関する物体形状画像Bが加えられている画像と、DRR画像Dに対して物体形状画像Bが減じられている画像と、の少なくとも一方を含む入力教師画像T1が生成される。 Next, in step 102, with respect to the DRR image D for the region including the specific portion Q of the subject P acquired based on the CT image data C, an object shape image relating to a predetermined object separate from the subject P is obtained. An input teacher image T1 including at least one of an image in which B is added and an image in which the object shape image B is subtracted from the DRR image D is generated.

次に、ステップ103において、CT画像データCに基づいて、上記DRR画像Dと同じ領域における特定部分Qを示す画像である出力教師画像T2が生成される。 Next, in step 103, an output teacher image T2, which is an image showing a specific portion Q in the same region as the DRR image D, is generated based on the CT image data C.

次に、ステップ104において、入力教師画像T1および、出力教師画像T2を用いて、機械学習を行うことにより、特定部分Qを抽出するための第1学習モデルM1が生成される。 Next, in step 104, the first learning model M1 for extracting the specific portion Q is generated by performing machine learning using the input teacher image T1 and the output teacher image T2.

(放射線治療時における特定部分抽出についての処理)
次に、図13を参照して、第1実施形態によるX線画像処理システム100による制御処理フローについて説明する。
(Processing for specific partial extraction during radiation therapy)
Next, with reference to FIG. 13, the control processing flow by the X-ray image processing system 100 according to the first embodiment will be described.

まず、ステップ111において、学習装置3によって、治療計画装置2によって生成されたCT画像データCが取得される。 First, in step 111, the learning device 3 acquires the CT image data C generated by the treatment planning device 2.

次に、ステップ112において、DRR画像生成部31によってDRR画像Dが生成される。 Next, in step 112, the DRR image D is generated by the DRR image generation unit 31.

次に、ステップ113において、教師画像生成部32において、入力教師画像T1およびマーカー抽出用入力教師画像T11と、出力教師画像T2およびマーカー抽出用出力教師画像T3とが生成される。 Next, in step 113, the teacher image generation unit 32 generates the input teacher image T1 and the marker extraction input teacher image T11, and the output teacher image T2 and the marker extraction output teacher image T3.

次に、ステップ114において、学習モデル生成部33において、第1学習モデルM1および第2学習モデルM2が生成される。 Next, in step 114, the learning model generation unit 33 generates the first learning model M1 and the second learning model M2.

次に、ステップ115において、X線撮影部4において、X線透視画像Aが撮影される。 Next, in step 115, the X-ray imaging unit 4 photographs the X-ray fluoroscopic image A.

次に、ステップ116において、X線透視画像Aと第1学習モデルM1および第2学習モデルM2とに基づいて、特定部分Qが抽出される。 Next, in step 116, the specific portion Q is extracted based on the fluoroscopic image A and the first learning model M1 and the second learning model M2.

次に、ステップ117において、抽出された特定部分Qの位置情報にもとづいて、放射線治療装置1に対して、信号が送られる。 Next, in step 117, a signal is sent to the radiotherapy device 1 based on the extracted position information of the specific portion Q.

次に、ステップ118において、放射線治療装置1によって、放射線が照射される。 Next, in step 118, the radiation therapy device 1 irradiates the radiation.

(X線画像処理システムの使用例)
次に、図14を参照して、第1実施形態におけるX線画像処理システム100の使用例について説明する。本発明の第1実施形態によるX線画像処理システム100が用いられる放射線治療は、がんなどの腫瘍に対して放射線(たとえば、高エネルギーのX線)を照射することによって、がんなどの腫瘍を治療する方法である。
(Example of using X-ray image processing system)
Next, an example of using the X-ray image processing system 100 in the first embodiment will be described with reference to FIG. Radiation therapy using the X-ray image processing system 100 according to the first embodiment of the present invention involves irradiating a tumor such as cancer with radiation (for example, high-energy X-ray) to cause a tumor such as cancer. Is a way to treat.

はじめに、放射線治療を行うための、治療計画および事前準備が行われる。まず、ステップ121において、医師により、治療を施す患部である特定部分Qの位置を示すための印となるマーカーEが、被検体Pの体内に穿刺などによって留置される。次に、ステップ122において、CT装置によって被検体PのCT画像データCが取得される。そして、ステップ123において、医師により、CT画像データCと、被検体Pの臨床検査および診察とに基づいて、治療計画装置2において治療の計画が行われる。そして、ステップ124において、学習装置3によって、取得されたCT画像データCに基づいて、X線透視画像Aにおける特定部分Qを抽出するための学習モデルが機械学習によって生成される。このようにして、治療計画および事前準備が行われる。 First, a treatment plan and advance preparations are made for radiation therapy. First, in step 121, a marker E, which serves as a mark for indicating the position of the specific portion Q, which is the affected area to be treated, is placed in the body of the subject P by puncture or the like by a doctor. Next, in step 122, the CT image data C of the subject P is acquired by the CT device. Then, in step 123, the doctor plans the treatment in the treatment planning device 2 based on the CT image data C and the clinical examination and examination of the subject P. Then, in step 124, a learning model for extracting a specific portion Q in the X-ray fluoroscopic image A is generated by machine learning based on the acquired CT image data C by the learning device 3. In this way, treatment planning and advance preparation are carried out.

次に、実際に放射線治療を行う。まず、ステップ125において、放射線治療装置1に備え付けられた診察台の天板11に載置された被検体Pに対して、X線撮影部4によってX線撮影が行われ、X線透視画像Aが取得される。次に、ステップ126において、取得されたX線透視画像Aに対して前述の学習モデルを用いることによって、X線画像処理装置5によって特定部分Qが抽出される。そして、ステップ127において、抽出された特定部分Qの位置に基づいて、放射線を照射することによって、放射線治療が行われる。 Next, radiation therapy is actually performed. First, in step 125, the X-ray imaging unit 4 performs X-ray imaging on the subject P placed on the top plate 11 of the examination table provided in the radiotherapy apparatus 1, and the X-ray fluoroscopic image A Is obtained. Next, in step 126, the specific portion Q is extracted by the X-ray image processing device 5 by using the above-mentioned learning model for the acquired X-ray fluoroscopic image A. Then, in step 127, radiation therapy is performed by irradiating radiation based on the position of the extracted specific portion Q.

(第1実施形態の効果)
第1実施形態では、以下のような効果を得ることができる。
(Effect of the first embodiment)
In the first embodiment, the following effects can be obtained.

第1実施形態のX線画像処理システム100は、上記のように、学習画像生成部(DRR画像生成部31および教師画像生成部32)を、3次元における画素値データを有する3次元データ(CT画像データC)に基づいて取得された被検体Pの特定部分Qを含む領域についての2次元投影画像(DRR画像D)に対して、被検体Pとは別個の所定の物体に関する画像を含む物体形状画像Bが加えられている画像と、DRR画像Dに対して上記物体形状画像Bが減じられている画像と、の少なくとも一方を含む入力教師画像T1と、入力教師画像T1と同じ領域における特定部分Qを示す画像または特定部分Qを除く画像である出力教師画像T2と、を生成するように構成する。そして、学習モデル生成部33を、上記入力教師画像T1および出力教師画像T2を用いて、機械学習を行うことにより、特定部分Qを抽出するか、または、特定部分Qを除去するための第1学習モデルM1を生成するように構成する。これにより、DRR画像Dに対して物体形状画像Bを加えることと減じることとの少なくとも一方を行うので、X線透視画像Aに含まれる構成物に対応するようにDRR画像Dに含まれる構成物を変更することができる。つまり、DRR画像Dに含まれる構成物とX線透視画像Aに含まれる構成物との間に差異がある場合においても対応可能な第1学習モデルM1を生成することができる。たとえば、DRR画像Dに対してX線透視画像Aにのみ含まれる構成物を疑似的に含ませた画像(物体形状画像Bを含んだ画像)を入力教師画像T1として、機械学習を行うことによって第1学習モデルM1を生成することができる。このため、X線透視画像AとDRR画像Dとにおいて、画像に含まれる構成物が異なる場合においても、機械学習によって生成された第1学習モデルM1を用いて、特定部分Qの抽出、または、特定部分Qの除去の精度が低下することを抑制することができる。 In the X-ray image processing system 100 of the first embodiment, as described above, the learning image generation unit (DRR image generation unit 31 and the teacher image generation unit 32) has three-dimensional data (CT) having pixel value data in three dimensions. An object containing an image relating to a predetermined object separate from the subject P with respect to a two-dimensional projected image (DRR image D) about a region including a specific portion Q of the subject P acquired based on the image data C). The input teacher image T1 including at least one of the image to which the shape image B is added and the image in which the object shape image B is subtracted from the DRR image D, and the identification in the same region as the input teacher image T1. It is configured to generate an output teacher image T2 which is an image showing a portion Q or an image excluding a specific portion Q. Then, the learning model generation unit 33 performs machine learning using the input teacher image T1 and the output teacher image T2 to extract the specific portion Q or remove the specific portion Q. It is configured to generate the learning model M1. As a result, at least one of adding and reducing the object shape image B to the DRR image D is performed, so that the components included in the DRR image D correspond to the components included in the fluoroscopic image A. Can be changed. That is, it is possible to generate the first learning model M1 that can handle even when there is a difference between the component included in the DRR image D and the component included in the X-ray fluoroscopic image A. For example, by performing machine learning using an image (an image including an object shape image B) in which a component contained only in the X-ray fluoroscopic image A is pseudo-included in the DRR image D as an input teacher image T1. The first learning model M1 can be generated. Therefore, even when the components included in the X-ray fluoroscopic image A and the DRR image D are different, the specific portion Q can be extracted or the specific portion Q can be extracted by using the first learning model M1 generated by machine learning. It is possible to suppress a decrease in the accuracy of removing the specific portion Q.

また、第1実施形態では、以下のように構成したことによって、更なる効果が得られる。 Further, in the first embodiment, a further effect can be obtained by configuring as follows.

また、第1実施形態では、物体形状画像Bは、所定の物体として、X線を検出するための検出器(第1〜第4X線検出器42a〜42d)および被検体Pが載置される天板11の少なくとも一方を含む構造物と、所定の物体として、マーカーE、ガイドワイヤ、および、カテーテルの少なくとも1つを含む被検体Pの体内に留置される部材と、の少なくとも一方を模した画像と、構造物と部材との少なくとも一方を撮影した画像と、の少なくとも一方を含む。このように構成すれば、たとえば、X線を検出するための検出器(第1〜第4X線検出器42a〜42d)および被検体Pが載置される天板11の少なくとも一方を含む構造物と、マーカーE、ガイドワイヤ、および、カテーテルの少なくとも1つを含む被検体Pの体内に留置される部材との少なくとも一方がX線画像(X線透視画像A)に含まれている場合においても、2次元投影画像(DRR画像D)に上記構造物および上記部材の少なくとも一方を加えることによって、X線透視画像Aに含まれる構成物に対応させるように入力教師画像T1を生成することができる。その結果、X線透視画像Aと、3次元データ(CT画像データC)に基づいて作成されたDRR画像Dとにおいて、画像に含まれる構成物が異なる場合においても、機械学習によって生成された第1学習モデルM1または第2学習モデルM2を用いて、特定部分Qを抽出すること、または、特定部分Qを除去することができる。 Further, in the first embodiment, in the object shape image B, a detector for detecting X-rays (first to fourth X-ray detectors 42a to 42d) and a subject P are placed as predetermined objects. At least one of a structure including at least one of the top plate 11 and a member placed in the body of the subject P including at least one of a marker E, a guide wire, and a catheter as a predetermined object is imitated. Includes at least one of an image and an image of at least one of a structure and a member. With this configuration, for example, a structure including at least one of a detector for detecting X-rays (first to fourth X-ray detectors 42a to 42d) and a top plate 11 on which the subject P is placed. And even when at least one of the marker E, the guide wire, and the member placed in the body of the subject P including at least one of the catheters is included in the X-ray image (X-ray fluoroscopic image A). By adding at least one of the structure and the member to the two-dimensional projected image (DRR image D), the input teacher image T1 can be generated so as to correspond to the structure included in the X-ray fluoroscopic image A. .. As a result, even when the components included in the images are different between the X-ray fluoroscopic image A and the DRR image D created based on the three-dimensional data (CT image data C), the first generated by machine learning. The specific part Q can be extracted or the specific part Q can be removed by using the one learning model M1 or the second learning model M2.

また、第1実施形態では、特定部分Qを示すためのマーカーEが被検体Pの体内に留置された状態で生成された入力教師画像T1であるマーカー抽出用入力教師画像T11と、マーカーEの位置を示す画像であるマーカー抽出用出力教師画像T3とを用いて、学習モデル生成部33によって機械学習を行うことにより生成された、第2学習モデルM2に基づいて、X線撮影によって取得された被検体Pの特定部分Qを含むX線画像(X線透視画像A)に対して、マーカーEを抽出することによって特定部分Qを抽出する処理と、特定部分Qを除去する処理とのいずれか一方を行うマーカー処理部52をさらに備え、特定部分処理部51とマーカー処理部52とのいずれによって、処理を行うかが選択可能なように構成されている。このように構成すれば、画像処理によってマーカーEを抽出することによって特定部分Qを抽出することと、画像処理によって直接的に特定部分Qを抽出することとのいずれの処理を行うかを選択することができる。その結果、マーカーEが脱落するなどしてマーカーEを抽出することができなくなった場合においても、直接的に特定部分Qを抽出することと特定部分Qを除去することとのいずれか一方を行うことができる。 Further, in the first embodiment, the marker extraction input teacher image T11, which is the input teacher image T1 generated in a state where the marker E for indicating the specific portion Q is placed in the body of the subject P, and the marker E Obtained by X-ray photography based on the second learning model M2 generated by performing machine learning by the learning model generation unit 33 using the marker extraction output teacher image T3 which is an image showing the position. Either a process of extracting the specific portion Q by extracting the marker E or a process of removing the specific portion Q with respect to the X-ray image (X-ray fluoroscopic image A) including the specific portion Q of the subject P. A marker processing unit 52 for performing one of the two is further provided, and the specific partial processing unit 51 or the marker processing unit 52 is configured to be able to select whether to perform the processing. With this configuration, it is possible to select whether to perform processing of extracting the specific portion Q by extracting the marker E by image processing or directly extracting the specific portion Q by image processing. be able to. As a result, even when the marker E cannot be extracted due to the marker E falling off, either the specific portion Q is directly extracted or the specific portion Q is removed. be able to.

また、第1実施形態では、入力操作を受け付ける操作部53をさらに備え、操作部53に対する操作の入力を受け付けたことに基づいて、特定部分処理部51とマーカー処理部52とのいずれによって処理を行うかが選択可能なように構成されている。このように構成すれば、操作者が特定部分処理部51とマーカー処理部52とのいずれを用いるかということを操作部53に対する入力操作によって選択することができる。その結果、特定部分処理部51による出力結果とマーカー処理部52による出力結果とのいずれを用いるかを選択する際に、容易に選択することができる。 Further, in the first embodiment, the operation unit 53 that accepts the input operation is further provided, and based on the reception of the input of the operation to the operation unit 53, the processing is performed by either the specific partial processing unit 51 or the marker processing unit 52. It is configured so that you can choose whether to do it. With this configuration, the operator can select which of the specific partial processing unit 51 and the marker processing unit 52 is to be used by an input operation to the operation unit 53. As a result, it can be easily selected when selecting which of the output result by the specific partial processing unit 51 and the output result by the marker processing unit 52 is to be used.

また、第1実施形態では、学習画像生成部(DRR画像生成部31および教師画像生成部32)と学習モデル生成部33とを含む第1制御部30と、特定部分処理部51を含む第2制御部50(250)と、をさらに備える。これにより、第1学習モデルM1および第2学習モデルM2を生成する処理と、特定部分Qを抽出することと特定部分Qを除去することとの少なくとも一方を行う処理と、を別個の制御部によって行うことができる。その結果、被検体Pに対して放射線治療を行う時点よりも前の時点において、予め学習モデルの生成を行うことができるので、放射線治療に要する時間の増大を抑制できる。 Further, in the first embodiment, the first control unit 30 including the learning image generation unit (DRR image generation unit 31 and the teacher image generation unit 32) and the learning model generation unit 33, and the second control unit 30 including the specific partial processing unit 51 are included. A control unit 50 (250) is further provided. As a result, the process of generating the first learning model M1 and the second learning model M2 and the process of performing at least one of extracting the specific portion Q and removing the specific portion Q are performed by a separate control unit. It can be carried out. As a result, since the learning model can be generated in advance at a time point prior to the time point at which the subject P is subjected to radiotherapy, an increase in the time required for radiotherapy can be suppressed.

また、第1実施形態では、学習画像生成部(DRR画像生成部31および教師画像生成部32)は、入力教師画像T1を生成する際、2次元投影画像(DRR画像D)に対して被検体Pとは別個の所定の物体に関する画像を含む物体形状画像Bを、ランダムな位置にランダムな大きさで加えることと、DRR画像Dに対して物体形状画像Bをランダムな位置にランダムな大きさで減じることと、の少なくとも一方を行うように構成されている。このように構成すれば、X線透視画像Aに含まれる構造物および部材について、位置および大きさがどのような構成であっても、X線透視画像Aに対応させるようにDRR画像Dを構成することができる。その結果、入力教師画像T1に基づいて第1学習モデルM1を生成する際に、様々な構成のX線透視画像Aに対応させるように第1学習モデルM1を生成することができるため、X線透視画像Aに含まれる構成物の構成によらず、機械学習によって生成された第1学習モデルM1を用いて特定部分Qを精度よく抽出することと、特定部分Qを精度よく除去することとができる。 Further, in the first embodiment, when the learning image generation unit (DRR image generation unit 31 and the teacher image generation unit 32) generates the input teacher image T1, the subject is subjected to the two-dimensional projection image (DRR image D). An object shape image B containing an image relating to a predetermined object separate from P is added to a random position at a random size, and an object shape image B is added to a DRR image D at a random size at a random size. It is configured to do at least one of the reduction with. With this configuration, the DRR image D is configured so that the structures and members included in the X-ray fluoroscopic image A correspond to the X-ray fluoroscopic image A regardless of the position and size. can do. As a result, when the first learning model M1 is generated based on the input teacher image T1, the first learning model M1 can be generated so as to correspond to the X-ray fluoroscopic image A having various configurations, so that X-rays can be generated. Regardless of the configuration of the components included in the perspective image A, it is possible to accurately extract the specific part Q using the first learning model M1 generated by machine learning and to accurately remove the specific part Q. it can.

また、第1実施形態では、学習画像生成部(DRR画像生成部31および教師画像生成部32)は、コンピュータ断層撮影による3次元データ(CT画像データC)に基づいて、2次元投影画像(DRR画像D)をデジタル再構成シミュレーションにより生成するとともに、生成されたDRR画像Dに対して2次元の物体形状画像Bを加えることと、生成されたDRR画像Dに対して2次元の物体形状画像Bを減じることと、の少なくとも一方を行うことによって、入力教師画像T1を生成するように構成されている。このように構成すれば、X線透視画像Aに含まれる構成物を模した2次元の物体形状画像Bに基づいて入力教師画像T1を生成する場合において、物体形状画像Bを直線状、曲線状、および、円状などの簡易な形状によって表すことができる。このため、DRR画像DをX線透視画像Aの構成に対応させることによって入力教師画像T1を生成する際に、容易に入力教師画像T1を生成することができる。その結果、DRR画像Dに基づく機械学習によって生成された第1学習モデルM1および第2学習モデルM2を用いて、特定部分Qを抽出する際および特定部分Qを除去する際の精度の低下を容易に抑制することができる。 Further, in the first embodiment, the learning image generation unit (DRR image generation unit 31 and teacher image generation unit 32) is based on the three-dimensional data (CT image data C) obtained by computer tomography, and the two-dimensional projection image (DRR). Image D) is generated by digital reconstruction simulation, and a two-dimensional object shape image B is added to the generated DRR image D, and a two-dimensional object shape image B is added to the generated DRR image D. Is configured to generate the input teacher image T1 by subtracting and at least one of them. With this configuration, when the input teacher image T1 is generated based on the two-dimensional object shape image B that imitates the component included in the X-ray fluoroscopic image A, the object shape image B is linear or curved. , And can be represented by a simple shape such as a circle. Therefore, when the input teacher image T1 is generated by making the DRR image D correspond to the configuration of the X-ray fluoroscopic image A, the input teacher image T1 can be easily generated. As a result, using the first learning model M1 and the second learning model M2 generated by machine learning based on the DRR image D, it is easy to reduce the accuracy when extracting the specific part Q and removing the specific part Q. Can be suppressed.

また、第1実施形態では、学習画像生成部(DRR画像生成部31および教師画像生成部32)は、コンピュータ断層撮影による3次元データ(CT画像データC)に対して、3次元の物体形状画素値データを加えることと、CT画像データCに対して3次元の物体形状画素値データを減じることとの少なくとも一方を行った状態で、デジタル再構成シミュレーションにより2次元に投影することによって、入力教師画像T1を生成するように構成されている。このように構成すれば、CT画像データCにおいて、被検体Pの体内に留置される立体物を模した3次元モデルを、CT画像データC上の被検体Pの体内に加えた状態で、2次元投影画像(DRR画像D)を生成することによって入力教師画像T1を生成することができる。このため、治療時に、実際に被検体Pの体内に立体物(部材)を留置する場合に得られるX線透視画像Aに、より対応した入力教師画像T1を生成することができる。その結果、機械学習によって生成された第1学習モデルM1および第2学習モデルM2を用いて特定部分Qを抽出する際、または、特定部分Qを除去する際の精度の低下をより抑制することができる。 Further, in the first embodiment, the learning image generation unit (DRR image generation unit 31 and the teacher image generation unit 32) has a three-dimensional object shape pixel with respect to the three-dimensional data (CT image data C) obtained by computer tomography. Input teacher by projecting in two dimensions by digital reconstruction simulation with at least one of adding value data and subtracting three-dimensional object shape pixel value data with respect to CT image data C. It is configured to generate image T1. With this configuration, in the CT image data C, a three-dimensional model imitating a three-dimensional object placed in the body of the subject P is added to the body of the subject P on the CT image data C. The input teacher image T1 can be generated by generating the three-dimensional projection image (DRR image D). Therefore, it is possible to generate an input teacher image T1 that is more compatible with the X-ray fluoroscopic image A obtained when a three-dimensional object (member) is actually placed in the body of the subject P at the time of treatment. As a result, it is possible to further suppress a decrease in accuracy when extracting the specific portion Q using the first learning model M1 and the second learning model M2 generated by machine learning, or when removing the specific portion Q. it can.

[第2実施形態]
図15〜図20を参照して、第2実施形態によるX線画像処理システム200の構成について説明する。この第2実施形態は、放射線治療において特定部分Qを抽出(追跡)するように構成した第1実施形態とは異なり、血管造影において、骨部Hである特定部分QをX線画像A2上から除去して表示するように構成されている。なお、図中において、上記第1実施形態と同様の構成の部分には、同一の符号を付して図示するとともに説明を省略する。ここで、第2実施形態では、特定部分Qは骨部Hを含む。
[Second Embodiment]
The configuration of the X-ray image processing system 200 according to the second embodiment will be described with reference to FIGS. 15 to 20. This second embodiment is different from the first embodiment in which the specific portion Q is extracted (tracked) in the radiotherapy, and in the angiography, the specific portion Q which is the bone portion H is extracted (tracked) from the X-ray image A2. It is configured to be removed and displayed. In the figure, parts having the same configuration as that of the first embodiment are designated by the same reference numerals, and the description thereof will be omitted. Here, in the second embodiment, the specific portion Q includes the bone portion H.

(第2実施形態によるX線画像処理システムの構成)
図15および図16に示すように、本発明の第2実施形態によるX線画像処理システム200は、表示装置201、CT装置202、学習装置203、X線撮影部204、および、X線画像処理装置205を備える。図17に示すように、X線画像処理システム200は、血管造影の際に、DRR画像D201およびDRR画像D202を用いた機械学習によってX線画像A2から骨部Hを除去するように学習された第3学習モデルM3に基づいて、X線画像A2から骨部Hを除去するように構成されている。また、X線画像処理システム200は、DRR画像D201およびDRR画像D202に含まれる構成物とX線画像A2に含まれる構成物との間に差異がある場合においても、精度よく骨部Hを除去することが可能な第3学習モデルM3を生成するように構成されている。なお、第3学習モデルM3は、特許請求の範囲の「第1学習モデル」の一例である。
(Configuration of X-ray image processing system according to the second embodiment)
As shown in FIGS. 15 and 16, the X-ray image processing system 200 according to the second embodiment of the present invention includes a display device 201, a CT device 202, a learning device 203, an X-ray imaging unit 204, and an X-ray image processing. The device 205 is provided. As shown in FIG. 17, the X-ray image processing system 200 was learned to remove the bone H from the X-ray image A2 by machine learning using the DRR image D201 and the DRR image D202 during angiography. Based on the third learning model M3, the bone H is removed from the X-ray image A2. Further, the X-ray image processing system 200 accurately removes the bone portion H even when there is a difference between the components included in the DRR image D201 and the DRR image D202 and the components included in the X-ray image A2. It is configured to generate a third learning model M3 that can be used. The third learning model M3 is an example of the "first learning model" in the claims.

表示装置201は、X線画像処理装置205によって生成された血管造影画像Kを表示するように構成されている。 The display device 201 is configured to display the angiographic image K generated by the X-ray image processing device 205.

CT装置202は、被検体PについてのCT画像を生成する。 The CT device 202 generates a CT image of the subject P.

図15に示すように、学習装置203は、第1制御部230を含む。第1制御部230は、たとえば、CPUを有する。学習装置203は、ハードウェア的な構成として、たとえば、CPU、GPU、ROM、および、RAMなどを有する。また、学習装置203は、記憶部として、HDDまたは不揮発性のメモリなどを含んでいる。学習装置203は、CT装置202によって生成された2次元のCT画像に基づいて3次元のCT画像データCを生成する。そして、学習装置203は、生成されたCT画像データCに基づいて、第3学習モデルM3を生成する。 As shown in FIG. 15, the learning device 203 includes a first control unit 230. The first control unit 230 has, for example, a CPU. The learning device 203 has, for example, a CPU, a GPU, a ROM, a RAM, and the like as a hardware configuration. Further, the learning device 203 includes an HDD, a non-volatile memory, or the like as a storage unit. The learning device 203 generates three-dimensional CT image data C based on the two-dimensional CT image generated by the CT device 202. Then, the learning device 203 generates the third learning model M3 based on the generated CT image data C.

図18に示すように、第1制御部230は、機能的な構成として、DRR画像生成部231、教師画像生成部232、および、学習モデル生成部233を含む。DRR画像生成部231、教師画像生成部232、および、学習モデル生成部233は、第1実施形態と同様に、プログラム(ソフトウェア)として構成されている。すなわち、第1制御部230が、プログラム(ソフトウェア)を実行することによって、DRR画像生成部231、教師画像生成部232、および、学習モデル生成部233として機能するように構成されている。なお、DRR画像生成部231および教師画像生成部232は、特許請求の範囲の「学習画像生成部」の一例である。 As shown in FIG. 18, the first control unit 230 includes a DRR image generation unit 231, a teacher image generation unit 232, and a learning model generation unit 233 as functional configurations. The DRR image generation unit 231, the teacher image generation unit 232, and the learning model generation unit 233 are configured as programs (software) as in the first embodiment. That is, the first control unit 230 is configured to function as a DRR image generation unit 231, a teacher image generation unit 232, and a learning model generation unit 233 by executing a program (software). The DRR image generation unit 231 and the teacher image generation unit 232 are examples of the "learning image generation unit" in the claims.

DRR画像生成部231は、図17に示すように、第1実施形態と同様にCT装置202において取得されたCT画像によって生成された3次元のCT画像データCに基づいて、DRR画像D201を生成する。すなわち、血管造影を行う際に被検体Pに行われるX線撮影と同一の撮影ジオメトリによってCT画像データCに対して仮想的なX線撮影を行うことによって、DRR画像D201を生成する。また、DRR画像D201を生成した際と同一の撮影ジオメトリにおいて、CT画像データCを構成する画素部分(ボクセル)のうち骨部Hに対応する部分を除いた状態でDRR画像D202を生成する。たとえば、DRR画像D202を生成する際に、CT値が100を超えるボクセルを骨部Hであるとして、骨部Hを除くようにDRR画像D202を生成する。 As shown in FIG. 17, the DRR image generation unit 231 generates the DRR image D201 based on the three-dimensional CT image data C generated by the CT image acquired by the CT apparatus 202 as in the first embodiment. To do. That is, the DRR image D201 is generated by performing a virtual X-ray imaging on the CT image data C with the same imaging geometry as the X-ray imaging performed on the subject P when performing angiography. Further, in the same imaging geometry as when the DRR image D201 was generated, the DRR image D202 is generated in a state where the portion corresponding to the bone portion H is excluded from the pixel portion (voxel) constituting the CT image data C. For example, when the DRR image D202 is generated, the Voxel having a CT value of more than 100 is assumed to be the bone H, and the DRR image D202 is generated so as to exclude the bone H.

教師画像生成部232は、図19に示すように、第1実施形態と同様に、生成されたDRR画像D201に対して被検体Pとは別個の所定の物体に関する画像を含む物体形状画像Bが加えられている画像である入力教師画像T201を生成する。また、入力教師画像T201と同じ領域における骨部Hを含む特定部分Qを除くように生成されたDRR画像D202に対して、入力教師画像T201と同じ位置に同じ大きさの物体形状画像Bが加えられている画像である出力教師画像T202を生成する。つまり、DRR画像生成部231によって、同一の領域について、同一の撮影ジオメトリによって取得された生成されたDRR画像D201およびDRR画像D202に対して、同じ位置に同じ大きさの物体形状画像Bが加えられている画像を、それぞれ、入力教師画像T201および出力教師画像T202として生成する。 As shown in FIG. 19, the teacher image generation unit 232 has an object shape image B including an image relating to a predetermined object separate from the subject P with respect to the generated DRR image D201, as in the first embodiment. The input teacher image T201, which is the added image, is generated. Further, an object shape image B of the same size is added to the DRR image D202 generated so as to exclude the specific portion Q including the bone portion H in the same region as the input teacher image T201 at the same position as the input teacher image T201. The output teacher image T202, which is the image being displayed, is generated. That is, the DRR image generation unit 231 adds an object shape image B of the same size at the same position to the generated DRR image D201 and DRR image D202 acquired by the same shooting geometry in the same area. The images are generated as an input teacher image T201 and an output teacher image T202, respectively.

学習モデル生成部233は、図20に示すように、入力教師画像T201を入力層とするとともに、出力教師画像T202を出力層として、機械学習を行い、第3学習モデルM3を生成する。また、この際、学習モデル生成部233は、物体形状画像Bの種類、個数、大きさ、画素値、濃度などをランダムに加えた複数の入力教師画像T201および出力教師画像T202によって機械学習を行う。 As shown in FIG. 20, the learning model generation unit 233 performs machine learning with the input teacher image T201 as the input layer and the output teacher image T202 as the output layer to generate the third learning model M3. At this time, the learning model generation unit 233 performs machine learning with a plurality of input teacher images T201 and output teacher images T202 in which the type, number, size, pixel value, density, etc. of the object shape image B are randomly added. ..

X線撮影部204は、図16に示すように、X線照射部241と、X線検出部242と、天板243と、を含む。X線照射部241は、天板243に載置されている被検体Pに対してX線を照射する。X線検出部242は、X線照射部241によって照射されたX線を検出する。X線検出部242は、FPDを有する。天板243は、X線撮影が行われる被検体Pが載置される。 As shown in FIG. 16, the X-ray imaging unit 204 includes an X-ray irradiation unit 241, an X-ray detection unit 242, and a top plate 243. The X-ray irradiation unit 241 irradiates the subject P placed on the top plate 243 with X-rays. The X-ray detection unit 242 detects the X-rays emitted by the X-ray irradiation unit 241. The X-ray detector 242 has an FPD. A subject P to be X-rayed is placed on the top plate 243.

図15に示すように、X線画像処理装置205は、第2制御部250を含む。第2制御部250は、たとえば、CPUを有する。X線画像処理装置205は、ハードウェア的な構成として、たとえば、CPU、GPU、ROM、および、RAMなどを有する。また、X線画像処理装置205は、記憶部として、HDDまたは不揮発性のメモリなどを含んでいる。 As shown in FIG. 15, the X-ray image processing apparatus 205 includes a second control unit 250. The second control unit 250 has, for example, a CPU. The X-ray image processing apparatus 205 has, for example, a CPU, a GPU, a ROM, a RAM, and the like as a hardware configuration. Further, the X-ray image processing device 205 includes an HDD, a non-volatile memory, or the like as a storage unit.

図18に示すように、第2制御部250は、機能的な構成として、骨部処理部251を含む。骨部処理部251は、プログラム(ソフトウェア)によって構成されている。すなわち、第2制御部250は、プログラム(ソフトウェア)を実行することによって、骨部処理部251として機能するように構成されている。 As shown in FIG. 18, the second control unit 250 includes a bone processing unit 251 as a functional configuration. The bone processing unit 251 is composed of a program (software). That is, the second control unit 250 is configured to function as the bone processing unit 251 by executing a program (software).

X線画像処理装置205は、機械学習によって学習済みの第3学習モデルM3を学習装置203より取得する。そして、骨部処理部251は、取得した第3学習モデルM3に基づいて、X線撮影部204によって撮影されたX線画像A2から骨部Hを除去した出力画像Aβ(図20参照)を生成するように構成されている。そして、X線画像処理装置205は、撮影された出力画像Aβを用いて、血管造影を行うことによって、骨部Hが除去された状態で血管造影を行うとともに、血管造影の結果である血管造影画像Kを表示装置201に表示させる。なお、骨部処理部251は、特許請求の範囲の「特定部分処理部」の一例である。 The X-ray image processing device 205 acquires the third learning model M3 that has been learned by machine learning from the learning device 203. Then, the bone processing unit 251 generates an output image Aβ (see FIG. 20) in which the bone H is removed from the X-ray image A2 captured by the X-ray imaging unit 204 based on the acquired third learning model M3. It is configured to do. Then, the X-ray image processing apparatus 205 performs angiography using the captured output image Aβ to perform angiography in a state where the bone portion H is removed, and angiography which is the result of the angiography. The image K is displayed on the display device 201. The bone processing unit 251 is an example of the "specific partial processing unit" in the claims.

なお、第2実施形態のその他の構成については、第1実施形態と同様である。 The other configurations of the second embodiment are the same as those of the first embodiment.

(第2実施形態のX線画像処理システム200による制御処理)
次に、図21を参照して、第2実施形態によるX線画像処理システム200による制御処理フローについて説明する。
(Control processing by the X-ray image processing system 200 of the second embodiment)
Next, with reference to FIG. 21, the control processing flow by the X-ray image processing system 200 according to the second embodiment will be described.

まず、ステップ211において、CT装置202よりCT画像が取得される。そして、DRR画像生成部231によって3次元のCT画像データCが生成される。 First, in step 211, a CT image is acquired from the CT device 202. Then, the DRR image generation unit 231 generates the three-dimensional CT image data C.

次に、ステップ212において、DRR画像生成部231によってDRR画像D201およびDRR画像D202が生成される。 Next, in step 212, the DRR image generation unit 231 generates the DRR image D201 and the DRR image D202.

次に、ステップ213において、入力教師画像T201および出力教師画像T202が生成される。 Next, in step 213, the input teacher image T201 and the output teacher image T202 are generated.

次に、ステップ214において、第3学習モデルM3が生成される。 Next, in step 214, the third learning model M3 is generated.

次に、ステップ215において、X線撮影部204によって、X線画像A2が撮影される。 Next, in step 215, the X-ray image A2 is photographed by the X-ray photographing unit 204.

次に、ステップ216において、X線画像処理装置205によって、撮影されたX線画像A2において骨部Hが除去される。 Next, in step 216, the bone portion H is removed from the X-ray image A2 captured by the X-ray image processing device 205.

次に、ステップ217において、骨部Hが除去されたX線画像A2を用いて血管造影が行われ、血管造影を行った結果である血管造影画像Kが表示装置201に表示される。 Next, in step 217, angiography is performed using the X-ray image A2 from which the bone portion H has been removed, and the angiographic image K, which is the result of the angiography, is displayed on the display device 201.

(第2実施形態の効果)
第2実施形態では、以下のような効果を得ることができる。
(Effect of the second embodiment)
In the second embodiment, the following effects can be obtained.

第2実施形態では、上記のように、特定部分Qは、骨部Hを含み、学習画像生成部(DRR画像生成部231および教師画像生成部232)は、入力教師画像T201と同じ領域における骨部Hを含む特定部分Qを除くように生成された2次元投影画像(DRR画像D201およびDRR画像D202)に対して、入力教師画像T201と同じ位置に同じ大きさの物体形状画像Bが加えられている画像と、骨部Hを含む特定部分Qを除くように生成されたDRR画像D201およびDRR画像D202に対して、同じ位置に同じ大きさの物体形状画像Bが減じられている画像と、の少なくとも一方を含むように出力教師画像T202を生成するように構成されている。このように構成すれば、入力教師画像T201と出力教師画像T202との両方に3次元データ(CT画像データC)に基づくDRR画像D201およびDRR画像D202を用いる場合でも、X線画像A2の構成に対応可能なように第3学習モデルM3を生成することができる。その結果、入力教師画像T201と出力教師画像T202との両方にCT画像データCに基づく2次元投影画像であるDRR画像D201およびDRR画像D202を用いる場合でも、入力教師画像T201の構成をX線画像A2の構成に対応させることによって、特定部分Q(骨部H)を抽出する際および特定部分Q(骨部H)を除去する際の精度が低下することを抑制することができる。 In the second embodiment, as described above, the specific portion Q includes the bone portion H, and the learning image generation unit (DRR image generation unit 231 and the teacher image generation unit 232) includes the bone in the same region as the input teacher image T201. An object shape image B of the same size is added to the two-dimensional projected images (DRR image D201 and DRR image D202) generated so as to exclude the specific portion Q including the part H at the same position as the input teacher image T201. An image in which the object shape image B of the same size is reduced at the same position with respect to the DRR image D201 and the DRR image D202 generated so as to exclude the specific portion Q including the bone portion H. The output teacher image T202 is configured to include at least one of the above. With this configuration, even when the DRR image D201 and the DRR image D202 based on the three-dimensional data (CT image data C) are used for both the input teacher image T201 and the output teacher image T202, the X-ray image A2 can be configured. The third learning model M3 can be generated so as to be compatible. As a result, even when the DRR image D201 and the DRR image D202, which are two-dimensional projection images based on the CT image data C, are used for both the input teacher image T201 and the output teacher image T202, the configuration of the input teacher image T201 is an X-ray image. By making it correspond to the configuration of A2, it is possible to suppress a decrease in accuracy when extracting the specific portion Q (bone portion H) and when removing the specific portion Q (bone portion H).

なお、第2実施形態のその他の効果は、上記第1実施形態と同様である。 The other effects of the second embodiment are the same as those of the first embodiment.

[変形例]
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
[Modification example]
It should be noted that the embodiments disclosed this time are exemplary in all respects and are not considered to be restrictive. The scope of the present invention is shown by the scope of claims rather than the description of the above-described embodiment, and further includes all modifications (modifications) within the meaning and scope equivalent to the scope of claims.

たとえば、上記第1実施形態では、X線画像処理システム100は、放射線治療装置1と、治療計画装置2とを備える例を示したが、本発明はこれに限られない。たとえば、放射線治療装置1と、治療計画装置2との少なくとも一方を備えないように構成されていてもよい。同様に、上記第2実施形態では、X線画像処理システム200は、CT装置202を備える例を示したが、本発明はこれに限られない。たとえば、CT装置202をX線画像処理システム200には備えずに、予め生成されたCT画像を取得するように構成してもよい。 For example, in the first embodiment, the X-ray image processing system 100 shows an example including a radiotherapy device 1 and a treatment planning device 2, but the present invention is not limited to this. For example, it may be configured not to include at least one of the radiotherapy device 1 and the treatment planning device 2. Similarly, in the second embodiment, the X-ray image processing system 200 shows an example including the CT device 202, but the present invention is not limited to this. For example, the CT apparatus 202 may not be provided in the X-ray image processing system 200, and may be configured to acquire a CT image generated in advance.

また、上記第2実施形態では、入力教師画像T201と出力教師画像T202との両方において、同じ位置に同じ大きさの物体形状画像Bが加えられている例を示したが、本発明はこれに限られない。たとえば、入力教師画像T201と出力教師画像T202との両方に対して、同じ位置に同じ大きさの物体形状画像Bが減じられていてもよい。すなわち、あらかじめ被検体Pの体内にカテーテルなどが留置されている状態でCT撮影を行った場合、DRR画像D201およびD202に含まれるカテーテルを表す画像をDRR画像D201およびD202から減じるようにして、入力教師画像T201および出力教師画像T202を生成してもよい。また、入力教師画像T201および出力教師画像T202を生成する際に、物体形状画像Bを加える処理と物体形状画像Bを減じる処理との両方を行ってもよい。 Further, in the second embodiment, an example is shown in which the object shape image B of the same size is added to the same position in both the input teacher image T201 and the output teacher image T202, but the present invention has been added to this. Not limited. For example, the object shape image B of the same size may be reduced at the same position with respect to both the input teacher image T201 and the output teacher image T202. That is, when CT imaging is performed with a catheter or the like placed in the body of the subject P in advance, the image representing the catheter included in the DRR images D201 and D202 is input so as to be subtracted from the DRR images D201 and D202. The teacher image T201 and the output teacher image T202 may be generated. Further, when generating the input teacher image T201 and the output teacher image T202, both the process of adding the object shape image B and the process of reducing the object shape image B may be performed.

また、上記第2実施形態では、マーカー処理部52および操作部53を備えない例を示したが、本発明はこれに限られない。たとえば、第2実施形態におけるX線画像処理システム200においても、被検体Pの体内にマーカーEを留置するとともに、マーカー処理部52および操作部53を備えるように構成してもよい。 Further, in the second embodiment, an example in which the marker processing unit 52 and the operation unit 53 are not provided is shown, but the present invention is not limited to this. For example, in the X-ray image processing system 200 of the second embodiment, the marker E may be placed in the body of the subject P, and the marker processing unit 52 and the operation unit 53 may be provided.

また、上記第1および第2実施形態では、DRR画像D(D201、D202)の生成を、学習装置3(203)において行う例を示したが、本発明はこれに限られない。たとえば、治療計画装置2などにおいて、DRR画像D(D201、D202)を生成するように構成されていてもよい。 Further, in the first and second embodiments, the example in which the DRR image D (D201, D202) is generated by the learning device 3 (203) is shown, but the present invention is not limited to this. For example, the treatment planning device 2 or the like may be configured to generate DRR images D (D201, D202).

また、上記第1および第2実施形態では、物体形状画像Bは、所定の物体として、X線を検出するための検出器(第1〜第4X線検出器42a〜42d)および被検体Pが載置される天板11(243)の少なくとも一方を含む構造物と、所定の物体として、マーカーE、ガイドワイヤ、および、カテーテルの少なくとも1つを含む被検体Pの体内に留置される部材と、の少なくとも一方を模した画像と、構造物と部材との少なくとも一方を撮影した画像と、の少なくとも一方を含む例を示したが、本発明はこれに限られない。たとえば、物体形状画像Bが、X線画像A2(X線透視画像A)にのみ含まれるノイズを模した画像となるように構成してもよい。 Further, in the first and second embodiments, the object shape image B includes detectors (first to fourth X-ray detectors 42a to 42d) and a subject P for detecting X-rays as predetermined objects. A structure including at least one of the top plate 11 (243) to be placed, and a member to be placed in the body of the subject P including at least one of a marker E, a guide wire, and a catheter as predetermined objects. Although an example including at least one of an image imitating at least one of the above and an image of at least one of the structure and the member taken is shown, the present invention is not limited to this. For example, the object shape image B may be configured to be an image that imitates noise contained only in the X-ray image A2 (X-ray fluoroscopic image A).

また、上記第1実施形態では、特定部分Qを示すためのマーカーEが被検体Pの体内に留置された状態で生成された入力教師画像T1であるマーカー抽出用入力教師画像T11と、マーカーEの位置を示す画像であるマーカー抽出用出力教師画像T3とを用いて、学習モデル生成部33によって機械学習を行うことにより生成された、第2学習モデルM2に基づいて、X線撮影によって取得された被検体Pの特定部分Qを含むX線画像(X線透視画像A)に対して、マーカーEを抽出することによって特定部分Qを抽出する処理と、特定部分Qを除去する処理とのいずれか一方を行うマーカー処理部52をさらに備え、特定部分処理部51とマーカー処理部52とのいずれによって、処理を行うかが選択可能なように構成されている例を示したが、本発明はこれに限られない。たとえば、被検体PにマーカーEを留置しない状態で行われたCT撮影に基づいてDRR画像Dを生成するようにしてもよい。すなわち、マーカー処理部52を備えず、特定部分処理部51による処理のみによって、特定部分Qを抽出または除去するように構成されていてもよい。 Further, in the first embodiment, the marker extraction input teacher image T11, which is the input teacher image T1 generated in a state where the marker E for indicating the specific portion Q is placed in the body of the subject P, and the marker E. Obtained by X-ray photography based on the second learning model M2 generated by performing machine learning by the learning model generation unit 33 using the marker extraction output teacher image T3 which is an image showing the position of. Either a process of extracting the specific portion Q by extracting the marker E or a process of removing the specific portion Q with respect to the X-ray image (X-ray fluoroscopic image A) including the specific portion Q of the subject P. An example has been shown in which a marker processing unit 52 that performs one of the above is further provided, and the specific partial processing unit 51 and the marker processing unit 52 are configured so that the processing can be selected. Not limited to this. For example, the DRR image D may be generated based on the CT imaging performed in the state where the marker E is not placed in the subject P. That is, the marker processing unit 52 may not be provided, and the specific portion Q may be extracted or removed only by the processing by the specific partial processing unit 51.

また、上記第1実施形態では、入力操作を受け付ける操作部53をさらに備え、操作部53に対する操作の入力を受け付けたことに基づいて、特定部分処理部51とマーカー処理部52とのいずれによって処理を行うかが選択可能なように構成されている
例を示したが、本発明はこれに限られない。たとえば、操作部53を備えずに、DRR画像DとX線透視画像A(X線画像)との両方において、同じ位置に同じ個数のマーカーEが含まれていることを検出した場合は、マーカー処理部52において処理を行うことを選択するとともに、同じ位置に同じ個数のマーカーEが検出されなかった場合は、特定部分処理部51において処理を行うことを選択するように自動的に制御可能なように構成していてもよい。
Further, in the first embodiment, the operation unit 53 that accepts an input operation is further provided, and processing is performed by either the specific partial processing unit 51 or the marker processing unit 52 based on the reception of the input of the operation to the operation unit 53. Although an example is shown in which it is possible to select whether to perform the above, the present invention is not limited to this. For example, if it is detected that the same number of markers E are included in the same position in both the DRR image D and the X-ray fluoroscopic image A (X-ray image) without the operation unit 53, the markers It is possible to automatically control that the processing unit 52 selects to perform processing and that if the same number of markers E are not detected at the same position, the specific partial processing unit 51 selects to perform processing. It may be configured as follows.

また、上記第1および第2実施形態では、学習画像生成部(DRR画像生成部31、231および教師画像生成部32、232)と学習モデル生成部33(233)とを含む第1制御部30(230)と、特定部分処理部51(骨部処理部251)を含む第2制御部50(250)と、をさらに備える例を示したが、本発明はこれに限られない。たとえば、1つの制御部がDRR画像生成部31(231)、教師画像生成部32(232)、学習モデル生成部33(233)、および、特定部分処理部51(骨部処理部251)を備えるように構成してもよい。つまり、1つの制御部において、第1〜第3学習モデルM1〜M3の生成および特定部分Qの抽出または除去を行うように構成してもよい。また、DRR画像生成部31(231)、教師画像生成部32(232)、学習モデル生成部33(233)、および、特定部分処理部51(骨部処理部251)の機能ごとに個別にハードウェアを構成してもよい。 Further, in the first and second embodiments, the first control unit 30 including a learning image generation unit (DRR image generation unit 31, 231 and a teacher image generation unit 32, 232) and a learning model generation unit 33 (233). Although (230) and a second control unit 50 (250) including a specific partial processing unit 51 (bone processing unit 251) are further provided, the present invention is not limited to this. For example, one control unit includes a DRR image generation unit 31 (231), a teacher image generation unit 32 (232), a learning model generation unit 33 (233), and a specific partial processing unit 51 (bone processing unit 251). It may be configured as follows. That is, one control unit may be configured to generate the first to third learning models M1 to M3 and extract or remove the specific portion Q. Further, each function of the DRR image generation unit 31 (231), the teacher image generation unit 32 (232), the learning model generation unit 33 (233), and the specific partial processing unit 51 (bone processing unit 251) is individually hardware. Wear may be configured.

また、上記第1および第2実施形態では、学習画像生成部(DRR画像生成部31、231および教師画像生成部32、232)は、入力教師画像T1(T201)を生成する際、2次元投影画像(DRR画像D、D201、D202)に対して被検体Pとは別個の所定の物体に関する画像を含む物体形状画像Bを、ランダムな位置にランダムな大きさで加えることと、DRR画像D(D201、D202)に対して物体形状画像Bをランダムな位置にランダムな大きさで減じることと、の少なくとも一方を行うように構成されている例を示したが、本発明はこれに限られない。たとえば、X線画像A2(X線透視画像A)に含まれる構成物について、予め位置を特定しておくことによってDRR画像D(D201、D202)の対応する場所に物体形状画像Bを加えることと、物体形状画像Bを減じることとを行うように構成してもよい。 Further, in the first and second embodiments, when the learning image generation unit (DRR image generation unit 31, 231 and the teacher image generation unit 32, 232) generates the input teacher image T1 (T201), the two-dimensional projection is performed. An object shape image B containing an image relating to a predetermined object separate from the subject P with respect to the images (DRR images D, D201, D202) is added to a random position in a random size, and a DRR image D (DRR image D, D201, D202) is added. An example is shown in which the object shape image B is reduced to a random position by a random size with respect to D201 and D202), and at least one of them is performed, but the present invention is not limited to this. .. For example, the object shape image B can be added to the corresponding location of the DRR image D (D201, D202) by specifying the position of the component included in the X-ray image A2 (X-ray fluoroscopic image A) in advance. , The object shape image B may be reduced.

また、上記第2実施形態では、特定部分Qは、骨部Hを含み、学習画像生成部(DRR画像生成部231および教師画像生成部232)は、入力教師画像T201と同じ領域における骨部Hを含む特定部分Qを除くように生成された2次元投影画像(DRR画像D201、D202)に対して、入力教師画像T201と同じ位置に同じ大きさの物体形状画像Bが加えられている画像と、骨部Hを含む特定部分Qを除くように生成されたDRR画像D201(D202)に対して、同じ位置に同じ大きさの物体形状画像Bが減じられている画像と、の少なくとも一方を含むように出力教師画像T202を生成するように構成されている例を示したが、本発明はこれに限られない。たとえば、特定部分Qに骨部Hを含まないように構成されていてもよい。すなわち、被検体Pの腫瘍などを特定部分Qとして、入力教師画像T201と出力教師画像T202との両方に同じ位置に同じ大きさの物体形状画像Bを加えることによって、特定部分Qを抽出するように構成してもよい。 Further, in the second embodiment, the specific portion Q includes the bone portion H, and the learning image generation unit (DRR image generation unit 231 and the teacher image generation unit 232) includes the bone portion H in the same region as the input teacher image T201. With respect to the two-dimensional projected images (DRR images D201 and D202) generated so as to exclude the specific portion Q including the above, an image in which an object shape image B of the same size is added at the same position as the input teacher image T201. Includes at least one of the DRR image D201 (D202) generated so as to exclude the specific portion Q including the bone portion H, and the image in which the object shape image B of the same size is reduced at the same position. Although an example configured to generate the output teacher image T202 is shown as described above, the present invention is not limited to this. For example, the specific portion Q may be configured not to include the bone portion H. That is, the specific part Q is extracted by adding the object shape image B of the same size to both the input teacher image T201 and the output teacher image T202 with the tumor of the subject P as the specific part Q. It may be configured as.

また、上記第1および第2実施形態では、学習画像生成部(DRR画像生成部31、231および教師画像生成部32、232)は、コンピュータ断層撮影による3次元データ(CT画像データC)に基づいて、2次元投影画像(DRR画像D、D201、D202)をデジタル再構成シミュレーションにより生成するとともに、生成されたDRR画像D(D201、D202)に対して2次元の物体形状画像Bを加えることと、生成されたDRR画像D(D201、D202)に対して2次元の物体形状画像Bを減じることと、の少なくとも一方を行うことによって、入力教師画像T1(T201)を生成するように構成されている例を示したが、本発明はこれに限られない。コンピュータ断層撮影によるCT画像データCに基づいてDRR画像D(D201、D202)を生成するのではなく、MRI(Magnetic Resonance imaging:核磁気共鳴画像方)によって取得された被検体Pの体内画像から3次元モデルを取得し、取得された3次元モデルに基づいて2次元投影画像を生成するように構成してもよい。 Further, in the first and second embodiments, the learning image generation unit (DRR image generation unit 31, 231 and teacher image generation unit 32, 232) is based on three-dimensional data (CT image data C) obtained by computer tomography. Then, the two-dimensional projected images (DRR images D, D201, D202) are generated by the digital reconstruction simulation, and the two-dimensional object shape image B is added to the generated DRR images D (D201, D202). , The input teacher image T1 (T201) is generated by subtracting the two-dimensional object shape image B with respect to the generated DRR image D (D201, D202) and at least one of them. However, the present invention is not limited to this. 3 from the in-vivo image of subject P acquired by MRI (Magnetic Resonance Imaging) instead of generating DRR images D (D201, D202) based on CT image data C by computed tomography. A dimensional model may be acquired and a two-dimensional projected image may be generated based on the acquired three-dimensional model.

また、上記第1および第2実施形態では、学習画像生成部(DRR画像生成部31、231および教師画像生成部32、232)は、コンピュータ断層撮影による3次元データ(CT画像データC)に対して、3次元の物体形状画素値データを加えることと、CT画像データCに対して3次元の物体形状画素値データを減じることとの少なくとも一方を行った状態で、デジタル再構成シミュレーションにより2次元に投影することによって、入力教師画像T1(T201)を生成するように構成されている例を示したが、本発明はこれに限られない。たとえば、CT画像を撮影する時点において、X線透視画像A(X線画像A2)に含まれる構成物を模した物体を被検体Pと同時に撮影することによって、CT画像データCに初めから物体形状画素値データが含まれるように構成してもよい。また、生成されたDRR画像D(D201、D202)に対して、2次元の物体形状画像Bを加えることと2次元の物体形状画像Bを減じることとを行う処理と、CT画像データCに対して、3次元の物体形状画素値データを加えることと3次元の物体形状画素値データを減じることとを行う処理と、の両方を行った状態で入力教師画像T1(T201)を生成するようにしてもよい。
[態様]
上記した例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
Further, in the first and second embodiments, the learning image generation unit (DRR image generation unit 31, 231 and the teacher image generation unit 32, 232) refers to the three-dimensional data (CT image data C) obtained by computer tomography. Then, in a state where at least one of adding the three-dimensional object shape pixel value data and subtracting the three-dimensional object shape pixel value data with respect to the CT image data C is performed, the digital reconstruction simulation is performed in two dimensions. An example is shown in which the input teacher image T1 (T201) is generated by projecting to, but the present invention is not limited to this. For example, at the time of taking a CT image, an object imitating a component included in the X-ray fluoroscopic image A (X-ray image A2) is taken at the same time as the subject P, so that the CT image data C has an object shape from the beginning. It may be configured to include pixel value data. Further, the process of adding the two-dimensional object shape image B to the generated DRR images D (D201, D202) and reducing the two-dimensional object shape image B, and the CT image data C The input teacher image T1 (T201) is generated in a state where both the processing of adding the three-dimensional object shape pixel value data and the processing of reducing the three-dimensional object shape pixel value data are performed. You may.
[Aspect]
It will be understood by those skilled in the art that the above exemplary embodiments are specific examples of the following embodiments.

(項目1)
3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、前記被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、前記2次元投影画像に対して前記物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像と、前記入力教師画像と同じ領域における前記特定部分を示す画像または前記特定部分を除く画像である出力教師画像と、を生成する学習画像生成部と、
前記入力教師画像および前記出力教師画像を用いて、機械学習を行うことにより、前記特定部分を抽出するか、または、前記特定部分を除去するための第1学習モデルを生成する学習モデル生成部と、
学習済みの前記第1学習モデルに基づいて、X線撮影によって取得された前記被検体の前記特定部分を含むX線画像に対して、前記特定部分を抽出する処理と、前記特定部分を除去する処理とのいずれか一方を行う特定部分処理部と、を備える、医用画像処理装置。
(Item 1)
An object containing an image relating to a predetermined object separate from the subject with respect to a two-dimensional projected image of a region including a specific part of the subject acquired based on the three-dimensional data having pixel value data in three dimensions. An input teacher image including at least one of an image to which a shape image is added and an image in which the object shape image is subtracted from the two-dimensional projected image, and the identification in the same region as the input teacher image. A learning image generation unit that generates an output teacher image that is an image showing a part or an image excluding the specific part, and
A learning model generation unit that extracts the specific portion or generates a first learning model for removing the specific portion by performing machine learning using the input teacher image and the output teacher image. ,
Based on the trained first learning model, a process of extracting the specific portion and removing the specific portion of the X-ray image including the specific portion of the subject acquired by X-ray imaging. A medical image processing apparatus including a specific partial processing unit that performs either processing.

(項目2)
前記物体形状画像は、前記所定の物体として、X線を検出するための検出器および前記被検体が載置される天板の少なくとも一方を含む構造物と、前記所定の物体として、マーカー、ガイドワイヤ、および、カテーテルの少なくとも1つを含む前記被検体の体内に留置される部材と、の少なくとも一方を模した画像と、前記構造物と前記部材との少なくとも一方を撮影した画像と、の少なくとも一方を含む、項目1に記載の医用画像処理装置。
(Item 2)
The object shape image includes a structure including at least one of a detector for detecting X-rays and a top plate on which the subject is placed as the predetermined object, and a marker and a guide as the predetermined object. At least one image of at least one of a wire and a member placed in the body of the subject including at least one of a catheter, and an image of at least one of the structure and the member. The medical image processing apparatus according to item 1, which includes one.

(項目3)
前記特定部分を示すためのマーカーが前記被検体の体内に留置された状態で生成された前記入力教師画像であるマーカー抽出用入力教師画像と、前記マーカーの位置を示す画像であるマーカー抽出用出力教師画像とを用いて、前記学習モデル生成部によって機械学習を行うことにより生成された、第2学習モデルに基づいて、X線撮影によって取得された前記被検体の前記特定部分を含むX線画像に対して、前記マーカーを抽出することによって前記特定部分を抽出する処理と、前記特定部分を除去する処理とのいずれか一方を行うマーカー処理部をさらに備え、
前記特定部分処理部と前記マーカー処理部とのいずれによって、処理を行うかが選択可能なように構成されている、項目1または2のいずれか1項に記載の医用画像処理装置。
(Item 3)
An input teacher image for marker extraction, which is an input teacher image generated in a state where a marker for indicating the specific portion is placed in the body of the subject, and a marker extraction output, which is an image showing the position of the marker. An X-ray image including the specific part of the subject acquired by X-ray photography based on the second learning model generated by performing machine learning by the learning model generation unit using the teacher image. On the other hand, a marker processing unit that performs either a process of extracting the specific portion by extracting the marker or a process of removing the specific portion is further provided.
The medical image processing apparatus according to any one of items 1 or 2, wherein the specific partial processing unit and the marker processing unit are configured to select whether to perform processing.

(項目4)
入力操作を受け付ける操作部をさらに備え、
前記操作部に対する操作の入力を受け付けたことに基づいて、前記特定部分処理部と前記マーカー処理部とのいずれによって処理を行うかが選択可能なように構成されている、項目3に記載の医用画像処理装置。
(Item 4)
It also has an operation unit that accepts input operations.
Item 3. The medical use according to item 3, wherein the specific partial processing unit or the marker processing unit can select which of the specific partial processing unit and the marker processing unit performs the processing based on the reception of the input of the operation to the operation unit. Image processing device.

(項目5)
前記学習画像生成部と前記学習モデル生成部とを含む第1制御部と、
前記特定部分処理部を含む第2制御部と、をさらに備える、項目1〜4のいずれか1項に記載の医用画像処理装置。
(Item 5)
A first control unit including the learning image generation unit and the learning model generation unit,
The medical image processing apparatus according to any one of items 1 to 4, further comprising a second control unit including the specific partial processing unit.

(項目6)
前記学習画像生成部は、前記入力教師画像を生成する際、前記2次元投影画像に対して前記被検体とは別個の前記所定の物体に関する画像を含む前記物体形状画像を、ランダムな位置にランダムな大きさで加えることと、前記2次元投影画像に対して前記物体形状画像をランダムな位置にランダムな大きさで減じることと、の少なくとも一方を行うように構成されている、項目1〜5のいずれか1項に記載の医用画像処理装置。
(Item 6)
When generating the input teacher image, the learning image generation unit randomly performs the object shape image including an image relating to the predetermined object separate from the subject with respect to the two-dimensional projected image at a random position. Items 1 to 5 are configured to perform at least one of adding in a large size and subtracting the object shape image to a random position with a random size with respect to the two-dimensional projected image. The medical image processing apparatus according to any one of the above items.

(項目7)
前記特定部分は、骨部を含み、
前記学習画像生成部は、前記入力教師画像と同じ領域における前記骨部を含む前記特定部分を除くように生成された前記2次元投影画像に対して、前記入力教師画像と同じ位置に同じ大きさの前記物体形状画像が加えられている画像と、前記骨部を含む前記特定部分を除くように生成された前記2次元投影画像に対して、同じ位置に同じ大きさの前記物体形状画像が減じられている画像と、の少なくとも一方を含むように前記出力教師画像を生成するように構成されている、項目1〜6のいずれか1項に記載の医用画像処理装置。
(Item 7)
The specific part includes the bone part and includes the bone part.
The learning image generation unit has the same size at the same position as the input teacher image with respect to the two-dimensional projected image generated so as to exclude the specific portion including the bone portion in the same region as the input teacher image. The object shape image of the same size is subtracted at the same position with respect to the image to which the object shape image of the above is added and the two-dimensional projection image generated so as to exclude the specific portion including the bone portion. The medical image processing apparatus according to any one of items 1 to 6, which is configured to generate the output teacher image so as to include at least one of the images.

(項目8)
前記学習画像生成部は、コンピュータ断層撮影による前記3次元データに基づいて、前記2次元投影画像をデジタル再構成シミュレーションにより生成するとともに、生成された前記2次元投影画像に対して2次元の前記物体形状画像を加えることと、前記生成された2次元投影画像に対して2次元の前記物体形状画像を減じることと、の少なくとも一方を行うことによって、前記入力教師画像を生成するように構成されている、項目1〜7のいずれか1項に記載の医用画像処理装置。
(Item 8)
The learning image generation unit generates the two-dimensional projection image by digital reconstruction simulation based on the three-dimensional data obtained by computer tomography, and the object is two-dimensional with respect to the generated two-dimensional projection image. It is configured to generate the input teacher image by doing at least one of adding a shape image and subtracting the two-dimensional object shape image from the generated two-dimensional projected image. The medical image processing apparatus according to any one of items 1 to 7.

(項目9)
前記学習画像生成部は、コンピュータ断層撮影による前記3次元データに対して、3次元の物体形状画素値データを加えることと、前記3次元データに対して3次元の前記物体形状画素値データを減じることとの少なくとも一方を行った状態で、デジタル再構成シミュレーションにより2次元に投影することによって、前記入力教師画像を生成するように構成されている、項目1〜8のいずれか1項に記載の医用画像処理装置。
(Item 9)
The learning image generation unit adds the three-dimensional object shape pixel value data to the three-dimensional data obtained by computer tomography, and subtracts the three-dimensional object shape pixel value data from the three-dimensional data. The item according to any one of items 1 to 8, wherein the input teacher image is generated by projecting the input teacher image in two dimensions by a digital reconstruction simulation in a state where at least one of the above is performed. Medical image processing device.

(項目10)
3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、前記被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、前記2次元投影画像に対して前記物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像と、前記入力教師画像と同じ領域における前記特定部分を示す画像または前記特定部分を除く画像である出力教師画像と、を生成する学習画像生成部と、
前記入力教師画像および前記出力教師画像を用いて、機械学習を行うことにより、前記特定部分を抽出するか、または、前記特定部分を除去するための第1学習モデルを生成する学習モデル生成部と、
X線撮影によって前記被検体の前記特定部分を含むX線画像を取得するX線撮影部と、
学習済みの前記第1学習モデルに基づいて、前記X線撮影部によって撮影された前記特定部分を含む前記X線画像に対して、前記特定部分を抽出する処理と、前記特定部分を除去する処理とのいずれか一方を行う特定部分処理部と、を備える、X線画像処理システム。
(Item 10)
An object containing an image relating to a predetermined object separate from the subject with respect to a two-dimensional projected image of a region including a specific part of the subject acquired based on the three-dimensional data having pixel value data in three dimensions. An input teacher image including at least one of an image to which a shape image is added and an image in which the object shape image is subtracted from the two-dimensional projected image, and the identification in the same region as the input teacher image. A learning image generation unit that generates an output teacher image that is an image showing a part or an image excluding the specific part, and
A learning model generation unit that extracts the specific portion or generates a first learning model for removing the specific portion by performing machine learning using the input teacher image and the output teacher image. ,
An X-ray imaging unit that acquires an X-ray image including the specific portion of the subject by X-ray imaging, and an X-ray imaging unit.
Based on the trained first learning model, a process of extracting the specific portion and a process of removing the specific portion from the X-ray image including the specific portion photographed by the X-ray photographing unit. An X-ray image processing system including a specific partial processing unit that performs either of the above.

(項目11)
3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、前記被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、前記2次元投影画像に対して前記物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像を生成するステップと、
前記3次元データに基づいて、前記入力教師画像と同じ領域における前記特定部分を示す画像または前記特定部分を除く画像である出力教師画像を生成するステップと、
前記入力教師画像および前記出力教師画像を用いて、機械学習を行うことにより、前記特定部分を抽出するか、または、前記特定部分を除去するための第1学習モデルを生成するステップと、を備える、学習モデルの生成方法。
(Item 11)
An object containing an image of a predetermined object separate from the subject with respect to a two-dimensional projected image of a region including a specific part of the subject acquired based on the three-dimensional data having pixel value data in three dimensions. A step of generating an input teacher image including at least one of an image to which a shape image is added and an image in which the object shape image is subtracted from the two-dimensional projected image.
A step of generating an output teacher image which is an image showing the specific portion in the same region as the input teacher image or an image excluding the specific portion based on the three-dimensional data.
It includes a step of extracting the specific portion or generating a first learning model for removing the specific portion by performing machine learning using the input teacher image and the output teacher image. , How to generate a learning model.

100、200 X線画像処理システム
1 放射線照射装置
2 治療計画装置
3、203 学習装置(医用画像処理装置)
4、204 X線撮影部
5、205 X線画像処理装置(医用画像処理装置)
11、243 天板
30、230 第1制御部
31、231 DRR画像生成部(学習画像生成部)
32、232 教師画像生成部(学習画像生成部)
33、233 学習モデル生成部
50、250 第2制御部
51 特定部分処理部
52 マーカー処理部
53 操作部
251 骨部処理部(特定部分処理部)
100, 200 X-ray image processing system 1 Irradiation device 2 Treatment planning device 3, 203 Learning device (medical image processing device)
4,204 X-ray imaging unit 5,205 X-ray image processing device (medical image processing device)
11,243 Top plate 30, 230 First control unit 31, 231 DRR image generation unit (learning image generation unit)
32, 232 Teacher image generation unit (learning image generation unit)
33, 233 Learning model generation unit 50, 250 Second control unit 51 Specific part processing unit 52 Marker processing unit 53 Operation unit 251 Bone processing unit (specific part processing unit)

Claims (11)

3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、前記被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、前記2次元投影画像に対して前記物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像と、前記入力教師画像と同じ領域における前記特定部分を示す画像または前記特定部分を除く画像である出力教師画像と、を生成する学習画像生成部と、
前記入力教師画像および前記出力教師画像を用いて、機械学習を行うことにより、前記特定部分を抽出するか、または、前記特定部分を除去するための第1学習モデルを生成する学習モデル生成部と、
学習済みの前記第1学習モデルに基づいて、X線撮影によって取得された前記被検体の前記特定部分を含むX線画像に対して、前記特定部分を抽出する処理と、前記特定部分を除去する処理とのいずれか一方を行う特定部分処理部と、を備える、医用画像処理装置。
An object containing an image relating to a predetermined object separate from the subject with respect to a two-dimensional projected image of a region including a specific part of the subject acquired based on the three-dimensional data having pixel value data in three dimensions. An input teacher image including at least one of an image to which a shape image is added and an image in which the object shape image is subtracted from the two-dimensional projected image, and the identification in the same region as the input teacher image. A learning image generation unit that generates an output teacher image that is an image showing a part or an image excluding the specific part, and
A learning model generation unit that extracts the specific portion or generates a first learning model for removing the specific portion by performing machine learning using the input teacher image and the output teacher image. ,
Based on the trained first learning model, a process of extracting the specific portion and removing the specific portion of the X-ray image including the specific portion of the subject acquired by X-ray imaging. A medical image processing apparatus including a specific partial processing unit that performs either processing.
前記物体形状画像は、前記所定の物体として、X線を検出するための検出器および前記被検体が載置される天板の少なくとも一方を含む構造物と、前記所定の物体として、マーカー、ガイドワイヤ、および、カテーテルの少なくとも1つを含む前記被検体の体内に留置される部材と、の少なくとも一方を模した画像と、前記構造物と前記部材との少なくとも一方を撮影した画像と、の少なくとも一方を含む、請求項1に記載の医用画像処理装置。 The object shape image includes a structure including at least one of a detector for detecting X-rays and a top plate on which the subject is placed as the predetermined object, and a marker and a guide as the predetermined object. At least one image of at least one of a wire and a member placed in the body of the subject including at least one of a catheter, and an image of at least one of the structure and the member. The medical image processing apparatus according to claim 1, wherein the medical image processing apparatus includes one of the two. 前記特定部分を示すためのマーカーが前記被検体の体内に留置された状態で生成された前記入力教師画像であるマーカー抽出用入力教師画像と、前記マーカーの位置を示す画像であるマーカー抽出用出力教師画像とを用いて、前記学習モデル生成部によって機械学習を行うことにより生成された、第2学習モデルに基づいて、X線撮影によって取得された前記被検体の前記特定部分を含むX線画像に対して、前記マーカーを抽出することによって前記特定部分を抽出する処理と、前記特定部分を除去する処理とのいずれか一方を行うマーカー処理部をさらに備え、
前記特定部分処理部と前記マーカー処理部とのいずれによって、処理を行うかが選択可能なように構成されている、請求項1または2のいずれか1項に記載の医用画像処理装置。
An input teacher image for marker extraction, which is an input teacher image generated in a state where a marker for indicating the specific portion is placed in the body of the subject, and a marker extraction output, which is an image showing the position of the marker. An X-ray image including the specific part of the subject acquired by X-ray photography based on the second learning model generated by performing machine learning by the learning model generation unit using the teacher image. On the other hand, a marker processing unit that performs either a process of extracting the specific portion by extracting the marker or a process of removing the specific portion is further provided.
The medical image processing apparatus according to claim 1 or 2, wherein the specific partial processing unit and the marker processing unit are configured to select whether to perform processing.
入力操作を受け付ける操作部をさらに備え、
前記操作部に対する操作の入力を受け付けたことに基づいて、前記特定部分処理部と前記マーカー処理部とのいずれによって処理を行うかが選択可能なように構成されている、請求項3に記載の医用画像処理装置。
It also has an operation unit that accepts input operations.
The third aspect of claim 3, wherein the specific partial processing unit or the marker processing unit can select which of the specific partial processing unit and the marker processing unit performs the processing based on the reception of the input of the operation to the operation unit. Medical image processing device.
前記学習画像生成部と前記学習モデル生成部とを含む第1制御部と、
前記特定部分処理部を含む第2制御部と、をさらに備える、請求項1〜4のいずれか1項に記載の医用画像処理装置。
A first control unit including the learning image generation unit and the learning model generation unit,
The medical image processing apparatus according to any one of claims 1 to 4, further comprising a second control unit including the specific partial processing unit.
前記学習画像生成部は、前記入力教師画像を生成する際、前記2次元投影画像に対して前記被検体とは別個の前記所定の物体に関する画像を含む前記物体形状画像を、ランダムな位置にランダムな大きさで加えることと、前記2次元投影画像に対して前記物体形状画像をランダムな位置にランダムな大きさで減じることと、の少なくとも一方を行うように構成されている、請求項1〜5のいずれか1項に記載の医用画像処理装置。 When generating the input teacher image, the learning image generation unit randomly performs the object shape image including an image relating to the predetermined object separate from the subject with respect to the two-dimensional projected image at a random position. 1 to claim 1, which are configured to perform at least one of adding in a large size and subtracting the object shape image to a random position with a random size with respect to the two-dimensional projected image. The medical image processing apparatus according to any one of 5. 前記特定部分は、骨部を含み、
前記学習画像生成部は、前記入力教師画像と同じ領域における前記骨部を含む前記特定部分を除くように生成された前記2次元投影画像に対して、前記入力教師画像と同じ位置に同じ大きさの前記物体形状画像が加えられている画像と、前記骨部を含む前記特定部分を除くように生成された前記2次元投影画像に対して、同じ位置に同じ大きさの前記物体形状画像が減じられている画像と、の少なくとも一方を含むように前記出力教師画像を生成するように構成されている、請求項1〜6のいずれか1項に記載の医用画像処理装置。
The specific part includes the bone part and includes the bone part.
The learning image generation unit has the same size at the same position as the input teacher image with respect to the two-dimensional projected image generated so as to exclude the specific portion including the bone portion in the same region as the input teacher image. The object shape image of the same size is subtracted at the same position with respect to the image to which the object shape image of the above is added and the two-dimensional projection image generated so as to exclude the specific portion including the bone portion. The medical image processing apparatus according to any one of claims 1 to 6, which is configured to generate the output teacher image so as to include at least one of the images.
前記学習画像生成部は、コンピュータ断層撮影による前記3次元データに基づいて、前記2次元投影画像をデジタル再構成シミュレーションにより生成するとともに、生成された前記2次元投影画像に対して2次元の前記物体形状画像を加えることと、前記生成された2次元投影画像に対して2次元の前記物体形状画像を減じることと、の少なくとも一方を行うことによって、前記入力教師画像を生成するように構成されている、請求項1〜7のいずれか1項に記載の医用画像処理装置。 The learning image generation unit generates the two-dimensional projection image by digital reconstruction simulation based on the three-dimensional data obtained by computer tomography, and the object is two-dimensional with respect to the generated two-dimensional projection image. It is configured to generate the input teacher image by doing at least one of adding a shape image and subtracting the two-dimensional object shape image from the generated two-dimensional projected image. The medical image processing apparatus according to any one of claims 1 to 7. 前記学習画像生成部は、コンピュータ断層撮影による前記3次元データに対して、3次元の物体形状画素値データを加えることと、前記3次元データに対して3次元の前記物体形状画素値データを減じることとの少なくとも一方を行った状態で、デジタル再構成シミュレーションにより2次元に投影することによって、前記入力教師画像を生成するように構成されている、請求項1〜8のいずれか1項に記載の医用画像処理装置。 The learning image generation unit adds the three-dimensional object shape pixel value data to the three-dimensional data obtained by computer tomography, and subtracts the three-dimensional object shape pixel value data from the three-dimensional data. The present invention according to any one of claims 1 to 8, wherein the input teacher image is generated by projecting the input teacher image in two dimensions by a digital reconstruction simulation in a state where at least one of the above is performed. Medical image processing equipment. 3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、前記被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、前記2次元投影画像に対して前記物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像と、前記入力教師画像と同じ領域における前記特定部分を示す画像または前記特定部分を除く画像である出力教師画像と、を生成する学習画像生成部と、
前記入力教師画像および前記出力教師画像を用いて、機械学習を行うことにより、前記特定部分を抽出するか、または、前記特定部分を除去するための第1学習モデルを生成する学習モデル生成部と、
X線撮影によって前記被検体の前記特定部分を含むX線画像を取得するX線撮影部と、
学習済みの前記第1学習モデルに基づいて、前記X線撮影部によって撮影された前記特定部分を含む前記X線画像に対して、前記特定部分を抽出する処理と、前記特定部分を除去する処理とのいずれか一方を行う特定部分処理部と、を備える、X線画像処理システム。
An object containing an image relating to a predetermined object separate from the subject with respect to a two-dimensional projected image of a region including a specific part of the subject acquired based on the three-dimensional data having pixel value data in three dimensions. An input teacher image including at least one of an image to which a shape image is added and an image in which the object shape image is subtracted from the two-dimensional projected image, and the identification in the same region as the input teacher image. A learning image generation unit that generates an output teacher image that is an image showing a part or an image excluding the specific part, and
A learning model generation unit that extracts the specific portion or generates a first learning model for removing the specific portion by performing machine learning using the input teacher image and the output teacher image. ,
An X-ray imaging unit that acquires an X-ray image including the specific portion of the subject by X-ray imaging, and an X-ray imaging unit.
Based on the trained first learning model, a process of extracting the specific portion and a process of removing the specific portion from the X-ray image including the specific portion photographed by the X-ray photographing unit. An X-ray image processing system including a specific partial processing unit that performs either of the above.
3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、前記被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、前記2次元投影画像に対して前記物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像を生成するステップと、
前記3次元データに基づいて、前記入力教師画像と同じ領域における前記特定部分を示す画像または前記特定部分を除く画像である出力教師画像を生成するステップと、
前記入力教師画像および前記出力教師画像を用いて、機械学習を行うことにより、前記特定部分を抽出するか、または、前記特定部分を除去するための第1学習モデルを生成するステップと、を備える、学習モデルの生成方法。
An object containing an image of a predetermined object separate from the subject with respect to a two-dimensional projected image of a region including a specific part of the subject acquired based on the three-dimensional data having pixel value data in three dimensions. A step of generating an input teacher image including at least one of an image to which a shape image is added and an image in which the object shape image is subtracted from the two-dimensional projected image.
A step of generating an output teacher image which is an image showing the specific portion in the same region as the input teacher image or an image excluding the specific portion based on the three-dimensional data.
It includes a step of extracting the specific portion or generating a first learning model for removing the specific portion by performing machine learning using the input teacher image and the output teacher image. , How to generate a learning model.
JP2019167627A 2019-09-13 2019-09-13 Medical image processing device, x-ray image processing system and generation method of learning model Pending JP2021041089A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019167627A JP2021041089A (en) 2019-09-13 2019-09-13 Medical image processing device, x-ray image processing system and generation method of learning model
JP2023079096A JP2023103359A (en) 2019-09-13 2023-05-12 Learning device, x-ray image processing system, and learning model generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019167627A JP2021041089A (en) 2019-09-13 2019-09-13 Medical image processing device, x-ray image processing system and generation method of learning model

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023079096A Division JP2023103359A (en) 2019-09-13 2023-05-12 Learning device, x-ray image processing system, and learning model generation method

Publications (1)

Publication Number Publication Date
JP2021041089A true JP2021041089A (en) 2021-03-18

Family

ID=74862575

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019167627A Pending JP2021041089A (en) 2019-09-13 2019-09-13 Medical image processing device, x-ray image processing system and generation method of learning model
JP2023079096A Pending JP2023103359A (en) 2019-09-13 2023-05-12 Learning device, x-ray image processing system, and learning model generation method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023079096A Pending JP2023103359A (en) 2019-09-13 2023-05-12 Learning device, x-ray image processing system, and learning model generation method

Country Status (1)

Country Link
JP (2) JP2021041089A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016096902A (en) * 2014-11-19 2016-05-30 株式会社東芝 Medical image processing device, method, program and radiation therapy device
JP2018082767A (en) * 2016-11-21 2018-05-31 東芝エネルギーシステムズ株式会社 Medical image processing device, medical image processing method, medical image processing program, dynamic body tracking device, and radiation therapy system
JP2018089301A (en) * 2016-12-07 2018-06-14 学校法人常翔学園 Organism image processing device, output image production method, learning result production method and program
JP2018169672A (en) * 2017-03-29 2018-11-01 三菱電機インフォメーションシステムズ株式会社 Method of creating teacher image, computer and program
WO2019003434A1 (en) * 2017-06-30 2019-01-03 株式会社島津製作所 Tracking device for radiation treatment, position detection device, and method for tracking moving body
US20190201106A1 (en) * 2018-01-04 2019-07-04 Holo Surgical Inc. Identification and tracking of a predefined object in a set of images from a medical image scanner during a surgical procedure

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018159775A1 (en) * 2017-03-03 2018-09-07 国立大学法人筑波大学 Object tracking device
JP6881611B2 (en) * 2018-01-09 2021-06-02 株式会社島津製作所 Image creation device and trained model generation method
US11132792B2 (en) * 2018-02-22 2021-09-28 Siemens Healthcare Gmbh Cross domain medical image segmentation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016096902A (en) * 2014-11-19 2016-05-30 株式会社東芝 Medical image processing device, method, program and radiation therapy device
JP2018082767A (en) * 2016-11-21 2018-05-31 東芝エネルギーシステムズ株式会社 Medical image processing device, medical image processing method, medical image processing program, dynamic body tracking device, and radiation therapy system
JP2018089301A (en) * 2016-12-07 2018-06-14 学校法人常翔学園 Organism image processing device, output image production method, learning result production method and program
JP2018169672A (en) * 2017-03-29 2018-11-01 三菱電機インフォメーションシステムズ株式会社 Method of creating teacher image, computer and program
WO2019003434A1 (en) * 2017-06-30 2019-01-03 株式会社島津製作所 Tracking device for radiation treatment, position detection device, and method for tracking moving body
US20190201106A1 (en) * 2018-01-04 2019-07-04 Holo Surgical Inc. Identification and tracking of a predefined object in a set of images from a medical image scanner during a surgical procedure

Also Published As

Publication number Publication date
JP2023103359A (en) 2023-07-26

Similar Documents

Publication Publication Date Title
JP7099459B2 (en) Radiation therapy tracking device, position detection device and moving object tracking method
CN105658279B (en) Radiotherapy apparatus, system and method
JP7022268B2 (en) X-ray cone beam CT image reconstruction method
CN109890462A (en) Online angle Selection in rotation imaging and tracking system
JP5345947B2 (en) Imaging system and imaging method for imaging an object
CN109937072A (en) Offline angle Selection in rotation imaging and tracking system
CN110381840A (en) Use rotation 2Dx ray imager as imaging device to carry out target tracking during radiation disposition delivering
JP7113447B2 (en) Medical Image Processing Apparatus, Treatment System, and Medical Image Processing Program
WO2021171394A1 (en) Learned model creation method, image generation method, and image processing device
JP2012254243A (en) Image collator, patient positioner and image verification method
EP3769814A1 (en) Medical image processing device, treatment system, and medical image processing program
JP6971537B2 (en) Treatment planning device and treatment planning method
KR102619994B1 (en) Biomedical image processing devices, storage media, biomedical devices, and treatment systems
JP6797555B2 (en) Medical information processing device
JP2018153277A (en) Fluoroscopic apparatus
JP7226207B2 (en) Medical image processing apparatus, X-ray image processing system, and learning model generation method
EP4160538A1 (en) Metal artifact reduction in computed tomography
JP2021041089A (en) Medical image processing device, x-ray image processing system and generation method of learning model
WO2022190846A1 (en) Medical image processing device, medical image processing method, medical image processing program, and radiation therapy device
JP6380237B2 (en) Radioscopy equipment
WO2024117129A1 (en) Medical image processing device, treatment system, medical image processing method, and program
JP2019180799A (en) Medical image processing apparatus, medical image processing method, and program
WO2022107399A1 (en) Positioning device, radiotherapy system, and positioning method
US20230100798A1 (en) Adaptive auto-segmentation in computed tomography
JP6855173B2 (en) X-ray CT device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230214