JP2021112471A - Image condition output device, and radiotherapy treatment device - Google Patents

Image condition output device, and radiotherapy treatment device Download PDF

Info

Publication number
JP2021112471A
JP2021112471A JP2020007644A JP2020007644A JP2021112471A JP 2021112471 A JP2021112471 A JP 2021112471A JP 2020007644 A JP2020007644 A JP 2020007644A JP 2020007644 A JP2020007644 A JP 2020007644A JP 2021112471 A JP2021112471 A JP 2021112471A
Authority
JP
Japan
Prior art keywords
image
subject
shooting
information
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020007644A
Other languages
Japanese (ja)
Other versions
JP7412191B2 (en
Inventor
正英 市橋
Masahide Ichihashi
正英 市橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2020007644A priority Critical patent/JP7412191B2/en
Publication of JP2021112471A publication Critical patent/JP2021112471A/en
Application granted granted Critical
Publication of JP7412191B2 publication Critical patent/JP7412191B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To reflect the an imaging condition to a learning data and reduce time for an operator to determine an appropriate imaging condition.SOLUTION: An imaging condition output device according to the embodiment includes an obtaining part and a condition output part. The obtaining part obtains the subject information related to the subject in a radiotherapy treatment. The condition output part outputs the imaging condition by inputting the subject information to the leaned model for outputting the imaging condition of a cone beam CT image used for positioning of the subject based on the subject information.SELECTED DRAWING: Figure 2

Description

本発明の実施形態は、撮影条件出力装置及び放射線治療装置に関する。 Embodiments of the present invention relate to an imaging condition output device and a radiotherapy device.

放射線治療の分野においては、寝台上に搭載された患者に放射線を照射する医用線形加速器と、放射線を照射する前に、患者の位置合わせに用いられる画像撮影装置とを備えた放射線治療装置が広く知られている。この種の放射線治療装置は、操作者に設定されたコーンビームCT(Cone-Beam Computed Tomography)撮影条件(以下、CBCT撮影条件ともいう)に基づいて、画像撮影装置が患者のコーンビームCT画像(以下、CBCT画像ともいう)を撮影する。撮影されたCBCT画像は、治療計画用のCT画像である計画CT画像と比較される。比較の結果、適宜、画像撮影装置と寝台との位置関係が調整され、患者の位置合わせが行われる。 In the field of radiotherapy, a wide range of radiotherapy devices are equipped with a medical linear accelerator mounted on a bed to irradiate a patient and an imaging device used to align the patient before irradiating the patient. Are known. In this type of radiotherapy device, the imaging device is based on the cone-beam CT (Cone-Beam Computed Tomography) imaging condition (hereinafter, also referred to as CBCT imaging condition) set by the operator, and the imaging device is a cone-beam CT image of the patient (hereinafter, also referred to as CBCT imaging condition). Hereinafter, it is also referred to as a CBCT image). The captured CBCT image is compared with a planned CT image, which is a CT image for treatment planning. As a result of the comparison, the positional relationship between the imaging device and the bed is adjusted as appropriate, and the patient is aligned.

このようなCBCT画像は、位置合わせの精度を向上させる観点から、計画CT画像と同様に、高画質を有することが好ましい。一般的に、CBCT画像の画質を改善する方法としては、ニューラルネットワークなどのアルゴリズムを用いてノイズ低減などを行う画像処理の技術が知られている。例えば、画像処理の際に、ノイズによる低画質のCBCT画像をニューラルネットワークに入力し、ノイズを低減したCBCT画像をニューラルネットワークから出力する。このようなニューラルネットワークは、予め低画質のCBCT画像と、ノイズが低減されたCBCT画像とを含む学習用データを機械学習させることで、実現可能となっている。 From the viewpoint of improving the accuracy of alignment, such a CBCT image preferably has high image quality like the planned CT image. Generally, as a method for improving the image quality of a CBCT image, an image processing technique for reducing noise by using an algorithm such as a neural network is known. For example, during image processing, a low-quality CBCT image due to noise is input to the neural network, and a CBCT image with reduced noise is output from the neural network. Such a neural network can be realized by machine learning learning data including a low-quality CBCT image and a noise-reduced CBCT image in advance.

しかしながら、この種の画像処理の技術は、通常は特に問題ないが、本発明者の検討によれば、次のような不都合がある。例えば、学習用データを構成するCBCT画像の撮影条件を操作者が決める手間がかかる一方、適切な撮影条件が操作者に分からない。また、撮影条件によるノイズや散乱線の発生の傾向が学習用データに潜在しており、撮影条件が学習用データに反映されていない。 However, although there is usually no particular problem in this kind of image processing technique, according to the study of the present inventor, there are the following inconveniences. For example, while it takes time and effort for the operator to determine the imaging conditions of the CBCT image constituting the learning data, the operator does not know the appropriate imaging conditions. In addition, the tendency of noise and scattered rays to be generated due to the shooting conditions is latent in the learning data, and the shooting conditions are not reflected in the learning data.

特表2019−506208号公報Special Table 2019-506208

イアン・グッドフェロー(Ian Goodfellow)、外2名、「第9章 畳み込みネットワーク(Chapter 9 Convolutional Networks)」、ディープラーニング(Deep learning)、エムアイティー・プレス(MIT press)、2016年、p.330−372、インターネット<URL:http://www.deeplearningbook.org>Ian Goodfellow, 2 outsiders, "Chapter 9 Convolutional Networks", Deep Learning, MIT Press, 2016, p. 330-372, Internet <URL: http://www.deeplearningbook.org>

本発明が解決しようとする課題は、撮影条件を学習用データに反映でき、適切な撮影条件を操作者が決める手間を減らすことである。 The problem to be solved by the present invention is that the shooting conditions can be reflected in the learning data, and the time and effort required for the operator to determine the appropriate shooting conditions can be reduced.

実施形態に係る撮影条件出力装置は、取得部及び条件出力部を具備する。
前記取得部は、放射線治療における被写体に関する被写体情報を取得する。
前記条件出力部は、前記被写体情報に基づいて、前記被写体の位置合わせに用いるコーンビームCT画像の撮影条件を出力するための学習済みモデルに対して、前記被写体情報を入力することで、前記撮影条件を出力する。
The photographing condition output device according to the embodiment includes an acquisition unit and a condition output unit.
The acquisition unit acquires subject information regarding a subject in radiotherapy.
The condition output unit inputs the subject information to the trained model for outputting the shooting conditions of the cone beam CT image used for aligning the subject based on the subject information, thereby performing the shooting. Output the condition.

図1は、本実施形態に係る放射線治療システムの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a radiotherapy system according to the present embodiment. 図2は、本実施形態に係る撮影条件出力装置の構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a shooting condition output device according to the present embodiment. 図3は、本実施形態に係る処理回路及び評価機能を説明するための模式図である。FIG. 3 is a schematic diagram for explaining the processing circuit and the evaluation function according to the present embodiment. 図4は、本実施形態に係る撮影関連情報及び学習用データを説明するための模式図である。FIG. 4 is a schematic diagram for explaining photography-related information and learning data according to the present embodiment. 図5は、本実施形態に係るCBCT撮影条件を説明するための模式図である。FIG. 5 is a schematic diagram for explaining the CBCT imaging conditions according to the present embodiment. 図6は、本実施形態に係る学習用データ及び学習済みモデルを説明するための模式図である。FIG. 6 is a schematic diagram for explaining the learning data and the trained model according to the present embodiment. 図7は、本実施形態に係る学習用データ及び学習済みモデルを説明するための模式図である。FIG. 7 is a schematic diagram for explaining the learning data and the trained model according to the present embodiment. 図8は、本実施形態に係る学習用データ及び学習済みモデルを説明するための模式図である。FIG. 8 is a schematic diagram for explaining the learning data and the trained model according to the present embodiment. 図9は、本実施形態における学習段階の動作を説明するためのフローチャートである。FIG. 9 is a flowchart for explaining the operation of the learning stage in the present embodiment. 図10は、本実施形態におけるステップST20の動作を説明するための模式図である。FIG. 10 is a schematic diagram for explaining the operation of step ST20 in this embodiment. 図11は、本実施形態における運用段階の動作を説明するためのフローチャートである。FIG. 11 is a flowchart for explaining the operation of the operation stage in the present embodiment. 図12は、本実施形態の第1変形例に係る学習用データ及び学習済みモデルを説明するための模式図である。FIG. 12 is a schematic diagram for explaining the learning data and the learned model according to the first modification of the present embodiment. 図13は、本実施形態の第3変形例に係る強化学習を説明するための模式図である。FIG. 13 is a schematic diagram for explaining reinforcement learning according to the third modification of the present embodiment.

以下、図面を参照しながら実施形態について説明する。なお、以下の説明中、コーンビームCT撮影(以下、CBCT撮影ともいう)の際の患者を被写体と呼ぶが、これに限らず、当該被写体を患者と呼んでもよい。同様に、患者情報のうちのCBCT撮影に影響する情報を被写体情報と呼ぶが、これに限らず、当該被写体情報を患者情報と呼んでもよい。また、「コーンビームCT」の用語は、「CBCT」とも表記する。 Hereinafter, embodiments will be described with reference to the drawings. In the following description, the patient during cone beam CT imaging (hereinafter, also referred to as CBCT imaging) is referred to as a subject, but the subject is not limited to this and may be referred to as a patient. Similarly, the information that affects CBCT imaging among the patient information is referred to as subject information, but the subject information is not limited to this and may be referred to as patient information. The term "cone beam CT" is also referred to as "CBCT".

図1に示すように、放射線治療システム100は、画像保管装置1、撮影条件出力装置2、治療計画用CT装置3、治療計画装置4、放射線治療装置5を有する。放射線治療装置5は、画像撮影装置51を含んでいる。画像保管装置1、撮影条件出力装置2、治療計画用CT装置3、治療計画装置4及び放射線治療装置5は、互いにネットワークを介して通信可能に接続されている。 As shown in FIG. 1, the radiotherapy system 100 includes an image storage device 1, an imaging condition output device 2, a treatment planning CT device 3, a treatment planning device 4, and a radiotherapy device 5. The radiotherapy device 5 includes an imaging device 51. The image storage device 1, the imaging condition output device 2, the treatment planning CT device 3, the treatment planning device 4, and the radiotherapy device 5 are communicably connected to each other via a network.

画像保管装置1は、互いに異なる撮影条件をもつ過去の複数のCBCT画像を保管する。また、画像保管装置1は、撮影条件出力装置2からの要求に基づき、当該過去の複数のCBCT画像を撮影条件出力装置2に送信する。 The image storage device 1 stores a plurality of past CBCT images having different imaging conditions from each other. Further, the image storage device 1 transmits the plurality of past CBCT images to the imaging condition output device 2 based on the request from the imaging condition output device 2.

撮影条件出力装置2は、例えば、放射線治療装置5や治療前の画像撮影装置51に対して、被写体情報に基づいて、被写体の位置合わせに用いるコーンビームCT画像の撮影条件を出力する装置である。補足すると、照射位置を撮影し確認するための画像撮影装置51において、治療の精度に影響する重要な要素としては、コーンビームCT画像の画質と、当該画質に影響する撮影条件とがある。よって、撮影条件出力装置2は、画像撮影装置51の最適な撮影条件を支援するために、被写体情報とCBCT撮影条件の組み合わせによって学習させた学習済みモデルを用いている。なお、撮影条件出力装置2は、学習済みモデルを生成してもよく、学習済みモデルを外部からインストールしてもよい。但し、撮影条件出力装置2は、これらの例に限定されない。例えば、撮影条件出力装置2は、放射線治療装置5に接続された外部装置に限らず、放射線治療装置5が備える装置として設けてもよい。撮影条件出力装置2の構成等については後述する。 The imaging condition output device 2 is, for example, a device that outputs the imaging conditions of the cone beam CT image used for aligning the subject to the radiotherapy device 5 and the image capturing device 51 before the treatment based on the subject information. .. Supplementally, in the image capturing apparatus 51 for photographing and confirming the irradiation position, important factors that affect the accuracy of treatment are the image quality of the cone beam CT image and the imaging conditions that affect the image quality. Therefore, the shooting condition output device 2 uses a trained model trained by a combination of subject information and CBCT shooting conditions in order to support the optimum shooting conditions of the image shooting device 51. The shooting condition output device 2 may generate a trained model, or may install the trained model from the outside. However, the shooting condition output device 2 is not limited to these examples. For example, the imaging condition output device 2 is not limited to the external device connected to the radiotherapy device 5, and may be provided as a device included in the radiotherapy device 5. The configuration of the shooting condition output device 2 and the like will be described later.

治療計画用CT装置3は、治療対象の患者にCT撮像を施して、治療計画に使用するCT画像を生成する。以下、治療計画に使用するためのCT画像を計画CT画像と呼ぶ。計画CT画像は、2次元状に配列されたピクセルにより構成される2次元画像でもよいし、3次元状に配列されたボクセルにより構成される3次元画像でもよい。治療計画用CT装置3は、計画CT画像を生成可能な如何なるモダリティ装置であってもよい。モダリティ装置としては、例えば、X線コンピュータ断層撮影装置、コーンビームCT装置、X線診断装置等が挙げられる。計画CT画像のデータは、例えば、治療計画装置4に送信される。 The treatment planning CT device 3 performs CT imaging on the patient to be treated and generates a CT image to be used for the treatment planning. Hereinafter, the CT image to be used for the treatment plan is referred to as a planned CT image. The planned CT image may be a two-dimensional image composed of pixels arranged in a two-dimensional manner, or a three-dimensional image composed of voxels arranged in a three-dimensional manner. The treatment planning CT device 3 may be any modality device capable of generating a planned CT image. Examples of the modality device include an X-ray computed tomography device, a cone beam CT device, an X-ray diagnostic device, and the like. The data of the planned CT image is transmitted to, for example, the treatment planning device 4.

治療計画装置4は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等のプロセッサ、ROM(Read Only Memory)やRAM(Random Access Memory)等のメモリ、ディスプレイ、入力インタフェース、通信インタフェースを含むコンピュータを有する。治療計画装置4は、計画CT画像を利用して治療対象の患者の治療計画を作成する。治療計画に含まれるパラメータとしては、フィールド数(照射野数)やフィールド角度(照射角度)、放射線強度、コリメータ開度等が含まれる。治療計画装置4は、計画CT画像に基づいて腫瘍や臓器の位置及び形状を特定し、各種の治療計画パラメータを決定する。この際、腫瘍に照射する線量はできる限り多く、正常組織への線量はできる限り小さくなるような治療計画が作成される。治療計画のデータは、撮影条件出力装置2を介して放射線治療装置5に供給される。 The treatment planning device 4 is a computer including a processor such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory), a display, an input interface, and a communication interface. Has. The treatment planning device 4 creates a treatment plan for the patient to be treated by using the planned CT image. The parameters included in the treatment plan include the number of fields (number of irradiation fields), field angle (irradiation angle), radiation intensity, collimator opening, and the like. The treatment planning device 4 identifies the position and shape of the tumor or organ based on the planned CT image, and determines various treatment planning parameters. At this time, a treatment plan is created so that the dose to be irradiated to the tumor is as high as possible and the dose to normal tissue is as small as possible. The treatment plan data is supplied to the radiotherapy device 5 via the imaging condition output device 2.

放射線治療装置5は、治療計画装置4により作成された治療計画に従い患者に放射線を照射して患者を治療する。放射線治療装置5は、治療室に設けられた医用線形加速器と、画像撮影装置51と、治療寝台とを有する。治療寝台は、患者の治療部位がアイソセンタに略一致するように天板を移動する。医用線形加速器は、回転軸回りに回転可能に照射ヘッド部を支持する治療架台を備えている。照射ヘッド部は、治療計画装置4により作成された治療計画に従い放射線を照射する。具体的には、照射ヘッド部は、多分割絞り(マルチリーフコリメータ)により照射野を形成し、当該照射野により正常組織への照射を抑える。治療部位に放射線が照射されることにより当該治療部位が消滅又は縮小する。画像撮影装置51は治療架台に搭載されている。画像撮影装置51は、放射線治療時の位置確認のため患者の体内情報を収集するためのものである。例えば、画像撮影装置51は、回転軸を挟んで対向配置されたX線管とX線検出器とを有する。この構成により画像撮影装置51は、コーンビームCTを実現し、患者の体内の形態を描出する3次元のCT画像データを生成可能である。また、放射線治療装置5は、放射線を被写体に照射する照射部と、当該被写体の位置合わせに用いるコーンビームCT画像の撮影条件を出力する撮影条件出力装置2とを備えてもよい。照射ヘッド部は、照射部の一例である。 The radiation therapy device 5 treats the patient by irradiating the patient with radiation according to the treatment plan created by the treatment planning device 4. The radiotherapy device 5 has a medical linear accelerator provided in the treatment room, an imaging device 51, and a treatment bed. The treatment bed moves the top plate so that the treatment site of the patient is approximately aligned with the isocenter. The medical linear accelerator includes a treatment stand that supports the irradiation head portion so as to be rotatable around a rotation axis. The irradiation head unit irradiates radiation according to the treatment plan created by the treatment planning device 4. Specifically, the irradiation head portion forms an irradiation field with a multi-segment diaphragm (multi-leaf collimator), and the irradiation field suppresses irradiation to normal tissue. When the treatment site is irradiated with radiation, the treatment site disappears or shrinks. The imaging device 51 is mounted on the treatment stand. The imaging device 51 is for collecting internal information of the patient for confirming the position at the time of radiotherapy. For example, the image capturing device 51 has an X-ray tube and an X-ray detector arranged so as to face each other with the rotation axis interposed therebetween. With this configuration, the image capturing apparatus 51 can realize cone beam CT and generate three-dimensional CT image data that depicts the morphology of the patient's body. Further, the radiotherapy device 5 may include an irradiation unit that irradiates the subject with radiation, and an imaging condition output device 2 that outputs imaging conditions of a cone beam CT image used for aligning the subject. The irradiation head portion is an example of the irradiation portion.

図2に示すように、撮影条件出力装置2は、処理回路21、メモリ22、入力インタフェース23、通信インタフェース24及びディスプレイ25を有する。 As shown in FIG. 2, the photographing condition output device 2 includes a processing circuit 21, a memory 22, an input interface 23, a communication interface 24, and a display 25.

処理回路21は、CPU及びGPU等のプロセッサを有する。当該プロセッサがメモリ22等にインストールされたプログラムを起動することにより、当該プロセッサは、取得機能21a、評価機能21b、学習機能21c、条件出力機能21d及び表示制御機能21eを実現する。なお、各機能21a乃至21eは単一の処理回路で実現される場合に限らない。複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより各機能21a乃至21eを分散して実現するものとしても構わない。 The processing circuit 21 has a processor such as a CPU and a GPU. When the processor activates a program installed in the memory 22 or the like, the processor realizes the acquisition function 21a, the evaluation function 21b, the learning function 21c, the condition output function 21d, and the display control function 21e. The functions 21a to 21e are not limited to the case where they are realized by a single processing circuit. A processing circuit may be configured by combining a plurality of independent processors, and each function 21a to 21e may be distributed and realized by executing a program by each processor.

取得機能21aの実現により処理回路21は、種々のデータを取得する。例えば、処理回路21は、通信インタフェース24を介して治療計画装置4から受信された治療計画のデータと患者情報とを取得する。また例えば、処理回路21は、操作者による入力インタフェース23の操作に応じて患者情報及び治療計画データから選択された情報として、放射線治療における被写体に関する被写体情報を取得する。被写体情報は、患者情報及び治療計画データのうちのコーンビームCT撮影条件に影響する情報であるが、これに限らず、コーンビームCT撮影条件に影響しない情報を含んでいてもよい。具体的には例えば、被写体情報は、被写体の治療部位、固定具情報及び体格情報を含んでいる。体格情報は、被写体の体重又は体厚を含んでおり、更に、身長、年齢及び性別を含んでもよい。また、体格情報は、被写体の身長と体重から算出されるBMI(Body Mass Index)の如き、体格の指標を含んでもよい。固定具情報は、被写体を寝台に固定する固定具を表す情報であり、例えば固定具の製品名であってもよい。固定具は、CBCT画像を撮影するためのX線のパス上に位置してもよい。また、被写体情報としては、更に、治療体位、病歴及び体内組織構造などを適宜、含んでもよい。また例えば、処理回路21は、通信インタフェース24を介して画像保管装置1から受信された過去の複数のCBCT画像を取得してもよい。過去の複数のCBCT画像は、互いに異なる撮影条件で撮影された画像である。また例えば、処理回路21は、通信インタフェース24を介して治療計画装置4から受信された、被写体の計画CT画像を取得してもよい。また例えば、処理回路21は、通信インタフェース24を介して治療計画装置4から受信された、被写体の計画CT画像の撮影条件を取得してもよい。取得機能21a及び処理回路21は、取得部の一例である。 With the realization of the acquisition function 21a, the processing circuit 21 acquires various data. For example, the processing circuit 21 acquires the treatment plan data and patient information received from the treatment planning device 4 via the communication interface 24. Further, for example, the processing circuit 21 acquires subject information regarding a subject in radiotherapy as information selected from patient information and treatment plan data according to the operation of the input interface 23 by the operator. The subject information is information that affects the cone-beam CT imaging conditions in the patient information and the treatment plan data, but is not limited to this, and may include information that does not affect the cone-beam CT imaging conditions. Specifically, for example, the subject information includes the treatment site of the subject, the fixture information, and the physique information. The physique information includes the weight or thickness of the subject, and may further include height, age and gender. Further, the physique information may include an index of physique such as BMI (Body Mass Index) calculated from the height and weight of the subject. The fixture information is information representing a fixture that fixes the subject to the bed, and may be, for example, a product name of the fixture. The fixture may be located on an X-ray path for capturing a CBCT image. In addition, the subject information may further include the therapeutic position, medical history, internal tissue structure, and the like as appropriate. Further, for example, the processing circuit 21 may acquire a plurality of past CBCT images received from the image storage device 1 via the communication interface 24. The plurality of CBCT images in the past are images taken under different shooting conditions. Further, for example, the processing circuit 21 may acquire a planned CT image of the subject received from the treatment planning device 4 via the communication interface 24. Further, for example, the processing circuit 21 may acquire the imaging conditions of the planned CT image of the subject received from the treatment planning device 4 via the communication interface 24. The acquisition function 21a and the processing circuit 21 are examples of the acquisition unit.

評価機能21bの実現により処理回路21は、コーンビームCT画像の良否の評価結果を求める。この場合、処理回路21は、図3に示すように、計画CT画像d2を正解データとして、過去の複数のCBCT画像d1の各々の評価結果d3を求めてもよい。この場合、処理回路21は、例えば、計画CT画像d2の特徴量と、CBCT画像d1の特徴量との類似度や、各CT画像のコントラストを反映するヒストグラムなどから評価値を算出し、評価値から評価結果を判定してもよい。ここで、計画CT画像d2の特徴量と、CBCT画像d1の特徴量とは、例えば、放射線治療の対象である腫瘍領域の画像データ、画素値、画素値の統計値及び形態的特徴量のうちの少なくとも1つである。画素値の統計値としては、腫瘍領域を構成する複数の画素の画素値の平均値、最大値、最小値、中間値、標準偏差及び分散値等の統計に関する特徴量の少なくとも1つである。形態的特徴量は、腫瘍領域の体積や表面積、空洞数、形状度等の形態に関する特徴量の少なくとも1つである。形状度は、腫瘍領域の円形度や尖鋭度、凹凸数等の形状に関する特徴量の少なくとも1つである。 With the realization of the evaluation function 21b, the processing circuit 21 obtains the evaluation result of the quality of the cone beam CT image. In this case, as shown in FIG. 3, the processing circuit 21 may obtain the evaluation result d3 of each of the plurality of past CBCT images d1 using the planned CT image d2 as the correct answer data. In this case, the processing circuit 21 calculates an evaluation value from, for example, the similarity between the feature amount of the planned CT image d2 and the feature amount of the CBCT image d1, a histogram reflecting the contrast of each CT image, and the evaluation value. The evaluation result may be determined from. Here, the feature amount of the planned CT image d2 and the feature amount of the CBCT image d1 are, for example, among the image data, the pixel value, the statistical value of the pixel value, and the morphological feature amount of the tumor region to be treated with radiotherapy. At least one of. The statistical value of the pixel value is at least one of the feature amounts related to statistics such as the average value, the maximum value, the minimum value, the intermediate value, the standard deviation, and the dispersion value of the pixel values of the plurality of pixels constituting the tumor region. The morphological feature amount is at least one of the feature amounts related to the morphology such as the volume and surface area of the tumor region, the number of cavities, and the degree of shape. The degree of shape is at least one of the features related to the shape such as the circularity, sharpness, and the number of irregularities of the tumor region.

また、処理回路21は、操作者による入力インタフェース23の操作に応じて、複数のコーンビームCT画像d1の各々の評価結果d3を求めてもよい。評価機能21b及び処理回路21は、評価部の一例である。 Further, the processing circuit 21 may obtain the evaluation result d3 of each of the plurality of cone beam CT images d1 according to the operation of the input interface 23 by the operator. The evaluation function 21b and the processing circuit 21 are examples of the evaluation unit.

学習機能21cの実現により処理回路21は、図4に示すように、撮影関連情報d0から学習用データd10を作成する。撮影関連情報d0は、複数のCBCT画像d1、計画CT画像d2、複数の評価結果d3、被写体情報d4及び複数のCBCT撮影条件d5を含んでいる。学習用データd10は、撮影関連情報d0のうち、被写体情報d4と、正解データであるCBCT撮影条件d5とを含んでいる。但し、これに限らず、学習用データd10としては、更に、計画CT画像d2や、評価結果d3を含んでもよい。また、計画CT画像d2に代えて、計画CT画像d2の撮影条件を学習用データd10に含めてもよい。また、図4中、複数の情報に関する表記“(1,・・・,n)”を付したCBCT画像d1、評価結果d3及びCBCT撮影条件d5は、1つの被写体情報あたり、それぞれn個あることを示している。撮影関連情報d0は、被写体情報d4毎に存在するので、CBCT画像d1、評価結果d3及びCBCT撮影条件d5についても、被写体情報d4毎に複数個が存在する。学習用データd10は複数の被写体情報について作成されるので、図4に示す如き、学習用データd10が複数作成される。これら複数の学習用データd10は、学習段階で用いられる。このような複数の学習用データd10は、学習用データセットと呼んでもよい。 With the realization of the learning function 21c, the processing circuit 21 creates the learning data d10 from the shooting-related information d0 as shown in FIG. The imaging-related information d0 includes a plurality of CBCT images d1, a planned CT image d2, a plurality of evaluation results d3, subject information d4, and a plurality of CBCT imaging conditions d5. The learning data d10 includes subject information d4 and CBCT imaging condition d5, which is correct answer data, among the imaging-related information d0. However, the present invention is not limited to this, and the learning data d10 may further include the planned CT image d2 and the evaluation result d3. Further, instead of the planned CT image d2, the imaging conditions of the planned CT image d2 may be included in the learning data d10. Further, in FIG. 4, there are n CBCT images d1, evaluation result d3, and CBCT imaging condition d5 with the notation "(1, ..., N)" relating to a plurality of information for each subject information. Is shown. Since the shooting-related information d0 exists for each subject information d4, a plurality of the CBCT image d1, the evaluation result d3, and the CBCT shooting condition d5 also exist for each subject information d4. Since the learning data d10 is created for a plurality of subject information, a plurality of learning data d10 are created as shown in FIG. These plurality of learning data d10 are used in the learning stage. Such a plurality of learning data d10 may be referred to as a learning data set.

ここで、図4に示す各種データは、以下の内容である。 Here, the various data shown in FIG. 4 have the following contents.

n個のCBCT画像d1:撮影条件を変えたCBCT画像。
計画CT画像d2:治療計画時に治療部位を治療体位で撮影した画像(正解に近いデータ)。
n個の評価結果d3:生成されたCBCT画像の良否を示す結果。評価結果は、良好(OK)/不良(NG)などの二者択一で表現してもよく、10段階等の複数段階の値などの定量的な数値で表現してもよい。また、評価結果は、各画像のコントラストや臓器の形状などの評価をする観点ごとに求めてもよい。
被写体情報d4:治療部位、治療体位、病歴、体内組織構造、固定具情報、体格情報。
n個のCBCT撮影条件d5:架台角度、回転範囲、回転方向、絞りの種類、フィルターの種類、撮影範囲(FOVの大きさ)、管電圧、管電流(又は管電流時間積)、フレームレート、検出器までの距離(画像撮影装置51は固定)、寝台の位置、などの撮影条件。なお、CBCT撮影条件d5は、図5に示すように、各々の条件の組合せが各々のプロトコルとして使用可能となっている。この場合、CBCT撮影条件d5の組合せの個数は、使用可能なプロトコルの個数以下である。また、CBCT撮影条件d5に含まれる要素は、画像撮影装置51に用いられる条件であるので、必ずしもCBCT画像の画質に影響する要素に限定されない。例えば、CBCT撮影条件d5に含まれる回転範囲及び回転方向は、画像撮影装置51の制約条件であり、CBCT画像の画質には影響しない。
n CBCT images d1: CBCT images with different shooting conditions.
Plan CT image d2: An image of the treatment site taken in the treatment position at the time of treatment planning (data close to the correct answer).
n evaluation results d3: Results indicating the quality of the generated CBCT image. The evaluation result may be expressed by an alternative such as good (OK) / bad (NG), or may be expressed by a quantitative numerical value such as a value of a plurality of stages such as 10 stages. Further, the evaluation result may be obtained for each viewpoint for evaluating the contrast of each image, the shape of the organ, and the like.
Subject information d4: Treatment site, treatment position, medical history, internal tissue structure, fixture information, physique information.
n CBCT imaging conditions d5: gantry angle, rotation range, rotation direction, aperture type, filter type, imaging range (FOV size), tube voltage, tube current (or tube current time product), frame rate, Shooting conditions such as the distance to the detector (the image shooting device 51 is fixed), the position of the sleeper, and so on. As for the CBCT imaging condition d5, as shown in FIG. 5, each combination of conditions can be used as each protocol. In this case, the number of combinations of the CBCT imaging condition d5 is less than or equal to the number of protocols that can be used. Further, since the elements included in the CBCT imaging condition d5 are the conditions used in the image capturing apparatus 51, they are not necessarily limited to the elements that affect the image quality of the CBCT image. For example, the rotation range and the rotation direction included in the CBCT imaging condition d5 are constraint conditions of the image capturing apparatus 51 and do not affect the image quality of the CBCT image.

また、n個のCBCT撮影条件d5のうち、正解データを定めるには、例えば、評価結果が良を示すCBCT画像の撮影条件を正解データとする方式がある。また、CBCT画像撮影条件d5を正解データとするための評価結果としては、例えば、コントラストが良く臓器の形状が判別しやすい旨の評価結果や、ノイズや散乱線の影響が少ない旨の評価結果などが適宜、使用可能となっている。 Further, in order to determine the correct answer data among the n CBCT imaging conditions d5, for example, there is a method in which the imaging condition of the CBCT image showing a good evaluation result is used as the correct answer data. Further, as the evaluation result for using the CBCT image capturing condition d5 as the correct answer data, for example, an evaluation result that the contrast is good and the shape of the organ can be easily discriminated, an evaluation result that the influence of noise and scattered rays is small, and the like. Can be used as appropriate.

また、学習機能21cの実現により処理回路21は、図6に示すように、作成した学習用データd10を用いて機械学習モデルM1に機械学習を施すことにより、機械学習モデルM1から学習済みモデルM2を作成する。図6中、学習用データd10は、被写体情報d4を入力データに含み、CBCT撮影条件d5を出力データに含んでいる。但し、これに限らず、学習用データd10としては、被写体情報d4を入力データに含み、CBCT撮影条件d5を出力データに含んでいれば、他のデータが付加されていてもよい。例えば、学習用データd10としては、図6に示した構成に比べ、図7に示すように、評価結果d3を更に出力データに含んでいてもよい。なお、評価結果d3は、学習用データd10の出力データに限らず、学習用データd10の入力データに含んでもよい。また例えば、学習用データd10としては、図6に示した構成に比べ、図8に示すように、計画CT画像撮影条件d2aを更に入力データに含んでもよい。あるいは、学習用データd10としては、図6に示した構成に比べ、計画CT画像d2を更に入力データに含んでもよい。またあるいは、図6に示した構成に比べ、計画CT画像撮影条件d2aや計画CT画像d2を更に入力データに含む学習用データd10に対し、更に評価結果d3を入力データ又は出力データに含めてもよい。 Further, by realizing the learning function 21c, as shown in FIG. 6, the processing circuit 21 performs machine learning on the machine learning model M1 using the created learning data d10, so that the machine learning model M1 is used to learn the trained model M2. To create. In FIG. 6, the learning data d10 includes the subject information d4 in the input data and the CBCT imaging condition d5 in the output data. However, the learning data d10 is not limited to this, and other data may be added as long as the subject information d4 is included in the input data and the CBCT imaging condition d5 is included in the output data. For example, as the learning data d10, as shown in FIG. 7, the evaluation result d3 may be further included in the output data, as compared with the configuration shown in FIG. The evaluation result d3 is not limited to the output data of the learning data d10, and may be included in the input data of the learning data d10. Further, for example, as the learning data d10, as shown in FIG. 8, the planned CT image capturing condition d2a may be further included in the input data as compared with the configuration shown in FIG. Alternatively, as the learning data d10, the planned CT image d2 may be further included in the input data as compared with the configuration shown in FIG. Alternatively, as compared with the configuration shown in FIG. 6, the evaluation result d3 may be further included in the input data or the output data with respect to the learning data d10 in which the planned CT image capturing condition d2a and the planned CT image d2 are further included in the input data. good.

このように各々の学習用データd10は、入力データ及び出力データを有する。入力データは、学習用データd10のうち、機械学習モデルM1の入力層に入力されるデータである。出力データは、学習用データd10のうち、入力データ以外のデータである。 As described above, each learning data d10 has input data and output data. The input data is the data input to the input layer of the machine learning model M1 among the learning data d10. The output data is data other than the input data in the learning data d10.

機械学習モデルM1は、当該入力データを入力とし、当該出力データを出力する、複数の関数が合成されたパラメータ付き合成関数である。パラメータ付き合成関数は、複数の調整可能な関数及びパラメータの組合せにより定義される。本実施形態に係る機械学習モデルM1は、上記の要請を満たす如何なるパラメータ付き合成関数であっても良いが、多層のネットワークモデル(以下、多層化ネットワークと呼ぶ)であるとする。多層化ネットワークを用いる学習済みモデルM2は、少なくとも被写体情報d4を入力する入力層と、CBCT画像の撮影条件d5を出力する出力層と、入力層と出力層との間に設けられる少なくとも1層の中間層とを有する。なお、入力層としては、被写体情報d4の入力に並列して、評価結果d3、計画CT画像d2、計画CT画像の撮影条件d2aの入力を受け付けてもよい。これら評価結果d3、計画CT画像d2、計画CT画像の撮影条件d2aは、CBCT撮影に関連する情報であるが、必須ではなく、任意の付加的事項である。このような多層化ネットワークとしては、例えば、深層学習(Deep Learning)の対象となる多層ニューラルネットワークである深層ニューラルネットワーク(Deep Neural Network:DNN)を用いている。DNNとしては、例えば、畳込みニューラルネットワーク(Convolutional Neural Network:CNN)を用いてもよい。この種のCNNは、DCNN(Deep CNN)ともいう。本実施形態では、学習済みモデルとしてDCNNを用いている。CNNについては、例えば、「イアン・グッドフェロー(Ian Goodfellow)、外2名、「第9章 畳み込みネットワーク(Chapter 9 Convolutional Networks)」、ディープラーニング(Deep learning)、エムアイティー・プレス(MIT press)、2016年、p.330−372、インターネット <URL:http://www.deeplearningbook.org>」に記載されている。以上の当該多層化ネットワークに関する説明は、以下の全ての機械学習モデル及び学習済みモデルにも該当する。 The machine learning model M1 is a composite function with parameters in which a plurality of functions are synthesized, which takes the input data as an input and outputs the output data. A parameterized composition function is defined by a combination of multiple adjustable functions and parameters. The machine learning model M1 according to the present embodiment may be a composite function with any parameter that satisfies the above requirements, but is a multi-layer network model (hereinafter referred to as a multi-layer network). The trained model M2 using the multi-layer network has at least one layer provided between the input layer for inputting the subject information d4, the output layer for outputting the shooting condition d5 of the CBCT image, and the input layer and the output layer. It has an intermediate layer. As the input layer, the input of the evaluation result d3, the planned CT image d2, and the shooting condition d2a of the planned CT image may be accepted in parallel with the input of the subject information d4. These evaluation results d3, planned CT image d2, and imaging condition d2a of the planned CT image are information related to CBCT imaging, but are not essential and are optional additional items. As such a multi-layer network, for example, a deep neural network (DNN), which is a multi-layer neural network targeted for deep learning, is used. As the DNN, for example, a convolutional neural network (CNN) may be used. This type of CNN is also referred to as DCNN (Deep CNN). In this embodiment, DCNN is used as the trained model. Regarding CNN, for example, "Ian Goodfellow, 2 outsiders," Chapter 9 Convolutional Networks ", Deep Learning, MIT Press, etc. 2016, p. 330-372, Internet <URL: http://www.deeplearningbook.org> ”. The above description of the multi-layer network also applies to all the following machine learning models and trained models.

条件出力機能21dの実現により処理回路21は、被写体情報d4に基づいて、被写体の位置合わせに用いるCBCT画像の撮影条件d5を出力するための学習済みモデルM2に対して、被写体情報d4を入力することで、撮影条件d5を出力する。ここで、処理回路21は、被写体情報d4に基づいて、評価結果d3が良を示すCBCT画像の撮影条件d5を出力する学習済みモデルM2に対して、被写体情報d4を入力することで、撮影条件d5を出力してもよい。また、処理回路21は、被写体情報d4及び計画CT画像撮影条件d2aに基づいて、CBCT画像の撮影条件d5を出力する学習済みモデルM2に対して、被写体情報d4及び計画CT画像撮影条件d2aを入力することで、撮影条件d5を出力してもよい。また、処理回路21は、被写体情報d4及び計画CT画像d2に基づいて、CBCT画像の撮影条件d5を出力する学習済みモデルM2に対して、被写体情報d4及び計画CT画像d2を入力することで、撮影条件d5を出力してもよい。条件出力機能21d及び処理回路21は、条件出力部の一例である。 With the realization of the condition output function 21d, the processing circuit 21 inputs the subject information d4 to the learned model M2 for outputting the shooting condition d5 of the CBCT image used for the alignment of the subject based on the subject information d4. As a result, the shooting condition d5 is output. Here, the processing circuit 21 inputs the subject information d4 to the trained model M2 that outputs the shooting condition d5 of the CBCT image indicating that the evaluation result d3 is good based on the subject information d4, thereby inputting the shooting condition. You may output d5. Further, the processing circuit 21 inputs the subject information d4 and the planned CT image shooting condition d2a to the trained model M2 that outputs the shooting condition d5 of the CBCT image based on the subject information d4 and the planned CT image shooting condition d2a. By doing so, the shooting condition d5 may be output. Further, the processing circuit 21 inputs the subject information d4 and the planned CT image d2 to the trained model M2 that outputs the shooting condition d5 of the CBCT image based on the subject information d4 and the planned CT image d2. The shooting condition d5 may be output. The condition output function 21d and the processing circuit 21 are examples of the condition output unit.

表示制御機能21eの実現により処理回路21は、種々の情報をディスプレイ25に表示する。例えば、処理回路21は、前述した撮影関連情報や学習用データなどを表示するようにディスプレイ25を表示制御する。表示制御機能21e及び処理回路21は、表示制御部の一例である。 With the realization of the display control function 21e, the processing circuit 21 displays various information on the display 25. For example, the processing circuit 21 controls the display 25 so as to display the above-mentioned shooting-related information, learning data, and the like. The display control function 21e and the processing circuit 21 are examples of the display control unit.

メモリ22は、種々の情報を記憶するROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、集積回路記憶装置等の記憶装置である。メモリ22は、上記記憶装置以外にも、CD(Compact Disc)、DVD(Digital Versatile Disc)、フラッシュメモリ等の可搬型記憶媒体や、半導体メモリ素子等との間で種々の情報を読み書きする駆動装置であってもよい。また、メモリ22は、撮影条件出力装置2にネットワークを介して接続された他のコンピュータ内にあってもよい。また、メモリ22は、プログラム、被写体情報、治療計画、撮影関連情報、学習用データ、機械学習モデル、学習済みモデル、各種テーブル等のデータを記憶する。 The memory 22 is a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an integrated circuit storage device that stores various information. In addition to the above storage device, the memory 22 is a drive device that reads and writes various information between a portable storage medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), and a flash memory, and a semiconductor memory element. It may be. Further, the memory 22 may be in another computer connected to the shooting condition output device 2 via a network. Further, the memory 22 stores data such as a program, subject information, treatment plan, imaging-related information, learning data, machine learning model, learned model, and various tables.

補足すると、メモリ22は、前述した通り、機械学習モデルM1及び学習済みモデルM2を記憶する。但し、条件出力機能21dを実現した処理回路21が学習済みモデルM2を用いる場合でも、機械学習モデルM1の記憶とその学習機能21cは、必須ではなく省略してもよい。これは、学習済みモデルM2を用いる場合、撮影条件出力装置2が機械学習モデルM1の学習により学習済みモデルM2を生成する必要はなく、外部から取得した学習済みモデルを用いてもよいからである。例えば、メモリ22は、撮影条件出力装置2の工場出荷前に予め学習済みモデルを記憶してもよく、あるいは撮影条件出力装置2の工場出荷後に、図示しないサーバ装置などから取得した学習済みモデルを記憶してもよい。これらは、放射線治療装置5が撮影条件出力装置2を備えた場合でも同様である。メモリ22は、記憶部の一例である。 Supplementally, the memory 22 stores the machine learning model M1 and the trained model M2 as described above. However, even when the processing circuit 21 that realizes the condition output function 21d uses the trained model M2, the storage of the machine learning model M1 and the learning function 21c are not essential and may be omitted. This is because when the trained model M2 is used, the shooting condition output device 2 does not need to generate the trained model M2 by learning the machine learning model M1, and the trained model acquired from the outside may be used. .. For example, the memory 22 may store a trained model in advance before the shooting condition output device 2 is shipped from the factory, or may store a learned model acquired from a server device (not shown) after the shooting condition output device 2 is shipped from the factory. You may remember. These are the same even when the radiotherapy device 5 includes the imaging condition output device 2. The memory 22 is an example of a storage unit.

入力インタフェース23は、オペレータからの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路21に出力する。具体的には、入力インタフェース23は、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等の入力機器に接続されている。入力インタフェース23は、当該入力機器への入力操作に応じた電気信号を処理回路21へ出力する。また、入力インタフェース23に接続される入力機器は、ネットワーク等を介して接続された他のコンピュータに設けられた入力機器でもよい。 The input interface 23 receives various input operations from the operator, converts the received input operations into electric signals, and outputs the received input operations to the processing circuit 21. Specifically, the input interface 23 is connected to an input device such as a mouse, keyboard, trackball, switch, button, joystick, touch pad, and touch panel display. The input interface 23 outputs an electric signal corresponding to an input operation to the input device to the processing circuit 21. Further, the input device connected to the input interface 23 may be an input device provided in another computer connected via a network or the like.

通信インタフェース24は、放射線治療システム100に含まれる他の装置との間でデータ通信するためのインタフェースである。例えば、通信インタフェース24は、治療計画装置4からネットワークを介して、患者情報、治療計画及び計画CT画像のデータを受信する。また例えば、通信インタフェース24は、画像保管装置1からネットワークを介して、過去のCBCT画像のデータを受信する。 The communication interface 24 is an interface for data communication with other devices included in the radiotherapy system 100. For example, the communication interface 24 receives patient information, treatment plan, and planned CT image data from the treatment planning device 4 via a network. Further, for example, the communication interface 24 receives the data of the past CBCT image from the image storage device 1 via the network.

ディスプレイ25は、処理回路21の表示制御機能21eに従い種々の情報を表示する。例えば、ディスプレイ25は、CBCT画像の評価画面を表示する。ディスプレイ25としては、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、CRT(Cathode Ray Tube)ディスプレイ、有機ELディスプレイ(OELD:Organic Electro Luminescence Display)、プラズマディスプレイ又は他の任意のディスプレイが適宜使用可能である。ディスプレイ25は、表示部の一例である。 The display 25 displays various information according to the display control function 21e of the processing circuit 21. For example, the display 25 displays an evaluation screen of a CBCT image. As the display 25, for example, a liquid crystal display (LCD), a CRT (Cathode Ray Tube) display, an organic EL display (OELD), a plasma display, or any other display can be appropriately used. be. The display 25 is an example of a display unit.

次に、以上のように構成された撮影条件出力装置2の動作について図9乃至図11の図面を参照しながら説明する。詳しくは、学習段階の動作について図9のフローチャート及び図10の模式図を用いて説明し、運用段階の動作について図11のフローチャートを用いて述べる。 Next, the operation of the photographing condition output device 2 configured as described above will be described with reference to the drawings of FIGS. 9 to 11. More specifically, the operation of the learning stage will be described with reference to the flowchart of FIG. 9 and the schematic diagram of FIG. 10, and the operation of the operation stage will be described with reference to the flowchart of FIG.

[学習段階の動作]
放射線治療の前のCBCT撮影毎に、処理回路21は、図9に示すように、入力インタフェース23に対する操作者の操作に応じて、過去のCBCT画像を通信インタフェース24を介して画像保管装置1に保管しておく(ステップST10)。このとき、CBCT撮像条件は、例えば、付帯情報としてCBCT画像と共に保管される。
[Learning stage operation]
For each CBCT image taken before radiotherapy, the processing circuit 21 transfers the past CBCT image to the image storage device 1 via the communication interface 24 in response to the operator's operation on the input interface 23, as shown in FIG. Keep it (step ST10). At this time, the CBCT imaging condition is stored together with the CBCT image as incidental information, for example.

ステップST10の後、処理回路21は、入力インタフェース23に対する操作者の操作に応じて、過去の複数のCBCT画像を通信インタフェース24を介して画像保管装置1から読み出す。なお、各々のCBCT撮像条件は、付帯情報として複数のCBCT画像と共に読み出される。 After step ST10, the processing circuit 21 reads out a plurality of past CBCT images from the image storage device 1 via the communication interface 24 in response to the operator's operation on the input interface 23. Each CBCT imaging condition is read out together with a plurality of CBCT images as incidental information.

しかる後、処理回路21は、過去の複数のCBCT画像の各々を評価し、各々のCBCT画像の評価結果を得る(ステップST20)。ステップST20の評価の際には、例えば図10に示すように、評価結果d3の入力画面をディスプレイ25に表示させてもよい。具体的には例えば、過去のCBCT画像d1の識別番号d1aと、識別番号d1aに応じたCBCT画像d1と、識別番号d1aの減少ボタンbt1及び増加ボタンbt2と、評価結果d3とを含む入力画面を表示させてもよい。このような入力画面の表示中、処理回路21は、入力インタフェース23に対する操作者の操作に応じて、各々のCBCT画像d1の評価結果d3を入力する。 After that, the processing circuit 21 evaluates each of the plurality of past CBCT images and obtains the evaluation result of each CBCT image (step ST20). At the time of evaluation in step ST20, for example, as shown in FIG. 10, the input screen of the evaluation result d3 may be displayed on the display 25. Specifically, for example, an input screen including the identification number d1a of the past CBCT image d1, the CBCT image d1 corresponding to the identification number d1a, the decrease button bt1 and the increase button bt2 of the identification number d1a, and the evaluation result d3. It may be displayed. While displaying such an input screen, the processing circuit 21 inputs the evaluation result d3 of each CBCT image d1 according to the operation of the operator with respect to the input interface 23.

あるいは、ステップST20の評価の際には、処理回路21は、例えば、計画CT画像d2の特徴量と、CBCT画像d1の特徴量とを用いた演算処理により評価値を算出し、評価値を複数段階に分類してCBCT画像の評価結果を得るようにしてもよい。いずれにしても、各々のCBCT画像の評価結果を得ることにより、ステップST20を終了する。 Alternatively, at the time of evaluation in step ST20, the processing circuit 21 calculates the evaluation value by arithmetic processing using, for example, the feature amount of the planned CT image d2 and the feature amount of the CBCT image d1, and a plurality of evaluation values are used. The evaluation result of the CBCT image may be obtained by classifying into stages. In any case, step ST20 is completed by obtaining the evaluation result of each CBCT image.

ステップST20の後、処理回路21は、入力インタフェース23に対する操作者の操作に応じて、学習用データd10を作成する(ステップST30)。なお、学習用データd10は、図4、図6、図7及び図8に例示したように、被写体情報d4及びCBCT撮影条件d5を含んでおり、さらに、評価結果d3、計画CT画像d2、計画CT画像の撮影条件d2a、などを適宜、含んだものとして作成される。なお、学習用データd10が評価結果d3を含まない場合、前述したステップST20は省略可能である。また、ステップST30では、同一の患者に対応する被写体情報d4に限らず、多数の患者に対応する多数の被写体情報d4に関して、多数の学習用データd10が作成される。 After step ST20, the processing circuit 21 creates learning data d10 in response to an operator's operation on the input interface 23 (step ST30). The learning data d10 includes subject information d4 and CBCT imaging condition d5 as illustrated in FIGS. 4, 6, 7, and 8, and further includes an evaluation result d3, a planned CT image d2, and a plan. It is created by appropriately including the imaging conditions d2a of the CT image and the like. If the learning data d10 does not include the evaluation result d3, the above-mentioned step ST20 can be omitted. Further, in step ST30, not only the subject information d4 corresponding to the same patient but also a large number of learning data d10 are created for a large number of subject information d4 corresponding to a large number of patients.

ステップST30の後、処理回路21は、ステップST30で作成した多数の学習用データd10を機械学習モデルM1に機械学習させる。機械学習の終了により、処理回路21は、学習用データd10の入力データに基づいて、学習用データd10の出力データを出力するための学習済みモデルM2を生成する(ステップST40)。 After step ST30, the processing circuit 21 causes the machine learning model M1 to perform machine learning on a large number of learning data d10 created in step ST30. Upon completion of machine learning, the processing circuit 21 generates a trained model M2 for outputting the output data of the learning data d10 based on the input data of the learning data d10 (step ST40).

ステップST40の終了により、学習段階の動作が終了する。 With the end of step ST40, the operation of the learning stage ends.

[運用段階の動作]
放射線治療の前に、処理回路21は、入力インタフェース23に対する操作者の操作に応じて、放射線治療対象患者に関する患者情報と治療計画データとを選択する。患者情報と治療計画データとは、例えば、治療計画装置4内の患者情報と治療計画データから選択して取得することが可能である。しかる後、処理回路21は、患者情報及び治療計画データに基づき、患者情報及び治療計画データのうち、CBCT撮影条件に影響する被写体情報を入力する(ステップST50)。被写体情報は、例えば、被写体の治療部位、固定具情報及び体格情報を含んでいる。これに限らず,被写体情報としては、更に、被写体の治療体位、病歴及び体内組織構造を含んでもよい。
[Operation in operation stage]
Prior to the radiotherapy, the processing circuit 21 selects patient information and treatment plan data regarding the patient to be radiotherapy according to the operator's operation on the input interface 23. The patient information and the treatment plan data can be selected and acquired from, for example, the patient information and the treatment plan data in the treatment planning device 4. After that, the processing circuit 21 inputs subject information that affects the CBCT imaging condition among the patient information and the treatment plan data based on the patient information and the treatment plan data (step ST50). The subject information includes, for example, a treatment site of the subject, fixture information, and physique information. Not limited to this, the subject information may further include the therapeutic position, medical history, and internal tissue structure of the subject.

ステップST50の後、処理回路21は、当該被写体情報d4を学習済みモデルM2に入力することで、当該被写体情報d4に基づいて、被写体の位置合わせに用いるCBCT画像の撮影条件d5を出力する(ステップST60)。 After step ST50, the processing circuit 21 inputs the subject information d4 into the trained model M2, and outputs the shooting condition d5 of the CBCT image used for aligning the subject based on the subject information d4 (step). ST60).

ステップST60の後、処理回路21は、出力した撮影条件d5を表示するようにディスプレイ25を表示制御する。これにより、処理回路21は、操作者に撮影条件d5の確認を促す(ステップST70)。 After step ST60, the processing circuit 21 controls the display 25 so as to display the output shooting condition d5. As a result, the processing circuit 21 prompts the operator to confirm the shooting condition d5 (step ST70).

ステップST70の後、処理回路21は、入力インタフェース23に対する操作者の操作に応じて、表示中の撮影条件d5を用いてCBCT画像を撮影するか否かを判定する(ステップST80)。否の場合には(ST80:No)、入力インタフェース23に対する操作者の操作に応じて、表示中の撮影条件d5を修正し、ステップST90に移行する。 After step ST70, the processing circuit 21 determines whether or not to capture a CBCT image using the displaying imaging condition d5 in response to the operator's operation on the input interface 23 (step ST80). In the case of no (ST80: No), the shooting condition d5 being displayed is modified according to the operation of the operator with respect to the input interface 23, and the process proceeds to step ST90.

ステップST80又はST81の後、処理回路21は、確認された撮影条件d5を放射線治療装置5に出力する。これにより、撮影条件出力装置2の運用段階の動作が終了する。 After step ST80 or ST81, the processing circuit 21 outputs the confirmed imaging condition d5 to the radiotherapy apparatus 5. As a result, the operation of the shooting condition output device 2 in the operation stage is completed.

以下、放射線治療装置5においては、撮影条件出力装置から受けた撮影条件d5に基づいて、画像撮影装置51がコーンビームCT画像を撮影する(ステップST90)。撮影されたコーンビームCT画像は、治療計画用のCT画像である計画CT画像と比較される。比較の結果、適宜、画像撮影装置51と寝台との位置関係が調整され、被写体の位置合わせが行われる。位置合わせの後、放射線治療装置5による放射線治療が被写体に施される。放射線治療が終了した場合には、放射線治療装置5の処理を終了する。 Hereinafter, in the radiotherapy device 5, the image capturing device 51 captures a cone beam CT image based on the imaging condition d5 received from the imaging condition output device (step ST90). The captured cone-beam CT image is compared with the planned CT image, which is a CT image for treatment planning. As a result of the comparison, the positional relationship between the image capturing device 51 and the bed is adjusted as appropriate, and the subject is aligned. After the alignment, the subject is subjected to radiation therapy by the radiation therapy device 5. When the radiotherapy is completed, the processing of the radiotherapy device 5 is terminated.

上述したように本実施形態によれば、放射線治療における被写体に関する被写体情報を取得する。また、被写体情報に基づいて、被写体の位置合わせに用いるコーンビームCT画像の撮影条件を出力するための学習済みモデルに対して、当該被写体情報を入力することで、当該撮影条件を出力する。これにより、被写体情報を入力するだけで、学習済モデルから適切な撮影条件が出力される。従って、撮影条件を学習用データに反映でき、適切な撮影条件を操作者が決める手間を減らすことができる。また、高画質且つ低線量の撮影条件を学習させて学習済みモデルを生成することにより、高画質と被ばく線量の低減を両立したコーンビームCT画像の撮影条件を適用させることができる。 As described above, according to the present embodiment, subject information regarding a subject in radiotherapy is acquired. Further, based on the subject information, the subject information is input to the trained model for outputting the imaging conditions of the cone beam CT image used for the alignment of the subject, and the imaging conditions are output. As a result, appropriate shooting conditions are output from the trained model simply by inputting the subject information. Therefore, the shooting conditions can be reflected in the learning data, and the time and effort required for the operator to determine the appropriate shooting conditions can be reduced. Further, by learning the imaging conditions of high image quality and low dose to generate a trained model, it is possible to apply the imaging conditions of a cone beam CT image that achieves both high image quality and reduction of exposure dose.

また、本実施形態によれば、被写体情報が、被写体の治療部位、固定具情報及び体格情報を含んでいてもよい。この場合、前述した効果に加え、コーンビームCT画像の撮影条件に影響する被写体情報を用いるので、学習済みモデルから出力される撮影条件の適切さを確保することができる。 Further, according to the present embodiment, the subject information may include the treatment site of the subject, the fixture information, and the physique information. In this case, in addition to the effects described above, subject information that affects the imaging conditions of the cone-beam CT image is used, so that the appropriateness of the imaging conditions output from the trained model can be ensured.

また、本実施形態によれば、体格情報が、被写体の体重又は体厚を含んでいてもよい。この場合、前述した効果に加え、様々な体格情報の中でもコーンビームCT画像の撮影条件に影響する体格情報を用いるので、学習済みモデルから出力される撮影条件の適切さをより一層、確保することができる。 Further, according to the present embodiment, the physique information may include the weight or body thickness of the subject. In this case, in addition to the above-mentioned effects, the physique information that affects the imaging conditions of the cone beam CT image is used among various physique information, so that the appropriateness of the imaging conditions output from the trained model should be further ensured. Can be done.

また、本実施形態によれば、固定具情報が、被写体を寝台に固定する固定具を表す情報であってもよい。当該固定具が、コーンビームCT画像を撮影するためのX線のパス上に位置する、ようにしてもよい。この場合、前述した効果に加え、様々な固定具情報の中でもコーンビームCT画像を撮影するためのX線のパス上に位置する固定具を表す情報を用いるので、学習済みモデルから出力される撮影条件の適切さをより一層、確保することができる。 Further, according to the present embodiment, the fixture information may be information representing a fixture that fixes the subject to the sleeper. The fixture may be located on an X-ray path for capturing a cone-beam CT image. In this case, in addition to the above-mentioned effects, since the information representing the fixture located on the X-ray path for capturing the cone beam CT image is used among various fixture information, the imaging output from the trained model is used. It is possible to further ensure the appropriateness of the conditions.

また、本実施形態によれば、コーンビームCT画像の良否の評価結果を求めてもよい。また、被写体情報に基づいて、評価結果が良を示すコーンビームCT画像の撮影条件を出力する学習済みモデルに対して、被写体情報を入力することで、撮影条件を出力する、ようにしてもよい。この場合、前述した効果に加え、コーンビームCT画像の評価結果が良を示す撮影条件を出力するので、出力される撮影条件に対する信頼性を向上させることができる。 Further, according to the present embodiment, the evaluation result of the quality of the cone beam CT image may be obtained. Further, the shooting conditions may be output by inputting the subject information to the trained model that outputs the shooting conditions of the cone beam CT image indicating that the evaluation result is good based on the subject information. .. In this case, in addition to the above-mentioned effects, the imaging conditions indicating that the evaluation result of the cone beam CT image is good are output, so that the reliability of the output imaging conditions can be improved.

また、本実施形態によれば、互いに異なる撮影条件をもつ過去の複数のコーンビームCT画像と、被写体の計画CT画像とを更に取得してもよい。また、当該計画CT画像を正解データとして、複数のコーンビームCT画像の各々の評価結果を求める、ようにしてもよい。この場合、前述した効果に加え、計画CT画像を正解データとするので、計画CT画像のような高画質をもつコーンビームCT画像の撮影条件を出力することが期待できる。 Further, according to the present embodiment, a plurality of past cone-beam CT images having different imaging conditions and a planned CT image of the subject may be further acquired. Further, the evaluation result of each of the plurality of cone beam CT images may be obtained by using the planned CT image as the correct answer data. In this case, in addition to the above-mentioned effects, since the planned CT image is used as the correct answer data, it can be expected that the imaging conditions of the cone beam CT image having high image quality such as the planned CT image are output.

また、本実施形態によれば、被写体の計画CT画像の撮影条件を示す計画CT画像撮影条件を更に取得してもよい。また、被写体情報及び計画CT画像撮影条件に基づいて、コーンビームCT画像の撮影条件を出力する学習済みモデルに対して、被写体情報及び計画CT画像撮影条件を入力することで、撮影条件を出力する、ようにしてもよい。この場合、前述した効果に加え、学習済みモデルへの入力に計画CT画像撮影条件が加わるので、学習済みモデルの生成が容易になり、出力される撮影条件が計画CT画像の如き高画質なコーンビームCT画像に対応することを期待できる。補足すると、入力側の計画CT画像撮影条件と、出力側のコーンビームCT画像の撮像条件とがある程度関連するので、入力側に計画CT画像撮影条件が無い場合に比べ、学習済みモデルの生成が容易になると推測される。同様に、入力側の計画CT画像撮影条件と、出力側のコーンビームCT画像の撮像条件とがある程度関連するので、出力される撮像条件が高画質なコーンビームCT画像に対応すると推測される。 Further, according to the present embodiment, the planned CT image capturing conditions indicating the capturing conditions of the planned CT image of the subject may be further acquired. Further, the imaging conditions are output by inputting the subject information and the planned CT image imaging conditions to the trained model that outputs the imaging conditions of the cone beam CT image based on the subject information and the planned CT image imaging conditions. , You may do so. In this case, in addition to the effects described above, the planned CT image capturing condition is added to the input to the trained model, so that the trained model can be easily generated, and the output imaging condition is a high-quality cone such as the planned CT image. It can be expected to correspond to the beam CT image. Supplementally, since the planned CT image capturing condition on the input side and the imaging condition of the cone beam CT image on the output side are related to some extent, the trained model can be generated as compared with the case where there is no planned CT image capturing condition on the input side. It is estimated that it will be easier. Similarly, since the planned CT image capturing condition on the input side and the imaging condition of the cone beam CT image on the output side are related to some extent, it is presumed that the output imaging condition corresponds to the high-quality cone beam CT image.

また、本実施形態によれば、被写体の計画CT画像を更に取得してもよい。また、被写体情報及び計画CT画像に基づいて、コーンビームCT画像の撮影条件を出力する学習済みモデルに対して、被写体情報及び計画CT画像を入力することで、撮影条件を出力する、ようにしてもよい。この場合、前述した効果に加え、学習済みモデルへの入力に計画CT画像が加わるので、学習済みモデルの生成が容易になり、出力される撮影条件が計画CT画像の如き高画質なコーンビームCT画像に対応することを期待できる。 Further, according to the present embodiment, the planned CT image of the subject may be further acquired. Further, the imaging conditions are output by inputting the subject information and the planned CT image to the trained model that outputs the imaging conditions of the cone beam CT image based on the subject information and the planned CT image. May be good. In this case, in addition to the effects described above, the planned CT image is added to the input to the trained model, so that the trained model can be easily generated, and the output imaging conditions are high-quality cone beam CT such as the planned CT image. It can be expected to correspond to the image.

[第1変形例]
次に、本実施形態の第1変形例について説明する。第1変形例は、コーンビームCT撮影の複数の観点を個別に優先した複数の撮影条件を出力する形態である。
[First modification]
Next, a first modification of the present embodiment will be described. The first modification is a form in which a plurality of imaging conditions in which a plurality of viewpoints of cone beam CT imaging are individually prioritized are output.

具体的には例えば、図12に示すように、CBCT画像の撮影条件d5は、高画質を優先した場合の第1撮影条件と、高画質よりも低線量を優先した場合の第2撮影条件とを含む複数の撮影条件d5である。なお、図12中、「CBCT撮影条件(画質優先)」が第1撮影条件に対応し、「CBCT撮影条件(線量優先)」が第2撮影条件に対応する。これに伴い、条件出力機能21dの実現により処理回路21は、被写体情報d4に基づいて、当該複数の撮影条件d5を出力するための学習済みモデルM2に対して、被写体情報d4を入力することで、複数の撮影条件d5を出力する。また、第2撮影条件は、必ずしも第1撮像条件よりも画質が低い場合に限らず、第1撮像条件と同等の画質であって、第1撮像条件よりも低線量の場合を包含する。他の構成は、本実施形態と同様である。 Specifically, for example, as shown in FIG. 12, the imaging condition d5 of the CBCT image includes the first imaging condition when high image quality is prioritized and the second imaging condition when low dose is prioritized over high image quality. It is a plurality of shooting conditions d5 including. In FIG. 12, the "CBCT imaging condition (image quality priority)" corresponds to the first imaging condition, and the "CBCT imaging condition (dose priority)" corresponds to the second imaging condition. Along with this, with the realization of the condition output function 21d, the processing circuit 21 inputs the subject information d4 to the trained model M2 for outputting the plurality of shooting conditions d5 based on the subject information d4. , Outputs a plurality of shooting conditions d5. Further, the second imaging condition is not necessarily limited to the case where the image quality is lower than the first imaging condition, but includes the case where the image quality is equivalent to that of the first imaging condition and the dose is lower than that of the first imaging condition. Other configurations are the same as in this embodiment.

従って、以上のような第1変形例によれば、前述した効果に加え、高画質を優先した場合の第1撮影条件と、高画質よりも低線量を優先した場合の第2撮影条件とを出力することができる。また、操作者が第1撮影条件又は第2撮影条件を選択することにより、選択した撮影条件に基づいてコーンビームCT撮影を行うことができる。例えば、第1変形例によれば、最適な撮影条件を複数表示し、同程度に高画質な撮影条件のうち、より被ばく線量を抑えられるような撮影条件を操作者が選択することができる。従って、第1の変形例によれば、操作者の選択により、高画質と被ばく線量の低減を両立したコーンビームCT画像の撮影条件を適用することができる。 Therefore, according to the first modification as described above, in addition to the above-mentioned effects, the first imaging condition when high image quality is prioritized and the second imaging condition when low dose is prioritized over high image quality. Can be output. Further, when the operator selects the first imaging condition or the second imaging condition, the cone beam CT imaging can be performed based on the selected imaging condition. For example, according to the first modification, a plurality of optimum imaging conditions are displayed, and the operator can select an imaging condition that can further suppress the exposure dose from among the imaging conditions having the same high image quality. Therefore, according to the first modification, it is possible to apply the imaging conditions of the cone-beam CT image that achieve both high image quality and reduction of the exposure dose, depending on the operator's choice.

なお、第1撮影条件を出力する第1の学習済みモデルM2と、第2撮影条件を出力する第2の学習済みモデルM2とを作成しておき、いずれかの学習済みモデルM2を選択することにより、選択した学習済みモデルM2からの撮影条件を出力してもよい。 A first trained model M2 that outputs the first shooting condition and a second trained model M2 that outputs the second shooting condition are created, and one of the trained models M2 is selected. Therefore, the shooting conditions from the selected trained model M2 may be output.

[第2変形例]
次に、本実施形態の第2変形例について説明する。第2変形例は、被写体の体重の変化に追従して、被写体情報を更新する形態である。
[Second modification]
Next, a second modification of the present embodiment will be described. The second modification is a form in which the subject information is updated according to the change in the weight of the subject.

具体的には例えば、被写体の重量を測定する重量測定部(体重計)を寝台に備え、処理回路21は、当該測定された重量に基づいて、被写体情報を更新する。これに伴い、条件出力機能21dの実現により処理回路21は、学習済みモデルM2に対して、当該更新された被写体情報d4を入力することで、更新された撮影条件d5を出力する。他の構成は、本実施形態と同様である。 Specifically, for example, a weight measuring unit (weight scale) for measuring the weight of the subject is provided on the bed, and the processing circuit 21 updates the subject information based on the measured weight. Along with this, with the realization of the condition output function 21d, the processing circuit 21 outputs the updated shooting condition d5 by inputting the updated subject information d4 to the learned model M2. Other configurations are the same as in this embodiment.

従って、以上のような第2変形例によれば、前述した効果に加え、30日位の放射線治療日程の中で被写体の体格が変化したとしても、体格の変化を撮影条件d5に反映できるので、適切な撮影条件を維持することができる。 Therefore, according to the second modification as described above, in addition to the above-mentioned effect, even if the physique of the subject changes during the radiation therapy schedule of about 30 days, the change in physique can be reflected in the imaging condition d5. , Appropriate shooting conditions can be maintained.

[第3変形例]
次に、本実施形態の第3変形例について説明する。第3変形例は、図13に示すように、処理回路21が機械学習モデルM1に強化学習を行う形態である。なお、強化学習においては、エージェントが環境21c1に行動を行い、その行動に応じて環境21c1が状態と報酬をエージェントに返す。この繰り返しにより、エージェントが、環境から受ける報酬を最大化するように行動すること(方策)を学習する。このような強化学習については詳細な理論が既知であるため、ここでは第3変形例との対応関係についてのみ述べる。第3変形例では、エージェントが機械学習モデルM1に対応し、環境21c1が学習機能21cの強化学習機能に対応し、行動がCBCT撮影条件の出力に対応し、状態が被写体情報d4に対応し、報酬が評価結果d3に対応する。エージェント及び環境21c1の各々は、処理回路21が各プログラムを実行することにより実現される。
[Third variant]
Next, a third modification of the present embodiment will be described. In the third modification, as shown in FIG. 13, the processing circuit 21 performs reinforcement learning on the machine learning model M1. In reinforcement learning, the agent acts on the environment 21c1, and the environment 21c1 returns the state and the reward to the agent according to the action. By repeating this process, the agent learns to act (measure) to maximize the reward received from the environment. Since a detailed theory is known for such reinforcement learning, only the correspondence with the third modification will be described here. In the third modification, the agent corresponds to the machine learning model M1, the environment 21c1 corresponds to the reinforcement learning function of the learning function 21c, the action corresponds to the output of the CBCT imaging condition, and the state corresponds to the subject information d4. The reward corresponds to the evaluation result d3. Each of the agent and the environment 21c1 is realized by the processing circuit 21 executing each program.

具体的には例えば、取得機能21aの実現により処理回路21は、放射線治療における被写体に関する被写体情報d4と、被写体の位置合わせに用いるコーンビームCT画像の撮影条件d5と、コーンビームCT画像の良否の評価結果d3とを取得する。 Specifically, for example, by realizing the acquisition function 21a, the processing circuit 21 determines the subject information d4 regarding the subject in radiotherapy, the imaging condition d5 of the cone beam CT image used for aligning the subject, and the quality of the cone beam CT image. The evaluation result d3 is acquired.

また、学習機能21cの実現により処理回路21は、被写体情報d4を示す状態に基づいて、撮影条件d5を更新出力する行動に対する報酬としての評価結果d3が良を示すように、当該撮影条件d5を更新出力する強化学習を機械学習モデルM1に行う。強化学習においては、機械学習モデルM1が環境21c1にCBCT撮影条件d5を出力する行動を行い、その行動に応じて環境21c1が、被写体情報d4を示す状態と評価結果d3を示す報酬とを機械学習モデルM1に返す。この繰り返しにより、機械学習モデルM1が、環境21c1から受ける評価結果d3を最大化(最適化)するように行動すること(方策)を学習する。これにより、処理回路21は、被写体情報d4に基づいて、評価結果d3が良を示す撮影条件d5を出力するための学習済みモデルM2を生成する。すなわち、強化学習が完了した機械学習モデルM1を学習済みモデルM2とする。学習機能21c及び処理回路21は、学習部の一例である。他の構成は、本実施形態と同様である。 Further, by realizing the learning function 21c, the processing circuit 21 sets the shooting condition d5 so that the evaluation result d3 as a reward for the action of updating and outputting the shooting condition d5 is good based on the state showing the subject information d4. Reinforcement learning to be updated and output is performed on the machine learning model M1. In reinforcement learning, the machine learning model M1 performs an action of outputting the CBCT imaging condition d5 to the environment 21c1, and the environment 21c1 machine-learns the state showing the subject information d4 and the reward showing the evaluation result d3 according to the action. Return to model M1. By repeating this, the machine learning model M1 learns to act (measure) to maximize (optimize) the evaluation result d3 received from the environment 21c1. As a result, the processing circuit 21 generates a trained model M2 for outputting the shooting condition d5 in which the evaluation result d3 is good, based on the subject information d4. That is, the machine learning model M1 for which reinforcement learning has been completed is designated as the trained model M2. The learning function 21c and the processing circuit 21 are examples of the learning unit. Other configurations are the same as in this embodiment.

以上のような第3変形例によれば、前述した効果に加え、良好な評価結果をもつCBCT撮影条件d5を十分な数だけ準備できない場合でも、良好な評価結果と悪い評価結果とを報酬にした強化学習により、学習済みモデルを生成できる。また、良好な評価結果に加え、悪い評価結果を学習用データに用いることができるので、学習用データの数を増やすことができ、もって、機械学習の精度向上を図ることができる。 According to the third modification as described above, in addition to the above-mentioned effects, even if a sufficient number of CBCT imaging conditions d5 having good evaluation results cannot be prepared, good evaluation results and bad evaluation results are rewarded. A trained model can be generated by the reinforcement learning. Further, since the bad evaluation result can be used for the learning data in addition to the good evaluation result, the number of learning data can be increased, and thus the accuracy of machine learning can be improved.

なお、第3変形例は、コーンビームCT画像を更に状態として用いるように変形してもよい。すなわち、第3変形例の変形例では、状態が被写体情報d4及びコーンビームCT画像d1に対応する。他の対応関係は、第3変形例と同様である。 The third modification may be modified so that the cone beam CT image is further used as a state. That is, in the modified example of the third modified example, the state corresponds to the subject information d4 and the cone beam CT image d1. Other correspondences are the same as in the third modification.

この場合、取得機能21aの実現により処理回路21は、被写体に関する被写体情報d4と、被写体の位置合わせに用いるコーンビームCT画像d1と、当該コーンビームCT画像の撮影条件d5と、コーンビームCT画像の良否の評価結果d3とを取得する。 In this case, by realizing the acquisition function 21a, the processing circuit 21 sets the subject information d4 regarding the subject, the cone beam CT image d1 used for aligning the subject, the shooting condition d5 of the cone beam CT image, and the cone beam CT image. The quality evaluation result d3 is acquired.

また、学習機能21cの実現により処理回路21は、強化学習を機械学習モデルM1に行う。具体的には、処理回路21は、被写体情報d4及びコーンビームCT画像d1を示す状態に基づいて、撮影条件d5を更新出力する行動に対する報酬としての評価結果d3が良を示すように、撮影条件d5を更新出力する強化学習を機械学習モデルM1に行う。強化学習においては、機械学習モデルM1が環境21c1にCBCT撮影条件d5を出力する行動を行い、その行動に応じて環境21c1が、被写体情報d4及びコーンビームCT画像d1を示す状態と評価結果d3を示す報酬とを機械学習モデルM1に返す。この繰り返しにより、機械学習モデルM1が、環境21c1から受ける評価結果d3を最大化(最適化)するように行動すること(方策)を学習する。これにより、処理回路21は、被写体情報d4及び被写体の計画CT画像d2に基づいて、評価結果d3が良を示す撮影条件d5を出力するための学習済みモデルM2を生成する。このとき、処理回路21は、強化学習が完了した機械学習モデルM1を学習済みモデルM2とする。なお、学習段階では、過去のコーンビームCT画像d1を機械学習モデルM1に入力するが、運用段階では、被写体のコーンビームCT画像がないので、被写体の計画CT画像を学習済みモデルM2に入力する。補足すると、運用段階は、被写体のコーンビームCT画像の撮影前に、コーンビームCT画像撮影条件を出力するための学習済みモデルM2を用いる段階なので、被写体のコーンビームCT画像が存在しない。他の構成は、本実施形態と同様である。 Further, by realizing the learning function 21c, the processing circuit 21 performs reinforcement learning on the machine learning model M1. Specifically, the processing circuit 21 shows the shooting conditions so that the evaluation result d3 as a reward for the action of updating and outputting the shooting condition d5 based on the state showing the subject information d4 and the cone beam CT image d1 is good. Reinforcement learning that updates and outputs d5 is performed on the machine learning model M1. In reinforcement learning, the machine learning model M1 performs an action of outputting the CBCT imaging condition d5 to the environment 21c1, and the environment 21c1 displays the subject information d4 and the cone beam CT image d1 and the evaluation result d3 according to the action. The shown reward is returned to the machine learning model M1. By repeating this, the machine learning model M1 learns to act (measure) to maximize (optimize) the evaluation result d3 received from the environment 21c1. As a result, the processing circuit 21 generates a trained model M2 for outputting the shooting condition d5 in which the evaluation result d3 is good, based on the subject information d4 and the planned CT image d2 of the subject. At this time, the processing circuit 21 sets the machine learning model M1 for which reinforcement learning has been completed as the trained model M2. In the learning stage, the past cone beam CT image d1 is input to the machine learning model M1, but in the operation stage, since there is no cone beam CT image of the subject, the planned CT image of the subject is input to the trained model M2. .. Supplementally, since the operation stage is a stage in which the learned model M2 for outputting the cone beam CT image capturing conditions is used before the cone beam CT image of the subject is captured, the cone beam CT image of the subject does not exist. Other configurations are the same as in this embodiment.

以上のような第3変形例の変形例によれば、第3変形例の効果に加え、コーンビームCT画像d1の状態が変化するので、強化学習の効率の向上を図ることができる。 According to the modified example of the third modified example as described above, in addition to the effect of the third modified example, the state of the cone beam CT image d1 is changed, so that the efficiency of reinforcement learning can be improved.

以上説明した少なくとも一つの実施形態によれば、撮影条件を学習用データに反映でき、適切な撮影条件を操作者が決める手間を減らすことができる。 According to at least one embodiment described above, the shooting conditions can be reflected in the learning data, and the time and effort required for the operator to determine the appropriate shooting conditions can be reduced.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス等の回路を意味する。プログラマブル論理デバイスとしては、例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA)等の回路が適宜、使用可能となっている。プロセッサはメモリ22等に保存されたプログラムを読み出し実行することで機能を実現する。なお、メモリ22等にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。また、プログラムを実行するのではなく、論理回路の組合せにより当該プログラムに対応する機能を実現しても良い。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図1又は図2における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。 The term "processor" used in the above description means, for example, a circuit such as a CPU, a GPU, an application specific integrated circuit (ASIC), or a programmable logic device. The programmable logic device includes, for example, a circuit such as a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA). Can be used as appropriate. The processor realizes the function by reading and executing the program stored in the memory 22 or the like. Instead of storing the program in the memory 22 or the like, the program may be directly incorporated in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program embedded in the circuit. Further, instead of executing the program, the function corresponding to the program may be realized by a combination of logic circuits. It should be noted that each processor of the present embodiment is not limited to the case where each processor is configured as a single circuit, and a plurality of independent circuits may be combined to form one processor to realize its function. good. Further, the plurality of components in FIG. 1 or FIG. 2 may be integrated into one processor to realize the function.

また、以上のような撮影条件出力装置又は放射線治療装置は、以下の[1]〜[4]に示すように、表現してもよい。 Further, the imaging condition output device or the radiotherapy device as described above may be expressed as shown in the following [1] to [4].

[1]被写体情報とコーンビームCT撮影条件の組合せによって学習させた学習済みモデルを生成し、当該学習済みモデルを用いて画像撮影装置の最適な撮影を支援する撮影条件出力装置。 [1] An imaging condition output device that generates a learned model trained by combining subject information and cone beam CT imaging conditions, and uses the learned model to support optimum imaging of an image imaging device.

[2]評価を行う観点に従い、コーンビームCT画像の自動判別または手動判別を行う上記[1]記載の装置。 [2] The apparatus according to the above [1], which automatically discriminates or manually discriminates a cone beam CT image according to the viewpoint of evaluation.

[3]上記学習済みモデルに被写体情報が入力された後、当該学習済みモデルの出力として提示された複数の最適なコーンビームCT撮影条件から、当該画像撮影装置に用いるコーンビームCT撮影条件を操作者が選択できる、上記[1]又は[2]記載の装置。 [3] After the subject information is input to the trained model, the cone beam CT imaging conditions used in the image capturing apparatus are operated from a plurality of optimum cone beam CT imaging conditions presented as outputs of the trained model. The device according to the above [1] or [2], which can be selected by a person.

[4]上記[1]乃至[3]のいずれかに記載の撮影条件出力装置を備えた放射線治療装置。 [4] A radiotherapy apparatus provided with the imaging condition output device according to any one of the above [1] to [3].

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof.

1 画像保管装置
2 撮影条件出力装置
21 処理回路
21a 取得機能
21b 評価機能
21c 学習機能
21d 条件出力機能
21e 表示制御機能
22 メモリ
23 入力インタフェース
24 通信インタフェース
25 ディスプレイ
3 治療計画用CT装置
4 治療計画装置
5 放射線治療装置
51 画像撮影装置
100 放射線治療システム
1 Image storage device 2 Imaging condition output device 21 Processing circuit 21a Acquisition function 21b Evaluation function 21c Learning function 21d Condition output function 21e Display control function 22 Memory 23 Input interface 24 Communication interface 25 Display 3 Treatment planning CT device 4 Treatment planning device 5 Radiation therapy device 51 Imaging device 100 Radiation therapy system

Claims (11)

放射線治療における被写体に関する被写体情報を取得する取得部と、
前記被写体情報に基づいて、前記被写体の位置合わせに用いるコーンビームCT画像の撮影条件を出力するための学習済みモデルに対して、前記被写体情報を入力することで、前記撮影条件を出力する条件出力部と
を具備する撮影条件出力装置。
An acquisition unit that acquires subject information about the subject in radiation therapy,
Condition output to output the shooting conditions by inputting the subject information to the trained model for outputting the shooting conditions of the cone beam CT image used for the alignment of the subject based on the subject information. A shooting condition output device that includes a unit.
前記被写体情報は、前記被写体の治療部位、固定具情報及び体格情報を含んでいる、
請求項1記載の撮影条件出力装置。
The subject information includes a treatment site, fixture information, and physique information of the subject.
The shooting condition output device according to claim 1.
前記体格情報は、前記被写体の体重又は体厚を含んでいる、
請求項2記載の撮影条件出力装置。
The physique information includes the weight or body thickness of the subject.
The shooting condition output device according to claim 2.
前記固定具情報は、前記被写体を寝台に固定する固定具を表す情報であり、
前記固定具は、前記コーンビームCT画像を撮影するためのX線のパス上に位置する、
請求項2又は3記載の撮影条件出力装置。
The fixture information is information representing a fixture that fixes the subject to the sleeper.
The fixture is located on an X-ray path for capturing the cone-beam CT image.
The shooting condition output device according to claim 2 or 3.
前記コーンビームCT画像の良否の評価結果を求める評価部を更に備え、
前記条件出力部は、前記被写体情報に基づいて、前記評価結果が良を示すコーンビームCT画像の撮影条件を出力する前記学習済みモデルに対して、前記被写体情報を入力することで、前記撮影条件を出力する、
請求項1乃至4のいずれか一項記載の撮影条件出力装置。
An evaluation unit for obtaining the evaluation result of the quality of the cone beam CT image is further provided.
The condition output unit inputs the subject information to the trained model that outputs the shooting conditions of the cone beam CT image indicating that the evaluation result is good based on the subject information, thereby performing the shooting conditions. To output,
The imaging condition output device according to any one of claims 1 to 4.
前記取得部は、互いに異なる撮影条件をもつ過去の複数のコーンビームCT画像と、前記被写体の計画CT画像と、を更に取得し、
前記評価部は、前記計画CT画像を正解データとして、前記複数のコーンビームCT画像の各々の評価結果を求める、
請求項5記載の撮影条件出力装置。
The acquisition unit further acquires a plurality of past cone-beam CT images having different imaging conditions and a planned CT image of the subject.
The evaluation unit obtains the evaluation results of each of the plurality of cone beam CT images using the planned CT image as correct answer data.
The shooting condition output device according to claim 5.
前記取得部は、前記被写体の計画CT画像の撮影条件を示す計画CT画像撮影条件を更に取得し、
前記条件出力部は、前記被写体情報及び前記計画CT画像撮影条件に基づいて、前記コーンビームCT画像の撮影条件を出力する前記学習済みモデルに対して、前記被写体情報及び前記計画CT画像撮影条件を入力することで、前記撮影条件を出力する、
請求項1乃至4のいずれか一項記載の撮影条件出力装置。
The acquisition unit further acquires the planned CT image shooting conditions indicating the shooting conditions of the planned CT image of the subject.
The condition output unit outputs the subject information and the planned CT image shooting condition to the trained model that outputs the shooting condition of the cone beam CT image based on the subject information and the planned CT image shooting condition. By inputting, the shooting conditions are output.
The imaging condition output device according to any one of claims 1 to 4.
前記取得部は、前記被写体の計画CT画像を更に取得し、
前記条件出力部は、前記被写体情報及び前記計画CT画像に基づいて、前記コーンビームCT画像の撮影条件を出力する前記学習済みモデルに対して、前記被写体情報及び前記計画CT画像を入力することで、前記撮影条件を出力する、
請求項1乃至4のいずれか一項記載の撮影条件出力装置。
The acquisition unit further acquires a planned CT image of the subject, and obtains the planned CT image of the subject.
The condition output unit inputs the subject information and the planned CT image to the trained model that outputs the shooting conditions of the cone beam CT image based on the subject information and the planned CT image. , Output the shooting conditions,
The imaging condition output device according to any one of claims 1 to 4.
前記コーンビームCT画像の撮影条件は、高画質を優先した場合の第1撮影条件と、前記高画質よりも低線量を優先した場合の第2撮影条件とを含む複数の撮影条件であり、
前記条件出力部は、前記被写体情報に基づいて、前記複数の撮影条件を出力するための学習済みモデルに対して、前記被写体情報を入力することで、前記複数の撮影条件を出力する、
請求項1乃至4のいずれか一項記載の撮影条件出力装置。
The imaging conditions for the cone beam CT image are a plurality of imaging conditions including a first imaging condition when high image quality is prioritized and a second imaging condition when low dose is prioritized over the high image quality.
The condition output unit outputs the plurality of shooting conditions by inputting the subject information to the trained model for outputting the plurality of shooting conditions based on the subject information.
The imaging condition output device according to any one of claims 1 to 4.
放射線治療における被写体に関する被写体情報と、前記被写体の位置合わせに用いるコーンビームCT画像の撮影条件と、前記コーンビームCT画像の良否の評価結果とを取得する取得部と、
前記被写体情報を示す状態に基づいて、前記撮影条件を更新出力する行動に対する報酬としての前記評価結果が良を示すように、当該撮影条件を更新出力する強化学習を行うことにより、前記被写体情報に基づいて、前記評価結果が良を示す撮影条件を出力するための学習済みモデルを生成する学習部と
を具備する撮影条件出力装置。
An acquisition unit that acquires subject information regarding a subject in radiotherapy, imaging conditions of a cone beam CT image used for aligning the subject, and an evaluation result of quality of the cone beam CT image.
Based on the state showing the subject information, the subject information is obtained by performing reinforcement learning to update and output the shooting conditions so that the evaluation result as a reward for the action of updating and outputting the shooting conditions is good. Based on this, a shooting condition output device including a learning unit that generates a trained model for outputting a shooting condition for which the evaluation result indicates good.
放射線を照射する照射部と、
放射線治療における被写体に関する被写体情報を取得する取得部と、
前記被写体情報に基づいて、前記被写体の位置合わせに用いるコーンビームCT画像の撮影条件を出力するための学習済みモデルに対して、前記被写体情報を入力することで、前記撮影条件を出力する条件出力部と
を具備する放射線治療装置。
Irradiation part that irradiates radiation and
An acquisition unit that acquires subject information about the subject in radiation therapy,
Condition output to output the shooting conditions by inputting the subject information to the trained model for outputting the shooting conditions of the cone beam CT image used for the alignment of the subject based on the subject information. A radiotherapy device including a part.
JP2020007644A 2020-01-21 2020-01-21 Imaging condition output device and radiation therapy device Active JP7412191B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020007644A JP7412191B2 (en) 2020-01-21 2020-01-21 Imaging condition output device and radiation therapy device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020007644A JP7412191B2 (en) 2020-01-21 2020-01-21 Imaging condition output device and radiation therapy device

Publications (2)

Publication Number Publication Date
JP2021112471A true JP2021112471A (en) 2021-08-05
JP7412191B2 JP7412191B2 (en) 2024-01-12

Family

ID=77077376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020007644A Active JP7412191B2 (en) 2020-01-21 2020-01-21 Imaging condition output device and radiation therapy device

Country Status (1)

Country Link
JP (1) JP7412191B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023233722A1 (en) * 2022-05-31 2023-12-07 株式会社日立製作所 Radiation therapy assistance device, radiation therapy device, and radiation therapy assistance method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000140137A (en) * 1998-08-31 2000-05-23 Sumitomo Heavy Ind Ltd Method and device for positioning patient of radiotherapy
JP2006122211A (en) * 2004-10-27 2006-05-18 Yoshida Dental Mfg Co Ltd Device for automatically setting condition for x-ray photography by image recognition
US20100246915A1 (en) * 2009-03-27 2010-09-30 Mitsubishi Electric Corporation Patient registration system
JP2012024145A (en) * 2010-07-20 2012-02-09 Toshiba Corp Radiotherapy system and control method for the same
US20120207372A1 (en) * 2010-07-15 2012-08-16 Toshiba Medical Systems Corporation Radiotherapy system and control method for radiotherapy system
US20160220844A1 (en) * 2015-02-03 2016-08-04 Varian Medical Systems International Ag. Radiography imaging parameter selection based on extant patient information
JP2017104398A (en) * 2015-12-11 2017-06-15 株式会社島津製作所 X-ray imaging apparatus, subject positioning apparatus, and subject positioning method
US20190021677A1 (en) * 2017-07-18 2019-01-24 Siemens Healthcare Gmbh Methods and systems for classification and assessment using machine learning
JP2019208892A (en) * 2018-06-05 2019-12-12 キヤノンメディカルシステムズ株式会社 X-ray photographing device and medical image processing device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000140137A (en) * 1998-08-31 2000-05-23 Sumitomo Heavy Ind Ltd Method and device for positioning patient of radiotherapy
JP2006122211A (en) * 2004-10-27 2006-05-18 Yoshida Dental Mfg Co Ltd Device for automatically setting condition for x-ray photography by image recognition
US20100246915A1 (en) * 2009-03-27 2010-09-30 Mitsubishi Electric Corporation Patient registration system
JP2010246883A (en) * 2009-03-27 2010-11-04 Mitsubishi Electric Corp Patient positioning system
US20120207372A1 (en) * 2010-07-15 2012-08-16 Toshiba Medical Systems Corporation Radiotherapy system and control method for radiotherapy system
JP2012024145A (en) * 2010-07-20 2012-02-09 Toshiba Corp Radiotherapy system and control method for the same
US20160220844A1 (en) * 2015-02-03 2016-08-04 Varian Medical Systems International Ag. Radiography imaging parameter selection based on extant patient information
JP2017104398A (en) * 2015-12-11 2017-06-15 株式会社島津製作所 X-ray imaging apparatus, subject positioning apparatus, and subject positioning method
US20190021677A1 (en) * 2017-07-18 2019-01-24 Siemens Healthcare Gmbh Methods and systems for classification and assessment using machine learning
JP2019208892A (en) * 2018-06-05 2019-12-12 キヤノンメディカルシステムズ株式会社 X-ray photographing device and medical image processing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023233722A1 (en) * 2022-05-31 2023-12-07 株式会社日立製作所 Radiation therapy assistance device, radiation therapy device, and radiation therapy assistance method

Also Published As

Publication number Publication date
JP7412191B2 (en) 2024-01-12

Similar Documents

Publication Publication Date Title
US10967202B2 (en) Adaptive image filtering for volume reconstruction using partial image data
US20220117570A1 (en) Systems and methods for contrast flow modeling with deep learning
US10638993B2 (en) Computed tomography apparatus and control method for the same
JP7098485B2 (en) Virtual alignment image used for imaging
JP4532005B2 (en) X-ray CT apparatus and image display method thereof
CN105832356B (en) Radiographic imaging parameter selection based on existing patient information
CN102846333B (en) The method and system of the scatter correction in x-ray imaging
US20120230470A1 (en) Acquisition protocol assessment apparatus
US9165385B2 (en) Imaging procedure planning
US20140205167A1 (en) Method for interactive manual matching and real-time projection calculation in imaging
US11497459B2 (en) Methods and system for optimizing an imaging scan based on a prior scan
US11141079B2 (en) Systems and methods for profile-based scanning
WO2020216307A1 (en) Method, system and device for acquiring radiological image, and storage medium
CN110709132B (en) Method for user-adaptive radiation therapy planning and system using the same
US20180272153A1 (en) System For Monitoring The Position Of A Patient Receiving 4 pi Radiation Therapy
CN113226459A (en) Automated detection for monitoring pulmonary condition of a chest patient receiving external beam radiation therapy
JP6971537B2 (en) Treatment planning device and treatment planning method
JP6526428B2 (en) Medical image processing apparatus, medical image processing method and medical image diagnostic apparatus
JP7412191B2 (en) Imaging condition output device and radiation therapy device
JP7242640B2 (en) Methods, systems and apparatus for determining radiation dose
EP3649957B1 (en) Device and method for editing a panoramic radiography image
EP4123572A2 (en) An apparatus and a method for x-ray image restoration
US20210290977A1 (en) Irradiation control apparatus, radiotherapy system, and irradiation control method
JP7019377B2 (en) Medical diagnostic imaging equipment, treatment planning system and radiation therapy support program
JP7171285B2 (en) Radiation therapy support device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221104

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231226

R150 Certificate of patent or registration of utility model

Ref document number: 7412191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150