JP6310118B2 - Image processing apparatus, treatment system, and image processing method - Google Patents
Image processing apparatus, treatment system, and image processing method Download PDFInfo
- Publication number
- JP6310118B2 JP6310118B2 JP2017085183A JP2017085183A JP6310118B2 JP 6310118 B2 JP6310118 B2 JP 6310118B2 JP 2017085183 A JP2017085183 A JP 2017085183A JP 2017085183 A JP2017085183 A JP 2017085183A JP 6310118 B2 JP6310118 B2 JP 6310118B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- likelihood
- pixels
- pixel
- fluoroscopic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 18
- 238000003672 processing method Methods 0.000 title claims description 4
- 230000005855 radiation Effects 0.000 claims description 98
- 238000001514 detection method Methods 0.000 claims description 81
- 238000004364 calculation method Methods 0.000 claims description 67
- 239000011159 matrix material Substances 0.000 claims description 24
- 230000033001 locomotion Effects 0.000 claims description 23
- 230000001678 irradiating effect Effects 0.000 claims description 4
- 238000012986 modification Methods 0.000 description 38
- 230000004048 modification Effects 0.000 description 38
- 238000003384 imaging method Methods 0.000 description 31
- 238000000034 method Methods 0.000 description 27
- 239000003550 marker Substances 0.000 description 23
- 238000007726 management method Methods 0.000 description 14
- 238000001959 radiotherapy Methods 0.000 description 12
- 238000002834 transmittance Methods 0.000 description 11
- 238000002594 fluoroscopy Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000000875 corresponding effect Effects 0.000 description 5
- 239000002245 particle Substances 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000010894 electron beam technology Methods 0.000 description 3
- 238000011410 subtraction method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000000968 intestinal effect Effects 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- BASFCYQUMIYNBI-UHFFFAOYSA-N platinum Chemical compound [Pt] BASFCYQUMIYNBI-UHFFFAOYSA-N 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000005251 gamma ray Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000696 magnetic material Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910052697 platinum Inorganic materials 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Description
本発明の実施形態は、医用画像処理装置、治療システム及び医用画像処理方法に関する。 Embodiments described herein relate generally to a medical image processing apparatus, a treatment system, and a medical image processing method.
呼吸、心拍、及び腸の動きなどによって患者の患部が移動する場合の放射線治療法として、待ち伏せ照射法や追尾照射法が知られている。 An ambush irradiation method and a tracking irradiation method are known as radiotherapy methods when the affected part of a patient moves due to breathing, heartbeat, intestinal movement, and the like.
これらの照射法では、患者の体内を透視用のX線で定期的に撮像することで、患者の患部や当該患部付近に留置したマーカの像を含む透視画像を定期的に生成し、テンプレートとのマッチングを行うことで、患部やマーカを追跡し、治療ビームを患部に照射する。テンプレートは、治療計画時などに予め患者の体内を透視用のX線で撮像することで生成したテンプレート作成用の透視画像中において医師や放射線技師などのユーザが登録することで登録する。 In these irradiation methods, by periodically imaging the patient's body with fluoroscopy X-rays, a fluoroscopic image including an image of the affected part of the patient and a marker placed in the vicinity of the affected part is periodically generated, and a template and By performing the matching, the affected part and the marker are tracked, and the affected part is irradiated with the treatment beam. The template is registered when a user such as a doctor or a radiographer registers in a fluoroscopic image for creating a template generated by imaging a patient's body with fluoroscopic X-rays in advance at the time of treatment planning.
または、治療時に定期的に撮像する透視画像に対し背景差分法を施すことでマーカを追跡し、治療ビームを患部に照射する。 Alternatively, the marker is tracked by applying a background subtraction method to a fluoroscopic image periodically imaged at the time of treatment, and the affected part is irradiated with the treatment beam.
上述した従来技術のように、テンプレート作成用の透視画像中の患部やマーカの像をユーザがテンプレートに登録する手法では、テンプレートを登録するために、被検体に透視用の放射線を照射してテンプレート作成用の透視画像を生成する必要があり、被検体の被曝量が増えてしまう。 As in the prior art described above, in the method in which the user registers an image of an affected area or marker in a fluoroscopic image for creating a template in the template, the template is registered by irradiating the subject with fluoroscopic radiation. It is necessary to generate a fluoroscopic image for creation, and the exposure amount of the subject increases.
特に、被検体の内部における患部やマーカの位置によって透視画像中の患部やマーカの像の形状が異なることに対処するため、テンプレート用の透視画像を異なる時刻で複数撮像し、各テンプレート用の透視画像中の患部やマーカの像をテンプレートに登録する場合には、被検体の被曝量が更に増えてしまう。 In particular, in order to cope with the difference in the shape of the affected part or marker image in the fluoroscopic image depending on the position of the affected part or marker in the subject, a plurality of fluoroscopic images for the template are taken at different times, and the fluoroscopy for each template is taken. When the image of the affected part or marker in the image is registered in the template, the exposure dose of the subject further increases.
また、治療時に撮像する透視画像に対し背景差分法を施すことでマーカの像を検出する手法では、透視画像に含まれるノイズを誤って検出させないために、透視用の放射線を強く照射する必要があり、被検体の被曝量が増えてしまう。なお、背景差分法では、患部そのものを検出することが難しい。 In addition, in the method of detecting a marker image by applying a background subtraction method to a fluoroscopic image captured during treatment, it is necessary to strongly irradiate fluoroscopic radiation in order to prevent erroneous detection of noise included in the fluoroscopic image. Yes, the exposure dose of the subject increases. In the background subtraction method, it is difficult to detect the affected area itself.
本発明が解決しようとする課題は、透視用の放射線による被曝量を低減させることができる医用画像処理装置、治療システム及び医用画像処理方法を提供することである。 The problem to be solved by the present invention is to provide a medical image processing apparatus, a treatment system, and a medical image processing method capable of reducing the exposure dose due to fluoroscopic radiation.
実施形態の医用画像処理装置は、算出部と、検出部と、を備える。算出部は、被検体の内部を透視した透視画像に対し、注目画素毎に、当該注目画素の周辺の2以上の第1画素を含む第1領域と、前記2以上の第1画素とは異なる1以上の第2画素を含む第2領域とを設定し、前記2以上の第1画素の画素値が互いに近く、かつ前記2以上の第1画素の画素値と前記1以上の第2画素の画素値とが離れているほど、値が大きくなる尤度を算出する。検出部は、前記注目画素それぞれの前記尤度に基づいて、前記被検体の内部のオブジェクトの位置を検出する。 The medical image processing apparatus according to the embodiment includes a calculation unit and a detection unit. The calculation unit is different from the two or more first pixels in the first region including two or more first pixels around the target pixel for each target pixel with respect to the fluoroscopic image seen through the inside of the subject. A second region including one or more second pixels, the pixel values of the two or more first pixels are close to each other, and the pixel values of the two or more first pixels and the one or more second pixels The likelihood that the value increases as the distance from the pixel value increases. The detection unit detects a position of an object inside the subject based on the likelihood of each of the target pixels.
以下、添付図面を参照しながら、実施形態を詳細に説明する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.
図1は、本実施形態の治療システム1の構成の一例を示す図である。図1に示すように、治療システム1は、寝台110と、第1照射部112、113と、放射線検出部116、117(第1検出部の一例)と、追跡装置100(医用画像処理装置の一例)と、制御部123と、第2照射部120とを、備える。
FIG. 1 is a diagram illustrating an example of a configuration of a treatment system 1 of the present embodiment. As illustrated in FIG. 1, the treatment system 1 includes a
本実施形態の治療システム1では、寝台110に寝ている被検体111の内部のオブジェクトが被検体111の呼吸、心拍、及び腸の動きなどが原因で3次元的に移動するため、追跡装置100を用いてオブジェクトを追跡し、追跡したオブジェクトに基づいて、被検体111の患部に対し、放射線治療を行う。
In the treatment system 1 of the present embodiment, since the object inside the
本実施形態では、被検体111として患者を想定しているが、これに限定されるものではない。またオブジェクトは、被検体111の体内の患部であってもよいし、患部付近に留置されたマーカであってもよい。マーカは、第1照射部112、113から照射される放射線114、115を透過させづらい材質(例えば、金やプラチナ)でできていればよく、例えば、直径2mm程度の球や円筒などの形状とすることができる。なお放射線治療には、X線、γ線、電子線、陽子線、中性子線、及び、重粒子線による治療も含まれるものとする。
In the present embodiment, a patient is assumed as the
また本実施形態では、追跡装置100を放射線治療に用いる例について説明するが、追跡装置100の用途はこれに限定されるものではない。例えば、追跡装置100は、カテーテル検査やステントグラフト治療において、カテーテルやステントグラフトの位置を追跡するために利用できる。または、放射線治療の撮像系の射影行列を求めるためのキャリブレーション時に、キャリブレーション用のファントムに埋め込まれたマーカを検出するためにも利用できる。
In this embodiment, an example in which the
第1照射部112、113は、それぞれ、被検体111に放射線114、115を照射する。本実施形態では、第1照射部112、113が可動式であることを想定しているが、これに限定されず、固定式であってもよい。なお本実施形態では、第1照射部の台数を2台としているが、これに限定されず、1台としてもよいし、3台以上としてもよい。
The
放射線114、115は、被検体111の内部の透視用に用いられるものであり、例えば、X線とすることができるが、これに限定されるものではない。
The
放射線検出部116は、被検体111を透過した放射線114を検出して、被検体111の内部を透視した透視画像118を生成し、タイミング信号131とともに追跡装置100に出力する。放射線検出部117は、被検体111を透過した放射線115を検出して、被検体111の内部を透視した透視画像119を生成し、タイミング信号132とともに追跡装置100に出力する。なお、透視画像118と透視画像119とでは、被検体111の内部の透視方向が異なるものとする。
The
放射線検出部116、117は、例えば、イメージインテンシファイアとカメラとの組み合わせ、カラーイメージインテンシファイアとカメラとの組み合わせ、又はフラットパネルディテクタなどにより実現できる。本実施形態では、放射線検出部116、117が可動式であることを想定しているが、これに限定されず、固定式であってもよい。なお本実施形態では、放射線検出部の台数を2台としているが、これに限定されず、第1照射部の台数と同一台数であれば何台であってもよい。
The
追跡装置100は、被検体111の内部のオブジェクトを追跡するものであり、メモリ101(記憶部の一例)と、算出部102と、検出部103(第2検出部の一例)と、管理部104とを、備える。追跡装置100は、例えば、FPGA(Field Programmable Gate Array)や、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)等を備える制御装置などにより実現できる。
The
メモリ101には、管理部104にタイミング信号131が通知されるタイミングで、放射線検出部116から透視画像118が書き込まれ、管理部104にタイミング信号132が通知されるタイミングで、放射線検出部117から透視画像119が書き込まれる。
In the
管理部104には、放射線検出部116から、放射線検出部116によるメモリ101への透視画像118の書き込みタイミングを通知するタイミング信号131が送られ、放射線検出部117から、放射線検出部117によるメモリ101への透視画像119の書き込みタイミングを通知するタイミング信号132が送られる。
A
管理部104は、タイミング信号131、132に基づいて、メモリ101への透視画像118、119の書き込みタイミングを管理する。また管理部104は、メモリ101の記憶領域のアドレス管理を行う。また管理部104は、メモリ101から算出部102に情報139を送るタイミングを管理するために、タイミング信号138を算出部102に送る。情報139は、透視画像118、119である。
The
算出部102は、タイミング信号138に基づいて、メモリ101から情報139を取得する。情報139は、上述の通り、透視画像118、119である。算出部102は、透視画像に対し、注目画素毎に、当該注目画素の周辺の2以上の第1画素を含む第1領域と、2以上の第1画素とは異なる1以上の第2画素を含む第2領域とを設定する。
The
第1領域の形状は、オブジェクトの形状に依存する形状とすることが望ましい。具体的には、第1領域の形状は、透視画像に写るオブジェクトの像の形状とする。例えば、オブジェクトの形状が球であれば、透視画像に写るオブジェクトの像の形状は円となるため、第1領域の形状は、円とする。 The shape of the first region is preferably a shape that depends on the shape of the object. Specifically, the shape of the first region is the shape of the object image shown in the fluoroscopic image. For example, if the shape of the object is a sphere, the shape of the object image shown in the fluoroscopic image is a circle, so the shape of the first region is a circle.
本実施形態では、算出部102は、オブジェクトの形状及びサイズに関するオブジェクト情報と3次元座標を透視画像に射影する射影行列とを取得し、取得したオブジェクト情報と射影行列とを用いて、透視画像に写るオブジェクトの像の形状及びサイズを算出し、当該像の形状及びサイズで第1領域を設定する。算出部102は、例えば事前にユーザが入力したモードを指定する情報に基づいて、オブジェクトの形状又は種類を判定することが可能である。
In the present embodiment, the
例えば、オブジェクトが被検体111の患部である場合、治療計画時に撮影したCT画像や、治療計画時より前の診断時に撮影したCT画像から、患部の形状及びサイズを特定できる。但し、CT画像には、医師などのユーザにより患部の3次元的な輪郭が入力されているものとする。なお、治療計画とは、どこにどれだけの治療ビームを届けるかを計算するための計画である。 For example, when the object is an affected part of the subject 111, the shape and size of the affected part can be specified from a CT image taken at the time of treatment planning or a CT image taken at the time of diagnosis before the time of treatment planning. However, it is assumed that a three-dimensional contour of the affected area is input to the CT image by a user such as a doctor. The treatment plan is a plan for calculating where and how many treatment beams are delivered.
このため、オブジェクトが患部である場合、算出部102は、治療計画装置(図1では、図示省略)からCT画像を取得するとともに、後述の制御部123から透視画像の射影行列を取得し、取得したCT画像と射影行列とを用いて、透視画像に写る患部の像の形状及びサイズを算出し、当該像の形状及びサイズで第1領域を設定すればよい。
For this reason, when the object is an affected part, the
また例えば、オブジェクトが被検体111の患部付近に留置されたマーカである場合、マーカの形状及びサイズは既知であるため、医師や放射線技師などのユーザが入力装置(図1では、図示省略)からマーカの形状及びサイズを入力すればよい。 In addition, for example, when the object is a marker placed near the affected part of the subject 111, the shape and size of the marker are known, so a user such as a doctor or a radiographer can input from an input device (not shown in FIG. 1). What is necessary is just to input the shape and size of a marker.
このため、オブジェクトがマーカである場合、算出部102は、入力装置からマーカの形状及びサイズを取得するとともに、後述の制御部123から透視画像の射影行列を取得し、取得したマーカの形状及びサイズと射影行列とを用いて、透視画像に写るマーカの像の形状及びサイズを算出し、当該像の形状及びサイズで第1領域を設定すればよい。
Therefore, when the object is a marker, the
なお算出部102は、オブジェクトがマーカである場合でも、オブジェクトが患部である場合と同様に、CT画像等を用いて透視画像に写るマーカの像の形状及びサイズを算出し、当該像の形状及びサイズで第1領域を設定してもよい。
Note that, even when the object is a marker, the
また算出部102は、第1領域の周囲の領域など、第1領域に対しオブジェクトの像が支配的となる場合に、当該オブジェクトの像が支配的とならない領域、即ち、当該オブジェクトの像以外が支配的となる領域を第2領域に設定すればよい。第1領域と第2領域とは、隣接させることが好ましいが、これに限定されず、第1領域と第2領域とを離れさせても、第1領域と第2領域とを重複させることもできる。
In addition, when the image of the object is dominant with respect to the first area, such as an area around the first area, the
そして算出部102は、注目画素毎に、第1領域を構成する2以上の第1画素の画素値が互いに近く、かつ2以上の第1画素の画素値と第2領域を構成する1以上の第2画素の画素値とが離れているほど値が大きくなる尤度を算出する。尤度は、例えば、2以上の第1画素の画素値と1以上の第2画素の画素値との相関比とすることができるが、これに限定されるものではない。
Then, for each pixel of interest, the
なお算出部102は、オブジェクトを透視する方向によって透視画像に写るオブジェクトの像の形状が異なる場合には、取り得るオブジェクトの像の形状に合わせて、注目画素毎に、第1領域及び第2領域を複数設定し、設定した第1領域及び第2領域毎に尤度を算出し、最も値が大きい尤度を当該注目画素の尤度としてもよい。
When the shape of the object image shown in the fluoroscopic image differs depending on the direction in which the object is seen through, the
また算出部102は、オブジェクトを透視する方向によって透視画像に写るオブジェクトの像の形状が異なる場合には、いずれのオブジェクトの像であっても支配的となる領域を第1領域に設定すればよい。
In addition, when the shape of the object image shown in the fluoroscopic image differs depending on the direction of seeing through the object, the
なお本実施形態では、算出部102は、透視画像118、119それぞれに対し、注目画素毎に、第1領域と第2領域とを設定し、尤度135を算出し、検出部103に出力する。また本実施形態では、透視画像118、119それぞれの各画素が注目画素となる。つまり本実施形態では、算出部102は、透視画像118、119それぞれの各画素について尤度135を算出し、検出部103に出力する。
In this embodiment, the
図2は、本実施形態の尤度の算出手法の一例の説明図である。図2に示す例では、透視画像118の注目画素200を例に取り尤度の算出手法を説明するが、透視画像118の他の注目画素や透視画像119の注目画素についても尤度の算出手法は同様である。また図2に示す例では、オブジェクトの形状が球であるものとする。
FIG. 2 is an explanatory diagram illustrating an example of a likelihood calculation method according to this embodiment. In the example illustrated in FIG. 2, the likelihood calculation method will be described using the
図2に示す例では、算出部102は、オブジェクトの形状が球であり、透視画像118に写るオブジェクトの像の形状は円となるため、透視画像118に対し、注目画素200を中心とした円形の第1領域201を設定するとともに、第1領域201を包含する矩形の内部かつ第1領域201の外部を第2領域202に設定している。この場合、第1領域201を構成する画素が第1画素となり、第2領域202を構成する画素が第2画素となる。
In the example illustrated in FIG. 2, since the shape of the object is a sphere and the shape of the image of the object shown in the
そして図2に示す例の場合、注目画素200の尤度は、σb 2/σt 2で表される。σtは、第1領域201と第2領域202の和集合(第1画素と第2画素の和集合)に含まれる全画素の値の標準偏差を示し、σbは、数式(1)で表される。
In the case of the example illustrated in FIG. 2, the likelihood of the pixel of
ここで、n1は、第1領域201を構成する第1画素の画素数を示し、n2は、第2領域202を構成する第2画素の画素数を示し、ntは、第1領域201と第2領域202の和集合(第1画素と第2画素の和集合)に含まれる画素の画素数を示す。m1は、第1領域201を構成する第1画素の画素値の平均値を示し、m2は、第2領域202を構成する第2画素の画素値の平均値を示し、mtは、第1領域201と第2領域202の和集合(第1画素と第2画素の和集合)に含まれる画素の画素値の平均値を示す。
Here, n 1 represents the number of pixels of the first pixel constituting the
つまり、σb 2/σt 2は、第1領域201を構成する第1画素の画素値の集合と第2領域202を構成する第2画素の画素値の集合との相関比となる。
That is, σ b 2 / σ t 2 is a correlation ratio between a set of pixel values of the first pixels constituting the
なお、σb 2/σt 2は、0から1の値をとり、第1領域201を構成する第1画素の画素値が互いに近く、かつ第1領域201を構成する第1画素の画素値と第2領域202を構成する第2画素の画素値とが離れているほど値が大きくなる(値が1に近くなる)。
Σ b 2 / σ t 2 takes a value from 0 to 1, and the pixel values of the first pixels constituting the
従って、第1領域201に対しオブジェクトの像が支配的となり、第2領域202に対しオブジェクト以外の像が支配的となる場合に、σb 2/σt 2の値が大きくなる。一方、第1領域201、第2領域202ともに、同じ組成のものの像が支配的となれば、σb 2/σt 2の値が小さくなる(値が0に近くなる)。
Therefore, when the image of the object is dominant with respect to the
特に本実施形態では、透視画像に写るオブジェクトの像(図2に示す例では、円)の形状及びサイズで第1領域を設定しているため、オブジェクトの像と第1領域201とが合致した場合、オブジェクトの像と第1領域201とが合致していない場合と比べ、σb 2/σt 2の値が顕著に大きくなる。
In particular, in the present embodiment, since the first area is set with the shape and size of the object image (circle in the example shown in FIG. 2) in the perspective image, the object image and the
なお、σw 2=σt 2+σb 2と定義すると、数式(2)が成立するため、1/((σw 2/σb 2)+1)によってもσb 2/σt 2を計算できる。σb 2/σt 2の分母σt 2は0になり得るため、σb 2/(σt 2+ε)を注目画素200の尤度としてもよい。なお、εは正の小さい値である。σw 2/σb 2の分母σb 2は0になり得るため、1/((σw 2/(σb 2+ε))+1)を注目画素200の尤度としてもよい。
If σ w 2 = σ t 2 + σ b 2 is defined, Equation (2) is satisfied, and therefore σ b 2 / σ t 2 is also calculated by 1 / ((σ w 2 / σ b 2 ) +1). it can. Since the denominator σ t 2 of σ b 2 / σ t 2 can be 0, σ b 2 / (σ t 2 + ε) may be set as the likelihood of the
また図2に示す例では、注目画素200の尤度(σb 2/σt 2)を、第1領域201を構成する第1画素の画素値の集合と第2領域202を構成する第2画素の画素値の集合との相関比としたが、第1画素の画素値が互いに近く、かつ第1画素の画素値と第2画素の画素値とが離れているほど、値が大きくなれば、相関比でなくてもよい。
In the example shown in FIG. 2, the likelihood (σ b 2 / σ t 2 ) of the
例えば、第1領域201を構成する第1画素の画素値が互いに近く、第1画素の画素値が放射線の透過率が低いことを表し、かつ第1画素の画素値と第2画素の画素値とが離れているほど、値が大きくなる尤度であってもよい。
For example, the pixel values of the first pixels constituting the
但し、透視画像は濃淡を逆転させる場合もあり、放射線の透過率が低い場合に画素の値が小さくなる場合もあれば、大きくなる場合もあるので、放射線の透過率が低い場合に値が大きくなる尤度は、透視画像の仕様に応じて設計する必要がある。このため、放射線の透過率が低い場合に画素値が小さくなる透過画像の場合、m1が所定の閾値未満の場合の尤度を0または小さい正の値εとし、m1が所定の閾値以上の場合の尤度をσb 2/σt 2とすればよい。 However, in a fluoroscopic image, the density may be reversed, and the pixel value may be small or large when the radiation transmittance is low, so the value is large when the radiation transmittance is low. It is necessary to design the likelihood according to the specifications of the fluoroscopic image. Therefore, in the case of a transmission image in which the pixel value is small when the radiation transmittance is low, the likelihood when m 1 is less than a predetermined threshold is set to 0 or a small positive value ε, and m 1 is equal to or greater than the predetermined threshold. In this case, the likelihood may be σ b 2 / σ t 2 .
検出部103は、算出部102により算出された透視画像の注目画素それぞれの尤度に基づいて、被検体111の内部のオブジェクトの位置を検出する。具体的には、検出部103は、値の大きさが所定条件を満たす尤度の注目画素に、オブジェクトの像が位置することを検出する。
The
本実施形態では、検出部103は、3次元座標を透視画像118に射影する射影行列及び3次元座標を透視画像119に射影する射影行列を取得し、透視画像118、119それぞれについて、注目画素それぞれの尤度135のうち、値の大きさが所定条件を満たす尤度の注目画素を検出する。
In the present embodiment, the
これにより、検出部103は、透視画像118、119それぞれについて、検出した注目画素上にオブジェクトの像が位置することを検出する。なお、透視画像118、119それぞれの射影行列は、後述の制御部123から取得できる。また所定条件は、値が最も大きい、値が閾値を超えている、又は、値が閾値を超え、かつ最も大きいなどとすることができる。
Thereby, the
そして検出部103は、透視画像118、119それぞれの射影行列及び透視画像118、119それぞれから検出した注目画素を用いて、オブジェクトの3次元位置を検出する。例えば、検出部103は、透視画像118、119それぞれの射影行列を用いたエピポーラ幾何によって、透視画像118、119それぞれから検出した注目画素(オブジェクトの像)から、オブジェクトの3次元位置を算出し、算出した3次元位置を示す位置情報122を制御部123に出力する。
Then, the
なお、被検体111の内部にオブジェクトが複数存在する場合、検出部103は、透視画像118、119それぞれについて、複数のオブジェクトの像それぞれの存在が期待される第3領域を示す領域情報を取得する。
When there are a plurality of objects inside the subject 111, the
例えば、前述のCT画像において、医師などのユーザによりオブジェクト毎の第3領域が入力されていれば、検出部103は、前述の治療計画装置(図1では、図示省略)から、透視画像118、119それぞれに対応するCT画像を領域情報として取得する。
For example, in the above-described CT image, if a third region for each object is input by a user such as a doctor, the
また例えば、透視画像118、119に対し、医師や放射線技師などのユーザによりオブジェクト毎の第3領域が入力されるのであれば、検出部103は、算出部102から透視画像118、119を取得することで、領域情報を取得する。
For example, if a third region for each object is input to the
この場合、表示装置(図1では、図示省略)に表示されている透視画像118、119に対し、ユーザにマウスのクリックやタッチパネル操作で点を指定させ、指定された点の周囲の領域を第3領域とすればよい。このようにすれば、透視画像118、119が動画として再生されている場合であっても、ユーザは簡易に第3領域を入力できる。
In this case, with respect to the
次に検出部103は、透視画像118、119それぞれについて、注目画素それぞれの尤度135のうち、値の大きさが所定条件を満たす尤度の注目画素を複数検出する。なお所定条件は、値の大きさの順位が上位オブジェクト数に収まる、値が閾値を超えている、又は、値が閾値を超え、かつ値の大きさの順位が上位オブジェクト数に収まるなどとすることがきる。
Next, for each of the
次に検出部103は、透視画像118の領域情報を用いて透視画像118から検出した複数の注目画素それぞれがいずれの第3領域に存在するかを検出するとともに、透視画像119の領域情報を用いて透視画像119から検出した複数の注目画素それぞれがいずれの第3領域に存在するかを検出して、透視画像118、119それぞれで検出された複数の注目画素(複数のオブジェクトの像)を透視画像118、119間で対応付ける。
Next, the
次に検出部103は、透視画像118、119それぞれの射影行列及び透視画像118、119それぞれから検出され、透視画像118、119間で対応付けられた複数の注目画素(複数のオブジェクトの像)を用いて、複数のオブジェクトの3次元位置を検出する。
Next, the
図3A及び図3Bは、本実施形態のオブジェクトの像の対応付け手法の一例の説明図である。図3A及び図3Bに示す例では、オブジェクトの数が3つであり、図3Aに示すように、透視画像118では、3つのオブジェクトの像がそれぞれ位置する注目画素301、302、303が検出され、図3Bに示すように、透視画像119では、3つのオブジェクトの像がそれぞれ位置する注目画素311、312、313が検出されている。
3A and 3B are explanatory diagrams illustrating an example of an object image association method according to the present embodiment. In the example shown in FIGS. 3A and 3B, the number of objects is three. As shown in FIG. 3A, the
この場合、検出部103は、透視画像118の領域情報を用いて透視画像118から検出した注目画素301、302、303それぞれがいずれの第3領域に存在するかを検出するとともに、透視画像119の領域情報を用いて透視画像119から検出した注目画素311、312、313それぞれがいずれの第3領域に存在するかを検出する。
In this case, the
例えば、透視画像118、119の領域情報には、それぞれ、ID=1〜3の第3領域が示されており、ここでは、注目画素301は、透視画像118のID=1の第3領域に存在し、注目画素302は、透視画像118のID=2の第3領域に存在し、注目画素303は、透視画像118のID=3の第3領域に存在し、注目画素311は、透視画像119のID=1の第3領域に存在し、注目画素312は、透視画像119のID=2の第3領域に存在し、注目画素313は、透視画像119のID=3の第3領域に存在するものとする。なお、透視画像118、119において、IDが一致する第3領域は同一領域である。
For example, the region information of the
このため、検出部103は、透視画像118、119間で、注目画素301と注目画素311、注目画素302と注目画素312、及び注目画素303と注目画素313を、対応付ける。
Therefore, the
これにより、オブジェクトが複数存在する場合であっても、透視画像118、119間で同一オブジェクトの像を対応付けることができ、当該オブジェクトの3次元位置の算出が可能となる。
Thereby, even when there are a plurality of objects, images of the same object can be associated between the
制御部123は、検出部103からの位置情報122に基づいて、制御信号128を第2照射部120に出力し、第2照射部120によるオブジェクト(患部)への治療ビーム121の照射を制御する。
The
制御信号128は、待ち伏せ照射法の場合、第2照射部120による治療ビーム121の照射タイミングを制御する信号であり、追尾照射法の場合、オブジェクト(患部)の位置情報である。
The
また制御部123は、タイミング信号124、125、126、127を、それぞれ、第1照射部112、113、放射線検出部116、117に出力し、第1照射部112、113、及び放射線検出部116、117の動作タイミングを制御する。
In addition, the
また制御部123は、第1照射部112、113、及び放射線検出部116、117を制御して透視画像118、119の試験生成(撮像)などを行うことで、透視画像118、119の射影行列を予め生成し、保持しておく。
In addition, the
制御部123は、例えば、CPU、RAM、及びROM等を備える制御装置などにより実現できる。なお、追跡装置100も制御装置で実現する場合、追跡装置100と制御部123とを同一の制御装置で実現してもよいし、異なる制御装置で実現してもよい。
The
第2照射部120は、検出部103により検出されたオブジェクトの3次元位置に基づいて、オブジェクト(患部)に治療ビーム121を照射する。具体的には、第2照射部120は、制御部123からの制御信号128に基づいて、オブジェクト(患部)に治療ビーム121を照射する。
The
本実施形態では、治療ビーム121が、重粒子線であることを想定しているが、これに限定されず、X線、γ線、電子線、陽子線、及び中性子線などであってもよい。
In the present embodiment, it is assumed that the
図4は、本実施形態の放射線114、115及び治療ビーム121の照射タイミングの一例を示すタイミングチャート図である。
FIG. 4 is a timing chart showing an example of irradiation timings of the
本実施形態では、放射線114、115及び治療ビーム121を同時に照射すると、放射線の散乱の影響で、透視画像118、119がノイジーになるため、制御部123は、放射線114、115及び治療ビーム121それぞれが独立に照射されるように、第1照射部112、113及び第2照射部120を制御する。
In the present embodiment, when the
例えば、1秒に各方向から30回照射を行う場合、制御部123は、図4に示すように、1/30秒ごとに、放射線114、115及び治療ビーム121を独立に照射するように、第1照射部112、113及び第2照射部120を制御する。なお、時間401、402は、1/30秒を示している。
For example, when performing
図5は、本実施形態の追跡装置100の処理の一例を示すフローチャート図である。
FIG. 5 is a flowchart illustrating an example of processing of the
まず、メモリ101に、放射線検出部116から透視画像118が書き込まれ、放射線検出部117から透視画像119が書き込まれる(ステップS101)。
First, the
続いて、算出部102は、メモリ101から情報139(透視画像118、119)を読み出し、透視画像118、119それぞれに対し、注目画素毎に、第1領域と第2領域とを設定し、尤度135を算出する(ステップS103)。
Subsequently, the
続いて、検出部103は、透視画像118、119それぞれについて、値の大きさが所定条件を満たす尤度の注目画素を検出し、透視画像118、119それぞれの射影行列及び透視画像118、119それぞれから検出した注目画素を用いて、オブジェクトの3次元位置を検出する(ステップS105)。
Subsequently, for each of the
オブジェクトの3次元位置の追跡を続行する場合(ステップS107でNo)、ステップS101に戻り、オブジェクトの3次元位置の追跡を終了する場合(ステップS107でYes)、処理を終了する。 When the tracking of the three-dimensional position of the object is continued (No in step S107), the process returns to step S101, and when the tracking of the three-dimensional position of the object is ended (Yes in step S107), the process is ended.
以上のように、本実施形態によれば、治療時に生成される透視画像からオブジェクトの位置を検出できるため、テンプレート登録などオブジェクトの位置検出のための事前の放射線による透視が不要となり、透視用の放射線による被検体の被曝量を低減させることができる。 As described above, according to the present embodiment, since the position of the object can be detected from the fluoroscopic image generated at the time of treatment, it is not necessary to perform fluoroscopy in advance for detecting the position of the object such as template registration. The exposure dose of the subject due to radiation can be reduced.
また本実施形態のように、尤度に相関比を用いた場合、当該尤度はノイズに頑健なため、透視用の放射線の強度を弱めてもオブジェクトを検出でき、透視用の放射線による被検体の被曝量を低減させることができる。 In addition, when the correlation ratio is used for the likelihood as in this embodiment, since the likelihood is robust to noise, the object can be detected even if the intensity of the fluoroscopic radiation is weakened, and the subject due to the fluoroscopic radiation Can be reduced.
(変形例1)
上記実施形態では、被検体111の内部にオブジェクトが複数存在する場合、検出部103は、透視画像118、119それぞれの領域情報を用いて、透視画像118、119間で同一オブジェクトの像を対応付けたが、変形例1では、エピポーラ幾何により透視画像118、119間で同一オブジェクトの像を対応付ける例について説明する。
(Modification 1)
In the above embodiment, when there are a plurality of objects in the subject 111, the
この場合、検出部103は、透視画像118、119それぞれの射影行列を用いたエピポーラ幾何によって、透視画像118、119それぞれで検出された複数の注目画素(複数のオブジェクトの像)を透視画像118、119間で対応付ければよい。
In this case, the
図6A及び図6Bは、変形例1のオブジェクトの像の対応付け手法の一例の説明図である。図6A及び図6Bに示す例では、オブジェクトの数が3つであり、図6Aに示すように、透視画像118では、3つのオブジェクトの像がそれぞれ位置する注目画素301、302、303が検出され、図6Bに示すように、透視画像119では、3つのオブジェクトの像がそれぞれ位置する注目画素311、312、313が検出されている。
6A and 6B are explanatory diagrams of an example of an object image association method according to the first modification. In the example shown in FIGS. 6A and 6B, the number of objects is three. As shown in FIG. 6A, the
なお、図6A及び図6Bに示す例では、透視画像118の注目画素302の対応付け手法について説明するが、透視画像118の注目画素301、303についても同様の手法で対応付けできる。
In the example illustrated in FIGS. 6A and 6B, a method of associating the
検出部103は、注目画素302及び透視画像118、119それぞれの射影行列を用いて、注目画素302に対応する透視画像119のエピポーラ線602を算出する。そして検出部103は、エピポーラ線602に対する注目画素311、312、313それぞれの射影長(垂線の長さ)を算出し、射影長が最も短い注目画素312を注目画素302と対応付ける。
The
これにより、オブジェクトが複数存在する場合であっても、透視画像118、119間で同一オブジェクトの像を対応付けることができ、当該オブジェクトの3次元位置の算出が可能となる。
Thereby, even when there are a plurality of objects, images of the same object can be associated between the
なお図6A及び図6Bに示す例では、最小の射影長と2番目に小さい射影長との差が大きいため、対応付けを誤る可能性は少ないが、最小の射影長と2番目に小さい射影長との差が小さい場合、対応付けを誤る可能性がある。この場合、対応付けの判断を次フレームに先送りしてもよい。 In the example shown in FIGS. 6A and 6B, since the difference between the minimum projection length and the second smallest projection length is large, there is little possibility of incorrect association, but the minimum projection length and the second smallest projection length. If the difference between is small, there is a possibility that the correspondence is incorrect. In this case, the association determination may be postponed to the next frame.
(変形例2)
上記実施形態では、透視画像の各画素を注目画素として尤度を算出したが、変形例2では、透視画像において、オブジェクトの像の存在が期待される第3領域を構成する各画素を注目画素として尤度を算出する例について説明する。
(Modification 2)
In the above embodiment, the likelihood is calculated using each pixel of the fluoroscopic image as the target pixel. However, in Modification 2, each pixel constituting the third region in which the presence of the image of the object is expected is the target pixel in the fluoroscopic image. An example of calculating the likelihood will be described.
この場合、算出部102は、透視画像においてオブジェクトの像の存在が期待される第3領域を示す領域情報を取得し、領域情報が示す第3領域において、注目画素毎に尤度を算出するようにすればよい。領域情報は、上記実施形態と同様の手法で取得すればよい。
In this case, the
変形例2によれば、透視画像の一部の画素で尤度を算出すれば足りるため、尤度算出時間を短縮することができる。この結果、治療ビームを照射すべきタイミングまでに尤度の算出を終わらせる確率を高めることができ、尤度の算出が終わらずに治療ビームを照射できない事態を低減でき、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。また、透視画像の生成(撮像)から治療ビーム照射までの時間を短縮できる。 According to the modified example 2, since it is sufficient to calculate the likelihood with some pixels of the fluoroscopic image, the likelihood calculation time can be shortened. As a result, it is possible to increase the probability that the calculation of the likelihood is finished by the timing when the treatment beam should be irradiated, reduce the situation where the treatment beam cannot be irradiated without the calculation of the likelihood, and generate a fluoroscopic image (imaging) ) The number of times can be reduced, and the exposure amount of the subject by fluoroscopic radiation can be reduced. In addition, the time from the generation (imaging) of the fluoroscopic image to the treatment beam irradiation can be shortened.
なお変形例2の手法は、透視画像のフレームレートが高いほど有効である。 Note that the technique of Modification 2 is more effective as the perspective image frame rate is higher.
(変形例3)
上記実施形態では、透視画像の各画素を注目画素として尤度を算出したが、変形例3では、透視画像において、一旦、オブジェクトの像を検出した後は、所定運動モデルに基づいて、オブジェクトの像の存在が期待される第4領域(オブジェクトの像の移動先)を予測し、予測した第4領域を構成する各画素を注目画素として尤度を算出する例について説明する。
(Modification 3)
In the above-described embodiment, the likelihood is calculated using each pixel of the fluoroscopic image as a target pixel. However, in Modification 3, once the image of the object is detected in the fluoroscopic image, the likelihood of the object is determined based on a predetermined motion model. An example will be described in which a fourth region (a destination of an object image) where an image is expected is predicted, and likelihood is calculated using each pixel constituting the predicted fourth region as a target pixel.
この場合、算出部102は、所定運動モデルに基づいて、透視画像においてオブジェクトの像の存在が期待される第4領域を予測し、当該第4領域において、注目画素毎に尤度を算出するようにすればよい。所定運動モデルは、例えば、等速度運動モデルや等加速度運動モデルである。
In this case, the
変形例3によれば、透視画像の一部の画素で尤度を算出すれば足りるため、尤度算出時間を短縮することができる。この結果、治療ビームを照射すべきタイミングまでに尤度の算出を終わらせる確率を高めることができ、尤度の算出が終わらずに治療ビームを照射できない事態を低減でき、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。また、透視画像の生成(撮像)から治療ビーム照射までの時間を短縮できる。 According to the modified example 3, since it is sufficient to calculate the likelihood with a part of the pixels of the fluoroscopic image, the likelihood calculation time can be shortened. As a result, it is possible to increase the probability that the calculation of the likelihood is finished by the timing when the treatment beam should be irradiated, reduce the situation where the treatment beam cannot be irradiated without the calculation of the likelihood, and generate a fluoroscopic image (imaging) ) The number of times can be reduced, and the exposure amount of the subject by fluoroscopic radiation can be reduced. In addition, the time from the generation (imaging) of the fluoroscopic image to the treatment beam irradiation can be shortened.
なお変形例3の手法は、透視画像のフレームレートが高いほど有効である。 Note that the technique of Modification 3 is more effective as the frame rate of the fluoroscopic image is higher.
(変形例4)
変形例3では、所定運動モデルに基づいて予測した第4領域で尤度を算出したが、変形例4では、第4領域の尤度に加え、所定運動モデルに基づく事前確率も用いて、オブジェクトの位置を検出する例について説明する。
(Modification 4)
In the modified example 3, the likelihood is calculated in the fourth region predicted based on the predetermined motion model. However, in the modified example 4, in addition to the likelihood of the fourth region, the prior probability based on the predetermined motion model is also used. An example of detecting the position of will be described.
この場合、検出部103は、オブジェクトの像が所定運動モデルに基づいて移動する位置に近いほど値が大きくなる事前確率を第4領域に設定し、注目画素それぞれの尤度と事前確率とに基づいて、オブジェクトの位置を検出すればよい。例えば、検出部103は、注目画素それぞれの尤度と事前確率とを乗じた事後確率を算出し、算出した事後確率に基づいて、オブジェクトの位置を検出すればよい。
In this case, the
図7は、変形例4の事後確率を用いたオブジェクトの位置の検出手法の一例の説明図である。図7に示す例では、あるフレームで、透視画像118の注目画素701がオブジェクトの像の位置として検出され、次フレームで、所定運動モデルに基づいてオブジェクトの像が矢印702の方向へ移動すると予測され、第4領域に第4領域を構成する各画素の事前確率の分布703が設定されている。分布703は、例えば、2次元正規分布で設定すればよい。
FIG. 7 is an explanatory diagram illustrating an example of a method for detecting the position of an object using the posterior probability according to the fourth modification. In the example illustrated in FIG. 7, the
分布703は、所定運動モデルに従ってオブジェクトの像が移動すると予測される位置で値が最も大きく、当該位置から離れるほど値が小さくなる分布となっている。但し、分布703を、当該位置からの距離が同じであっても、矢印702の方向に沿った位置の方が、矢印702の方向と垂直な方向の位置よりも値が大きくなる分布としてもよい。
The
また、透視画像118、119のうちの一方でオブジェクトの像が検出されている場合、他方の第4領域に設定する事前確率の分布を、所定運動モデルに従ってオブジェクトの像が移動すると予測される位置で値が最も大きく、当該位置から離れるほど値が小さくなり、当該位置からの距離が同じであっても、矢印702の方向に沿った位置の方が、矢印702の方向と垂直な方向の位置よりも値が大きく、エピポーラ線に沿った位置の方が、エピポーラ線と垂直な方向の位置よりも値が大きくなる分布としてもよい。
In addition, when an image of the object is detected in one of the
変形例4によれば、透視画像のノイズにロバストな追跡を実現できる。この結果、透視用の放射線の線量を下げても追跡が可能になるため、透視用の放射線による被検体の被曝量を低減させることができる。 According to the fourth modification, it is possible to realize tracking that is robust against noise of a fluoroscopic image. As a result, since the tracking can be performed even if the radiation dose for fluoroscopy is lowered, the exposure dose of the subject by the fluoroscopy radiation can be reduced.
(変形例5)
変形例4では、注目画素それぞれの尤度と事前確率とを乗じた事後確率に基づいて、オブジェクトの位置を検出したが、あるフレームの事後確率を次フレームの事前確率として当該次フレームの事後確率を算出し、算出した事後確率に基づいて、オブジェクトの位置を検出してもよい。
(Modification 5)
In the modified example 4, the position of the object is detected based on the posterior probability obtained by multiplying the likelihood of each pixel of interest and the prior probability, but the posterior probability of the next frame is determined by using the posterior probability of a certain frame as the prior probability of the next frame. And the position of the object may be detected based on the calculated posterior probability.
変形例5によれば、透視画像のノイズにロバストな追跡を実現できる。この結果、透視用の放射線の線量を下げても追跡が可能になるため、透視用の放射線による被検体の被曝量を低減させることができる。 According to the fifth modification, it is possible to realize tracking that is robust against noise in a fluoroscopic image. As a result, since the tracking can be performed even if the radiation dose for fluoroscopy is lowered, the exposure dose of the subject by the fluoroscopy radiation can be reduced.
(変形例6)
変形例3では、所定運動モデルに基づいて予測した第4領域で尤度を算出し、オブジェクトの位置を検出したが、パーティクルフィルタで、事後確率を最大化する位置を検出してもよい。
(Modification 6)
In the third modification, the likelihood is calculated in the fourth region predicted based on the predetermined motion model and the position of the object is detected. However, the position where the posterior probability is maximized may be detected by a particle filter.
変形例6によれば、透視画像のノイズにロバストな追跡を実現できる。この結果、透視用の放射線の線量を下げても追跡が可能になるため、透視用の放射線による被検体の被曝量を低減させることができる。 According to the modified example 6, it is possible to realize tracking that is robust against noise of a fluoroscopic image. As a result, since the tracking can be performed even if the radiation dose for fluoroscopy is lowered, the exposure dose of the subject by the fluoroscopy radiation can be reduced.
(変形例7)
変形例4において、被検体111の内部にオブジェクトが複数存在する場合、オブジェクト間の距離に応じて、事前確率の分布703の尖度を変更してもよい。
(Modification 7)
In the fourth modification, when there are a plurality of objects in the subject 111, the kurtosis of the
この場合、算出部102は、所定運動モデルに基づいて、透視画像において複数のオブジェクトの像それぞれの存在が期待される第4領域を予測し、複数の第4領域それぞれにおいて、注目画素毎に尤度を算出するようにすればよい。
In this case, the
また、検出部103は、オブジェクトの像毎に、当該像が所定運動モデルに基づいて移動する位置に近いほど値が大きくなり、かつ複数の像同士の距離が閾値以下の場合に尖度を高くした事前確率を、当該像の存在が期待される第4領域に設定し、第4領域毎に、注目画素それぞれの尤度と事前確率とに基づいて、オブジェクトの位置を検出すればよい。
In addition, for each image of the object, the
変形例7によれば、複数の像同士の距離が閾値以下の場合、現在のフレームの透視画像の見えに基づく尤度よりも、過去のフレームからの所定運動モデルに基づく予測位置の方が優先されるため、複数の像同士が交差する場合であっても、像を取り違える可能性を低減することができる。この結果、オブジェクトの像を追跡できないフレームが減るため、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。 According to the modified example 7, when the distance between the plurality of images is equal to or less than the threshold value, the predicted position based on the predetermined motion model from the past frame has priority over the likelihood based on the appearance of the perspective image of the current frame. Therefore, even when a plurality of images intersect, the possibility of mistaking the images can be reduced. As a result, since the number of frames in which the image of the object cannot be tracked is reduced, the number of generation (imaging) of fluoroscopic images can be reduced, and the exposure dose of the subject due to fluoroscopic radiation can be reduced.
(変形例8)
変形例7では、オブジェクトの像同士の距離が閾値以下の場合に、事前確率の分布の尖度を高くしてオブジェクトの像を取り違える可能性を低減したが、変形例8では、オブジェクトの像同士の距離が閾値以下の場合に、オブジェクトの像同士の距離が閾値以下にならないように、第1照射部112、113、及び放射線検出部116、117の少なくともいずれかの位置を制御する例について説明する。但し、変形例7では、第1照射部112、113、及び放射線検出部116、117は可動式である必要がある。
(Modification 8)
In the modified example 7, when the distance between the object images is equal to or smaller than the threshold value, the possibility of mistaking the object image by increasing the kurtosis of the prior probability distribution is reduced. An example in which the position of at least one of the
この場合、検出部103は、オブジェクトの像毎に、当該像が所定運動モデルに基づいて移動する位置に近いほど値が大きくなる事前確率を、当該像の存在が期待される第4領域に設定し、第4領域毎に、注目画素それぞれの尤度と事前確率とに基づいて、オブジェクトの位置を検出する。
In this case, the
そして検出部103は、複数の像同士の距離が閾値以下の場合、複数の像同士の距離が閾値を超えるように透視画像が生成される第1照射部112、113、及び放射線検出部116、117の少なくともいずれかの位置情報を算出すればよい。
When the distance between the plurality of images is equal to or smaller than the threshold, the
例えば、検出部103は、第1照射部112、113、及び放射線検出部116、117それぞれについて、動きうる位置の中の数通りに対応する射影行列を取得し、各オブジェクトの3次元座標と各射影行列から、第1照射部112、113、及び放射線検出部116、117の位置に応じて撮像される透視画像118、119における各オブジェクトの像の画像座標を算出する。そして検出部103は、オブジェクトの像間の距離が閾値を超える(好ましくは、最大となる)第1照射部112、113、及び放射線検出部116、117の位置情報を抽出すればよい。
For example, for each of the
また検出部103は、各オブジェクトの3次元座標の所定運動モデルに従う予測位置と各射影行列から、第1照射部112、113、及び放射線検出部116、117の位置に応じて撮像される透視画像118、119における各オブジェクトの像の画像座標を算出してもよい。
Further, the
制御部123は、検出部103により算出された位置情報に基づいて、第1照射部112、113、及び放射線検出部116、117の少なくともいずれかの位置を制御すればよい。
The
変形例8によれば、複数の像同士が交差しなくなるため、像の取り違えが生じない。この結果、オブジェクトの像を追跡できないフレームが減るため、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。 According to the modified example 8, since a plurality of images do not intersect with each other, the images are not mixed up. As a result, since the number of frames in which the image of the object cannot be tracked is reduced, the number of generation (imaging) of fluoroscopic images can be reduced, and the exposure dose of the subject due to fluoroscopic radiation can be reduced.
(変形例9)
変形例3では、所定運動モデルに基づいて予測した第4領域を構成する各画素を注目画素として尤度を算出したが、エピポーラ線によって第4領域を更に限定して尤度を算出するようにしてもよい。
(Modification 9)
In the modified example 3, the likelihood is calculated using each pixel constituting the fourth region predicted based on the predetermined motion model as the target pixel. However, the likelihood is calculated by further limiting the fourth region with an epipolar line. May be.
例えば、透視画像118でオブジェクトの像を検出した場合、透視画像119のエピポーラ線上にも当該オブジェクトの像が存在する。なお、透視画像の歪みを補正できていない場合であっても、エピポーラ線付近に当該オブジェクトの像が存在する。
For example, when an object image is detected from the
このため、算出部102は、透視画像119において予測された第4領域かつエピポーラ線付近において、注目画素毎に尤度を算出するようにすればよい。
Therefore, the
変形例9によれば、透視画像の一部の画素で尤度を算出すれば足りるため、尤度算出時間を短縮することができる。この結果、治療ビームを照射すべきタイミングまでに尤度の算出を終わらせる確率を高めることができ、尤度の算出が終わらずに治療ビームを照射できない事態を低減でき、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。また、透視画像の生成(撮像)から治療ビーム照射までの時間を短縮できる。 According to the modified example 9, since it is sufficient to calculate the likelihood with a part of the pixels of the fluoroscopic image, the likelihood calculation time can be shortened. As a result, it is possible to increase the probability that the calculation of the likelihood is finished by the timing when the treatment beam should be irradiated, reduce the situation where the treatment beam cannot be irradiated without the calculation of the likelihood, and generate a fluoroscopic image (imaging) ) The number of times can be reduced, and the exposure amount of the subject by fluoroscopic radiation can be reduced. In addition, the time from the generation (imaging) of the fluoroscopic image to the treatment beam irradiation can be shortened.
なお変形例9の手法は、透視画像のフレームレートが高いほど有効である。 Note that the method of Modification 9 is more effective as the frame rate of the fluoroscopic image is higher.
(変形例10)
上記実施形態では、メモリ101の透視画像への書き込みが完了後に、メモリ101から透視画像が読み出され、尤度の算出が開始されたが、変形例10では、最初に尤度の算出が行われる注目画素での尤度の算出に必要な全ての画素がメモリに書き込まれるタイミング後に、尤度の算出を開始する例について説明する。
(Modification 10)
In the above embodiment, the perspective image is read from the
この場合、メモリ101には、透視画像を構成する各画素が所定順序で書き込まれる。
In this case, the pixels constituting the fluoroscopic image are written in the
また管理部104は、算出部102により最初に尤度の算出が行われる注目画素での尤度の算出に必要な全ての画素がメモリ101に書き込まれるタイミングを管理し、当該タイミング後に透視画像の読み出しを開始する。
In addition, the
例えば、管理部104は、透視画像118の場合、タイミング信号131を受け取ってからのクロック数で、透視画像118のどの画素の値までを受け取ったかを管理できるので、タイミング信号131を受け取ってからのクロック数で、算出部102により最初に尤度の算出が行われる注目画素での尤度の算出に必要な全ての画素がメモリ101に書き込まれるタイミングを管理する。
For example, in the case of the
図8は、変形例10のタイミング管理手法の一例の説明図である。図8に示す例では、透視画像118の各画素が左上からラスタスキャン順にメモリ101に書き込まれる。図8に示す例では、注目画素800で算出部102により最初に尤度の算出が行われ、注目画素800での尤度の算出に必要な全ての画素は、第1領域801を構成する第1画素及び第2領域802を構成する第2画素である。
FIG. 8 is an explanatory diagram of an example of the timing management method of the tenth modification. In the example shown in FIG. 8, each pixel of the
このため管理部104は、タイミング信号131を受け取ってからのクロック数で、第1画素と第2画素の全てがメモリ101に書き込まれるタイミングを管理し、注目画素800での尤度の算出に必要な全ての画素がメモリ101に書き込まれるタイミングを管理する。
Therefore, the
そして算出部102は、当該タイミング後に透視画像が読み出されると、注目画素毎の尤度の算出を開始する。
When the fluoroscopic image is read after the timing, the
変形例10によれば、尤度の算出開始時間を早めることができるため、尤度の算出終了時間も早めることができ、尤度算出時間を短縮することができる。この結果、治療ビームを照射すべきタイミングまでに尤度の算出を終わらせる確率を高めることができ、尤度の算出が終わらずに治療ビームを照射できない事態を低減でき、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。また、透視画像の生成(撮像)から治療ビーム照射までの時間を短縮できる。 According to the modified example 10, since the likelihood calculation start time can be shortened, the likelihood calculation end time can also be shortened, and the likelihood calculation time can be shortened. As a result, it is possible to increase the probability that the calculation of the likelihood is finished by the timing when the treatment beam should be irradiated, reduce the situation where the treatment beam cannot be irradiated without the calculation of the likelihood, and generate a fluoroscopic image (imaging) ) The number of times can be reduced, and the exposure amount of the subject by fluoroscopic radiation can be reduced. In addition, the time from the generation (imaging) of the fluoroscopic image to the treatment beam irradiation can be shortened.
(変形例11)
上記実施形態では、透視画像の全画素をメモリ101へ書き込んだが、尤度の算出に必要な画素をメモリ101へ書き込むようにしてもよい。
(Modification 11)
In the above embodiment, all the pixels of the fluoroscopic image are written in the
変形例11によれば、透視画像の転送時間を短縮できる。この結果、治療ビームを照射すべきタイミングまでに尤度の算出を終わらせる確率を高めることができ、尤度の算出が終わらずに治療ビームを照射できない事態を低減でき、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。また、透視画像の生成(撮像)から治療ビーム照射までの時間を短縮できる。 According to the eleventh modification, the transmission time of the fluoroscopic image can be shortened. As a result, it is possible to increase the probability that the calculation of the likelihood is finished by the timing when the treatment beam should be irradiated, reduce the situation where the treatment beam cannot be irradiated without the calculation of the likelihood, and generate a fluoroscopic image (imaging) ) The number of times can be reduced, and the exposure amount of the subject by fluoroscopic radiation can be reduced. In addition, the time from the generation (imaging) of the fluoroscopic image to the treatment beam irradiation can be shortened.
なお変形例11の手法は、透視画像のフレームレートが高いほど有効である。
Note that the technique of the
(変形例12)
上記実施形態では、全ての色成分の画像を透視画像としたが、オブジェクトの透過率に応じた色成分の画像を透視画像としてもよい。
(Modification 12)
In the above embodiment, the image of all the color components is the perspective image, but the image of the color component corresponding to the transmittance of the object may be the perspective image.
例えば、放射線検出部116、117を、カラーイメージインテンシファイアと、ベイヤー型のカラーフィルタを利用してベイヤーRAW画像を撮影するカメラと、の組み合わせで実現する場合、ベイヤーRAW画像の特定の色成分を透視画像118、119としてもよい。
For example, when the
カラーイメージインテンシファイアとベイヤー型のカメラの組み合わせでは、透過率が低いものの感度はR(赤)成分が最も高く、透過率が高いものの感度はB(青)成分が最も高い。このため、オブジェクトが透過率の低いマーカである場合、ベイヤーRAW画像のR成分を透視画像118、119とし、オブジェクトが透過率の低くない患部である場合、ベイヤーRAW画像のG成分又はB成分を透視画像118、119としてもよい。
In the combination of the color image intensifier and the Bayer type camera, although the transmittance is low, the sensitivity is the highest in the R (red) component, while the sensitivity is high, but the sensitivity is the highest in the B (blue) component. For this reason, when the object is a marker with low transmittance, the R component of the Bayer RAW image is set as the
また、ベイヤーRAW画像をデモザイキングして、特定の色成分を透視画像118、119としてもよい。なお、デモザイキングしない場合、その色成分の画素数が少ないため、画像処理の時間を短縮できる。
In addition, the Bayer RAW image may be demosaiced, and specific color components may be used as the
また例えば、放射線検出部116、117を、カラーイメージインテンシファイアと、特定の色成分のみを撮影するカメラと、の組み合わせで実現する場合、特定の色成分の画像を透視画像118、119としてもよい。
For example, when the
例えば、オブジェクトが透過率の低いマーカである場合、R成分を透過させるカラーフィルタを利用したカメラを用い、R成分のみからなる画像を透視画像118、119としてもよい。また、オブジェクトが透過率の低くない患部である場合、G成分又はB成分を透過させるカラーフィルタを利用したカメラを用い、G成分又はB成分のみからなる画像を透視画像118、119としてもよい。
For example, when the object is a marker having a low transmittance, a camera using a color filter that transmits the R component may be used, and images including only the R component may be used as the
デモザイキングの内挿処理で画像がぼけるため、この場合、ベイヤーRAW画像をデモザイキングした画像のその色成分だけの画像よりも、ぼけが少ない画像を得られる。 Since the image is blurred by the demosaicing interpolation process, in this case, an image with less blur can be obtained than the image of only the color component of the image obtained by demosaicing the Bayer RAW image.
変形例12によれば、オブジェクトの追跡に失敗する確率を低減することができる。この結果、オブジェクトの像を追跡できないフレームが減るため、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。 According to the modified example 12, it is possible to reduce the probability that the tracking of the object fails. As a result, since the number of frames in which the image of the object cannot be tracked is reduced, the number of generation (imaging) of fluoroscopic images can be reduced, and the exposure dose of the subject due to fluoroscopic radiation can be reduced.
(変形例13)
上記実施形態において、値の大きさが所定条件を満たす尤度が算出されなかった場合、検出部103は、警告信号を制御部123に出力し、制御部123は、警告信号に基づいて、警告装置(図1では、図示省略)に警告を行わせる制御を行わせるようにしてもよい。
(Modification 13)
In the above embodiment, when the likelihood that the magnitude of the value satisfies the predetermined condition is not calculated, the
この場合、透視画像118、119においてオブジェクトの像がはっきりと見えない状態であり、オブジェクトの位置の誤検出が生じる可能性がある。例えば、透過率が低い骨とオブジェクトとが放射線114、115の線上に重なると、オブジェクトの像がはっきりと見えない状態となる。
In this case, the image of the object cannot be clearly seen in the
変形例13によれば、このような状態であることが、医師や放射線技師などのユーザに警告されるため、ユーザに、放射線114、115の強度を強めたり、放射線114、115の照射方向を変更させたりさせるように促すことができ、このような状態を早期に解消することができる。この結果、オブジェクトの像を追跡できないフレームが減るため、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。
According to the modified example 13, since a user such as a doctor or a radiologist is warned that such a state is present, the user can increase the intensity of the
また、値の大きさが所定条件を満たす尤度が算出されなかった場合、検出部103は、放射線の強度を高めさせる制御信号を制御部123に出力し、制御部123は、制御信号に基づいて、第1照射部112、113に放射線の強度を高めさせる制御を行わせるようにしてもよい。
When the likelihood that the magnitude of the value satisfies the predetermined condition is not calculated, the
このようにすれば、透視画像118、119のどのフレームにおいてもオブジェクトの像がはっきりと見えるようになるため、オブジェクトの像がはっきりと見えない状態を早期に解消することができる。この結果、オブジェクトの像を追跡できないフレームが減るため、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。
In this way, since the image of the object can be clearly seen in any frame of the
(変形例14)
上記実施形態では、オブジェクトの像の周辺で、尤度の値が総じて大きくなる場合があるため、近傍で尤度が高ければ、マージしてもよい。これにより、本来1つのオブジェクトを複数として検出するミスがなくなる。
(Modification 14)
In the above embodiment, the likelihood value may be generally increased around the image of the object. Therefore, if the likelihood is high in the vicinity, merging may be performed. This eliminates the mistake of originally detecting one object as a plurality.
(変形例15)
上記実施形態では、オブジェクトらしい部分で大きな値をとる尤度を算出し、尤度が大きい部分をオブジェクトとして検出したが、オブジェクトらしい部分で小さな値をとる特徴量を算出し、特徴量が小さい部分をオブジェクトとして検出するようにしてもよい。この特徴量は、第1画素の画素値が互いに近く、かつ第1画素の画素値と第2画素の画素値とが離れているほど、値が小さくなるように設計すればよい。例えば、σt 2/σb 2やσw 2/σb 2を特徴量として利用できる。
(Modification 15)
In the above embodiment, the likelihood that takes a large value in the part that seems to be an object is calculated, and the part that has a large likelihood is detected as an object. May be detected as an object. The feature amount may be designed such that the smaller the pixel value of the first pixel is, and the smaller the pixel value of the first pixel and the pixel value of the second pixel are, the smaller the value is. For example, σ t 2 / σ b 2 or σ w 2 / σ b 2 can be used as the feature amount.
(ハードウェア構成)
図9は、本実施形態及び各変形例の治療システム1のハードウェア構成の一例を示すブロック図である。さきほどまでは、治療ビームが重粒子線の想定で説明したが、図9はX線である場合のブロック図である。図9に示すように、治療システム1は、コンソール10、撮像装置20、寝台装置30、治療計画装置40、及び放射線治療装置(ライナック:治療計画データに基づいて放射線を照射して治療を行なう放射線治療装置)50を備える。なお、撮像装置20がCT装置である例について述べるが、これに限定されるものではない。
(Hardware configuration)
FIG. 9 is a block diagram illustrating an example of a hardware configuration of the treatment system 1 of the present embodiment and each modification. Up to this point, the treatment beam has been described on the assumption of a heavy particle beam, but FIG. 9 is a block diagram in the case of an X-ray. As illustrated in FIG. 9, the treatment system 1 includes a
コンソール10は、追跡装置100及び制御部123に対応し、寝台装置30は、寝台110に対応し、治療計画装置40は、上記実施形態で図示を省略した治療計画装置に対応し、放射線治療装置50は、第2照射部120に対応する。
The
撮像装置20、寝台装置30、及び放射線治療装置50は、通常は検査室に設置される。一方、コンソール10は、通常は検査室に隣接する制御室に設置される。治療計画装置40は、検査室及び制御室の外側に設置される。なお、治療計画装置40は、制御室に設置されてもよいし、コンソール10と一体の装置であってもよい。また、撮像装置20の代表的な例としては、X線CT装置、MRI(magnetic resonance imaging)装置、X線装置等が挙げられる。以下、撮像装置20として、X線CT装置20aを用いる場合について説明する。
The
治療システム1のコンソール10は、図9に示すように、コンピュータをベースとして構成されており、図示しない病院基幹のLAN(local area network)等のネットワークと相互通信可能である。コンソール10は、大きくは、CPU11、メインメモリ12、画像メモリ13、HDD(hard disc drive)14、入力装置15、表示装置16、及び追跡装置100等の基本的なハードウェアから構成される。表示装置16は、上述の警告装置を兼ねる。CPU11は、共通信号伝送路としてのバスを介して、コンソール10を構成する各ハードウェア構成要素に相互接続されている。なお、コンソール10は、記録媒体ドライブを具備してもよい。
As shown in FIG. 9, the
CPU11は、半導体で構成された電子回路が複数の端子を持つパッケージに封入されている集積回路(LSI)の構成をもつ制御装置である。医師等の操作者によって入力装置15が操作等されることにより指令が入力されると、CPU11は、メインメモリ12に記憶しているプログラムを実行する。又は、CPU11は、HDD14に記憶しているプログラム、ネットワークから転送されてHDD14にインストールされたプログラム、又は記録媒体ドライブ(図示しない)に装着された記録媒体から読み出されてHDD14にインストールされたプログラムを、メインメモリ12にロードして実行する。
The
メインメモリ12は、ROM(read only memory)及びRAM(random access memory)等の要素を兼ね備える構成をもつ記憶装置である。メインメモリ12は、IPL(initial program loading)、BIOS(basic input/output system)及びデータを記憶したり、CPU11のワークメモリやデータの一時的な記憶に用いられたりする。
The
画像メモリ13は、透視画像、2次元画像データとしてのスライスデータや、3次元画像データとしての治療計画ボリュームデータ及び治療直前ボリュームデータを記憶する記憶装置である。 The image memory 13 is a storage device that stores fluoroscopic images, slice data as two-dimensional image data, treatment plan volume data as three-dimensional image data, and volume data just before treatment.
HDD14は、磁性体を塗布又は蒸着した金属のディスクが着脱不能で内蔵されている構成をもつ記憶装置である。HDD14は、コンソール10にインストールされたプログラム(アプリケーションプログラムの他、OS(operating system)等も含まれる)や、データを記憶する記憶装置である。また、OSに、術者等の操作者に対する表示装置16への情報の表示にグラフィックを多用し、基礎的な操作を入力装置15によって行なうことができるGUI(graphical user interface)を提供させることもできる。
The HDD 14 is a storage device having a configuration in which a metal disk coated or vapor-deposited with a magnetic material is incorporated in a non-detachable manner. The HDD 14 is a storage device that stores programs installed in the console 10 (including application programs as well as an OS (operating system)) and data. Also, it is possible to cause the OS to provide a GUI (graphical user interface) that allows a basic operation to be performed by the input device 15 by using a lot of graphics for displaying information on the
入力装置15は、操作者によって操作が可能なポインティングデバイスであり、操作に従った入力信号がCPU11に送られる。
The input device 15 is a pointing device that can be operated by an operator, and an input signal according to the operation is sent to the
表示装置16は、図示しない画像合成回路、VRAM(video random access memory)、及びディスプレイ等を含んでいる。画像合成回路は、画像データに種々のパラメータの文字データ等を合成した合成データを生成する。VRAMは、合成データを、ディスプレイに表示する表示画像データとして展開する。ディスプレイは、液晶ディスプレイやCRT(cathode ray tube)等によって構成され、表示画像データを表示画像として順次表示する。
The
コンソール10は、X線CT装置20a、寝台装置30、及び放射線治療装置50の動作を制御する。また、コンソール10は、X線CT装置20aのDAS24から入力された生データに対して対数変換処理や、感度補正等の補正処理(前処理)を行なって投影データを生成し、投影データを基に2次元画像データとしてのスライスデータや3次元画像データとしてのボリュームデータを生成する。
The
治療システム1のX線CT装置20aは、被検体111の患部等の治療部位を含む領域の画像データを表示するために、治療部位を含む領域を撮像する。X線CT装置20aは、放射線源としてのX線管21、絞り22、X線検出器23、DAS(data acquisition system)24、回転部25、高電圧供給装置26、絞り駆動装置27、回転駆動装置28、及び撮像コントローラ29を設ける。
The
X線管21は、高電圧供給装置26から供給された管電圧に応じて金属製のターゲットに電子線を衝突させることで制動X線を発生させ、X線をX線検出器23に向かって照射する。X線管21から照射されるX線によって、ファンビームX線やコーンビームX線が形成される。
The
絞り22は、絞り駆動装置27によって、X線管21から照射されるX線の照射範囲を調整する。すなわち、絞り駆動装置27によって絞り22の開口を調整することによって、X線照射範囲を変更できる。
The
X線検出器23は、マトリクス状、すなわち、チャンネル方向に複数チャンネル、スライス方向に複数列のX線検出素子を有する2次元アレイ型のX線検出器(マルチスライス型検知器ともいう。)である。X線検出器23のX線検出素子は、X線管21から照射されたX線を検出する。
The
DAS24は、X線検出器23の各X線検出素子が検出する透過データの信号を増幅してデジタル信号に変換する。DAS24の出力データは、撮像コントローラ29を介してコンソール10に供給される。
The
回転部25は、X線管21、絞り22、X線検出器23、及びDAS24を一体として保持する。回転部25は、X線管21とX線検出器23とを対向させた状態で、X線管21、絞り22、X線検出器23、及びDAS24を一体として被検体111の周りに回転できるように構成されている。なお、回転部25の回転中心軸と平行な方向をz軸方向、そのz軸方向に直交する平面をx軸方向、y軸方向で定義する。
The rotating
高電圧供給装置26は、撮像コントローラ29による制御によって、X線の照射に必要な電力をX線管21に供給する。
The high
絞り駆動装置27は、撮像コントローラ29による制御によって、絞り22におけるX線のスライス方向の照射範囲を調整する機構を有する。
The
回転駆動装置28は、撮像コントローラ29による制御によって、回転部25がその位置関係を維持した状態で空洞部の周りを回転するように回転部25を回転させる機構を有する。
The
撮像コントローラ29は、CPU及びメモリによって構成される。撮像コントローラ29は、X線管21、X線検出器23、DAS24、高電圧供給装置26、絞り駆動装置27、及び回転駆動装置28等の制御を行なうことで、寝台装置30の動作を伴ってスキャンを実行させる。
The
治療システム1の寝台装置30は、天板31、天板駆動装置32、及び寝台コントローラ39を備える。
The
天板31は、被検体111を載置可能である。天板駆動装置32は、寝台コントローラ39による制御によって、天板31をy軸方向に沿って昇降動させる機構と、天板31をz軸方向に沿って進退動させる機構と、天板31をy軸方向を軸として回転させる機構とを有する。
The
寝台コントローラ39は、CPU及びメモリによって構成される。寝台コントローラ39は、天板駆動装置32等の制御を行なうことで、X線CT装置20aの動作を伴ってスキャンを実行させる。また、寝台コントローラ39は、天板駆動装置32等の制御を行なうことで、放射線治療装置50の動作を伴って放射線治療を実行させる。
The
治療システム1の治療計画装置40は、X線CT装置20aを用いて撮像されてコンソール10によって生成されたスライスデータ及びボリュームデータを基に、放射線治療装置50によって放射線治療を行なうための治療計画データを生成する。治療計画装置40によって生成された治療計画データに基づくコンソール10の制御の下、放射線治療装置50によって被検体111の診療部位に治療ビームが照射される。治療計画装置40は、コンピュータをベースとして構成されており、図示しない病院基幹のLAN等のネットワークと相互通信可能である。治療計画装置40は、大きくは、CPU41、メインメモリ42、治療計画メモリ43、HDD44、入力装置45、及び表示装置46等の基本的なハードウェアから構成される。CPU41は、共通信号伝送路としてのバスを介して、治療計画装置40を構成する各ハードウェア構成要素に相互接続されている。なお、治療計画装置40は、記録媒体ドライブを具備してもよい。
The
CPU41の構成は、コンソール10のCPU11の構成と同等である。操作者によって入力装置45が操作等されることにより指令が入力されると、CPU41は、メインメモリ42に記憶しているプログラムを実行する。又は、CPU41は、HDD44に記憶しているプログラム、ネットワークから転送されてHDD44にインストールされたプログラム、又は記録媒体ドライブ(図示しない)に装着された記録媒体から読み出されてHDD44にインストールされたプログラムを、メインメモリ42にロードして実行する。
The configuration of the
メインメモリ42の構成は、コンソール10のメインメモリ12の構成と同等である。メインメモリ42は、IPL、BIOS及びデータを記憶したり、CPU41のワークメモリやデータの一時的な記憶に用いられたりする。
The configuration of the main memory 42 is the same as the configuration of the
治療計画メモリ43は、治療計画データを記憶する記憶装置である。HDD44の構成は、コンソール10のHDD14の構成と同等である。入力装置45は、コンソール10の入力装置15の構成と同等である。表示装置46は、コンソール10の表示装置16の構成と同等である。
The
治療計画装置40は、X線CT装置20aによって生成された画像データを基に、被検体111の治療部位の位置及び治療部位の形状を求め、治療部位に照射すべき治療ビーム(X線、電子線、中性子線、陽子線、又は重粒子線等)や、そのエネルギー、及び照射野を決定する。
The
治療システム1の放射線治療装置50は、一般的にMV級の放射線を発生させることができる。放射線治療装置50は、放射線の発生口部分に絞り(コリメータ)を設置し、絞りによって治療計画に基づく照射形状及び線量分布を実現する。近年は、絞りとして複数の可動リーフにより複雑な腫瘍の形状に対応した線量分布を形成することができるマルチリーフコリメータ(MLC)が多く用いられる。放射線治療装置50は、絞りによって形成される照射野により放射線の照射量を調整し、被検体111の治療部位を消滅又は縮小させる。
The
放射線治療装置50は、放射線源としての放射線源51、絞り52、アーム部55、高電圧供給装置56、絞り駆動装置57、回転駆動装置58、及び治療コントローラ59を備える。
The
放射線源51は、高電圧供給装置56から供給された管電圧に応じて放射線を発生させる。
The
絞り52は、絞り駆動装置57によって、放射線源51から照射される放射線の照射範囲を調整する。すなわち、絞り駆動装置57によって絞り52の開口を調整することによって、放射線の照射範囲を変更できる。
The
アーム部55は、放射線源51及び絞り52を一体として保持する。アーム部55は、放射線源51及び絞り52を一体として被検体111の周りに回転できるように構成されている。
The
高電圧供給装置56は、治療コントローラ59による制御によって、放射線の照射に必要な電力を放射線源51に供給する。
The high
絞り駆動装置57は、治療コントローラ59による制御によって、絞り52における放射線の照射範囲を調整する機構を有する。
The diaphragm driving device 57 has a mechanism for adjusting the radiation range of the
回転駆動装置58は、治療コントローラ59による制御によって、アーム部55と支持部との接続部を中心として回転するようにアーム部55を回転させる機構を有する。
The
治療コントローラ59は、CPU及びメモリによって構成される。治療コントローラ59は、治療計画装置40によって生成される治療計画データに従って放射線源51、高電圧供給装置56、及び絞り駆動装置57等の制御を行なうことで、寝台装置30の動作を伴って治療のための放射線の照射を実行させる。
The
以上説明したとおり、本実施形態及び各変形例によれば、透視用の放射線による被曝量を低減させることができる。 As described above, according to the present embodiment and each modification, it is possible to reduce the exposure dose due to fluoroscopic radiation.
なお本発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。 Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the constituent elements over different embodiments may be appropriately combined.
例えば、上記実施形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。 For example, as long as each step in the flowchart of the above embodiment is not contrary to its nature, the execution order may be changed, a plurality of steps may be performed simultaneously, or may be performed in a different order for each execution.
1 治療システム
100 追跡装置
101 メモリ
102 算出部
103 検出部
104 管理部
110 寝台
112、113 第1照射部
116、117 放射線検出部
123 制御部
120 第2照射部
DESCRIPTION OF SYMBOLS 1
Claims (11)
前記注目画素それぞれの前記尤度に基づいて、前記被検体の内部のオブジェクトの位置を検出する検出部と、
を備え、
前記注目画素の周辺にある第1領域に含まれる2以上の第1画素の画素値の差を示す第1の差に対する、前記2以上の第1画素の画素値と前記第1領域に含まれない1以上の第2画素の画素値との差を示す第2の差が大きい場合の前記尤度は、前記第1の差に対する前記第2の差が小さい場合の前記尤度よりも大きい、
画像処理装置。 A calculation unit that calculates the likelihood for each pixel of interest included in the fluoroscopic image seen through the inside of the subject;
A detection unit that detects a position of an object inside the subject based on the likelihood of each of the target pixels;
With
The pixel values of the two or more first pixels are included in the first region with respect to the first difference indicating the difference between the pixel values of the two or more first pixels included in the first region around the pixel of interest. The likelihood when the second difference indicating a difference from the pixel value of one or more second pixels that is not greater is larger than the likelihood when the second difference with respect to the first difference is small,
Image processing device.
請求項1に記載の画像処理装置。 The first region is a shape that depends on the shape of the object.
The image processing apparatus according to claim 1.
請求項1または2に記載の画像処理装置。 The calculation unit acquires area information indicating a third area where the object image is expected to exist in the perspective image, and calculates the likelihood for each target pixel in the third area indicated by the area information. calculate,
The image processing apparatus according to claim 1.
請求項1または2に記載の画像処理装置。 The calculation unit predicts a fourth region where the object image is expected to exist in the fluoroscopic image based on a predetermined motion model, and calculates the likelihood for each target pixel in the fourth region. ,
The image processing apparatus according to claim 1.
前記算出部により最初に前記尤度の算出が行われる注目画素での前記尤度の算出に必要な全ての画素が前記記憶部に書き込まれるタイミングを管理する管理部と、を更に備え、
前記算出部は、前記タイミングの経過後に、前記注目画素毎の前記尤度の算出を開始する、
請求項1〜4のいずれか1項に記載の画像処理装置。 A storage unit in which the pixels constituting the fluoroscopic image are written in a predetermined order;
A management unit that manages the timing at which all the pixels necessary for the calculation of the likelihood in the target pixel for which the calculation of the likelihood is first performed by the calculation unit are written in the storage unit;
The calculation unit starts calculating the likelihood for each pixel of interest after the timing has elapsed.
The image processing apparatus of any one of Claims 1-4.
前記算出部は、前記被検体の内部を異なる方向で透視した複数の透視画像それぞれの前記注目画素毎に前記尤度を算出し、
前記検出部は、前記透視画像毎に前記複数のオブジェクトの像それぞれの存在が期待される第3領域を示す領域情報及び3次元座標を当該透視画像に射影する射影行列を取得し、前記透視画像毎に値の大きさが所定条件を満たす尤度の注目画素を複数検出し、前記透視画像毎に当該透視画像の前記領域情報を用いて当該透視画像から検出した前記複数の注目画素それぞれがいずれの第3領域に存在するかを検出して、前記複数の透視画像それぞれで検出された前記複数の注目画素を前記複数の透視画像間で対応付け、前記複数の透視画像それぞれの前記射影行列、前記複数の透視画像それぞれから検出され、前記複数の透視画像間で対応付けられた前記複数の注目画素を用いて、前記複数のオブジェクトの3次元位置を検出する、
請求項1または2に記載の画像処理装置。 A plurality of the objects exist inside the subject,
The calculation unit calculates the likelihood for each pixel of interest of each of a plurality of fluoroscopic images obtained by seeing through the inside of the subject in different directions,
The detection unit acquires region information indicating a third region in which each of the plurality of object images is expected to exist for each perspective image and a projection matrix that projects a three-dimensional coordinate onto the perspective image, and the perspective image A plurality of target pixels having a likelihood that a value satisfies a predetermined condition is detected for each of the plurality of target pixels detected from the fluoroscopic image using the region information of the fluoroscopic image for each of the fluoroscopic images. The plurality of pixels of interest detected in each of the plurality of fluoroscopic images, the projection matrix of each of the plurality of fluoroscopic images, Detecting a three-dimensional position of the plurality of objects using the plurality of pixels of interest detected from each of the plurality of perspective images and associated between the plurality of perspective images;
The image processing apparatus according to claim 1.
前記算出部は、前記被検体の内部を異なる方向で透視した複数の透視画像それぞれの前記注目画素毎に前記尤度を算出し、
前記検出部は、前記透視画像毎に3次元座標を当該透視画像に射影する射影行列を取得し、前記透視画像毎に値の大きさが所定条件を満たす尤度の注目画素を複数検出し、前記複数の透視画像それぞれの前記射影行列を用いたエピポーラ幾何によって前記複数の透視画像それぞれで検出された前記複数の注目画素を前記複数の透視画像間で対応付け、前記複数の透視画像それぞれの前記射影行列、前記複数の透視画像それぞれから検出され、前記複数の透視画像間で対応付けられた前記複数の注目画素を用いて、前記複数のオブジェクトの3次元位置を検出する、
請求項1または2に記載の画像処理装置。 A plurality of the objects exist inside the subject,
The calculation unit calculates the likelihood for each pixel of interest of each of a plurality of fluoroscopic images obtained by seeing through the inside of the subject in different directions,
The detection unit obtains a projection matrix for projecting three-dimensional coordinates to the fluoroscopic image for each fluoroscopic image, and detects a plurality of target pixels having a likelihood that the magnitude of a value satisfies a predetermined condition for each fluoroscopic image, The plurality of pixels of interest that are detected in each of the plurality of fluoroscopic images are associated with each other by the epipolar geometry using the projection matrix of each of the plurality of fluoroscopic images, and each of the plurality of fluoroscopic images is associated with each other. A projection matrix, detected from each of the plurality of perspective images, and using the plurality of pixels of interest associated with the plurality of perspective images to detect a three-dimensional position of the plurality of objects;
The image processing apparatus according to claim 1.
請求項1または2に記載の画像処理装置。 The calculation unit obtains object information relating to the shape and size of the object and a projection matrix that projects three-dimensional coordinates onto the perspective image, and uses the object information and the projection matrix to reflect the object in the perspective image. Calculating the shape and size of the image of the object, and setting the first region with the shape and size of the image;
The image processing apparatus according to claim 1.
前記被検体を透過した前記放射線を検出し、前記被検体の内部を透視した透視画像を生成する第1検出部と、
前記透視画像に含まれる注目画素毎に尤度を算出する算出部と、
前記注目画素それぞれの前記尤度に基づいて、前記被検体の内部のオブジェクトの位置を検出する第2検出部と、
検出された前記位置に基づいて、前記オブジェクトに治療ビームを照射する第2照射部と、
を備え、
前記注目画素の周辺にある第1領域に含まれる2以上の第1画素の画素値の差を示す第1の差に対する、前記2以上の第1画素の画素値と前記第1領域に含まれない1以上の第2画素の画素値との差を示す第2の差が大きい場合の前記尤度は、前記第1の差に対する前記第2の差が小さい場合の前記尤度よりも大きい、
治療システム。 A first irradiation unit for irradiating a subject with radiation;
A first detection unit that detects the radiation that has passed through the subject and generates a fluoroscopic image of the inside of the subject;
A calculation unit that calculates a likelihood for each target pixel included in the fluoroscopic image;
A second detection unit for detecting a position of an object inside the subject based on the likelihood of each of the target pixels;
A second irradiation unit configured to irradiate the object with a treatment beam based on the detected position;
With
The pixel values of the two or more first pixels are included in the first region with respect to the first difference indicating the difference between the pixel values of the two or more first pixels included in the first region around the pixel of interest. The likelihood when the second difference indicating a difference from the pixel value of one or more second pixels that is not greater is larger than the likelihood when the second difference with respect to the first difference is small,
Treatment system.
前記算出部は、所定運動モデルに基づいて、前記透視画像において前記複数のオブジェクトの像それぞれの存在が期待される第4領域を予測し、前記複数の第4領域それぞれにおいて、前記注目画素毎に前記尤度を算出し、
前記第2検出部は、前記像毎に、当該像が前記所定運動モデルに基づいて移動する位置に近いほど値が大きくなる事前確率を当該像の存在が期待される前記第4領域に設定し、前記第4領域毎に、前記注目画素それぞれの前記尤度と前記事前確率とに基づいて、前記オブジェクトの位置を検出し、前記複数の像同士の距離が閾値以下の場合、前記複数の像同士の距離が前記閾値を超えるように前記透視画像が生成される前記第1照射部及び前記第1検出部の少なくともいずれかの位置情報を算出し、
前記位置情報に基づいて、前記第1照射部及び前記第1検出部の少なくともいずれかの位置を制御する制御部を更に備える請求項9に記載の治療システム。 A plurality of the objects exist inside the subject,
The calculation unit predicts a fourth area where each of the plurality of object images is expected to be present in the fluoroscopic image based on a predetermined motion model, and for each of the target pixels in each of the plurality of fourth areas. Calculating the likelihood,
The second detection unit sets, for each image, a prior probability that the value increases as the image moves closer to the position based on the predetermined motion model in the fourth region where the image is expected to exist. For each of the fourth regions, the position of the object is detected based on the likelihood and the prior probability of each of the target pixels, and when the distance between the plurality of images is equal to or less than a threshold, Calculating position information of at least one of the first irradiating unit and the first detecting unit in which the fluoroscopic image is generated such that the distance between images exceeds the threshold;
The treatment system according to claim 9, further comprising a control unit that controls a position of at least one of the first irradiation unit and the first detection unit based on the position information.
前記注目画素それぞれの前記尤度に基づいて、前記被検体の内部のオブジェクトの位置を検出する検出ステップと、
を含み、
前記注目画素の周辺にある第1領域に含まれる2以上の第1画素の画素値の差を示す第1の差に対する、前記2以上の第1画素の画素値と前記第1領域に含まれない1以上の第2画素の画素値との差を示す第2の差が大きい場合の前記尤度は、前記第1の差に対する前記第2の差が小さい場合の前記尤度よりも大きい、
画像処理方法。 A calculation step for calculating the likelihood for each target pixel included in the fluoroscopic image seen through the inside of the subject;
A detection step of detecting a position of an object inside the subject based on the likelihood of each of the target pixels;
Including
The pixel values of the two or more first pixels are included in the first region with respect to the first difference indicating the difference between the pixel values of the two or more first pixels included in the first region around the pixel of interest. The likelihood when the second difference indicating a difference from the pixel value of one or more second pixels that is not greater is larger than the likelihood when the second difference with respect to the first difference is small,
Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017085183A JP6310118B2 (en) | 2017-04-24 | 2017-04-24 | Image processing apparatus, treatment system, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017085183A JP6310118B2 (en) | 2017-04-24 | 2017-04-24 | Image processing apparatus, treatment system, and image processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013204583A Division JP6139361B2 (en) | 2013-09-30 | 2013-09-30 | Medical image processing apparatus, treatment system, and medical image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017124300A JP2017124300A (en) | 2017-07-20 |
JP6310118B2 true JP6310118B2 (en) | 2018-04-11 |
Family
ID=59365055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017085183A Active JP6310118B2 (en) | 2017-04-24 | 2017-04-24 | Image processing apparatus, treatment system, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6310118B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7093075B2 (en) * | 2018-04-09 | 2022-06-29 | 東芝エネルギーシステムズ株式会社 | Medical image processing equipment, medical image processing methods, and programs |
JP7067373B2 (en) * | 2018-08-29 | 2022-05-16 | 沖電気工業株式会社 | Signal tracking device, signal tracking system, signal tracking method and program |
JP7103255B2 (en) * | 2019-02-12 | 2022-07-20 | 株式会社島津製作所 | Motion tracking device and motion tracking method |
JP7252847B2 (en) * | 2019-07-08 | 2023-04-05 | 株式会社日立製作所 | Motion tracking device, radiotherapy system, and method of operating motion tracking device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009175845A (en) * | 2008-01-22 | 2009-08-06 | Fuji Xerox Co Ltd | Image processor, pen device, and program |
JP5916434B2 (en) * | 2012-02-28 | 2016-05-11 | 三菱重工業株式会社 | Treatment planning apparatus, treatment planning method and program thereof |
US8873821B2 (en) * | 2012-03-20 | 2014-10-28 | Paul Reed Smith Guitars Limited Partnership | Scoring and adjusting pixels based on neighborhood relationships for revealing data in images |
-
2017
- 2017-04-24 JP JP2017085183A patent/JP6310118B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017124300A (en) | 2017-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6139361B2 (en) | Medical image processing apparatus, treatment system, and medical image processing method | |
KR102175394B1 (en) | Medical apparatus, and method for controlling medical apparatus | |
US10130316B2 (en) | X-ray CT apparatus and display method for CT image | |
JP7116944B2 (en) | MEDICAL DEVICE, METHOD OF CONTROLLING MEDICAL DEVICE, AND PROGRAM | |
JP6310118B2 (en) | Image processing apparatus, treatment system, and image processing method | |
US8965096B2 (en) | Radiation therapy device controller, processing method and program for same | |
JP2008000456A (en) | Radiation therapy equipment controller and radiation irradiation method | |
JP2012196260A (en) | Control device for radiation therapy device, processing method and program for the same | |
WO2012008542A1 (en) | Radiation treatment system and control method therefor | |
JP2010183976A (en) | Radiotherapy apparatus controller and irradiation method | |
JP2016198262A (en) | X-ray diagnostic apparatus | |
JP5010740B2 (en) | Radiotherapy apparatus control method and radiotherapy apparatus control apparatus | |
US20220054862A1 (en) | Medical image processing device, storage medium, medical device, and treatment system | |
US20170296843A1 (en) | Processing device for a radiation therapy system | |
JP2014136054A (en) | Radiotherapy system | |
JP2012010759A (en) | Interference determination device | |
JP5238296B2 (en) | X-ray apparatus and rotational imaging method | |
WO2023176264A1 (en) | Medical image processing device, treatment system, medical image processing method, and program | |
US20230347180A1 (en) | Medical image processing device, medical image processing method, medical image processing program, and radiation therapy device | |
WO2023153031A1 (en) | Medical image processing device, treatment system, medical image processing method, program, and recording medium | |
WO2023176257A1 (en) | Medical image processing device, treatment system, medical image processing method, and program | |
US20210378615A1 (en) | Control apparatus, radiography system, control processing method, and control processing program | |
JP6996881B2 (en) | X-ray CT device | |
CN116018181A (en) | System and method for dynamic multi-leaf collimator tracking | |
JP2020182640A (en) | X-ray diagnostic apparatus and medical information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170424 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180315 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6310118 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |