JP6305250B2 - Image processing apparatus, treatment system, and image processing method - Google Patents
Image processing apparatus, treatment system, and image processing method Download PDFInfo
- Publication number
- JP6305250B2 JP6305250B2 JP2014140601A JP2014140601A JP6305250B2 JP 6305250 B2 JP6305250 B2 JP 6305250B2 JP 2014140601 A JP2014140601 A JP 2014140601A JP 2014140601 A JP2014140601 A JP 2014140601A JP 6305250 B2 JP6305250 B2 JP 6305250B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- point
- fluoroscopic
- displacement amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 82
- 238000011282 treatment Methods 0.000 title claims description 51
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000006073 displacement reaction Methods 0.000 claims description 91
- 238000003384 imaging method Methods 0.000 claims description 76
- 238000001514 detection method Methods 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 19
- 238000009499 grossing Methods 0.000 claims description 7
- 230000001678 irradiating effect Effects 0.000 claims description 2
- 230000005855 radiation Effects 0.000 description 28
- 239000013598 vector Substances 0.000 description 15
- 238000012937 correction Methods 0.000 description 14
- 239000011159 matrix material Substances 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 239000002245 particle Substances 0.000 description 9
- 238000013519 translation Methods 0.000 description 8
- 210000001519 tissue Anatomy 0.000 description 7
- 238000002560 therapeutic procedure Methods 0.000 description 6
- 210000000988 bone and bone Anatomy 0.000 description 5
- 238000002591 computed tomography Methods 0.000 description 5
- 230000003902 lesion Effects 0.000 description 5
- 238000001959 radiotherapy Methods 0.000 description 4
- 239000000126 substance Substances 0.000 description 4
- 230000010365 information processing Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000002600 positron emission tomography Methods 0.000 description 2
- 241000228740 Procrustes Species 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
Images
Landscapes
- Radiation-Therapy Devices (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Description
本発明の実施形態は、画像処理装置、治療システム及び画像処理方法に関する。 Embodiments described herein relate generally to an image processing apparatus, a treatment system, and an image processing method.
放射線治療や重粒子線治療などは、病巣に対して放射線や重粒子線を照射することで、病巣を破壊する治療法である。放射線治療や重粒子線治療を行う際には、病巣に対して正確に放射線や重粒子線を照射しないと治療の効果を得ることが難しい。そのため、治療の対象(例えば、被検体)をCT(Computed Tomography)撮影し、病巣の位置を3次元的に把握する。医師や技師は、把握した病巣の3次元位置に基づいて、放射線や重粒子線を照射する角度や照射強度などを含む治療計画を定める。実際に治療が行われる際には、治療時の被検体の位置と治療計画を定めたときの被検体の位置とを一致させる位置決めが行われる。治療は治療計画に基づいて複数回行われるので、位置決めがその度行われる。位置決めを開始してから治療が終わるまでの間、被検体は姿勢を保つ必要があるため、位置決めは短時間で行われることが望ましい。しかし、位置決めには精度も求められるため、位置決めを短時間で行うことが困難である場合があった。 Radiotherapy, heavy particle beam therapy, and the like are treatments that destroy a lesion by irradiating the lesion with radiation or a heavy particle beam. When performing radiotherapy or heavy particle beam therapy, it is difficult to obtain a therapeutic effect unless the lesion is accurately irradiated with radiation or heavy particle beam. Therefore, CT (Computed Tomography) imaging of a treatment target (for example, a subject) is performed, and the position of the lesion is grasped three-dimensionally. The doctor or engineer determines a treatment plan including an angle at which radiation or heavy particle beam is irradiated, irradiation intensity, and the like based on the grasped three-dimensional position of the lesion. When treatment is actually performed, positioning is performed so that the position of the subject at the time of treatment matches the position of the subject when the treatment plan is determined. Since the treatment is performed a plurality of times based on the treatment plan, positioning is performed each time. Since it is necessary to maintain the posture of the subject from the start of the positioning to the end of the treatment, the positioning is preferably performed in a short time. However, since accuracy is also required for positioning, it may be difficult to perform positioning in a short time.
本発明が解決しようとする課題は、位置決めの精度を向上し位置決めに要する時間を短縮することができる画像処理装置、治療システム及び画像処理方法を提供することである。 The problem to be solved by the present invention is to provide an image processing device, a treatment system, and an image processing method capable of improving the positioning accuracy and reducing the time required for positioning.
実施形態の画像処理装置は、画像取得部と再構成部と点取得部と点検出部と算出部と判定部とをもつ。画像取得部は、互いに異なる少なくとも2つの方向から対象を撮影した複数の第1の透視画像を取得する。再構成部は、互いに異なる少なくとも2つの方向から対象を撮影した際に得られる複数の第2の透視画像を予め取得された対象のボリュームデータから再構成する。点取得部は、第1の透視画像又は第2の透視画像における複数の設定点を取得する。点検出部は、設定点が第1の透視画像における点である場合、当該設定点に対応する対応点を第2の透視画像において検出し、設定点が第2の透視画像における点である場合、当該設定点に対応する対応点を第1の透視画像において検出する。算出部は、設定点と対応点とに基づいて、第1の透視画像を撮影した際の対象の位置に対する第2の透視画像を生成した際の対象の位置の変位量を算出する。判定部は、変位量が所定の条件を満たしているか否かを判定する。変位量が所定の条件を満たしていない場合、再構成部は変位量に基づいて移動させたボリュームデータから複数の第2の透視画像を再び再構成し、点検出部は再構成部が再構成した第2の透視画像と第1の透視画像とにおいて対応点を検出し、算出部は新たに検出された対応点と設定点とに基づいて変位量を再び度算出する。 The image processing apparatus according to the embodiment includes an image acquisition unit, a reconstruction unit, a point acquisition unit, a point detection unit, a calculation unit, and a determination unit. The image acquisition unit acquires a plurality of first fluoroscopic images obtained by photographing the target from at least two directions different from each other. The reconstruction unit reconstructs a plurality of second fluoroscopic images obtained when the object is photographed from at least two different directions from the volume data of the object acquired in advance. The point acquisition unit acquires a plurality of set points in the first perspective image or the second perspective image. When the set point is a point in the first perspective image, the point detection unit detects a corresponding point corresponding to the set point in the second perspective image, and the set point is a point in the second perspective image The corresponding point corresponding to the set point is detected in the first perspective image. The calculation unit calculates a displacement amount of the target position when the second perspective image is generated with respect to the target position when the first perspective image is captured based on the set point and the corresponding point. The determination unit determines whether the displacement amount satisfies a predetermined condition. When the displacement amount does not satisfy the predetermined condition, the reconstruction unit reconstructs a plurality of second fluoroscopic images from the volume data moved based on the displacement amount, and the reconstruction unit reconstructs the point detection unit. Corresponding points are detected in the second fluoroscopic image and the first fluoroscopic image, and the calculation unit calculates the displacement amount again based on the newly detected corresponding point and the set point.
以下、実施形態の画像処理装置、治療システム及び画像処理方法を、図面を参照して説明する。なお、以下の実施形態では、同一の参照符号を付した部分は同様の動作をおこなうものとして、重複する説明を適宜省略する。 Hereinafter, an image processing apparatus, a treatment system, and an image processing method according to embodiments will be described with reference to the drawings. Note that, in the following embodiments, the same reference numerals are assigned to the same operations, and duplicate descriptions are omitted as appropriate.
(第1の実施形態)
図1は、第1の実施形態における治療システム10の構成を示すブロック図である。治療システム10は、画像処理装置100、入出力装置200及び撮像装置400を備える。治療システム10は、計画装置300、治療装置500及び寝台装置600を更に備えてもよい。治療システム10では、計画装置300を用いて設定された治療計画に基づいて、技師や医師などのユーザが入出力装置200、撮像装置400、治療装置500及び寝台装置600を操作して対象Aに対する治療を行う。ユーザは、画像処理装置100が生成した再構成画像と、撮像装置400が撮影した透視画像とに基づいて、入出力装置200を操作する。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a
計画装置300は、放射線治療、陽子線治療又は粒子線治療などが施される対象Aに対する治療計画を定める装置である。計画装置300は、対象Aの内部形態を撮影した画像などの情報と、技師や医師などのユーザによる操作入力とに基づいて治療計画を定める。計画装置300において用いられる画像は、対象Aの内部を透視して撮影することが可能な撮像装置により撮影された画像である。このような撮像装置としては、例えばX線装置、コンピュータ・トモグラフィー(CT:Computed Tomography)装置、磁気共鳴画像(MRI:Magnetic Resonance Imaging)装置、PET(Positron Emission Tomography)装置、SPECT(Single Photon Emission Computed Tomography)装置などがある。また、計画装置300において用いられる画像は、2次元画像と3次元画像とのいずれでもよい。本実施形態では、X線CT装置によって収集されたボリュームデータに基づく画像が治療計画を定める際に用いられる場合について説明する。
The
計画装置300は、データベース部310、表示部320、操作部330及び制御部340を備える。データベース部310には、対象Aを撮影して得られたデータが記憶されている。データベース部310に記憶されるデータは、対象Aを撮影して得られたボクセルデータそのものであってもよいし、撮影して得られたデータに対して、対数変換、オフセット補正、感度補正、ビームハードニング補正、散乱線補正等の補正処理を施したデータからなるボクセルデータであってもよい。また、データベース部310には、ボクセルデータに加えて、ボクセルデータから再構成された2次元画像が記憶されていてもよい。本実施形態では、データベース部310にボクセルデータがボリュームデータとして記憶されている場合について説明する。
The
表示部320は、制御部340による制御に基づいて、再構成画像を表示する。再構成画像はデータベース部310に記憶されているボクセルデータを再構成することにより得られる。本実施形態では、所定方向から対象Aを透視した場合に得られる画像をシミュレーションした画像(DRR:Digitally Reconstructed Radiograph)を再構成画像として用いる場合について説明する。表示部320が表示する再構成画像は、撮像装置400が撮影する画像の種類と対応していることが好ましい。例えば撮像装置400がX線装置である場合、表示部320に用事される再構成画像は、X線装置で撮影した画像をシミュレーションしたDDR画像であることが好ましい。
The
操作部330は、ユーザによる操作入力を受け付け、受け付けた操作入力に応じた情報を制御部340に送る。制御部340は、操作部330から受けた情報に基づいて、計画装置300が備える各部の動作を制御する。制御部340は、例えば中央処理装置(CPU:Central Processing Unit)を有する情報処理装置であり、特定のプログラムに基づいて制御動作を行う。制御部340は、再構成画像や操作入力に応じた情報に基づいて、治療が施される対象Aの部位を示す情報をデータベース部310に記憶させる。
The
撮像装置400は、X線装置などであり、治療時における対象Aの内部を透視して撮影する装置である。本実施形態では、撮像装置400がX線装置である場合について説明する。撮像装置400は、制御部410、第1線源部420、第2線源部430、第1撮像部440及び第2撮像部450を備える。
The
第1撮像部440は、第1線源部420から放出されたX線であって対象Aを透過したX線に基づいて、対象Aを透視した透視画像を生成する。第1撮像部440は、フラット・パネル・ディテクタ(FPD:Flat Panel Detector)を有している。FPDは、対象Aを透過したX線を受けてデジタル信号に変換する。第1撮像部440は、FPDにより得られたデジタル信号に基づいて、透視画像を生成する。
The
第2撮像部450は、第2線源部430から放出されたX線であって対象Aを透過したX線に基づいて、対象Aを透視した透視画像を生成する。第2撮像部450は、第1撮像部440と同様にFPDを有している。第2撮像部450は、FPDにより得られたデジタル信号に基づいて、透視画像を生成する。
The
なお、第1撮像部440が対象Aを透視する方向と第2撮像部450が対象Aを透視する方向とは異なっている。例えば、第1撮像部440のFPDの撮像面と第2撮像部450のFPDの撮像面とが直交するように、第1線源部420、第2線源部430、第1撮像部440及び第2撮像部450は配置されている。なお、第1撮像部440及び第2撮像部450は、FPDに代えてイメージ・インテンシファイア(I.I.:Image Intensifier)を有していてもよい。
Note that the direction in which the
制御部410は、撮像装置400が備える各部を制御する。制御部410は、例えば中央処理装置(CPU)を有する情報処理装置であり、特定のブログラムに基づいて制御動作を行う。制御部410は、第1撮像部440及び第2撮像部450が生成した対象Aの一対の透視画像を画像処理装置100に送る。
The
画像処理装置100は、対象Aの透視画像を撮影した際の撮影パラメータを撮像装置400から取得する。また、画像処理装置100は、治療計画を定めた際に用いられたボリュームデータを計画装置300のデータベース部310から読み出す。画像処理装置100は、撮影パラメータに基づいて、撮像装置400が対象Aの透視画像を撮影した視点と同じ視点からの再構成画像をボリュームデータから生成する。
The
画像処理装置100は、透視画像又は再構成画像においてユーザが定めた対象Aの任意の部位を示す設定点の組を入出力装置200から取得する。設定点は、入出力装置200に表示される透視画像及び再構成画像に基づいて、ユーザが入出力装置200を操作して定められる。画像処理装置100は、透視画像上に設定点が定められた場合、再構成画像上において設定点に対応する対応点を検出する。また、画像処理装置100は、再構成画像上に設定点が定められた場合、透視画像上において設定点に対応する対応点を検出する。
The
ここで、対応点とは、設定点を中心とした所定のサイズの矩形領域における画像と類似度が最も高い部分画像の中心点である。透視画像上に設定点が定められた場合、再構成画像上における対応点は、設定点近傍の部分画像に最も類似する部分画像の中心点である。また、再構成画像上に設定点が定められた場合、透視画像における対応点は、設定点近傍の部分画像に最も類似する部分画像の中心点である。 Here, the corresponding point is the center point of the partial image having the highest degree of similarity with the image in the rectangular area having a predetermined size with the set point as the center. When the set point is determined on the fluoroscopic image, the corresponding point on the reconstructed image is the center point of the partial image most similar to the partial image near the set point. When a set point is set on the reconstructed image, the corresponding point in the fluoroscopic image is the center point of the partial image that is most similar to the partial image near the set point.
画像処理装置100は、設定点と対応点とに基づいて、透視画像を撮影した際の対象Aの位置と再構成画像を生成した際の対象Aの位置とのずれを算出する。画像処理装置100は、算出したずれに基づいた位置決め情報を寝台装置600に出力する。以下の説明において、透視画像を撮影した際の対象Aの位置と再構成画像を生成した際の対象Aの位置とのずれを、変位量という。
Based on the set point and the corresponding point, the
入出力装置200は、表示部210及び操作部220を備える。表示部210は、画像処理装置100から画像データを受け付ける。表示部210は、受け付けた画像データを表示する。画像データは、例えばボリュームデータに基づいて生成された再構成画像や、撮像装置400が撮影した透視画像などを含む。
The input /
操作部220は、ユーザによる操作入力を受け付け、操作入力に応じた情報を画像処理装置100に出力する。操作部220は、表示部210に表示された画像上の位置を指定する操作入力を受け付け、当該位置を示す座標情報を画像処理装置100に供給する。操作部220は、例えばマウス及びタッチパネルなどのポインティングデバイスや、キーボードなどを有する。操作部220がタッチパネルを有する場合、表示部210と操作部220とがひとつの装置として構成されてもよい。
The
治療装置500は、対象Aに対して放射線治療、陽子線治療又は粒子線治療を施す装置である。治療装置500は、制御部510及び複数の線源部520を備える。制御部510は、治療装置500が備える各部を制御する。制御部510は、例えば中央処理装置(CPU)を有する情報処理装置であり、特定のプログラムに基づいて制御動作を行う。制御部510は、寝台装置600が対象Aを変位量に基づいて移動させたことを検出した後に、線源部520を可動可能状態にする。複数の線源部520それぞれは、稼働可能状態になるとユーザの制御に基づいて対象Aに向けて放射線、陽子線又は粒子線を照射する。複数の線源部520は、各線源部520から照射される放射線、陽子線又は粒子線が一点(アイソセンタ)で交わるように、配置されている。
The
寝台装置600は対象Aを乗せる可動台を備えている。寝台装置600は、画像処理装置100から取得する位置決め情報に基づいて、対象Aを乗せる可動台を移動させる。これにより、治療計画時に定めた対象Aの部位とアイソセンタとを合わせる。なお、可動台には、寝床や椅子などの形状を有するものが用いられる。
The
図2は、第1の実施形態における画像処理装置100の構成を示すブロック図である。図2に示すように、画像処理装置100は、透視画像取得部101、再構成画像生成部102、点取得部103、点検出部104、算出部105、判定部106及び画像データ生成部107を備える。第1の実施形態における画像処理装置100及び治療システム10において、治療装置500のアイソセンタを位置決めにおける世界座標系の原点とする。また、画像処理装置100及び治療システム10において用いられる3次元座標には、アイソセンタを原点とする世界座標系が用いられる。
FIG. 2 is a block diagram illustrating a configuration of the
ここで、画像処理装置100における画像処理の対象となる透視画像としてのX線画像と再構成画像とについて説明する。
Here, an X-ray image and a reconstructed image as a fluoroscopic image to be subjected to image processing in the
X線画像は、X線源から被写体に向けて照射されたX線が被写体を通過してFPDに到達したときのX線のエネルギーの大小を画素値に変換して得られた画像である。FPDには2次元平面上にX線検出器が配置されており、各X検出器が検出するエネルギーが画素値に変換される。FPDに到達したときのX線のエネルギーは被写体内の組織に応じて減衰しているため、X線画像は被写体内を透視した画像になる。X線画像における各画素の位置i∈R2のX線検出器に到達するX線のエネルギーPiは次式(1)で表すことができる。 The X-ray image is an image obtained by converting the magnitude of the energy of the X-ray when the X-ray irradiated from the X-ray source toward the subject passes through the subject and reaches the FPD into a pixel value. In the FPD, an X-ray detector is arranged on a two-dimensional plane, and energy detected by each X detector is converted into a pixel value. Since the energy of the X-ray when reaching the FPD is attenuated according to the tissue in the subject, the X-ray image is an image seen through the subject. The energy P i of the X-ray that reaches the X-ray detector at the position iεR 2 of each pixel in the X-ray image can be expressed by the following equation (1).
式(1)において、P0は被写体に入射したときのX線のエネルギーである。μ(l,p)は位置lにおける物体の線源弱係数(linear attenuation coefficient)である。線源弱係数は物質を通過するX線のエネルギーPに応じて変化する値である。線源から画素位置iに配置されているX線検出器に到達するまでのX線の経路上にある物質の線源弱係数を線積分して得られた値が、X線検出器に到達するX線のエネルギーである。X線検出器の検出特性はPiの対数をとったものに対して線形になるように設計されているので、X線検出器が出力する信号を画素値に線形変換することによりX線画像が得られる。すなわち、X線画像の各画素の画素値Tiは次式(2)で表すことができる。なお、log(P0)は定数である。 In Expression (1), P 0 is the energy of X-rays when entering the subject. μ (l, p) is the linear attenuation coefficient of the object at position l. The source weak coefficient is a value that changes according to the energy P of X-rays passing through the substance. A value obtained by performing line integration of the source weak coefficient of the substance on the X-ray path from the radiation source to the X-ray detector arranged at the pixel position i reaches the X-ray detector. X-ray energy. The detection characteristics of the X-ray detector is designed to be linear with respect to those taking the logarithm of P i, X-ray image by linearly converting a signal X-ray detector outputs the pixel value Is obtained. That is, the pixel value T i of each pixel of the X-ray image can be expressed by the following equation (2). Note that log (P 0 ) is a constant.
上記のように、X線撮影で得られるX線画像の各画素は、線源から照射されるX線がFPDのX線検出器に到達する経路上の対象Aの線源弱係数の積和に応じて画素化される。 As described above, each pixel of the X-ray image obtained by X-ray imaging is obtained by multiplying the product sum of the source A weak coefficients of the object A on the path where the X-rays irradiated from the source reach the X-ray detector of the FPD. It is converted into a pixel according to.
再構成画像(DRR:Digitally Reconstructed Radiograph)は、例えばボリュームデータで表される対象Aを寝台装置600上に仮想的に配置したときに、任意の方向から透視投影をして生成される。図3は、再構成画像を生成する際の処理を示す図である。アイソセンタを原点とする3次元座標系における座標を(x,y,z)とし、再構成画像における2次元座標を(u,v)とする。再構成画像の座標(u,v)における画素の画素値I(u,v)は次式(3)により算出される。
A reconstructed image (DRR: Digitally Reconstructed Radiograph) is generated by perspective projection from an arbitrary direction, for example, when an object A represented by volume data is virtually arranged on the
式(3)において、V(x,y,z)は寝台装置600に仮想的に配置された対象Aの座標(x,y,z)におけるボリュームデータの値である。画素値I(u,v)は、光線L上のボリュームデータの値の積分によって得られることを式(3)は示している。W(V)は、ボリュームデータの値に掛かる重み係数である。重み係数W(V)を制御することにより、特定のボリュームデータの値を強調した再構成画像を生成することができる。重み係数W(V)の制御は、再構成画像とX線画像とを照合する際に注目する組織を強調したり、ユーザが注目する組織を強調して視認性を向上させたりすることができる。
In Expression (3), V (x, y, z) is a value of volume data at the coordinates (x, y, z) of the target A virtually arranged on the
データ値V(x,y,z)は、位置(x,y,z)に位置する物質の線源弱係数に基づく値である。そこで、光線Lの経路上になる物質の線源弱係数の和を用いて再構成画像を生成した場合、X線画像も式(2)で示すように光線上の線源弱係数の和で画素値が決定されるので、再構成画像とX線画像とは類似する。 The data value V (x, y, z) is a value based on the source weak coefficient of the substance located at the position (x, y, z). Therefore, when the reconstructed image is generated using the sum of the source weak coefficients of the substances on the path of the light L, the X-ray image is also the sum of the source weak coefficients on the light as shown in Expression (2). Since the pixel value is determined, the reconstructed image and the X-ray image are similar.
再構成画像を生成するためには、光線の経路Lと対象Aのボリュームデータの位置とを定める必要がある。治療システム10において対象Aの位置決めをする際には、治療時に対象Aの透視画像を撮影するときの撮像装置400におけるX線がFPDに到達する経路に基づいて、再構成画像を生成するための光線の経路Lと対象Aの位置とを定める。
In order to generate a reconstructed image, it is necessary to determine the ray path L and the position of the volume data of the object A. When positioning the target A in the
図4は、異なる2方向から透視画像を撮影する撮像装置400における第1線源部420、第2線源部430、第1撮像部440及び第2撮像部450の配置を示す図である。第1線源部420から照射されるX線は、対象Aを透過して第1撮像部440に到達する。第1撮像部440は、対象Aを透過したX線のエネルギーに基づいて透視画像を生成する。同様に、第2線源部430から照射されるX線は、対象Aを透過して第2撮像部450に到達する。第2撮像部450は、対象Aを透過したX線のエネルギーに基づいて透視画像を生成する。
FIG. 4 is a diagram illustrating an arrangement of the first
撮像装置400は撮影位置の校正が行われており、治療システムに対して定められた3次元空間座標系と、第1撮像部440及び第2撮像部450における撮像面における2次元座標系との座標顕官を行うための透視投影行列が予め求められている。このように、撮像装置400が校正済みであれば、第1線源部420及び第1撮像部440と第2線源部430及び第2撮像部450とそれぞれの位置関係が既知であるため、再構成画像を生成する際に用いる光線の経路Lを定めることができる。具体的には、経路Lの始点を第1線源部420とし、終点を第1撮像部440の撮像面における各画素とする。また、経路Lの始点を第2線源部430とし、終点を第2撮像部450の撮像面における各画素とする。
The
このように、透視画像を撮影した際のX線の経路と同様の経路Lを利用して再構成画像を生成した場合、対象Aのボリュームデータの位置が透視画像を撮影したときの対象Aの位置と同一であれば、再構成画像と透視画像とが最も類似する。 As described above, when the reconstructed image is generated using the same path L as the X-ray path when the fluoroscopic image is captured, the position of the volume data of the target A is that of the target A when the fluoroscopic image is captured. If it is the same as the position, the reconstructed image and the fluoroscopic image are most similar.
つまり、位置決めを行う際には、ユーザは、2方向から撮影した2枚の透視画像と2枚の再構成画像とが最も類似するようにボリュームデータを移動させて一致する位置を探して、変位量を求める。ボリュームデータを移動させるには、XYZ軸周りの回転と並進との6つのパラメータを定める必要がある。これらの6つのパラメータを定めるために、図5に示すように、透視画像と再構成画像とのそれぞれにおいて対応する点を定め、対応する点に基づいて変位量を算出する。図5は、透視画像と再構成画像との間において対応する点の例を示す図である。図5において、透視画像と再構成画像とにおいて対応する点が、黒い点で示されている。 In other words, when positioning is performed, the user moves the volume data so that the two fluoroscopic images photographed from two directions and the two reconstructed images are most similar to each other, and searches for a matching position. Find the amount. In order to move the volume data, it is necessary to define six parameters of rotation and translation around the XYZ axes. In order to determine these six parameters, as shown in FIG. 5, corresponding points are determined in each of the fluoroscopic image and the reconstructed image, and the displacement amount is calculated based on the corresponding points. FIG. 5 is a diagram illustrating an example of corresponding points between the fluoroscopic image and the reconstructed image. In FIG. 5, corresponding points in the fluoroscopic image and the reconstructed image are indicated by black dots.
画像処理装置100は、透視画像と再構成画像とのいずれか一方の画像上に点が入力されると、他方の画像において対応する対応点を検出し、変位量を算出する。画像処理装置100は、算出した変位量に基づいて対象Aのボリュームデータを移動させた後に再構成画像を生成し、再び対応点を検出して変位量を算出する。画像処理装置100は、対応点の検出と変位量の算出とを繰り返すことにより、ユーザが対応点を入力する手間を省くとともに、位置決めの精度を向上させる。
When a point is input on one of the fluoroscopic image and the reconstructed image, the
透視画像取得部101は、撮像装置400において撮影された対象Aの第1透視画像と第2透視画像との一対の透視画像を取得する。また、透視画像取得部101は、第1透視画像を撮影した第1撮像部440のカメラパラメータと、第2透視画像を撮影した第2撮像部450のカメラパラメータとを取得する。透視画像取得部101は、取得した一対の透視画像を点検出部104に供給する。また、透視画像取得部101は、取得した二つのカメラパラメータを再構成画像生成部102及び点取得部103に供給する。
The fluoroscopic
再構成画像生成部102は、計画装置300のデータベース部310からボリュームデータを読み出す。再構成画像生成部102は、透視画像取得部101から二つのカメラパラメータを取得する。また、再構成画像生成部102は、算出部105から変位量を取得する。再構成画像生成部102は、ボリュームデータと変位量と二つのカメラパラメータに基づいて、再構成画像をカメラパラメータごとに生成する。変位量は、カメラパラメータごとに生成された一対の再構成画像と一対の透視画像とに基づいて算出部105が算出する値である。また、変位量は、ボリュームデータで表される対象Aの位置と透視画像を撮影した際の対象Aの位置とのずれを表す値である。なお、再構成画像生成部102が最初に再構成画像を生成するときには、変位量が算出されていないため、変位量をゼロとする。再構成画像生成部102は、生成した一対の再構成画像を点検出部104に供給する。
The reconstructed
点取得部103は、ユーザが透視画像又は再構成画像において定めた対象Aの少なくとも三つの部位に対応する点を含む点群の画像における2次元座標を入出力装置200から取得する。以下の説明において、ユーザが定めた点を設定点という。設定点には、例えば透視画像又は再構成画像において特徴があるとユーザが判断した点や、画像上において特異な点などが選択される。設定点は、透視画像において定められる場合、再構成画像において定められる場合のいずれの場合においても、異なる方向からの画像それぞれにおける対象Aの部位に対応する点が定められる。
The
点取得部103が取得した点群に含まれる各設定点は、異なる2方向から撮影した透視画像又は再構成画像において対象A上の同位置を示す点である。そのため、各設定点の位置から、以下のようにして対象Aの3次元位置を算出することができる。
Each set point included in the point group acquired by the
カメラパラメータに含まれる射影行列Pが既知である撮像装置400で撮影された画像上の設定点の位置をベクトルx=(x,y,1)とする。設定点の位置にある対象の3次元空間における位置をベクトルX=(X,Y,Z,1)とすれば、次式(4)が成り立つ。
A position of a set point on an image captured by the
式(4)におけるλはスケール倍の不定性を表す定数である。ここで、異なる2方向から撮影した画像上で対象A上の同一位置であるベクトルx1とベクトルx2とが指定されると、次式(5)の連立方程式が成り立つ。 In formula (4), λ is a constant representing the indefiniteness of the scale factor. Here, two different when the vector x 1 and vector x 2 is the same position on the object A on the captured image from the direction is specified, holds the simultaneous equations of the formula (5).
式(5)における、P1とP2とは2方向から撮影した際の射影行列であり、λ1とλ2とはスケール倍の不定性を表す定数である。式(5)をベクトルXについて解くことにより、設定点の3次元座標を得ることができる。点取得部103は、取得した点群に含まれる各設定点の3次元座標を算出する。点取得部103は、点群の3次元座標を含む座標情報を点検出部104及び算出部105に供給する。
In Expression (5), P 1 and P 2 are projection matrices when imaged from two directions, and λ 1 and λ 2 are constants representing scale indefiniteness. By solving Equation (5) for the vector X, the three-dimensional coordinates of the set point can be obtained. The
なお、点取得部103は、過去の治療で設定された対象Aにおける点群の3次元座標を取得してもよい。また、点取得部103は、ボリュームデータに基づいて生成された対象Aの断面図において定められた点を設定点として取得し、ボリュームデータに基づいた3次元座標を取得してもよい。点群の位置を3次元座標として取得した場合でも、点取得部103は、式(5)に基づいて画像上の2次元座標に変換することで、画像上の点を取得できる。また、治療システム10による対象Aの治療は、複数回に亘り行われることが多いので、点取得部103は、過去の治療において定められた複数の設定点を取得してもよい。
Note that the
点検出部104は、点取得部103から取得した点群に含まれる各設定点に対応する対応点を検出する。点検出部104は、点群に含まれる設定点ごとに、設定点を中心とした所定の大きさの矩形窓を用いて設定点の近傍の部分画像を抽出する。点検出部104は、設定点が透視画像上の点である場合、抽出した部分画像と最も類似度が高い部分画像を再構成画像上において探索する。点検出部104は、検出した再構成画像上の部分画像の中心を設定点に対応する対応点にする。また、点検出部104は、設定点が再構成画像上の点である場合、検出した部分画像と最も類似度が高い部分画像を透視画像上において探索する。点検出部104は、検出した透視画像上の部分画像の中心を設定点に対応する対応点にする。
The
点検出部104は、例えば類似度の算出に正規化相互相関を用いる。なお、類似度には、他の画像特徴量を用いてもよい。例えば、輝度の勾配に基づく特徴量、SIFT特徴量や、LBP特徴量、類似度にベクトル型の特徴量を用いてもよい。ベクトル型の特徴量を用いる場合には、ベクトル間の距離が小さいほど類似度を高くする。
The
点検出部104は、検出した各対応点の3次元座標を式(5)に基づいて算出する。点検出部104は、検出した各対応点の3次元座標を含む座標情報を算出部105に供給する。
The
算出部105は、点取得部103が取得した点群の座標情報と、点検出部104が算出した各対応点の座標情報とに基づいて、変位量を算出する。算出部105は、異なる2方向から撮影した透視画像及び再構成画像の4枚の画像上それぞれに対応する点に基づいて、透視画像を撮影した際の対象Aの位置と再構成画像を生成した際の対象Aの位置とを算出する。
The
算出部105は、対象Aのボリュームデータの三次元位置をXiとし、透視画像を撮影した際の対象Aの三次元位置Yiとし、対象Aが三次元位置Xiから三次元位置Yiへ移動する際の変位量を算出する。このとき、対象Aが3次元空間において回転及び並進を含む剛体移動をしているとすれば、次式(6)を満たす。
The
式(6)における行列Rは3行3列の回転行列であり、ベクトルtは3行1列の並進ベクトルである。行列Rとベクトルtとが算出部105によって算出される変位量である。設定点及び対応点として得られたすべての対応する点の三次元位置Xi、Yi(i=1,2,…,N)に対して式(6)が成り立つとして連立方程式にして変位量を算出する。
The matrix R in Equation (6) is a 3 × 3 rotation matrix, and the vector t is a 3 × 1 translation vector. The matrix R and the vector t are displacement amounts calculated by the
三次元位置Xi(i=1,2,…,N)の重心を ̄Xとし、三次元位置Yi(i=1,2,…,N)の重心を ̄Yとすれば、並進ベクトルtは次式(7)のように表される。よって、回転行列Rを求めれば、並進ベクトルtが定まる。なお、「 ̄X」はXの上にオーバーラインを付したパラメータを便宜的に示している。また、他のパラメータに対してオーバーラインが付されている場合、同様にパラメータの前に「 ̄(オーバーライン)」を付して表す。 If the center of gravity of the three-dimensional position X i (i = 1, 2,..., N) is  ̄X and the center of gravity of the three-dimensional position Y i (i = 1, 2,..., N) is  ̄Y, then the translation vector. t is expressed as the following equation (7). Therefore, if the rotation matrix R is obtained, the translation vector t is determined. “ ̄X” indicates a parameter with an overline on X for convenience. In addition, when an overline is added to another parameter, “パ ラ メ ー タ (overline)” is added in front of the parameter similarly.
ここで、X’i=Xi− ̄X、Y’i=Yi− ̄Yとしたとき、次式(8)となる回転行列Rを算出する。このような行列Rを求める問題は、Orthogonal Procrustes problem として知られており、様々な解法が存在する。算出部105は、既知の解法のいずれかを用いて回転行列Rを算出する。また、算出部105は、算出した回転行列Rを式(7)に代入して並進ベクトルtを算出する。算出部105は、算出した回転行列R及び並進ベクトルtを含む変位量を、判定部106及び再構成画像生成部102に供給する。
Here, when X ′ i = X i − ̄X and Y ′ i = Y i − ̄Y, a rotation matrix R represented by the following equation (8) is calculated. The problem of obtaining such a matrix R is known as an Orthogonal Procrustes problem, and there are various solutions. The
判定部106は、算出部105により算出された変位量が予め定められた基準を満たすか否かを判定する。判定部106は、変位量が基準を満たす場合に、変位量を含む位置決め情報を寝台装置600に出力する。判定部106は、変位量が基準を満たさない場合、再構成画像生成部102に再構成画像の生成、点検出部104に対応点の検出及び算出部105に変位量の算出を行わせる制御を行う。
The
ここで、変位量に対する基準に対して説明する。判定部106は、再構成画像と透視画像との類似度が予め定められた閾値以上である場合に、変位量が基準を満たしていると判定する。判定に用いる再構成画像は、再構成画像生成部102が変位量に基づいて対象Aのボリュームデータを移動させて生成した再構成画像である。再構成画像と透視画像との類似度の算出には、例えば正規化相互相関を用いる。なお、正規化相互相関の算出に代えて、相互情報量を用いて類似度を算出したり、それぞれの画像の各画素値のヒストグラムの類似度を算出したり、それぞれの画像の画素値を正規化して二乗誤差を算出したりしてもよい。また、それぞれの画像における画素値の勾配に基づく特徴量によって類似度を算出してもよい。
Here, the reference for the displacement amount will be described. The
また、判定部106は、再構成画像と透視画像との類似度を算出する際に、画像全体の類似度の算出に代えて、設定点及び対応点それぞれの含む一定の大きさの部分画像の局所類似度を算出してもよい。すなわち、判定部106は、設定点及び対応点それぞれの近傍の部分画像の局所類似度を、変位量に基づいて移動させたボリュームデータの再構成画像と透視画像との類似度として用いてもよい。
In addition, when the similarity between the reconstructed image and the fluoroscopic image is calculated, the
また、判定部106は、変位量が繰り返し算出されている場合に、透視画像と再構成画像との類似度が前回の判定の際に算出した類似度をより類似の度合いが低くなったときに、変位量を繰り返し算出する動作を停止させて、前回の変位量を含む位置決め情報を寝台装置600に出力する。
Further, when the displacement amount is repeatedly calculated, the
なお、変位量に対する基準として、再構成画像と透視画像との類似度に代えて、変位量に含まれる回転行列Rに基づいてXYZ軸周りの回転角度と並進ベクトルtの大きさとを算出してもよい。このとき、判定部106は、各回転角度と大きさとのすべてが所定の閾値以下であるか否かを判定する。判定部106は、各回転角度と大きさとが閾値以下である場合、変位量を含む位置決め情報を寝台装置600に出力する。判定部106は、各回転角度と大きさとのうちいずれかが閾値より大きい場合、再構成画像生成部102に再構成画像の生成、点検出部104に対応点の検出及び算出部105に変位量の算出を行わせる制御を行う。
As a reference for the displacement amount, the rotation angle around the XYZ axes and the magnitude of the translation vector t are calculated based on the rotation matrix R included in the displacement amount instead of the similarity between the reconstructed image and the fluoroscopic image. Also good. At this time, the
また、判定部106は、再構成画像と透視画像との類似度や、変位量を用いた判定に代えて、変位量の算出が所定の回数行われた否かを判定してもよい。このとき、判定部106は、所定の回数繰り返して変位量の算出が行われると、最後に算出された変位量を含む位置決め情報を寝台装置600に出力する。判定部106は、再構成画像に投影される対象Aの組織に応じて、繰り返し回数を定めてもよい。判定部106が繰り返し回数を定める場合、判定部106は、再構成画像を生成する際に用いるボリュームデータの値V(x,y,z)に基づいて、投影される対象Aの組織を識別する。また、対象Aの組織の識別は、ボリュームデータの値のパターンに基づいて行ってもよい。また、判定部106は、DICOM(Digital Imaging and COmmunication in Medicine)データに含まれる情報や、ユーザが入力した情報に基づいて、対象Aの組織を識別してもよい。例えば、判定部106は、再構成画像における骨の部分の領域の広さを算出する。判定部106は、再構成画像において骨の部分の領域が占める割合が予め定めた閾値以上である場合には、繰り返し回数を基準の回数より少なくする。また、判定部106は、再構成画像において骨の部分の領域が占める割合が閾値より小さい場合には、繰り返し回数を基準の回数より多くする。これは、透視画像をX線装置で取得した場合には、骨の部分が多いほど透視画像におけるコントラストが高くなり、対応点の検出精度が高くなるため、繰り返し回数を少なくしても高い精度の変位量を得ることができるためである。この傾向に基づいて、判定部106は、再構成画像と透視画像との少なくとも一方のコントラストが高いほど繰り返し回数を少なくしてもよい。
Further, the
画像データ生成部107は、透視画像取得部101が取得した透視画像と、再構成画像生成部102が生成した再構成画像と、点取得部103が取得した設定点と、点検出部104が検出した対応点とを含む画像データを生成する。このとき、画像データ生成部107は、設定点及び対応点を透視画像又は再構成画像に重畳した画像データを生成してもよい。画像データ生成部107は、生成した画像データを入出力装置200に出力する。
The image
図6は、画像処理装置100が行う変位量算出処理を示すフローチャートである。画像処理装置100において、変位量算出処理が開始されると、透視画像取得部101は、異なる方向から撮影した複数の透視画像及び各透視画像に対応するカメラパラメータを撮像装置400から取得する(ステップS101)。
FIG. 6 is a flowchart illustrating a displacement amount calculation process performed by the
再構成画像生成部102は、対象Aのボリュームデータと透視画像取得部101が取得したカメラパラメータとに基づいて、透視画像それぞれに対応する再構成画像を生成する(ステップS102)。
点取得部103は、ユーザが指定した少なくとも3つの設定点からなる点群を取得する(ステップS103)。
The reconstructed
The
点検出部104は、設定点それぞれに対応する点を透視画像又は再構成画像において検出する。点検出部104は、検出した点を対応点とする(ステップS104)。
算出部105は、各設定点の3次元座標と各対応点の3次元座標とに基づいて、透視画像を撮影したときの位置に対するボリュームデータの位置の変位量を算出する(ステップS105)。
The
Based on the three-dimensional coordinates of the set points and the three-dimensional coordinates of the corresponding points, the
再構成画像生成部102は、変位量を用いて移動させたボリュームデータとカメラパラメータとに基づいて、透視画像それぞれに対応する再構成画像を生成する(ステップS106)。
判定部106は、ステップS105において生成された再構成画像と透視画像との類似度を算出する(ステップS107)。判定部106は、算出した類似度が閾値以上であるか否かを判定する(ステップS108)。
The reconstructed
The
類似度が閾値以上でない場合(ステップS108:NO)、判定部106は、処理をステップS104に戻して、ステップS104以降の処理を繰り返し行わせる。
類似度が閾値以上である場合(ステップS108:YES)、判定部106は、変位量を含む位置決め情報を寝台装置600に出力し(ステップS109)、変位量算出処理を終了させる。
When the degree of similarity is not equal to or greater than the threshold (step S108: NO), the
When the similarity is equal to or greater than the threshold (step S108: YES), the
第1の実施形態における画像処理装置100は、複数の透視画像において対象Aの特定の部位を示す設定点を取得すると、複数の再構成画像において設定点に対応する対応点を取得し、設定点と対応点とに基づいて変位量を算出する。また、画像処理装置100は、複数の再構成画像において対象Aの特定の部位を示す設定点を取得すると、複数の透視画像において設定点に対応する対応点を取得し、設定点と対応点とに基づいて変位量を算出する。このように、透視画像と再構成画像との両方において対象Aの特定の部位を示す点を設定せずとも、画像処理装置100を用いることで透視画像を撮影したときの位置に対するボリュームデータの位置の変位量が得られる。これにより、ユーザが対象Aの特定の部位を示す点を定める手間を省くことができ、治療システム10における位置決めに要する時間を短縮することができる。また、画像処理装置100は、透視画像と再構成画像との類似度が基準を満たすまで、再構成画像の生成と変位量の算出とを繰り返し行うことにより、変位量の精度を改善することができ、位置決めの精度を向上させることができる。
When the
また、画像処理装置100は、透視画像と再構成画像との類似度に基づいて、変位量の算出などを繰り返し行うか否かを決定することにより、算出する変位量の精度を向上させることができる。
また、画像処理装置100は、設定点及び対応点の近傍の部分画像の類似度に基づいて、変位量の算出などを繰り返し行うか否かを決定することにより、対応点の検出精度を判定するとともに、繰り返しの判定における演算量を削減することができ、位置決めに要する時間を短縮することができる。
In addition, the
Further, the
また、画像処理装置100において、判定部106が再構成画像に含まれる特定の組織の割合、例えば骨の割合に応じて繰り返し回数を定める場合、撮影される対象Aの部位に応じて位置決めに要する時間を短縮することができる。
Further, in the
(第2の実施形態)
図7は、第2の実施形態における画像処理装置100Aの構成を示すブロック図である。図2に示すように、画像処理装置100Aは、透視画像取得部111、再構成画像生成部102、点取得部113、点検出部104、算出部105、判定部106及び画像データ生成部107を備える。第2の実施形態の画像処理装置100Aは、図1に示した治療システム10において画像処理装置100に代えて用いられる。画像処理装置100Aにおいて、第1の実施形態の画像処理装置100が備える構成要素と同じ構成要素に対しては同じ符号を付して、その説明を省略する。
(Second Embodiment)
FIG. 7 is a block diagram illustrating a configuration of an
透視画像取得部111は、撮像装置400において撮影された対象Aの第1透視画像と第2透視画像との一対の透視画像を取得する。また、透視画像取得部111は、第1透視画像を撮影した第1撮像部440のカメラパラメータと、第2透視画像を撮影した第2撮像部450のカメラパラメータとを取得する。透視画像取得部111は、再構成画像生成部102が生成する再構成画像が示す対象Aの画像における画素当たりの実寸法と、取得した透視画像が示す対象Aの画像における画素当たりの実寸法とを一致させるように、透視画像のサイズを変更する。また、透視画像取得部111は、サイズの変更をして得られた透視画像に対して各画素値を平滑化する平滑化フィルタ処理を行う。透視画像取得部111は、サイズの変更と平滑化フィルタ処理とを施した一対の透視画像を点検出部104に供給する。また、透視画像取得部111は、取得した二つのカメラパラメータを再構成画像生成部102及び点取得部103に供給する。
The fluoroscopic
点取得部113は、第1の実施形態における点取得部103が行う動作に加えて、点検出部104が検出した対応点に対する位置の修正を指示する修正情報を入出力装置200から取得する動作を行う。対応点に対する修正の指示は、例えば対応点が重畳された透視画像及び再構成画像をユーザが確認した上で、入出力装置200の操作部220がユーザの操作入力を受け付けることにより取得される。点取得部113は、取得した修正情報を算出部105に供給する。修正情報が供給された場合、算出部105は、透視画像又は再構成画像上における対応点の位置を修正情報に基づいて変更し、変更後の対応点の位置と設定点の位置とに基づいて変位量を算出する。
The
図8は、画像処理装置100Aが行う変位量算出処理を示すフローチャートである。画像処理装置100において、変位量算出処理が開始されると、透視画像取得部111は、異なる方向から撮影した複数の透視画像及び各透視画像に対応するカメラパラメータを撮像装置400から取得する(ステップS101)。透視画像取得部111は、取得した各透視画像に対して、画素当たりの実寸法を再構成画像と一致させるサイズ変更と平滑化処理とを行う(ステップS201)。
FIG. 8 is a flowchart illustrating a displacement amount calculation process performed by the
再構成画像生成部102は、対象Aのボリュームデータと透視画像取得部101が取得したカメラパラメータとに基づいて、透視画像それぞれに対応する再構成画像を生成する(ステップS102)。
点取得部113は、ユーザが指定した少なくとも3つの設定点からなる点群を取得する(ステップS103)。
The reconstructed
The
点検出部104は、設定点それぞれに対応する点を透視画像又は再構成画像において検出する。点検出部104は、検出した点を対応点とする(ステップS104)。
点取得部113は、点検出部104が検出した対応点の位置に対する修正情報を取得する(ステプS205)。
The
The
算出部105は、修正情報に基づいて、点検出部104が検出した対応点の位置を修正する(ステップS206)。
算出部105は、各設定点の3次元座標と修正した各対応点の3次元座標とに基づいて、透視画像を撮影したときの位置に対するボリュームデータの位置の変位量を算出する(ステップS207)。
The
Based on the three-dimensional coordinates of each set point and the corrected three-dimensional coordinates of each corresponding point, the
再構成画像生成部102は、変位量を用いて移動させたボリュームデータとカメラパラメータとに基づいて、透視画像それぞれに対応する再構成画像を生成する(ステップS106)。
判定部106は、ステップS105において生成された再構成画像と透視画像との類似度を算出する(ステップS107)。判定部106は、算出した類似度が閾値以上であるか否かを判定する(ステップS108)。
The reconstructed
The
類似度が閾値以上でない場合(ステップS108:NO)、判定部106は、処理をステップS104に戻して、ステップS104以降の処理を繰り返し行わせる。
類似度が閾値以上である場合(ステップS108:YES)、判定部106は、変位量を含む位置決め情報を寝台装置600に出力し(ステップS109)、変位量算出処理を終了させる。
When the degree of similarity is not equal to or greater than the threshold (step S108: NO), the
When the similarity is equal to or greater than the threshold (step S108: YES), the
第2の実施形態における画像処理装置100Aは、複数の透視画像において対象Aの特定の部位を示す設定点を取得すると、複数の再構成画像において設定点に対応する対応点を取得し、透視画像に設定点を重畳させた画像と再構成画像に対応点を重畳させた画像とを含む画像データを入出力装置200へ出力する。入出力装置200において表示された画像データをユーザが確認し、再構成画像上の対応点の位置にずれがある場合にはユーザが対応点の位置の修正を指示する修正情報を入出力装置200を介して入力する。画像処理装置100Aは、検出した対応点の位置を修正情報に基づいて修正し、位置を修正した対応点と設定点とに基づいて変位量を算出する。このように、検出した対応点に対してユーザによる確認と修正との機会を設けたことで、再構成画像において類似する部分画像が多い場合などにおける対応点の精度を向上させることができる。これにより、画像処理装置100Aは、算出する変位量の精度を改善することができ、位置決めの精度を向上させることができる。なお、画像処理装置100Aは、再構成画像において対象Aの特定の部位を示す設定点を取得した場合も、同様に、変位量の精度を改善することができ、位置決めの精度を向上させることができる。
When the
また、画像処理装置100Aは、透視画像における画素当たりの実寸法を再構成画像における画素当たりの実寸法に合わせる画像変換を透視画像に対して行う。これにより、透視画像を撮影したときの対象Aの位置と、再構成画像を生成するときの対象Aのボリュームデータとの位置とが一致した場合における透視画像と再構成画像との類似度を高くして、繰り返しを行うか否かの判定の精度を向上させることができる。その結果、画像処理装置100Aが算出する変位量の精度を向上させることができる。
Further, the
また、画像処理装置100Aは、サイズを変更して得られた透視画像に対して平滑化を行う。再構成画像の解像度が透視画像の解像度より低い場合、再構成画像の一画素に透視画像の複数の画素が対応することになる。この場合、再構成画像の一画素値と透視画像の複数の画素値とを比較することになり、再構成画像と透視画像との類似度の算出に不要なばらつきが生じてしまう。サイズを変更して得られた透視画像に対して平滑化を行うことにより、上述のばらつきを抑えることができ、類似度を用いた判定の精度を向上させることができる。
Further, the
上記各実施形態では、設定点が透視画像又は再構成画像のいずれかにおいて定められる場合ついて説明したが、複数の設定点が透視画像と再構成画像との両方に定められてもよい。そのとき、点検出部104は、設定点ごとに、対応する対応点を透視画像又は再構成画像において検出する。
また、点取得部が取得する設定点の組数が4組個以上の場合、画像処理装置は、ロバスト推定手法のRANSAC法や最小メジアン法(LMedS)を用いて、透視画像を撮影した際の対象Aの姿勢と再構成画像を生成した際の対象Aのボリュームデータの姿勢とを推定して変位量を算出してもよい。
In each of the above embodiments, the case where the set point is determined in either the fluoroscopic image or the reconstructed image has been described. However, a plurality of set points may be determined in both the fluoroscopic image and the reconstructed image. At that time, the
Further, when the number of set points acquired by the point acquisition unit is four or more, the image processing apparatus uses a robust estimation method RANSAC method or a minimum median method (LMedS) to capture a fluoroscopic image. The displacement amount may be calculated by estimating the posture of the target A and the posture of the volume data of the target A when the reconstructed image is generated.
以上説明した少なくともひとつの実施形態によれば、ユーザが定めた設定点に対応する対応点を検出する点検出部と、透視画像を撮影したときの対象Aの位置と対象Aのボリュームデータの位置との変位量を設定点と対応点とに基づいて算出する算出部と、変位量が所定の条件を満たしているか否かを判定し、満たしていない場合に対応点の検出と変位量の算出とを繰り返し行わせる判定部とをもつことにより、位置決めの精度を向上するとともに位置決めに要する時間を短縮することができる。 According to at least one embodiment described above, a point detection unit that detects corresponding points corresponding to set points determined by the user, the position of the target A when the fluoroscopic image is captured, and the position of the volume data of the target A A calculation unit that calculates the displacement amount based on the set point and the corresponding point, and determines whether or not the displacement amount satisfies a predetermined condition. If not, the corresponding point is detected and the displacement amount is calculated. By having the determination unit that repeatedly performs the above, it is possible to improve the positioning accuracy and reduce the time required for positioning.
なお、各実施形態において説明した画像処理装置は、例えば汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。すなわち、透視画像取得部、再構成画像生成部、点取得部、点検出部、算出部、判定部及び画像データ生成部は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、画像処理装置は、上記のプログラムをコンピュータ装置に予めインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。 The image processing apparatus described in each embodiment can also be realized by using, for example, a general-purpose computer apparatus as basic hardware. That is, the fluoroscopic image acquisition unit, the reconstructed image generation unit, the point acquisition unit, the point detection unit, the calculation unit, the determination unit, and the image data generation unit are realized by causing a processor mounted on the computer device to execute a program. can do. At this time, the image processing apparatus may be realized by installing the above program in a computer device in advance, or may be stored in a storage medium such as a CD-ROM or distributed through the network. Thus, this program may be realized by appropriately installing it in a computer device.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.
10…治療システム、100,100A…画像処理装置、101,111…透視画像取得部、102…再構成画像生成部、103,113…点取得部、104…点検出部、105…算出部、106…判定部、107…画像データ生成部、200…入出力装置、210…表示部、220…操作部、300…計画装置、310…データベース部、320…表示部、330…操作部、340…制御部、400…撮像装置、410…制御部、420…第1線源部、430…第2線源部、440…第1撮像部、450…第2撮像部、500…治療装置、510…制御部、520…線源部、600…寝台装置
DESCRIPTION OF
Claims (11)
互いに異なる少なくとも2つの方向から前記対象を撮影した際に得られる複数の第2の透視画像を、予め取得された前記対象のボリュームデータから再構成する再構成部と、
前記第1の透視画像又は前記第2の透視画像における設定点を取得する点取得部と、
前記設定点が前記第1の透視画像における点である場合、当該設定点に対応する対応点を前記第2の透視画像において検出し、前記設定点が前記第2の透視画像における点である場合、当該設定点に対応する対応点を前記第1の透視画像において検出する検出部と、
前記設定点と前記対応点とに基づいて、前記第1の透視画像を撮影した際の前記対象の位置に対する前記第2の透視画像を生成した際の前記対象の位置の変位量を算出する算出部と、
前記変位量が所定の条件を満たしているか否かを判定する判定部と、
を備え、
前記変位量が所定の条件を満たしていない場合、前記再構成部は前記変位量に基づいて移動させた前記ボリュームデータから複数の前記第2の透視画像を再び再構成し、前記検出部は前記再構成部が再び再構成した第2の透視画像と前記第1の透視画像とにおいて対応点を検出し、前記算出部は新たに検出された対応点に基づいて変位量を算出する
画像処理装置。 An image acquisition unit that acquires a plurality of first fluoroscopic images obtained by capturing an object from at least two different directions;
A reconstruction unit which reconstructs a different multiple second perspective image derived from at least two directions when the photographs the object, previously acquired the target volume data,
An acquisition unit that acquires a set point that put the first fluoroscopic image or the second fluoroscopic image,
When the set point is a point in the first perspective image, a corresponding point corresponding to the set point is detected in the second perspective image, and the set point is a point in the second perspective image Detecting a corresponding point corresponding to the set point in the first fluoroscopic image;
Calculation for calculating a displacement amount of the position of the target when the second perspective image is generated with respect to the position of the target when the first perspective image is captured based on the set point and the corresponding point. And
A determination unit for determining whether or not the displacement amount satisfies a predetermined condition;
With
When the displacement amount does not satisfy a predetermined condition, the reconstruction unit reconstructs the plurality of second fluoroscopic images from the volume data moved based on the displacement amount, and the detection unit detecting the corresponding points in the second fluoroscopic image reconstruction unit is reconstructed again with the first perspective image, wherein the calculating unit image processing for leaving calculate the displacement amount based on the corresponding points newly detected apparatus.
前記変位量に基づいて移動させた前記ボリュームデータから再構成された前記第2の透視画像と前記第1の透視画像との類似度を算出し、算出した類似度が予め定めた閾値以上であるか否かを判定することで、前記変位量が前記条件を満たしているか否かを判定する
請求項1に記載の画像処理装置。 The determination unit
The similarity between the second fluoroscopic image reconstructed from the volume data moved based on the displacement amount and the first fluoroscopic image is calculated, and the calculated similarity is equal to or greater than a predetermined threshold. The image processing apparatus according to claim 1, wherein it is determined whether or not the displacement amount satisfies the condition.
前記変位量に基づいて移動させた前記ボリュームデータから再構成された前記第2の透視画像と前記第1の透視画像とにおける前記設定点及び前記対応点を含む部分画像の類似度を算出し、算出した類似度が予め定めた閾値以上であるか否かを判定することで、前記変位量が前記条件を満たしているか否かを判定する
請求項1に記載の画像処理装置。 The determination unit
Calculating the similarity of the partial image including the set point and the corresponding point in the second perspective image and the first perspective image reconstructed from the volume data moved based on the displacement amount; The image processing apparatus according to claim 1, wherein it is determined whether or not the displacement amount satisfies the condition by determining whether or not the calculated similarity is equal to or greater than a predetermined threshold value.
前記算出部が前記変位量を所定の回数算出した場合に、前記変位量が前記条件を満たしていると判定する
請求項1に記載の画像処理装置。 The determination unit
The image processing apparatus according to claim 1, wherein when the calculation unit calculates the displacement amount a predetermined number of times, the displacement amount is determined to satisfy the condition.
前記所定の回数を前記第1の透視画像又は前記第2の透視画像の少なくとも一方のコントラストに基づいて決定する
請求項4に記載の画像処理装置。 The determination unit
The image processing apparatus according to claim 4, wherein the predetermined number of times is determined based on a contrast of at least one of the first perspective image or the second perspective image.
前記第1の透視画像に対して平滑化処理を行う
請求項1から請求項5のいずれか一項に記載の画像処理装置。 The image acquisition unit
The image processing apparatus according to any one of claims 1 to 5, wherein a smoothing process is performed on the first fluoroscopic image.
前記第1の透視画像における画素当たりの実寸法と前記第2の透視画像における画素当たりの実寸法とを一致させるように前記第1の透視画像のサイズを変更する
請求項1から請求項6のいずれか一項に記載の画像処理装置。 The image acquisition unit
7. The size of the first perspective image is changed so that the actual size per pixel in the first perspective image and the actual size per pixel in the second perspective image coincide with each other. The image processing apparatus according to any one of claims.
を更に備える請求項1から請求項7のいずれか一項に記載の画像処理装置。 8. The generation unit according to claim 1, further comprising: a generation unit configured to generate image data in which the set point and the corresponding point are superimposed on the first perspective image and the second perspective image. Image processing apparatus.
請求項1から請求項8のいずれか一項に記載の画像処理装置と、
前記第1の透視画像と前記第2の透視画像と表示し、ユーザの入力操作を受け付ける入出力装置と
を備える治療システム。 An imaging device for capturing a fluoroscopic image of the object;
The image processing apparatus according to any one of claims 1 to 8,
A treatment system comprising: an input / output device that displays the first fluoroscopic image and the second fluoroscopic image and receives a user input operation.
前記対象に対して治療線を照射する治療装置と
を更に備え、
前記寝台装置は、前記画像処理装置が算出する変位量に基づいて、前記対象の治療が施される部位に前記治療線が照射されるように前記可動台を移動させる
請求項9に記載の治療システム。 A bed apparatus having a movable table for carrying the object;
A treatment device for irradiating the subject with a treatment line,
The treatment according to claim 9, wherein the bed apparatus moves the movable table based on a displacement amount calculated by the image processing apparatus so that the treatment line is irradiated to a site where the treatment of the target is performed. system.
画像取得部が、互いに異なる少なくとも2つの方向から対象を撮影した複数の第1の透視画像を取得する画像取得ステップと、
再構成部が、互いに異なる少なくとも2つの方向から前記対象を撮影した際に得られる複数の第2の透視画像を、予め取得された前記対象のボリュームデータから再構成する第1の再構成ステップと、
点取得部が、前記第1の透視画像又は前記第2の透視画像における設定点を取得する点取得ステップと、
前記設定点が前記第1の透視画像における点である場合、検出部が、当該設定点に対応する対応点を前記第2の透視画像において検出し、前記設定点が前記第2の透視画像における点である場合、前記検出部が、当該設定点に対応する対応点を前記第1の透視画像において検出する検出ステップと、
算出部が、前記設定点と前記対応点とに基づいて、前記第1の透視画像を撮影した際の前記対象の位置に対する前記第2の透視画像を生成した際の前記対象の位置の変位量を算出する算出ステップと、
判定部が、前記変位量が所定の条件を満たしているか否かを判定する判定ステップと、
前記変位量が所定の条件を満たしていない場合、前記再構成部が、前記変位量に基づいて移動させた前記ボリュームデータから複数の前記第2の透視画像を再構成する第2の再構成ステップと、
前記検出部が、前記第2の再構成ステップにおいて再構成された第2の透視画像と前記第1の透視画像とにおいて対応点を検出する再検出ステップと、
前記算出部が、前記再検出ステップにおいて新たに検出された対応点に基づいて変位量を算出する再算出ステップと
を有する画像処理方法。 An image processing method performed by an image processing apparatus,
An image acquisition step in which the image acquisition unit acquires a plurality of first fluoroscopic images obtained by capturing an object from at least two different directions;
Reconfiguration unit, a first reconstruction step of reconstructing different plurality of second fluoroscopic images obtained from at least two directions when the photographs the object from previously acquired the target volume data to one another ,
Point acquisition unit, an acquisition step that acquires the set point that put the first fluoroscopic image or the second fluoroscopic image,
When the set point is a point in the first fluoroscopic image, the detection unit detects a corresponding point corresponding to the set point in the second fluoroscopic image, and the set point is in the second fluoroscopic image. If it is a point, the detecting unit detects a corresponding point corresponding to the set point in the first fluoroscopic image;
Based on the set point and the corresponding point , the calculation unit generates a displacement amount of the target position when the second perspective image is generated with respect to the target position when the first perspective image is captured. A calculating step for calculating
A determination unit for determining whether the displacement amount satisfies a predetermined condition; and
If the displacement amount does not satisfy the predetermined condition, the reconstruction unit, a second reconstruction step of reconstructing a plurality of the second perspective image from the volume data is moved based on the displacement amount When,
A redetection step in which the detection unit detects corresponding points in the second fluoroscopic image reconstructed in the second reconstructing step and the first fluoroscopic image;
The calculating unit, an image processing method and a re-calculating a displacement amount based on the newly detected corresponding points in the redetection step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/677,142 US9230322B2 (en) | 2014-04-04 | 2015-04-02 | Image processor, treatment system, and image processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461975003P | 2014-04-04 | 2014-04-04 | |
US61/975,003 | 2014-04-04 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015198893A JP2015198893A (en) | 2015-11-12 |
JP6305250B2 true JP6305250B2 (en) | 2018-04-04 |
Family
ID=54550768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014140601A Active JP6305250B2 (en) | 2014-04-04 | 2014-07-08 | Image processing apparatus, treatment system, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6305250B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015225130A1 (en) * | 2015-12-14 | 2017-06-14 | Sirona Dental Systems Gmbh | Method for calibrating an X-ray image |
DE112016005720T5 (en) * | 2015-12-14 | 2018-09-13 | Nuvasive, Inc. | 3D visualization during surgery with reduced radiation exposure |
JP6821303B2 (en) * | 2015-12-15 | 2021-01-27 | キヤノン株式会社 | Information processing equipment, information processing methods and programs |
JP6746435B2 (en) * | 2016-08-25 | 2020-08-26 | 株式会社東芝 | Medical image processing apparatus, treatment system, and medical image processing program |
EP3668369B1 (en) * | 2017-08-14 | 2021-03-31 | Optos plc | Retinal position tracking |
TWI766253B (en) * | 2019-03-19 | 2022-06-01 | 鈦隼生物科技股份有限公司 | Method and system of determining operation pathway based on image matching |
JP7311109B2 (en) * | 2019-05-14 | 2023-07-19 | 東芝エネルギーシステムズ株式会社 | medical image processing device, medical image processing program, medical device, and treatment system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7532705B2 (en) * | 2006-04-10 | 2009-05-12 | Duke University | Systems and methods for localizing a target for radiotherapy based on digital tomosynthesis |
JP2010246883A (en) * | 2009-03-27 | 2010-11-04 | Mitsubishi Electric Corp | Patient positioning system |
JP5401240B2 (en) * | 2009-09-30 | 2014-01-29 | 株式会社日立製作所 | Radiation therapy system |
-
2014
- 2014-07-08 JP JP2014140601A patent/JP6305250B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015198893A (en) | 2015-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6305250B2 (en) | Image processing apparatus, treatment system, and image processing method | |
US9230322B2 (en) | Image processor, treatment system, and image processing method | |
US9830718B2 (en) | Image processor, image processing method, and treatment system | |
Berger et al. | Marker‐free motion correction in weight‐bearing cone‐beam CT of the knee joint | |
US9947101B2 (en) | Radiographic image analysis device and method, and recording medium having program recorded therein | |
US9734574B2 (en) | Image processor, treatment system, and image processing method | |
US9582884B2 (en) | Image processor, treatment system, and image processing method for determining a position of a point | |
JP6165591B2 (en) | Image processing apparatus, treatment system, and image processing method | |
CN110770792A (en) | Determining clinical target volume | |
CN108338802B (en) | Method for reducing image artifacts | |
JP6565080B2 (en) | Radiotherapy apparatus, operating method thereof, and program | |
JP6803077B2 (en) | Image processing device and image processing method | |
US20220054862A1 (en) | Medical image processing device, storage medium, medical device, and treatment system | |
US9254106B2 (en) | Method for completing a medical image data set | |
JP7242640B2 (en) | Methods, systems and apparatus for determining radiation dose | |
US9839404B2 (en) | Image data Z-axis coverage extension for tissue dose estimation | |
US20220036609A1 (en) | X-ray imaging system with foreign object reduction | |
JP2021142146A (en) | Medical image processing device, medical device, treatment system, medical image processing method, and program | |
KR102469141B1 (en) | Medical image processing apparatus, medical image processing method, and program | |
CN107809954B (en) | Display of depth position of computer tomography slice image relative to object to be imaged | |
WO2018105493A1 (en) | Radiographic image capturing device, radiographic image capturing system, radiographic image capturing method, and program | |
CN110678123A (en) | Improved geometry measurement in X-ray images | |
US20240148351A1 (en) | Image-based planning of tomographic scan | |
JP2015000092A (en) | Patient positioning system and patient positioning method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180306 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6305250 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |