JP6305250B2 - Image processing apparatus, treatment system, and image processing method - Google Patents

Image processing apparatus, treatment system, and image processing method Download PDF

Info

Publication number
JP6305250B2
JP6305250B2 JP2014140601A JP2014140601A JP6305250B2 JP 6305250 B2 JP6305250 B2 JP 6305250B2 JP 2014140601 A JP2014140601 A JP 2014140601A JP 2014140601 A JP2014140601 A JP 2014140601A JP 6305250 B2 JP6305250 B2 JP 6305250B2
Authority
JP
Japan
Prior art keywords
image
unit
point
fluoroscopic
displacement amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014140601A
Other languages
Japanese (ja)
Other versions
JP2015198893A (en
Inventor
隆介 平井
隆介 平井
幸辰 坂田
幸辰 坂田
安則 田口
安則 田口
三田 雄志
雄志 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to US14/677,142 priority Critical patent/US9230322B2/en
Publication of JP2015198893A publication Critical patent/JP2015198893A/en
Application granted granted Critical
Publication of JP6305250B2 publication Critical patent/JP6305250B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radiation-Therapy Devices (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明の実施形態は、画像処理装置、治療システム及び画像処理方法に関する。   Embodiments described herein relate generally to an image processing apparatus, a treatment system, and an image processing method.

放射線治療や重粒子線治療などは、病巣に対して放射線や重粒子線を照射することで、病巣を破壊する治療法である。放射線治療や重粒子線治療を行う際には、病巣に対して正確に放射線や重粒子線を照射しないと治療の効果を得ることが難しい。そのため、治療の対象(例えば、被検体)をCT(Computed Tomography)撮影し、病巣の位置を3次元的に把握する。医師や技師は、把握した病巣の3次元位置に基づいて、放射線や重粒子線を照射する角度や照射強度などを含む治療計画を定める。実際に治療が行われる際には、治療時の被検体の位置と治療計画を定めたときの被検体の位置とを一致させる位置決めが行われる。治療は治療計画に基づいて複数回行われるので、位置決めがその度行われる。位置決めを開始してから治療が終わるまでの間、被検体は姿勢を保つ必要があるため、位置決めは短時間で行われることが望ましい。しかし、位置決めには精度も求められるため、位置決めを短時間で行うことが困難である場合があった。   Radiotherapy, heavy particle beam therapy, and the like are treatments that destroy a lesion by irradiating the lesion with radiation or a heavy particle beam. When performing radiotherapy or heavy particle beam therapy, it is difficult to obtain a therapeutic effect unless the lesion is accurately irradiated with radiation or heavy particle beam. Therefore, CT (Computed Tomography) imaging of a treatment target (for example, a subject) is performed, and the position of the lesion is grasped three-dimensionally. The doctor or engineer determines a treatment plan including an angle at which radiation or heavy particle beam is irradiated, irradiation intensity, and the like based on the grasped three-dimensional position of the lesion. When treatment is actually performed, positioning is performed so that the position of the subject at the time of treatment matches the position of the subject when the treatment plan is determined. Since the treatment is performed a plurality of times based on the treatment plan, positioning is performed each time. Since it is necessary to maintain the posture of the subject from the start of the positioning to the end of the treatment, the positioning is preferably performed in a short time. However, since accuracy is also required for positioning, it may be difficult to perform positioning in a short time.

特開2011−212130号公報JP 2011-212130 A

本発明が解決しようとする課題は、位置決めの精度を向上し位置決めに要する時間を短縮することができる画像処理装置、治療システム及び画像処理方法を提供することである。   The problem to be solved by the present invention is to provide an image processing device, a treatment system, and an image processing method capable of improving the positioning accuracy and reducing the time required for positioning.

実施形態の画像処理装置は、画像取得部と再構成部と点取得部と点検出部と算出部と判定部とをもつ。画像取得部は、互いに異なる少なくとも2つの方向から対象を撮影した複数の第1の透視画像を取得する。再構成部は、互いに異なる少なくとも2つの方向から対象を撮影した際に得られる複数の第2の透視画像を予め取得された対象のボリュームデータから再構成する。点取得部は、第1の透視画像又は第2の透視画像における複数の設定点を取得する。点検出部は、設定点が第1の透視画像における点である場合、当該設定点に対応する対応点を第2の透視画像において検出し、設定点が第2の透視画像における点である場合、当該設定点に対応する対応点を第1の透視画像において検出する。算出部は、設定点と対応点とに基づいて、第1の透視画像を撮影した際の対象の位置に対する第2の透視画像を生成した際の対象の位置の変位量を算出する。判定部は、変位量が所定の条件を満たしているか否かを判定する。変位量が所定の条件を満たしていない場合、再構成部は変位量に基づいて移動させたボリュームデータから複数の第2の透視画像を再び再構成し、点検出部は再構成部が再構成した第2の透視画像と第1の透視画像とにおいて対応点を検出し、算出部は新たに検出された対応点と設定点とに基づいて変位量を再び度算出する。   The image processing apparatus according to the embodiment includes an image acquisition unit, a reconstruction unit, a point acquisition unit, a point detection unit, a calculation unit, and a determination unit. The image acquisition unit acquires a plurality of first fluoroscopic images obtained by photographing the target from at least two directions different from each other. The reconstruction unit reconstructs a plurality of second fluoroscopic images obtained when the object is photographed from at least two different directions from the volume data of the object acquired in advance. The point acquisition unit acquires a plurality of set points in the first perspective image or the second perspective image. When the set point is a point in the first perspective image, the point detection unit detects a corresponding point corresponding to the set point in the second perspective image, and the set point is a point in the second perspective image The corresponding point corresponding to the set point is detected in the first perspective image. The calculation unit calculates a displacement amount of the target position when the second perspective image is generated with respect to the target position when the first perspective image is captured based on the set point and the corresponding point. The determination unit determines whether the displacement amount satisfies a predetermined condition. When the displacement amount does not satisfy the predetermined condition, the reconstruction unit reconstructs a plurality of second fluoroscopic images from the volume data moved based on the displacement amount, and the reconstruction unit reconstructs the point detection unit. Corresponding points are detected in the second fluoroscopic image and the first fluoroscopic image, and the calculation unit calculates the displacement amount again based on the newly detected corresponding point and the set point.

治療システム10の構成を示すブロック図である。1 is a block diagram showing a configuration of a treatment system 10. FIG. 画像処理装置100の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus 100. FIG. 再構成画像を生成する際の処理を示す図である。It is a figure which shows the process at the time of producing | generating a reconstructed image. 撮像装置400における第1線源部420、第2線源部430、第1撮像部440及び第2撮像部450の配置を示す図である。4 is a diagram illustrating an arrangement of a first radiation source unit 420, a second radiation source unit 430, a first imaging unit 440, and a second imaging unit 450 in the imaging apparatus 400. FIG. 透視画像と再構成画像との間において対応する点を示す図である。It is a figure which shows the point corresponding between a fluoroscopic image and a reconstruction image. 画像処理装置100が行う変位量算出処理を示すフローチャートである。5 is a flowchart illustrating a displacement amount calculation process performed by the image processing apparatus 100. 画像処理装置100Aの構成を示すブロック図である。It is a block diagram which shows the structure of 100 A of image processing apparatuses. 画像処理装置100Aが行う変位量算出処理を示すフローチャートである。It is a flowchart which shows the displacement amount calculation process which 100A of image processing apparatuses perform.

以下、実施形態の画像処理装置、治療システム及び画像処理方法を、図面を参照して説明する。なお、以下の実施形態では、同一の参照符号を付した部分は同様の動作をおこなうものとして、重複する説明を適宜省略する。   Hereinafter, an image processing apparatus, a treatment system, and an image processing method according to embodiments will be described with reference to the drawings. Note that, in the following embodiments, the same reference numerals are assigned to the same operations, and duplicate descriptions are omitted as appropriate.

(第1の実施形態)
図1は、第1の実施形態における治療システム10の構成を示すブロック図である。治療システム10は、画像処理装置100、入出力装置200及び撮像装置400を備える。治療システム10は、計画装置300、治療装置500及び寝台装置600を更に備えてもよい。治療システム10では、計画装置300を用いて設定された治療計画に基づいて、技師や医師などのユーザが入出力装置200、撮像装置400、治療装置500及び寝台装置600を操作して対象Aに対する治療を行う。ユーザは、画像処理装置100が生成した再構成画像と、撮像装置400が撮影した透視画像とに基づいて、入出力装置200を操作する。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a treatment system 10 in the first embodiment. The treatment system 10 includes an image processing device 100, an input / output device 200, and an imaging device 400. The treatment system 10 may further include a planning device 300, a treatment device 500, and a bed device 600. In the treatment system 10, a user such as an engineer or a doctor operates the input / output device 200, the imaging device 400, the treatment device 500, and the bed device 600 on the basis of the treatment plan set by using the planning device 300. Give treatment. The user operates the input / output device 200 based on the reconstructed image generated by the image processing device 100 and the fluoroscopic image captured by the imaging device 400.

計画装置300は、放射線治療、陽子線治療又は粒子線治療などが施される対象Aに対する治療計画を定める装置である。計画装置300は、対象Aの内部形態を撮影した画像などの情報と、技師や医師などのユーザによる操作入力とに基づいて治療計画を定める。計画装置300において用いられる画像は、対象Aの内部を透視して撮影することが可能な撮像装置により撮影された画像である。このような撮像装置としては、例えばX線装置、コンピュータ・トモグラフィー(CT:Computed Tomography)装置、磁気共鳴画像(MRI:Magnetic Resonance Imaging)装置、PET(Positron Emission Tomography)装置、SPECT(Single Photon Emission Computed Tomography)装置などがある。また、計画装置300において用いられる画像は、2次元画像と3次元画像とのいずれでもよい。本実施形態では、X線CT装置によって収集されたボリュームデータに基づく画像が治療計画を定める際に用いられる場合について説明する。   The planning device 300 is a device that determines a treatment plan for the subject A to be subjected to radiation therapy, proton beam therapy, particle beam therapy, or the like. The planning device 300 determines a treatment plan based on information such as an image obtained by photographing the internal form of the target A and an operation input by a user such as an engineer or a doctor. The image used in the planning device 300 is an image taken by an imaging device that can take a picture through the inside of the target A. Examples of such an imaging apparatus include an X-ray apparatus, a computer tomography (CT) apparatus, a magnetic resonance imaging (MRI) apparatus, a PET (Positron Emission Tomography) apparatus, and a SPECT (Single Photon Emission Computed). Tomography) devices. Further, the image used in the planning apparatus 300 may be either a two-dimensional image or a three-dimensional image. In the present embodiment, a case will be described in which an image based on volume data collected by an X-ray CT apparatus is used when determining a treatment plan.

計画装置300は、データベース部310、表示部320、操作部330及び制御部340を備える。データベース部310には、対象Aを撮影して得られたデータが記憶されている。データベース部310に記憶されるデータは、対象Aを撮影して得られたボクセルデータそのものであってもよいし、撮影して得られたデータに対して、対数変換、オフセット補正、感度補正、ビームハードニング補正、散乱線補正等の補正処理を施したデータからなるボクセルデータであってもよい。また、データベース部310には、ボクセルデータに加えて、ボクセルデータから再構成された2次元画像が記憶されていてもよい。本実施形態では、データベース部310にボクセルデータがボリュームデータとして記憶されている場合について説明する。   The planning apparatus 300 includes a database unit 310, a display unit 320, an operation unit 330, and a control unit 340. The database unit 310 stores data obtained by photographing the target A. The data stored in the database unit 310 may be voxel data itself obtained by photographing the target A, or logarithmic conversion, offset correction, sensitivity correction, beam, and the like for the data obtained by photographing. It may be voxel data composed of data subjected to correction processing such as hardening correction and scattered radiation correction. In addition to the voxel data, the database unit 310 may store a two-dimensional image reconstructed from the voxel data. In the present embodiment, a case where voxel data is stored as volume data in the database unit 310 will be described.

表示部320は、制御部340による制御に基づいて、再構成画像を表示する。再構成画像はデータベース部310に記憶されているボクセルデータを再構成することにより得られる。本実施形態では、所定方向から対象Aを透視した場合に得られる画像をシミュレーションした画像(DRR:Digitally Reconstructed Radiograph)を再構成画像として用いる場合について説明する。表示部320が表示する再構成画像は、撮像装置400が撮影する画像の種類と対応していることが好ましい。例えば撮像装置400がX線装置である場合、表示部320に用事される再構成画像は、X線装置で撮影した画像をシミュレーションしたDDR画像であることが好ましい。   The display unit 320 displays a reconstructed image based on control by the control unit 340. A reconstructed image is obtained by reconstructing voxel data stored in the database unit 310. In the present embodiment, a case where an image (DRR: Digitally Reconstructed Radiograph) obtained by simulating an image obtained when the object A is seen through from a predetermined direction is used as a reconstructed image will be described. The reconstructed image displayed by the display unit 320 preferably corresponds to the type of image captured by the imaging device 400. For example, when the imaging apparatus 400 is an X-ray apparatus, the reconstructed image used in the display unit 320 is preferably a DDR image that simulates an image captured by the X-ray apparatus.

操作部330は、ユーザによる操作入力を受け付け、受け付けた操作入力に応じた情報を制御部340に送る。制御部340は、操作部330から受けた情報に基づいて、計画装置300が備える各部の動作を制御する。制御部340は、例えば中央処理装置(CPU:Central Processing Unit)を有する情報処理装置であり、特定のプログラムに基づいて制御動作を行う。制御部340は、再構成画像や操作入力に応じた情報に基づいて、治療が施される対象Aの部位を示す情報をデータベース部310に記憶させる。   The operation unit 330 receives an operation input by the user and sends information corresponding to the received operation input to the control unit 340. The control unit 340 controls the operation of each unit provided in the planning device 300 based on the information received from the operation unit 330. The control unit 340 is an information processing apparatus having, for example, a central processing unit (CPU), and performs a control operation based on a specific program. The control unit 340 causes the database unit 310 to store information indicating the site of the target A to be treated based on the reconstructed image and information corresponding to the operation input.

撮像装置400は、X線装置などであり、治療時における対象Aの内部を透視して撮影する装置である。本実施形態では、撮像装置400がX線装置である場合について説明する。撮像装置400は、制御部410、第1線源部420、第2線源部430、第1撮像部440及び第2撮像部450を備える。   The imaging apparatus 400 is an X-ray apparatus or the like, and is an apparatus that performs imaging while seeing through the inside of the target A at the time of treatment. In the present embodiment, a case where the imaging apparatus 400 is an X-ray apparatus will be described. The imaging apparatus 400 includes a control unit 410, a first radiation source unit 420, a second radiation source unit 430, a first imaging unit 440, and a second imaging unit 450.

第1撮像部440は、第1線源部420から放出されたX線であって対象Aを透過したX線に基づいて、対象Aを透視した透視画像を生成する。第1撮像部440は、フラット・パネル・ディテクタ(FPD:Flat Panel Detector)を有している。FPDは、対象Aを透過したX線を受けてデジタル信号に変換する。第1撮像部440は、FPDにより得られたデジタル信号に基づいて、透視画像を生成する。   The first imaging unit 440 generates a fluoroscopic image in which the target A is seen through based on the X-rays emitted from the first radiation source unit 420 and transmitted through the target A. The first imaging unit 440 includes a flat panel detector (FPD). The FPD receives X-rays transmitted through the object A and converts them into digital signals. The first imaging unit 440 generates a fluoroscopic image based on the digital signal obtained by the FPD.

第2撮像部450は、第2線源部430から放出されたX線であって対象Aを透過したX線に基づいて、対象Aを透視した透視画像を生成する。第2撮像部450は、第1撮像部440と同様にFPDを有している。第2撮像部450は、FPDにより得られたデジタル信号に基づいて、透視画像を生成する。   The second imaging unit 450 generates a fluoroscopic image in which the target A is seen through based on the X-rays emitted from the second radiation source unit 430 and transmitted through the target A. Similar to the first imaging unit 440, the second imaging unit 450 has an FPD. The second imaging unit 450 generates a fluoroscopic image based on the digital signal obtained by the FPD.

なお、第1撮像部440が対象Aを透視する方向と第2撮像部450が対象Aを透視する方向とは異なっている。例えば、第1撮像部440のFPDの撮像面と第2撮像部450のFPDの撮像面とが直交するように、第1線源部420、第2線源部430、第1撮像部440及び第2撮像部450は配置されている。なお、第1撮像部440及び第2撮像部450は、FPDに代えてイメージ・インテンシファイア(I.I.:Image Intensifier)を有していてもよい。   Note that the direction in which the first imaging unit 440 sees through the object A is different from the direction in which the second imaging unit 450 sees through the object A. For example, the first radiation source unit 420, the second radiation source unit 430, the first imaging unit 440, and the FPD imaging surface of the first imaging unit 440 and the FPD imaging surface of the second imaging unit 450 are orthogonal to each other. The second imaging unit 450 is arranged. The first imaging unit 440 and the second imaging unit 450 may have an image intensifier (II) instead of the FPD.

制御部410は、撮像装置400が備える各部を制御する。制御部410は、例えば中央処理装置(CPU)を有する情報処理装置であり、特定のブログラムに基づいて制御動作を行う。制御部410は、第1撮像部440及び第2撮像部450が生成した対象Aの一対の透視画像を画像処理装置100に送る。   The control unit 410 controls each unit included in the imaging device 400. The control unit 410 is an information processing apparatus having a central processing unit (CPU), for example, and performs a control operation based on a specific program. The control unit 410 sends a pair of perspective images of the target A generated by the first imaging unit 440 and the second imaging unit 450 to the image processing apparatus 100.

画像処理装置100は、対象Aの透視画像を撮影した際の撮影パラメータを撮像装置400から取得する。また、画像処理装置100は、治療計画を定めた際に用いられたボリュームデータを計画装置300のデータベース部310から読み出す。画像処理装置100は、撮影パラメータに基づいて、撮像装置400が対象Aの透視画像を撮影した視点と同じ視点からの再構成画像をボリュームデータから生成する。   The image processing apparatus 100 acquires shooting parameters when shooting a fluoroscopic image of the target A from the imaging apparatus 400. In addition, the image processing apparatus 100 reads volume data used when the treatment plan is determined from the database unit 310 of the planning apparatus 300. The image processing apparatus 100 generates a reconstructed image from the same viewpoint as the viewpoint at which the imaging apparatus 400 captured the fluoroscopic image of the target A based on the imaging parameters.

画像処理装置100は、透視画像又は再構成画像においてユーザが定めた対象Aの任意の部位を示す設定点の組を入出力装置200から取得する。設定点は、入出力装置200に表示される透視画像及び再構成画像に基づいて、ユーザが入出力装置200を操作して定められる。画像処理装置100は、透視画像上に設定点が定められた場合、再構成画像上において設定点に対応する対応点を検出する。また、画像処理装置100は、再構成画像上に設定点が定められた場合、透視画像上において設定点に対応する対応点を検出する。   The image processing apparatus 100 acquires from the input / output device 200 a set of set points indicating an arbitrary part of the target A defined by the user in the fluoroscopic image or the reconstructed image. The set point is determined by the user operating the input / output device 200 based on the perspective image and the reconstructed image displayed on the input / output device 200. When the set point is set on the fluoroscopic image, the image processing apparatus 100 detects a corresponding point corresponding to the set point on the reconstructed image. Further, when a set point is determined on the reconstructed image, the image processing apparatus 100 detects a corresponding point corresponding to the set point on the fluoroscopic image.

ここで、対応点とは、設定点を中心とした所定のサイズの矩形領域における画像と類似度が最も高い部分画像の中心点である。透視画像上に設定点が定められた場合、再構成画像上における対応点は、設定点近傍の部分画像に最も類似する部分画像の中心点である。また、再構成画像上に設定点が定められた場合、透視画像における対応点は、設定点近傍の部分画像に最も類似する部分画像の中心点である。   Here, the corresponding point is the center point of the partial image having the highest degree of similarity with the image in the rectangular area having a predetermined size with the set point as the center. When the set point is determined on the fluoroscopic image, the corresponding point on the reconstructed image is the center point of the partial image most similar to the partial image near the set point. When a set point is set on the reconstructed image, the corresponding point in the fluoroscopic image is the center point of the partial image that is most similar to the partial image near the set point.

画像処理装置100は、設定点と対応点とに基づいて、透視画像を撮影した際の対象Aの位置と再構成画像を生成した際の対象Aの位置とのずれを算出する。画像処理装置100は、算出したずれに基づいた位置決め情報を寝台装置600に出力する。以下の説明において、透視画像を撮影した際の対象Aの位置と再構成画像を生成した際の対象Aの位置とのずれを、変位量という。   Based on the set point and the corresponding point, the image processing apparatus 100 calculates a deviation between the position of the target A when the fluoroscopic image is captured and the position of the target A when the reconstructed image is generated. The image processing apparatus 100 outputs positioning information based on the calculated deviation to the bed apparatus 600. In the following description, the shift between the position of the target A when the fluoroscopic image is captured and the position of the target A when the reconstructed image is generated is referred to as a displacement amount.

入出力装置200は、表示部210及び操作部220を備える。表示部210は、画像処理装置100から画像データを受け付ける。表示部210は、受け付けた画像データを表示する。画像データは、例えばボリュームデータに基づいて生成された再構成画像や、撮像装置400が撮影した透視画像などを含む。   The input / output device 200 includes a display unit 210 and an operation unit 220. The display unit 210 receives image data from the image processing apparatus 100. The display unit 210 displays the received image data. The image data includes, for example, a reconstructed image generated based on volume data, a fluoroscopic image taken by the imaging device 400, and the like.

操作部220は、ユーザによる操作入力を受け付け、操作入力に応じた情報を画像処理装置100に出力する。操作部220は、表示部210に表示された画像上の位置を指定する操作入力を受け付け、当該位置を示す座標情報を画像処理装置100に供給する。操作部220は、例えばマウス及びタッチパネルなどのポインティングデバイスや、キーボードなどを有する。操作部220がタッチパネルを有する場合、表示部210と操作部220とがひとつの装置として構成されてもよい。   The operation unit 220 receives an operation input by a user and outputs information corresponding to the operation input to the image processing apparatus 100. The operation unit 220 receives an operation input for designating a position on the image displayed on the display unit 210, and supplies coordinate information indicating the position to the image processing apparatus 100. The operation unit 220 includes a pointing device such as a mouse and a touch panel, a keyboard, and the like. When the operation unit 220 includes a touch panel, the display unit 210 and the operation unit 220 may be configured as one device.

治療装置500は、対象Aに対して放射線治療、陽子線治療又は粒子線治療を施す装置である。治療装置500は、制御部510及び複数の線源部520を備える。制御部510は、治療装置500が備える各部を制御する。制御部510は、例えば中央処理装置(CPU)を有する情報処理装置であり、特定のプログラムに基づいて制御動作を行う。制御部510は、寝台装置600が対象Aを変位量に基づいて移動させたことを検出した後に、線源部520を可動可能状態にする。複数の線源部520それぞれは、稼働可能状態になるとユーザの制御に基づいて対象Aに向けて放射線、陽子線又は粒子線を照射する。複数の線源部520は、各線源部520から照射される放射線、陽子線又は粒子線が一点(アイソセンタ)で交わるように、配置されている。   The treatment apparatus 500 is an apparatus that performs radiation therapy, proton beam therapy, or particle beam therapy on the subject A. The treatment device 500 includes a control unit 510 and a plurality of radiation source units 520. The control unit 510 controls each unit included in the treatment apparatus 500. The control unit 510 is an information processing apparatus having a central processing unit (CPU), for example, and performs a control operation based on a specific program. Control unit 510 makes radiation source unit 520 movable after detecting that bed apparatus 600 has moved object A based on the amount of displacement. Each of the plurality of radiation source units 520 emits radiation, proton beams, or particle beams toward the target A based on user control when in an operable state. The plurality of radiation source units 520 are arranged so that the radiation, proton beam, or particle beam irradiated from each radiation source unit 520 intersects at one point (isocenter).

寝台装置600は対象Aを乗せる可動台を備えている。寝台装置600は、画像処理装置100から取得する位置決め情報に基づいて、対象Aを乗せる可動台を移動させる。これにより、治療計画時に定めた対象Aの部位とアイソセンタとを合わせる。なお、可動台には、寝床や椅子などの形状を有するものが用いられる。   The bed apparatus 600 includes a movable table on which the object A is placed. The bed apparatus 600 moves the movable table on which the subject A is placed based on the positioning information acquired from the image processing apparatus 100. Thereby, the site | part of the object A and the isocenter which were determined at the time of treatment planning are matched. In addition, what has shapes, such as a bed and a chair, is used for a movable stand.

図2は、第1の実施形態における画像処理装置100の構成を示すブロック図である。図2に示すように、画像処理装置100は、透視画像取得部101、再構成画像生成部102、点取得部103、点検出部104、算出部105、判定部106及び画像データ生成部107を備える。第1の実施形態における画像処理装置100及び治療システム10において、治療装置500のアイソセンタを位置決めにおける世界座標系の原点とする。また、画像処理装置100及び治療システム10において用いられる3次元座標には、アイソセンタを原点とする世界座標系が用いられる。   FIG. 2 is a block diagram illustrating a configuration of the image processing apparatus 100 according to the first embodiment. As illustrated in FIG. 2, the image processing apparatus 100 includes a perspective image acquisition unit 101, a reconstructed image generation unit 102, a point acquisition unit 103, a point detection unit 104, a calculation unit 105, a determination unit 106, and an image data generation unit 107. Prepare. In the image processing apparatus 100 and the treatment system 10 in the first embodiment, the isocenter of the treatment apparatus 500 is set as the origin of the world coordinate system for positioning. Further, for the three-dimensional coordinates used in the image processing apparatus 100 and the treatment system 10, a world coordinate system having an isocenter as the origin is used.

ここで、画像処理装置100における画像処理の対象となる透視画像としてのX線画像と再構成画像とについて説明する。   Here, an X-ray image and a reconstructed image as a fluoroscopic image to be subjected to image processing in the image processing apparatus 100 will be described.

X線画像は、X線源から被写体に向けて照射されたX線が被写体を通過してFPDに到達したときのX線のエネルギーの大小を画素値に変換して得られた画像である。FPDには2次元平面上にX線検出器が配置されており、各X検出器が検出するエネルギーが画素値に変換される。FPDに到達したときのX線のエネルギーは被写体内の組織に応じて減衰しているため、X線画像は被写体内を透視した画像になる。X線画像における各画素の位置i∈RのX線検出器に到達するX線のエネルギーPは次式(1)で表すことができる。 The X-ray image is an image obtained by converting the magnitude of the energy of the X-ray when the X-ray irradiated from the X-ray source toward the subject passes through the subject and reaches the FPD into a pixel value. In the FPD, an X-ray detector is arranged on a two-dimensional plane, and energy detected by each X detector is converted into a pixel value. Since the energy of the X-ray when reaching the FPD is attenuated according to the tissue in the subject, the X-ray image is an image seen through the subject. The energy P i of the X-ray that reaches the X-ray detector at the position iεR 2 of each pixel in the X-ray image can be expressed by the following equation (1).

Figure 0006305250
Figure 0006305250

式(1)において、Pは被写体に入射したときのX線のエネルギーである。μ(l,p)は位置lにおける物体の線源弱係数(linear attenuation coefficient)である。線源弱係数は物質を通過するX線のエネルギーPに応じて変化する値である。線源から画素位置iに配置されているX線検出器に到達するまでのX線の経路上にある物質の線源弱係数を線積分して得られた値が、X線検出器に到達するX線のエネルギーである。X線検出器の検出特性はPの対数をとったものに対して線形になるように設計されているので、X線検出器が出力する信号を画素値に線形変換することによりX線画像が得られる。すなわち、X線画像の各画素の画素値Tは次式(2)で表すことができる。なお、log(P)は定数である。 In Expression (1), P 0 is the energy of X-rays when entering the subject. μ (l, p) is the linear attenuation coefficient of the object at position l. The source weak coefficient is a value that changes according to the energy P of X-rays passing through the substance. A value obtained by performing line integration of the source weak coefficient of the substance on the X-ray path from the radiation source to the X-ray detector arranged at the pixel position i reaches the X-ray detector. X-ray energy. The detection characteristics of the X-ray detector is designed to be linear with respect to those taking the logarithm of P i, X-ray image by linearly converting a signal X-ray detector outputs the pixel value Is obtained. That is, the pixel value T i of each pixel of the X-ray image can be expressed by the following equation (2). Note that log (P 0 ) is a constant.

Figure 0006305250
Figure 0006305250

上記のように、X線撮影で得られるX線画像の各画素は、線源から照射されるX線がFPDのX線検出器に到達する経路上の対象Aの線源弱係数の積和に応じて画素化される。   As described above, each pixel of the X-ray image obtained by X-ray imaging is obtained by multiplying the product sum of the source A weak coefficients of the object A on the path where the X-rays irradiated from the source reach the X-ray detector of the FPD. It is converted into a pixel according to.

再構成画像(DRR:Digitally Reconstructed Radiograph)は、例えばボリュームデータで表される対象Aを寝台装置600上に仮想的に配置したときに、任意の方向から透視投影をして生成される。図3は、再構成画像を生成する際の処理を示す図である。アイソセンタを原点とする3次元座標系における座標を(x,y,z)とし、再構成画像における2次元座標を(u,v)とする。再構成画像の座標(u,v)における画素の画素値I(u,v)は次式(3)により算出される。   A reconstructed image (DRR: Digitally Reconstructed Radiograph) is generated by perspective projection from an arbitrary direction, for example, when an object A represented by volume data is virtually arranged on the bed apparatus 600. FIG. 3 is a diagram illustrating processing when a reconstructed image is generated. The coordinates in the three-dimensional coordinate system with the isocenter as the origin are (x, y, z), and the two-dimensional coordinates in the reconstructed image are (u, v). The pixel value I (u, v) of the pixel at the coordinates (u, v) of the reconstructed image is calculated by the following equation (3).

Figure 0006305250
Figure 0006305250

式(3)において、V(x,y,z)は寝台装置600に仮想的に配置された対象Aの座標(x,y,z)におけるボリュームデータの値である。画素値I(u,v)は、光線L上のボリュームデータの値の積分によって得られることを式(3)は示している。W(V)は、ボリュームデータの値に掛かる重み係数である。重み係数W(V)を制御することにより、特定のボリュームデータの値を強調した再構成画像を生成することができる。重み係数W(V)の制御は、再構成画像とX線画像とを照合する際に注目する組織を強調したり、ユーザが注目する組織を強調して視認性を向上させたりすることができる。   In Expression (3), V (x, y, z) is a value of volume data at the coordinates (x, y, z) of the target A virtually arranged on the bed apparatus 600. Equation (3) shows that the pixel value I (u, v) is obtained by integrating the value of the volume data on the light beam L. W (V) is a weighting factor applied to the value of the volume data. By controlling the weighting factor W (V), a reconstructed image in which the value of specific volume data is emphasized can be generated. The control of the weighting factor W (V) can enhance the tissue that is noticed when collating the reconstructed image and the X-ray image, or can enhance the visibility by enhancing the tissue that the user is interested in. .

データ値V(x,y,z)は、位置(x,y,z)に位置する物質の線源弱係数に基づく値である。そこで、光線Lの経路上になる物質の線源弱係数の和を用いて再構成画像を生成した場合、X線画像も式(2)で示すように光線上の線源弱係数の和で画素値が決定されるので、再構成画像とX線画像とは類似する。   The data value V (x, y, z) is a value based on the source weak coefficient of the substance located at the position (x, y, z). Therefore, when the reconstructed image is generated using the sum of the source weak coefficients of the substances on the path of the light L, the X-ray image is also the sum of the source weak coefficients on the light as shown in Expression (2). Since the pixel value is determined, the reconstructed image and the X-ray image are similar.

再構成画像を生成するためには、光線の経路Lと対象Aのボリュームデータの位置とを定める必要がある。治療システム10において対象Aの位置決めをする際には、治療時に対象Aの透視画像を撮影するときの撮像装置400におけるX線がFPDに到達する経路に基づいて、再構成画像を生成するための光線の経路Lと対象Aの位置とを定める。   In order to generate a reconstructed image, it is necessary to determine the ray path L and the position of the volume data of the object A. When positioning the target A in the treatment system 10, a reconstructed image is generated based on the path through which X-rays in the imaging apparatus 400 when the fluoroscopic image of the target A is taken during treatment reaches the FPD. The light path L and the position of the object A are determined.

図4は、異なる2方向から透視画像を撮影する撮像装置400における第1線源部420、第2線源部430、第1撮像部440及び第2撮像部450の配置を示す図である。第1線源部420から照射されるX線は、対象Aを透過して第1撮像部440に到達する。第1撮像部440は、対象Aを透過したX線のエネルギーに基づいて透視画像を生成する。同様に、第2線源部430から照射されるX線は、対象Aを透過して第2撮像部450に到達する。第2撮像部450は、対象Aを透過したX線のエネルギーに基づいて透視画像を生成する。   FIG. 4 is a diagram illustrating an arrangement of the first radiation source unit 420, the second radiation source unit 430, the first imaging unit 440, and the second imaging unit 450 in the imaging apparatus 400 that captures fluoroscopic images from two different directions. X-rays emitted from the first radiation source unit 420 pass through the object A and reach the first imaging unit 440. The first imaging unit 440 generates a fluoroscopic image based on the X-ray energy that has passed through the target A. Similarly, the X-rays emitted from the second source unit 430 pass through the target A and reach the second imaging unit 450. The second imaging unit 450 generates a fluoroscopic image based on the energy of X-rays that have passed through the target A.

撮像装置400は撮影位置の校正が行われており、治療システムに対して定められた3次元空間座標系と、第1撮像部440及び第2撮像部450における撮像面における2次元座標系との座標顕官を行うための透視投影行列が予め求められている。このように、撮像装置400が校正済みであれば、第1線源部420及び第1撮像部440と第2線源部430及び第2撮像部450とそれぞれの位置関係が既知であるため、再構成画像を生成する際に用いる光線の経路Lを定めることができる。具体的には、経路Lの始点を第1線源部420とし、終点を第1撮像部440の撮像面における各画素とする。また、経路Lの始点を第2線源部430とし、終点を第2撮像部450の撮像面における各画素とする。   The imaging apparatus 400 is calibrated for the imaging position, and includes a three-dimensional space coordinate system determined for the treatment system and a two-dimensional coordinate system on the imaging surface of the first imaging unit 440 and the second imaging unit 450. A perspective projection matrix for performing a coordinate revealer is obtained in advance. Thus, if the imaging apparatus 400 has been calibrated, the positional relationship between the first radiation source unit 420, the first imaging unit 440, the second radiation source unit 430, and the second imaging unit 450 is already known. It is possible to determine the light path L used when generating the reconstructed image. Specifically, the start point of the path L is the first source unit 420 and the end point is each pixel on the imaging surface of the first imaging unit 440. The starting point of the path L is the second source unit 430 and the end point is each pixel on the imaging surface of the second imaging unit 450.

このように、透視画像を撮影した際のX線の経路と同様の経路Lを利用して再構成画像を生成した場合、対象Aのボリュームデータの位置が透視画像を撮影したときの対象Aの位置と同一であれば、再構成画像と透視画像とが最も類似する。   As described above, when the reconstructed image is generated using the same path L as the X-ray path when the fluoroscopic image is captured, the position of the volume data of the target A is that of the target A when the fluoroscopic image is captured. If it is the same as the position, the reconstructed image and the fluoroscopic image are most similar.

つまり、位置決めを行う際には、ユーザは、2方向から撮影した2枚の透視画像と2枚の再構成画像とが最も類似するようにボリュームデータを移動させて一致する位置を探して、変位量を求める。ボリュームデータを移動させるには、XYZ軸周りの回転と並進との6つのパラメータを定める必要がある。これらの6つのパラメータを定めるために、図5に示すように、透視画像と再構成画像とのそれぞれにおいて対応する点を定め、対応する点に基づいて変位量を算出する。図5は、透視画像と再構成画像との間において対応する点の例を示す図である。図5において、透視画像と再構成画像とにおいて対応する点が、黒い点で示されている。   In other words, when positioning is performed, the user moves the volume data so that the two fluoroscopic images photographed from two directions and the two reconstructed images are most similar to each other, and searches for a matching position. Find the amount. In order to move the volume data, it is necessary to define six parameters of rotation and translation around the XYZ axes. In order to determine these six parameters, as shown in FIG. 5, corresponding points are determined in each of the fluoroscopic image and the reconstructed image, and the displacement amount is calculated based on the corresponding points. FIG. 5 is a diagram illustrating an example of corresponding points between the fluoroscopic image and the reconstructed image. In FIG. 5, corresponding points in the fluoroscopic image and the reconstructed image are indicated by black dots.

画像処理装置100は、透視画像と再構成画像とのいずれか一方の画像上に点が入力されると、他方の画像において対応する対応点を検出し、変位量を算出する。画像処理装置100は、算出した変位量に基づいて対象Aのボリュームデータを移動させた後に再構成画像を生成し、再び対応点を検出して変位量を算出する。画像処理装置100は、対応点の検出と変位量の算出とを繰り返すことにより、ユーザが対応点を入力する手間を省くとともに、位置決めの精度を向上させる。   When a point is input on one of the fluoroscopic image and the reconstructed image, the image processing apparatus 100 detects a corresponding point in the other image and calculates a displacement amount. The image processing apparatus 100 generates a reconstructed image after moving the volume data of the target A based on the calculated displacement amount, detects the corresponding point again, and calculates the displacement amount. The image processing apparatus 100 repeats the detection of the corresponding points and the calculation of the displacement amount, thereby saving the user from inputting the corresponding points and improving the positioning accuracy.

透視画像取得部101は、撮像装置400において撮影された対象Aの第1透視画像と第2透視画像との一対の透視画像を取得する。また、透視画像取得部101は、第1透視画像を撮影した第1撮像部440のカメラパラメータと、第2透視画像を撮影した第2撮像部450のカメラパラメータとを取得する。透視画像取得部101は、取得した一対の透視画像を点検出部104に供給する。また、透視画像取得部101は、取得した二つのカメラパラメータを再構成画像生成部102及び点取得部103に供給する。   The fluoroscopic image acquisition unit 101 acquires a pair of fluoroscopic images of a first fluoroscopic image and a second fluoroscopic image of the target A that are captured by the imaging device 400. In addition, the fluoroscopic image acquisition unit 101 acquires the camera parameters of the first imaging unit 440 that has captured the first fluoroscopic image and the camera parameters of the second imaging unit 450 that has captured the second fluoroscopic image. The fluoroscopic image acquisition unit 101 supplies the acquired pair of fluoroscopic images to the point detection unit 104. The perspective image acquisition unit 101 supplies the acquired two camera parameters to the reconstructed image generation unit 102 and the point acquisition unit 103.

再構成画像生成部102は、計画装置300のデータベース部310からボリュームデータを読み出す。再構成画像生成部102は、透視画像取得部101から二つのカメラパラメータを取得する。また、再構成画像生成部102は、算出部105から変位量を取得する。再構成画像生成部102は、ボリュームデータと変位量と二つのカメラパラメータに基づいて、再構成画像をカメラパラメータごとに生成する。変位量は、カメラパラメータごとに生成された一対の再構成画像と一対の透視画像とに基づいて算出部105が算出する値である。また、変位量は、ボリュームデータで表される対象Aの位置と透視画像を撮影した際の対象Aの位置とのずれを表す値である。なお、再構成画像生成部102が最初に再構成画像を生成するときには、変位量が算出されていないため、変位量をゼロとする。再構成画像生成部102は、生成した一対の再構成画像を点検出部104に供給する。   The reconstructed image generation unit 102 reads volume data from the database unit 310 of the planning device 300. The reconstructed image generation unit 102 acquires two camera parameters from the perspective image acquisition unit 101. Also, the reconstructed image generation unit 102 acquires the displacement amount from the calculation unit 105. The reconstructed image generation unit 102 generates a reconstructed image for each camera parameter based on the volume data, the displacement amount, and the two camera parameters. The displacement amount is a value calculated by the calculation unit 105 based on a pair of reconstructed images and a pair of perspective images generated for each camera parameter. Further, the displacement amount is a value representing a deviation between the position of the object A represented by the volume data and the position of the object A when the fluoroscopic image is captured. When the reconstructed image generation unit 102 first generates a reconstructed image, the displacement amount is set to zero because the displacement amount is not calculated. The reconstructed image generation unit 102 supplies the generated pair of reconstructed images to the point detection unit 104.

点取得部103は、ユーザが透視画像又は再構成画像において定めた対象Aの少なくとも三つの部位に対応する点を含む点群の画像における2次元座標を入出力装置200から取得する。以下の説明において、ユーザが定めた点を設定点という。設定点には、例えば透視画像又は再構成画像において特徴があるとユーザが判断した点や、画像上において特異な点などが選択される。設定点は、透視画像において定められる場合、再構成画像において定められる場合のいずれの場合においても、異なる方向からの画像それぞれにおける対象Aの部位に対応する点が定められる。   The point acquisition unit 103 acquires, from the input / output device 200, two-dimensional coordinates in an image of a point group including points corresponding to at least three parts of the target A defined by the user in the perspective image or the reconstructed image. In the following description, a point determined by the user is referred to as a set point. As the set point, for example, a point determined by the user that there is a feature in the fluoroscopic image or the reconstructed image, a unique point on the image, or the like is selected. In either case where the set point is determined in the fluoroscopic image or in the reconstructed image, a point corresponding to the site of the target A in each of the images from different directions is determined.

点取得部103が取得した点群に含まれる各設定点は、異なる2方向から撮影した透視画像又は再構成画像において対象A上の同位置を示す点である。そのため、各設定点の位置から、以下のようにして対象Aの3次元位置を算出することができる。   Each set point included in the point group acquired by the point acquisition unit 103 is a point indicating the same position on the object A in a perspective image or a reconstructed image taken from two different directions. Therefore, the three-dimensional position of the object A can be calculated from the position of each set point as follows.

カメラパラメータに含まれる射影行列Pが既知である撮像装置400で撮影された画像上の設定点の位置をベクトルx=(x,y,1)とする。設定点の位置にある対象の3次元空間における位置をベクトルX=(X,Y,Z,1)とすれば、次式(4)が成り立つ。   A position of a set point on an image captured by the imaging apparatus 400 whose projection matrix P included in the camera parameter is known is assumed to be a vector x = (x, y, 1). If the position of the target at the set point in the three-dimensional space is a vector X = (X, Y, Z, 1), the following equation (4) is established.

Figure 0006305250
Figure 0006305250

式(4)におけるλはスケール倍の不定性を表す定数である。ここで、異なる2方向から撮影した画像上で対象A上の同一位置であるベクトルxとベクトルxとが指定されると、次式(5)の連立方程式が成り立つ。 In formula (4), λ is a constant representing the indefiniteness of the scale factor. Here, two different when the vector x 1 and vector x 2 is the same position on the object A on the captured image from the direction is specified, holds the simultaneous equations of the formula (5).

Figure 0006305250
Figure 0006305250

式(5)における、PとPとは2方向から撮影した際の射影行列であり、λとλとはスケール倍の不定性を表す定数である。式(5)をベクトルXについて解くことにより、設定点の3次元座標を得ることができる。点取得部103は、取得した点群に含まれる各設定点の3次元座標を算出する。点取得部103は、点群の3次元座標を含む座標情報を点検出部104及び算出部105に供給する。 In Expression (5), P 1 and P 2 are projection matrices when imaged from two directions, and λ 1 and λ 2 are constants representing scale indefiniteness. By solving Equation (5) for the vector X, the three-dimensional coordinates of the set point can be obtained. The point acquisition unit 103 calculates the three-dimensional coordinates of each set point included in the acquired point group. The point acquisition unit 103 supplies coordinate information including the three-dimensional coordinates of the point group to the point detection unit 104 and the calculation unit 105.

なお、点取得部103は、過去の治療で設定された対象Aにおける点群の3次元座標を取得してもよい。また、点取得部103は、ボリュームデータに基づいて生成された対象Aの断面図において定められた点を設定点として取得し、ボリュームデータに基づいた3次元座標を取得してもよい。点群の位置を3次元座標として取得した場合でも、点取得部103は、式(5)に基づいて画像上の2次元座標に変換することで、画像上の点を取得できる。また、治療システム10による対象Aの治療は、複数回に亘り行われることが多いので、点取得部103は、過去の治療において定められた複数の設定点を取得してもよい。   Note that the point acquisition unit 103 may acquire the three-dimensional coordinates of the point group in the target A set in the past treatment. In addition, the point acquisition unit 103 may acquire a point defined in the cross-sectional view of the target A generated based on the volume data as a set point, and may acquire three-dimensional coordinates based on the volume data. Even when the position of the point group is acquired as a three-dimensional coordinate, the point acquisition unit 103 can acquire a point on the image by converting it into a two-dimensional coordinate on the image based on Expression (5). Moreover, since the treatment of the subject A by the treatment system 10 is often performed a plurality of times, the point acquisition unit 103 may acquire a plurality of set points determined in the past treatment.

点検出部104は、点取得部103から取得した点群に含まれる各設定点に対応する対応点を検出する。点検出部104は、点群に含まれる設定点ごとに、設定点を中心とした所定の大きさの矩形窓を用いて設定点の近傍の部分画像を抽出する。点検出部104は、設定点が透視画像上の点である場合、抽出した部分画像と最も類似度が高い部分画像を再構成画像上において探索する。点検出部104は、検出した再構成画像上の部分画像の中心を設定点に対応する対応点にする。また、点検出部104は、設定点が再構成画像上の点である場合、検出した部分画像と最も類似度が高い部分画像を透視画像上において探索する。点検出部104は、検出した透視画像上の部分画像の中心を設定点に対応する対応点にする。   The point detection unit 104 detects a corresponding point corresponding to each set point included in the point group acquired from the point acquisition unit 103. For each set point included in the point group, the point detection unit 104 extracts a partial image near the set point using a rectangular window having a predetermined size centered on the set point. When the set point is a point on the fluoroscopic image, the point detection unit 104 searches the reconstructed image for a partial image having the highest similarity with the extracted partial image. The point detector 104 sets the center of the detected partial image on the reconstructed image as a corresponding point corresponding to the set point. In addition, when the set point is a point on the reconstructed image, the point detection unit 104 searches the perspective image for a partial image having the highest similarity with the detected partial image. The point detection unit 104 sets the center of the detected partial image on the perspective image as a corresponding point corresponding to the set point.

点検出部104は、例えば類似度の算出に正規化相互相関を用いる。なお、類似度には、他の画像特徴量を用いてもよい。例えば、輝度の勾配に基づく特徴量、SIFT特徴量や、LBP特徴量、類似度にベクトル型の特徴量を用いてもよい。ベクトル型の特徴量を用いる場合には、ベクトル間の距離が小さいほど類似度を高くする。   The point detection unit 104 uses normalized cross-correlation, for example, for calculating similarity. Note that other image feature amounts may be used as the similarity. For example, a vector type feature quantity may be used for a feature quantity based on a luminance gradient, a SIFT feature quantity, an LBP feature quantity, or a similarity. In the case of using a vector-type feature amount, the similarity is increased as the distance between the vectors is smaller.

点検出部104は、検出した各対応点の3次元座標を式(5)に基づいて算出する。点検出部104は、検出した各対応点の3次元座標を含む座標情報を算出部105に供給する。   The point detection unit 104 calculates the three-dimensional coordinates of each detected corresponding point based on Expression (5). The point detection unit 104 supplies coordinate information including the three-dimensional coordinates of each detected corresponding point to the calculation unit 105.

算出部105は、点取得部103が取得した点群の座標情報と、点検出部104が算出した各対応点の座標情報とに基づいて、変位量を算出する。算出部105は、異なる2方向から撮影した透視画像及び再構成画像の4枚の画像上それぞれに対応する点に基づいて、透視画像を撮影した際の対象Aの位置と再構成画像を生成した際の対象Aの位置とを算出する。   The calculation unit 105 calculates a displacement amount based on the coordinate information of the point group acquired by the point acquisition unit 103 and the coordinate information of each corresponding point calculated by the point detection unit 104. The calculation unit 105 generates the reconstructed image and the position of the target A when the fluoroscopic image is captured based on points corresponding to the four images of the fluoroscopic image and the reconstructed image captured from two different directions. The position of the target A at the time is calculated.

算出部105は、対象Aのボリュームデータの三次元位置をXとし、透視画像を撮影した際の対象Aの三次元位置Yとし、対象Aが三次元位置Xから三次元位置Yへ移動する際の変位量を算出する。このとき、対象Aが3次元空間において回転及び並進を含む剛体移動をしているとすれば、次式(6)を満たす。 The calculation unit 105 sets the three-dimensional position of the volume data of the target A as X i , the three-dimensional position Y i of the target A when the fluoroscopic image is taken, and the target A changes from the three-dimensional position X i to the three-dimensional position Y i. The amount of displacement when moving to is calculated. At this time, if the object A is moving rigidly including rotation and translation in the three-dimensional space, the following expression (6) is satisfied.

Figure 0006305250
Figure 0006305250

式(6)における行列Rは3行3列の回転行列であり、ベクトルtは3行1列の並進ベクトルである。行列Rとベクトルtとが算出部105によって算出される変位量である。設定点及び対応点として得られたすべての対応する点の三次元位置X、Y(i=1,2,…,N)に対して式(6)が成り立つとして連立方程式にして変位量を算出する。 The matrix R in Equation (6) is a 3 × 3 rotation matrix, and the vector t is a 3 × 1 translation vector. The matrix R and the vector t are displacement amounts calculated by the calculation unit 105. Displacement amount using simultaneous equations assuming that equation (6) holds for the three-dimensional positions X i , Y i (i = 1, 2,..., N) of all corresponding points obtained as set points and corresponding points. Is calculated.

三次元位置X(i=1,2,…,N)の重心を ̄Xとし、三次元位置Y(i=1,2,…,N)の重心を ̄Yとすれば、並進ベクトルtは次式(7)のように表される。よって、回転行列Rを求めれば、並進ベクトルtが定まる。なお、「 ̄X」はXの上にオーバーラインを付したパラメータを便宜的に示している。また、他のパラメータに対してオーバーラインが付されている場合、同様にパラメータの前に「 ̄(オーバーライン)」を付して表す。 If the center of gravity of the three-dimensional position X i (i = 1, 2,..., N) is  ̄X and the center of gravity of the three-dimensional position Y i (i = 1, 2,..., N) is  ̄Y, then the translation vector. t is expressed as the following equation (7). Therefore, if the rotation matrix R is obtained, the translation vector t is determined. “ ̄X” indicates a parameter with an overline on X for convenience. In addition, when an overline is added to another parameter, “パ ラ メ ー タ (overline)” is added in front of the parameter similarly.

Figure 0006305250
Figure 0006305250

ここで、X’=X− ̄X、Y’=Y− ̄Yとしたとき、次式(8)となる回転行列Rを算出する。このような行列Rを求める問題は、Orthogonal Procrustes problem として知られており、様々な解法が存在する。算出部105は、既知の解法のいずれかを用いて回転行列Rを算出する。また、算出部105は、算出した回転行列Rを式(7)に代入して並進ベクトルtを算出する。算出部105は、算出した回転行列R及び並進ベクトルtを含む変位量を、判定部106及び再構成画像生成部102に供給する。 Here, when X ′ i = X i − ̄X and Y ′ i = Y i − ̄Y, a rotation matrix R represented by the following equation (8) is calculated. The problem of obtaining such a matrix R is known as an Orthogonal Procrustes problem, and there are various solutions. The calculation unit 105 calculates the rotation matrix R using any of known solutions. Further, the calculation unit 105 calculates the translation vector t by substituting the calculated rotation matrix R into Expression (7). The calculation unit 105 supplies the displacement amount including the calculated rotation matrix R and translation vector t to the determination unit 106 and the reconstructed image generation unit 102.

Figure 0006305250
Figure 0006305250

判定部106は、算出部105により算出された変位量が予め定められた基準を満たすか否かを判定する。判定部106は、変位量が基準を満たす場合に、変位量を含む位置決め情報を寝台装置600に出力する。判定部106は、変位量が基準を満たさない場合、再構成画像生成部102に再構成画像の生成、点検出部104に対応点の検出及び算出部105に変位量の算出を行わせる制御を行う。   The determination unit 106 determines whether or not the displacement amount calculated by the calculation unit 105 satisfies a predetermined criterion. The determination unit 106 outputs positioning information including the displacement amount to the bed apparatus 600 when the displacement amount satisfies the reference. When the displacement amount does not satisfy the standard, the determination unit 106 performs control for causing the reconstructed image generation unit 102 to generate a reconstructed image, causing the point detection unit 104 to detect corresponding points, and causing the calculation unit 105 to calculate the displacement amount. Do.

ここで、変位量に対する基準に対して説明する。判定部106は、再構成画像と透視画像との類似度が予め定められた閾値以上である場合に、変位量が基準を満たしていると判定する。判定に用いる再構成画像は、再構成画像生成部102が変位量に基づいて対象Aのボリュームデータを移動させて生成した再構成画像である。再構成画像と透視画像との類似度の算出には、例えば正規化相互相関を用いる。なお、正規化相互相関の算出に代えて、相互情報量を用いて類似度を算出したり、それぞれの画像の各画素値のヒストグラムの類似度を算出したり、それぞれの画像の画素値を正規化して二乗誤差を算出したりしてもよい。また、それぞれの画像における画素値の勾配に基づく特徴量によって類似度を算出してもよい。   Here, the reference for the displacement amount will be described. The determination unit 106 determines that the displacement amount satisfies the standard when the similarity between the reconstructed image and the fluoroscopic image is equal to or greater than a predetermined threshold. The reconstructed image used for the determination is a reconstructed image generated by the reconstructed image generation unit 102 moving the volume data of the target A based on the displacement amount. For example, normalized cross-correlation is used to calculate the similarity between the reconstructed image and the fluoroscopic image. Instead of calculating normalized cross-correlation, the degree of similarity is calculated using the mutual information amount, the degree of similarity of the histogram of each pixel value of each image is calculated, and the pixel value of each image is normalized. Or a square error may be calculated. Further, the similarity may be calculated based on the feature amount based on the gradient of the pixel value in each image.

また、判定部106は、再構成画像と透視画像との類似度を算出する際に、画像全体の類似度の算出に代えて、設定点及び対応点それぞれの含む一定の大きさの部分画像の局所類似度を算出してもよい。すなわち、判定部106は、設定点及び対応点それぞれの近傍の部分画像の局所類似度を、変位量に基づいて移動させたボリュームデータの再構成画像と透視画像との類似度として用いてもよい。   In addition, when the similarity between the reconstructed image and the fluoroscopic image is calculated, the determination unit 106 replaces the calculation of the similarity of the entire image with a partial image having a certain size including the set point and the corresponding point. Local similarity may be calculated. That is, the determination unit 106 may use the local similarity of the partial images near each of the set point and the corresponding point as the similarity between the reconstructed image of the volume data moved based on the displacement amount and the fluoroscopic image. .

また、判定部106は、変位量が繰り返し算出されている場合に、透視画像と再構成画像との類似度が前回の判定の際に算出した類似度をより類似の度合いが低くなったときに、変位量を繰り返し算出する動作を停止させて、前回の変位量を含む位置決め情報を寝台装置600に出力する。   Further, when the displacement amount is repeatedly calculated, the determination unit 106 determines that the similarity between the fluoroscopic image and the reconstructed image is lower than the similarity calculated at the previous determination. Then, the operation of repeatedly calculating the displacement amount is stopped, and positioning information including the previous displacement amount is output to the bed apparatus 600.

なお、変位量に対する基準として、再構成画像と透視画像との類似度に代えて、変位量に含まれる回転行列Rに基づいてXYZ軸周りの回転角度と並進ベクトルtの大きさとを算出してもよい。このとき、判定部106は、各回転角度と大きさとのすべてが所定の閾値以下であるか否かを判定する。判定部106は、各回転角度と大きさとが閾値以下である場合、変位量を含む位置決め情報を寝台装置600に出力する。判定部106は、各回転角度と大きさとのうちいずれかが閾値より大きい場合、再構成画像生成部102に再構成画像の生成、点検出部104に対応点の検出及び算出部105に変位量の算出を行わせる制御を行う。   As a reference for the displacement amount, the rotation angle around the XYZ axes and the magnitude of the translation vector t are calculated based on the rotation matrix R included in the displacement amount instead of the similarity between the reconstructed image and the fluoroscopic image. Also good. At this time, the determination unit 106 determines whether or not each rotation angle and size are equal to or less than a predetermined threshold value. The determination unit 106 outputs positioning information including a displacement amount to the bed apparatus 600 when each rotation angle and size is equal to or less than a threshold value. When any one of the rotation angles and the magnitudes is larger than the threshold, the determination unit 106 generates a reconstructed image in the reconstructed image generation unit 102, detects a corresponding point in the point detection unit 104, and shifts in the calculation unit 105. Control is performed to calculate.

また、判定部106は、再構成画像と透視画像との類似度や、変位量を用いた判定に代えて、変位量の算出が所定の回数行われた否かを判定してもよい。このとき、判定部106は、所定の回数繰り返して変位量の算出が行われると、最後に算出された変位量を含む位置決め情報を寝台装置600に出力する。判定部106は、再構成画像に投影される対象Aの組織に応じて、繰り返し回数を定めてもよい。判定部106が繰り返し回数を定める場合、判定部106は、再構成画像を生成する際に用いるボリュームデータの値V(x,y,z)に基づいて、投影される対象Aの組織を識別する。また、対象Aの組織の識別は、ボリュームデータの値のパターンに基づいて行ってもよい。また、判定部106は、DICOM(Digital Imaging and COmmunication in Medicine)データに含まれる情報や、ユーザが入力した情報に基づいて、対象Aの組織を識別してもよい。例えば、判定部106は、再構成画像における骨の部分の領域の広さを算出する。判定部106は、再構成画像において骨の部分の領域が占める割合が予め定めた閾値以上である場合には、繰り返し回数を基準の回数より少なくする。また、判定部106は、再構成画像において骨の部分の領域が占める割合が閾値より小さい場合には、繰り返し回数を基準の回数より多くする。これは、透視画像をX線装置で取得した場合には、骨の部分が多いほど透視画像におけるコントラストが高くなり、対応点の検出精度が高くなるため、繰り返し回数を少なくしても高い精度の変位量を得ることができるためである。この傾向に基づいて、判定部106は、再構成画像と透視画像との少なくとも一方のコントラストが高いほど繰り返し回数を少なくしてもよい。   Further, the determination unit 106 may determine whether or not the calculation of the displacement amount has been performed a predetermined number of times, instead of using the similarity between the reconstructed image and the fluoroscopic image or the determination using the displacement amount. At this time, when the displacement amount is calculated a predetermined number of times, the determination unit 106 outputs positioning information including the finally calculated displacement amount to the bed apparatus 600. The determination unit 106 may determine the number of repetitions according to the tissue of the target A projected on the reconstructed image. When the determination unit 106 determines the number of repetitions, the determination unit 106 identifies the tissue of the target A to be projected based on the volume data value V (x, y, z) used when generating the reconstructed image. . The organization of the target A may be identified based on the value pattern of the volume data. The determination unit 106 may identify the tissue of the target A based on information included in DICOM (Digital Imaging and Communication in Medicine) data or information input by the user. For example, the determination unit 106 calculates the width of the region of the bone portion in the reconstructed image. When the ratio of the bone region in the reconstructed image is equal to or greater than a predetermined threshold, the determination unit 106 makes the number of repetitions smaller than the reference number. The determination unit 106 increases the number of repetitions more than the reference number when the ratio of the bone region in the reconstructed image is smaller than the threshold. This is because, when a fluoroscopic image is acquired by an X-ray apparatus, the more bone portions, the higher the contrast in the fluoroscopic image and the higher the detection accuracy of corresponding points. This is because the amount of displacement can be obtained. Based on this tendency, the determination unit 106 may decrease the number of repetitions as the contrast of at least one of the reconstructed image and the fluoroscopic image is higher.

画像データ生成部107は、透視画像取得部101が取得した透視画像と、再構成画像生成部102が生成した再構成画像と、点取得部103が取得した設定点と、点検出部104が検出した対応点とを含む画像データを生成する。このとき、画像データ生成部107は、設定点及び対応点を透視画像又は再構成画像に重畳した画像データを生成してもよい。画像データ生成部107は、生成した画像データを入出力装置200に出力する。   The image data generation unit 107 detects the perspective image acquired by the perspective image acquisition unit 101, the reconstructed image generated by the reconstructed image generation unit 102, the set point acquired by the point acquisition unit 103, and the point detection unit 104 The image data including the corresponding points is generated. At this time, the image data generation unit 107 may generate image data in which the set point and the corresponding point are superimposed on the fluoroscopic image or the reconstructed image. The image data generation unit 107 outputs the generated image data to the input / output device 200.

図6は、画像処理装置100が行う変位量算出処理を示すフローチャートである。画像処理装置100において、変位量算出処理が開始されると、透視画像取得部101は、異なる方向から撮影した複数の透視画像及び各透視画像に対応するカメラパラメータを撮像装置400から取得する(ステップS101)。   FIG. 6 is a flowchart illustrating a displacement amount calculation process performed by the image processing apparatus 100. In the image processing apparatus 100, when the displacement amount calculation process is started, the fluoroscopic image acquisition unit 101 acquires a plurality of fluoroscopic images photographed from different directions and camera parameters corresponding to the fluoroscopic images from the imaging apparatus 400 (steps). S101).

再構成画像生成部102は、対象Aのボリュームデータと透視画像取得部101が取得したカメラパラメータとに基づいて、透視画像それぞれに対応する再構成画像を生成する(ステップS102)。
点取得部103は、ユーザが指定した少なくとも3つの設定点からなる点群を取得する(ステップS103)。
The reconstructed image generating unit 102 generates a reconstructed image corresponding to each fluoroscopic image based on the volume data of the target A and the camera parameters acquired by the fluoroscopic image acquiring unit 101 (step S102).
The point acquisition unit 103 acquires a point group including at least three set points designated by the user (step S103).

点検出部104は、設定点それぞれに対応する点を透視画像又は再構成画像において検出する。点検出部104は、検出した点を対応点とする(ステップS104)。
算出部105は、各設定点の3次元座標と各対応点の3次元座標とに基づいて、透視画像を撮影したときの位置に対するボリュームデータの位置の変位量を算出する(ステップS105)。
The point detection unit 104 detects a point corresponding to each set point in the fluoroscopic image or the reconstructed image. The point detection unit 104 sets the detected point as a corresponding point (step S104).
Based on the three-dimensional coordinates of the set points and the three-dimensional coordinates of the corresponding points, the calculation unit 105 calculates a displacement amount of the position of the volume data with respect to the position when the fluoroscopic image is captured (step S105).

再構成画像生成部102は、変位量を用いて移動させたボリュームデータとカメラパラメータとに基づいて、透視画像それぞれに対応する再構成画像を生成する(ステップS106)。
判定部106は、ステップS105において生成された再構成画像と透視画像との類似度を算出する(ステップS107)。判定部106は、算出した類似度が閾値以上であるか否かを判定する(ステップS108)。
The reconstructed image generation unit 102 generates a reconstructed image corresponding to each fluoroscopic image based on the volume data moved using the displacement amount and the camera parameter (step S106).
The determination unit 106 calculates the similarity between the reconstructed image generated in step S105 and the fluoroscopic image (step S107). The determination unit 106 determines whether or not the calculated similarity is greater than or equal to a threshold value (step S108).

類似度が閾値以上でない場合(ステップS108:NO)、判定部106は、処理をステップS104に戻して、ステップS104以降の処理を繰り返し行わせる。
類似度が閾値以上である場合(ステップS108:YES)、判定部106は、変位量を含む位置決め情報を寝台装置600に出力し(ステップS109)、変位量算出処理を終了させる。
When the degree of similarity is not equal to or greater than the threshold (step S108: NO), the determination unit 106 returns the process to step S104, and repeatedly performs the processes after step S104.
When the similarity is equal to or greater than the threshold (step S108: YES), the determination unit 106 outputs positioning information including the displacement amount to the bed apparatus 600 (step S109), and ends the displacement amount calculation process.

第1の実施形態における画像処理装置100は、複数の透視画像において対象Aの特定の部位を示す設定点を取得すると、複数の再構成画像において設定点に対応する対応点を取得し、設定点と対応点とに基づいて変位量を算出する。また、画像処理装置100は、複数の再構成画像において対象Aの特定の部位を示す設定点を取得すると、複数の透視画像において設定点に対応する対応点を取得し、設定点と対応点とに基づいて変位量を算出する。このように、透視画像と再構成画像との両方において対象Aの特定の部位を示す点を設定せずとも、画像処理装置100を用いることで透視画像を撮影したときの位置に対するボリュームデータの位置の変位量が得られる。これにより、ユーザが対象Aの特定の部位を示す点を定める手間を省くことができ、治療システム10における位置決めに要する時間を短縮することができる。また、画像処理装置100は、透視画像と再構成画像との類似度が基準を満たすまで、再構成画像の生成と変位量の算出とを繰り返し行うことにより、変位量の精度を改善することができ、位置決めの精度を向上させることができる。   When the image processing apparatus 100 according to the first embodiment acquires a set point indicating a specific part of the target A in a plurality of fluoroscopic images, the image processing apparatus 100 acquires a corresponding point corresponding to the set point in the plurality of reconstructed images. The amount of displacement is calculated based on the corresponding points. In addition, when the image processing apparatus 100 acquires a set point indicating a specific part of the target A in the plurality of reconstructed images, the image processing apparatus 100 acquires a corresponding point corresponding to the set point in the plurality of fluoroscopic images, The amount of displacement is calculated based on As described above, the position of the volume data relative to the position when the fluoroscopic image is captured by using the image processing apparatus 100 without setting a point indicating a specific part of the target A in both the fluoroscopic image and the reconstructed image. The amount of displacement is obtained. Thereby, the user can save time and effort for determining a point indicating a specific part of the target A, and the time required for positioning in the treatment system 10 can be shortened. In addition, the image processing apparatus 100 may improve the accuracy of the displacement amount by repeatedly generating the reconstructed image and calculating the displacement amount until the similarity between the fluoroscopic image and the reconstructed image satisfies the criterion. And the positioning accuracy can be improved.

また、画像処理装置100は、透視画像と再構成画像との類似度に基づいて、変位量の算出などを繰り返し行うか否かを決定することにより、算出する変位量の精度を向上させることができる。
また、画像処理装置100は、設定点及び対応点の近傍の部分画像の類似度に基づいて、変位量の算出などを繰り返し行うか否かを決定することにより、対応点の検出精度を判定するとともに、繰り返しの判定における演算量を削減することができ、位置決めに要する時間を短縮することができる。
In addition, the image processing apparatus 100 can improve the accuracy of the calculated displacement amount by determining whether or not to repeatedly calculate the displacement amount based on the similarity between the fluoroscopic image and the reconstructed image. it can.
Further, the image processing apparatus 100 determines the detection accuracy of the corresponding points by determining whether or not to repeatedly calculate the displacement amount based on the similarity between the set points and the partial images near the corresponding points. In addition, it is possible to reduce the amount of calculation in repeated determination, and to shorten the time required for positioning.

また、画像処理装置100において、判定部106が再構成画像に含まれる特定の組織の割合、例えば骨の割合に応じて繰り返し回数を定める場合、撮影される対象Aの部位に応じて位置決めに要する時間を短縮することができる。   Further, in the image processing apparatus 100, when the determination unit 106 determines the number of repetitions according to the ratio of a specific tissue included in the reconstructed image, for example, the ratio of the bone, positioning is required according to the region of the target A to be imaged. Time can be shortened.

(第2の実施形態)
図7は、第2の実施形態における画像処理装置100Aの構成を示すブロック図である。図2に示すように、画像処理装置100Aは、透視画像取得部111、再構成画像生成部102、点取得部113、点検出部104、算出部105、判定部106及び画像データ生成部107を備える。第2の実施形態の画像処理装置100Aは、図1に示した治療システム10において画像処理装置100に代えて用いられる。画像処理装置100Aにおいて、第1の実施形態の画像処理装置100が備える構成要素と同じ構成要素に対しては同じ符号を付して、その説明を省略する。
(Second Embodiment)
FIG. 7 is a block diagram illustrating a configuration of an image processing apparatus 100A according to the second embodiment. As illustrated in FIG. 2, the image processing apparatus 100A includes a perspective image acquisition unit 111, a reconstructed image generation unit 102, a point acquisition unit 113, a point detection unit 104, a calculation unit 105, a determination unit 106, and an image data generation unit 107. Prepare. The image processing apparatus 100A of the second embodiment is used in place of the image processing apparatus 100 in the treatment system 10 shown in FIG. In the image processing apparatus 100A, the same components as those included in the image processing apparatus 100 of the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

透視画像取得部111は、撮像装置400において撮影された対象Aの第1透視画像と第2透視画像との一対の透視画像を取得する。また、透視画像取得部111は、第1透視画像を撮影した第1撮像部440のカメラパラメータと、第2透視画像を撮影した第2撮像部450のカメラパラメータとを取得する。透視画像取得部111は、再構成画像生成部102が生成する再構成画像が示す対象Aの画像における画素当たりの実寸法と、取得した透視画像が示す対象Aの画像における画素当たりの実寸法とを一致させるように、透視画像のサイズを変更する。また、透視画像取得部111は、サイズの変更をして得られた透視画像に対して各画素値を平滑化する平滑化フィルタ処理を行う。透視画像取得部111は、サイズの変更と平滑化フィルタ処理とを施した一対の透視画像を点検出部104に供給する。また、透視画像取得部111は、取得した二つのカメラパラメータを再構成画像生成部102及び点取得部103に供給する。   The fluoroscopic image acquisition unit 111 acquires a pair of fluoroscopic images of a first fluoroscopic image and a second fluoroscopic image of the target A that are captured by the imaging device 400. Further, the fluoroscopic image acquisition unit 111 acquires the camera parameters of the first imaging unit 440 that has captured the first fluoroscopic image and the camera parameters of the second imaging unit 450 that has captured the second fluoroscopic image. The perspective image acquisition unit 111 includes an actual size per pixel in the image of the target A indicated by the reconstructed image generated by the reconstructed image generation unit 102, and an actual size per pixel in the image of the target A indicated by the acquired fluoroscopic image. The size of the fluoroscopic image is changed so as to match. Further, the perspective image acquisition unit 111 performs a smoothing filter process for smoothing each pixel value on the perspective image obtained by changing the size. The fluoroscopic image acquisition unit 111 supplies a pair of fluoroscopic images subjected to size change and smoothing filter processing to the point detection unit 104. The perspective image acquisition unit 111 supplies the acquired two camera parameters to the reconstructed image generation unit 102 and the point acquisition unit 103.

点取得部113は、第1の実施形態における点取得部103が行う動作に加えて、点検出部104が検出した対応点に対する位置の修正を指示する修正情報を入出力装置200から取得する動作を行う。対応点に対する修正の指示は、例えば対応点が重畳された透視画像及び再構成画像をユーザが確認した上で、入出力装置200の操作部220がユーザの操作入力を受け付けることにより取得される。点取得部113は、取得した修正情報を算出部105に供給する。修正情報が供給された場合、算出部105は、透視画像又は再構成画像上における対応点の位置を修正情報に基づいて変更し、変更後の対応点の位置と設定点の位置とに基づいて変位量を算出する。   The point acquisition unit 113 acquires, from the input / output device 200, correction information for instructing correction of the position of the corresponding point detected by the point detection unit 104 in addition to the operation performed by the point acquisition unit 103 in the first embodiment. I do. The instruction to correct the corresponding point is acquired, for example, when the user confirms the perspective image and the reconstructed image on which the corresponding point is superimposed, and the operation unit 220 of the input / output device 200 receives the user's operation input. The point acquisition unit 113 supplies the acquired correction information to the calculation unit 105. When the correction information is supplied, the calculation unit 105 changes the position of the corresponding point on the fluoroscopic image or the reconstructed image based on the correction information, and based on the position of the corresponding point after the change and the position of the set point The displacement amount is calculated.

図8は、画像処理装置100Aが行う変位量算出処理を示すフローチャートである。画像処理装置100において、変位量算出処理が開始されると、透視画像取得部111は、異なる方向から撮影した複数の透視画像及び各透視画像に対応するカメラパラメータを撮像装置400から取得する(ステップS101)。透視画像取得部111は、取得した各透視画像に対して、画素当たりの実寸法を再構成画像と一致させるサイズ変更と平滑化処理とを行う(ステップS201)。   FIG. 8 is a flowchart illustrating a displacement amount calculation process performed by the image processing apparatus 100A. In the image processing apparatus 100, when the displacement amount calculation process is started, the fluoroscopic image acquisition unit 111 acquires a plurality of fluoroscopic images photographed from different directions and camera parameters corresponding to the fluoroscopic images from the imaging apparatus 400 (step). S101). The fluoroscopic image acquisition unit 111 performs a size change and a smoothing process on the acquired fluoroscopic images so that the actual dimensions per pixel coincide with the reconstructed image (step S201).

再構成画像生成部102は、対象Aのボリュームデータと透視画像取得部101が取得したカメラパラメータとに基づいて、透視画像それぞれに対応する再構成画像を生成する(ステップS102)。
点取得部113は、ユーザが指定した少なくとも3つの設定点からなる点群を取得する(ステップS103)。
The reconstructed image generating unit 102 generates a reconstructed image corresponding to each fluoroscopic image based on the volume data of the target A and the camera parameters acquired by the fluoroscopic image acquiring unit 101 (step S102).
The point acquisition unit 113 acquires a point group including at least three set points designated by the user (step S103).

点検出部104は、設定点それぞれに対応する点を透視画像又は再構成画像において検出する。点検出部104は、検出した点を対応点とする(ステップS104)。
点取得部113は、点検出部104が検出した対応点の位置に対する修正情報を取得する(ステプS205)。
The point detection unit 104 detects a point corresponding to each set point in the fluoroscopic image or the reconstructed image. The point detection unit 104 sets the detected point as a corresponding point (step S104).
The point acquisition unit 113 acquires correction information for the position of the corresponding point detected by the point detection unit 104 (step S205).

算出部105は、修正情報に基づいて、点検出部104が検出した対応点の位置を修正する(ステップS206)。
算出部105は、各設定点の3次元座標と修正した各対応点の3次元座標とに基づいて、透視画像を撮影したときの位置に対するボリュームデータの位置の変位量を算出する(ステップS207)。
The calculation unit 105 corrects the position of the corresponding point detected by the point detection unit 104 based on the correction information (step S206).
Based on the three-dimensional coordinates of each set point and the corrected three-dimensional coordinates of each corresponding point, the calculation unit 105 calculates a displacement amount of the position of the volume data with respect to the position when the fluoroscopic image is captured (step S207). .

再構成画像生成部102は、変位量を用いて移動させたボリュームデータとカメラパラメータとに基づいて、透視画像それぞれに対応する再構成画像を生成する(ステップS106)。
判定部106は、ステップS105において生成された再構成画像と透視画像との類似度を算出する(ステップS107)。判定部106は、算出した類似度が閾値以上であるか否かを判定する(ステップS108)。
The reconstructed image generation unit 102 generates a reconstructed image corresponding to each fluoroscopic image based on the volume data moved using the displacement amount and the camera parameter (step S106).
The determination unit 106 calculates the similarity between the reconstructed image generated in step S105 and the fluoroscopic image (step S107). The determination unit 106 determines whether or not the calculated similarity is greater than or equal to a threshold value (step S108).

類似度が閾値以上でない場合(ステップS108:NO)、判定部106は、処理をステップS104に戻して、ステップS104以降の処理を繰り返し行わせる。
類似度が閾値以上である場合(ステップS108:YES)、判定部106は、変位量を含む位置決め情報を寝台装置600に出力し(ステップS109)、変位量算出処理を終了させる。
When the degree of similarity is not equal to or greater than the threshold (step S108: NO), the determination unit 106 returns the process to step S104, and repeatedly performs the processes after step S104.
When the similarity is equal to or greater than the threshold (step S108: YES), the determination unit 106 outputs positioning information including the displacement amount to the bed apparatus 600 (step S109), and ends the displacement amount calculation process.

第2の実施形態における画像処理装置100Aは、複数の透視画像において対象Aの特定の部位を示す設定点を取得すると、複数の再構成画像において設定点に対応する対応点を取得し、透視画像に設定点を重畳させた画像と再構成画像に対応点を重畳させた画像とを含む画像データを入出力装置200へ出力する。入出力装置200において表示された画像データをユーザが確認し、再構成画像上の対応点の位置にずれがある場合にはユーザが対応点の位置の修正を指示する修正情報を入出力装置200を介して入力する。画像処理装置100Aは、検出した対応点の位置を修正情報に基づいて修正し、位置を修正した対応点と設定点とに基づいて変位量を算出する。このように、検出した対応点に対してユーザによる確認と修正との機会を設けたことで、再構成画像において類似する部分画像が多い場合などにおける対応点の精度を向上させることができる。これにより、画像処理装置100Aは、算出する変位量の精度を改善することができ、位置決めの精度を向上させることができる。なお、画像処理装置100Aは、再構成画像において対象Aの特定の部位を示す設定点を取得した場合も、同様に、変位量の精度を改善することができ、位置決めの精度を向上させることができる。   When the image processing apparatus 100A in the second embodiment acquires a set point indicating a specific part of the target A in a plurality of fluoroscopic images, the image processing apparatus 100A acquires corresponding points corresponding to the set point in the plurality of reconstructed images, and the fluoroscopic image The image data including the image in which the set point is superimposed on and the image in which the corresponding point is superimposed on the reconstructed image is output to the input / output device 200. When the user confirms the image data displayed on the input / output device 200 and there is a shift in the position of the corresponding point on the reconstructed image, the input / output device 200 provides correction information that instructs the user to correct the position of the corresponding point. Enter through. The image processing apparatus 100A corrects the position of the detected corresponding point based on the correction information, and calculates the amount of displacement based on the corresponding point whose position has been corrected and the set point. Thus, by providing the user with the opportunity to confirm and correct the detected corresponding points, it is possible to improve the accuracy of the corresponding points when there are many similar partial images in the reconstructed image. Thereby, the image processing apparatus 100A can improve the accuracy of the calculated displacement amount, and can improve the positioning accuracy. In addition, even when the image processing apparatus 100A acquires a set point indicating a specific part of the target A in the reconstructed image, the image processing apparatus 100A can improve the accuracy of the displacement amount and improve the positioning accuracy. it can.

また、画像処理装置100Aは、透視画像における画素当たりの実寸法を再構成画像における画素当たりの実寸法に合わせる画像変換を透視画像に対して行う。これにより、透視画像を撮影したときの対象Aの位置と、再構成画像を生成するときの対象Aのボリュームデータとの位置とが一致した場合における透視画像と再構成画像との類似度を高くして、繰り返しを行うか否かの判定の精度を向上させることができる。その結果、画像処理装置100Aが算出する変位量の精度を向上させることができる。   Further, the image processing apparatus 100A performs image conversion on the fluoroscopic image to match the actual size per pixel in the fluoroscopic image with the actual size per pixel in the reconstructed image. Accordingly, the similarity between the fluoroscopic image and the reconstructed image when the position of the target A when the fluoroscopic image is captured and the position of the volume data of the target A when the reconstructed image is generated is increased. Thus, it is possible to improve the accuracy of the determination as to whether or not to repeat. As a result, the accuracy of the amount of displacement calculated by the image processing apparatus 100A can be improved.

また、画像処理装置100Aは、サイズを変更して得られた透視画像に対して平滑化を行う。再構成画像の解像度が透視画像の解像度より低い場合、再構成画像の一画素に透視画像の複数の画素が対応することになる。この場合、再構成画像の一画素値と透視画像の複数の画素値とを比較することになり、再構成画像と透視画像との類似度の算出に不要なばらつきが生じてしまう。サイズを変更して得られた透視画像に対して平滑化を行うことにより、上述のばらつきを抑えることができ、類似度を用いた判定の精度を向上させることができる。   Further, the image processing apparatus 100A performs smoothing on the fluoroscopic image obtained by changing the size. When the resolution of the reconstructed image is lower than the resolution of the fluoroscopic image, a plurality of pixels of the fluoroscopic image correspond to one pixel of the reconstructed image. In this case, one pixel value of the reconstructed image is compared with a plurality of pixel values of the fluoroscopic image, and unnecessary variation occurs in calculating the similarity between the reconstructed image and the fluoroscopic image. By smoothing a fluoroscopic image obtained by changing the size, the above-described variation can be suppressed, and the accuracy of determination using similarity can be improved.

上記各実施形態では、設定点が透視画像又は再構成画像のいずれかにおいて定められる場合ついて説明したが、複数の設定点が透視画像と再構成画像との両方に定められてもよい。そのとき、点検出部104は、設定点ごとに、対応する対応点を透視画像又は再構成画像において検出する。
また、点取得部が取得する設定点の組数が4組個以上の場合、画像処理装置は、ロバスト推定手法のRANSAC法や最小メジアン法(LMedS)を用いて、透視画像を撮影した際の対象Aの姿勢と再構成画像を生成した際の対象Aのボリュームデータの姿勢とを推定して変位量を算出してもよい。
In each of the above embodiments, the case where the set point is determined in either the fluoroscopic image or the reconstructed image has been described. However, a plurality of set points may be determined in both the fluoroscopic image and the reconstructed image. At that time, the point detection unit 104 detects corresponding corresponding points in the perspective image or the reconstructed image for each set point.
Further, when the number of set points acquired by the point acquisition unit is four or more, the image processing apparatus uses a robust estimation method RANSAC method or a minimum median method (LMedS) to capture a fluoroscopic image. The displacement amount may be calculated by estimating the posture of the target A and the posture of the volume data of the target A when the reconstructed image is generated.

以上説明した少なくともひとつの実施形態によれば、ユーザが定めた設定点に対応する対応点を検出する点検出部と、透視画像を撮影したときの対象Aの位置と対象Aのボリュームデータの位置との変位量を設定点と対応点とに基づいて算出する算出部と、変位量が所定の条件を満たしているか否かを判定し、満たしていない場合に対応点の検出と変位量の算出とを繰り返し行わせる判定部とをもつことにより、位置決めの精度を向上するとともに位置決めに要する時間を短縮することができる。   According to at least one embodiment described above, a point detection unit that detects corresponding points corresponding to set points determined by the user, the position of the target A when the fluoroscopic image is captured, and the position of the volume data of the target A A calculation unit that calculates the displacement amount based on the set point and the corresponding point, and determines whether or not the displacement amount satisfies a predetermined condition. If not, the corresponding point is detected and the displacement amount is calculated. By having the determination unit that repeatedly performs the above, it is possible to improve the positioning accuracy and reduce the time required for positioning.

なお、各実施形態において説明した画像処理装置は、例えば汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。すなわち、透視画像取得部、再構成画像生成部、点取得部、点検出部、算出部、判定部及び画像データ生成部は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、画像処理装置は、上記のプログラムをコンピュータ装置に予めインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。   The image processing apparatus described in each embodiment can also be realized by using, for example, a general-purpose computer apparatus as basic hardware. That is, the fluoroscopic image acquisition unit, the reconstructed image generation unit, the point acquisition unit, the point detection unit, the calculation unit, the determination unit, and the image data generation unit are realized by causing a processor mounted on the computer device to execute a program. can do. At this time, the image processing apparatus may be realized by installing the above program in a computer device in advance, or may be stored in a storage medium such as a CD-ROM or distributed through the network. Thus, this program may be realized by appropriately installing it in a computer device.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

10…治療システム、100,100A…画像処理装置、101,111…透視画像取得部、102…再構成画像生成部、103,113…点取得部、104…点検出部、105…算出部、106…判定部、107…画像データ生成部、200…入出力装置、210…表示部、220…操作部、300…計画装置、310…データベース部、320…表示部、330…操作部、340…制御部、400…撮像装置、410…制御部、420…第1線源部、430…第2線源部、440…第1撮像部、450…第2撮像部、500…治療装置、510…制御部、520…線源部、600…寝台装置   DESCRIPTION OF SYMBOLS 10 ... Treatment system, 100, 100A ... Image processing apparatus, 101, 111 ... Perspective image acquisition part, 102 ... Reconstructed image generation part, 103, 113 ... Point acquisition part, 104 ... Point detection part, 105 ... Calculation part, 106 Determining unit 107 Image data generating unit 200 Input / output device 210 Display unit 220 Operation unit 300 Planning unit 310 Database unit 320 Display unit 330 Operation unit 340 Control , 400 ... imaging device, 410 ... control unit, 420 ... first radiation source unit, 430 ... second radiation source unit, 440 ... first imaging unit, 450 ... second imaging unit, 500 ... treatment device, 510 ... control Part, 520 ... radiation source part, 600 ... bed apparatus

Claims (11)

互いに異なる少なくとも2つの方向から対象を撮影した複数の第1の透視画像を取得する画像取得部と、
互いに異なる少なくとも2つの方向から前記対象を撮影した際に得られる複数の第2の透視画像を予め取得された前記対象のボリュームデータから再構成する再構成部と、
前記第1の透視画像又は前記第2の透視画像における設定点を取得する点取得部と、
前記設定点が前記第1の透視画像における点である場合、当該設定点に対応する対応点を前記第2の透視画像において検出し、前記設定点が前記第2の透視画像における点である場合、当該設定点に対応する対応点を前記第1の透視画像において検出する検出部と、
前記設定点と前記対応点とに基づいて、前記第1の透視画像を撮影した際の前記対象の位置に対する前記第2の透視画像を生成した際の前記対象の位置の変位量を算出する算出部と、
前記変位量が所定の条件を満たしているか否かを判定する判定部と、
を備え、
前記変位量が所定の条件を満たしていない場合、前記再構成部は前記変位量に基づいて移動させた前記ボリュームデータから複数の前記第2の透視画像を再び再構成し、前記検出部は前記再構成部が再び再構成した第2の透視画像と前記第1の透視画像とにおいて対応点を検出し、前記算出部は新たに検出された対応点に基づいて変位量を算出する
画像処理装置。
An image acquisition unit that acquires a plurality of first fluoroscopic images obtained by capturing an object from at least two different directions;
A reconstruction unit which reconstructs a different multiple second perspective image derived from at least two directions when the photographs the object, previously acquired the target volume data,
An acquisition unit that acquires a set point that put the first fluoroscopic image or the second fluoroscopic image,
When the set point is a point in the first perspective image, a corresponding point corresponding to the set point is detected in the second perspective image, and the set point is a point in the second perspective image Detecting a corresponding point corresponding to the set point in the first fluoroscopic image;
Calculation for calculating a displacement amount of the position of the target when the second perspective image is generated with respect to the position of the target when the first perspective image is captured based on the set point and the corresponding point. And
A determination unit for determining whether or not the displacement amount satisfies a predetermined condition;
With
When the displacement amount does not satisfy a predetermined condition, the reconstruction unit reconstructs the plurality of second fluoroscopic images from the volume data moved based on the displacement amount, and the detection unit detecting the corresponding points in the second fluoroscopic image reconstruction unit is reconstructed again with the first perspective image, wherein the calculating unit image processing for leaving calculate the displacement amount based on the corresponding points newly detected apparatus.
前記判定部は、
前記変位量に基づいて移動させた前記ボリュームデータから再構成された前記第2の透視画像と前記第1の透視画像との類似度を算出し、算出した類似度が予め定めた閾値以上であるか否かを判定することで、前記変位量が前記条件を満たしているか否かを判定する
請求項1に記載の画像処理装置。
The determination unit
The similarity between the second fluoroscopic image reconstructed from the volume data moved based on the displacement amount and the first fluoroscopic image is calculated, and the calculated similarity is equal to or greater than a predetermined threshold. The image processing apparatus according to claim 1, wherein it is determined whether or not the displacement amount satisfies the condition.
前記判定部は、
前記変位量に基づいて移動させた前記ボリュームデータから再構成された前記第2の透視画像と前記第1の透視画像とにおける前記設定点及び前記対応点を含む部分画像の類似度を算出し、算出した類似度が予め定めた閾値以上であるか否かを判定することで、前記変位量が前記条件を満たしているか否かを判定する
請求項1に記載の画像処理装置。
The determination unit
Calculating the similarity of the partial image including the set point and the corresponding point in the second perspective image and the first perspective image reconstructed from the volume data moved based on the displacement amount; The image processing apparatus according to claim 1, wherein it is determined whether or not the displacement amount satisfies the condition by determining whether or not the calculated similarity is equal to or greater than a predetermined threshold value.
前記判定部は、
前記算出部が前記変位量を所定の回数算出した場合に、前記変位量が前記条件を満たしていると判定する
請求項1に記載の画像処理装置。
The determination unit
The image processing apparatus according to claim 1, wherein when the calculation unit calculates the displacement amount a predetermined number of times, the displacement amount is determined to satisfy the condition.
前記判定部は、
前記所定の回数を前記第1の透視画像又は前記第2の透視画像の少なくとも一方のコントラストに基づいて決定する
請求項4に記載の画像処理装置。
The determination unit
The image processing apparatus according to claim 4, wherein the predetermined number of times is determined based on a contrast of at least one of the first perspective image or the second perspective image.
前記画像取得部は、
前記第1の透視画像に対して平滑化処理を行う
請求項1から請求項5のいずれか一項に記載の画像処理装置。
The image acquisition unit
The image processing apparatus according to any one of claims 1 to 5, wherein a smoothing process is performed on the first fluoroscopic image.
前記画像取得部は、
前記第1の透視画像における画素当たりの実寸法と前記第2の透視画像における画素当たりの実寸法とを一致させるように前記第1の透視画像のサイズを変更する
請求項1から請求項6のいずれか一項に記載の画像処理装置。
The image acquisition unit
7. The size of the first perspective image is changed so that the actual size per pixel in the first perspective image and the actual size per pixel in the second perspective image coincide with each other. The image processing apparatus according to any one of claims.
前記第1の透視画像と前記第2の透視画像とに前記設定点と前記対応点とを重畳した画像データを生成する生成部
を更に備える請求項1から請求項7のいずれか一項に記載の画像処理装置。
8. The generation unit according to claim 1, further comprising: a generation unit configured to generate image data in which the set point and the corresponding point are superimposed on the first perspective image and the second perspective image. Image processing apparatus.
対象の透視画像を撮影する撮像装置と、
請求項1から請求項8のいずれか一項に記載の画像処理装置と、
前記第1の透視画像と前記第2の透視画像と表示し、ユーザの入力操作を受け付ける入出力装置と
を備える治療システム。
An imaging device for capturing a fluoroscopic image of the object;
The image processing apparatus according to any one of claims 1 to 8,
A treatment system comprising: an input / output device that displays the first fluoroscopic image and the second fluoroscopic image and receives a user input operation.
前記対象を乗せる可動台を有する寝台装置と、
前記対象に対して治療線を照射する治療装置と
を更に備え、
前記寝台装置は、前記画像処理装置が算出する変位量に基づいて、前記対象の治療が施される部位に前記治療線が照射されるように前記可動台を移動させる
請求項9に記載の治療システム。
A bed apparatus having a movable table for carrying the object;
A treatment device for irradiating the subject with a treatment line,
The treatment according to claim 9, wherein the bed apparatus moves the movable table based on a displacement amount calculated by the image processing apparatus so that the treatment line is irradiated to a site where the treatment of the target is performed. system.
画像処理装置が行う画像処理方法であって、
画像取得部が、互いに異なる少なくとも2つの方向から対象を撮影した複数の第1の透視画像を取得する画像取得ステップと、
再構成部が、互いに異なる少なくとも2つの方向から前記対象を撮影した際に得られる複数の第2の透視画像を予め取得された前記対象のボリュームデータから再構成する第1の再構成ステップと、
点取得部が、前記第1の透視画像又は前記第2の透視画像における設定点を取得する点取得ステップと、
前記設定点が前記第1の透視画像における点である場合、検出部が、当該設定点に対応する対応点を前記第2の透視画像において検出し、前記設定点が前記第2の透視画像における点である場合、前記検出部が、当該設定点に対応する対応点を前記第1の透視画像において検出する検出ステップと、
算出部が、前記設定点と前記対応点とに基づいて、前記第1の透視画像を撮影した際の前記対象の位置に対する前記第2の透視画像を生成した際の前記対象の位置の変位量を算出する算出ステップと、
判定部が、前記変位量が所定の条件を満たしているか否かを判定する判定ステップと、
前記変位量が所定の条件を満たしていない場合、前記再構成部が、前記変位量に基づいて移動させた前記ボリュームデータから複数の前記第2の透視画像を再構成する第2の再構成ステップと、
前記検出部が、前記第2の再構成ステップにおいて再構成された第2の透視画像と前記第1の透視画像とにおいて対応点を検出する再検出ステップと、
前記算出部が、前記再検出ステップにおいて新たに検出された対応点に基づいて変位量を算出する再算出ステップと
を有する画像処理方法。
An image processing method performed by an image processing apparatus,
An image acquisition step in which the image acquisition unit acquires a plurality of first fluoroscopic images obtained by capturing an object from at least two different directions;
Reconfiguration unit, a first reconstruction step of reconstructing different plurality of second fluoroscopic images obtained from at least two directions when the photographs the object from previously acquired the target volume data to one another ,
Point acquisition unit, an acquisition step that acquires the set point that put the first fluoroscopic image or the second fluoroscopic image,
When the set point is a point in the first fluoroscopic image, the detection unit detects a corresponding point corresponding to the set point in the second fluoroscopic image, and the set point is in the second fluoroscopic image. If it is a point, the detecting unit detects a corresponding point corresponding to the set point in the first fluoroscopic image;
Based on the set point and the corresponding point , the calculation unit generates a displacement amount of the target position when the second perspective image is generated with respect to the target position when the first perspective image is captured. A calculating step for calculating
A determination unit for determining whether the displacement amount satisfies a predetermined condition; and
If the displacement amount does not satisfy the predetermined condition, the reconstruction unit, a second reconstruction step of reconstructing a plurality of the second perspective image from the volume data is moved based on the displacement amount When,
A redetection step in which the detection unit detects corresponding points in the second fluoroscopic image reconstructed in the second reconstructing step and the first fluoroscopic image;
The calculating unit, an image processing method and a re-calculating a displacement amount based on the newly detected corresponding points in the redetection step.
JP2014140601A 2014-04-04 2014-07-08 Image processing apparatus, treatment system, and image processing method Active JP6305250B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/677,142 US9230322B2 (en) 2014-04-04 2015-04-02 Image processor, treatment system, and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201461975003P 2014-04-04 2014-04-04
US61/975,003 2014-04-04

Publications (2)

Publication Number Publication Date
JP2015198893A JP2015198893A (en) 2015-11-12
JP6305250B2 true JP6305250B2 (en) 2018-04-04

Family

ID=54550768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014140601A Active JP6305250B2 (en) 2014-04-04 2014-07-08 Image processing apparatus, treatment system, and image processing method

Country Status (1)

Country Link
JP (1) JP6305250B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015225130A1 (en) * 2015-12-14 2017-06-14 Sirona Dental Systems Gmbh Method for calibrating an X-ray image
DE112016005720T5 (en) * 2015-12-14 2018-09-13 Nuvasive, Inc. 3D visualization during surgery with reduced radiation exposure
JP6821303B2 (en) * 2015-12-15 2021-01-27 キヤノン株式会社 Information processing equipment, information processing methods and programs
JP6746435B2 (en) * 2016-08-25 2020-08-26 株式会社東芝 Medical image processing apparatus, treatment system, and medical image processing program
EP3668369B1 (en) * 2017-08-14 2021-03-31 Optos plc Retinal position tracking
TWI766253B (en) * 2019-03-19 2022-06-01 鈦隼生物科技股份有限公司 Method and system of determining operation pathway based on image matching
JP7311109B2 (en) * 2019-05-14 2023-07-19 東芝エネルギーシステムズ株式会社 medical image processing device, medical image processing program, medical device, and treatment system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7532705B2 (en) * 2006-04-10 2009-05-12 Duke University Systems and methods for localizing a target for radiotherapy based on digital tomosynthesis
JP2010246883A (en) * 2009-03-27 2010-11-04 Mitsubishi Electric Corp Patient positioning system
JP5401240B2 (en) * 2009-09-30 2014-01-29 株式会社日立製作所 Radiation therapy system

Also Published As

Publication number Publication date
JP2015198893A (en) 2015-11-12

Similar Documents

Publication Publication Date Title
JP6305250B2 (en) Image processing apparatus, treatment system, and image processing method
US9230322B2 (en) Image processor, treatment system, and image processing method
US9830718B2 (en) Image processor, image processing method, and treatment system
Berger et al. Marker‐free motion correction in weight‐bearing cone‐beam CT of the knee joint
US9947101B2 (en) Radiographic image analysis device and method, and recording medium having program recorded therein
US9734574B2 (en) Image processor, treatment system, and image processing method
US9582884B2 (en) Image processor, treatment system, and image processing method for determining a position of a point
JP6165591B2 (en) Image processing apparatus, treatment system, and image processing method
CN110770792A (en) Determining clinical target volume
CN108338802B (en) Method for reducing image artifacts
JP6565080B2 (en) Radiotherapy apparatus, operating method thereof, and program
JP6803077B2 (en) Image processing device and image processing method
US20220054862A1 (en) Medical image processing device, storage medium, medical device, and treatment system
US9254106B2 (en) Method for completing a medical image data set
JP7242640B2 (en) Methods, systems and apparatus for determining radiation dose
US9839404B2 (en) Image data Z-axis coverage extension for tissue dose estimation
US20220036609A1 (en) X-ray imaging system with foreign object reduction
JP2021142146A (en) Medical image processing device, medical device, treatment system, medical image processing method, and program
KR102469141B1 (en) Medical image processing apparatus, medical image processing method, and program
CN107809954B (en) Display of depth position of computer tomography slice image relative to object to be imaged
WO2018105493A1 (en) Radiographic image capturing device, radiographic image capturing system, radiographic image capturing method, and program
CN110678123A (en) Improved geometry measurement in X-ray images
US20240148351A1 (en) Image-based planning of tomographic scan
JP2015000092A (en) Patient positioning system and patient positioning method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180306

R151 Written notification of patent or utility model registration

Ref document number: 6305250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151