JP4344825B2 - Irradiation position verification system - Google Patents

Irradiation position verification system Download PDF

Info

Publication number
JP4344825B2
JP4344825B2 JP2004340568A JP2004340568A JP4344825B2 JP 4344825 B2 JP4344825 B2 JP 4344825B2 JP 2004340568 A JP2004340568 A JP 2004340568A JP 2004340568 A JP2004340568 A JP 2004340568A JP 4344825 B2 JP4344825 B2 JP 4344825B2
Authority
JP
Japan
Prior art keywords
drr
image
collation
irradiation position
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004340568A
Other languages
Japanese (ja)
Other versions
JP2006149438A (en
Inventor
茂 真田
利恵 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kanazawa University NUC
Original Assignee
Kanazawa University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kanazawa University NUC filed Critical Kanazawa University NUC
Priority to JP2004340568A priority Critical patent/JP4344825B2/en
Publication of JP2006149438A publication Critical patent/JP2006149438A/en
Application granted granted Critical
Publication of JP4344825B2 publication Critical patent/JP4344825B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、放射線治療において、照射計画に従って照射部位の位置を合わせることを支援するための照射位置照合システムに関するものである。   The present invention relates to an irradiation position verification system for assisting in aligning an irradiation site according to an irradiation plan in radiotherapy.

近年、高齢社会の到来によるがん患者数が急増している。このために、 放射線治療を必要とする患者数の増加が顕著であり、4人に1人が放射線治療を受けるようになるとも言われている。
さて、画像診断装置の進歩により、がん発見精度は向上している。そして、放射線治療技術の進歩により、放射線治療精度も向上しており、現在は、放射線治療により、がん細胞自体に狙い撃ちが可能となっている(例:ラジオサージャリー,ガンマナイフ)。
しかしながら、照射部位の位置確認は目視によって主観的に行われており、そのために、観察者の経験による個人差や、再現性が問題となっている。そのためにも、放射線治療の照射部位の確認を支援するシステムの開発が望まれている。
発表されている放射線治療の照射部位の確認を支援するシステムとしては、非特許文献1や2がある。非特許文献1では、照合の指標を手動でトレースしてから、コンピュータでずれを計算するシステムが紹介されている。しかしながら、手動トレースしているために再現性が低いことが問題である。非特許文献2では、X線シミュレーションイメージとポータルイメージを対象して、自動的に照合の指標を決定して、コンピュータでずれを計算することが紹介されている。しかしながら、治療計画に用いた画像(DRR)を対象としておらず、必ずしも取り扱いがよいとはいえない。
In recent years, the number of cancer patients has increased rapidly due to the arrival of an aging society. For this reason, the increase in the number of patients requiring radiotherapy is remarkable, and it is said that one in four people will receive radiotherapy.
Now, with the advancement of diagnostic imaging apparatuses, cancer detection accuracy has been improved. Advances in radiotherapy technology have also improved radiotherapy accuracy, and now it is possible to target cancer cells themselves by radiotherapy (eg, radiosurgery, gamma knife).
However, the position of the irradiated region is subjectively confirmed by visual observation, and therefore, individual differences due to the observer's experience and reproducibility are problematic. Therefore, it is desired to develop a system that supports confirmation of an irradiation site of radiotherapy.
Non-Patent Documents 1 and 2 are systems that support the confirmation of the irradiation site of radiation therapy that has been announced. Non-Patent Document 1 introduces a system that calculates a deviation by a computer after manually tracing a collation index. However, the problem is that the reproducibility is low due to manual tracing. Non-Patent Document 2 introduces that a collation index is automatically determined for a X-ray simulation image and a portal image, and a shift is calculated by a computer. However, the image (DRR) used for the treatment plan is not targeted, and it cannot be said that the handling is necessarily good.

John R. Van Sorensen de Koste, Hans C. J. de Boer, M.Sc., Regine H. Schuchhard-Schipper, et al: Procedures for high precision setup verification and correction of lung cancer patients using CT-simulation and digitally reconstructed radiographs (DRR), Int. J. Radiation Oncology Biol. Phys. 55(3), 804-810, 2003John R. Van Sorensen de Koste, Hans CJ de Boer, M. Sc., Regine H. Schuchhard-Schipper, et al: Procedures for high precision setup verification and correction of lung cancer patients using CT-simulation and digitally reconstructed radiographs (DRR ), Int. J. Radiation Oncology Biol. Phys. 55 (3), 804-810, 2003 赤沢博之,中森伸行,塩本敦子,他:放射線治療におけるポータルイメージの自動照合プログラムの開発.日本放射線技術学会誌,60(1),101-110,2003Hiroyuki Akazawa, Nobuyuki Nakamori, Atsuko Shiomoto, et al .: Development of an automatic portal image verification program for radiation therapy. Journal of Japanese Society of Radiological Technology, 60 (1), 101-110, 2003

本発明は、利便性に優れ、再現性よく、照射計画に従った照射部位の位置照合を支援するための照射位置照合システムを提供することである。   The present invention is to provide an irradiation position verification system for supporting position verification of an irradiation site according to an irradiation plan with excellent convenience and good reproducibility.

上記目的を達成するために、本発明は、放射線治療計画画像(DRR)と、治療前に撮影する照射野確認画像(LG)とを用いて、照射部位の位置を合わせるための照射位置照合システムであって、前記DRR及び照射野(FOV)形成のための形状データ、前記LGの画像を取得する画像取得手段と、取得した前記DRR及びLGの画像のサイズと位置を合わせる前処理手段と、前記DRRとLGの画像のエッジを強調するエッジ強調手段と、取得した前記形状データを用いて、LG内のFOVエッジを除去するFOVエッジ除去手段と、DRRとLGの画像を2値化する2値化手段と、2値化したDRRとLGの画像のエッジを細線化する細線化処理手段と、前記DRRとLGのずれを検出する照合手段と、照合した結果を表示する表示手段とを備えることを特徴とする。
照合には不要である、LG内のFOVエッジを除去しているために、照合が正確にできる。
In order to achieve the above object, the present invention provides an irradiation position verification system for aligning an irradiation site using a radiation treatment plan image (DRR) and an irradiation field confirmation image (LG) photographed before treatment. The shape data for forming the DRR and irradiation field (FOV), the image acquisition means for acquiring the LG image, the pre-processing means for matching the size and position of the acquired DRR and LG image, Edge enhancement means for enhancing the edges of the DRR and LG images, FOV edge removal means for removing FOV edges in the LG using the acquired shape data, and binarizing the DRR and LG images 2 A binarizing means, a thinning processing means for thinning edges of binarized DRR and LG images, a collating means for detecting a deviation between the DRR and LG, and a display unit for displaying the collation result And a step.
Since the FOV edge in the LG, which is unnecessary for the collation, is removed, the collation can be performed accurately.

さらに、前記DRRの細線化処理後の画像で、エッジを膨張させてマスクを作成して、該マスクによりLGの不要なエッジを除去するランドマーク判定手段を備え、前記照合手段は、前記ランドマーク判定手段で不要なエッジを除去したLGとDRRにより、照合するとよい。この処理により、照合対象であるランドマークを限定しているために、照合を適切に行うことができる。
さらに、前記2値化したLGの画像から、雑音除去する雑音除去手段と、前記DRRの画像と雑音除去した後の前記LGの画像から、小さいエッジを除去する手段とを備え、照合対象となるエッジを適切なもののみに限定しているために、照合をより適切に行うことができる。
前記照合手段は、LGの照合を行う範囲(テンプレート)を定め、DRRに定めた探索範囲で、照合する位置を求めるとよい。
さらに、照合に使用するエッジをマニュアルで選択するマニュアル選択手段を備え、前記照合手段は、LGの選択されたエッジとDRRの選択されたエッジとを照合することもできる。
上述の照射位置照合システムとして、コンピュータ・システムを機能させるためのコンピュータ・プログラムやそのプログラムを格納した記録媒体も本発明である。
The image processing apparatus further includes a landmark determination unit that creates a mask by expanding edges in the image after the thinning process of the DRR, and removes an unnecessary edge of the LG using the mask, and the collating unit includes the landmark It is good to collate by LG and DRR which removed the unnecessary edge by the determination means. By this process, since the landmarks to be collated are limited, the collation can be performed appropriately.
Further, the image processing apparatus includes a noise removing unit that removes noise from the binarized LG image, and a unit that removes small edges from the DRR image and the LG image after noise removal. Since the edges are limited to appropriate ones, matching can be performed more appropriately.
The collation means may determine a range (template) in which LG collation is performed and obtain a collation position within a search range defined in the DRR.
Further, manual selection means for manually selecting an edge to be used for collation is provided, and the collation means can collate the selected edge of LG with the selected edge of DRR.
As the above-described irradiation position verification system, a computer program for causing a computer system to function and a recording medium storing the program are also the present invention.

上述した本発明の照射位置照合システムにより、高い精度と再現性で照射部位の位置照合が可能となり、適切な放射線治療を行うことができる。   With the irradiation position verification system of the present invention described above, the position of the irradiation site can be verified with high accuracy and reproducibility, and appropriate radiotherapy can be performed.

図面を用いて、本発明を実施するための実施形態を説明する。
本発明の照射位置照合システムでは、治療装置の線錘に沿った複数のCT画像データをX線写真と同じような幾何学的条件で再構成した画像である、放射線治療計画画像(digitally reconstructed radiographs:DRR)と、治療装置の線錘で、治療前に撮影する照射野確認画像(lineacgraphy:LG)とを読み取り、両者をコンピュータ処理によって照合することで、照射部位の位置照合を支援している。放射線治療計画画像であるDRRは、治療計画を作成する際に作成している画像である。また、照射野確認画像(LG)は、アイソセンタ位置の確認や照射野(Field of view:FOV)形状の確認を目的に、実際の放射線治療に用いる医療用直線加速装置(Linear accelerator)と、照射野を形成するためのマルチリーフコリメータ(Multi-leaf collimator:MLC)を用いて、実際の放射線治療と同じ幾何学的条件で、しかし実際の放射線治療に比べて極めて小さなX線エネルギーにより撮影されている。
Embodiments for carrying out the present invention will be described with reference to the drawings.
In the irradiation position collation system of the present invention, a radiotherapy plan image (digitally reconstructed radiographs), which is an image obtained by reconstructing a plurality of CT image data along the pyramid of the treatment apparatus under the same geometric conditions as those of the X-ray photograph. : DRR) and irradiation field confirmation image (lineacgraphy: LG) taken before treatment with the weight of the treatment device, and collating them by computer processing, supporting the position collation of the irradiated part . The DRR, which is a radiation treatment plan image, is an image created when a treatment plan is created. In addition, the irradiation field confirmation image (LG) includes an irradiation with a medical linear accelerator (Linear accelerator) used for actual radiotherapy for the purpose of confirming the isocenter position and the field of view (FOV) shape. Using a multi-leaf collimator (MLC) to form a field, the image is taken with the same geometric conditions as the actual radiation treatment, but with very little X-ray energy compared to the actual radiation treatment. Yes.

図1は、本発明の実施形態である照射位置照合システムの動作を示すフローチャートである。各処理において、LGの画像のみに対して行う処理もある。
図1のフローチャートと、図2〜図17を用いて、照射位置照合システムの処理について説明する。
FIG. 1 is a flowchart showing the operation of the irradiation position verification system according to the embodiment of the present invention. In each process, there is also a process performed only on the LG image.
The process of the irradiation position verification system will be described with reference to the flowchart of FIG. 1 and FIGS.

まず、本システムに参照画像であるDRRと照合画像であるLGを読み取る(S102)。DRRとともにMLCの形状データも取得する。2つの画像データは、通常、サイズが異なっているので、前処理として、サイズを同じにする(S104)。同じサイズとしたDRRの例(図2(a))とLGの例(図2(b))を示す。なお、画像のサイズが大きくなると処理時間が長く掛かるので、照合処理が可能である最小サイズで行うことが望ましい。   First, the DRR that is a reference image and the LG that is a collation image are read into the system (S102). The shape data of MLC is also acquired with DRR. Since the two image data usually have different sizes, the sizes are made the same as the preprocessing (S104). An example of DRR having the same size (FIG. 2A) and an example of LG (FIG. 2B) are shown. Since the processing time increases when the size of the image increases, it is desirable to perform the processing at the minimum size that allows the matching process.

次にLGに対して、コントラストを上げて、骨のエッジを見やすくするために、ヒストグラムの平坦化処理を行う(S106)。そして、エッジ強調処理をDRR、LGの双方に対して行う(S108)。エッジ強調処理は、例えば、濃度に係数を乗じて加えたものを中央画素の濃度とするソーベル・フィルタを用いて行うことができる。なお、ソーベルは平滑化の操作を含んでおり、一般の微分と異なり、雑音に対して強いという特徴がある。7×7のソーベルによりエッジ強調処理後の画像として、図3(a)にDRR、図3(b)にLGを示す。   Next, in order to increase the contrast and make it easy to see the edge of the bone, LG is flattened (S106). Then, edge enhancement processing is performed for both DRR and LG (S108). The edge enhancement processing can be performed using, for example, a Sobel filter that uses the density multiplied by a coefficient to make the density of the central pixel. The Sobel includes a smoothing operation, and is different from general differentiation in that it is strong against noise. FIG. 3A shows DRR and FIG. 3B shows LG as an image after edge enhancement processing by a 7 × 7 sobel.

ここで、DRRとLGのアイソセンタ(画像の中心)のずれを補正する(S110)。DRRでは、画像データの一部(DICOMヘッダー)に照射野形成のためのMLC形状データおよびアイソセンタが数値(画像上の座標値)として記録されており、アイソセンタが画像の中心になるように作成されているのでその座標位置は分っている。DRRのDICOMヘッダーから再現した照射野とアイソセンタを図4(a)に示す。LGに対しては、LGの画像(図4(b)参照)の中心付近のプロファイルを解析して、LGのアイソセンタの座標位置を認識する(図5参照)。
LGのアイソセンタの認識には、LGの画像に写し込まれている治療装置の目盛り板の目盛り(図3(b)では、○で十字に写されている)の図形を利用する。この十字の中心がLG画像のアイソセンタである。まずLG画像から中心部のみ(図4(b)の網掛け部分)を取り出す。それが図5(a)の下左の画像である。これをx方向(横方向)とy方向(縦方向)にプロファイルを作成したのが、図5(a)の上や右側にある、それぞれのグラフである。このプロファイルは、目盛りの画像の特徴が反映されたものである。このプロファイルを利用して、目盛りの十字形の中心である、アイソセンタを認識する手順を、y方向のプロファイルのグラフ(図5(a)右側)を用いて説明する(図5(b)〜(d)参照)。まず、最大ピクセル値をサーチする(図5(b))。発見した最大ピクセル値をとる位置p1から一定範囲(ここでは3ピクセル)離れた位置でのピクセル値を比較し、2番目に大きいピクセル値をとる位置p2を求める(図5(c))。p1とp2の間にアイソセンタ探索範囲を設定し、その範囲での最小ピクセル値をサーチして、その最小ピクセル値をとる位置p3をアイソセンタとする。
そして、DRRのアイソセンタと一致させるために、LGで求めたアイソセンタと、DRRのアイソセンタの座標の差だけ、LGの画像を移動する(図6参照)。これで、DRRとLGのアイソセンタの位置が一致した。
Here, the shift of the isocenter (center of image) between DRR and LG is corrected (S110). In DRR, MLC shape data and isocenter for irradiation field formation are recorded as numerical values (coordinate values on the image) in a part of the image data (DICOM header), and created so that the isocenter is the center of the image. The coordinate position is known. The irradiation field and isocenter reproduced from the DRCOM DICOM header are shown in FIG. For LG, the profile near the center of the LG image (see FIG. 4B) is analyzed to recognize the coordinate position of the LG isocenter (see FIG. 5).
For the recognition of the LG isocenter, a figure of the scale of the scale plate of the treatment apparatus (shown as a cross in FIG. 3B) that is copied in the LG image is used. The center of the cross is the isocenter of the LG image. First, only the central portion (shaded portion in FIG. 4B) is extracted from the LG image. This is the lower left image in FIG. Profiles created in the x direction (horizontal direction) and the y direction (vertical direction) are graphs on the upper and right sides of FIG. This profile reflects the characteristics of the scale image. Using this profile, the procedure for recognizing the isocenter, which is the center of the scale cross, will be described with reference to the y-direction profile graph (right side of FIG. 5A) (FIGS. 5B to 5C). d)). First, the maximum pixel value is searched (FIG. 5B). Pixel values at a position away from the position p1 at which the maximum pixel value is found by a certain range (3 pixels in this case) are compared, and a position p2 at which the second largest pixel value is obtained is obtained (FIG. 5C). An isocenter search range is set between p1 and p2, a minimum pixel value in the range is searched, and a position p3 at which the minimum pixel value is obtained is set as an isocenter.
Then, in order to coincide with the isocenter of the DRR, the LG image is moved by the difference in coordinates between the isocenter obtained by the LG and the isocenter of the DRR (see FIG. 6). Thus, the DRR and LG isocenter positions coincide.

LG画像にある照射野(field of view:FOV)のエッジはDRRにはなく、このエッジは、DRRとLGの画像のマッチングをエッジにより行うためには、阻害要因となる。このために、LGの画像にあるFOVのエッジを除去する(S112)。この処理を、図7を用いて説明する。
まず、DRRの画像とともに取り込んだMLCの形状データをもとに、FOV形状画像を作成する(図7(a)参照)。作成したFOV画像を3回収縮処理して、FOV’画像を作成する(図7(b)参照)。また、形成したFOV画像に10回膨張処理をして、FOV’’画像を作成する(図7(c)参照)。FOV’’とFOV’との差をとって、関心領域(region of interest:ROI)の画像を作成する(図7(d)参照)。このROI内のエッジ成分をFOVのエッジとし、このエッジのピクセル値を0(=黒:背景色)とすることで、エッジを消去する。その画像を図7(e)に示す。このROIを用いることにより、図7(e)に示すように、FOV内の画像(人体構造エッジ)を残して、FOVエッジのみを除去することができる。
The edge of the field of view (FOV) in the LG image is not in the DRR, and this edge becomes an obstruction factor for performing matching between the DRR and the LG image by the edge. For this purpose, the edge of the FOV in the LG image is removed (S112). This process will be described with reference to FIG.
First, an FOV shape image is created based on the MLC shape data taken together with the DRR image (see FIG. 7A). The created FOV image is contracted three times to create an FOV ′ image (see FIG. 7B). Further, the formed FOV image is expanded 10 times to create an FOV ″ image (see FIG. 7C). Taking the difference between FOV ″ and FOV ′, an image of a region of interest (ROI) is created (see FIG. 7D). An edge component in this ROI is set as an FOV edge, and a pixel value of this edge is set to 0 (= black: background color) to delete the edge. The image is shown in FIG. By using this ROI, as shown in FIG. 7E, only the FOV edge can be removed while leaving the image (human body structure edge) in the FOV.

さて、マッチングを2値化した画像で行うので、2値化する閾値を自動的に決定するために、ヒストグラム解析処理を行う(S114)。図8のヒストグラムのグラフに示すように、それぞれの画像において高ピクセル値側からカウントし、総画素数の8%に相当するピクセル値を求め、閾値とする。例に示した画像では、DRRの閾値は約770(図8(a)の矢印)であり、LGの閾値は約600(図8(b)の矢印)である。求めた閾値を用いて、それぞれの画像に対して2値化処理を行う(S116)。2値化した画像は、図9(a)にDRRを、図9(b)にLGを示す。
LG画像は、図9(b)に示すように、2値化すると背景に散在する雑音が多く出現するので、収縮処理を2回繰り返して雑音を除去する(S118)。雑音除去後のLG画像を図10に示す。
Now, since matching is performed on a binarized image, histogram analysis processing is performed in order to automatically determine a threshold value for binarization (S114). As shown in the histogram graph of FIG. 8, counting is performed from the high pixel value side in each image, and a pixel value corresponding to 8% of the total number of pixels is obtained and set as a threshold value. In the example image, the DRR threshold is about 770 (arrow in FIG. 8A), and the LG threshold is about 600 (arrow in FIG. 8B). Using the obtained threshold value, binarization processing is performed on each image (S116). The binarized image shows DRR in FIG. 9A and LG in FIG. 9B.
As shown in FIG. 9B, when the LG image is binarized, a lot of noise scattered in the background appears. Therefore, the contraction process is repeated twice to remove the noise (S118). The LG image after noise removal is shown in FIG.

マッチングの対象となるエッジを選ぶために、まず、小さいものを除去する。これを行うために、つながりのある個々のエッジに対して、区別するためのラベルを付与し(S120)、各ラベルの面積が、DRRの画像の場合は50ピクセル以下、LGの画像の場合は100ピクセル以下を判定して、エッジを削除する(S122)。判定して、削除後の画像は、図11(a)にDRRを、図11(b)にLGを示す。
残った、つながりのあるエッジの細線化(1ピクセルの線とする)処理を行う(S124)。細線処理後の画像は、図12(a)にDRRを、図12(b)にLGを示す。
In order to select an edge to be matched, first, small ones are removed. In order to do this, a label for distinguishing is given to each connected edge (S120), and the area of each label is 50 pixels or less in the case of a DRR image, and in the case of an LG image. It is determined whether the pixel is 100 pixels or less, and the edge is deleted (S122). The image after the determination and deletion shows DRR in FIG. 11 (a) and LG in FIG. 11 (b).
The remaining connected edges are thinned (one pixel line) (S124). The image after the thin line processing shows DRR in FIG. 12A and LG in FIG.

最終的に、マッチングの対象となるランドマークをLGの画像から選択する(S126)。このために、細線化されたDRRの画像(図13(a)参照)を12回膨張させて、マスク画像(図13(b)参照)を作成する。このマスク画像をLGの細線化画像(図13(c)参照)に作用して、マスク画像の部分のLGのみを抜き取り、この部分にある細線化処理されたエッジをマッチング対象とする(図13(d)参照)。
この処理で決定されたランドマークを実際に表示している本システムの画面を図14に示す。図14では、右側上にLGの画像および決定されたランドマークを、右側下にDRRの画像およびランドマークを示しており、中央部に、LGとDRRとそれぞれのランドマークを重ね合わせて示している。
Finally, a landmark to be matched is selected from the LG image (S126). For this purpose, the thinned DRR image (see FIG. 13A) is expanded 12 times to create a mask image (see FIG. 13B). This mask image is applied to the LG thinned image (see FIG. 13C), and only LG of the portion of the mask image is extracted, and the thinned edge in this portion is set as a matching target (FIG. 13). (See (d)).
FIG. 14 shows a screen of the present system that actually displays the landmarks determined by this processing. In FIG. 14, the LG image and the determined landmark are shown on the upper right side, the DRR image and the landmark are shown on the lower right side, and LG and DRR and the respective landmarks are overlapped in the center portion. Yes.

この照合対象のLGとDRRのランドマークに対して、テンプレート(照合対象範囲)を定め(S128)、テンプレート・マッチングによる照合を行う(S130)。テンプレートの定め方や照合については、図15,図16を用いて説明する。
図15(a)のように、LGのランドマークが有る場合、その最も右側、最も左側、最も上側、最も下側の座標を見つけて(図15(b)参照)、それらで構成される4点の座標で囲まれる範囲をテンプレートTとする(図16(a)参照)。このテンプレートに対する探索領域Sとして、DRR上にテンプレートと同じROI(Region of Interest)サイズとその周囲の適当なマージン(dx,dy)を定める(図16(b)参照)。そして、最も一致する場所を、以下の式に示すように、テンプレートを移動して探す(図16(c))。
ここで、Rは残差,T(x、y):テンプレート,S(x、y):探索領域,Nはテンプレートの横サイズ,Mはテンプレートの縦サイズを示し、0<x<M,0<y<N,0<dx<50,0<dy<50である。Rが最小値となったときが、最も一致したところであり、その時のdx,dyがずれの値である。
x方向,y方向のテンプレートのシフト量(照射位置のずれ)を、例えばmm単位で表示を行なう(S132)。シフト量の算出後、図17に示すように、検出シフト量だけシフトさせたLGをDRRに重ね合わせた結果画像が表示される。その横のウィンドウにシフト量が数値として表示される。
これで、DRRとLGの差異(照射位置のずれ)が認識でき、治療装置内の患者に対して、どの程度の移動を指示すればよいのか分かる。
For the LG and DRR landmarks to be collated, a template (collation target range) is determined (S128), and collation by template matching is performed (S130). A method for determining and collating templates will be described with reference to FIGS.
As shown in FIG. 15A, when there are LG landmarks, the coordinates of the rightmost, leftmost, uppermost, and lowermost sides are found (see FIG. 15B), and these 4 are configured. A range surrounded by the coordinates of the points is defined as a template T (see FIG. 16A). As the search area S for this template, the same ROI (Region of Interest) size as the template and an appropriate margin (dx, dy) around the same are defined on the DRR (see FIG. 16B). Then, the most matching place is searched by moving the template as shown in the following formula (FIG. 16C).
Here, R is a residual, T (x, y): template, S (x, y): search area, N is the horizontal size of the template, M is the vertical size of the template, and 0 <x <M, 0 <Y <N, 0 <dx <50, 0 <dy <50. The time when R becomes the minimum value is the best match, and dx and dy at that time are values of deviation.
The shift amount (irradiation position shift) of the template in the x and y directions is displayed, for example, in mm (S132). After the shift amount is calculated, as shown in FIG. 17, a result image in which LG shifted by the detected shift amount is superimposed on the DRR is displayed. The shift amount is displayed as a numerical value in the horizontal window.
Thus, the difference (irradiation position deviation) between DRR and LG can be recognized, and it is understood how much movement should be indicated to the patient in the treatment apparatus.

なお、このシステムでは、オペレーターは図14に示されるような上述の一連の処理で自動決定されたDRRとLGのランドマークの中から、マウスクリックにより任意のランドマークを選択し、選択されたそれぞれのランドマークを用いて自動照合することができる。ランドマークのマニュアルによる選択は、図1のフローチャートにおけるランドマークの決定(S126)の後に行うとよい。この選択は、図14において中央部にDRR又はLGをランドマークと共に表示して、マウスで所望のランドマークをクリックすることで行う。探索範囲の決定(S128)や照合(S130)の処理は、マニュアルで選択したエッジに対して行う。探索範囲はマニュアルで指定したエッジの範囲となり、マニュアルで選択したエッジに対してのみ照合を行うので、無駄な探索を行わず、正確な照合を早く行うことが可能となる。   In this system, the operator selects an arbitrary landmark from the DRR and LG landmarks automatically determined by the above-described series of processes as shown in FIG. Can be automatically verified using the landmarks. The manual selection of the landmark may be performed after the landmark determination (S126) in the flowchart of FIG. This selection is performed by displaying DRR or LG with a landmark at the center in FIG. 14 and clicking the desired landmark with the mouse. The search range determination (S128) and collation (S130) are performed on the manually selected edges. The search range is a range of edges specified manually, and collation is performed only on the manually selected edges, so that accurate collation can be quickly performed without performing useless search.

さて、上述では、DRRへの処理とLGへの処理を平行して説明した。しかしながら、処理時間を短縮するためには、DRRを先に取得して、DRRに対する処理(前処理や細線化処理、マスク作成、FOVのエッジ除去のためのROI作成等)を予め行なっておき、LGを撮影後、LGに対する処理をDRRの処理結果を用いて行うことが望ましい。   In the above description, the processing for DRR and the processing for LG have been described in parallel. However, in order to shorten the processing time, the DRR is acquired first, and the processing for the DRR (preprocessing, thinning processing, mask creation, ROI creation for FOV edge removal, etc.) is performed in advance. After photographing the LG, it is desirable to perform the processing on the LG using the processing result of the DRR.

照射位置照合システムの処理を示すフローチャートを示す図である。It is a figure which shows the flowchart which shows the process of an irradiation position collation system. サイズ調整後のDRR(a)とLG(b)の画像を示す図である。It is a figure which shows the image of DRR (a) and LG (b) after size adjustment. エッジ強調後のDRR(a)とLG(b)の画像を示す図である。It is a figure which shows the image of DRR (a) and LG (b) after edge emphasis. DRRの照射野とアイソセンタ(a)とLGのプロファイル解析領域(中心付近の網掛け部)(b)を示す図である。It is a figure which shows the DRR irradiation field, isocenter (a), and LG profile analysis area (shaded part near the center) (b). LGに対するアイソセンタの中心の認識処理を説明するための図である。It is a figure for demonstrating the recognition process of the center of the isocenter with respect to LG. DRRとLGを重ね合わせて表示した画像で、アイソセンタのずれの自動補正前(a)と自動補正後(b)を示す図である。It is an image displayed by superimposing DRR and LG, and is a diagram showing (a) before and after automatic correction of the isocenter shift (b). LGに対するFOVエッジ除去処理を説明するための図である。It is a figure for demonstrating the FOV edge removal process with respect to LG. DRR(a)とLG(b)に対するヒストグラム解析を説明するための図である。It is a figure for demonstrating the histogram analysis with respect to DRR (a) and LG (b). 2値化処理後のDRR(a)とLG(b)の画像を示す図である。It is a figure which shows the image of DRR (a) and LG (b) after a binarization process. 雑音除去後のLG画像の図である。It is a figure of LG image after noise removal. ラベル判定後のDRR(a)とLG(b)の画像を示す図である。It is a figure which shows the image of DRR (a) and LG (b) after label determination. 細線処理後のDRR(a)とLG(b)の画像を示す図である。It is a figure which shows the image of DRR (a) and LG (b) after a thin line process. ランドマーク判定処理を説明するための図である。It is a figure for demonstrating landmark determination processing. 本システムの画面上に表示されるランドマークの画像を示す図である。It is a figure which shows the image of the landmark displayed on the screen of this system. 検索範囲の決定処理を説明するための図である。It is a figure for demonstrating the determination process of a search range. 照合の処理を説明するための図である。It is a figure for demonstrating the process of collation. 照合結果を表示する画面を示す図である。It is a figure which shows the screen which displays a collation result.

Claims (7)

放射線治療計画画像(DRR)と、治療前に撮影する照射野確認画像(LG)とを用いて、照射部位の位置を合わせるための照射位置照合システムであって、
前記DRR及び照射野(FOV)形成のための形状データ、前記LGの画像を取得する画像取得手段と、
取得した前記DRR及びLGの画像のサイズと位置を合わせる前処理手段と、
前記DRRとLGの画像のエッジを強調するエッジ強調手段と、
取得した前記形状データを用いて、LG内のFOVエッジを除去するFOVエッジ除去手段と、
DRRとLGの画像を2値化する2値化手段と、
2値化したDRRとLGの画像のエッジを細線化する細線化処理手段と、
前記DRRとLGのずれを検出する照合手段と、
照合した結果を表示する表示手段と
を備えることを特徴とする照射位置照合システム。
An irradiation position verification system for aligning an irradiation site using a radiation treatment plan image (DRR) and an irradiation field confirmation image (LG) photographed before treatment,
Shape data for forming the DRR and irradiation field (FOV), image acquisition means for acquiring an image of the LG,
Preprocessing means for matching the size and position of the acquired DRR and LG images;
Edge enhancement means for enhancing edges of the DRR and LG images;
FOV edge removal means for removing the FOV edge in the LG using the acquired shape data;
Binarization means for binarizing DRR and LG images;
Thinning processing means for thinning edges of binarized DRR and LG images;
Collating means for detecting a deviation between the DRR and LG;
An irradiation position verification system comprising: display means for displaying a result of verification.
請求項1記載の照射位置照合システムにおいて、
さらに、前記DRRの細線化処理後の画像で、エッジを膨張させてマスクを作成して、該マスクによりLGの不要なエッジを除去するランドマーク判定手段を備え、
前記照合手段は、前記ランドマーク判定手段で不要なエッジを除去したLGとDRRにより、照合することを特徴とする照射位置照合システム。
In the irradiation position collation system according to claim 1,
Further, in the image after the thinning process of the DRR, a mask is created by expanding an edge, and landmark determination means for removing an unnecessary edge of the LG by the mask is provided,
The irradiation position collation system characterized in that the collation means collates with LG and DRR from which unnecessary edges are removed by the landmark determination means.
請求項1又は2に記載の照射位置照合システムにおいて、さらに、
前記2値化したLGの画像から、雑音除去する雑音除去手段と、
前記DRRの画像と雑音除去した後の前記LGの画像から、小さいエッジを除去する手段とを備えることを特徴とする照射位置照合システム。
In the irradiation position collation system according to claim 1 or 2, further,
Noise removing means for removing noise from the binarized LG image;
An irradiation position matching system comprising: means for removing small edges from the DRR image and the LG image after noise removal.
請求項1〜3のいずれかに記載の照射位置照合システムにおいて、
前記照合手段は、LGの照合を行う範囲(テンプレート)を定め、DRRに定めた探索範囲で、照合する位置を求めることを特徴とする照射位置照合システム。
In the irradiation position collation system in any one of Claims 1-3,
The irradiation means collation system characterized in that the collating means determines a range (template) in which LG collation is performed, and obtains a collation position within a search range defined in the DRR.
請求項1〜4のいずれかに記載の照射位置照合システムにおいて、
さらに、照合に使用するエッジをマニュアルで選択するマニュアル選択手段を備え、前記照合手段は、LGの選択されたエッジとDRRの選択されたエッジとを照合することを特徴とする照射位置照合システム。
In the irradiation position collation system in any one of Claims 1-4,
The irradiation position collating system further comprising manual selection means for manually selecting an edge to be used for collation, wherein the collation means collates the selected edge of LG with the selected edge of DRR.
請求項1〜5のいずれかに記載の照射位置照合システムとして、コンピュータ・システムを機能させるためのコンピュータ・プログラム。 The computer program for functioning a computer system as an irradiation position collation system in any one of Claims 1-5. 請求項6に記載の照射位置照合システムとして、コンピュータ・システムを機能させるためのコンピュータ・プログラムを格納した記録媒体。
The recording medium which stored the computer program for functioning a computer system as an irradiation position collation system of Claim 6.
JP2004340568A 2004-11-25 2004-11-25 Irradiation position verification system Active JP4344825B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004340568A JP4344825B2 (en) 2004-11-25 2004-11-25 Irradiation position verification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004340568A JP4344825B2 (en) 2004-11-25 2004-11-25 Irradiation position verification system

Publications (2)

Publication Number Publication Date
JP2006149438A JP2006149438A (en) 2006-06-15
JP4344825B2 true JP4344825B2 (en) 2009-10-14

Family

ID=36628423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004340568A Active JP4344825B2 (en) 2004-11-25 2004-11-25 Irradiation position verification system

Country Status (1)

Country Link
JP (1) JP4344825B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2923732A1 (en) 2014-03-27 2015-09-30 Hitachi Ltd. Bed positioning system for radiation therapy

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183976A (en) 2009-02-10 2010-08-26 Mitsubishi Heavy Ind Ltd Radiotherapy apparatus controller and irradiation method
JP5675424B2 (en) * 2011-02-24 2015-02-25 三菱重工業株式会社 Radiotherapy apparatus control apparatus, processing method of radiotherapy apparatus control apparatus, and program thereof
JP6785485B2 (en) * 2016-12-01 2020-11-18 株式会社島津製作所 X-ray fluoroscope
JP7172850B2 (en) * 2019-05-17 2022-11-16 株式会社島津製作所 positioning device
JP2022081324A (en) * 2020-11-19 2022-05-31 株式会社日立製作所 Positioning device, radiation therapy system and positioning method
JP2023136091A (en) * 2022-03-16 2023-09-29 東芝エネルギーシステムズ株式会社 Medical image processing device, treatment system, medical image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2923732A1 (en) 2014-03-27 2015-09-30 Hitachi Ltd. Bed positioning system for radiation therapy

Also Published As

Publication number Publication date
JP2006149438A (en) 2006-06-15

Similar Documents

Publication Publication Date Title
JP7120584B2 (en) SUBJECT POSITIONING DEVICE, SUBJECT POSITIONING METHOD, SUBJECT POSITIONING PROGRAM, AND RADIATION THERAPY SYSTEM
JP6240226B2 (en) Scan range determination device
CN107596578B (en) Alignment mark recognition method, alignment mark position determination method, image forming apparatus, and storage medium
US9492685B2 (en) Method and apparatus for controlling and monitoring position of radiation treatment system
Vujovic et al. Establishing the correspondence between control points in pairs of mammographic images
US7519207B2 (en) Detection and correction method for radiograph orientation
CN113506294B (en) Medical image evaluation method, system, computer equipment and storage medium
JP2005296605A (en) Method of segmenting a radiographic image into diagnostically relevant and diagnostically irrelevant regions
JPH07181609A (en) Region of irradiation field extracting device for radiograph
JP2008508028A (en) Projection view and orientation of chest radiographs
US8155480B2 (en) Image processing apparatus and image processing method
US20210042917A1 (en) Medical image processing device, treatment system, and storage medium
EP3047455B1 (en) Method and system for spine position detection
US11847730B2 (en) Orientation detection in fluoroscopic images
JP4344825B2 (en) Irradiation position verification system
WO2015040547A1 (en) Method and system for spine position detection
JP5675424B2 (en) Radiotherapy apparatus control apparatus, processing method of radiotherapy apparatus control apparatus, and program thereof
US20220148180A1 (en) Medical image processing device, storage medium, medical device, and treatment system
Ebrahimi et al. Lumbar spine posterior corner detection in X-rays using Haar-based features
EP2535001A1 (en) Method, a system and a computer program product for registration and identification of diagnostic images
JP2005305048A (en) Apparatus and method for positioning patient
Mu et al. Multiple fiducial identification using the hidden Markov model in image guided radiosurgery
KR101750173B1 (en) System and method for the automatic calculation of the effective dose
KR101670133B1 (en) Tumor tracking method and apparatus
EP3968215A1 (en) Determining target object type and position

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090616

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150