JP2006515187A5 - - Google Patents

Download PDF

Info

Publication number
JP2006515187A5
JP2006515187A5 JP2004551996A JP2004551996A JP2006515187A5 JP 2006515187 A5 JP2006515187 A5 JP 2006515187A5 JP 2004551996 A JP2004551996 A JP 2004551996A JP 2004551996 A JP2004551996 A JP 2004551996A JP 2006515187 A5 JP2006515187 A5 JP 2006515187A5
Authority
JP
Japan
Prior art keywords
target site
image
time
images
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004551996A
Other languages
Japanese (ja)
Other versions
JP2006515187A (en
Filing date
Publication date
Priority claimed from US10/293,216 external-priority patent/US7260426B2/en
Application filed filed Critical
Publication of JP2006515187A publication Critical patent/JP2006515187A/en
Publication of JP2006515187A5 publication Critical patent/JP2006515187A5/ja
Pending legal-status Critical Current

Links

Description

埋め込みフィデューシャルを用いることなく内部標的部位を追跡するための装置及び方法Apparatus and method for tracking an internal target site without using an embedded fiducial

本発明は、一般に、外科治療の正確さ及び有効性を改善するための装置に関し、更に詳しくは、呼吸及び患者の他の動きによって治療中にずれる標的部位の位置を追跡することに関連する。   The present invention relates generally to an apparatus for improving the accuracy and effectiveness of a surgical treatment, and more particularly to tracking the location of a target site that is displaced during treatment by breathing and other patient movements.

様々な治療は、標的部位に処置を施しもしくは加えるため、該標的部位の位置の正確な追跡を必要とする。放射線治療及び放射線外科において、例えば、腫瘍は、腫瘍における細胞を殺す電離放射線ビームによって破壊され得る。放射線ビームを腫瘍のみに向け、腫瘍を囲む健全な組織には向けないことが望ましいので、腫瘍に対するビームの正確な照準は、放射線治療において最も重要である。目的は、多量の放射線の焦点を腫瘍に合わせる一方、周囲の健全な組織の放射線に対する被爆を最小にすることである。腫瘍に対する放射線量の適切な分配のため、放射線ビームの方向は、一般に、腫瘍を突き止めるため、治療中に調整される。   Various therapies require precise tracking of the location of the target site in order to apply or add treatment to the target site. In radiation therapy and radiosurgery, for example, a tumor can be destroyed by an ionizing radiation beam that kills cells in the tumor. Since it is desirable to direct the radiation beam only to the tumor and not to the healthy tissue surrounding the tumor, accurate aiming of the beam to the tumor is most important in radiation therapy. The goal is to minimize the exposure of surrounding healthy tissue to radiation while focusing a large amount of radiation on the tumor. In order to properly distribute the radiation dose to the tumor, the direction of the radiation beam is generally adjusted during the treatment to locate the tumor.

Accuray社のCyberknife System(サイバーナイフ・システム)のような最先端の放射線外科システムは、放射線治療の精度を高めるため、治療中、立体(ステレオ)オンラインX線画像を用いる。患者の骨のような目印(例えば頭蓋骨)の位置は、Cyberknife立体X線カメラシステムを用いることにより、高精度で特定することができる。従って、この高精度X線カメラシステムは、骨のような目印に対する標的部位の位置が一定のままであるならば、標的部位を治療するために使用することができる。しかしながら、このX線カメラシステムは、骨のような目印に対する標的部位の位置が変わる場合、標的部位の位置を特定するために用いることができない。その理由は、該標的、例えば腫瘍がX線画像に一般に現れず目に見えないからである。例えば、患者の腹部もしくは胸部における標的部位は、この方法単独では治療することができない。   State-of-the-art radiosurgery systems such as Accuray's Cyberknife System use stereo on-line X-ray images during treatment to increase the accuracy of radiation therapy. The position of a landmark (eg, a skull) such as a patient's bone can be identified with high accuracy by using a Cyberknife stereoscopic X-ray camera system. Thus, this high precision X-ray camera system can be used to treat a target site if the position of the target site relative to a landmark such as a bone remains constant. However, this X-ray camera system cannot be used to identify the position of the target site when the position of the target site relative to a landmark such as a bone changes. This is because the target, eg, a tumor, generally does not appear in the X-ray image and is not visible. For example, target sites in the patient's abdomen or chest cannot be treated with this method alone.

腫瘍が脳のような動かない身体部分にある場合、正確なビーム照準は難しくないが、腫瘍が肺のような動く身体部分にもしくはその付近にある場合、照準は難しくなる。肺付近に位置する腫瘍は、患者が息を吸い込み吐き出す際に動き、放射線ビーム方向の連続的な調整を必要とする。腫瘍の位置の変化は、患者の外部表面の位置の変化とは必ずしも関連がないので、腫瘍は、外部測定だけに基づいては、容易には追跡することができない。例えば、患者の胸部上に外部センサーを配置し、かつ該センサーの運動を追跡することは、胸腔内部の腫瘍の位置についての正確な情報をもたらさない。その理由は、ある軟組織構造は、骨が一方向に動く際、他方向に動き得るからである。X線システムで腫瘍の位置を特定することもできない。その理由は、ほとんどの場合、標的部位も周囲の軟組織もX線画像に現れないからである。X線画像の2次元性質は、放射線が標的部位に当てられる精度を損なう。更には、たとえX線が正確で充分なデータを提供したとしても、標的部位のリアルタイム追跡は、患者が過度の放射線にさらされてしまうため、X線画像だけでは実行できない。   Accurate beam aiming is not difficult if the tumor is in a non-moving body part such as the brain, but aiming is difficult if the tumor is in or near a moving body part such as the lungs. Tumors located near the lungs move as the patient inhales and exhales, requiring continuous adjustment of the radiation beam direction. Since changes in the location of the tumor are not necessarily related to changes in the location of the external surface of the patient, the tumor cannot be easily tracked based solely on external measurements. For example, placing an external sensor on the patient's chest and tracking the movement of the sensor does not provide accurate information about the location of the tumor within the chest cavity. The reason is that some soft tissue structures can move in the other direction when the bone moves in one direction. The location of the tumor cannot be determined by the X-ray system. This is because, in most cases, neither the target site nor the surrounding soft tissue appears in the X-ray image. The two-dimensional nature of the X-ray image impairs the accuracy with which the radiation is applied to the target site. Furthermore, even if X-rays are accurate and provide sufficient data, real-time tracking of the target site cannot be performed with X-ray images alone because the patient is exposed to excessive radiation.

標的部位の追跡精度を改善する試みは、内部フィデューシャル(内部基準)の使用を含む。例えば、米国特許第6,144,875号は、放射線治療前に患者の腹部内にX線画像に現れる小さい金マーカーを埋め込むことにより、標的部位を追跡するための方法を開示する。一旦、内部フィデューシャルが埋め込まれると、それらは、立体X線カメラシステムで周期的(定期的)に画像化され、それらの位置が正確に特定される。該マーカーの位置に基づいて、腫瘍の位置が正確に求められる。   Attempts to improve target site tracking accuracy include the use of internal fiducials. For example, US Pat. No. 6,144,875 discloses a method for tracking a target site by implanting a small gold marker that appears in an x-ray image in the abdomen of a patient prior to radiation treatment. Once internal fiducials are embedded, they are imaged periodically (periodically) with a stereoscopic X-ray camera system and their location is accurately identified. Based on the position of the marker, the position of the tumor is accurately determined.

残念ながら、上記態様での内部フィデューシャルの使用は不利益を有する。第1に、X線画像法は、呼吸運動をリアルタイムで追跡するには遅すぎ、また、侵襲的すぎる。X線システムは、ある時間間隔、例えば10分ごとでのみ求められることを許容し、非連続的である。第2に、上記フィデューシャルの埋め込みは、侵襲的で高価な処置である。その理由は、該処置が通常、コンピュータ・トモグラフィ(CT)装置の監視下でかつ外科医の存在下で行われるからである。外科医がいることの要求は、患者に対し該処置のコストを高めるのみならず、外科医を電離放射線にさらすことになる。更に、フィデューシャルの配置からもたらされ得る合併症の現実のリスクが存在する。
米国特許第6,144,875号明細書
Unfortunately, the use of internal fiducials in the above manner has disadvantages. First, x-ray imaging is too slow and too invasive to track respiratory motion in real time. X-ray systems are discontinuous, allowing only to be determined at certain time intervals, eg every 10 minutes. Second, the fiducial implantation is an invasive and expensive procedure. The reason is that the procedure is usually performed under the supervision of a computer tomography (CT) device and in the presence of a surgeon. The requirement to have a surgeon not only increases the cost of the procedure for the patient, but also exposes the surgeon to ionizing radiation. Furthermore, there are real risks of complications that can result from fiducial placement.
US Pat. No. 6,144,875

上記の理由により、内部フィデューシャルを用いることなく患者の標的部位を正確に追跡するための装置及び方法を提供することが望まれており、本発明は、この目的に向けられる。   For the above reasons, it is desirable to provide an apparatus and method for accurately tracking a patient's target site without using internal fiducials, and the present invention is directed to this purpose.

埋め込みフィデューシャルを用いることなく、治療(処置)中に内部標的部位の位置を特定するための方法及び装置が提供される。該方法は、内部標的部位を含む関連空間をそれぞれ示す複数の第1画像を生成する工程と、治療中に関連空間のライブ画像を生成する工程と、このライブ画像を複数の第1画像の一つと突き合わせる工程とを含む。第1画像は内部標的部位を示すので、ライブ画像を第1画像の一つに突き合わせる工程は、第2画像自体が標的部位の位置を示すかどうかにかかわらず、標的部位の位置を特定する。第1画像は、CTスキャン、磁気共鳴画像及び超音波画像といったどのような3次元画像であもよい。ライブ画像は例えばX線画像であり得る。   A method and apparatus are provided for locating an internal target site during therapy without using an implant fiducial. The method includes generating a plurality of first images each representing a related space including an internal target site, generating a live image of the related space during treatment, and converting the live image to one of the first images. And a step of matching with one. Since the first image shows the internal target site, the step of matching the live image to one of the first images identifies the location of the target site regardless of whether the second image itself indicates the location of the target site. . The first image may be any three-dimensional image such as a CT scan, a magnetic resonance image, and an ultrasonic image. The live image can be, for example, an X-ray image.

本発明は、リアルタイムで標的部位の位置を追跡するため、一又は複数のリアルタイムセンサーと共に使用され得る。リアルタイム追跡を実現するため、リアルタイムセンサーからの信号は、標的部位の位置と関連付けられる。相関モデルは、X線画像を撮ると同時にリアルタイムセンサーからの信号を読み取り、次いで、該X線画像を用いて標的位置を示す最も整合する3次元画像を特定することによって生成される。一旦相関性が確立されると、リアルタイムセンサーからの信号をほぼ連続的に読み取ることにより、治療中、標的部位の位置がリアルタイムで追跡され得る。   The present invention can be used with one or more real-time sensors to track the location of a target site in real time. In order to achieve real-time tracking, the signal from the real-time sensor is associated with the location of the target site. A correlation model is generated by taking an X-ray image and simultaneously reading the signal from the real-time sensor and then using the X-ray image to identify the most consistent three-dimensional image that indicates the target location. Once the correlation is established, the location of the target site can be tracked in real time during the treatment by reading the signal from the real time sensor almost continuously.

本発明は、治療中に内部標的部位の位置を特定するための方法であって、The present invention is a method for locating an internal target site during therapy comprising:
患者の関連空間の複数の第1画像を生成する工程であって、関連空間が前記内部標的部位を含み、かつ、該複数の第1画像各々が内部標的部位を示す当該工程と、Generating a plurality of first images of a patient's associated space, the associated space including the internal target site, and each of the plurality of first images indicating an internal target site;
治療中の所定の時間において関連空間のライブ画像を生成する工程と、Generating a live image of the relevant space at a predetermined time during treatment;
ライブ画像と最も整合する前記複数の第1画像のうちの一つを特定することにより、前記所定の時間における内部標的部位の位置を決定する工程とを含む方法に係る。本方法は、前記複数の第1画像は、コンピュータ・トモグラフィ・スキャン、超音波画像及び磁気共鳴画像のうちの一つを含むことができる。本方法において、前記複数の第1画像は3次元画像であり得る。本方法において、前記複数の第1画像を生成する工程は、呼吸サイクルの第1時点で撮られる第1コンピュータ・トモグラフィ・スキャンを生成する工程と、呼吸サイクルの第2時点で撮られる第2コンピュータ・トモグラフィ・スキャンを生成する工程と、前記第1時点と第2時点との間の第3時点における、前記関連空間を表す少なくとも一つのコンピュータ生成の中間3次元画像を生成する工程とを含み得る。前記少なくとも一つの中間3次元画像を生成する工程は、第1コンピュータ・トモグラフィ・スキャンと第2コンピュータ・トモグラフィ・スキャンとの間を補間する工程と、第1及び第2コンピュータ・トモグラフィ・スキャンの一方を変更する工程とを含み得る。前記少なくとも一つの中間3次元画像を生成する工程は、第1の3次元画像を、第1の3次元画像とは異なる時点で得た第2の3次元画像へと連続的に変形する工程を含み得る。前記複数の第1画像は、患者の呼吸パターンにおける予め選択した時点で生成され得る。本方法は、前記複数の第1画像各々に対し複数のディジタル再構成X線画像を計算する工程を更に含み、該複数のディジタル再構成X線画像各々は特定視角からの関連空間を表し得る。前記第1画像各々は呼吸サイクルのある時点を示し、ディジタル再構成X線画像各々は関連空間の回転及び並進移動を示し得る。本方法において、前記第2画像と最も整合する複数の第1画像のうちの一つを特定することは、ディジタル再構成X線画像を第2画像と比較する工程を含み得る。前記比較工程は、ディジタル再構成X線画像と第2画像とをピクセル単位で比較する工程を含み得る。前記第2画像はX線画像を含み得る。前記複数の第1画像の生成する工程は第2画像の生成とは独立に行われ得る。前記複数の第1画像は治療前に生成され、第2画像は、治療中に生成されるライブ画像であり得る。前記内部標的部位の位置は治療室の座標系で表され得る。本方法は、時間間隔ΔtDetermining a position of an internal target site at the predetermined time by identifying one of the plurality of first images that most closely matches a live image. In the method, the plurality of first images may include one of a computer tomography scan, an ultrasound image, and a magnetic resonance image. In the method, the plurality of first images may be three-dimensional images. In the method, generating the plurality of first images includes generating a first computer tomography scan taken at a first time point of a respiratory cycle and a second time taken at a second time point of the respiratory cycle. Generating a computer tomography scan; and generating at least one computer-generated intermediate three-dimensional image representing the associated space at a third time point between the first time point and the second time point. May be included. Generating the at least one intermediate three-dimensional image comprises interpolating between a first computer tomography scan and a second computer tomography scan; and first and second computer tomography scans; Changing one of the scans. The step of generating the at least one intermediate three-dimensional image includes the step of continuously transforming the first three-dimensional image into a second three-dimensional image obtained at a different time from the first three-dimensional image. May be included. The plurality of first images may be generated at preselected times in the patient breathing pattern. The method further includes calculating a plurality of digitally reconstructed X-ray images for each of the plurality of first images, wherein each of the plurality of digitally reconstructed X-ray images may represent an associated space from a specific viewing angle. Each of the first images may indicate a point in time of the respiratory cycle, and each digitally reconstructed X-ray image may indicate rotation and translation of the associated space. In the method, identifying one of the plurality of first images that most closely matches the second image may include comparing the digitally reconstructed x-ray image with the second image. The comparing step may include a step of comparing the digitally reconstructed X-ray image and the second image pixel by pixel. The second image may include an X-ray image. The step of generating the plurality of first images may be performed independently of the generation of the second image. The plurality of first images may be generated before treatment, and the second image may be a live image generated during treatment. The position of the internal target site may be expressed in a treatment room coordinate system. The method uses a time interval Δt sensorsensor で読み取られるリアルタイムセンサーを患者の外側身体部分に連結する工程と、リアルタイムセンサーからの信号sを読み取ると共に、ΔtConnecting the real-time sensor read in step 1 to the outer body part of the patient, reading the signal s from the real-time sensor, and Δt sensorsensor よりも大きい時間間隔Δtで同時に関連空間の対応する画像を生成する工程と、標的部位の位置と前記信号との間の相関性を生成するため、前記対応する画像と最も整合する複数の第1画像のうちの一つを特定する工程とを更に含み得る。前記相関性を生成することは、信号データの組及び対応する画像データの組を作り出すため、複数の異なる時点で信号を読み取ると共に関連空間の対応する画像を生成する工程と、第1曲線を前記信号データの組に適合させる工程と、第2曲線を前記対応する画像データの組に適合させる工程と、第1曲線と第2曲線とを比較する工程とを含み得る。本方法はまた、時点tGenerating a corresponding image of the relevant space simultaneously with a larger time interval Δt, and a plurality of first matching most closely with the corresponding image to generate a correlation between the position of the target site and the signal Identifying one of the images. Generating the correlation includes reading a signal at a plurality of different times and generating a corresponding image of the associated space to create a set of signal data and a corresponding set of image data; Adapting to a set of signal data, adapting a second curve to the corresponding set of image data, and comparing the first curve and the second curve may be included. The method also includes a time t sensorsensor でリアルタイムセンサーから信号sを読み取る工程と、前記第1曲線における信号sの位置を特定する工程と、第1曲線の信号sに対応する第2曲線における点yを特定することにより、時点tBy reading the signal s from the real-time sensor, identifying the position of the signal s in the first curve, and identifying the point y in the second curve corresponding to the signal s in the first curve, sensorsensor での標的部位の位置を推定する工程とを更に含み得る。本方法は、治療中、関連空間の新規なX線画像を周期的に撮ると同時に対応する信号を読み取る工程と、該新規なX線画像及び対応する信号によって前記相関性を更新する工程とを更に含み得る。前記リアルタイムセンサーは、赤外線追跡、力センサー、風量計、ひずみゲージ、レーザー距離センサー、及び、触覚的、聴覚的、超音波的、磁気的、機械的及び視覚的な原理に基づく種々のセンサーのうちの一つを含み得る。前記リアルタイムセンサーは第1センサーであり、患者の動きを追跡するために一又は複数の追加のセンサーを患者の身体に連結する工程を更に含み得る。本方法は、患者の呼吸パターンを決定する工程と、呼吸パターンと、呼吸パターンの異なる時点で撮られる前記複数の第1画像とに基づいて後の時点における標的部位の位置を予測する工程とを更に含み得る。Estimating the position of the target site at. The method comprises the steps of periodically taking a new X-ray image of the relevant space during treatment and simultaneously reading the corresponding signal and updating the correlation with the new X-ray image and the corresponding signal. It may further include. The real-time sensors include infrared tracking, force sensors, anemometers, strain gauges, laser distance sensors, and various sensors based on tactile, auditory, ultrasonic, magnetic, mechanical, and visual principles. One of the following. The real-time sensor is a first sensor and may further include coupling one or more additional sensors to the patient's body to track patient movement. The method includes determining a patient's breathing pattern, and predicting a position of a target site at a later time based on the breathing pattern and the plurality of first images taken at different times of the breathing pattern. It may further include.

別の本発明は、患者の内部の内部標的部位の位置を追跡するための装置であって、Another invention is an apparatus for tracking the location of an internal target site within a patient comprising
前記内部標的部位を含む関連空間のライブ画像を生成するように構成された画像装置と、An imaging device configured to generate a live image of an associated space including the internal target site;
複数の3次元画像であって該各3次元画像が治療前に生成された関連空間及び内部標的部位の事前に生成した画像を示す当該3次元画像を格納する記憶装置と、A storage device that stores a plurality of three-dimensional images, each of the three-dimensional images indicating a pre-generated image of a related space and an internal target site, each of which is generated before treatment;
画像装置及び記憶装置に連結されるプロセッサとを備え、A processor coupled to the image device and the storage device,
プロセッサは、前記ライブ画像と最も近似する最適な3次元画像を選択するためのコンピュータ可読命令の第1セットと、該最適な3次元画像に基づいて前記ライブ画像が生成される時点における内部標的部位の位置を決定するためのコンピュータ可読命令の第2セットとを含む装置に係る。本装置は、前記記憶装置に格納された複数のディジタル再構成X線画像を更に含み、該複数のディジタル再構成X線画像各々は、前記複数の3次元画像の一つと関連付けられ、また、プロセッサは、前記最適な3次元画像を選択するために該ディジタル再構成X線画像を用いることができる。前記複数のディジタル再構成X線画像各々は、患者の身体の移動を起因とする関連空間の異なる変位を反映し得る。前記複数の3次元画像は、コンピュータ・トモグラフィ・スキャン、磁気共鳴画像及び超音波画像のうちの一つを含み得る。前記複数の3次元画像は、第1の3次元画像と、第2の3次元画像と、該第1及び第2の3次元画像間を補間すると共に第1及び第2の3次元画像の一方を変形することによって生成された少なくとも一つの合成3次元画像とを含み得る。前記画像装置は少なくとも一つのX線発生器を含み、前記ライブ画像は立体X線画像であり得る。前記プロセッサに連結される検出システムを更に備え、該検出システムは、プロセッサが外側身体部分の運動と標的部位の位置との間の相関性を生成するように、前記画像装置がライブ画像を生成すると同時に外側身体部分の運動を読み取り得る。前記検出システムは、赤外線追跡、力センサー、風量計、ひずみゲージ、レーザー距離センサー、及び、触覚的、聴覚的、超音波的、磁気的、機械的及び視覚的な原理に基づく種々のセンサーのうちの一つを含み得る。前記記憶装置に格納された患者の呼吸パターンを更に含み、プロセッサは、呼吸パターンの一又は複数の事前に選択した時点において関連空間の3次元画像を生成するためのコンピュータ可読命令の第3セットを含み得る。プロセッサ指令に応答して標的部位の位置に治療ビームを向けるビーム発生装置を更に備え得る。前記複数の3次元画像は、コンピュータ・トモグラフィ・スキャン、磁気共鳴画像もしくは超音波画像のうちの少なくとも一つを含み得る。A processor includes a first set of computer readable instructions for selecting an optimal 3D image that most closely approximates the live image, and an internal target site at the time the live image is generated based on the optimal 3D image And a second set of computer readable instructions for determining the position of the computer. The apparatus further includes a plurality of digitally reconstructed X-ray images stored in the storage device, each of the plurality of digitally reconstructed X-ray images being associated with one of the plurality of three-dimensional images, and a processor Can use the digitally reconstructed X-ray image to select the optimal three-dimensional image. Each of the plurality of digitally reconstructed X-ray images may reflect a different displacement of the associated space due to movement of the patient's body. The plurality of three-dimensional images may include one of a computer tomography scan, a magnetic resonance image, and an ultrasound image. The plurality of three-dimensional images interpolate between the first three-dimensional image, the second three-dimensional image, and the first and second three-dimensional images and one of the first and second three-dimensional images. And at least one synthesized three-dimensional image generated by transforming the image. The imaging device may include at least one X-ray generator, and the live image may be a stereoscopic X-ray image. A detection system coupled to the processor, wherein the detection system generates a live image so that the processor generates a correlation between the motion of the outer body part and the position of the target site; At the same time, the movement of the outer body part can be read. The detection system includes infrared tracking, force sensors, anemometers, strain gauges, laser distance sensors, and various sensors based on tactile, auditory, ultrasonic, magnetic, mechanical and visual principles. One of the following. Further comprising a patient breathing pattern stored in the storage device, the processor includes a third set of computer readable instructions for generating a three-dimensional image of the relevant space at one or more preselected times of the breathing pattern. May be included. A beam generator may be further included that directs the treatment beam to the location of the target site in response to the processor command. The plurality of three-dimensional images may include at least one of a computer tomography scan, a magnetic resonance image, or an ultrasound image.

更に別の本発明は、患者の内部の標的部位の位置を追跡するための装置であって、Yet another aspect of the invention is an apparatus for tracking the location of a target site within a patient,
患者の内部の関連空間の複数の第1画像を生成するための手段であって、関連空間が標的部位を含み、かつ、該複数の第1画像各々が標的部位を示す当該手段と、Means for generating a plurality of first images of a relevant space inside a patient, wherein the relevant space includes a target site, and each of the plurality of first images indicates a target site;
治療中の所定の時間において関連空間のライブ画像を生成するための手段と、Means for generating a live image of the relevant space at a predetermined time during treatment;
ライブ画像と最も整合する前記複数の第1画像のうちの一つを特定することにより、前記所定の時間における内部標的部位の位置を決定するための手段とを含む装置に係る。本装置において、前記複数の第1画像を生成するための手段は、呼吸サイクルの第1時点で撮られる第1コンピュータ・トモグラフィ・スキャンを生成するための手段と、呼吸サイクルの第2時点で撮られる第2コンピュータ・トモグラフィ・スキャンを生成するための手段と、前記第1時点と第2時点との間の第3時点における、前記関連空間を表す少なくとも一つのコンピュータ生成の中間3次元画像を生成するための手段とを含み得る。前記少なくとも一つの中間3次元画像を生成するための手段は、第1コンピュータ・トモグラフィ・スキャンと第2コンピュータ・トモグラフィ・スキャンとの間を補間すると共に、第1及び第2コンピュータ・トモグラフィ・スキャンの一方を変更するための手段を含み得る。本装置は、前記第1画像各々に対し複数のディジタル再構成X線画像を計算するための手段を更に含み、該複数のディジタル再構成X線画像各々は特定視角からの関連空間を表し得る。前記複数の第1画像の一つを特定するための手段は、ディジタル再構成X線画像をライブ画像と比較するための手段を含み得る。本装置はまた、時間間隔ΔtMeans for determining a position of an internal target site at the predetermined time by identifying one of the plurality of first images that most closely matches a live image. In the apparatus, the means for generating the plurality of first images includes means for generating a first computer tomography scan taken at a first time point of the respiratory cycle and at a second time point of the respiratory cycle. Means for generating a second computer tomography scan to be taken and at least one computer-generated intermediate three-dimensional image representative of the relevant space at a third time point between the first time point and the second time point For generating. The means for generating the at least one intermediate three-dimensional image interpolates between a first computer tomography scan and a second computer tomography scan, and first and second computer tomography -It may include means for changing one of the scans. The apparatus further includes means for calculating a plurality of digitally reconstructed X-ray images for each of the first images, each of the plurality of digitally reconstructed X-ray images representing a relevant space from a specific viewing angle. The means for identifying one of the plurality of first images may include means for comparing the digitally reconstructed x-ray image with a live image. The device also has a time interval Δt sensorsensor で信号を発する、患者の外側身体部分の運動を検出するための手段と、ΔtMeans for detecting movement of the outer body part of the patient, sensorsensor よりも大きい時間間隔Δtで同時に、前記信号を読み取ると共に関連空間の対応する画像を生成するための手段と、標的部位の位置と前記信号との間の相関性を生成するため、前記対応する画像と最も整合する複数の第1画像のうちの一つを特定するための手段とを更に含み得る。前記特定手段は、信号データの組及び対応する画像データの組を作り出すため、複数の異なる時点で信号を読み取ると共に関連空間の対応する画像を生成するための手段と、第1曲線を前記信号データの組に適合させるための手段と、第2曲線を前記対応する画像データの組に適合させるための手段と、第1曲線と第2曲線とを比較するための手段とを含み得る。本装置は、時点tMeans for reading the signal and generating a corresponding image of the relevant space at the same time with a larger time interval Δt and the corresponding image for generating a correlation between the position of the target site and the signal And means for identifying one of a plurality of first images that most closely match. The identifying means reads a signal at a plurality of different time points and generates a corresponding image of an associated space to produce a set of signal data and a corresponding set of image data; Means for fitting to a set of means, means for fitting a second curve to the corresponding set of image data, and means for comparing the first curve and the second curve. The device is at time t sensorsensor でリアルタイムセンサーから信号sを読み取るための手段と、前記第1曲線における信号sの位置を特定するための手段と、第1曲線の信号sに対応する第2曲線における点yを特定することにより、時点tMeans for reading the signal s from the real-time sensor, means for specifying the position of the signal s in the first curve, and specifying the point y in the second curve corresponding to the signal s in the first curve , Time t sensorsensor での標的部位の位置を推定するための手段とを更に含み得る。本装置においてはまた、治療中、関連空間の新規なX線画像を周期的に撮ると同時に対応する信号を読み取るための手段と、該新規なX線画像及び対応する信号によって前記相関性を更新するための手段とを更に含み得る。And means for estimating the position of the target site at. The apparatus also provides means for periodically taking a new X-ray image of the relevant space during treatment and simultaneously reading the corresponding signal, and updating the correlation with the new X-ray image and the corresponding signal. Means for doing so.

更に別の本発明は、治療中に、動きをこうむっている患者の内部標的部位の位置を特定するたの方法であって、Yet another aspect of the invention is a method for locating an internal target site of a patient undergoing movement during treatment comprising:
患者の関連空間の複数の第1画像を治療前に生成する工程であって、関連空間が前記内部標的部位を含み、かつ、該複数の第1画像各々が該内部標的部位を示す当該工程と、Generating a plurality of first images of a patient's associated space prior to treatment, wherein the associated space includes the internal target site and each of the plurality of first images indicates the internal target site; ,
治療中の所定の時間において関連空間の第2画像を生成する工程と、Generating a second image of the relevant space at a predetermined time during treatment;
第2画像と最も整合する前記複数の第1画像のうちの一つを特定することにより、前記所定の時間における内部標的部位の位置を決定する工程とを含む方法に係る。本方法において、前記患者の動きは、呼吸サイクルによって特徴付けられる周期的な呼吸運動を含み、前記複数の第1画像を生成する工程は、呼吸サイクルの第1時点で撮られる第1コンピュータ・トモグラフィ・スキャンを生成する工程と、呼吸サイクルの第2時点で撮られる第2コンピュータ・トモグラフィ・スキャンを生成する工程と、前記第1時点と第2時点との間の第3時点における、前記関連空間を表す少なくとも一つのコンピュータ生成の中間3次元画像を生成する工程とを含み得る。本方法は、前記複数の第1画像各々に対し複数のディジタル再構成X線画像を計算する工程を更に含み、該複数のディジタル再構成X線画像各々は特定視角から見た場合に関連空間を表し得る。前記第1画像各々は呼吸サイクルの対応する時点における前記標的部位のある位置を示し、ディジタル再構成X線画像各々は前記標的部位の回転及び並進移動を示し得る。Determining the position of the internal target site at the predetermined time by identifying one of the plurality of first images that most closely matches the second image. In the method, the patient motion includes a periodic respiratory motion characterized by a respiratory cycle, and the step of generating the plurality of first images includes a first computer tomogram taken at a first time point of the respiratory cycle. Generating a graphic scan; generating a second computer tomography scan taken at a second time point of the respiratory cycle; and at a third time point between the first time point and the second time point, Generating at least one computer-generated intermediate three-dimensional image representing the relevant space. The method further includes calculating a plurality of digitally reconstructed X-ray images for each of the plurality of first images, each of the plurality of digitally reconstructed X-ray images having an associated space when viewed from a specific viewing angle. Can be represented. Each of the first images may show a certain position of the target site at a corresponding point in the respiratory cycle, and each digitally reconstructed X-ray image may show the rotation and translation of the target site.

本発明は、内部フィデューシャルを埋め込むことなく、内部標的部位に向かって放射線ビームを誘導するための装置及び方法に特に適用することができ、これに関連して本発明は記述される。しかしながら、本発明に従う装置及び方法は、別タイプの医療機器を用いる別タイプの医療処置、例えば、生検針の位置出し、切除(アブレーティブ)、超音波もしくは他の焦点エネルギーによる治療法、又は、レーザービーム治療法用のレーザービームの位置出し等に対して優れた有用性を有することが認識されるであろう。本発明を説明する前に、本発明のより良い理解を与えるため、一般的な放射線外科機器が説明される。   The present invention is particularly applicable to devices and methods for directing a radiation beam toward an internal target site without implanting an internal fiducial, in which the present invention is described. However, the apparatus and method according to the present invention may be applied to other types of medical procedures using different types of medical devices, such as biopsy needle positioning, ablation, ultrasound or other focus energy therapy, or lasers. It will be appreciated that it has excellent utility for positioning a laser beam for beam therapy. Before describing the present invention, a general radiosurgical instrument will be described to provide a better understanding of the present invention.

本明細書中で用いる「標的部位」は、治療(例えば放射線)が差し向けられるべき領域である。標的部位は、該標的部位を囲む内部領域を意味する「関連空間(関連容積)」内に位置し、該関連空間は、標的部位周囲の骨及び軟組織を含み得る。   As used herein, a “target site” is an area to which treatment (eg, radiation) is to be directed. The target site is located within a “relevant space (meaning volume)” that means an internal region surrounding the target site, which can include bone and soft tissue around the target site.

本発明に従う方法は、治療(処置)前に実行され得る工程、及び、治療中に実行される工程を含む。治療前に、少なくとも二つの一連のCTスキャンが撮られて計算される。各CTスキャンは、患者の呼吸サイクルにおける特定時点に対応する。一連のCTスキャン各々は、実際のCTスキャンであるか、又は、実際のCTスキャンとコンピュータ生成中間CT画像との組合わせであり得る。中間CT画像を生成するため、少なくとも二つのCTスキャンが最初に取得される。次いで、合成変形画像が実際のCTスキャンから計算される。各CTスキャン及びコンピュータ生成CT画像は標的部位を示す。この標的部位には、治療前にマーク(印)を付けることができる。ディジタル再構成X線画像(DRR)の組(一組のDRR)が各CTスキャン及び/又はコンピュータ生成CT画像に対して形成される。各DRRは特定角度からの標的部位を示す。   The method according to the invention comprises steps that can be carried out before the treatment (treatment) and steps that are carried out during the treatment. Prior to treatment, at least two series of CT scans are taken and calculated. Each CT scan corresponds to a specific point in the patient's respiratory cycle. Each series of CT scans may be an actual CT scan or a combination of an actual CT scan and a computer generated intermediate CT image. In order to generate an intermediate CT image, at least two CT scans are first acquired. A composite deformed image is then calculated from the actual CT scan. Each CT scan and computer-generated CT image shows the target site. This target site can be marked before treatment. A set of digitally reconstructed X-ray images (DRR) (a set of DRRs) is formed for each CT scan and / or computer-generated CT image. Each DRR indicates a target site from a specific angle.

治療中、ライブ(生の)立体X線画像が周期的に、例えば10秒ごとに撮られる。標的部位は、X線画像において明瞭に見ることができないであろう。しかしながら、標的部位の正確な位置は、各ライブX線画像と上記DRRの組とを比べ、ライブX線画像に最も整合(一致/適合)するDRRを見出し、かつ、該DRRが生成されたCTスキャンもしくはCT画像を特定することにより、突き止めることができる。CTスキャンもしくはCT画像は、標的部位を示し、従って標的部位の位置を示す。上記最も整合するDRRに関連した視角(視る角度もしくは視野角)に基づいて、ライブX線画像が撮られた時点の患者の正確な角度もしくは並進移動(translational shift)も決定される。DRRを用いて、患者の身体の並進移動/回転移動の両方と、患者の現在の呼吸状態とがライブX線画像から推測され得る。この治療には、フィデューシャル(基準)が埋め込まれる必要は全くなく、処置中はX線画像だけを必要とする。   During treatment, live (raw) stereoscopic X-ray images are taken periodically, for example every 10 seconds. The target site will not be clearly visible in the x-ray image. However, the exact position of the target site is determined by comparing each live X-ray image with the above-mentioned DRR set, finding the DRR that most closely matches (matches / matches) the live X-ray image, and the CT in which the DRR was generated It can be determined by specifying a scan or CT image. A CT scan or CT image shows the target site and thus the location of the target site. Based on the viewing angle (viewing angle or viewing angle) associated with the most consistent DRR, the exact angle or translational shift of the patient at the time the live X-ray image was taken is also determined. Using DRR, both translational / rotational movements of the patient's body and the patient's current breathing state can be inferred from the live x-ray image. This treatment does not require any fiducial (reference) to be implanted and only requires an X-ray image during the procedure.

X線画像だけでは、素早い呼吸を検出するには遅すぎるかもしれないので、標的部位をリアルタイムで追跡するために、本発明に従う、フィデューシャルの無い(無フィデューシャル)標的追跡法がリアルタイムセンサーと組み合わされ得る。リアルタイムセンサーは外側マーカー(目印)であり得、該外側マーカーは、標的部位が移動する際に、必ずしも同じ方向又は同じ程度ではないが同時に動く患者の身体部分に連結される。リアルタイムセンサーを使用するため、好ましくは治療前に、リアルタイムセンサーからの信号を標的部位の位置に関連付ける相関モデルが生成される。該相関モデルは、標的部位のX線画像を撮り、同時にリアルタイムセンサーからの信号を読み取り、次いで、上記X線画像を用いて、最も整合するDRR、及び、関連するCTスキャンもしくはCT画像を特定することによって生成される。X線画像が撮られるのと同時にリアルタイムセンサーが読み込まれるので、CTスキャンもしくはCT画像は、リアルタイムセンサーから信号が読み取られた時点における標的部位の位置を特定する。データポイントの組(セット)が取得された後、標的部位の位置は、リアルタイムセンサーからの信号読取りと関連付けられ得る。この治療前相関手順は、標的部位の位置を特定するためにX線画像がDRRと突き合わせられる(マッチングされる)点で、治療中に実行されるライブ無フィデューシャル標的法と同様である。この相関手順は、X線画像が撮られると同時にリアルタイムセンサーからの信号が読み取られる点で、治療中に行われるライブ標的部位追跡とは異なる。一旦、相関モデルが確立されると、標的部位の位置はリアルタイムセンサー信号から推測され得る。リアルタイムセンサー信号は、取得が容易であり、かつX線画像が処理されるよりも高頻度で読み取ることができるので、リアルタイムセンサーの使用は、標的部位がほぼ連続的にもしくはリアルタイムに追跡されることを可能にする。上記相関手順の更なる詳細は、米国特許第6,144,875号において与えられる。該文献はその全部が本明細書中に組み込まれる。   Since X-ray images alone may be too slow to detect fast breathing, a non-fiducial (non-fiducial) target tracking method according to the present invention is real time to track the target site in real time. Can be combined with sensors. The real-time sensor may be an outer marker (marker) that is coupled to the patient's body part that moves simultaneously but not necessarily in the same direction or to the same extent as the target site moves. Because a real-time sensor is used, a correlation model is generated that associates the signal from the real-time sensor with the location of the target site, preferably prior to treatment. The correlation model takes an X-ray image of the target site and simultaneously reads the signal from the real-time sensor and then uses the X-ray image to identify the best matching DRR and associated CT scan or CT image Is generated by Since the real-time sensor is read at the same time as the X-ray image is taken, the CT scan or CT image specifies the position of the target site at the time the signal is read from the real-time sensor. After the set of data points is acquired, the location of the target site can be associated with signal readings from the real-time sensor. This pre-treatment correlation procedure is similar to the live no-fiducial targeting method performed during treatment in that the X-ray image is matched (matched) with the DRR to locate the target site. This correlation procedure differs from live target site tracking performed during treatment in that the X-ray image is taken and the signal from the real-time sensor is read at the same time. Once the correlation model is established, the location of the target site can be inferred from the real-time sensor signal. Because real-time sensor signals are easy to acquire and can be read more frequently than x-ray images are processed, the use of real-time sensors ensures that the target site is tracked almost continuously or in real time. Enable. Further details of the above correlation procedure are given in US Pat. No. 6,144,875. This document is incorporated herein in its entirety.

図1は、定位固定放射線治療装置10の一例を示す。放射線治療装置10は、マイクロプロセッサ等のデータ処理装置12と、患者14内部の標的部位に関連する画像データ及び数学的データを格納し得る記憶装置13とを含み得る。該画像データは、治療前又は外科手術中にデータ処理装置へと取り込まれ得る。放射線治療装置10はビーム発生(ビーミング)装置20をも含み得る。ビーム発生装置20は、作動時に、患者14内部の標的部位に向けて平行外科的電離ビームを発する。該平行外科的電離ビームは、標的部位を壊死させるのに充分な強度を有し得る。線形加速器、好ましくはX線線形加速器のような電離放射線もしくは重粒子ビームを発生させる様々な別のビーム発生装置が使用され得る。そのようなX線ビーム発生装置は市販されている。ビーム発生装置20は、ビーム発生装置に接続するスイッチ(図示せず)を用いてオペレータが作動することができる。   FIG. 1 shows an example of a stereotaxic radiation therapy apparatus 10. The radiation therapy device 10 may include a data processing device 12 such as a microprocessor and a storage device 13 that may store image data and mathematical data associated with a target site within the patient 14. The image data can be captured into a data processing device before treatment or during surgery. The radiation therapy device 10 may also include a beam generating device 20. When activated, the beam generator 20 emits a parallel surgical ionization beam toward a target site within the patient 14. The parallel surgical ionization beam may be strong enough to necrotize the target site. Various other beam generators that generate ionizing radiation or heavy particle beams such as linear accelerators, preferably X-ray linear accelerators, can be used. Such X-ray beam generators are commercially available. The beam generator 20 can be operated by an operator using a switch (not shown) connected to the beam generator.

放射線治療装置10は、第1診断ビーム26及び第2診断ビーム28を内部標的部位に
通す(通過させる)ための立体X線画像装置をも含み得る。これら診断ビームは、互いに対し所定の(事前に設定した)非ゼロ角度に位置付けられる。これら診断ビームは、第1X線発生器32a及び第2X線発生器32bによってそれぞれ発生させられ得る。画像受信機34は、診断ビーム26、28を受信し、該診断ビームから画像を生成することができる。この診断画像はマイクロプロセッサ12に供給され、3次元画像と比較され得る。ある実施形態において、二つの別個の受信機各々が診断ビーム26及び28の一方を受信することができる。
Radiation therapy apparatus 10 may also include a first diagnostic beam 26 and a second diagnostic beam 28 through <br/> the internal target portion position (passing) stereoscopic X-ray image apparatus for. These diagnostic beams are positioned at a predetermined (pre-set) non-zero angle relative to each other. These diagnostic beams can be generated by the first X-ray generator 32a and the second X-ray generator 32b, respectively. The image receiver 34 can receive the diagnostic beams 26, 28 and generate an image from the diagnostic beams. This diagnostic image can be supplied to the microprocessor 12 and compared with the three-dimensional image. In certain embodiments, two separate receivers can each receive one of the diagnostic beams 26 and 28.

放射線治療装置10はまた、電離ビームが標的部位に連続的に焦点を合わせるように、ビーム発生装置20と患者14の相対的位置を調整するための装置を含み得る。図示の特定の放射線治療装置において、患者に対するビーム発生装置の位置付けは、プロセッサ制御可能なロボットアーム機構40及び/又は傾斜する上面38を有する可動手術台によって変更され得る。ロボットアーム機構は、ビーム発生装置が、上下、患者に沿う縦方向及び横(左右)方向を含み、患者の身体周囲を自由に移動することを許容する。   The radiation therapy device 10 may also include a device for adjusting the relative position of the beam generator 20 and the patient 14 such that the ionizing beam is continuously focused on the target site. In the particular radiotherapy device shown, the positioning of the beam generator relative to the patient can be altered by a processor-controllable robot arm mechanism 40 and / or a movable operating table having an inclined top surface 38. The robot arm mechanism allows the beam generator to move freely around the patient's body, including up and down, vertical and horizontal (left and right) directions along the patient.

放射線治療装置10は、患者14の外側の動きを監視するためのリアルタイム検出システムをも含む得る。リアルタイム検出システムは、患者14の外側の身体部分に連結された一又は複数のリアルタイムセンサー42と、リアルタイムセンサー42から読取りを周期的に取り込むセンサー読取り装置44とを含む。リアルタイムセンサー42の読取りは、患者14の外側身体部分の運動を示す。このリアルタイム検出システムは、リアルタイムセンサー42を、250ms未満の応答時間/再活動化(再生)時間で呼吸パターンに関連付けるために用いることができるどのようなシステムであってもよい。リアルタイムセンサー42として用いることができる市販されているいくつかのセンサーには、Northern Digital社(カナダ、オンタリオ州)製の赤外線追跡システムを含み、また、力センサー、風量計、ひずみゲージ、レーザー距離センサー、及び、触覚的、聴覚的(音響的)/超音波的、磁気的、機械的又は視覚的(光学的)な原理といった他の物理的原理に基づく多様なセンサーを含む。あるいは、呼吸の現在状態は、患者14の胸部及び/又は腹部の運動のビデオ画像を見ることにより、又は、患者14の口及び/又は鼻をエミュレート(模倣)する空気流もしくは温度を検出することにより測定され得る。リアルタイム検出システムは、プロセッサ12が、相関性を確立するためにリアルタイムセンサー42の読取りを用いることができるようにプロセッサ12に結合される。   The radiation therapy device 10 may also include a real-time detection system for monitoring movements outside the patient 14. The real-time detection system includes one or more real-time sensors 42 coupled to a body part outside the patient 14 and a sensor reader 44 that periodically captures readings from the real-time sensor 42. Real-time sensor 42 readings indicate movement of the outer body part of patient 14. This real-time detection system can be any system that can be used to associate the real-time sensor 42 with a breathing pattern with a response time / reactivation (regeneration) time of less than 250 ms. Some commercially available sensors that can be used as the real-time sensor 42 include an infrared tracking system made by Northern Digital (Ontario, Canada), as well as force sensors, anemometers, strain gauges, laser distance sensors. And various sensors based on other physical principles such as tactile, auditory (acoustic) / ultrasonic, magnetic, mechanical or visual (optical) principles. Alternatively, the current state of breathing is detected by viewing video images of chest and / or abdominal movements of patient 14 or by detecting airflow or temperature that emulates patient 14's mouth and / or nose. Can be measured. The real-time detection system is coupled to the processor 12 so that the processor 12 can use the reading of the real-time sensor 42 to establish the correlation.

図2は、放射線治療装置10のブロック図であり、該装置は、上述したように、マイクロプロセッサ12、記憶装置13(例えば、テープ駆動機構)、ビーム発生装置20、ロボットアーム40、X線カメラ30、32、34及び36、及びオペレータ制御コンソール24を含む。加えて、装置10は、患者14の皮膚に取り付けられたリアルタイムセンサーの位置を追跡するリアルタイムセンサー追跡システム50を含み得る。装置10はまた、治療の進行を見守りかつ治療を管理するためのオペレータ・ディスプレイ48を含み得る。放射線外科装置の更なる詳細は、この出願の譲受人が所有する米国特許第5,207,223号から分かるであろう。該文献は参照により本明細書中に組み込まれる。   FIG. 2 is a block diagram of the radiotherapy apparatus 10, which includes the microprocessor 12, the storage device 13 (for example, a tape drive mechanism), the beam generator 20, the robot arm 40, and the X-ray camera as described above. 30, 32, 34 and 36 and an operator control console 24. In addition, the device 10 may include a real-time sensor tracking system 50 that tracks the position of real-time sensors attached to the skin of the patient 14. The apparatus 10 may also include an operator display 48 for watching the treatment progress and managing the treatment. Further details of the radiosurgery device may be found in US Pat. No. 5,207,223 owned by the assignee of this application. This document is incorporated herein by reference.

図3は、患者の呼吸パターンのプロット(グラフ)70を示す。呼吸パターンの描写部分は、二つの呼吸サイクル、すなわちサイクル72及びサイクル74を含む。単一の呼吸サイクルは、呼吸パターンにおける横隔膜及び胸壁の運動の全範囲を含む。従って、時点Aから時点Aは、時点Bから時点Bまでと同様に一呼吸サイクルである。各呼吸サイクルが互いに実質上同様なので、呼吸サイクル72における時点Bは、呼吸サイクル74における時点Bと実質上同様の内部解剖学的構造であると関係付けられる。そのため、患者が移動しない限り、標的部位は、各時点Aにおいて実質上同じ位置にあると共に各時点Bにおいて実質上同じ位置にある。また、標的部位は、すべてのサイクルにおいて実質上同じ態様で時点Aにある位置から時点Bにある位置へと変位する。従って、患者の呼吸パターンのほぼすべての時点において関連空間の実際の位置を表す画像が存在するような関連空間の画像の組を作り出すことが可能である。そのような呼吸パターンは、各患者の個々の解剖学的構造を表す。規則正しい呼吸を訓練しているある患者には、再現性を最大にすることが必要であろう。   FIG. 3 shows a plot 70 of the patient's breathing pattern. The depiction portion of the breathing pattern includes two breathing cycles: cycle 72 and cycle 74. A single breathing cycle includes the full range of diaphragm and chest wall movements in the breathing pattern. Therefore, time point A to time point A is one respiration cycle as well as time point B to time point B. Because each respiratory cycle is substantially similar to each other, time point B in respiratory cycle 72 is related to an internal anatomy that is substantially similar to time point B in respiratory cycle 74. Therefore, as long as the patient does not move, the target site is at substantially the same position at each time point A and at substantially the same position at each time point B. Also, the target site is displaced from a position at time A to a position at time B in substantially the same manner in all cycles. Thus, it is possible to create a set of related space images in which there is an image representing the actual position of the related space at almost every point in the patient's breathing pattern. Such a breathing pattern represents the individual anatomy of each patient. For some patients training regular breathing, it may be necessary to maximize reproducibility.

患者の呼吸パターンは実質上周期的であるので、プロセッサ12(図1参照)は、呼吸パターンにおける一又は複数の事前に選択した時点で特定の指令を発行するようにプログラムされ得る。例えば、プロセッサ12は、呼吸パターンのある時点でCTスキャンが撮られるようにプログラムされ得る。このプログラムされたCTスキャン操作は、二つの一般工程を含み得る。すなわち、患者の呼吸パターンを決定(特定)する工程(第1工程)と、この呼吸パターンのある時点においてCTスキャナーをトリガするようにプロセッサ12をプログラムする工程(第2工程)である。第1工程では、患者の呼吸パターンは、図1に示したリアルタイム検出システムなどの良く知れている任意の方法もしくは器具を使用することによって確立され得る。身体部分(例えば胸壁)の運動を表す信号を発するリアルタイムセンサー42(図1参照)は、患者の体に連結される。ある臨界数の信号が受信された後、該信号は呼吸パターンを明らかにするために処理される。   Because the patient's breathing pattern is substantially periodic, the processor 12 (see FIG. 1) can be programmed to issue specific commands at one or more preselected points in the breathing pattern. For example, the processor 12 can be programmed to take a CT scan at some point in the respiratory pattern. This programmed CT scan operation can include two general steps. That is, a step (first step) of determining (identifying) a patient's breathing pattern, and a step (second step) of programming the processor 12 to trigger the CT scanner at a certain point in the breathing pattern. In the first step, the patient's breathing pattern may be established by using any well-known method or instrument, such as the real-time detection system shown in FIG. A real-time sensor 42 (see FIG. 1) that emits a signal representative of movement of a body part (eg, chest wall) is coupled to the patient's body. After a critical number of signals are received, the signals are processed to reveal a breathing pattern.

第2工程では、望ましいCTスキャン数に基づいて上記パターンにおけるある時点が選択され、また、プロセッサ12は、該選択した時点でCTスキャンナーをトリガするようにプログラムされる。例えば、第1CTスキャンが時点Aで撮られ、第2CTスキャンが時点Bで撮られ、かつ、三つのCTスキャンが、時点Aと時点Bとの間の均等時間間隔で撮られ得る。これは、呼吸サイクルにおける異なる時点で撮られた合計五つのCTスキャンをもたらす。更に詳しくは、時点Aと時点B間の三つのCTスキャンは、図3に示す点C、D及びEで撮られ得る。あるいは、呼吸パターンにおける上記時点は、追跡されている身体部分の位置に基づいて選択され得る。この場合、第1CTスキャンは、胸壁がその最も高いレベルにある時点で撮られ、第2CTスキャンは、胸壁が最高レベルから距離Ad低い時点で撮られ、第3CTスキャンは、胸壁が最高レベルから距離20d低い時点で撮られる、などであり得る。当業者は次の点を理解するであろう。すなわち、この呼吸パターンに基づくトリガ(トリガリング)法は、CTスキャナーと共に用いられることに限定はされず、また、プロセッサ12は、異なる装置に指令を発行することができ、又は、命令セットをプロセッサ自体が実行し得る。例えば、プロセッサ12は、時点A及び時点BでCTスキャナーをトリガすると共に、呼吸サイクルの時点Aと時点B間における他の時点のために、該スキャン(走査)した関連空間の合成画像を生成し得る。   In the second step, a point in the pattern is selected based on the desired number of CT scans, and the processor 12 is programmed to trigger the CT scanner at the selected point. For example, a first CT scan can be taken at time A, a second CT scan can be taken at time B, and three CT scans can be taken at equal time intervals between time A and time B. This results in a total of five CT scans taken at different points in the respiratory cycle. More specifically, three CT scans between time points A and B can be taken at points C, D and E shown in FIG. Alternatively, the time point in the breathing pattern can be selected based on the position of the body part being tracked. In this case, the first CT scan is taken when the chest wall is at its highest level, the second CT scan is taken when the chest wall is a distance Ad below the highest level, and the third CT scan is taken at a distance from the highest level. It may be taken at a point 20d lower. Those skilled in the art will understand the following points. That is, this breathing pattern based triggering (triggering) method is not limited to being used with a CT scanner, and the processor 12 can issue commands to different devices, or the command set can be It can execute itself. For example, the processor 12 triggers the CT scanner at time points A and B and generates a composite image of the scanned related space for other time points between time points A and B of the respiratory cycle. obtain.

この方法、すなわち、呼吸パターンのある時点を選択し、かつ、この選択時点でCTスキャナーをトリガするようにプロセッサ12をプログラムする方法は、放射線外科環境での使用に限定されない。例えば、この方法は、患者の動き(例えば、呼吸作用による動き)によって品質に悪影響を受けることが知られている慣用のCTスキャンを改善するために使用することができる。この方法は、ある者が、例えば診断目的のため、動きのアーティファクトの無い改善された3次元画像を取得することを可能にする。CTスキャンがこの方法を用いて撮られる場合、呼吸サイクルのどの時点でCTスキャンが撮られるかが明確に分かる。   This method, i.e., selecting a point in time of the breathing pattern and programming the processor 12 to trigger the CT scanner at this point in time, is not limited to use in a radiosurgical environment. For example, this method can be used to improve conventional CT scans that are known to be adversely affected in quality by patient motion (eg, respiratory motion). This method allows a person to obtain an improved 3D image without motion artifacts, eg, for diagnostic purposes. If a CT scan is taken using this method, it is clearly known at what point in the respiratory cycle the CT scan is taken.

本発明に従う内部位置決定法は、事前処理手順100aと、別の事前処理手順100bとを含み、そのうちの一方が放射線治療(処置)前に好ましくは実行される。図4A及び図4B各々は、この事前処理手順100a及び別の事前処理手順100bをそれぞれ表す。図5及び図6は、事前処理手順100a、100b中に取得した模範的な3次元画像を概略的に示す。図7は、別の事前処理手順100bにおいていくつかの3次元画像を生成するために用いることができる変形法を概略的に示す。   The internal position determination method according to the present invention includes a pre-processing procedure 100a and another pre-processing procedure 100b, one of which is preferably performed prior to radiation therapy (treatment). FIG. 4A and FIG. 4B each represent this pre-processing procedure 100a and another pre-processing procedure 100b. 5 and 6 schematically show exemplary three-dimensional images acquired during the pre-processing procedures 100a and 100b. FIG. 7 schematically illustrates a variation that can be used to generate several three-dimensional images in another pre-processing procedure 100b.

図4Aは、事前処理手順100aのフローチャートであり、これは、本発明に従う標的部位の位置を決定するための処理前に実行される。事前処理手順100aは、患者の呼吸サイクルの異なる時点における患者の関連空間(すなわち、骨、軟組織及び標的部位)を示す3次元画像を作り出すため、患者が複数のCTスキャンにかけられる時に始まる(段階102)。それぞれが標的部位を示す(複数の)CTスキャンは、図3に関連して既述した態様で撮ることができる。標的部位の位置は、それらのCTスキャンそれぞれに対し決定されて(段階110)、格納される(段階112)。加えて、各CTスキャンに対してDRRの組が生成される。各DRRは、関連空間が特定の角度からどのように見えるかを表す。   FIG. 4A is a flowchart of the pre-processing procedure 100a, which is performed prior to processing for determining the location of the target site according to the present invention. The pre-processing procedure 100a begins when the patient is subjected to multiple CT scans to create a three-dimensional image showing the patient's associated space (ie, bone, soft tissue and target site) at different points in the patient's respiratory cycle (step 102). ). The CT scan (s), each indicating a target site, can be taken in the manner previously described in connection with FIG. The location of the target site is determined for each of those CT scans (step 110) and stored (step 112). In addition, a set of DRRs is generated for each CT scan. Each DRR represents how the associated space looks from a particular angle.

更に詳しくは、段階102において撮られた各CTスキャンは、患者の呼吸サイクルにおける特定の時点での患者の内部空間(関連空間)を表す。例えば、きっかり二つのCTスキャンが撮られた場合、第1CTスキャンは呼吸サイクルの時点Aで撮られ、第2CTスキャンは時点Bで撮られ得る。関連空間が肺又は肝臓の近くである場合、時点A及び時点Bは、例えば、患者の呼吸サイクルの最大及び最小の吸入時点であり得る。標的部位の位置は、例えば治療室内の座標としてこれらCTスキャンそれぞれにおいて特定される(段階110)。次いで、その特定された位置は、放射線治療装置10の記憶装置13(図1参照)に格納される(段階112)。当業者は次の点を理解するであろう。すなわち、事前処理手順100がCTスキャンを含むものとして記述されたが、CTスキャンは、関連空間の骨及び組織を示す、磁気共鳴(MR)画像もしくは超音波画像といった他の3次元画像によって取って代えることができる。   More specifically, each CT scan taken in step 102 represents the patient's internal space (related space) at a particular point in the patient's respiratory cycle. For example, if exactly two CT scans are taken, the first CT scan can be taken at time A of the respiratory cycle and the second CT scan can be taken at time B. If the relevant space is near the lungs or liver, time points A and B can be, for example, the maximum and minimum inhalation points of the patient's respiratory cycle. The location of the target site is identified in each of these CT scans, for example as coordinates in the treatment room (step 110). Then, the specified position is stored in the storage device 13 (see FIG. 1) of the radiation therapy apparatus 10 (step 112). The person skilled in the art will understand the following points. That is, although the preprocessing procedure 100 has been described as including a CT scan, the CT scan can be taken with other three-dimensional images, such as magnetic resonance (MR) images or ultrasound images, showing bones and tissues in the relevant space. Can be replaced.

患者は、治療中に体をずらすかもしれなので、標的部位位置を特定する精度を高めるために、異なる角度から標的部位のビューを取得することが重要である。治療中の患者のどのような移動をも考慮に入れるため、各CTスキャンが、ディジタル再構成X線画像(DRR)の組を生成するために使用される(段階108)。各DRRは、3次元画像を通じて2次元投射を計算することにより取得される画像である。そのため、DRRは、計算で得られる合成画像である。3次元CTスキャンを通じての2次元投射は、X線画像を撮る物理的プロセスに似ている。そのため、DRRはX線画像と同様に見える。実際、DRRが、対応するX線画像と正確に同じ角度から得られる場合、類似性はかなり近くなるであろう。この実施形態において、各DRRは、段階102及び104で用意した3次元画像が特定角度からどのように見えるかを示す合成2次元画像である。   Because patients may shift their body during treatment, it is important to obtain views of the target site from different angles in order to increase the accuracy of locating the target site. Each CT scan is used to generate a set of digitally reconstructed X-ray images (DRR) to take into account any movement of the patient under treatment (step 108). Each DRR is an image obtained by calculating a two-dimensional projection through a three-dimensional image. Therefore, DRR is a composite image obtained by calculation. Two-dimensional projection through a three-dimensional CT scan is similar to the physical process of taking an X-ray image. Therefore, DRR looks similar to an X-ray image. In fact, if the DRR is obtained from exactly the same angle as the corresponding x-ray image, the similarity will be quite close. In this embodiment, each DRR is a composite two-dimensional image showing how the three-dimensional image prepared in steps 102 and 104 looks from a specific angle.

すべてが一つの3次元画像の異なる角度から計算されたDRRの組は、これらの角度から撮られたX線画像の組と似ている。そのため、好ましくは、これらDRRは、X線発生器32a、32b(図1参照)が標的部位を見る(とらえる)角度の組からの標的部位を示す。治療中、患者が自発的に又は無意識に体を動かすかもしれないので、DRRは、異なる角度から関連空間がどのように見えるかを示す必要がある。好ましくは、患者14が治療中にそこへと移り得るほとんどすべての位置に対応するDRRが存在するように、充分な(数の)DRRが一組において存在する。また、DRRの組は、当業者が充分と考える程度に多い数のDRRを含み得る。   A set of DRRs, all calculated from different angles of a single 3D image, is similar to a set of X-ray images taken from these angles. Thus, preferably, these DRRs indicate target sites from a set of angles at which the X-ray generators 32a, 32b (see FIG. 1) view (capture) the target sites. Since the patient may move spontaneously or unconsciously during treatment, the DRR needs to show how the relevant space looks from different angles. Preferably, there is a sufficient (number) of DRRs in a set so that there are DRRs corresponding to almost every location that the patient 14 can move to during treatment. Also, the DRR set may include as many DRRs as a person skilled in the art will consider sufficient.

図4Bは、本発明に従う別の事前処理手順100bを示す。この別の事前処理手順100bは、3次元画像が実際のCTスキャンとコンピュータ生成中間3次元画像との組合せである点を除き、図4Aの事前処理手順100aと同様である。段階102において、関連空間の複数の(例えば二つの)CTスキャンが、呼吸サイクルの時点A及び時点Bで撮られる。これらのCTスキャンは、次いで、段階102中に撮った実際のCTスキャンから合成変形画像を計算することにより、一連の中間3次元画像を計算するために用いられる(段階104)。各中間3次元画像は、時点Aと時点B間の呼吸状態における標的部位の位置を示す。これら中間3次元画像を生成するための計算は、薄板スプライン、ワーピング、補間法もしくは補外法といったよく知られている任意の方法により、オフラインで実行され得る。標的部位の位置には、これらCTスキャン及び中間3次元画像それぞれにおいてマークが付けられる(段階106)。このマーキングもオフラインで行われ得る。段階102で撮ったCTスキャン及び段階104で得た中間3次元画像の両方が、ここでは「3次元画像」と呼ばれる。   FIG. 4B shows another pre-processing procedure 100b according to the present invention. This other preprocessing procedure 100b is similar to the preprocessing procedure 100a of FIG. 4A, except that the 3D image is a combination of an actual CT scan and a computer generated intermediate 3D image. In step 102, multiple (eg, two) CT scans of the relevant space are taken at time points A and B of the respiratory cycle. These CT scans are then used to calculate a series of intermediate 3D images by calculating a composite deformed image from the actual CT scan taken during step 102 (step 104). Each intermediate three-dimensional image shows the position of the target site in the respiratory state between time A and time B. The calculations for generating these intermediate three-dimensional images can be performed off-line by any well-known method such as thin plate spline, warping, interpolation or extrapolation. The location of the target site is marked in each of these CT scans and intermediate 3D images (step 106). This marking can also be done off-line. Both the CT scan taken in step 102 and the intermediate 3D image obtained in step 104 are referred to herein as “3D images”.

模範的な一実施形態において、二つのCTスキャンが段階102で取得され、十の中間3次元画像が段階104で生成される。次に、これら3次元画像のそれぞれに対し、四十のDRRが段階108において生成される。総計十二の3次元画像が存在するので、これは、総計四百八十のDRRが生成されたことを意味する。換言すれば、呼吸サイクルのある時点を示す各3次元画像が、四十の異なる角度から見える(とらえられる)。図8を参照して後述するように、DRRは、ライブX線画像と3次元画像とを突き合わせる(マッチングもしくは整合させる)ために用いられ、該3次元画像は、次いで、標的部位の位置を決定するために用いられる。   In one exemplary embodiment, two CT scans are acquired at step 102 and ten intermediate 3D images are generated at step 104. Next, forty DRRs are generated in step 108 for each of these three-dimensional images. Since there are a total of 12 3D images, this means that a total of 480 DRRs have been generated. In other words, each three-dimensional image showing a certain point in the respiratory cycle is seen (captured) from 40 different angles. As will be described later with reference to FIG. 8, DRR is used to match (match or match) a live X-ray image with a three-dimensional image, which is then used to determine the position of the target site. Used to determine.

図5は、事前処理手順100の段階102において呼吸サイクルの時点Aで撮られたCTスキャン210aを概略的に示す。図6は、これも事前処理手順100の段階102において呼吸サイクルの時点Bで撮られたCTスキャン210bを示す。特に、図5及び6は、関連空間200、軟組織202a及び202b、及び、軟組織202aと202b間に位置する標的部位204の断面図を示す。軟組織202a及び202bは座標系214に従うX方向に整列する。呼吸サイクルの時点Aにおいて、標的部位204は、図5に示すように、軟組織202bよりも軟組織202aに近い位置にある。しかしながら、呼吸サイクルの時点Bでは、標的部位204は、図6に示すように、軟組識202aよりも軟組識202bに近い。従って、標的部位204は、呼吸サイクルの時点Aと時点Bの間にX方向に沿って変位している。また、図5と図6において関連空間200の形状が異なっている。より詳しくは、関連空間200と軟組織202a及び202bは、時点A(図5に示す)から時点B(図6に示す)への進行時にY方向に沿って縮む。従って、呼吸サイクルの時点Aから時点Bへの進行時において、関連空間200はY方向に沿って縮小し、また、標的部位204はX方向に沿って変位する。   FIG. 5 schematically shows a CT scan 210a taken at time point A of the respiratory cycle in stage 102 of the preprocessing procedure 100. FIG. FIG. 6 shows a CT scan 210b, which was also taken at point B of the respiratory cycle in stage 102 of the preprocessing procedure 100. In particular, FIGS. 5 and 6 show cross-sectional views of the associated space 200, the soft tissues 202a and 202b, and the target site 204 located between the soft tissues 202a and 202b. The soft tissues 202a and 202b are aligned in the X direction according to the coordinate system 214. At time A of the respiratory cycle, the target site 204 is closer to the soft tissue 202a than to the soft tissue 202b, as shown in FIG. However, at point B of the respiratory cycle, the target site 204 is closer to the soft tissue 202b than the soft tissue 202a, as shown in FIG. Thus, the target site 204 is displaced along the X direction between time points A and B of the respiratory cycle. Moreover, the shape of the related space 200 is different between FIG. 5 and FIG. More specifically, the associated space 200 and the soft tissues 202a and 202b contract along the Y direction when traveling from time A (shown in FIG. 5) to time B (shown in FIG. 6). Accordingly, as the respiratory cycle progresses from time point A to time point B, the associated space 200 shrinks along the Y direction, and the target site 204 is displaced along the X direction.

図7は、図4Bの段階104における中間3次元画像の生成を概略的に示す。二つの模範的な中間3次元画像220及び222が、二つのCTスキャン210a及び210bに基づいて生成される。3次元画像220及び222は、呼吸サイクルの時点Aで撮られたCTスキャン210aを時点Bで撮られたCTスキャン210bへと連続的に変形することによって形成される。そのため、3次元画像220及び222は、呼吸サイクルにおける時点Aから時点Bへの移行時に関連空間200及び標的部位204が経る中間段階を表す。図3に関連して既述したように、ここでの例証目的のため、時点Aは最大吸入の時点であり、時点Bは最大に息を吐き出した時点である。従って、患者14が息を吐き出すにつれ、関連空間200はY方向に沿って次第に小さくなり、標的部位204は、軟組識202bに次第に近づいていく。   FIG. 7 schematically illustrates the generation of an intermediate 3D image in stage 104 of FIG. 4B. Two exemplary intermediate 3D images 220 and 222 are generated based on the two CT scans 210a and 210b. Three-dimensional images 220 and 222 are formed by continuously transforming a CT scan 210a taken at time A of the respiratory cycle into a CT scan 210b taken at time B. Therefore, the three-dimensional images 220 and 222 represent an intermediate stage through which the associated space 200 and target site 204 pass during the transition from time A to time B in the respiratory cycle. As described above in connection with FIG. 3, for purposes of illustration herein, time point A is the time of maximum inhalation and time point B is the time of maximum exhalation. Therefore, as the patient 14 exhales, the associated space 200 gradually decreases along the Y direction, and the target site 204 gradually approaches the soft tissue 202b.

図8は、フィデューシャルの無い標的追跡手順130を示すフローチャートである。この標的追跡手順130は、フィデューシャルを埋め込むことなく、本発明に従って標的部位の位置が決定されることを可能にする。治療中、ライブ立体X線画像が時間間隔Δtで周期的に撮られる(段階131)。X線画像自体は標的部位を表さないので、ライブX線は、標的部位の位置が特定されるために、適切な3次元画像と関連付けられなければならない。これらのX線画像各々は、事前処理手順100a、100b中に用意されたDRRと比較される(段階132)。X線画像は、3次元画像が表す関連空間内のすべてのもの(例えば標的部位)を表すわけではないので、突き合わされる(整合される)ものは、X線画像及びDRRの両方に現れる関連空間の一部分の位置である。この比較は、よく知られている画像比較技術を用いて、各ライブX線画像に対してプロセッサ12によって行われ得る。上記画像比較技術には、相互情報量、相互相関及びイメージサブトラクションを含むが、これらに限定はされない。これらの技術の一つにより、各DRR及びライブX線画像は、ピクセル(画素)ごとに比較される。この比較は、各ピクセル位置に対して両画像のグレーレベル・ピクセル値を引き算することを伴い得る。グレーレベルにおける累積差は、DRRとX線画像との間の距離を特徴付ける誤り信号を与える。当業者は、適切な比較技術をどのように履行するかを理解するであろう。   FIG. 8 is a flowchart illustrating a target tracking procedure 130 without fiducials. This target tracking procedure 130 allows the location of the target site to be determined according to the present invention without embedding fiducials. During treatment, live stereoscopic X-ray images are taken periodically at time intervals Δt (step 131). Since the x-ray image itself does not represent a target site, live x-rays must be associated with an appropriate three-dimensional image in order for the target site to be located. Each of these X-ray images is compared with the DRR prepared during the preprocessing procedures 100a, 100b (step 132). Since X-ray images do not represent everything in the associated space that the 3D image represents (eg, the target site), what is matched (matched) is an association that appears in both the X-ray image and the DRR It is the position of a part of the space. This comparison may be performed by the processor 12 for each live x-ray image using well known image comparison techniques. The image comparison techniques include, but are not limited to, mutual information, cross-correlation and image subtraction. With one of these techniques, each DRR and live X-ray image is compared pixel by pixel. This comparison may involve subtracting the gray level pixel values of both images for each pixel location. The cumulative difference in gray level gives an error signal that characterizes the distance between the DRR and the X-ray image. Those skilled in the art will understand how to implement an appropriate comparison technique.

この比較を通じて、X線画像と最も整合するDRRが選択される(段階134)。すべてのDRRは3次元画像に関連付けられるので、該関連する3次元画像が特定される(段階136)。その上、上記最も整合するDRRと関連する適切な角度が特定されなければならない(段階138)。特定された3次元画像及び視角に基づいて、標的部位の位置が決定される(段階140)。次いで、上記視角がこの標的位置に加えられる(これも段階140)。一旦、X線画像装置の角度から見ているような標的部位の位置が分かると、標的部位の位置は正確に決定され得る。次に、標的部位の位置が推定され、治療室座標に対して決定される(段階128)。呼吸パターンは実質上周期的なので、標的部位の位置は、臨界数のデータポントの取得後でさえ予測され得る。   Through this comparison, the DRR that most closely matches the X-ray image is selected (step 134). Since all DRRs are associated with a 3D image, the associated 3D image is identified (step 136). In addition, the appropriate angle associated with the most consistent DRR must be identified (step 138). Based on the identified three-dimensional image and viewing angle, the position of the target site is determined (step 140). The viewing angle is then added to this target location (also step 140). Once the position of the target site as seen from the angle of the X-ray imaging device is known, the position of the target site can be accurately determined. Next, the location of the target site is estimated and determined relative to the treatment room coordinates (step 128). Since the breathing pattern is substantially periodic, the location of the target site can be predicted even after acquisition of a critical number of data points.

図8のフィデューシャルの無い手順130は、埋め込みフィデューシャルなしで標的部位の位置出しを行うという顕著な利点を提供するが、X線画像だけでは、速い呼吸作用に対して遅すぎるであろうため、該手順130は、リアルタイム追跡を許容しない。頻繁すぎるX線イメージング(X線画像化)は、患者を過度の放射線にさらすかもしれないので、X線画像が撮られる時間間隔Δtは10秒程度であり得る。10秒ごとの標的部位の位置出しは、正確なビーム誘導を与えない。その理由は、標的部位が10秒以内にビーム半径(範囲)外へと移動することができるからである。治療ビームは、Δtよりも短い時間間隔でX線画像間において調整されることが必要である。より接近した標的部位の追跡を実現するため、容易に追跡できるリアルタイムセンサーが講じられ得る。該リアルタイムセンサーは、リアルタイムの測定データ、すなわち、患者の身体部分の運動と該運動の「報告」との間の無視してよい時間のずれ(遅れ)を伴う測定データを提供する。リアルタイムセンサーの位置に基づいての標的部位の位置の決定は、標的部位の位置のリアルタイム決定を可能にする。リアルタイムセンサーの使用は、内部フィデューシャルの使用に比べて非侵襲的で、廉価で、また、複雑さが全体的にずっと少ないため、内部フィデューシャルを用いることなくリアルタイムセンサーに基づいて腫瘍の位置を決定する機能が望まれている。   The non-fiducial procedure 130 of FIG. 8 provides the significant advantage of locating the target site without an implant fiducial, but X-ray images alone are too slow for fast breathing. Because of the wax, the procedure 130 does not allow real-time tracking. Too frequent X-ray imaging (X-ray imaging) may expose the patient to excessive radiation, so the time interval Δt at which X-ray images are taken can be on the order of 10 seconds. Target site positioning every 10 seconds does not give accurate beam guidance. This is because the target site can move out of the beam radius (range) within 10 seconds. The treatment beam needs to be adjusted between the X-ray images with a time interval shorter than Δt. Real-time sensors that can be easily tracked can be implemented to achieve tracking of closer target sites. The real-time sensor provides real-time measurement data, ie, measurement data with negligible time lag between the motion of the patient's body part and the “report” of the motion. Determination of the location of the target site based on the location of the real-time sensor allows real-time determination of the location of the target site. The use of real-time sensors is less invasive, less expensive and less complex overall than the use of internal fiducials, so tumors can be based on real-time sensors without using internal fiducials. A function to determine the position is desired.

リアルタイム追跡を困難にするX線イメージングの遅さを克服するため、リアルタイムセンサーは、フィデューシャルの無い標的追跡手順130と共に使用され得る。リアルタイムで標的部位を突き止めるためにリアルタイムセンサーがフィデューシャルの無い標的追跡手順130と共に使用されるためには、リアルタイムセンサーと標的部位の位置との間に相関性が確立される必要がある。   To overcome the slowness of X-ray imaging that makes real-time tracking difficult, real-time sensors can be used with a non-fiducial target tracking procedure 130. In order for a real time sensor to be used with a non-fiducial target tracking procedure 130 to locate a target site in real time, a correlation needs to be established between the real time sensor and the location of the target site.

図9は、センサー−標的部位相関手順120を示すフローチャートであり、これは、リアルタイムセンサー読取りと標的部位の位置との間の相関モデルを確立するための手順である。治療室において、患者は、可傾上面38(図1参照)上であって少なくとも二つのX線発生器32a、32b(図1参照)の視界内に置かれる。リアルタイム標的追跡では、リアルタイムセンサーは、患者の外側身体部分(例えば皮膚)に連結され、すなわち、患者14が治療室内に置かれた後に作動され得る(段階122)。図1に関連して既述したように、このリアルタイムセンサーは、250ms未満の応答時間もしくは再活動化時間で呼吸作用に対し相関性を示すどのようなセンサーであってもよい。その上、リアルタイムセンサーは、毎秒少なくとも十回、新規な信号を発するべきである。リアルタイムセンサーからの信号は、時間間隔Δtよりも短い時間間隔Δtsensorで読み取ることができる。その際、立体X線画像が撮られる(段階124)。X線画像が撮られると同時にリアルタイムセンサーからの信号が読み取られ、該読取りには、タイムスタンプが記録され得る。段階124は、時間間隔Δtで繰り返される。センサー読取り間隔Δtsensorは、連続した各センサー読取りが時間的に充分に密に得られる限り(すなわち、Δtsensorが充分に短い限り)、完全に一定である必要はない。同じことがX線イメージングに対して当てはまる。 FIG. 9 is a flowchart illustrating a sensor-target site correlation procedure 120, which is a procedure for establishing a correlation model between real-time sensor readings and target site locations. In the treatment room, the patient is placed on the tiltable top surface 38 (see FIG. 1) and within the field of view of at least two x-ray generators 32a, 32b (see FIG. 1). In real-time target tracking, a real-time sensor can be coupled to the patient's outer body part (eg, skin), that is, activated after the patient 14 is placed in the treatment room (stage 122). As described above in connection with FIG. 1, the real-time sensor may be any sensor that correlates to respiratory action with a response time or reactivation time of less than 250 ms. Moreover, the real-time sensor should emit a new signal at least ten times per second. The signal from the real-time sensor can be read at a time interval Δt sensor that is shorter than the time interval Δt. At that time, a stereoscopic X-ray image is taken (step 124). At the same time an X-ray image is taken, the signal from the real-time sensor is read, and a time stamp can be recorded in the reading. Stage 124 is repeated at time interval Δt. The sensor reading interval Δt sensor need not be completely constant as long as each successive sensor reading is obtained sufficiently dense in time (ie, as long as Δt sensor is sufficiently short). The same is true for x-ray imaging.

立体X線画像は、次いで、事前処理手順100a、100b中に得られたDRRと比較される(段階126)。この比較は、最も整合するDRRを特定し、該最も整合するDRRは、このDRRが生成される3次元画像を指し示す。該3次元画像の位置が事前処理手順中にマーク付けされるので、標的部位の位置が該3次元画像から決定される(段階128)。決定した標的部位の位置を用いて、段階124で収集したデータポイントが、標的部位の位置と対応するリアルタイムセンサー読取りとのデータポイントへと変換され、ポイント雲(ポイントクラウド)を生成する。放射線外科装置におけるプロセッサ12(図1参照)は、第1曲線を、リアルタイムセンサーが生成したポイントに適合すると共に、第2曲線を、標的位置に対して生成されたポイントに適合し得る。これら第1及び第2曲線は、リアルタイムセンサー読取り及び標的位置が互いに関連付けられることを可能にし(段階130)、治療中、標的部位を追跡するために最終的に用いられる相関モデルを作り出す。   The stereoscopic X-ray image is then compared to the DRR obtained during the preprocessing procedure 100a, 100b (step 126). This comparison identifies the best matching DRR, which points to the 3D image from which this DRR is generated. Since the position of the 3D image is marked during the preprocessing procedure, the position of the target site is determined from the 3D image (step 128). Using the determined target site location, the data points collected in step 124 are converted into data points with the target site location and corresponding real-time sensor readings to generate a point cloud. The processor 12 (see FIG. 1) in the radiosurgery device can fit the first curve to the point generated by the real-time sensor and fit the second curve to the point generated for the target location. These first and second curves allow real-time sensor readings and target locations to be correlated with each other (step 130), creating a correlation model that is ultimately used to track the target site during treatment.

標的部位位置とリアルタイムセンサーの相関を行う別の方法は、ポイント雲を計算した後に二組のデータ間の対応を確立するため、補間もしくは他の既知の数学的補間法を実行するように仕込まれたニューラルネットワークを用いることである。   Another way to correlate target location with real-time sensors is to perform interpolation or other known mathematical interpolation methods to establish correspondence between two sets of data after calculating the point cloud. Using a neural network.

図10は、治療中の標的部位のリアルタイム追跡のためのリアルタイム追跡手順150を示す。リアルタイム追跡手順150は、必ずしも一定であるとは限らない時間間隔によって分けられた時間tsensor1,tsensor2,tsensor3,・・・にてリアルタイムセンサーからの読取りを取得して始まる(段階152)。説明を分かりやすくするため、本明細書中では時間間隔はΔtsensorと表現される。ここで、Δtsensorは、正確かつ一定の値というよりはむしろある時間範囲である。リアルタイムセンサー信号はX線画像が撮られる間隔よりも高頻度で読み取ることができるので(Δt>Δtsensor)、リアルタイムセンサー情報が連続するX線画像間において取得され得る。例えば、Δtsensorは50ms、Δtは10秒であり得る。 FIG. 10 shows a real-time tracking procedure 150 for real-time tracking of the target site being treated. The real-time tracking procedure 150 begins by acquiring a reading from the real-time sensor at times t sensor1 , t sensor2 , t sensor3 ,... Divided by time intervals that are not necessarily constant (step 152). For ease of explanation, the time interval is expressed herein as Δt sensor . Here, Δt sensor is a certain time range rather than an accurate and constant value. Since the real-time sensor signal can be read more frequently than the interval at which X-ray images are taken (Δt> Δt sensor ), real-time sensor information can be acquired between successive X-ray images. For example, Δt sensor can be 50 ms and Δt can be 10 seconds.

該システムは、時間tsensor1でリアルタイムセンサーから信号sを読み取る。次いで、時間tsensor1における標的部位の位置が、このリアルタイムセンサー読取りに基づいて取得される(段階156)。このリアルタイムセンサー読取りは、センサー−標的部位相関手順120中に確立された、リアルタイムセンサー読取りと標的部位の位置との間の相関性に基づく。更に詳しくは、信号sは、事前に生成したリアルタイムセンサー読取りの第1曲線に適合される。次に、センサー信号sに対応する標的部位の位置yは、第1曲線上のsの位置に対応する第2曲線上の点を特定することにより、又は周知の補間法よって決定される。複数のリアルタイムセンサーが存在する場合、このプロセスは、各リアルタイムセンサーに対して実行され得る。このように、段階152で得られた各リアルタイムセンサーの位置は、相関モデルにおけるリアルタイムセンサー読取りの一つに突き合わせられ、また、標的部位の位置はリアルタイムセンサー読取りから推定される。 The system reads the signal s from the real-time sensor at time t sensor1 . The position of the target site at time t sensor1 is then obtained based on this real-time sensor reading (step 156). This real-time sensor reading is based on the correlation established between the real-time sensor reading and the target site location established during the sensor-target site correlation procedure 120. More particularly, the signal s is fitted to a first curve of pre-generated real-time sensor readings. Next, the position y of the target site corresponding to the sensor signal s is determined by identifying a point on the second curve corresponding to the position of s on the first curve, or by a known interpolation method. If there are multiple real-time sensors, this process can be performed for each real-time sensor. Thus, the location of each real-time sensor obtained in step 152 is matched to one of the real-time sensor readings in the correlation model, and the location of the target site is estimated from the real-time sensor reading.

上述したように、リアルタイムセンサー信号は、高頻度で読み取られる(例えば50msごと)。センサー−標的位置相関に基づいて、センサー信号と同程度の頻度で決定されるべき標的部位の位置が読まれる。従って、本発明では、ほぼ連続的に標的部位を追跡するためにリアルタイムベースで内部標的部位を実際にイメージ(画像)化する必要はない。   As described above, the real-time sensor signal is read frequently (for example, every 50 ms). Based on the sensor-target position correlation, the position of the target site to be determined is read as often as the sensor signal. Therefore, in the present invention, it is not necessary to actually image the internal target site on a real-time basis in order to track the target site almost continuously.

付随的に、信号sがリアルタイムセンサーから読み取られる際、ライブX線画像は時間t0で撮られ得る(段階154)。好ましくは、X線時間間隔Δtはセンサー読取り時間間隔Δtsensorの倍数であり、その結果、ある数のセンサー読取り後にX線イメージング及びセンサー読取りが同時に起こる。追加のデータポイントであるこの新規なX線画像は、ポイント雲に加えることができ、また、相関モデルを改善もしくは更新するために使用され得る。この絶え間ない更新は、治療中の呼吸パターンにおけるどのような変化もが該治療の正確さを損なうことを防ぐ。 Additionally, when the signal s is read from the real time sensor, a live X-ray image can be taken at time t 0 (stage 154). Preferably, the X-ray time interval Δt is a multiple of the sensor reading time interval Δt sensor so that X-ray imaging and sensor reading occur simultaneously after a certain number of sensor readings. This new X-ray image, which is an additional data point, can be added to the point cloud and can be used to improve or update the correlation model. This constant update prevents any change in the breathing pattern during treatment from compromising the accuracy of the treatment.

留意すべきことは、本発明は、特定数のセンサー及び呼吸運動を追跡するセンサーに限定されない点である。使用されるべきセンサー数は、望まれる正確さの程度すなわち正確性に基づいて決定することができる。多数のセンサーは多レベルの相関性を導くことができ、追跡の信頼性及び精度を高める。一実施形態において、三つのセンサーが使用され得る。すなわち、時間間隔Δtsensorで読み取られる第1センサーと、時間間隔Δtで読み取られる第2センサーと、ΔtsensorとΔtとの間の別の時間間隔で読み取られる第3センサーである。追加のセンサーが、呼吸作用以外のこれも標的部位を移動させる何かによってもたらされる患者の動きを追うことができる。例えば、大動脈の脈動もしくは心臓の拍動サイクルは、心臓の運動による標的部位の動きを考慮するために追跡され得る。追加のセンサーによって追跡される運動が周期的な場合、これは、呼吸による運動が扱われた態様と類似の態様で対処され得る。所望により、センサーは、呼吸運動以外の運動のみを追跡するために使用され得る。 It should be noted that the present invention is not limited to a specific number of sensors and sensors that track respiratory motion. The number of sensors to be used can be determined based on the degree of accuracy desired, ie accuracy. Multiple sensors can lead to multiple levels of correlation, increasing tracking reliability and accuracy. In one embodiment, three sensors can be used. That is, a first sensor read at the time interval Δt sensor , a second sensor read at the time interval Δt, and a third sensor read at another time interval between Δt sensor and Δt. Additional sensors can follow the patient's movement caused by something other than the respiratory action that also moves the target site. For example, aortic pulsations or cardiac pulsation cycles may be tracked to account for target site movement due to cardiac motion. If the movement tracked by the additional sensor is periodic, this can be dealt with in a manner similar to the manner in which breathing movement is handled. If desired, the sensor can be used to track only movements other than respiratory movements.

本発明は、リアルタイムセンサーの位置に基づいて、治療中の標的部位のリアルタイム追跡を可能にする。その上、この発明は、X線画像のみに基づいて、治療中に標的部位が追跡されることを可能にする。X線画像は、リアルタイムセンサーの位置の決定時に取得される。更に、各DRRは、治療前に中間3次元画像と関連付けられる。そのため、治療中にプロセッサ12が実行する必要があるタスクのみが、撮ったばかりのX線と最も整合するDRRを見出している。タスクの簡潔性(単純さ)及び短い処理時間は、プロセッサ12が標的部位の位置を決定する時点と、ビーム発生装置20(図1参照)が、標的部位の新たな位置に従ってそのビーム方向を物理的に調整する時点との間の時間のずれ(タイムラグ)を最小にする。その間に、マーカーの追跡は、治療ビームが治療の全期間にわたって標的部位に正確に向けられることを保証するため、治療ビームがほぼ連続的に調整され得るように高頻度で行われる。マーカーの追跡は、非侵襲的でかつ費用が高くないため、本発明は、放射線治療の正確さを高める非侵襲的で廉価な代替案を可能にする。   The present invention allows real-time tracking of the target site being treated based on the location of the real-time sensor. Moreover, the present invention allows the target site to be tracked during treatment based solely on x-ray images. The X-ray image is acquired when the position of the real-time sensor is determined. In addition, each DRR is associated with an intermediate 3D image prior to treatment. Therefore, only the tasks that the processor 12 needs to perform during treatment find the DRR that is most consistent with the X-ray just taken. The simplicity (simpleness) of the task and the short processing time depend on when the processor 12 determines the position of the target site and when the beam generator 20 (see FIG. 1) Minimizes the time lag from the point of adjustment. In the meantime, marker tracking is performed at a high frequency so that the treatment beam can be adjusted almost continuously to ensure that the treatment beam is accurately directed to the target site for the entire duration of the treatment. Because marker tracking is non-invasive and inexpensive, the present invention allows for a non-invasive and inexpensive alternative that increases the accuracy of radiation therapy.

以上の説明は、本発明の特定の実施形態に関連するが、当業者は、本発明の原理及び精神の範囲を逸脱することなく、この実施形態が変更され得ることを理解するであろう。本発明の範囲は、特許請求の範囲によって定義される。   Although the foregoing description relates to a particular embodiment of the present invention, those skilled in the art will appreciate that the embodiment can be modified without departing from the scope of the principles and spirit of the present invention. The scope of the invention is defined by the claims.

本発明で使用され得る放射線外科治療システムの一例を示す。1 shows an example of a radiosurgery treatment system that can be used with the present invention. 図1の治療システムを表すブロック図である。It is a block diagram showing the treatment system of FIG. 複数の呼吸サイクルを含む呼吸パターンを示す。Fig. 3 shows a breathing pattern including multiple breathing cycles. 本発明に従う標的部位のリアルタイム追跡前に実行される事前処理手順のフローチャートである。4 is a flowchart of a pre-processing procedure executed before real-time tracking of a target site according to the present invention. 本発明に従う標的部位のリアルタイム追跡前に実行される別の事前処理手順のフローチャートである。4 is a flowchart of another pre-processing procedure performed prior to real-time tracking of a target site according to the present invention. 呼吸サイクルの時点Aにおける標的部位の位置を概略的に示す。1 schematically shows the location of a target site at time A of the respiratory cycle. 呼吸サイクルの時点Bにおける標的部位の位置を概略的に示す。3 schematically shows the position of the target site at time B of the respiratory cycle. 第1の3次元画像から第2の3次元画像への変形による中間3次元画像の形成を概略的に示す。3 schematically illustrates the formation of an intermediate 3D image by deformation from a first 3D image to a second 3D image. 埋め込みフィデューシャルを用いることなく治療中に標的位置を決定するための、フィデューシャルの無い標的追跡手順を表すフローチャートである。FIG. 6 is a flow chart depicting a fiducial-free target tracking procedure for determining a target location during treatment without using an implantable fiducial. リアルタイムセンサー読取りを標的位置に関連付けるための相関法を表すフローチャートである。FIG. 5 is a flow chart representing a correlation method for associating real-time sensor readings with target locations. 治療中の標的部位のリアルタイム追跡のためのリアルタイム追跡手順を表すフローチャートである。FIG. 6 is a flowchart representing a real-time tracking procedure for real-time tracking of a target site during treatment. FIG.

符号の説明Explanation of symbols

10 定位固定放射線治療装置
12 データ処理装置(マイクロプロセッサ等)
13 記憶装置
14 患者
20 ビーム発生装置
24 オペレータ制御コンソール
26 第1診断ビーム
28 第2診断ビーム
30 内部標的部位
32a 第1X線発生器
32b 第2X線発生器
34 画像受信機
38 上面
40 ロボットアーム機構
42 リアルタイムセンサー
200 関連空間
202a、202b 軟組織
204 標的部位
210a、210b CTスキャン
220、230 中間3次元画像
10 Stereotaxic radiotherapy equipment 12 Data processing equipment (microprocessor, etc.)
DESCRIPTION OF SYMBOLS 13 Memory | storage device 14 Patient 20 Beam generator 24 Operator control console 26 1st diagnostic beam 28 2nd diagnostic beam 30 Internal target site | part 32a 1st X-ray generator 32b 2nd X-ray generator 34 Image receiver 38 Upper surface 40 Robot arm mechanism 42 Real-time sensor 200 Related space 202a, 202b Soft tissue 204 Target site 210a, 210b CT scan 220, 230 Intermediate 3D image

Claims (4)

治療中に内部標的部位の位置を特定するための方法であって、
患者の関連空間の複数の第1画像を生成する工程であって、関連空間が前記内部標的部位を含み、かつ、該複数の第1画像各々が内部標的部位を示す当該工程と、
治療中の所定の時間において関連空間のライブ画像を生成する工程と、
ライブ画像と最も整合する前記複数の第1画像のうちの一つを特定することにより、前記所定の時間における内部標的部位の位置を決定する工程とを含む方法。
A method for locating an internal target site during treatment comprising:
Generating a plurality of first images of a patient's associated space, the associated space including the internal target site, and each of the plurality of first images indicating an internal target site;
Generating a live image of the relevant space at a predetermined time during treatment ;
Determining the position of the internal target site at the predetermined time by identifying one of the plurality of first images that most closely matches a live image.
患者の内部の内部標的部位の位置を追跡するための装置であって、
前記内部標的部位を含む関連空間のライブ画像を生成するように構成された画像装置と、
複数の3次元画像であって該各3次元画像が治療前に生成された関連空間及び内部標的部位の事前に生成した画像を示す当該3次元画像を格納する記憶装置と、
画像装置及び記憶装置に連結されるプロセッサとを備え、
プロセッサは、前記ライブ画像と最も近似する最適な3次元画像を選択するためのコンピュータ可読命令の第1セットと、該最適な3次元画像に基づいて前記ライブ画像が生成される時点における内部標的部位の位置を決定するためのコンピュータ可読命令の第2セットとを含む装置。
A device for tracking the position of an internal target site within a patient,
The live image of the relevant space including the internal target site and configured imaging device to generate,
A storage device for storing the 3-dimensional image showing a plurality of three-dimensional image in which the image is a by respective three-dimensional image is generated in advance of the associated spatial及beauty internal target sites that were generated prior to treatment,
A processor coupled to the image device and the storage device,
A processor includes a first set of computer readable instructions for selecting an optimal 3D image that most closely approximates the live image, and an internal target site at the time the live image is generated based on the optimal 3D image And a second set of computer readable instructions for determining the position of the computer.
患者の内部の標的部位の位置を追跡するための装置であって、
患者の内部の関連空間の複数の第1画像を生成するための手段であって、関連空間が標的部位を含み、かつ、該複数の第1画像各々が標的部位を示す当該手段と、
治療中の所定の時間において関連空間のライブ画像を生成するための手段と、
ライブ画像と最も整合する前記複数の第1画像のうちの一つを特定することにより、前記所定の時間における内部標的部位の位置を決定するための手段とを含む装置。
A device for tracking the location of a target site inside a patient,
Means for generating a plurality of first images of a relevant space inside a patient, wherein the relevant space includes a target site, and each of the plurality of first images indicates a target site;
Means for generating a live image of the relevant space at a predetermined time during treatment ;
Means for determining a position of an internal target site at the predetermined time by identifying one of the plurality of first images that most closely matches a live image.
治療中に、動きをこうむっている患者の内部標的部位の位置を特定するための方法であって、A method for locating an internal target site of a patient undergoing movement during treatment comprising:
患者の関連空間の複数の第1画像を治療前に生成する工程であって、関連空間が前記内部標的部位を含み、かつ、該複数の第1画像各々が該内部標的部位を示す当該工程と、Generating a plurality of first images of a patient's associated space prior to treatment, wherein the associated space includes the internal target site and each of the plurality of first images indicates the internal target site; ,
治療中の所定の時間において関連空間の第2画像を生成する工程と、Generating a second image of the relevant space at a predetermined time during treatment;
第2画像と最も整合する前記複数の第1画像のうちの一つを特定することにより、前記所定の時間における内部標的部位の位置を決定する工程とを含む方法。Determining the position of the internal target site at the predetermined time by identifying one of the plurality of first images that most closely matches the second image.
JP2004551996A 2002-11-12 2003-11-12 Apparatus and method for tracking an internal target site without using an embedded fiducial Pending JP2006515187A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/293,216 US7260426B2 (en) 2002-11-12 2002-11-12 Method and apparatus for tracking an internal target region without an implanted fiducial
PCT/US2003/035801 WO2004044612A2 (en) 2002-11-12 2003-11-12 A method and apparatus for tracking an internal target region without an implanted fiducial

Publications (2)

Publication Number Publication Date
JP2006515187A JP2006515187A (en) 2006-05-25
JP2006515187A5 true JP2006515187A5 (en) 2007-01-11

Family

ID=32229626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004551996A Pending JP2006515187A (en) 2002-11-12 2003-11-12 Apparatus and method for tracking an internal target site without using an embedded fiducial

Country Status (5)

Country Link
US (1) US7260426B2 (en)
EP (1) EP1565106A4 (en)
JP (1) JP2006515187A (en)
AU (1) AU2003290696A1 (en)
WO (1) WO2004044612A2 (en)

Families Citing this family (167)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6937696B1 (en) 1998-10-23 2005-08-30 Varian Medical Systems Technologies, Inc. Method and system for predictive physiological gating
US7158610B2 (en) * 2003-09-05 2007-01-02 Varian Medical Systems Technologies, Inc. Systems and methods for processing x-ray images
US20020193685A1 (en) 2001-06-08 2002-12-19 Calypso Medical, Inc. Guided Radiation Therapy System
US7620444B2 (en) 2002-10-05 2009-11-17 General Electric Company Systems and methods for improving usability of images for medical applications
US7660623B2 (en) * 2003-01-30 2010-02-09 Medtronic Navigation, Inc. Six degree of freedom alignment display for medical procedures
US20040199072A1 (en) * 2003-04-01 2004-10-07 Stacy Sprouse Integrated electromagnetic navigation and patient positioning device
US8150495B2 (en) 2003-08-11 2012-04-03 Veran Medical Technologies, Inc. Bodily sealants and methods and apparatus for image-guided delivery of same
US7398116B2 (en) 2003-08-11 2008-07-08 Veran Medical Technologies, Inc. Methods, apparatuses, and systems useful in conducting image guided interventions
US7756567B2 (en) * 2003-08-29 2010-07-13 Accuray Incorporated Image guided radiosurgery method and apparatus using registration of 2D radiographic images with digitally reconstructed radiographs of 3D scan data
US20050053267A1 (en) * 2003-09-05 2005-03-10 Varian Medical Systems Technologies, Inc. Systems and methods for tracking moving targets and monitoring object positions
US8571639B2 (en) * 2003-09-05 2013-10-29 Varian Medical Systems, Inc. Systems and methods for gating medical procedures
JP5122816B2 (en) * 2003-09-30 2013-01-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Target tracking method and apparatus for radiation therapy planning and implementation
EP1537830B1 (en) * 2003-12-05 2006-09-06 Möller-Wedel GmbH Method and device for viewing an object with a microscope
US7853308B2 (en) * 2004-02-17 2010-12-14 Siemens Medical Solutions Usa, Inc. System and method for patient positioning for radiotherapy in the presence of respiratory motion
CA2749057A1 (en) 2004-02-20 2005-09-09 University Of Florida Research Foundation, Inc. System for delivering conformal radiation therapy while simultaneously imaging soft tissue
DE102004011156A1 (en) * 2004-03-08 2005-10-06 Siemens Ag Method for endoluminal imaging with movement correction
DE102004025685A1 (en) * 2004-05-26 2005-12-22 Siemens Ag Computer tomography imaging procedure measures series of layer images and reconstructs image in two stages of different quality
JP2006006604A (en) * 2004-06-25 2006-01-12 Ge Medical Systems Global Technology Co Llc Surgery supporting system
US7231076B2 (en) * 2004-06-30 2007-06-12 Accuray, Inc. ROI selection in image registration
US7426318B2 (en) * 2004-06-30 2008-09-16 Accuray, Inc. Motion field generation for non-rigid image registration
US7366278B2 (en) * 2004-06-30 2008-04-29 Accuray, Inc. DRR generation using a non-linear attenuation model
US7522779B2 (en) * 2004-06-30 2009-04-21 Accuray, Inc. Image enhancement method and system for fiducial-less tracking of treatment targets
US7327865B2 (en) * 2004-06-30 2008-02-05 Accuray, Inc. Fiducial-less tracking with non-rigid image registration
EP1778357A2 (en) * 2004-07-23 2007-05-02 Calypso Medical Technologies, Inc. Integrated radiation therapy systems and methods for treating a target in a patient
US7945303B2 (en) * 2004-08-03 2011-05-17 The University Of Vermont And State Agricultural College Noninvasive pulmonary performance measurement method and system
JP5107709B2 (en) * 2004-08-13 2012-12-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Adapting radiotherapy treatment plans
US8989349B2 (en) * 2004-09-30 2015-03-24 Accuray, Inc. Dynamic tracking of moving targets
US8027715B2 (en) * 2004-10-02 2011-09-27 Accuray Incorporated Non-linear correlation models for internal target movement
FR2876896B1 (en) * 2004-10-21 2007-10-26 Gen Electric METHOD FOR USING A TOMOGRAPHY DEVICE FOR OBTAINING RADIOSCOPIC IMAGES AND DEVICE FOR CARRYING OUT SAID METHOD
US7833221B2 (en) * 2004-10-22 2010-11-16 Ethicon Endo-Surgery, Inc. System and method for treatment of tissue using the tissue as a fiducial
US7452357B2 (en) * 2004-10-22 2008-11-18 Ethicon Endo-Surgery, Inc. System and method for planning treatment of tissue
US20060089626A1 (en) * 2004-10-22 2006-04-27 Vlegele James W Surgical device guide for use with an imaging system
DE112005002154T5 (en) * 2005-02-04 2008-04-10 Mitsubishi Denki K.K. Particle beam irradiation method and particle beam irradiation apparatus for such a method
WO2006137294A1 (en) * 2005-06-21 2006-12-28 National University Corporation Kanazawa University X-ray diagnosis supporting apparatus, program, and recording medium
US7330578B2 (en) * 2005-06-23 2008-02-12 Accuray Inc. DRR generation and enhancement using a dedicated graphics device
US20070053491A1 (en) * 2005-09-07 2007-03-08 Eastman Kodak Company Adaptive radiation therapy method with target detection
EP3492008B1 (en) 2005-09-13 2021-06-02 Veran Medical Technologies, Inc. Apparatus and method for image guided accuracy verification
US20070066881A1 (en) 2005-09-13 2007-03-22 Edwards Jerome R Apparatus and method for image guided accuracy verification
US9498647B2 (en) * 2005-09-23 2016-11-22 Allen B. Kantrowitz Fiducial marker system for subject movement compensation during medical treatment
WO2007044692A1 (en) * 2005-10-11 2007-04-19 University Of Florida Research Foundation, Inc. Preplanning of guided medical procedures
US7518619B2 (en) * 2005-11-07 2009-04-14 General Electric Company Method and apparatus for integrating three-dimensional and two-dimensional monitors with medical diagnostic imaging workstations
US7684647B2 (en) * 2005-11-16 2010-03-23 Accuray Incorporated Rigid body tracking for radiosurgery
US7835500B2 (en) * 2005-11-16 2010-11-16 Accuray Incorporated Multi-phase registration of 2-D X-ray images to 3-D volume studies
CN101313334B (en) * 2005-11-24 2011-05-25 皇家飞利浦电子股份有限公司 Motion compensated CT reconstruction of high contrast objects
US20070189455A1 (en) 2006-02-14 2007-08-16 Accuray Incorporated Adaptive x-ray control
WO2007100262A1 (en) * 2006-03-03 2007-09-07 Sinvent As Method for integration of additional data for increasing the available information during medical imaging
US20070247454A1 (en) * 2006-04-19 2007-10-25 Norbert Rahn 3D visualization with synchronous X-ray image display
US20070249928A1 (en) * 2006-04-19 2007-10-25 General Electric Company Method and system for precise repositioning of regions of interest in longitudinal magnetic resonance imaging and spectroscopy exams
EP2023812B1 (en) 2006-05-19 2016-01-27 The Queen's Medical Center Motion tracking system for real time adaptive imaging and spectroscopy
JP4907232B2 (en) * 2006-06-12 2012-03-28 株式会社日立メディコ X-ray equipment
US20080021300A1 (en) * 2006-06-29 2008-01-24 Allison John W Four-dimensional target modeling and radiation treatment
US7570738B2 (en) * 2006-08-04 2009-08-04 Siemens Medical Solutions Usa, Inc. Four-dimensional (4D) image verification in respiratory gated radiation therapy
DE102006038927B4 (en) * 2006-08-18 2010-03-25 Universität Zu Lübeck Method for determining the incision in liver tumor resection
US9451928B2 (en) 2006-09-13 2016-09-27 Elekta Ltd. Incorporating internal anatomy in clinical radiotherapy setups
US10279196B2 (en) * 2006-09-28 2019-05-07 Accuray Incorporated Radiation treatment planning using four-dimensional imaging data
US8400312B2 (en) * 2006-10-10 2013-03-19 Saga University Operation assisting system
US7620147B2 (en) 2006-12-13 2009-11-17 Oraya Therapeutics, Inc. Orthovoltage radiotherapy
US7496174B2 (en) 2006-10-16 2009-02-24 Oraya Therapeutics, Inc. Portable orthovoltage radiotherapy
US7894649B2 (en) * 2006-11-02 2011-02-22 Accuray Incorporated Target tracking using direct target registration
US8831706B2 (en) * 2006-11-03 2014-09-09 Accuray Incorporated Fiducial-less tracking of a volume of interest
US8108025B2 (en) * 2007-04-24 2012-01-31 Medtronic, Inc. Flexible array for use in navigated surgery
US20090012509A1 (en) * 2007-04-24 2009-01-08 Medtronic, Inc. Navigated Soft Tissue Penetrating Laser System
US8311611B2 (en) * 2007-04-24 2012-11-13 Medtronic, Inc. Method for performing multiple registrations in a navigated procedure
US8734466B2 (en) * 2007-04-25 2014-05-27 Medtronic, Inc. Method and apparatus for controlled insertion and withdrawal of electrodes
US9289270B2 (en) * 2007-04-24 2016-03-22 Medtronic, Inc. Method and apparatus for performing a navigated procedure
US8301226B2 (en) * 2007-04-24 2012-10-30 Medtronic, Inc. Method and apparatus for performing a navigated procedure
US8849373B2 (en) * 2007-05-11 2014-09-30 Stanford University Method and apparatus for real-time 3D target position estimation by combining single x-ray imaging and external respiratory signals
US8363783B2 (en) 2007-06-04 2013-01-29 Oraya Therapeutics, Inc. Method and device for ocular alignment and coupling of ocular structures
US8512236B2 (en) 2008-01-11 2013-08-20 Oraya Therapeutics, Inc. System and method for positioning and stabilizing an eye
WO2009012576A1 (en) 2007-07-20 2009-01-29 Resonant Medical Inc. Methods and systems for guiding the acquisition of ultrasound images
CA2693351C (en) 2007-07-20 2017-06-13 Resonant Medical Inc. Methods and systems for compensating for changes in anatomy of radiotherapy patients
US8135198B2 (en) 2007-08-08 2012-03-13 Resonant Medical, Inc. Systems and methods for constructing images
CA2751629C (en) * 2007-10-19 2016-08-23 Metritrack, Llc Three dimensional mapping display system for diagnostic ultrasound machines and method
US9248312B2 (en) 2007-10-26 2016-02-02 Accuray Incorporated Automatic correlation modeling of an internal target
EP2070478B1 (en) * 2007-12-13 2011-11-23 BrainLAB AG Detection of the position of a moving object and treatment method
EP2231277B1 (en) 2007-12-23 2017-08-30 Carl Zeiss Meditec, Inc. Devices for detecting, controlling, and predicting radiation delivery
US7801271B2 (en) 2007-12-23 2010-09-21 Oraya Therapeutics, Inc. Methods and devices for orthovoltage ocular radiotherapy and treatment planning
US7720196B2 (en) * 2008-01-07 2010-05-18 Accuray Incorporated Target tracking using surface scanner and four-dimensional diagnostic imaging data
US8064642B2 (en) * 2008-01-10 2011-11-22 Accuray Incorporated Constrained-curve correlation model
US8825136B2 (en) * 2008-03-14 2014-09-02 Baylor Research Institute System and method for pre-planning a radiation treatment
US8189738B2 (en) 2008-06-02 2012-05-29 Elekta Ltd. Methods and systems for guiding clinical radiotherapy setups
US9237860B2 (en) 2008-06-05 2016-01-19 Varian Medical Systems, Inc. Motion compensation for medical imaging and associated systems and methods
US10667727B2 (en) 2008-09-05 2020-06-02 Varian Medical Systems, Inc. Systems and methods for determining a state of a patient
US8130907B2 (en) * 2008-09-12 2012-03-06 Accuray Incorporated Controlling X-ray imaging based on target motion
US8396248B2 (en) * 2008-09-16 2013-03-12 Varian Medical Systems, Inc. Sequential stereo imaging for estimating trajectory and monitoring target position
US8457372B2 (en) 2008-09-30 2013-06-04 Accuray Incorporated Subtraction of a segmented anatomical feature from an acquired image
EP2189943B1 (en) * 2008-11-19 2014-09-24 Brainlab AG Detection of vitally moved regions in an analysis image
JP2010154874A (en) * 2008-12-26 2010-07-15 Hitachi Ltd Radiotherapy system
JP5729907B2 (en) * 2009-02-23 2015-06-03 株式会社東芝 X-ray diagnostic equipment
ES2641598T3 (en) * 2009-03-24 2017-11-10 Masmec S.P.A. Computer-assisted system to guide a surgical instrument during percutaneous diagnostic or therapeutic operations
EP2411963B1 (en) * 2009-03-27 2019-05-08 Koninklijke Philips N.V. Improvements to medical imaging
US10542962B2 (en) 2009-07-10 2020-01-28 Elekta, LTD Adaptive radiotherapy treatment using ultrasound
US9179888B2 (en) 2009-08-28 2015-11-10 Dartmouth College System and method for providing patient registration without fiducials
JP5538862B2 (en) * 2009-12-18 2014-07-02 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, and program
US9248316B2 (en) 2010-01-12 2016-02-02 Elekta Ltd. Feature tracking using ultrasound
US20110172526A1 (en) * 2010-01-12 2011-07-14 Martin Lachaine Feature Tracking Using Ultrasound
US8331532B2 (en) 2010-02-18 2012-12-11 Varian Medical Systems International Ag Method and system for treating moving target
US9014424B2 (en) * 2010-03-02 2015-04-21 Brainlab Ag Tracking representations of indicator body parts
US8781186B2 (en) 2010-05-04 2014-07-15 Pathfinder Therapeutics, Inc. System and method for abdominal surface matching using pseudo-features
US20130303887A1 (en) 2010-08-20 2013-11-14 Veran Medical Technologies, Inc. Apparatus and method for four dimensional soft tissue navigation
WO2012068042A2 (en) 2010-11-15 2012-05-24 Dartmouth College System and method for registering ultrasound and magnetic resonance images
US8768019B2 (en) * 2011-02-03 2014-07-01 Medtronic, Inc. Display of an acquired cine loop for procedure navigation
US20120226152A1 (en) * 2011-03-03 2012-09-06 Porikli Fatih M Tumor Tracking System and Method for Radiotherapy
US9014454B2 (en) * 2011-05-20 2015-04-21 Varian Medical Systems, Inc. Method and apparatus pertaining to images used for radiation-treatment planning
US9433389B2 (en) * 2011-07-12 2016-09-06 University Of Maryland, Baltimore Method for monitoring the accuracy of tissue motion prediction from surrogates
EP2747641A4 (en) 2011-08-26 2015-04-01 Kineticor Inc Methods, systems, and devices for intra-scan motion correction
US11109835B2 (en) 2011-12-18 2021-09-07 Metritrack Llc Three dimensional mapping display system for diagnostic ultrasound machines
WO2013107472A1 (en) * 2012-01-20 2013-07-25 Elekta Ab (Publ) Radiotherapeutic apparatus
US10249036B2 (en) 2012-02-22 2019-04-02 Veran Medical Technologies, Inc. Surgical catheter having side exiting medical instrument and related systems and methods for four dimensional soft tissue navigation
US10561861B2 (en) 2012-05-02 2020-02-18 Viewray Technologies, Inc. Videographic display of real-time medical treatment
CN102697560A (en) * 2012-05-17 2012-10-03 深圳市一体医疗科技股份有限公司 Non-invasive tumor locating system and method
CN102670234B (en) * 2012-05-17 2013-11-20 西安一体医疗科技有限公司 Gamma radiation beam position verifying device and method
CN102670237B (en) * 2012-05-17 2014-12-10 西安一体医疗科技有限公司 Gamma radiation positioning system
US20150243025A1 (en) 2012-09-28 2015-08-27 Brainlab Ag Isocentric patient rotation for detection of the position of a moving object
AU2013334064A1 (en) 2012-10-26 2015-05-14 Viewray Technologies, Inc. Assessment and improvement of treatment using imaging of physiological responses to radiation therapy
US20140123388A1 (en) * 2012-11-05 2014-05-08 Reto W. Filiberti Automated initial setup positioning for speeding patient throughput
CN103099630B (en) * 2012-11-18 2015-03-11 吴大可 Locating method of target organ in tumor radiotherapy
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
US9446263B2 (en) 2013-03-15 2016-09-20 Viewray Technologies, Inc. Systems and methods for linear accelerator radiotherapy with magnetic resonance imaging
JP5785214B2 (en) * 2013-05-08 2015-09-24 富士フイルム株式会社 Mold, surgical support set, surgical support device, surgical support method, and surgical support program
US20150015582A1 (en) * 2013-07-15 2015-01-15 Markus Kaiser Method and system for 2d-3d image registration
WO2015021779A1 (en) * 2013-08-12 2015-02-19 深圳迈瑞生物医疗电子股份有限公司 Ultrasound scanning apparatus, breathing machine, medical system and related method
US20170065832A1 (en) 2014-02-26 2017-03-09 Brainlab Ag Tracking Soft Tissue in Medical Images
US10004462B2 (en) 2014-03-24 2018-06-26 Kineticor, Inc. Systems, methods, and devices for removing prospective motion correction from medical imaging scans
US20150305650A1 (en) 2014-04-23 2015-10-29 Mark Hunter Apparatuses and methods for endobronchial navigation to and confirmation of the location of a target tissue and percutaneous interception of the target tissue
US20150305612A1 (en) 2014-04-23 2015-10-29 Mark Hunter Apparatuses and methods for registering a real-time image feed from an imaging device to a steerable catheter
JP6890420B2 (en) * 2014-05-23 2021-06-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Motion gating ultrasonic temperature measurement with adaptive frame selection
WO2016014718A1 (en) 2014-07-23 2016-01-28 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9616251B2 (en) 2014-07-25 2017-04-11 Varian Medical Systems, Inc. Imaging based calibration systems, devices, and methods
US20170245830A1 (en) * 2014-09-19 2017-08-31 Think Surgical, Inc. System and process for ultrasonic determination of long bone orientation
US10413752B2 (en) * 2015-02-09 2019-09-17 Brainlab Ag X-ray patient position monitoring
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US10716515B2 (en) 2015-11-23 2020-07-21 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
WO2017091621A1 (en) 2015-11-24 2017-06-01 Viewray Technologies, Inc. Radiation beam collimating systems and methods
US9990711B2 (en) * 2016-01-25 2018-06-05 Accuray Incorporated Manipulation of a respiratory model via adjustment of parameters associated with model images
US10776959B2 (en) 2016-02-16 2020-09-15 Brainlab Ag Determination of dynamic DRRs
JP6533991B2 (en) * 2016-02-16 2019-06-26 東芝エネルギーシステムズ株式会社 MEDICAL IMAGE PROCESSING APPARATUS, METHOD, PROGRAM, AND RADIATION THERAPY APPARATUS
WO2017151662A1 (en) 2016-03-02 2017-09-08 Viewray Technologies, Inc. Particle therapy with magnetic resonance imaging
JP6668902B2 (en) * 2016-04-12 2020-03-18 株式会社島津製作所 Positioning device and method of operating positioning device
WO2017180643A1 (en) * 2016-04-12 2017-10-19 Canon U.S.A., Inc. Organ motion compensation
JP7098539B2 (en) 2016-06-22 2022-07-11 ビューレイ・テクノロジーズ・インコーポレイテッド Magnetic resonance imaging
JP6811960B2 (en) * 2016-11-15 2021-01-13 株式会社島津製作所 X-ray fluoroscopy method and X-ray fluoroscopy device
US10102640B2 (en) 2016-11-29 2018-10-16 Optinav Sp. Z O.O. Registering three-dimensional image data of an imaged object with a set of two-dimensional projection images of the object
CN118141398A (en) 2016-12-13 2024-06-07 优瑞技术公司 Radiation therapy system and method
US10434335B2 (en) * 2017-03-30 2019-10-08 Shimadzu Corporation Positioning apparatus and method of positioning by generation of DRR image from X-ray CT image data
WO2019096943A1 (en) 2017-11-16 2019-05-23 Ebamed Sa Heart arrhythmia non-invasive treatment device and method
CN116036499A (en) 2017-12-06 2023-05-02 优瑞技术公司 Optimization of multi-modality radiation therapy
US11980507B2 (en) 2018-05-02 2024-05-14 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US11209509B2 (en) 2018-05-16 2021-12-28 Viewray Technologies, Inc. Resistive electromagnet systems and methods
US10835761B2 (en) 2018-10-25 2020-11-17 Elekta, Inc. Real-time patient motion monitoring using a magnetic resonance linear accelerator (MR-LINAC)
US11083913B2 (en) 2018-10-25 2021-08-10 Elekta, Inc. Machine learning approach to real-time patient motion monitoring
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
JP2021019967A (en) * 2019-07-30 2021-02-18 春仁 上園 Augmented reality information display method, surgical operation support device, and program
US11103729B2 (en) * 2019-08-13 2021-08-31 Elekta ltd Automatic gating with an MR linac
US10989671B2 (en) * 2019-09-16 2021-04-27 The Boeing Company Method and system for determining alignment and orientation of a target
CN110681074B (en) * 2019-10-29 2021-06-15 苏州大学 Tumor respiratory motion prediction method based on bidirectional GRU network
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
WO2021252751A1 (en) * 2020-06-10 2021-12-16 GE Precision Healthcare LLC Systems and methods for generating synthetic baseline x-ray images from computed tomography for longitudinal analysis
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
US11992705B2 (en) * 2021-09-29 2024-05-28 Siemens Healthineers International Ag On-line adaptive deep inspiration breath-hold treatment
CN114177545B (en) * 2022-01-17 2023-11-07 中国科学院合肥物质科学研究院 Contactless respiratory rhythm monitoring device and method for radiotherapy
WO2024089564A1 (en) * 2022-10-28 2024-05-02 Covidien Lp Sensor-guided robotic surgery

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0377764B1 (en) * 1989-01-12 1994-09-28 Siemens Aktiengesellschaft Medical device for diagnostic and/or therapeutic use
US5207223A (en) * 1990-10-19 1993-05-04 Accuray, Inc. Apparatus for and method of performing stereotaxic surgery
JP3052681B2 (en) * 1993-08-06 2000-06-19 松下電器産業株式会社 3D video generation device
US5850229A (en) * 1995-12-15 1998-12-15 Raindrop Geomagic, Inc. Apparatus and method for geometric morphing
US6370419B2 (en) * 1998-02-20 2002-04-09 University Of Florida Method and apparatus for triggering an event at a desired point in the breathing cycle
AU3305599A (en) * 1998-02-27 1999-09-15 Uab Research Foundation System for synchronizing activation of an imaging device with patient respiration
DE69916871T2 (en) 1998-10-23 2005-03-31 Varian Medical Systems Technologies, Inc., Palo Alto METHOD AND SYSTEM FOR THE PHYSIOLOGICAL CONTROL OF RADIOTHERAPY
US6501981B1 (en) 1999-03-16 2002-12-31 Accuray, Inc. Apparatus and method for compensating for respiratory and patient motions during treatment
US6144875A (en) * 1999-03-16 2000-11-07 Accuray Incorporated Apparatus and method for compensating for respiratory and patient motion during treatment

Similar Documents

Publication Publication Date Title
US7260426B2 (en) Method and apparatus for tracking an internal target region without an implanted fiducial
JP2006515187A5 (en)
US7318805B2 (en) Apparatus and method for compensating for respiratory and patient motion during treatment
EP1176919B1 (en) Apparatus and method for compensating for respiratory and patient motion during treatment
US9232928B2 (en) Method and system for predictive physiological gating
US8971490B2 (en) Controlling x-ray imaging based on target motion
US7720196B2 (en) Target tracking using surface scanner and four-dimensional diagnostic imaging data
US10646188B2 (en) Method and system for radiation application
JP5934230B2 (en) Method and apparatus for treating a partial range of movement of a target
US20050027194A1 (en) Frameless radiosurgery treatment system and method
US20020115923A1 (en) Method for determining a current lung filling extent and method for assisting radiation therapy during respiratory shifting of the radiation target
JP2009500110A (en) Dynamic tracking of soft tissue targets with ultrasound images without the use of fiducial markers
JP2017144000A (en) Medical image processing apparatus, method, and program, and radiotherapeutic apparatus
JP7362130B2 (en) radiation therapy equipment
AU2016208372A1 (en) Videographic display of real-time medical treatment