JP2005305048A - Apparatus and method for positioning patient - Google Patents
Apparatus and method for positioning patient Download PDFInfo
- Publication number
- JP2005305048A JP2005305048A JP2004130138A JP2004130138A JP2005305048A JP 2005305048 A JP2005305048 A JP 2005305048A JP 2004130138 A JP2004130138 A JP 2004130138A JP 2004130138 A JP2004130138 A JP 2004130138A JP 2005305048 A JP2005305048 A JP 2005305048A
- Authority
- JP
- Japan
- Prior art keywords
- image
- patient
- edge
- parameter
- positioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、粒子線治療において治療時の患者の位置決めを行う患者位置決め装置および患者位置決め方法に関するものである。 The present invention relates to a patient positioning apparatus and a patient positioning method for positioning a patient during treatment in particle beam therapy.
粒子線治療では粒子線の線量集中性のため、高精度な患者位置決めが要求される。従来の患者位置決め装置では、正側2方向からのX線透視画像を用いて、予め撮影した参照画像と、治療時に撮影する照合画像を重ねあわせ、その一致度を目視により比較し、手動により、照合画像が参照画像に一致する位置まで照合画像を移動させ、この移動量に基いて患者を移動させていた。このため、技師の負担が大きく、位置決め時間も長くなるという欠点があった。そこで、参照画像と照合画像との一致度の判定、および両画像を一致させるために必要な患者の移動量の計算を自動化する方法が提案されている(例えば、特許文献1および非特許文献1参照。)。
特許文献1に示された方法では、2つのカメラにより、患者の体表形状を撮像し、それぞれのカメラ軸線での基準画像と最新の患者の画像とから、サブトラクション画像を得ることにより、位置ずれの程度をサブトラクション画像での視覚的な差異として明確化し、さらにこの差異を最小化することによって位置決め量を求めている。
また、非特許文献1に示された方法では、X線透視画像により参照画像と照合画像を得、上記移動量をパラメータとし、参照画像と照合画像の画素毎の差分の累積量を指標とした評価関数を定義し、この評価関数を最小化することにより、位置合わせの最適化パラメータを自動計算で求めている。
In the particle beam therapy, highly accurate patient positioning is required because of the dose concentration of the particle beam. In a conventional patient positioning device, using a fluoroscopic image from two directions on the positive side, a reference image captured in advance and a verification image captured at the time of treatment are overlapped, the degree of coincidence is visually compared, and manually, The collation image is moved to a position where the collation image matches the reference image, and the patient is moved based on the amount of movement. For this reason, there is a drawback that the burden on the engineer is large and the positioning time becomes long. Therefore, methods for automating the determination of the degree of coincidence between the reference image and the collation image and the calculation of the amount of movement of the patient necessary for matching both images have been proposed (for example,
In the method disclosed in
Further, in the method disclosed in
上記のような従来の患者位置決め方法においては、自動化に当たって、X線透視画像や患者体表のカメラ画像を用い、参照画像と照合画像との画素値の差分量を位置決めパラメータの指標としているが、画像のコントラストやS/N比に依存して十分な位置決め精度が得られないといった問題があった。即ち、画質不良の画像を用いた場合、雑音成分のために、差分量が正確な位置決め指標とならないといった問題があった。また、最適化計算において繰返し計算回数が多く(計算時間が長い)、さらに最適化計算が発散するケースが多く、最適解でなく局所解に収束してしまう問題があった。また、患者位置決めに要する時間が長くなれば患者の負担になり、患者が位置決め中に動く確率が高くなり、その場合、位置決めに更に時間がかかるという問題が生じる。
さらに、長期間の粒子線治療においては治療期間中に痩身、肥満等により患者の体表形状の変化が起こることがあり、患者の体表形状を用いて位置決めを行う場合、基準となる参照画像と最新の照合画像とがそもそも一致しないという問題が生じる。したがって、体表形状を位置決め指標として用いることは不適当であった。
また、FA等の分野での画像処理による部品位置決めの場合は繰り返し撮影することが可能であり、位置決めのための最良の画質を得ることができるが、患者の位置決めにおいてX線透視等による体内画像を用いる場合は、X線被曝量が増加するため、画像の取り直し、あるいは画質向上のために長時間撮影することは極力制限され、位置決めの際に最良の画質の画像が常に得られるとは限らないという問題点があった。
In the conventional patient positioning method as described above, in the automation, the X-ray fluoroscopic image or the camera image of the patient body surface is used, and the difference amount of the pixel value between the reference image and the collation image is used as an index of the positioning parameter. There is a problem that sufficient positioning accuracy cannot be obtained depending on the contrast of the image and the S / N ratio. That is, when an image with poor image quality is used, there is a problem that the difference amount is not an accurate positioning index due to a noise component. In addition, the number of repeated calculations is large in the optimization calculation (the calculation time is long), and there are many cases where the optimization calculation diverges, and there is a problem that it converges to a local solution instead of the optimal solution. Moreover, if the time required for patient positioning becomes long, it becomes a burden on the patient, and the probability that the patient moves during positioning increases. In this case, there is a problem that it takes more time for positioning.
Furthermore, in long-term particle beam therapy, the patient's body surface shape may change during the treatment period due to slimming, obesity, etc. When positioning using the patient's body surface shape, a reference image that serves as a reference In the first place, there is a problem that the latest collation image does not match. Therefore, it is inappropriate to use the body surface shape as a positioning index.
In addition, in the case of component positioning by image processing in the field of FA or the like, it is possible to repeatedly shoot and obtain the best image quality for positioning, but in-vivo images by fluoroscopy or the like in patient positioning When X is used, the amount of X-ray exposure increases, so retaking an image or taking a long time to improve image quality is limited as much as possible, and an image with the best image quality is not always obtained at the time of positioning. There was no problem.
本発明は、かかる問題点を解決するためになされたもので、高精度の患者位置決めが可能となる患者位置決め装置を提供することを目的とする。
また、高精度の患者位置決めが可能となる患者位置決め方法を提供することを目的とする。
The present invention has been made to solve such a problem, and an object of the present invention is to provide a patient positioning device capable of highly accurate patient positioning.
It is another object of the present invention to provide a patient positioning method that enables highly accurate patient positioning.
この発明に係る患者位置決め装置は、患者の体内の画像を入力する画像入力部、患者の基準となる体内の画像を参照画像とし、上記参照画像の所定領域の骨エッジ画像を得ると共に、上記患者の治療時の体内の画像を照合画像とし、上記照合画像の骨エッジ画像を得る画像処理部、及び上記参照画像の所定領域の骨エッジ画像と上記照合画像の骨エッジ画像との相対的な移動量を位置決めパラメータとし、この位置決めパラメータを変化させながら、両画像間で正規化相関計算を行い、各位置決めパラメータに対する両画像の相関値を計算すると共に、計算された上記相関値より上記両画像の一致度を評価し、上記照合画像における患者位置決めパラメータの最適値を決定する最適値計算部を備えたものである。 The patient positioning device according to the present invention is an image input unit that inputs an image inside a patient's body, uses an image inside the body that is a reference of the patient as a reference image, obtains a bone edge image of a predetermined region of the reference image, and the patient An image processing unit for obtaining a bone edge image of the collation image using the in-vivo image at the time of treatment of the collation, and a relative movement between the bone edge image of the predetermined region of the reference image and the bone edge image of the collation image The amount is used as a positioning parameter, and while the positioning parameter is changed, a normalized correlation calculation is performed between both images, and a correlation value of both images with respect to each positioning parameter is calculated. An optimum value calculation unit that evaluates the degree of coincidence and determines the optimum value of the patient positioning parameter in the collation image is provided.
また、この発明に係る患者位置決め方法は、患者の基準となる体内の画像を参照画像として入力し、上記参照画像の所定領域の骨エッジ画像を得る第1ステップ、上記患者の治療時の体内の画像を照合画像として入力し、上記照合画像の骨エッジ画像を得る第2ステップ、上記参照画像の所定領域の骨エッジ画像と上記照合画像の骨エッジ画像との相対的な移動量を位置決めパラメータとし、この位置決めパラメータを変化させながら、両画像間で正規化相関計算を行い、各位置決めパラメータに対する両画像の相関値を計算する第3ステップ、及び計算された上記相関値より上記両画像の一致度を評価し、上記照合画像における患者位置決めパラメータの最適値を決定する第4ステップを備えたものである。 In the patient positioning method according to the present invention, a first step of inputting an in-vivo image serving as a reference of a patient as a reference image and obtaining a bone edge image of a predetermined region of the reference image; A second step of inputting an image as a collation image and obtaining a bone edge image of the collation image, and using a relative movement amount between a bone edge image of a predetermined region of the reference image and a bone edge image of the collation image as a positioning parameter The third step of performing normalized correlation calculation between the two images while changing the positioning parameter and calculating the correlation value of the two images with respect to the positioning parameter, and the degree of coincidence of the two images based on the calculated correlation value And a fourth step of determining an optimum value of the patient positioning parameter in the collation image.
この発明に係る患者位置決め装置および患者位置決め方法では、患者の体内の画像より骨部のエッジ画像を抽出し、患者位置決めに有用な骨輪郭情報を用いて位置決めを行っているので、入力画像間のコントラスト差異の影響等を低減させる効果を奏する。また、骨エッジ抽出処理では、エッジ幅を細くすると共に、エッジの連続性を考慮した拘束条件を用いることで、骨輪郭情報が強調され、患者位置決めに不要な領域の情報が抑制されるため、高精度な位置決めが可能となる。また、並進量、回転量等の位置決めパラメータを求めるための評価指標として、参照画像の所定領域のエッジ画像と照合画像のエッジ画像との間の正規化相関値を計算しているので、エッジの絶対強度の差異に影響されること無く、安定して相関値を求めることが可能となる。これにより、高精度の位置決めを迅速に実行することが可能となる。 In the patient positioning device and the patient positioning method according to the present invention, an edge image of a bone part is extracted from an image inside a patient's body, and positioning is performed using bone contour information useful for patient positioning. This has the effect of reducing the influence of contrast differences. In addition, in the bone edge extraction process, while narrowing the edge width and using a constraint condition that considers the continuity of the edge, the bone contour information is emphasized, and information on an area unnecessary for patient positioning is suppressed. High-precision positioning is possible. In addition, since the normalized correlation value between the edge image of the predetermined region of the reference image and the edge image of the collation image is calculated as an evaluation index for obtaining the positioning parameters such as the translation amount and the rotation amount, the edge The correlation value can be obtained stably without being affected by the difference in absolute intensity. Thereby, it becomes possible to perform highly accurate positioning rapidly.
実施の形態1.
図1は本発明の実施の形態1による患者位置決め装置を示すブロック構成図である。本実施の形態の患者位置決め装置は、X線透視カメラ等により撮像された患者の体内の画像を入力する画像入力部1と、患者の基準となる体内の画像を参照画像とし、参照画像の所定領域の骨エッジ画像を得ると共に、患者の治療時の体内の画像を照合画像とし、照合画像の骨エッジ画像を得る画像処理部2と、上記参照画像の所定領域の骨エッジ画像と上記照合画像の骨エッジ画像との相対的な移動量を位置決めパラメータとし、この位置決めパラメータを変化させながら、両画像間で正規化相関計算を行い、各位置決めパラメータに対する両画像の相関値を計算すると共に、計算された上記相関値より上記両画像の一致度を評価し、上記照合画像における患者位置決めパラメータの最適値を決定する最適値計算部3と、画像表示部4とを備えるものである。
上記画像処理部2は、患者の体内の画像を平滑化処理する平滑化処理部21と、平滑化処理された画像より骨エッジ画像を抽出するエッジ抽出処理部22と、参照画像における所定領域を関心領域として設定するROI(Region of Interest)領域設定部23と、得られた骨エッジ画像を保存する画像記憶部24とを備える。
FIG. 1 is a block diagram showing a patient positioning device according to
The
次に、本実施の形態による患者位置決め装置の動作を説明する。図2は本発明の実施の形態1による患者位置決め装置における処理手順とその処理結果例である。
ステップS1(参照画像入力処理)では、X線透視カメラにより撮像された患者の基準となる体内の画像を参照画像100として画像入力部1に入力する。
ステップS2(平滑化処理及びエッジ抽出処理)では、平滑化処理部21において入力した参照画像100を平滑化し、エッジ抽出処理部22において平滑化した画像よりエッジ画像を抽出し、さらにエッジ画像におけるエッジ幅を細線化すると共に、上記エッジ画像より連続した曲線を抽出することにより参照画像100の骨エッジ画像101を得る。
ステップS3(ROI領域設定処理)では、ROI領域設定部23において、参照画像100における所定領域を参照マスク領域として設定し、ステップS2で得られた骨エッジ画像101より、上記参照マスク領域における骨エッジ画像102を抽出し、抽出した骨エッジ画像101を画像記憶部24に保存する。
ステップS4(照合画像入力処理)では、X線透視カメラにより撮像された治療時の患者の体内の画像を照合画像200として画像入力部1に入力する。
ステップS5(平滑化処理及びエッジ抽出処理)では、平滑化処理部21において入力した照合画像200を平滑化し、エッジ抽出処理部22において平滑化した画像よりエッジ画像を抽出し、さらにエッジ画像におけるエッジ幅を細線化すると共に、上記エッジ画像より連続した曲線を抽出することにより照合画像200の骨エッジ画像201を得、得られた骨エッジ画像201を画像記憶部24に保存する。
Next, the operation of the patient positioning device according to the present embodiment will be described. FIG. 2 shows a processing procedure and an example of the processing result in the patient positioning apparatus according to
In step S <b> 1 (reference image input process), an in-vivo image serving as a reference for a patient captured by an X-ray fluoroscopic camera is input to the
In step S2 (smoothing processing and edge extraction processing), the
In step S3 (ROI region setting process), the ROI
In step S <b> 4 (collation image input process), an image inside the patient's body at the time of treatment captured by the X-ray fluoroscopic camera is input to the
In step S5 (smoothing processing and edge extraction processing), the
なお、ステップS2において、参照画像100のS/N比が良好であれば、すなわち、S/N比が予め設定した値より大きい値であれば、上記平滑化処理は省略してもよい。同様に、ステップS5において、照合画像200のS/N比が良好であれば平滑化処理は省略してもよい。
また、ステップS3では、ステップS2で得られた骨エッジ画像101より、参照マスク領域における骨エッジ画像102を抽出したが、ステップS2を施す前に、ROI領域設定部23において、ROI領域設定処理を施し、参照画像100における所定領域を参照マスク領域として設定し、参照画像100より上記参照マスク領域を抽出し、抽出された参照マスク領域の参照画像に対して、上記ステップS2において施したと同様の、平滑化処理およびエッジ抽出処置を施して骨エッジ画像102を抽出するようにしてもよい。
In step S2, if the S / N ratio of the
In step S3, the
また、ステップS2及びステップS5において、骨エッジ画像を抽出する際に、前述のように、エッジ幅を細線化すると共に、上記エッジ画像より連続した曲線を抽出するが、具体的な手法としては、エッジ幅が細く、エッジの連続性を考慮した拘束条件を用いる。例えば、文献(J.Canny「A Computational Approach to Edge Detection」:IEEE Transaction on Pattern Analysis and Machine Intelligence、vol.8、no.6、pp.679−698、1986)に示されたCanny法を用いる。 In step S2 and step S5, when extracting the bone edge image, as described above, the edge width is thinned and a continuous curve is extracted from the edge image. As a specific method, The edge width is narrow and the constraint condition considering the continuity of the edge is used. For example, the method described in the literature (J. Canny “A Computational Approach to Edge Detection”: IEEE Transaction on Pattern Analysis and Machine Intelligence, vol. 8, no. 6, pp. 679-6, pp. 679-6, pp. 679-6) is used.
図3(a)はCanny法による処理を施さない通常のエッジ画像300、図3(b)は本実施の形態1に係わる骨エッジ画像であり、Canny法による処理を施した骨エッジ画像301である。図3(a)に示す画像は頭蓋骨輪郭が抽出可能なレベルまで調整した骨エッジ画像であるが、骨エッジに幅があり、また、孤立点雑音が多数存在している。一方、図3(b)では細線化や連続性の拘束条件を入れた場合の骨エッジ画像301を示しているが、この画像では、S/Nの悪いX線画像に多く見られる孤立点のような雑音が抑制され、頭蓋骨の輪郭を十分に把握できる形で細線化されたエッジが抽出されている。
FIG. 3A is a
次に、ステップS6〜S9では、ステップS3で得られた骨エッジ画像102とステップS5で得られた骨エッジ画像201との相対的な移動量を位置決めパラメータとして、この位置決めパラメータを変化させながら、両画像間で正規化相関計算を行い、各位置決めパラメータに対する両画像の相関値を計算する。即ち、ステップS6にて、位置決めパラメータとなる並進量及び回転量の初期値を設定し、ステップS7にて、参照マスク領域における骨エッジ画像102と照合画像の骨エッジ画像201に対し、正規化相関計算処理を行う。ステップS8では計算された相関値の判定を行い、両画像の一致度を判定する。上記相関値が予め指定した判定基準以下であれば、ステップS9で位置決めパラメータを変更し、再度ステップS7にて正規化相関値を計算する。この処理を相関値が判定基準を超えるか、あるいは予め指定した繰返し計算回数等の収束条件を満たせば処理を終了し(ステップS10)、その時の位置決めパラメータを患者位置決めパラメータの最適値と決定する。決定された患者位置決めパラメータに基づいて治療台等を移動させることで、患者の位置決めを正確に行うことが可能となる。また、ステップS10において、画像表示部4に、参照画像の表示や照合画像の表示を行ったり、あるいは、図2に示すように、参照マスク領域の参照画像と照合画像との重畳画像400を表示することにより、視覚による確認を行うこともできる。
Next, in steps S6 to S9, while using the relative movement amount between the
なお、上記ステップS7において実行する正規化相関計算では、参照マスク領域の骨エッジ画像(f)102の各画素値(エッジ画素:1、非エッジ画素:0)を成分とした画像ベクトルFと、照合画像の骨エッジ画像(g)201の各画素値(エッジ画素:1、非エッジ画素:0)を成分とした画像ベクトルGとを生成し、数1のように定義される評価関数に並進量及び回転量を位置決めパラメータとして入力して正規化された2つの画像ベクトルF、Gの内積値をとることにより、正規化相関値を求めている。 In the normalized correlation calculation executed in step S7, an image vector F having as components the pixel values (edge pixels: 1, non-edge pixels: 0) of the bone edge image (f) 102 in the reference mask region, An image vector G having each pixel value (edge pixel: 1, non-edge pixel: 0) of the bone edge image (g) 201 of the collation image as a component is generated and translated into an evaluation function defined as The normalized correlation value is obtained by taking the inner product value of two normalized image vectors F and G by inputting the amount and the rotation amount as positioning parameters.
また、ステップS8、9では、上記位置決めパラメータを変化させ、数1による正規化相関計算によって得られた正規化相関値が最大となる並進量及び回転量を求める。具体的には、数1に示されるように、参照マスク領域の骨エッジ画像102と照合画像の骨エッジ画像201との並進ベクトルをt、回転行列をR、参照マスク領域内の画素位置ベクトルをxとし、画像fの位置xに対する画素値f(x)と画像gの位置Rx+tに対する画素値g(Rx+t)との正規化相関値φ(R,t)を求め、正規化相関値φ(R,t)が最大となるt及びRを求める。
In Steps S8 and S9, the positioning parameter is changed, and the translation amount and the rotation amount that maximize the normalized correlation value obtained by the normalized correlation calculation according to
図4は本発明の実施の形態1による患者位置決め装置における位置決めパラメータに対する相関値マップを示す図である。図4では並進量を位置決めパラメータとしており、回転量は変化させていない。位置決めパラメータ(並進量)の変化に応じて、相関値が大きく変化しており、本実施の形態による方法により高精度な位置決めが実現できることがわかる。
FIG. 4 is a diagram showing a correlation value map for positioning parameters in the patient positioning apparatus according to
このように、X線透視カメラにより撮像された体内のTV画像を用い位置決めを行う場合、体内画像は一般には滑らかな画像であり特徴情報を抽出することが難しいが、本実施の形態では上記体内画像よりエッジ画像を効果的に抽出することにより、X線吸収率の高い骨領域の骨輪郭情報が抽出できるので、この骨輪郭情報を位置決めマーカとして利用でき、参照画像および照合画像の画像強度の絶対値の差異にとらわれず、且つ不要な情報を抑制した状態で、患者位置決め量を正確に求めることが可能となる。
また、本実施の形態では2つのエッジ画像の相関値をとる際に、各画像を、ベクトル成分が0または1の値からなる正規化したベクトルとして処理しているために、エッジの絶対強度レベルの差に影響されること無い。
また、従来は2つの画像の画素値の差分の累積量に基いて相関値を求めていたが、本実施の形態では、各画像の濃度差分値の2乗和ではなく、上記エッジ画像の内積値をとっているので、多少のノイズ要素に対しても影響されずに、信頼性の高い相関値を求めることが可能となる。すなわち、片方のエッジ画像にノイズがあっても、他方のエッジ画像のベクトル成分はほとんど0で構成されており、内積は0になり、加算され難くなる。
また、相関値の計算は一般に計算量が膨大となるが、本実施の形態では、ほとんどの成分が0の値で構成されるエッジ画像を用いて計算を行っているので、計算量が抑えられ、迅速な処理が可能となる。
As described above, when positioning is performed using an in-vivo TV image captured by an X-ray fluoroscopic camera, the in-vivo image is generally a smooth image and it is difficult to extract feature information. By extracting the edge image from the image effectively, the bone contour information of the bone region having a high X-ray absorption rate can be extracted. Therefore, this bone contour information can be used as a positioning marker, and the image intensity of the reference image and the collation image can be reduced. The patient positioning amount can be accurately obtained without being limited by the difference in absolute values and suppressing unnecessary information.
In the present embodiment, when the correlation value of two edge images is obtained, each image is processed as a normalized vector having a vector component value of 0 or 1, and therefore the absolute intensity level of the edge It is not affected by the difference.
Further, conventionally, the correlation value is obtained based on the accumulated amount of the difference between the pixel values of the two images. However, in this embodiment, the inner product of the edge images is used instead of the square sum of the density difference values of the images. Since the value is taken, it is possible to obtain a highly reliable correlation value without being influenced by some noise factors. That is, even if there is noise in one edge image, the vector component of the other edge image is almost zero, and the inner product is zero, making it difficult to add.
In general, the calculation amount of the correlation value is enormous. However, in this embodiment, since the calculation is performed using the edge image in which most components are 0 values, the calculation amount can be suppressed. Rapid processing is possible.
実施の形態2.
実施の形態1において、図2のステップS2及びステップS5にて骨エッジ画像を抽出する際に、さらに、画像平面上でエッジ画素の形態学的な膨張処理と収縮処理を組合せた処理を施せば、さらに幅が細く、連続した曲線をエッジとした画像が取得できる。
上記膨張処理とは、ある画素の近傍(例えば周囲8画素)に一つでも1があればその画素を1にする処理であり、上記収縮処理とは、ある画素の近傍に一つでも0があればその画素を0にする処理である。膨張→収縮、または収縮→膨張と作用させると、結果の画像は膨張で太って収縮でやせて、結果的にほとんど変わらないが、膨張→収縮と作用させると、近接した不連続のエッジが膨張時に連続化する。逆に、収縮→膨張と作用させると、孤立した雑音が収縮の時に取り除かれる。このような処理の具体的な手法については、例えば文献(Rafael C.Gonzalez「Digital Image Processing」Addison Wesley、pp.518−524)に記載されている処理方法を用いればよい。
In
The expansion process is a process of setting a pixel to 1 if there is even one in the vicinity of a certain pixel (for example, surrounding 8 pixels). The contraction process is a process in which even one 0 is present in the vicinity of a certain pixel. If there is, it is a process of setting the pixel to 0. When working with expansion → shrinkage, or shrinkage → expansion, the resulting image is fattened by expansion and thinned by contraction, resulting in almost no change, but when operated with expansion → shrinkage, adjacent discontinuous edges expand. Sometimes continuous. On the other hand, when the contraction → expansion is applied, the isolated noise is removed at the time of contraction. As a specific method of such processing, for example, a processing method described in a document (Rafael C. Gonzalez “Digital Image Processing”, Addison Wesley, pp. 518-524) may be used.
したがって、上記膨張処理及び縮小処理を施すことにより、骨輪郭のような強いエッジ成分のみをさらに強調したエッジ画像が取得でき、患者位置決めで有用な情報である骨輪郭情報を強調したエッジ画像を得ることができる。 Therefore, by performing the expansion process and the reduction process, an edge image in which only a strong edge component such as a bone contour is further emphasized can be acquired, and an edge image in which bone contour information that is useful information for patient positioning is enhanced is obtained. be able to.
実施の形態3.
実施の形態1において、図2のステップS9にて位置決めパラメータを変更し、数1に示される評価関数により正規化相関計算を行うにあたって、新たに設定された位置決めパラメータを入力する際に、入力する位置決めパラメータが並進パラメータと回転パラメータの場合、両者を同時に変更するのではなく、一方のパラメータのみを変化させて相関値を計算し、一方のパラメータに対する患者位置決めパラメータの最適値を決定した後、他方のパラメータを変化させて相関値を計算し、他方のパラメータに対する患者位置決めパラメータの最適値を決定するとよい。例えば、まず並進量のみ変更して並進量の最適値を求め、続いて得られた並進量の最適値の基で、回転量のみを変更して回転量の最適値を求めれば、時間コストのかかる回転量計算を抑制することが可能となり、最適化計算時間を短縮することができる。
In the first embodiment, the positioning parameter is changed in step S9 in FIG. 2, and when the normalized correlation calculation is performed using the evaluation function shown in
実施の形態4.
正方向画像と側方向画像のような複数方向からの画像に対し、患者位置決めを行う場合、それぞれの方向において、図2に示す方法により位置決めパラメータの最適値を決定すればよいが、図2のステップS6において各方向の位置決めパラメータの初期値を設定する際、例えば正方向または側方向のうちの一方の方向の照合画像に対して得られた患者位置決めパラメータの最適値を、他方向の照合画像に対する患者位置決めパラメータの最適値を決定する際の初期値として用いるとよい。
図5はこの発明の実施の形態4による患者位置決め方法を説明する図である。図5(a)は正方向画像の位置決めを説明する図、図5(b)は側方向画像の位置決めを説明する図である。実施の形態1に示す方法により、正方向画像より取得した位置決めパラメータが、x方向の並進量x0、y方向の並進量y0、回転中心の座標を(xc,yc)とし回転量θの場合、上記y方向の並進量y0を、図5(b)に示す側方向画像の位置決めパラメータのうち、側方向画像のy方向の並進量の最適値を決定する際に、側方向画像のy方向の初期値y’0として与える。
このようにすることにより、最適パラメータの探索範囲が絞られ、計算時間を短縮することが可能となる。
y’0は、正方向画像での回転量θが無視できない場合には、正方向画像での回転量θによる変動を考慮して、正方向画像の位置決め並進量y0、正方向画像の縦長H、正方向画像の横長W、正方向画像の位置決め回転中心(xc,yc)、回転量θを用い、数2により計算されるy’0を用いると、より正確に側方向画像のy方向の位置決め並進量の初期値を設定できる。
Embodiment 4 FIG.
When patient positioning is performed on images from a plurality of directions such as a normal direction image and a side direction image, the optimum value of the positioning parameter may be determined by the method shown in FIG. 2 in each direction. When setting the initial value of the positioning parameter in each direction in step S6, for example, the optimal value of the patient positioning parameter obtained for the collation image in one of the positive direction and the side direction is used as the collation image in the other direction. It may be used as an initial value when determining the optimum value of the patient positioning parameter for.
FIG. 5 is a diagram for explaining a patient positioning method according to Embodiment 4 of the present invention. FIG. 5A illustrates the positioning of the forward image, and FIG. 5B illustrates the positioning of the side image. According to the method shown in the first embodiment, the positioning parameters acquired from the forward image are the translation amount x 0 in the x direction, the translation amount y 0 in the y direction, and the coordinates of the rotation center are (x c , y c ). In the case of θ, the translation amount y 0 in the y direction is set to the side direction when determining the optimum value of the translation amount in the y direction of the side direction image among the positioning parameters of the side direction image shown in FIG. The initial value y ′ 0 in the y direction of the image is given.
By doing so, the search range for the optimum parameter is narrowed, and the calculation time can be shortened.
When y ′ 0 is the amount of rotation θ in the forward direction image cannot be neglected, the positioning translation amount y 0 of the forward direction image and the longitudinal direction of the forward direction image are considered in consideration of the variation due to the amount of rotation θ in the forward direction image. Using the horizontal length W of the forward image, the positioning rotation center (x c , y c ) of the forward image, and the rotation amount θ, and using y ′ 0 calculated by
同様に、側方向画像により取得した位置決めパラメータを、正方向画像での位置決め時の評価関数への入力パラメータの初期値として与えても同様な効果がある。 Similarly, the same effect can be obtained even when the positioning parameter acquired from the side direction image is given as the initial value of the input parameter to the evaluation function at the time of positioning in the forward direction image.
1 画像入力部、2 画像処理部、3 最適化計算部、4 画像表示部、21 平滑化処理部、22 エッジ抽出処理部、23 ROI領域設定部、24 画像記憶部。
DESCRIPTION OF
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004130138A JP2005305048A (en) | 2004-04-26 | 2004-04-26 | Apparatus and method for positioning patient |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004130138A JP2005305048A (en) | 2004-04-26 | 2004-04-26 | Apparatus and method for positioning patient |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005305048A true JP2005305048A (en) | 2005-11-04 |
Family
ID=35434462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004130138A Pending JP2005305048A (en) | 2004-04-26 | 2004-04-26 | Apparatus and method for positioning patient |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005305048A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006175229A (en) * | 2004-12-20 | 2006-07-06 | General Electric Co <Ge> | Method and system for registering 3d image within interventional system |
JP2007282877A (en) * | 2006-04-18 | 2007-11-01 | Mitsubishi Electric Corp | Positioning device and method of irradiation object part |
JP2009201556A (en) * | 2008-02-26 | 2009-09-10 | Hitachi Ltd | Bed positioning device, bed positioning system and radiotherapy apparatus |
JP2013099431A (en) * | 2011-11-08 | 2013-05-23 | Natl Inst Of Radiological Sciences | Automatic positioning device and method for patient in radiotherapy, and program for automatic positioning for patient |
JP2017526415A (en) * | 2015-06-05 | 2017-09-14 | チェン シェシャオChen, Chieh Hsiao | Intraoperative tracking method |
WO2018225234A1 (en) * | 2017-06-09 | 2018-12-13 | 株式会社島津製作所 | Positioning device and positioning method |
WO2022107399A1 (en) * | 2020-11-19 | 2022-05-27 | 株式会社日立製作所 | Positioning device, radiotherapy system, and positioning method |
-
2004
- 2004-04-26 JP JP2004130138A patent/JP2005305048A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006175229A (en) * | 2004-12-20 | 2006-07-06 | General Electric Co <Ge> | Method and system for registering 3d image within interventional system |
JP2007282877A (en) * | 2006-04-18 | 2007-11-01 | Mitsubishi Electric Corp | Positioning device and method of irradiation object part |
JP2009201556A (en) * | 2008-02-26 | 2009-09-10 | Hitachi Ltd | Bed positioning device, bed positioning system and radiotherapy apparatus |
JP2013099431A (en) * | 2011-11-08 | 2013-05-23 | Natl Inst Of Radiological Sciences | Automatic positioning device and method for patient in radiotherapy, and program for automatic positioning for patient |
JP2017526415A (en) * | 2015-06-05 | 2017-09-14 | チェン シェシャオChen, Chieh Hsiao | Intraoperative tracking method |
WO2018225234A1 (en) * | 2017-06-09 | 2018-12-13 | 株式会社島津製作所 | Positioning device and positioning method |
JPWO2018225234A1 (en) * | 2017-06-09 | 2020-02-27 | 株式会社島津製作所 | Positioning device and positioning method |
WO2022107399A1 (en) * | 2020-11-19 | 2022-05-27 | 株式会社日立製作所 | Positioning device, radiotherapy system, and positioning method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107480677B (en) | Method and device for identifying interest region in three-dimensional CT image | |
CN106127730B (en) | Automated region of interest detection using machine learning and extended Hough transform | |
US6381302B1 (en) | Computer assisted 2D adjustment of stereo X-ray images | |
JP4294881B2 (en) | Image registration method and apparatus | |
US8331619B2 (en) | Image processing apparatus and image processing method | |
EP3655924B1 (en) | Method and apparatus to generate and track standardized anatomical regions automatically | |
US7257245B2 (en) | Image position matching method and apparatus therefor | |
JP6564018B2 (en) | Radiation image lung segmentation technology and bone attenuation technology | |
Campomanes-Alvarez et al. | Computer vision and soft computing for automatic skull–face overlay in craniofacial superimposition | |
JP2005339288A (en) | Image processor and its method | |
JP5510619B1 (en) | Image processing device | |
JP2007282877A (en) | Positioning device and method of irradiation object part | |
JP2005169077A (en) | Method for finding transformation relating data point of first data set to data point of second data set, and computer program for performing the method | |
JP4274400B2 (en) | Image registration method and apparatus | |
EP1956553A1 (en) | Visual enhancement of interval changes using a temporal subtraction technique. | |
JP4416823B2 (en) | Image processing apparatus, image processing method, and computer program | |
US9672600B2 (en) | Clavicle suppression in radiographic images | |
JP2005305048A (en) | Apparatus and method for positioning patient | |
US20110058727A1 (en) | Radiation imaging apparatus, radiation imaging method, and program | |
JP2004188202A (en) | Automatic analysis method of digital radiograph of chest part | |
US10413364B1 (en) | Internal organ localization of a subject for providing assistance during surgery | |
Zamora et al. | Estimation of orientation and position of cervical vertebrae for segmentation with active shape models | |
JP5383486B2 (en) | Method and apparatus for operating a device for cerebral hemorrhage segmentation | |
JP7277131B2 (en) | Image processing device, image processing method, and program | |
JP2013017781A (en) | Medical image extraction apparatus and medical image extraction program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081118 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090115 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090714 |