JP2005305048A - Apparatus and method for positioning patient - Google Patents

Apparatus and method for positioning patient Download PDF

Info

Publication number
JP2005305048A
JP2005305048A JP2004130138A JP2004130138A JP2005305048A JP 2005305048 A JP2005305048 A JP 2005305048A JP 2004130138 A JP2004130138 A JP 2004130138A JP 2004130138 A JP2004130138 A JP 2004130138A JP 2005305048 A JP2005305048 A JP 2005305048A
Authority
JP
Japan
Prior art keywords
image
patient
edge
parameter
positioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004130138A
Other languages
Japanese (ja)
Inventor
Akira Sawada
晃 澤田
Kiyoshi Yoda
潔 依田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2004130138A priority Critical patent/JP2005305048A/en
Publication of JP2005305048A publication Critical patent/JP2005305048A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus and a method for positioning a patient with high accuracy. <P>SOLUTION: The method for positioning the patient comprises first steps S1-S3, second steps S4-S5, third steps S6-S9, and fourth step S8 to determine the position of the patient, wherein the first steps being steps wherein images in the body of the patient are input as reference images to provide the bone edge image of a specific region in the reference images, the second steps being steps wherein images in the body of the patient under treatment are input as check images to provide the bone edge image of a specific region in the check images, the third steps being steps wherein the relative amount of shift between the bone edge image of a specific region in the reference images and the bone edge image of a specific region in the check images is referred to as a position-determining parameter, which is changed to calculate the normalized correlation between both the images, so that the correlation values between both the images are calculated against the position-determining parameters, and the fourth step being a step wherein the degree of coincidence between both the images is evaluated from the calculated correlation values to determine the optimal value of the position-determining parameters in the check images. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、粒子線治療において治療時の患者の位置決めを行う患者位置決め装置および患者位置決め方法に関するものである。   The present invention relates to a patient positioning apparatus and a patient positioning method for positioning a patient during treatment in particle beam therapy.

粒子線治療では粒子線の線量集中性のため、高精度な患者位置決めが要求される。従来の患者位置決め装置では、正側2方向からのX線透視画像を用いて、予め撮影した参照画像と、治療時に撮影する照合画像を重ねあわせ、その一致度を目視により比較し、手動により、照合画像が参照画像に一致する位置まで照合画像を移動させ、この移動量に基いて患者を移動させていた。このため、技師の負担が大きく、位置決め時間も長くなるという欠点があった。そこで、参照画像と照合画像との一致度の判定、および両画像を一致させるために必要な患者の移動量の計算を自動化する方法が提案されている(例えば、特許文献1および非特許文献1参照。)。
特許文献1に示された方法では、2つのカメラにより、患者の体表形状を撮像し、それぞれのカメラ軸線での基準画像と最新の患者の画像とから、サブトラクション画像を得ることにより、位置ずれの程度をサブトラクション画像での視覚的な差異として明確化し、さらにこの差異を最小化することによって位置決め量を求めている。
また、非特許文献1に示された方法では、X線透視画像により参照画像と照合画像を得、上記移動量をパラメータとし、参照画像と照合画像の画素毎の差分の累積量を指標とした評価関数を定義し、この評価関数を最小化することにより、位置合わせの最適化パラメータを自動計算で求めている。
In the particle beam therapy, highly accurate patient positioning is required because of the dose concentration of the particle beam. In a conventional patient positioning device, using a fluoroscopic image from two directions on the positive side, a reference image captured in advance and a verification image captured at the time of treatment are overlapped, the degree of coincidence is visually compared, and manually, The collation image is moved to a position where the collation image matches the reference image, and the patient is moved based on the amount of movement. For this reason, there is a drawback that the burden on the engineer is large and the positioning time becomes long. Therefore, methods for automating the determination of the degree of coincidence between the reference image and the collation image and the calculation of the amount of movement of the patient necessary for matching both images have been proposed (for example, Patent Document 1 and Non-Patent Document 1). reference.).
In the method disclosed in Patent Document 1, the body surface shape of a patient is imaged by two cameras, and a subtraction image is obtained from a reference image at each camera axis and the latest patient image, thereby causing positional deviation. Is determined as a visual difference in the subtraction image, and the positioning amount is obtained by minimizing this difference.
Further, in the method disclosed in Non-Patent Document 1, a reference image and a collation image are obtained from an X-ray fluoroscopic image, the movement amount is used as a parameter, and the cumulative amount of difference for each pixel of the reference image and the collation image is used as an index. By defining an evaluation function and minimizing this evaluation function, an optimization parameter for alignment is obtained by automatic calculation.

特開2003−319930号公報(第5−7頁、図1)JP 2003-319930 A (page 5-7, FIG. 1)

「患者位置決めシステムにおける自動画像位置合わせ機能の開発」赤城等、医学物理 Vol.23 Supplement No.2 April 2003(pp.59−61)“Development of automatic image alignment function in patient positioning system”, Akagi et al., Medical Physics Vol. 23 Supplement No. 2 April 2003 (pp. 59-61)

上記のような従来の患者位置決め方法においては、自動化に当たって、X線透視画像や患者体表のカメラ画像を用い、参照画像と照合画像との画素値の差分量を位置決めパラメータの指標としているが、画像のコントラストやS/N比に依存して十分な位置決め精度が得られないといった問題があった。即ち、画質不良の画像を用いた場合、雑音成分のために、差分量が正確な位置決め指標とならないといった問題があった。また、最適化計算において繰返し計算回数が多く(計算時間が長い)、さらに最適化計算が発散するケースが多く、最適解でなく局所解に収束してしまう問題があった。また、患者位置決めに要する時間が長くなれば患者の負担になり、患者が位置決め中に動く確率が高くなり、その場合、位置決めに更に時間がかかるという問題が生じる。
さらに、長期間の粒子線治療においては治療期間中に痩身、肥満等により患者の体表形状の変化が起こることがあり、患者の体表形状を用いて位置決めを行う場合、基準となる参照画像と最新の照合画像とがそもそも一致しないという問題が生じる。したがって、体表形状を位置決め指標として用いることは不適当であった。
また、FA等の分野での画像処理による部品位置決めの場合は繰り返し撮影することが可能であり、位置決めのための最良の画質を得ることができるが、患者の位置決めにおいてX線透視等による体内画像を用いる場合は、X線被曝量が増加するため、画像の取り直し、あるいは画質向上のために長時間撮影することは極力制限され、位置決めの際に最良の画質の画像が常に得られるとは限らないという問題点があった。
In the conventional patient positioning method as described above, in the automation, the X-ray fluoroscopic image or the camera image of the patient body surface is used, and the difference amount of the pixel value between the reference image and the collation image is used as an index of the positioning parameter. There is a problem that sufficient positioning accuracy cannot be obtained depending on the contrast of the image and the S / N ratio. That is, when an image with poor image quality is used, there is a problem that the difference amount is not an accurate positioning index due to a noise component. In addition, the number of repeated calculations is large in the optimization calculation (the calculation time is long), and there are many cases where the optimization calculation diverges, and there is a problem that it converges to a local solution instead of the optimal solution. Moreover, if the time required for patient positioning becomes long, it becomes a burden on the patient, and the probability that the patient moves during positioning increases. In this case, there is a problem that it takes more time for positioning.
Furthermore, in long-term particle beam therapy, the patient's body surface shape may change during the treatment period due to slimming, obesity, etc. When positioning using the patient's body surface shape, a reference image that serves as a reference In the first place, there is a problem that the latest collation image does not match. Therefore, it is inappropriate to use the body surface shape as a positioning index.
In addition, in the case of component positioning by image processing in the field of FA or the like, it is possible to repeatedly shoot and obtain the best image quality for positioning, but in-vivo images by fluoroscopy or the like in patient positioning When X is used, the amount of X-ray exposure increases, so retaking an image or taking a long time to improve image quality is limited as much as possible, and an image with the best image quality is not always obtained at the time of positioning. There was no problem.

本発明は、かかる問題点を解決するためになされたもので、高精度の患者位置決めが可能となる患者位置決め装置を提供することを目的とする。
また、高精度の患者位置決めが可能となる患者位置決め方法を提供することを目的とする。
The present invention has been made to solve such a problem, and an object of the present invention is to provide a patient positioning device capable of highly accurate patient positioning.
It is another object of the present invention to provide a patient positioning method that enables highly accurate patient positioning.

この発明に係る患者位置決め装置は、患者の体内の画像を入力する画像入力部、患者の基準となる体内の画像を参照画像とし、上記参照画像の所定領域の骨エッジ画像を得ると共に、上記患者の治療時の体内の画像を照合画像とし、上記照合画像の骨エッジ画像を得る画像処理部、及び上記参照画像の所定領域の骨エッジ画像と上記照合画像の骨エッジ画像との相対的な移動量を位置決めパラメータとし、この位置決めパラメータを変化させながら、両画像間で正規化相関計算を行い、各位置決めパラメータに対する両画像の相関値を計算すると共に、計算された上記相関値より上記両画像の一致度を評価し、上記照合画像における患者位置決めパラメータの最適値を決定する最適値計算部を備えたものである。   The patient positioning device according to the present invention is an image input unit that inputs an image inside a patient's body, uses an image inside the body that is a reference of the patient as a reference image, obtains a bone edge image of a predetermined region of the reference image, and the patient An image processing unit for obtaining a bone edge image of the collation image using the in-vivo image at the time of treatment of the collation, and a relative movement between the bone edge image of the predetermined region of the reference image and the bone edge image of the collation image The amount is used as a positioning parameter, and while the positioning parameter is changed, a normalized correlation calculation is performed between both images, and a correlation value of both images with respect to each positioning parameter is calculated. An optimum value calculation unit that evaluates the degree of coincidence and determines the optimum value of the patient positioning parameter in the collation image is provided.

また、この発明に係る患者位置決め方法は、患者の基準となる体内の画像を参照画像として入力し、上記参照画像の所定領域の骨エッジ画像を得る第1ステップ、上記患者の治療時の体内の画像を照合画像として入力し、上記照合画像の骨エッジ画像を得る第2ステップ、上記参照画像の所定領域の骨エッジ画像と上記照合画像の骨エッジ画像との相対的な移動量を位置決めパラメータとし、この位置決めパラメータを変化させながら、両画像間で正規化相関計算を行い、各位置決めパラメータに対する両画像の相関値を計算する第3ステップ、及び計算された上記相関値より上記両画像の一致度を評価し、上記照合画像における患者位置決めパラメータの最適値を決定する第4ステップを備えたものである。   In the patient positioning method according to the present invention, a first step of inputting an in-vivo image serving as a reference of a patient as a reference image and obtaining a bone edge image of a predetermined region of the reference image; A second step of inputting an image as a collation image and obtaining a bone edge image of the collation image, and using a relative movement amount between a bone edge image of a predetermined region of the reference image and a bone edge image of the collation image as a positioning parameter The third step of performing normalized correlation calculation between the two images while changing the positioning parameter and calculating the correlation value of the two images with respect to the positioning parameter, and the degree of coincidence of the two images based on the calculated correlation value And a fourth step of determining an optimum value of the patient positioning parameter in the collation image.

この発明に係る患者位置決め装置および患者位置決め方法では、患者の体内の画像より骨部のエッジ画像を抽出し、患者位置決めに有用な骨輪郭情報を用いて位置決めを行っているので、入力画像間のコントラスト差異の影響等を低減させる効果を奏する。また、骨エッジ抽出処理では、エッジ幅を細くすると共に、エッジの連続性を考慮した拘束条件を用いることで、骨輪郭情報が強調され、患者位置決めに不要な領域の情報が抑制されるため、高精度な位置決めが可能となる。また、並進量、回転量等の位置決めパラメータを求めるための評価指標として、参照画像の所定領域のエッジ画像と照合画像のエッジ画像との間の正規化相関値を計算しているので、エッジの絶対強度の差異に影響されること無く、安定して相関値を求めることが可能となる。これにより、高精度の位置決めを迅速に実行することが可能となる。   In the patient positioning device and the patient positioning method according to the present invention, an edge image of a bone part is extracted from an image inside a patient's body, and positioning is performed using bone contour information useful for patient positioning. This has the effect of reducing the influence of contrast differences. In addition, in the bone edge extraction process, while narrowing the edge width and using a constraint condition that considers the continuity of the edge, the bone contour information is emphasized, and information on an area unnecessary for patient positioning is suppressed. High-precision positioning is possible. In addition, since the normalized correlation value between the edge image of the predetermined region of the reference image and the edge image of the collation image is calculated as an evaluation index for obtaining the positioning parameters such as the translation amount and the rotation amount, the edge The correlation value can be obtained stably without being affected by the difference in absolute intensity. Thereby, it becomes possible to perform highly accurate positioning rapidly.

実施の形態1.
図1は本発明の実施の形態1による患者位置決め装置を示すブロック構成図である。本実施の形態の患者位置決め装置は、X線透視カメラ等により撮像された患者の体内の画像を入力する画像入力部1と、患者の基準となる体内の画像を参照画像とし、参照画像の所定領域の骨エッジ画像を得ると共に、患者の治療時の体内の画像を照合画像とし、照合画像の骨エッジ画像を得る画像処理部2と、上記参照画像の所定領域の骨エッジ画像と上記照合画像の骨エッジ画像との相対的な移動量を位置決めパラメータとし、この位置決めパラメータを変化させながら、両画像間で正規化相関計算を行い、各位置決めパラメータに対する両画像の相関値を計算すると共に、計算された上記相関値より上記両画像の一致度を評価し、上記照合画像における患者位置決めパラメータの最適値を決定する最適値計算部3と、画像表示部4とを備えるものである。
上記画像処理部2は、患者の体内の画像を平滑化処理する平滑化処理部21と、平滑化処理された画像より骨エッジ画像を抽出するエッジ抽出処理部22と、参照画像における所定領域を関心領域として設定するROI(Region of Interest)領域設定部23と、得られた骨エッジ画像を保存する画像記憶部24とを備える。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a patient positioning device according to Embodiment 1 of the present invention. The patient positioning apparatus according to the present embodiment uses an image input unit 1 that inputs an image inside a patient's body captured by an X-ray fluoroscopic camera or the like, and an image inside the body that serves as a reference for the patient as a reference image, and a predetermined reference image An image processing unit 2 that obtains a bone edge image of a region and obtains a bone edge image of a collation image using a body image at the time of treatment of a patient as a collation image, and a bone edge image of the predetermined region of the reference image and the collation image The relative amount of movement with the bone edge image is used as a positioning parameter, and the normalized correlation calculation is performed between both images while changing the positioning parameter, and the correlation value of both images for each positioning parameter is calculated. An optimal value calculation unit 3 that evaluates the degree of coincidence of the two images based on the correlation value and determines an optimal value of the patient positioning parameter in the collation image, and an image display unit 4 It is obtain things.
The image processing unit 2 includes a smoothing processing unit 21 that smoothes an image inside the patient's body, an edge extraction processing unit 22 that extracts a bone edge image from the smoothed image, and a predetermined region in the reference image. An ROI (Region of Interest) region setting unit 23 that is set as a region of interest and an image storage unit 24 that stores the obtained bone edge image are provided.

次に、本実施の形態による患者位置決め装置の動作を説明する。図2は本発明の実施の形態1による患者位置決め装置における処理手順とその処理結果例である。
ステップS1(参照画像入力処理)では、X線透視カメラにより撮像された患者の基準となる体内の画像を参照画像100として画像入力部1に入力する。
ステップS2(平滑化処理及びエッジ抽出処理)では、平滑化処理部21において入力した参照画像100を平滑化し、エッジ抽出処理部22において平滑化した画像よりエッジ画像を抽出し、さらにエッジ画像におけるエッジ幅を細線化すると共に、上記エッジ画像より連続した曲線を抽出することにより参照画像100の骨エッジ画像101を得る。
ステップS3(ROI領域設定処理)では、ROI領域設定部23において、参照画像100における所定領域を参照マスク領域として設定し、ステップS2で得られた骨エッジ画像101より、上記参照マスク領域における骨エッジ画像102を抽出し、抽出した骨エッジ画像101を画像記憶部24に保存する。
ステップS4(照合画像入力処理)では、X線透視カメラにより撮像された治療時の患者の体内の画像を照合画像200として画像入力部1に入力する。
ステップS5(平滑化処理及びエッジ抽出処理)では、平滑化処理部21において入力した照合画像200を平滑化し、エッジ抽出処理部22において平滑化した画像よりエッジ画像を抽出し、さらにエッジ画像におけるエッジ幅を細線化すると共に、上記エッジ画像より連続した曲線を抽出することにより照合画像200の骨エッジ画像201を得、得られた骨エッジ画像201を画像記憶部24に保存する。
Next, the operation of the patient positioning device according to the present embodiment will be described. FIG. 2 shows a processing procedure and an example of the processing result in the patient positioning apparatus according to Embodiment 1 of the present invention.
In step S <b> 1 (reference image input process), an in-vivo image serving as a reference for a patient captured by an X-ray fluoroscopic camera is input to the image input unit 1 as a reference image 100.
In step S2 (smoothing processing and edge extraction processing), the reference image 100 input by the smoothing processing unit 21 is smoothed, an edge image is extracted from the image smoothed by the edge extraction processing unit 22, and an edge in the edge image is further extracted. A bone edge image 101 of the reference image 100 is obtained by thinning the width and extracting a continuous curve from the edge image.
In step S3 (ROI region setting process), the ROI region setting unit 23 sets a predetermined region in the reference image 100 as a reference mask region, and the bone edge in the reference mask region is obtained from the bone edge image 101 obtained in step S2. The image 102 is extracted, and the extracted bone edge image 101 is stored in the image storage unit 24.
In step S <b> 4 (collation image input process), an image inside the patient's body at the time of treatment captured by the X-ray fluoroscopic camera is input to the image input unit 1 as a collation image 200.
In step S5 (smoothing processing and edge extraction processing), the collation image 200 input by the smoothing processing unit 21 is smoothed, an edge image is extracted from the image smoothed by the edge extraction processing unit 22, and an edge in the edge image is further extracted. While narrowing the width and extracting a continuous curve from the edge image, a bone edge image 201 of the collation image 200 is obtained, and the obtained bone edge image 201 is stored in the image storage unit 24.

なお、ステップS2において、参照画像100のS/N比が良好であれば、すなわち、S/N比が予め設定した値より大きい値であれば、上記平滑化処理は省略してもよい。同様に、ステップS5において、照合画像200のS/N比が良好であれば平滑化処理は省略してもよい。
また、ステップS3では、ステップS2で得られた骨エッジ画像101より、参照マスク領域における骨エッジ画像102を抽出したが、ステップS2を施す前に、ROI領域設定部23において、ROI領域設定処理を施し、参照画像100における所定領域を参照マスク領域として設定し、参照画像100より上記参照マスク領域を抽出し、抽出された参照マスク領域の参照画像に対して、上記ステップS2において施したと同様の、平滑化処理およびエッジ抽出処置を施して骨エッジ画像102を抽出するようにしてもよい。
In step S2, if the S / N ratio of the reference image 100 is good, that is, if the S / N ratio is larger than a preset value, the smoothing process may be omitted. Similarly, in step S5, if the S / N ratio of the collation image 200 is good, the smoothing process may be omitted.
In step S3, the bone edge image 102 in the reference mask region is extracted from the bone edge image 101 obtained in step S2. However, before performing step S2, the ROI region setting unit 23 performs ROI region setting processing. Then, a predetermined area in the reference image 100 is set as a reference mask area, the reference mask area is extracted from the reference image 100, and the same as that performed in step S2 on the reference image of the extracted reference mask area. The bone edge image 102 may be extracted by performing smoothing processing and edge extraction processing.

また、ステップS2及びステップS5において、骨エッジ画像を抽出する際に、前述のように、エッジ幅を細線化すると共に、上記エッジ画像より連続した曲線を抽出するが、具体的な手法としては、エッジ幅が細く、エッジの連続性を考慮した拘束条件を用いる。例えば、文献(J.Canny「A Computational Approach to Edge Detection」:IEEE Transaction on Pattern Analysis and Machine Intelligence、vol.8、no.6、pp.679−698、1986)に示されたCanny法を用いる。   In step S2 and step S5, when extracting the bone edge image, as described above, the edge width is thinned and a continuous curve is extracted from the edge image. As a specific method, The edge width is narrow and the constraint condition considering the continuity of the edge is used. For example, the method described in the literature (J. Canny “A Computational Approach to Edge Detection”: IEEE Transaction on Pattern Analysis and Machine Intelligence, vol. 8, no. 6, pp. 679-6, pp. 679-6, pp. 679-6) is used.

図3(a)はCanny法による処理を施さない通常のエッジ画像300、図3(b)は本実施の形態1に係わる骨エッジ画像であり、Canny法による処理を施した骨エッジ画像301である。図3(a)に示す画像は頭蓋骨輪郭が抽出可能なレベルまで調整した骨エッジ画像であるが、骨エッジに幅があり、また、孤立点雑音が多数存在している。一方、図3(b)では細線化や連続性の拘束条件を入れた場合の骨エッジ画像301を示しているが、この画像では、S/Nの悪いX線画像に多く見られる孤立点のような雑音が抑制され、頭蓋骨の輪郭を十分に把握できる形で細線化されたエッジが抽出されている。   FIG. 3A is a normal edge image 300 that is not subjected to processing by the Canny method, and FIG. 3B is a bone edge image according to the first embodiment, and is a bone edge image 301 that is processed by the Canny method. is there. The image shown in FIG. 3A is a bone edge image adjusted to a level at which the skull contour can be extracted. However, the bone edge has a width and a large number of isolated point noises exist. On the other hand, FIG. 3B shows a bone edge image 301 in a case where a thinning or continuity constraint condition is added. In this image, isolated points often seen in an X-ray image having a poor S / N ratio are shown. Such noise is suppressed, and thinned edges are extracted so that the outline of the skull can be sufficiently grasped.

次に、ステップS6〜S9では、ステップS3で得られた骨エッジ画像102とステップS5で得られた骨エッジ画像201との相対的な移動量を位置決めパラメータとして、この位置決めパラメータを変化させながら、両画像間で正規化相関計算を行い、各位置決めパラメータに対する両画像の相関値を計算する。即ち、ステップS6にて、位置決めパラメータとなる並進量及び回転量の初期値を設定し、ステップS7にて、参照マスク領域における骨エッジ画像102と照合画像の骨エッジ画像201に対し、正規化相関計算処理を行う。ステップS8では計算された相関値の判定を行い、両画像の一致度を判定する。上記相関値が予め指定した判定基準以下であれば、ステップS9で位置決めパラメータを変更し、再度ステップS7にて正規化相関値を計算する。この処理を相関値が判定基準を超えるか、あるいは予め指定した繰返し計算回数等の収束条件を満たせば処理を終了し(ステップS10)、その時の位置決めパラメータを患者位置決めパラメータの最適値と決定する。決定された患者位置決めパラメータに基づいて治療台等を移動させることで、患者の位置決めを正確に行うことが可能となる。また、ステップS10において、画像表示部4に、参照画像の表示や照合画像の表示を行ったり、あるいは、図2に示すように、参照マスク領域の参照画像と照合画像との重畳画像400を表示することにより、視覚による確認を行うこともできる。   Next, in steps S6 to S9, while using the relative movement amount between the bone edge image 102 obtained in step S3 and the bone edge image 201 obtained in step S5 as a positioning parameter, Normalized correlation calculation is performed between both images, and a correlation value of both images for each positioning parameter is calculated. That is, in step S6, initial values of translation amounts and rotation amounts as positioning parameters are set, and in step S7, normalized correlation is performed on the bone edge image 102 in the reference mask region and the bone edge image 201 of the collation image. Perform the calculation process. In step S8, the calculated correlation value is determined, and the degree of coincidence between both images is determined. If the correlation value is less than or equal to the predetermined criterion, the positioning parameter is changed in step S9, and the normalized correlation value is calculated again in step S7. If this correlation value exceeds the criterion or the convergence condition such as the number of repeated calculations specified in advance is satisfied (step S10), the positioning parameter at that time is determined as the optimum value of the patient positioning parameter. By moving the treatment table or the like based on the determined patient positioning parameter, the patient can be accurately positioned. In step S10, the image display unit 4 displays a reference image and a collation image, or displays a superimposed image 400 of the reference image and the collation image in the reference mask area as shown in FIG. By doing so, visual confirmation can also be performed.

なお、上記ステップS7において実行する正規化相関計算では、参照マスク領域の骨エッジ画像(f)102の各画素値(エッジ画素:1、非エッジ画素:0)を成分とした画像ベクトルFと、照合画像の骨エッジ画像(g)201の各画素値(エッジ画素:1、非エッジ画素:0)を成分とした画像ベクトルGとを生成し、数1のように定義される評価関数に並進量及び回転量を位置決めパラメータとして入力して正規化された2つの画像ベクトルF、Gの内積値をとることにより、正規化相関値を求めている。   In the normalized correlation calculation executed in step S7, an image vector F having as components the pixel values (edge pixels: 1, non-edge pixels: 0) of the bone edge image (f) 102 in the reference mask region, An image vector G having each pixel value (edge pixel: 1, non-edge pixel: 0) of the bone edge image (g) 201 of the collation image as a component is generated and translated into an evaluation function defined as The normalized correlation value is obtained by taking the inner product value of two normalized image vectors F and G by inputting the amount and the rotation amount as positioning parameters.

Figure 2005305048
Figure 2005305048

また、ステップS8、9では、上記位置決めパラメータを変化させ、数1による正規化相関計算によって得られた正規化相関値が最大となる並進量及び回転量を求める。具体的には、数1に示されるように、参照マスク領域の骨エッジ画像102と照合画像の骨エッジ画像201との並進ベクトルをt、回転行列をR、参照マスク領域内の画素位置ベクトルをxとし、画像fの位置xに対する画素値f(x)と画像gの位置Rx+tに対する画素値g(Rx+t)との正規化相関値φ(R,t)を求め、正規化相関値φ(R,t)が最大となるt及びRを求める。   In Steps S8 and S9, the positioning parameter is changed, and the translation amount and the rotation amount that maximize the normalized correlation value obtained by the normalized correlation calculation according to Equation 1 are obtained. Specifically, as shown in Equation 1, the translation vector between the bone edge image 102 of the reference mask region and the bone edge image 201 of the collation image is t, the rotation matrix is R, and the pixel position vector in the reference mask region is x, a normalized correlation value φ (R, t) between a pixel value f (x) for the position x of the image f and a pixel value g (Rx + t) for the position Rx + t of the image g is obtained, and the normalized correlation value φ (R , T) find the maximum t and R.

図4は本発明の実施の形態1による患者位置決め装置における位置決めパラメータに対する相関値マップを示す図である。図4では並進量を位置決めパラメータとしており、回転量は変化させていない。位置決めパラメータ(並進量)の変化に応じて、相関値が大きく変化しており、本実施の形態による方法により高精度な位置決めが実現できることがわかる。   FIG. 4 is a diagram showing a correlation value map for positioning parameters in the patient positioning apparatus according to Embodiment 1 of the present invention. In FIG. 4, the translation amount is used as a positioning parameter, and the rotation amount is not changed. The correlation value changes greatly according to the change of the positioning parameter (translation amount), and it can be seen that highly accurate positioning can be realized by the method according to the present embodiment.

このように、X線透視カメラにより撮像された体内のTV画像を用い位置決めを行う場合、体内画像は一般には滑らかな画像であり特徴情報を抽出することが難しいが、本実施の形態では上記体内画像よりエッジ画像を効果的に抽出することにより、X線吸収率の高い骨領域の骨輪郭情報が抽出できるので、この骨輪郭情報を位置決めマーカとして利用でき、参照画像および照合画像の画像強度の絶対値の差異にとらわれず、且つ不要な情報を抑制した状態で、患者位置決め量を正確に求めることが可能となる。
また、本実施の形態では2つのエッジ画像の相関値をとる際に、各画像を、ベクトル成分が0または1の値からなる正規化したベクトルとして処理しているために、エッジの絶対強度レベルの差に影響されること無い。
また、従来は2つの画像の画素値の差分の累積量に基いて相関値を求めていたが、本実施の形態では、各画像の濃度差分値の2乗和ではなく、上記エッジ画像の内積値をとっているので、多少のノイズ要素に対しても影響されずに、信頼性の高い相関値を求めることが可能となる。すなわち、片方のエッジ画像にノイズがあっても、他方のエッジ画像のベクトル成分はほとんど0で構成されており、内積は0になり、加算され難くなる。
また、相関値の計算は一般に計算量が膨大となるが、本実施の形態では、ほとんどの成分が0の値で構成されるエッジ画像を用いて計算を行っているので、計算量が抑えられ、迅速な処理が可能となる。
As described above, when positioning is performed using an in-vivo TV image captured by an X-ray fluoroscopic camera, the in-vivo image is generally a smooth image and it is difficult to extract feature information. By extracting the edge image from the image effectively, the bone contour information of the bone region having a high X-ray absorption rate can be extracted. Therefore, this bone contour information can be used as a positioning marker, and the image intensity of the reference image and the collation image can be reduced. The patient positioning amount can be accurately obtained without being limited by the difference in absolute values and suppressing unnecessary information.
In the present embodiment, when the correlation value of two edge images is obtained, each image is processed as a normalized vector having a vector component value of 0 or 1, and therefore the absolute intensity level of the edge It is not affected by the difference.
Further, conventionally, the correlation value is obtained based on the accumulated amount of the difference between the pixel values of the two images. However, in this embodiment, the inner product of the edge images is used instead of the square sum of the density difference values of the images. Since the value is taken, it is possible to obtain a highly reliable correlation value without being influenced by some noise factors. That is, even if there is noise in one edge image, the vector component of the other edge image is almost zero, and the inner product is zero, making it difficult to add.
In general, the calculation amount of the correlation value is enormous. However, in this embodiment, since the calculation is performed using the edge image in which most components are 0 values, the calculation amount can be suppressed. Rapid processing is possible.

実施の形態2.
実施の形態1において、図2のステップS2及びステップS5にて骨エッジ画像を抽出する際に、さらに、画像平面上でエッジ画素の形態学的な膨張処理と収縮処理を組合せた処理を施せば、さらに幅が細く、連続した曲線をエッジとした画像が取得できる。
上記膨張処理とは、ある画素の近傍(例えば周囲8画素)に一つでも1があればその画素を1にする処理であり、上記収縮処理とは、ある画素の近傍に一つでも0があればその画素を0にする処理である。膨張→収縮、または収縮→膨張と作用させると、結果の画像は膨張で太って収縮でやせて、結果的にほとんど変わらないが、膨張→収縮と作用させると、近接した不連続のエッジが膨張時に連続化する。逆に、収縮→膨張と作用させると、孤立した雑音が収縮の時に取り除かれる。このような処理の具体的な手法については、例えば文献(Rafael C.Gonzalez「Digital Image Processing」Addison Wesley、pp.518−524)に記載されている処理方法を用いればよい。
Embodiment 2. FIG.
In Embodiment 1, when a bone edge image is extracted in step S2 and step S5 in FIG. 2, a process that combines morphological expansion processing and contraction processing of edge pixels on the image plane is further performed. Further, an image having a narrower width and a continuous curve as an edge can be acquired.
The expansion process is a process of setting a pixel to 1 if there is even one in the vicinity of a certain pixel (for example, surrounding 8 pixels). The contraction process is a process in which even one 0 is present in the vicinity of a certain pixel. If there is, it is a process of setting the pixel to 0. When working with expansion → shrinkage, or shrinkage → expansion, the resulting image is fattened by expansion and thinned by contraction, resulting in almost no change, but when operated with expansion → shrinkage, adjacent discontinuous edges expand. Sometimes continuous. On the other hand, when the contraction → expansion is applied, the isolated noise is removed at the time of contraction. As a specific method of such processing, for example, a processing method described in a document (Rafael C. Gonzalez “Digital Image Processing”, Addison Wesley, pp. 518-524) may be used.

したがって、上記膨張処理及び縮小処理を施すことにより、骨輪郭のような強いエッジ成分のみをさらに強調したエッジ画像が取得でき、患者位置決めで有用な情報である骨輪郭情報を強調したエッジ画像を得ることができる。   Therefore, by performing the expansion process and the reduction process, an edge image in which only a strong edge component such as a bone contour is further emphasized can be acquired, and an edge image in which bone contour information that is useful information for patient positioning is enhanced is obtained. be able to.

実施の形態3.
実施の形態1において、図2のステップS9にて位置決めパラメータを変更し、数1に示される評価関数により正規化相関計算を行うにあたって、新たに設定された位置決めパラメータを入力する際に、入力する位置決めパラメータが並進パラメータと回転パラメータの場合、両者を同時に変更するのではなく、一方のパラメータのみを変化させて相関値を計算し、一方のパラメータに対する患者位置決めパラメータの最適値を決定した後、他方のパラメータを変化させて相関値を計算し、他方のパラメータに対する患者位置決めパラメータの最適値を決定するとよい。例えば、まず並進量のみ変更して並進量の最適値を求め、続いて得られた並進量の最適値の基で、回転量のみを変更して回転量の最適値を求めれば、時間コストのかかる回転量計算を抑制することが可能となり、最適化計算時間を短縮することができる。
Embodiment 3 FIG.
In the first embodiment, the positioning parameter is changed in step S9 in FIG. 2, and when the normalized correlation calculation is performed using the evaluation function shown in Equation 1, the newly set positioning parameter is input. When the positioning parameter is a translation parameter and a rotation parameter, instead of changing both at the same time, the correlation value is calculated by changing only one parameter, and after determining the optimal value of the patient positioning parameter for one parameter, the other The correlation value may be calculated by changing one of the parameters, and the optimum value of the patient positioning parameter for the other parameter may be determined. For example, if only the translation amount is changed first to obtain the optimum value of the translation amount, and then the rotation amount alone is changed based on the obtained optimum value of the translation amount, the time cost can be reduced. Such rotation amount calculation can be suppressed, and the optimization calculation time can be shortened.

実施の形態4.
正方向画像と側方向画像のような複数方向からの画像に対し、患者位置決めを行う場合、それぞれの方向において、図2に示す方法により位置決めパラメータの最適値を決定すればよいが、図2のステップS6において各方向の位置決めパラメータの初期値を設定する際、例えば正方向または側方向のうちの一方の方向の照合画像に対して得られた患者位置決めパラメータの最適値を、他方向の照合画像に対する患者位置決めパラメータの最適値を決定する際の初期値として用いるとよい。
図5はこの発明の実施の形態4による患者位置決め方法を説明する図である。図5(a)は正方向画像の位置決めを説明する図、図5(b)は側方向画像の位置決めを説明する図である。実施の形態1に示す方法により、正方向画像より取得した位置決めパラメータが、x方向の並進量x0、y方向の並進量y0、回転中心の座標を(xc,yc)とし回転量θの場合、上記y方向の並進量y0を、図5(b)に示す側方向画像の位置決めパラメータのうち、側方向画像のy方向の並進量の最適値を決定する際に、側方向画像のy方向の初期値y’0として与える。
このようにすることにより、最適パラメータの探索範囲が絞られ、計算時間を短縮することが可能となる。
y’0は、正方向画像での回転量θが無視できない場合には、正方向画像での回転量θによる変動を考慮して、正方向画像の位置決め並進量y0、正方向画像の縦長H、正方向画像の横長W、正方向画像の位置決め回転中心(xc,yc)、回転量θを用い、数2により計算されるy’0を用いると、より正確に側方向画像のy方向の位置決め並進量の初期値を設定できる。
Embodiment 4 FIG.
When patient positioning is performed on images from a plurality of directions such as a normal direction image and a side direction image, the optimum value of the positioning parameter may be determined by the method shown in FIG. 2 in each direction. When setting the initial value of the positioning parameter in each direction in step S6, for example, the optimal value of the patient positioning parameter obtained for the collation image in one of the positive direction and the side direction is used as the collation image in the other direction. It may be used as an initial value when determining the optimum value of the patient positioning parameter for.
FIG. 5 is a diagram for explaining a patient positioning method according to Embodiment 4 of the present invention. FIG. 5A illustrates the positioning of the forward image, and FIG. 5B illustrates the positioning of the side image. According to the method shown in the first embodiment, the positioning parameters acquired from the forward image are the translation amount x 0 in the x direction, the translation amount y 0 in the y direction, and the coordinates of the rotation center are (x c , y c ). In the case of θ, the translation amount y 0 in the y direction is set to the side direction when determining the optimum value of the translation amount in the y direction of the side direction image among the positioning parameters of the side direction image shown in FIG. The initial value y ′ 0 in the y direction of the image is given.
By doing so, the search range for the optimum parameter is narrowed, and the calculation time can be shortened.
When y ′ 0 is the amount of rotation θ in the forward direction image cannot be neglected, the positioning translation amount y 0 of the forward direction image and the longitudinal direction of the forward direction image are considered in consideration of the variation due to the amount of rotation θ in the forward direction image. Using the horizontal length W of the forward image, the positioning rotation center (x c , y c ) of the forward image, and the rotation amount θ, and using y ′ 0 calculated by Equation 2, the lateral image is more accurately represented. An initial value of the positioning translation amount in the y direction can be set.

Figure 2005305048
Figure 2005305048

同様に、側方向画像により取得した位置決めパラメータを、正方向画像での位置決め時の評価関数への入力パラメータの初期値として与えても同様な効果がある。   Similarly, the same effect can be obtained even when the positioning parameter acquired from the side direction image is given as the initial value of the input parameter to the evaluation function at the time of positioning in the forward direction image.

この発明の実施の形態1による患者位置決め装置を示すブロック構成図である。It is a block block diagram which shows the patient positioning device by Embodiment 1 of this invention. この発明の実施の形態1による患者位置決め装置における処理手順とその処理結果例を示す図である。It is a figure which shows the process sequence in the patient positioning device by Embodiment 1 of this invention, and the example of the process result. この発明の実施の形態1に係わるエッジ抽出処理を施した場合と施さない場合との骨エッジ画像を示す図である。It is a figure which shows the bone edge image with the case where it does not give with the case where the edge extraction process concerning Embodiment 1 of this invention is given. この発明の実施の形態1による患者位置決め装置における位置決めパラメータに対する相関値マップを示す図である。It is a figure which shows the correlation value map with respect to the positioning parameter in the patient positioning device by Embodiment 1 of this invention. この発明の実施の形態4による患者位置決め方法を説明する図である。It is a figure explaining the patient positioning method by Embodiment 4 of this invention.

符号の説明Explanation of symbols

1 画像入力部、2 画像処理部、3 最適化計算部、4 画像表示部、21 平滑化処理部、22 エッジ抽出処理部、23 ROI領域設定部、24 画像記憶部。   DESCRIPTION OF SYMBOLS 1 Image input part, 2 Image processing part, 3 Optimization calculation part, 4 Image display part, 21 Smoothing process part, 22 Edge extraction process part, 23 ROI area | region setting part, 24 Image storage part

Claims (7)

患者の体内の画像を入力する画像入力部、患者の基準となる体内の画像を参照画像とし、上記参照画像の所定領域の骨エッジ画像を得ると共に、上記患者の治療時の体内の画像を照合画像とし、上記照合画像の骨エッジ画像を得る画像処理部、及び上記参照画像の所定領域の骨エッジ画像と上記照合画像の骨エッジ画像との相対的な移動量を位置決めパラメータとし、この位置決めパラメータを変化させながら、両画像間で正規化相関計算を行い、各位置決めパラメータに対する両画像の相関値を計算すると共に、計算された上記相関値より上記両画像の一致度を評価し、上記照合画像における患者位置決めパラメータの最適値を決定する最適値計算部を備えたことを特徴とする患者位置決め装置。 An image input unit that inputs an image inside the patient's body, and an image inside the body that serves as a reference for the patient is used as a reference image, and a bone edge image of a predetermined region of the reference image is obtained and the image inside the body at the time of treatment of the patient is collated An image processing unit that obtains a bone edge image of the collation image, and a relative movement amount between the bone edge image of a predetermined region of the reference image and the bone edge image of the collation image as a positioning parameter. The correlation between the two images is calculated for each positioning parameter, and the degree of coincidence between the two images is evaluated from the calculated correlation value. A patient positioning apparatus comprising an optimum value calculation unit for determining an optimum value of a patient positioning parameter in the patient. 画像処理部は、参照画像における所定領域を設定するROI領域設定部を有し、少なくとも上記参照画像の所定領域の画像よりエッジ画像を抽出し、上記エッジ画像におけるエッジ幅を細線化すると共に上記エッジ画像より連続した曲線を抽出して上記参照画像の所定領域の骨エッジ画像を得、照合画像よりエッジ画像を抽出し、上記エッジ画像におけるエッジ幅を細線化すると共に上記エッジ画像より連続した曲線を抽出して上記照合画像の骨エッジ画像を得ることを特徴とする請求項1記載の患者位置決め装置。 The image processing unit includes an ROI region setting unit that sets a predetermined region in the reference image, extracts an edge image from at least the image of the predetermined region in the reference image, thins the edge width in the edge image, and Extracting a continuous curve from the image to obtain a bone edge image of a predetermined region of the reference image, extracting an edge image from the collation image, thinning the edge width in the edge image, and a continuous curve from the edge image The patient positioning apparatus according to claim 1, wherein the bone edge image of the collation image is obtained by extraction. 画像処理部において骨エッジ画像を得る際に、画像平面上でエッジ画像の形態学的な膨張処理と収縮処理とを組み合わせた処理を施すことを特徴とする請求項2記載の患者位置決め装置。 3. The patient positioning apparatus according to claim 2, wherein when the bone edge image is obtained in the image processing unit, a process combining a morphological expansion process and a contraction process of the edge image is performed on the image plane. 患者の基準となる体内の画像を参照画像として入力し、上記参照画像の所定領域の骨エッジ画像を得る第1ステップ、上記患者の治療時の体内の画像を照合画像として入力し、上記照合画像の骨エッジ画像を得る第2ステップ、上記参照画像の所定領域の骨エッジ画像と上記照合画像の骨エッジ画像との相対的な移動量を位置決めパラメータとし、この位置決めパラメータを変化させながら、両画像間で正規化相関計算を行い、各位置決めパラメータに対する両画像の相関値を計算する第3ステップ、及び計算された上記相関値より上記両画像の一致度を評価し、上記照合画像における患者位置決めパラメータの最適値を決定する第4ステップを備えたことを特徴とする患者位置決め方法。 A first step of inputting an in-vivo image serving as a reference of a patient as a reference image and obtaining a bone edge image of a predetermined region of the reference image, an in-vivo image during treatment of the patient being input as a verification image, and the verification image A second step of obtaining a bone edge image of the reference image, a relative movement amount between the bone edge image of the predetermined region of the reference image and the bone edge image of the collation image as a positioning parameter, and changing both the positioning parameters A third step of calculating a normalized correlation between the images and calculating a correlation value of both images with respect to each positioning parameter; and evaluating a degree of coincidence between the images based on the calculated correlation value, and determining a patient positioning parameter in the verification image A patient positioning method comprising a fourth step of determining an optimal value of the patient. 第1ステップでは、参照画像における所定領域を設定し、少なくとも上記参照画像の所定領域の画像よりエッジ画像を抽出し、上記エッジ画像におけるエッジ幅を細線化すると共に上記エッジ画像より連続した曲線を抽出して上記参照画像の所定領域の骨エッジ画像を得、第2ステップでは、照合画像よりエッジ画像を抽出し、上記エッジ画像におけるエッジ幅を細線化すると共に上記エッジ画像より連続した曲線を抽出して上記照合画像の骨エッジ画像を得ることを特徴とする請求項4記載の患者位置決め方法。 In the first step, a predetermined region in the reference image is set, an edge image is extracted from at least the image in the predetermined region of the reference image, the edge width in the edge image is thinned, and a continuous curve is extracted from the edge image. In the second step, the edge image is extracted from the collation image, the edge width in the edge image is thinned, and a continuous curve is extracted from the edge image. 5. The patient positioning method according to claim 4, wherein a bone edge image of the collation image is obtained. 位置決めパラメータは並進パラメータと回転パラメータで構成され、上記並進パラメータと回転パラメータのうちの一方のパラメータのみを変化させて相関値を計算し、上記一方のパラメータに対する患者位置決めパラメータの最適値を決定した後、他方のパラメータを変化させて相関値を計算し、上記他方のパラメータに対する患者位置決めパラメータの最適値を決定したことを特徴とする請求項4または5記載の患者位置決め方法。 The positioning parameter is composed of a translation parameter and a rotation parameter. After calculating the correlation value by changing only one of the translation parameter and the rotation parameter, the optimal value of the patient positioning parameter for the one parameter is determined. 6. The patient positioning method according to claim 4, wherein a correlation value is calculated by changing the other parameter to determine an optimum value of the patient positioning parameter with respect to the other parameter. 正方向と側方向に対し、それぞれ患者位置決めを行う方法であって、上記正方向または側方向のうちの一方の照合画像に対して得られた患者位置決めパラメータの最適値を、正方向または側方向のうちの他方の照合画像に対する患者位置決めパラメータの最適値を決定する際に、位置決めパラメータの初期値として用いたことを特徴とする請求項4〜6のいずれかに記載の患者位置決め方法。 A method for positioning a patient in each of a positive direction and a lateral direction, wherein an optimum value of a patient positioning parameter obtained for one of the positive direction and the side direction is set to a positive direction or a side direction 7. The patient positioning method according to claim 4, wherein the patient positioning parameter is used as an initial value of the positioning parameter when determining the optimum value of the patient positioning parameter for the other collation image.
JP2004130138A 2004-04-26 2004-04-26 Apparatus and method for positioning patient Pending JP2005305048A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004130138A JP2005305048A (en) 2004-04-26 2004-04-26 Apparatus and method for positioning patient

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004130138A JP2005305048A (en) 2004-04-26 2004-04-26 Apparatus and method for positioning patient

Publications (1)

Publication Number Publication Date
JP2005305048A true JP2005305048A (en) 2005-11-04

Family

ID=35434462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004130138A Pending JP2005305048A (en) 2004-04-26 2004-04-26 Apparatus and method for positioning patient

Country Status (1)

Country Link
JP (1) JP2005305048A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006175229A (en) * 2004-12-20 2006-07-06 General Electric Co <Ge> Method and system for registering 3d image within interventional system
JP2007282877A (en) * 2006-04-18 2007-11-01 Mitsubishi Electric Corp Positioning device and method of irradiation object part
JP2009201556A (en) * 2008-02-26 2009-09-10 Hitachi Ltd Bed positioning device, bed positioning system and radiotherapy apparatus
JP2013099431A (en) * 2011-11-08 2013-05-23 Natl Inst Of Radiological Sciences Automatic positioning device and method for patient in radiotherapy, and program for automatic positioning for patient
JP2017526415A (en) * 2015-06-05 2017-09-14 チェン シェシャオChen, Chieh Hsiao Intraoperative tracking method
WO2018225234A1 (en) * 2017-06-09 2018-12-13 株式会社島津製作所 Positioning device and positioning method
WO2022107399A1 (en) * 2020-11-19 2022-05-27 株式会社日立製作所 Positioning device, radiotherapy system, and positioning method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006175229A (en) * 2004-12-20 2006-07-06 General Electric Co <Ge> Method and system for registering 3d image within interventional system
JP2007282877A (en) * 2006-04-18 2007-11-01 Mitsubishi Electric Corp Positioning device and method of irradiation object part
JP2009201556A (en) * 2008-02-26 2009-09-10 Hitachi Ltd Bed positioning device, bed positioning system and radiotherapy apparatus
JP2013099431A (en) * 2011-11-08 2013-05-23 Natl Inst Of Radiological Sciences Automatic positioning device and method for patient in radiotherapy, and program for automatic positioning for patient
JP2017526415A (en) * 2015-06-05 2017-09-14 チェン シェシャオChen, Chieh Hsiao Intraoperative tracking method
WO2018225234A1 (en) * 2017-06-09 2018-12-13 株式会社島津製作所 Positioning device and positioning method
JPWO2018225234A1 (en) * 2017-06-09 2020-02-27 株式会社島津製作所 Positioning device and positioning method
WO2022107399A1 (en) * 2020-11-19 2022-05-27 株式会社日立製作所 Positioning device, radiotherapy system, and positioning method

Similar Documents

Publication Publication Date Title
CN107480677B (en) Method and device for identifying interest region in three-dimensional CT image
CN106127730B (en) Automated region of interest detection using machine learning and extended Hough transform
US6381302B1 (en) Computer assisted 2D adjustment of stereo X-ray images
JP4294881B2 (en) Image registration method and apparatus
US8331619B2 (en) Image processing apparatus and image processing method
EP3655924B1 (en) Method and apparatus to generate and track standardized anatomical regions automatically
US7257245B2 (en) Image position matching method and apparatus therefor
JP6564018B2 (en) Radiation image lung segmentation technology and bone attenuation technology
Campomanes-Alvarez et al. Computer vision and soft computing for automatic skull–face overlay in craniofacial superimposition
JP2005339288A (en) Image processor and its method
JP5510619B1 (en) Image processing device
JP2007282877A (en) Positioning device and method of irradiation object part
JP2005169077A (en) Method for finding transformation relating data point of first data set to data point of second data set, and computer program for performing the method
JP4274400B2 (en) Image registration method and apparatus
EP1956553A1 (en) Visual enhancement of interval changes using a temporal subtraction technique.
JP4416823B2 (en) Image processing apparatus, image processing method, and computer program
US9672600B2 (en) Clavicle suppression in radiographic images
JP2005305048A (en) Apparatus and method for positioning patient
US20110058727A1 (en) Radiation imaging apparatus, radiation imaging method, and program
JP2004188202A (en) Automatic analysis method of digital radiograph of chest part
US10413364B1 (en) Internal organ localization of a subject for providing assistance during surgery
Zamora et al. Estimation of orientation and position of cervical vertebrae for segmentation with active shape models
JP5383486B2 (en) Method and apparatus for operating a device for cerebral hemorrhage segmentation
JP7277131B2 (en) Image processing device, image processing method, and program
JP2013017781A (en) Medical image extraction apparatus and medical image extraction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090714