JP6310118B2 - Image processing apparatus, treatment system, and image processing method - Google Patents

Image processing apparatus, treatment system, and image processing method Download PDF

Info

Publication number
JP6310118B2
JP6310118B2 JP2017085183A JP2017085183A JP6310118B2 JP 6310118 B2 JP6310118 B2 JP 6310118B2 JP 2017085183 A JP2017085183 A JP 2017085183A JP 2017085183 A JP2017085183 A JP 2017085183A JP 6310118 B2 JP6310118 B2 JP 6310118B2
Authority
JP
Japan
Prior art keywords
image
likelihood
pixels
pixel
fluoroscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017085183A
Other languages
Japanese (ja)
Other versions
JP2017124300A (en
Inventor
安則 田口
安則 田口
三田 雄志
雄志 三田
隆介 平井
隆介 平井
京佳 杉浦
京佳 杉浦
智行 武口
智行 武口
幸辰 坂田
幸辰 坂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017085183A priority Critical patent/JP6310118B2/en
Publication of JP2017124300A publication Critical patent/JP2017124300A/en
Application granted granted Critical
Publication of JP6310118B2 publication Critical patent/JP6310118B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、医用画像処理装置、治療システム及び医用画像処理方法に関する。   Embodiments described herein relate generally to a medical image processing apparatus, a treatment system, and a medical image processing method.

呼吸、心拍、及び腸の動きなどによって患者の患部が移動する場合の放射線治療法として、待ち伏せ照射法や追尾照射法が知られている。   An ambush irradiation method and a tracking irradiation method are known as radiotherapy methods when the affected part of a patient moves due to breathing, heartbeat, intestinal movement, and the like.

これらの照射法では、患者の体内を透視用のX線で定期的に撮像することで、患者の患部や当該患部付近に留置したマーカの像を含む透視画像を定期的に生成し、テンプレートとのマッチングを行うことで、患部やマーカを追跡し、治療ビームを患部に照射する。テンプレートは、治療計画時などに予め患者の体内を透視用のX線で撮像することで生成したテンプレート作成用の透視画像中において医師や放射線技師などのユーザが登録することで登録する。   In these irradiation methods, by periodically imaging the patient's body with fluoroscopy X-rays, a fluoroscopic image including an image of the affected part of the patient and a marker placed in the vicinity of the affected part is periodically generated, and a template and By performing the matching, the affected part and the marker are tracked, and the affected part is irradiated with the treatment beam. The template is registered when a user such as a doctor or a radiographer registers in a fluoroscopic image for creating a template generated by imaging a patient's body with fluoroscopic X-rays in advance at the time of treatment planning.

または、治療時に定期的に撮像する透視画像に対し背景差分法を施すことでマーカを追跡し、治療ビームを患部に照射する。   Alternatively, the marker is tracked by applying a background subtraction method to a fluoroscopic image periodically imaged at the time of treatment, and the affected part is irradiated with the treatment beam.

米国特許第6307914号明細書US Pat. No. 6,307,914 米国特許出願公開第2005/0059887号明細書US Patent Application Publication No. 2005/0059887

上述した従来技術のように、テンプレート作成用の透視画像中の患部やマーカの像をユーザがテンプレートに登録する手法では、テンプレートを登録するために、被検体に透視用の放射線を照射してテンプレート作成用の透視画像を生成する必要があり、被検体の被曝量が増えてしまう。   As in the prior art described above, in the method in which the user registers an image of an affected area or marker in a fluoroscopic image for creating a template in the template, the template is registered by irradiating the subject with fluoroscopic radiation. It is necessary to generate a fluoroscopic image for creation, and the exposure amount of the subject increases.

特に、被検体の内部における患部やマーカの位置によって透視画像中の患部やマーカの像の形状が異なることに対処するため、テンプレート用の透視画像を異なる時刻で複数撮像し、各テンプレート用の透視画像中の患部やマーカの像をテンプレートに登録する場合には、被検体の被曝量が更に増えてしまう。   In particular, in order to cope with the difference in the shape of the affected part or marker image in the fluoroscopic image depending on the position of the affected part or marker in the subject, a plurality of fluoroscopic images for the template are taken at different times, and the fluoroscopy for each template is taken. When the image of the affected part or marker in the image is registered in the template, the exposure dose of the subject further increases.

また、治療時に撮像する透視画像に対し背景差分法を施すことでマーカの像を検出する手法では、透視画像に含まれるノイズを誤って検出させないために、透視用の放射線を強く照射する必要があり、被検体の被曝量が増えてしまう。なお、背景差分法では、患部そのものを検出することが難しい。   In addition, in the method of detecting a marker image by applying a background subtraction method to a fluoroscopic image captured during treatment, it is necessary to strongly irradiate fluoroscopic radiation in order to prevent erroneous detection of noise included in the fluoroscopic image. Yes, the exposure dose of the subject increases. In the background subtraction method, it is difficult to detect the affected area itself.

本発明が解決しようとする課題は、透視用の放射線による被曝量を低減させることができる医用画像処理装置、治療システム及び医用画像処理方法を提供することである。   The problem to be solved by the present invention is to provide a medical image processing apparatus, a treatment system, and a medical image processing method capable of reducing the exposure dose due to fluoroscopic radiation.

実施形態の医用画像処理装置は、算出部と、検出部と、を備える。算出部は、被検体の内部を透視した透視画像に対し、注目画素毎に、当該注目画素の周辺の2以上の第1画素を含む第1領域と、前記2以上の第1画素とは異なる1以上の第2画素を含む第2領域とを設定し、前記2以上の第1画素の画素値が互いに近く、かつ前記2以上の第1画素の画素値と前記1以上の第2画素の画素値とが離れているほど、値が大きくなる尤度を算出する。検出部は、前記注目画素それぞれの前記尤度に基づいて、前記被検体の内部のオブジェクトの位置を検出する。   The medical image processing apparatus according to the embodiment includes a calculation unit and a detection unit. The calculation unit is different from the two or more first pixels in the first region including two or more first pixels around the target pixel for each target pixel with respect to the fluoroscopic image seen through the inside of the subject. A second region including one or more second pixels, the pixel values of the two or more first pixels are close to each other, and the pixel values of the two or more first pixels and the one or more second pixels The likelihood that the value increases as the distance from the pixel value increases. The detection unit detects a position of an object inside the subject based on the likelihood of each of the target pixels.

本実施形態の治療システムの構成例を示す図。The figure which shows the structural example of the treatment system of this embodiment. 本実施形態の尤度の算出手法例の説明図。Explanatory drawing of the example method of calculating the likelihood of this embodiment. 本実施形態のオブジェクトの像の対応付け手法の例の説明図。Explanatory drawing of the example of the matching method of the image of the object of this embodiment. 本実施形態のオブジェクトの像の対応付け手法の例の説明図。Explanatory drawing of the example of the matching method of the image of the object of this embodiment. 本実施形態の放射線及び治療ビームの照射タイミング例を示すタイミングチャート図。The timing chart figure which shows the irradiation timing example of the radiation and treatment beam of this embodiment. 本実施形態の追跡装置の処理例を示すフローチャート図。The flowchart figure which shows the process example of the tracking apparatus of this embodiment. 変形例1のオブジェクトの像の対応付け手法の例の説明図。Explanatory drawing of the example of the matching method of the image of the object of the modification 1. FIG. 変形例1のオブジェクトの像の対応付け手法の例の説明図。Explanatory drawing of the example of the matching method of the image of the object of the modification 1. FIG. 変形例4の事後確率を用いたオブジェクトの位置の検出手法の例の説明図。Explanatory drawing of the example of the detection method of the position of the object using the posterior probability of the modification 4. FIG. 変形例10のタイミング管理手法の例の説明図。Explanatory drawing of the example of the timing management method of the modification 10. FIG. 本実施形態及び各変形例の治療システムのハードウェア構成例を示すブロック図。The block diagram which shows the hardware structural example of the treatment system of this embodiment and each modification.

以下、添付図面を参照しながら、実施形態を詳細に説明する。   Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

図1は、本実施形態の治療システム1の構成の一例を示す図である。図1に示すように、治療システム1は、寝台110と、第1照射部112、113と、放射線検出部116、117(第1検出部の一例)と、追跡装置100(医用画像処理装置の一例)と、制御部123と、第2照射部120とを、備える。   FIG. 1 is a diagram illustrating an example of a configuration of a treatment system 1 of the present embodiment. As illustrated in FIG. 1, the treatment system 1 includes a bed 110, first irradiation units 112 and 113, radiation detection units 116 and 117 (an example of a first detection unit), and a tracking device 100 (a medical image processing device). An example), a control unit 123, and a second irradiation unit 120.

本実施形態の治療システム1では、寝台110に寝ている被検体111の内部のオブジェクトが被検体111の呼吸、心拍、及び腸の動きなどが原因で3次元的に移動するため、追跡装置100を用いてオブジェクトを追跡し、追跡したオブジェクトに基づいて、被検体111の患部に対し、放射線治療を行う。   In the treatment system 1 of the present embodiment, since the object inside the subject 111 sleeping on the bed 110 moves three-dimensionally due to the breathing, heartbeat, intestinal movement, etc. of the subject 111, the tracking device 100 Is used to track the object, and based on the tracked object, radiation treatment is performed on the affected part of the subject 111.

本実施形態では、被検体111として患者を想定しているが、これに限定されるものではない。またオブジェクトは、被検体111の体内の患部であってもよいし、患部付近に留置されたマーカであってもよい。マーカは、第1照射部112、113から照射される放射線114、115を透過させづらい材質(例えば、金やプラチナ)でできていればよく、例えば、直径2mm程度の球や円筒などの形状とすることができる。なお放射線治療には、X線、γ線、電子線、陽子線、中性子線、及び、重粒子線による治療も含まれるものとする。   In the present embodiment, a patient is assumed as the subject 111, but is not limited thereto. The object may be an affected part in the body of the subject 111 or may be a marker placed in the vicinity of the affected part. The marker only needs to be made of a material (for example, gold or platinum) that is difficult to transmit the radiations 114 and 115 irradiated from the first irradiation units 112 and 113. For example, the marker has a shape such as a sphere or a cylinder having a diameter of about 2 mm. can do. Radiotherapy includes treatment with X-rays, γ-rays, electron beams, proton beams, neutron beams, and heavy particle beams.

また本実施形態では、追跡装置100を放射線治療に用いる例について説明するが、追跡装置100の用途はこれに限定されるものではない。例えば、追跡装置100は、カテーテル検査やステントグラフト治療において、カテーテルやステントグラフトの位置を追跡するために利用できる。または、放射線治療の撮像系の射影行列を求めるためのキャリブレーション時に、キャリブレーション用のファントムに埋め込まれたマーカを検出するためにも利用できる。   In this embodiment, an example in which the tracking device 100 is used for radiation therapy will be described, but the application of the tracking device 100 is not limited to this. For example, the tracking device 100 can be used to track the position of a catheter or stent graft in catheter examination or stent graft treatment. Alternatively, it can also be used to detect a marker embedded in a calibration phantom at the time of calibration for obtaining a projection matrix of an imaging system for radiotherapy.

第1照射部112、113は、それぞれ、被検体111に放射線114、115を照射する。本実施形態では、第1照射部112、113が可動式であることを想定しているが、これに限定されず、固定式であってもよい。なお本実施形態では、第1照射部の台数を2台としているが、これに限定されず、1台としてもよいし、3台以上としてもよい。   The first irradiation units 112 and 113 irradiate the subject 111 with radiation 114 and 115, respectively. In the present embodiment, it is assumed that the first irradiation units 112 and 113 are movable. However, the present invention is not limited to this, and may be a fixed type. In the present embodiment, the number of first irradiation units is two, but is not limited thereto, and may be one or three or more.

放射線114、115は、被検体111の内部の透視用に用いられるものであり、例えば、X線とすることができるが、これに限定されるものではない。   The radiations 114 and 115 are used for fluoroscopy inside the subject 111 and can be, for example, X-rays, but are not limited thereto.

放射線検出部116は、被検体111を透過した放射線114を検出して、被検体111の内部を透視した透視画像118を生成し、タイミング信号131とともに追跡装置100に出力する。放射線検出部117は、被検体111を透過した放射線115を検出して、被検体111の内部を透視した透視画像119を生成し、タイミング信号132とともに追跡装置100に出力する。なお、透視画像118と透視画像119とでは、被検体111の内部の透視方向が異なるものとする。   The radiation detection unit 116 detects the radiation 114 transmitted through the subject 111, generates a fluoroscopic image 118 through which the inside of the subject 111 is seen, and outputs the fluoroscopic image 118 together with the timing signal 131 to the tracking device 100. The radiation detection unit 117 detects the radiation 115 transmitted through the subject 111, generates a fluoroscopic image 119 seen through the inside of the subject 111, and outputs it to the tracking device 100 together with the timing signal 132. It is assumed that the fluoroscopic image 118 and the fluoroscopic image 119 have different fluoroscopic directions inside the subject 111.

放射線検出部116、117は、例えば、イメージインテンシファイアとカメラとの組み合わせ、カラーイメージインテンシファイアとカメラとの組み合わせ、又はフラットパネルディテクタなどにより実現できる。本実施形態では、放射線検出部116、117が可動式であることを想定しているが、これに限定されず、固定式であってもよい。なお本実施形態では、放射線検出部の台数を2台としているが、これに限定されず、第1照射部の台数と同一台数であれば何台であってもよい。   The radiation detection units 116 and 117 can be realized by, for example, a combination of an image intensifier and a camera, a combination of a color image intensifier and a camera, a flat panel detector, or the like. In the present embodiment, it is assumed that the radiation detection units 116 and 117 are movable. However, the present invention is not limited to this and may be fixed. In addition, in this embodiment, although the number of radiation detection parts is set to 2, it is not limited to this, Any number may be sufficient if it is the same number as the number of 1st irradiation parts.

追跡装置100は、被検体111の内部のオブジェクトを追跡するものであり、メモリ101(記憶部の一例)と、算出部102と、検出部103(第2検出部の一例)と、管理部104とを、備える。追跡装置100は、例えば、FPGA(Field Programmable Gate Array)や、CPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)等を備える制御装置などにより実現できる。   The tracking device 100 tracks an object inside the subject 111, and includes a memory 101 (an example of a storage unit), a calculation unit 102, a detection unit 103 (an example of a second detection unit), and a management unit 104. Are provided. The tracking device 100 can be realized by, for example, a control device including a field programmable gate array (FPGA), a central processing unit (CPU), a random access memory (RAM), and a read only memory (ROM).

メモリ101には、管理部104にタイミング信号131が通知されるタイミングで、放射線検出部116から透視画像118が書き込まれ、管理部104にタイミング信号132が通知されるタイミングで、放射線検出部117から透視画像119が書き込まれる。   In the memory 101, the fluoroscopic image 118 is written from the radiation detection unit 116 at the timing when the timing signal 131 is notified to the management unit 104, and from the radiation detection unit 117 at the timing when the timing signal 132 is notified to the management unit 104. A fluoroscopic image 119 is written.

管理部104には、放射線検出部116から、放射線検出部116によるメモリ101への透視画像118の書き込みタイミングを通知するタイミング信号131が送られ、放射線検出部117から、放射線検出部117によるメモリ101への透視画像119の書き込みタイミングを通知するタイミング信号132が送られる。   A timing signal 131 for notifying the writing timing of the fluoroscopic image 118 to the memory 101 by the radiation detection unit 116 is sent from the radiation detection unit 116 to the management unit 104, and the memory 101 by the radiation detection unit 117 is sent from the radiation detection unit 117. A timing signal 132 is sent to notify the writing timing of the fluoroscopic image 119.

管理部104は、タイミング信号131、132に基づいて、メモリ101への透視画像118、119の書き込みタイミングを管理する。また管理部104は、メモリ101の記憶領域のアドレス管理を行う。また管理部104は、メモリ101から算出部102に情報139を送るタイミングを管理するために、タイミング信号138を算出部102に送る。情報139は、透視画像118、119である。   The management unit 104 manages the timing of writing the perspective images 118 and 119 to the memory 101 based on the timing signals 131 and 132. In addition, the management unit 104 performs address management of the storage area of the memory 101. In addition, the management unit 104 sends a timing signal 138 to the calculation unit 102 in order to manage the timing of sending information 139 from the memory 101 to the calculation unit 102. Information 139 is perspective images 118 and 119.

算出部102は、タイミング信号138に基づいて、メモリ101から情報139を取得する。情報139は、上述の通り、透視画像118、119である。算出部102は、透視画像に対し、注目画素毎に、当該注目画素の周辺の2以上の第1画素を含む第1領域と、2以上の第1画素とは異なる1以上の第2画素を含む第2領域とを設定する。   The calculation unit 102 acquires information 139 from the memory 101 based on the timing signal 138. The information 139 is the perspective images 118 and 119 as described above. For each target pixel, the calculation unit 102 calculates, for each target pixel, a first region including two or more first pixels around the target pixel, and one or more second pixels different from the two or more first pixels. The second area to be included is set.

第1領域の形状は、オブジェクトの形状に依存する形状とすることが望ましい。具体的には、第1領域の形状は、透視画像に写るオブジェクトの像の形状とする。例えば、オブジェクトの形状が球であれば、透視画像に写るオブジェクトの像の形状は円となるため、第1領域の形状は、円とする。   The shape of the first region is preferably a shape that depends on the shape of the object. Specifically, the shape of the first region is the shape of the object image shown in the fluoroscopic image. For example, if the shape of the object is a sphere, the shape of the object image shown in the fluoroscopic image is a circle, so the shape of the first region is a circle.

本実施形態では、算出部102は、オブジェクトの形状及びサイズに関するオブジェクト情報と3次元座標を透視画像に射影する射影行列とを取得し、取得したオブジェクト情報と射影行列とを用いて、透視画像に写るオブジェクトの像の形状及びサイズを算出し、当該像の形状及びサイズで第1領域を設定する。算出部102は、例えば事前にユーザが入力したモードを指定する情報に基づいて、オブジェクトの形状又は種類を判定することが可能である。   In the present embodiment, the calculation unit 102 acquires object information related to the shape and size of an object and a projection matrix that projects three-dimensional coordinates onto the perspective image, and uses the acquired object information and projection matrix to generate a perspective image. The shape and size of the image of the captured object are calculated, and the first region is set with the shape and size of the image. The calculation unit 102 can determine the shape or type of the object based on, for example, information designating a mode input by the user in advance.

例えば、オブジェクトが被検体111の患部である場合、治療計画時に撮影したCT画像や、治療計画時より前の診断時に撮影したCT画像から、患部の形状及びサイズを特定できる。但し、CT画像には、医師などのユーザにより患部の3次元的な輪郭が入力されているものとする。なお、治療計画とは、どこにどれだけの治療ビームを届けるかを計算するための計画である。   For example, when the object is an affected part of the subject 111, the shape and size of the affected part can be specified from a CT image taken at the time of treatment planning or a CT image taken at the time of diagnosis before the time of treatment planning. However, it is assumed that a three-dimensional contour of the affected area is input to the CT image by a user such as a doctor. The treatment plan is a plan for calculating where and how many treatment beams are delivered.

このため、オブジェクトが患部である場合、算出部102は、治療計画装置(図1では、図示省略)からCT画像を取得するとともに、後述の制御部123から透視画像の射影行列を取得し、取得したCT画像と射影行列とを用いて、透視画像に写る患部の像の形状及びサイズを算出し、当該像の形状及びサイズで第1領域を設定すればよい。   For this reason, when the object is an affected part, the calculation unit 102 acquires a CT image from the treatment planning apparatus (not shown in FIG. 1), and acquires a projection matrix of a fluoroscopic image from the control unit 123 described later. The shape and size of the image of the affected area shown in the fluoroscopic image may be calculated using the CT image and the projection matrix, and the first region may be set based on the shape and size of the image.

また例えば、オブジェクトが被検体111の患部付近に留置されたマーカである場合、マーカの形状及びサイズは既知であるため、医師や放射線技師などのユーザが入力装置(図1では、図示省略)からマーカの形状及びサイズを入力すればよい。   In addition, for example, when the object is a marker placed near the affected part of the subject 111, the shape and size of the marker are known, so a user such as a doctor or a radiographer can input from an input device (not shown in FIG. 1). What is necessary is just to input the shape and size of a marker.

このため、オブジェクトがマーカである場合、算出部102は、入力装置からマーカの形状及びサイズを取得するとともに、後述の制御部123から透視画像の射影行列を取得し、取得したマーカの形状及びサイズと射影行列とを用いて、透視画像に写るマーカの像の形状及びサイズを算出し、当該像の形状及びサイズで第1領域を設定すればよい。   Therefore, when the object is a marker, the calculation unit 102 acquires the shape and size of the marker from the input device, acquires the projection matrix of the perspective image from the control unit 123 described later, and acquires the shape and size of the acquired marker. And the projection matrix are used to calculate the shape and size of the marker image shown in the fluoroscopic image, and the first region may be set based on the shape and size of the image.

なお算出部102は、オブジェクトがマーカである場合でも、オブジェクトが患部である場合と同様に、CT画像等を用いて透視画像に写るマーカの像の形状及びサイズを算出し、当該像の形状及びサイズで第1領域を設定してもよい。   Note that, even when the object is a marker, the calculation unit 102 calculates the shape and size of the marker image that appears in the fluoroscopic image using a CT image or the like, as in the case where the object is the affected part. The first area may be set by size.

また算出部102は、第1領域の周囲の領域など、第1領域に対しオブジェクトの像が支配的となる場合に、当該オブジェクトの像が支配的とならない領域、即ち、当該オブジェクトの像以外が支配的となる領域を第2領域に設定すればよい。第1領域と第2領域とは、隣接させることが好ましいが、これに限定されず、第1領域と第2領域とを離れさせても、第1領域と第2領域とを重複させることもできる。   In addition, when the image of the object is dominant with respect to the first area, such as an area around the first area, the calculation unit 102 determines a region where the image of the object is not dominant, that is, other than the image of the object. A dominant region may be set as the second region. Although it is preferable that the first region and the second region are adjacent to each other, the present invention is not limited to this, and even if the first region and the second region are separated, the first region and the second region may overlap. it can.

そして算出部102は、注目画素毎に、第1領域を構成する2以上の第1画素の画素値が互いに近く、かつ2以上の第1画素の画素値と第2領域を構成する1以上の第2画素の画素値とが離れているほど値が大きくなる尤度を算出する。尤度は、例えば、2以上の第1画素の画素値と1以上の第2画素の画素値との相関比とすることができるが、これに限定されるものではない。   Then, for each pixel of interest, the calculation unit 102 has pixel values of two or more first pixels constituting the first region close to each other and one or more pixel values of the two or more first pixels and one or more constituting the second region. The likelihood that the value becomes larger as the pixel value of the second pixel is further away is calculated. The likelihood can be, for example, a correlation ratio between the pixel value of two or more first pixels and the pixel value of one or more second pixels, but is not limited thereto.

なお算出部102は、オブジェクトを透視する方向によって透視画像に写るオブジェクトの像の形状が異なる場合には、取り得るオブジェクトの像の形状に合わせて、注目画素毎に、第1領域及び第2領域を複数設定し、設定した第1領域及び第2領域毎に尤度を算出し、最も値が大きい尤度を当該注目画素の尤度としてもよい。   When the shape of the object image shown in the fluoroscopic image differs depending on the direction in which the object is seen through, the calculation unit 102 adjusts the first area and the second area for each target pixel according to the shape of the object image that can be taken. Are set, a likelihood is calculated for each of the set first region and second region, and the likelihood having the largest value may be used as the likelihood of the target pixel.

また算出部102は、オブジェクトを透視する方向によって透視画像に写るオブジェクトの像の形状が異なる場合には、いずれのオブジェクトの像であっても支配的となる領域を第1領域に設定すればよい。   In addition, when the shape of the object image shown in the fluoroscopic image differs depending on the direction of seeing through the object, the calculation unit 102 may set the dominant area as the first area for any object image. .

なお本実施形態では、算出部102は、透視画像118、119それぞれに対し、注目画素毎に、第1領域と第2領域とを設定し、尤度135を算出し、検出部103に出力する。また本実施形態では、透視画像118、119それぞれの各画素が注目画素となる。つまり本実施形態では、算出部102は、透視画像118、119それぞれの各画素について尤度135を算出し、検出部103に出力する。   In this embodiment, the calculation unit 102 sets the first region and the second region for each pixel of interest for each of the perspective images 118 and 119, calculates the likelihood 135, and outputs the likelihood 135 to the detection unit 103. . In the present embodiment, each pixel of the perspective images 118 and 119 is the target pixel. That is, in the present embodiment, the calculation unit 102 calculates the likelihood 135 for each pixel of the perspective images 118 and 119 and outputs the likelihood 135 to the detection unit 103.

図2は、本実施形態の尤度の算出手法の一例の説明図である。図2に示す例では、透視画像118の注目画素200を例に取り尤度の算出手法を説明するが、透視画像118の他の注目画素や透視画像119の注目画素についても尤度の算出手法は同様である。また図2に示す例では、オブジェクトの形状が球であるものとする。   FIG. 2 is an explanatory diagram illustrating an example of a likelihood calculation method according to this embodiment. In the example illustrated in FIG. 2, the likelihood calculation method will be described using the target pixel 200 of the perspective image 118 as an example, but the likelihood calculation method is also applied to other target pixels of the perspective image 118 and the target pixel of the perspective image 119. Is the same. In the example shown in FIG. 2, it is assumed that the shape of the object is a sphere.

図2に示す例では、算出部102は、オブジェクトの形状が球であり、透視画像118に写るオブジェクトの像の形状は円となるため、透視画像118に対し、注目画素200を中心とした円形の第1領域201を設定するとともに、第1領域201を包含する矩形の内部かつ第1領域201の外部を第2領域202に設定している。この場合、第1領域201を構成する画素が第1画素となり、第2領域202を構成する画素が第2画素となる。   In the example illustrated in FIG. 2, since the shape of the object is a sphere and the shape of the image of the object shown in the fluoroscopic image 118 is a circle, the calculation unit 102 has a circular shape centered on the target pixel 200 with respect to the fluoroscopic image 118. The first area 201 is set, and the inside of the rectangle including the first area 201 and the outside of the first area 201 are set as the second area 202. In this case, the pixels constituting the first area 201 are the first pixels, and the pixels constituting the second area 202 are the second pixels.

そして図2に示す例の場合、注目画素200の尤度は、σ /σ で表される。σは、第1領域201と第2領域202の和集合(第1画素と第2画素の和集合)に含まれる全画素の値の標準偏差を示し、σは、数式(1)で表される。 In the case of the example illustrated in FIG. 2, the likelihood of the pixel of interest 200 is represented by σ b 2 / σ t 2 . σ t indicates the standard deviation of the values of all the pixels included in the union set of the first region 201 and the second region 202 (the union set of the first pixel and the second pixel), and σ b is expressed by Equation (1). expressed.

Figure 0006310118
Figure 0006310118

ここで、nは、第1領域201を構成する第1画素の画素数を示し、nは、第2領域202を構成する第2画素の画素数を示し、nは、第1領域201と第2領域202の和集合(第1画素と第2画素の和集合)に含まれる画素の画素数を示す。mは、第1領域201を構成する第1画素の画素値の平均値を示し、mは、第2領域202を構成する第2画素の画素値の平均値を示し、mは、第1領域201と第2領域202の和集合(第1画素と第2画素の和集合)に含まれる画素の画素値の平均値を示す。 Here, n 1 represents the number of pixels of the first pixel constituting the first region 201, n 2 represents the number of pixels of the second pixel constituting the second region 202, and n t represents the first region. 201 shows the number of pixels included in the union of 201 and the second region 202 (the union of the first pixel and the second pixel). m 1 represents an average of the pixel values of the first pixels constituting the first region 201, m 2 represents the average of the pixel values of the second pixel constituting the second region 202, m t is The average value of the pixel values included in the union set of the first region 201 and the second region 202 (the union set of the first pixel and the second pixel) is shown.

つまり、σ /σ は、第1領域201を構成する第1画素の画素値の集合と第2領域202を構成する第2画素の画素値の集合との相関比となる。 That is, σ b 2 / σ t 2 is a correlation ratio between a set of pixel values of the first pixels constituting the first area 201 and a set of pixel values of the second pixels constituting the second area 202.

なお、σ /σ は、0から1の値をとり、第1領域201を構成する第1画素の画素値が互いに近く、かつ第1領域201を構成する第1画素の画素値と第2領域202を構成する第2画素の画素値とが離れているほど値が大きくなる(値が1に近くなる)。 Σ b 2 / σ t 2 takes a value from 0 to 1, and the pixel values of the first pixels constituting the first region 201 are close to each other, and the pixel values of the first pixel constituting the first region 201 And the value of the second pixel constituting the second region 202 increases as the distance between them increases (the value approaches 1).

従って、第1領域201に対しオブジェクトの像が支配的となり、第2領域202に対しオブジェクト以外の像が支配的となる場合に、σ /σ の値が大きくなる。一方、第1領域201、第2領域202ともに、同じ組成のものの像が支配的となれば、σ /σ の値が小さくなる(値が0に近くなる)。 Therefore, when the image of the object is dominant with respect to the first region 201 and the image other than the object is dominant with respect to the second region 202, the value of σ b 2 / σ t 2 becomes large. On the other hand, if the image of the same composition becomes dominant in both the first region 201 and the second region 202, the value of σ b 2 / σ t 2 decreases (the value approaches 0).

特に本実施形態では、透視画像に写るオブジェクトの像(図2に示す例では、円)の形状及びサイズで第1領域を設定しているため、オブジェクトの像と第1領域201とが合致した場合、オブジェクトの像と第1領域201とが合致していない場合と比べ、σ /σ の値が顕著に大きくなる。 In particular, in the present embodiment, since the first area is set with the shape and size of the object image (circle in the example shown in FIG. 2) in the perspective image, the object image and the first area 201 match. In this case, the value of σ b 2 / σ t 2 is significantly increased as compared with the case where the object image and the first region 201 do not match.

なお、σ =σ +σ と定義すると、数式(2)が成立するため、1/((σ /σ )+1)によってもσ /σ を計算できる。σ /σ の分母σ は0になり得るため、σ /(σ +ε)を注目画素200の尤度としてもよい。なお、εは正の小さい値である。σ /σ の分母σ は0になり得るため、1/((σ /(σ +ε))+1)を注目画素200の尤度としてもよい。 If σ w 2 = σ t 2 + σ b 2 is defined, Equation (2) is satisfied, and therefore σ b 2 / σ t 2 is also calculated by 1 / ((σ w 2 / σ b 2 ) +1). it can. Since the denominator σ t 2 of σ b 2 / σ t 2 can be 0, σ b 2 / (σ t 2 + ε) may be set as the likelihood of the target pixel 200. Note that ε is a small positive value. Since the denominator σ b 2 of σ w 2 / σ b 2 can be 0, 1 / ((σ w 2 / (σ b 2 + ε)) + 1) may be set as the likelihood of the target pixel 200.

Figure 0006310118
Figure 0006310118

また図2に示す例では、注目画素200の尤度(σ /σ )を、第1領域201を構成する第1画素の画素値の集合と第2領域202を構成する第2画素の画素値の集合との相関比としたが、第1画素の画素値が互いに近く、かつ第1画素の画素値と第2画素の画素値とが離れているほど、値が大きくなれば、相関比でなくてもよい。 In the example shown in FIG. 2, the likelihood (σ b 2 / σ t 2 ) of the target pixel 200 is set as the set of pixel values of the first pixel that forms the first region 201 and the second that forms the second region 202. Although the correlation ratio with the set of pixel values of the pixels is used, if the pixel values of the first pixel are closer to each other and the pixel values of the first pixel and the second pixel are farther apart, The correlation ratio may not be used.

例えば、第1領域201を構成する第1画素の画素値が互いに近く、第1画素の画素値が放射線の透過率が低いことを表し、かつ第1画素の画素値と第2画素の画素値とが離れているほど、値が大きくなる尤度であってもよい。   For example, the pixel values of the first pixels constituting the first region 201 are close to each other, the pixel values of the first pixels indicate that the radiation transmittance is low, and the pixel values of the first pixel and the second pixel The likelihood that the value increases as the distance between and increases.

但し、透視画像は濃淡を逆転させる場合もあり、放射線の透過率が低い場合に画素の値が小さくなる場合もあれば、大きくなる場合もあるので、放射線の透過率が低い場合に値が大きくなる尤度は、透視画像の仕様に応じて設計する必要がある。このため、放射線の透過率が低い場合に画素値が小さくなる透過画像の場合、mが所定の閾値未満の場合の尤度を0または小さい正の値εとし、mが所定の閾値以上の場合の尤度をσ /σ とすればよい。 However, in a fluoroscopic image, the density may be reversed, and the pixel value may be small or large when the radiation transmittance is low, so the value is large when the radiation transmittance is low. It is necessary to design the likelihood according to the specifications of the fluoroscopic image. Therefore, in the case of a transmission image in which the pixel value is small when the radiation transmittance is low, the likelihood when m 1 is less than a predetermined threshold is set to 0 or a small positive value ε, and m 1 is equal to or greater than the predetermined threshold. In this case, the likelihood may be σ b 2 / σ t 2 .

検出部103は、算出部102により算出された透視画像の注目画素それぞれの尤度に基づいて、被検体111の内部のオブジェクトの位置を検出する。具体的には、検出部103は、値の大きさが所定条件を満たす尤度の注目画素に、オブジェクトの像が位置することを検出する。   The detection unit 103 detects the position of the object inside the subject 111 based on the likelihood of each target pixel of the fluoroscopic image calculated by the calculation unit 102. Specifically, the detection unit 103 detects that the image of the object is located at a target pixel having a likelihood that the value satisfies a predetermined condition.

本実施形態では、検出部103は、3次元座標を透視画像118に射影する射影行列及び3次元座標を透視画像119に射影する射影行列を取得し、透視画像118、119それぞれについて、注目画素それぞれの尤度135のうち、値の大きさが所定条件を満たす尤度の注目画素を検出する。   In the present embodiment, the detection unit 103 acquires a projection matrix for projecting the three-dimensional coordinates onto the perspective image 118 and a projection matrix for projecting the three-dimensional coordinates onto the perspective image 119, and each of the target pixels for each of the perspective images 118 and 119. Among the likelihoods 135, a target pixel having a likelihood that the magnitude of the value satisfies a predetermined condition is detected.

これにより、検出部103は、透視画像118、119それぞれについて、検出した注目画素上にオブジェクトの像が位置することを検出する。なお、透視画像118、119それぞれの射影行列は、後述の制御部123から取得できる。また所定条件は、値が最も大きい、値が閾値を超えている、又は、値が閾値を超え、かつ最も大きいなどとすることができる。   Thereby, the detection unit 103 detects that the image of the object is positioned on the detected target pixel for each of the perspective images 118 and 119. Note that the projection matrices of the perspective images 118 and 119 can be acquired from the control unit 123 described later. Further, the predetermined condition may be that the value is the largest, the value exceeds the threshold, or the value exceeds the threshold and is the largest.

そして検出部103は、透視画像118、119それぞれの射影行列及び透視画像118、119それぞれから検出した注目画素を用いて、オブジェクトの3次元位置を検出する。例えば、検出部103は、透視画像118、119それぞれの射影行列を用いたエピポーラ幾何によって、透視画像118、119それぞれから検出した注目画素(オブジェクトの像)から、オブジェクトの3次元位置を算出し、算出した3次元位置を示す位置情報122を制御部123に出力する。   Then, the detection unit 103 detects the three-dimensional position of the object using the projection matrix of each of the perspective images 118 and 119 and the target pixel detected from each of the perspective images 118 and 119. For example, the detection unit 103 calculates the three-dimensional position of the object from the pixel of interest (image of the object) detected from each of the perspective images 118 and 119 by epipolar geometry using the projection matrix of each of the perspective images 118 and 119, Position information 122 indicating the calculated three-dimensional position is output to the control unit 123.

なお、被検体111の内部にオブジェクトが複数存在する場合、検出部103は、透視画像118、119それぞれについて、複数のオブジェクトの像それぞれの存在が期待される第3領域を示す領域情報を取得する。   When there are a plurality of objects inside the subject 111, the detection unit 103 acquires, for each of the perspective images 118 and 119, region information indicating a third region where each of the plurality of object images is expected to exist. .

例えば、前述のCT画像において、医師などのユーザによりオブジェクト毎の第3領域が入力されていれば、検出部103は、前述の治療計画装置(図1では、図示省略)から、透視画像118、119それぞれに対応するCT画像を領域情報として取得する。   For example, in the above-described CT image, if a third region for each object is input by a user such as a doctor, the detection unit 103 may transmit the fluoroscopic image 118, from the above-described treatment planning apparatus (not shown in FIG. 1). A CT image corresponding to each 119 is acquired as region information.

また例えば、透視画像118、119に対し、医師や放射線技師などのユーザによりオブジェクト毎の第3領域が入力されるのであれば、検出部103は、算出部102から透視画像118、119を取得することで、領域情報を取得する。   For example, if a third region for each object is input to the fluoroscopic images 118 and 119 by a user such as a doctor or a radiographer, the detection unit 103 acquires the fluoroscopic images 118 and 119 from the calculation unit 102. Thus, the area information is acquired.

この場合、表示装置(図1では、図示省略)に表示されている透視画像118、119に対し、ユーザにマウスのクリックやタッチパネル操作で点を指定させ、指定された点の周囲の領域を第3領域とすればよい。このようにすれば、透視画像118、119が動画として再生されている場合であっても、ユーザは簡易に第3領域を入力できる。   In this case, with respect to the perspective images 118 and 119 displayed on the display device (not shown in FIG. 1), the user designates a point by clicking the mouse or touching the touch panel, and the region around the designated point is changed to the first region. Three regions may be used. In this way, even if the perspective images 118 and 119 are reproduced as moving images, the user can easily input the third region.

次に検出部103は、透視画像118、119それぞれについて、注目画素それぞれの尤度135のうち、値の大きさが所定条件を満たす尤度の注目画素を複数検出する。なお所定条件は、値の大きさの順位が上位オブジェクト数に収まる、値が閾値を超えている、又は、値が閾値を超え、かつ値の大きさの順位が上位オブジェクト数に収まるなどとすることがきる。   Next, for each of the perspective images 118 and 119, the detection unit 103 detects a plurality of target pixels having a likelihood that the magnitude of the value satisfies a predetermined condition from the likelihood 135 of each target pixel. The predetermined condition is that the rank of the value size falls within the upper object number, the value exceeds the threshold value, or the value exceeds the threshold value, and the rank of the value size falls within the upper object number. I can do it.

次に検出部103は、透視画像118の領域情報を用いて透視画像118から検出した複数の注目画素それぞれがいずれの第3領域に存在するかを検出するとともに、透視画像119の領域情報を用いて透視画像119から検出した複数の注目画素それぞれがいずれの第3領域に存在するかを検出して、透視画像118、119それぞれで検出された複数の注目画素(複数のオブジェクトの像)を透視画像118、119間で対応付ける。   Next, the detection unit 103 uses the region information of the perspective image 118 to detect in which third region each of the plurality of target pixels detected from the perspective image 118 exists, and uses the region information of the perspective image 119. By detecting in which third region each of the plurality of pixels of interest detected from the perspective image 119 exists, the plurality of pixels of interest (images of a plurality of objects) detected in the respective perspective images 118 and 119 are seen through. The images 118 and 119 are associated with each other.

次に検出部103は、透視画像118、119それぞれの射影行列及び透視画像118、119それぞれから検出され、透視画像118、119間で対応付けられた複数の注目画素(複数のオブジェクトの像)を用いて、複数のオブジェクトの3次元位置を検出する。   Next, the detection unit 103 detects a plurality of pixels of interest (images of a plurality of objects) detected from the projection matrixes of the perspective images 118 and 119 and the perspective images 118 and 119, respectively, and correlated between the perspective images 118 and 119. Used to detect the three-dimensional position of a plurality of objects.

図3A及び図3Bは、本実施形態のオブジェクトの像の対応付け手法の一例の説明図である。図3A及び図3Bに示す例では、オブジェクトの数が3つであり、図3Aに示すように、透視画像118では、3つのオブジェクトの像がそれぞれ位置する注目画素301、302、303が検出され、図3Bに示すように、透視画像119では、3つのオブジェクトの像がそれぞれ位置する注目画素311、312、313が検出されている。   3A and 3B are explanatory diagrams illustrating an example of an object image association method according to the present embodiment. In the example shown in FIGS. 3A and 3B, the number of objects is three. As shown in FIG. 3A, the target image 301, 302, 303 in which the three object images are located is detected in the perspective image 118. As shown in FIG. 3B, in the perspective image 119, target pixels 311, 312, and 313 in which images of three objects are located are detected.

この場合、検出部103は、透視画像118の領域情報を用いて透視画像118から検出した注目画素301、302、303それぞれがいずれの第3領域に存在するかを検出するとともに、透視画像119の領域情報を用いて透視画像119から検出した注目画素311、312、313それぞれがいずれの第3領域に存在するかを検出する。   In this case, the detection unit 103 detects in which third region each of the target pixels 301, 302, and 303 detected from the perspective image 118 using the region information of the perspective image 118, and It is detected in which third region each of the target pixels 311, 312, and 313 detected from the perspective image 119 exists using the region information.

例えば、透視画像118、119の領域情報には、それぞれ、ID=1〜3の第3領域が示されており、ここでは、注目画素301は、透視画像118のID=1の第3領域に存在し、注目画素302は、透視画像118のID=2の第3領域に存在し、注目画素303は、透視画像118のID=3の第3領域に存在し、注目画素311は、透視画像119のID=1の第3領域に存在し、注目画素312は、透視画像119のID=2の第3領域に存在し、注目画素313は、透視画像119のID=3の第3領域に存在するものとする。なお、透視画像118、119において、IDが一致する第3領域は同一領域である。   For example, the region information of the perspective images 118 and 119 indicates the third region with ID = 1 to 3, respectively. Here, the target pixel 301 is in the third region with ID = 1 of the perspective image 118. The target pixel 302 exists in the third region with ID = 2 of the perspective image 118, the target pixel 303 exists in the third region with ID = 3 of the perspective image 118, and the target pixel 311 exists in the perspective image The target pixel 312 exists in the third region of ID = 2 of the fluoroscopic image 119, and the target pixel 313 exists in the third region of ID = 3 of the fluoroscopic image 119. It shall exist. Note that, in the perspective images 118 and 119, the third regions having the same ID are the same region.

このため、検出部103は、透視画像118、119間で、注目画素301と注目画素311、注目画素302と注目画素312、及び注目画素303と注目画素313を、対応付ける。   Therefore, the detection unit 103 associates the target pixel 301 and the target pixel 311, the target pixel 302 and the target pixel 312, and the target pixel 303 and the target pixel 313 between the perspective images 118 and 119.

これにより、オブジェクトが複数存在する場合であっても、透視画像118、119間で同一オブジェクトの像を対応付けることができ、当該オブジェクトの3次元位置の算出が可能となる。   Thereby, even when there are a plurality of objects, images of the same object can be associated between the perspective images 118 and 119, and the three-dimensional position of the object can be calculated.

制御部123は、検出部103からの位置情報122に基づいて、制御信号128を第2照射部120に出力し、第2照射部120によるオブジェクト(患部)への治療ビーム121の照射を制御する。   The control unit 123 outputs a control signal 128 to the second irradiation unit 120 based on the position information 122 from the detection unit 103, and controls irradiation of the treatment beam 121 to the object (affected site) by the second irradiation unit 120. .

制御信号128は、待ち伏せ照射法の場合、第2照射部120による治療ビーム121の照射タイミングを制御する信号であり、追尾照射法の場合、オブジェクト(患部)の位置情報である。   The control signal 128 is a signal for controlling the irradiation timing of the treatment beam 121 by the second irradiation unit 120 in the case of the ambush irradiation method, and is position information of the object (affected part) in the case of the tracking irradiation method.

また制御部123は、タイミング信号124、125、126、127を、それぞれ、第1照射部112、113、放射線検出部116、117に出力し、第1照射部112、113、及び放射線検出部116、117の動作タイミングを制御する。   In addition, the control unit 123 outputs timing signals 124, 125, 126, and 127 to the first irradiation units 112 and 113 and the radiation detection units 116 and 117, respectively, and the first irradiation units 112 and 113, and the radiation detection unit 116, respectively. 117, the operation timing is controlled.

また制御部123は、第1照射部112、113、及び放射線検出部116、117を制御して透視画像118、119の試験生成(撮像)などを行うことで、透視画像118、119の射影行列を予め生成し、保持しておく。   In addition, the control unit 123 controls the first irradiation units 112 and 113 and the radiation detection units 116 and 117 to perform test generation (imaging) of the perspective images 118 and 119, thereby projecting the projection matrix of the perspective images 118 and 119. Is generated and held in advance.

制御部123は、例えば、CPU、RAM、及びROM等を備える制御装置などにより実現できる。なお、追跡装置100も制御装置で実現する場合、追跡装置100と制御部123とを同一の制御装置で実現してもよいし、異なる制御装置で実現してもよい。   The control unit 123 can be realized by, for example, a control device including a CPU, a RAM, a ROM, and the like. When the tracking device 100 is also realized by a control device, the tracking device 100 and the control unit 123 may be realized by the same control device or may be realized by different control devices.

第2照射部120は、検出部103により検出されたオブジェクトの3次元位置に基づいて、オブジェクト(患部)に治療ビーム121を照射する。具体的には、第2照射部120は、制御部123からの制御信号128に基づいて、オブジェクト(患部)に治療ビーム121を照射する。   The second irradiation unit 120 irradiates the treatment beam 121 to the object (affected part) based on the three-dimensional position of the object detected by the detection unit 103. Specifically, the second irradiation unit 120 irradiates the treatment beam 121 to the object (affected part) based on the control signal 128 from the control unit 123.

本実施形態では、治療ビーム121が、重粒子線であることを想定しているが、これに限定されず、X線、γ線、電子線、陽子線、及び中性子線などであってもよい。   In the present embodiment, it is assumed that the treatment beam 121 is a heavy particle beam, but is not limited thereto, and may be an X-ray, a γ-ray, an electron beam, a proton beam, a neutron beam, or the like. .

図4は、本実施形態の放射線114、115及び治療ビーム121の照射タイミングの一例を示すタイミングチャート図である。   FIG. 4 is a timing chart showing an example of irradiation timings of the radiations 114 and 115 and the treatment beam 121 according to this embodiment.

本実施形態では、放射線114、115及び治療ビーム121を同時に照射すると、放射線の散乱の影響で、透視画像118、119がノイジーになるため、制御部123は、放射線114、115及び治療ビーム121それぞれが独立に照射されるように、第1照射部112、113及び第2照射部120を制御する。   In the present embodiment, when the radiations 114 and 115 and the treatment beam 121 are irradiated simultaneously, the fluoroscopic images 118 and 119 become noisy due to the influence of the scattering of the radiation. 1st irradiation parts 112 and 113 and the 2nd irradiation part 120 are controlled so that may be irradiated independently.

例えば、1秒に各方向から30回照射を行う場合、制御部123は、図4に示すように、1/30秒ごとに、放射線114、115及び治療ビーム121を独立に照射するように、第1照射部112、113及び第2照射部120を制御する。なお、時間401、402は、1/30秒を示している。   For example, when performing irradiation 30 times from each direction in 1 second, as shown in FIG. 4, the control unit 123 irradiates the radiation 114, 115 and the treatment beam 121 independently every 1/30 seconds. The first irradiation units 112 and 113 and the second irradiation unit 120 are controlled. Times 401 and 402 indicate 1/30 seconds.

図5は、本実施形態の追跡装置100の処理の一例を示すフローチャート図である。   FIG. 5 is a flowchart illustrating an example of processing of the tracking device 100 according to the present embodiment.

まず、メモリ101に、放射線検出部116から透視画像118が書き込まれ、放射線検出部117から透視画像119が書き込まれる(ステップS101)。   First, the fluoroscopic image 118 is written from the radiation detection unit 116 and the fluoroscopic image 119 is written from the radiation detection unit 117 to the memory 101 (step S101).

続いて、算出部102は、メモリ101から情報139(透視画像118、119)を読み出し、透視画像118、119それぞれに対し、注目画素毎に、第1領域と第2領域とを設定し、尤度135を算出する(ステップS103)。   Subsequently, the calculation unit 102 reads information 139 (the perspective images 118 and 119) from the memory 101, sets the first region and the second region for each target pixel for each of the perspective images 118 and 119, and the likelihood. The degree 135 is calculated (step S103).

続いて、検出部103は、透視画像118、119それぞれについて、値の大きさが所定条件を満たす尤度の注目画素を検出し、透視画像118、119それぞれの射影行列及び透視画像118、119それぞれから検出した注目画素を用いて、オブジェクトの3次元位置を検出する(ステップS105)。   Subsequently, for each of the perspective images 118 and 119, the detection unit 103 detects a target pixel having a likelihood that the value satisfies a predetermined condition, and the projection matrix of each of the perspective images 118 and 119 and the perspective images 118 and 119, respectively. The three-dimensional position of the object is detected using the target pixel detected from (Step S105).

オブジェクトの3次元位置の追跡を続行する場合(ステップS107でNo)、ステップS101に戻り、オブジェクトの3次元位置の追跡を終了する場合(ステップS107でYes)、処理を終了する。   When the tracking of the three-dimensional position of the object is continued (No in step S107), the process returns to step S101, and when the tracking of the three-dimensional position of the object is ended (Yes in step S107), the process is ended.

以上のように、本実施形態によれば、治療時に生成される透視画像からオブジェクトの位置を検出できるため、テンプレート登録などオブジェクトの位置検出のための事前の放射線による透視が不要となり、透視用の放射線による被検体の被曝量を低減させることができる。   As described above, according to the present embodiment, since the position of the object can be detected from the fluoroscopic image generated at the time of treatment, it is not necessary to perform fluoroscopy in advance for detecting the position of the object such as template registration. The exposure dose of the subject due to radiation can be reduced.

また本実施形態のように、尤度に相関比を用いた場合、当該尤度はノイズに頑健なため、透視用の放射線の強度を弱めてもオブジェクトを検出でき、透視用の放射線による被検体の被曝量を低減させることができる。   In addition, when the correlation ratio is used for the likelihood as in this embodiment, since the likelihood is robust to noise, the object can be detected even if the intensity of the fluoroscopic radiation is weakened, and the subject due to the fluoroscopic radiation Can be reduced.

(変形例1)
上記実施形態では、被検体111の内部にオブジェクトが複数存在する場合、検出部103は、透視画像118、119それぞれの領域情報を用いて、透視画像118、119間で同一オブジェクトの像を対応付けたが、変形例1では、エピポーラ幾何により透視画像118、119間で同一オブジェクトの像を対応付ける例について説明する。
(Modification 1)
In the above embodiment, when there are a plurality of objects in the subject 111, the detection unit 103 associates the images of the same object between the perspective images 118 and 119 using the area information of the perspective images 118 and 119, respectively. However, in the first modification, an example in which images of the same object are associated between the perspective images 118 and 119 by epipolar geometry will be described.

この場合、検出部103は、透視画像118、119それぞれの射影行列を用いたエピポーラ幾何によって、透視画像118、119それぞれで検出された複数の注目画素(複数のオブジェクトの像)を透視画像118、119間で対応付ければよい。   In this case, the detection unit 103 converts the plurality of target pixels (images of a plurality of objects) detected in the perspective images 118 and 119 by the epipolar geometry using the projection matrices of the perspective images 118 and 119, respectively. 119 may be associated with each other.

図6A及び図6Bは、変形例1のオブジェクトの像の対応付け手法の一例の説明図である。図6A及び図6Bに示す例では、オブジェクトの数が3つであり、図6Aに示すように、透視画像118では、3つのオブジェクトの像がそれぞれ位置する注目画素301、302、303が検出され、図6Bに示すように、透視画像119では、3つのオブジェクトの像がそれぞれ位置する注目画素311、312、313が検出されている。   6A and 6B are explanatory diagrams of an example of an object image association method according to the first modification. In the example shown in FIGS. 6A and 6B, the number of objects is three. As shown in FIG. 6A, the target image 301, 302, 303 in which the three object images are located is detected in the perspective image 118. As shown in FIG. 6B, in the perspective image 119, target pixels 311, 312, and 313 in which three object images are respectively detected are detected.

なお、図6A及び図6Bに示す例では、透視画像118の注目画素302の対応付け手法について説明するが、透視画像118の注目画素301、303についても同様の手法で対応付けできる。   In the example illustrated in FIGS. 6A and 6B, a method of associating the target pixel 302 of the perspective image 118 will be described. However, the target pixels 301 and 303 of the fluoroscopic image 118 can also be associated by the same method.

検出部103は、注目画素302及び透視画像118、119それぞれの射影行列を用いて、注目画素302に対応する透視画像119のエピポーラ線602を算出する。そして検出部103は、エピポーラ線602に対する注目画素311、312、313それぞれの射影長(垂線の長さ)を算出し、射影長が最も短い注目画素312を注目画素302と対応付ける。   The detection unit 103 calculates the epipolar line 602 of the perspective image 119 corresponding to the target pixel 302 using the projection matrix of each of the target pixel 302 and the perspective images 118 and 119. Then, the detection unit 103 calculates the projection length (perpendicular length) of each of the target pixels 311, 312, and 313 with respect to the epipolar line 602, and associates the target pixel 312 with the shortest projection length with the target pixel 302.

これにより、オブジェクトが複数存在する場合であっても、透視画像118、119間で同一オブジェクトの像を対応付けることができ、当該オブジェクトの3次元位置の算出が可能となる。   Thereby, even when there are a plurality of objects, images of the same object can be associated between the perspective images 118 and 119, and the three-dimensional position of the object can be calculated.

なお図6A及び図6Bに示す例では、最小の射影長と2番目に小さい射影長との差が大きいため、対応付けを誤る可能性は少ないが、最小の射影長と2番目に小さい射影長との差が小さい場合、対応付けを誤る可能性がある。この場合、対応付けの判断を次フレームに先送りしてもよい。   In the example shown in FIGS. 6A and 6B, since the difference between the minimum projection length and the second smallest projection length is large, there is little possibility of incorrect association, but the minimum projection length and the second smallest projection length. If the difference between is small, there is a possibility that the correspondence is incorrect. In this case, the association determination may be postponed to the next frame.

(変形例2)
上記実施形態では、透視画像の各画素を注目画素として尤度を算出したが、変形例2では、透視画像において、オブジェクトの像の存在が期待される第3領域を構成する各画素を注目画素として尤度を算出する例について説明する。
(Modification 2)
In the above embodiment, the likelihood is calculated using each pixel of the fluoroscopic image as the target pixel. However, in Modification 2, each pixel constituting the third region in which the presence of the image of the object is expected is the target pixel in the fluoroscopic image. An example of calculating the likelihood will be described.

この場合、算出部102は、透視画像においてオブジェクトの像の存在が期待される第3領域を示す領域情報を取得し、領域情報が示す第3領域において、注目画素毎に尤度を算出するようにすればよい。領域情報は、上記実施形態と同様の手法で取得すればよい。   In this case, the calculation unit 102 acquires area information indicating a third area where an object image is expected to be present in the perspective image, and calculates the likelihood for each target pixel in the third area indicated by the area information. You can do it. The area information may be acquired by the same method as in the above embodiment.

変形例2によれば、透視画像の一部の画素で尤度を算出すれば足りるため、尤度算出時間を短縮することができる。この結果、治療ビームを照射すべきタイミングまでに尤度の算出を終わらせる確率を高めることができ、尤度の算出が終わらずに治療ビームを照射できない事態を低減でき、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。また、透視画像の生成(撮像)から治療ビーム照射までの時間を短縮できる。   According to the modified example 2, since it is sufficient to calculate the likelihood with some pixels of the fluoroscopic image, the likelihood calculation time can be shortened. As a result, it is possible to increase the probability that the calculation of the likelihood is finished by the timing when the treatment beam should be irradiated, reduce the situation where the treatment beam cannot be irradiated without the calculation of the likelihood, and generate a fluoroscopic image (imaging) ) The number of times can be reduced, and the exposure amount of the subject by fluoroscopic radiation can be reduced. In addition, the time from the generation (imaging) of the fluoroscopic image to the treatment beam irradiation can be shortened.

なお変形例2の手法は、透視画像のフレームレートが高いほど有効である。   Note that the technique of Modification 2 is more effective as the perspective image frame rate is higher.

(変形例3)
上記実施形態では、透視画像の各画素を注目画素として尤度を算出したが、変形例3では、透視画像において、一旦、オブジェクトの像を検出した後は、所定運動モデルに基づいて、オブジェクトの像の存在が期待される第4領域(オブジェクトの像の移動先)を予測し、予測した第4領域を構成する各画素を注目画素として尤度を算出する例について説明する。
(Modification 3)
In the above-described embodiment, the likelihood is calculated using each pixel of the fluoroscopic image as a target pixel. However, in Modification 3, once the image of the object is detected in the fluoroscopic image, the likelihood of the object is determined based on a predetermined motion model. An example will be described in which a fourth region (a destination of an object image) where an image is expected is predicted, and likelihood is calculated using each pixel constituting the predicted fourth region as a target pixel.

この場合、算出部102は、所定運動モデルに基づいて、透視画像においてオブジェクトの像の存在が期待される第4領域を予測し、当該第4領域において、注目画素毎に尤度を算出するようにすればよい。所定運動モデルは、例えば、等速度運動モデルや等加速度運動モデルである。   In this case, the calculation unit 102 predicts a fourth region in which an object image is expected to exist in the fluoroscopic image based on the predetermined motion model, and calculates the likelihood for each target pixel in the fourth region. You can do it. The predetermined motion model is, for example, a constant velocity motion model or a constant acceleration motion model.

変形例3によれば、透視画像の一部の画素で尤度を算出すれば足りるため、尤度算出時間を短縮することができる。この結果、治療ビームを照射すべきタイミングまでに尤度の算出を終わらせる確率を高めることができ、尤度の算出が終わらずに治療ビームを照射できない事態を低減でき、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。また、透視画像の生成(撮像)から治療ビーム照射までの時間を短縮できる。   According to the modified example 3, since it is sufficient to calculate the likelihood with a part of the pixels of the fluoroscopic image, the likelihood calculation time can be shortened. As a result, it is possible to increase the probability that the calculation of the likelihood is finished by the timing when the treatment beam should be irradiated, reduce the situation where the treatment beam cannot be irradiated without the calculation of the likelihood, and generate a fluoroscopic image (imaging) ) The number of times can be reduced, and the exposure amount of the subject by fluoroscopic radiation can be reduced. In addition, the time from the generation (imaging) of the fluoroscopic image to the treatment beam irradiation can be shortened.

なお変形例3の手法は、透視画像のフレームレートが高いほど有効である。   Note that the technique of Modification 3 is more effective as the frame rate of the fluoroscopic image is higher.

(変形例4)
変形例3では、所定運動モデルに基づいて予測した第4領域で尤度を算出したが、変形例4では、第4領域の尤度に加え、所定運動モデルに基づく事前確率も用いて、オブジェクトの位置を検出する例について説明する。
(Modification 4)
In the modified example 3, the likelihood is calculated in the fourth region predicted based on the predetermined motion model. However, in the modified example 4, in addition to the likelihood of the fourth region, the prior probability based on the predetermined motion model is also used. An example of detecting the position of will be described.

この場合、検出部103は、オブジェクトの像が所定運動モデルに基づいて移動する位置に近いほど値が大きくなる事前確率を第4領域に設定し、注目画素それぞれの尤度と事前確率とに基づいて、オブジェクトの位置を検出すればよい。例えば、検出部103は、注目画素それぞれの尤度と事前確率とを乗じた事後確率を算出し、算出した事後確率に基づいて、オブジェクトの位置を検出すればよい。   In this case, the detection unit 103 sets, in the fourth region, a prior probability that the value increases as the position of the object image moves based on the predetermined motion model, and based on the likelihood and the prior probability of each pixel of interest. Thus, the position of the object may be detected. For example, the detection unit 103 may calculate a posterior probability obtained by multiplying the likelihood of each pixel of interest and the prior probability, and detect the position of the object based on the calculated posterior probability.

図7は、変形例4の事後確率を用いたオブジェクトの位置の検出手法の一例の説明図である。図7に示す例では、あるフレームで、透視画像118の注目画素701がオブジェクトの像の位置として検出され、次フレームで、所定運動モデルに基づいてオブジェクトの像が矢印702の方向へ移動すると予測され、第4領域に第4領域を構成する各画素の事前確率の分布703が設定されている。分布703は、例えば、2次元正規分布で設定すればよい。   FIG. 7 is an explanatory diagram illustrating an example of a method for detecting the position of an object using the posterior probability according to the fourth modification. In the example illustrated in FIG. 7, the target pixel 701 of the perspective image 118 is detected as the position of the object image in a certain frame, and the object image is predicted to move in the direction of the arrow 702 based on a predetermined motion model in the next frame. The prior probability distribution 703 of each pixel constituting the fourth region is set in the fourth region. The distribution 703 may be set as a two-dimensional normal distribution, for example.

分布703は、所定運動モデルに従ってオブジェクトの像が移動すると予測される位置で値が最も大きく、当該位置から離れるほど値が小さくなる分布となっている。但し、分布703を、当該位置からの距離が同じであっても、矢印702の方向に沿った位置の方が、矢印702の方向と垂直な方向の位置よりも値が大きくなる分布としてもよい。   The distribution 703 is a distribution that has the largest value at a position where the image of the object is predicted to move according to the predetermined motion model and decreases as the distance from the position is increased. However, even if the distance from the position is the same, the distribution 703 may be a distribution in which the value along the direction of the arrow 702 is larger than the position in the direction perpendicular to the direction of the arrow 702. .

また、透視画像118、119のうちの一方でオブジェクトの像が検出されている場合、他方の第4領域に設定する事前確率の分布を、所定運動モデルに従ってオブジェクトの像が移動すると予測される位置で値が最も大きく、当該位置から離れるほど値が小さくなり、当該位置からの距離が同じであっても、矢印702の方向に沿った位置の方が、矢印702の方向と垂直な方向の位置よりも値が大きく、エピポーラ線に沿った位置の方が、エピポーラ線と垂直な方向の位置よりも値が大きくなる分布としてもよい。   In addition, when an image of the object is detected in one of the perspective images 118 and 119, a position where the object image is predicted to move according to a predetermined motion model is set to a prior probability distribution set in the fourth region of the other. The value is the largest and the value decreases as the distance from the position increases. Even if the distance from the position is the same, the position along the direction of the arrow 702 is a position in the direction perpendicular to the direction of the arrow 702. It is good also as distribution where a value is larger than that and a value along the epipolar line is larger than a position in a direction perpendicular to the epipolar line.

変形例4によれば、透視画像のノイズにロバストな追跡を実現できる。この結果、透視用の放射線の線量を下げても追跡が可能になるため、透視用の放射線による被検体の被曝量を低減させることができる。   According to the fourth modification, it is possible to realize tracking that is robust against noise of a fluoroscopic image. As a result, since the tracking can be performed even if the radiation dose for fluoroscopy is lowered, the exposure dose of the subject by the fluoroscopy radiation can be reduced.

(変形例5)
変形例4では、注目画素それぞれの尤度と事前確率とを乗じた事後確率に基づいて、オブジェクトの位置を検出したが、あるフレームの事後確率を次フレームの事前確率として当該次フレームの事後確率を算出し、算出した事後確率に基づいて、オブジェクトの位置を検出してもよい。
(Modification 5)
In the modified example 4, the position of the object is detected based on the posterior probability obtained by multiplying the likelihood of each pixel of interest and the prior probability, but the posterior probability of the next frame is determined by using the posterior probability of a certain frame as the prior probability of the next frame. And the position of the object may be detected based on the calculated posterior probability.

変形例5によれば、透視画像のノイズにロバストな追跡を実現できる。この結果、透視用の放射線の線量を下げても追跡が可能になるため、透視用の放射線による被検体の被曝量を低減させることができる。   According to the fifth modification, it is possible to realize tracking that is robust against noise in a fluoroscopic image. As a result, since the tracking can be performed even if the radiation dose for fluoroscopy is lowered, the exposure dose of the subject by the fluoroscopy radiation can be reduced.

(変形例6)
変形例3では、所定運動モデルに基づいて予測した第4領域で尤度を算出し、オブジェクトの位置を検出したが、パーティクルフィルタで、事後確率を最大化する位置を検出してもよい。
(Modification 6)
In the third modification, the likelihood is calculated in the fourth region predicted based on the predetermined motion model and the position of the object is detected. However, the position where the posterior probability is maximized may be detected by a particle filter.

変形例6によれば、透視画像のノイズにロバストな追跡を実現できる。この結果、透視用の放射線の線量を下げても追跡が可能になるため、透視用の放射線による被検体の被曝量を低減させることができる。   According to the modified example 6, it is possible to realize tracking that is robust against noise of a fluoroscopic image. As a result, since the tracking can be performed even if the radiation dose for fluoroscopy is lowered, the exposure dose of the subject by the fluoroscopy radiation can be reduced.

(変形例7)
変形例4において、被検体111の内部にオブジェクトが複数存在する場合、オブジェクト間の距離に応じて、事前確率の分布703の尖度を変更してもよい。
(Modification 7)
In the fourth modification, when there are a plurality of objects in the subject 111, the kurtosis of the prior probability distribution 703 may be changed according to the distance between the objects.

この場合、算出部102は、所定運動モデルに基づいて、透視画像において複数のオブジェクトの像それぞれの存在が期待される第4領域を予測し、複数の第4領域それぞれにおいて、注目画素毎に尤度を算出するようにすればよい。   In this case, the calculation unit 102 predicts a fourth area where each of the plurality of object images is expected to exist in the fluoroscopic image based on the predetermined motion model, and the likelihood of each target pixel in each of the plurality of fourth areas. The degree may be calculated.

また、検出部103は、オブジェクトの像毎に、当該像が所定運動モデルに基づいて移動する位置に近いほど値が大きくなり、かつ複数の像同士の距離が閾値以下の場合に尖度を高くした事前確率を、当該像の存在が期待される第4領域に設定し、第4領域毎に、注目画素それぞれの尤度と事前確率とに基づいて、オブジェクトの位置を検出すればよい。   In addition, for each image of the object, the detection unit 103 increases the value as the image moves closer to the position where the image moves based on the predetermined motion model, and increases the kurtosis when the distance between the plurality of images is equal to or less than the threshold value. The prior probability is set in the fourth region where the image is expected to exist, and the position of the object may be detected for each fourth region based on the likelihood of each pixel of interest and the prior probability.

変形例7によれば、複数の像同士の距離が閾値以下の場合、現在のフレームの透視画像の見えに基づく尤度よりも、過去のフレームからの所定運動モデルに基づく予測位置の方が優先されるため、複数の像同士が交差する場合であっても、像を取り違える可能性を低減することができる。この結果、オブジェクトの像を追跡できないフレームが減るため、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。   According to the modified example 7, when the distance between the plurality of images is equal to or less than the threshold value, the predicted position based on the predetermined motion model from the past frame has priority over the likelihood based on the appearance of the perspective image of the current frame. Therefore, even when a plurality of images intersect, the possibility of mistaking the images can be reduced. As a result, since the number of frames in which the image of the object cannot be tracked is reduced, the number of generation (imaging) of fluoroscopic images can be reduced, and the exposure dose of the subject due to fluoroscopic radiation can be reduced.

(変形例8)
変形例7では、オブジェクトの像同士の距離が閾値以下の場合に、事前確率の分布の尖度を高くしてオブジェクトの像を取り違える可能性を低減したが、変形例8では、オブジェクトの像同士の距離が閾値以下の場合に、オブジェクトの像同士の距離が閾値以下にならないように、第1照射部112、113、及び放射線検出部116、117の少なくともいずれかの位置を制御する例について説明する。但し、変形例7では、第1照射部112、113、及び放射線検出部116、117は可動式である必要がある。
(Modification 8)
In the modified example 7, when the distance between the object images is equal to or smaller than the threshold value, the possibility of mistaking the object image by increasing the kurtosis of the prior probability distribution is reduced. An example in which the position of at least one of the first irradiation units 112 and 113 and the radiation detection units 116 and 117 is controlled so that the distance between the object images does not become the threshold value or less when the distance is equal to or less than the threshold value will be described. To do. However, in the modification 7, the 1st irradiation parts 112 and 113 and the radiation detection parts 116 and 117 need to be movable.

この場合、検出部103は、オブジェクトの像毎に、当該像が所定運動モデルに基づいて移動する位置に近いほど値が大きくなる事前確率を、当該像の存在が期待される第4領域に設定し、第4領域毎に、注目画素それぞれの尤度と事前確率とに基づいて、オブジェクトの位置を検出する。   In this case, the detection unit 103 sets, for each image of the object, a prior probability that the value increases as the image moves closer to the position based on the predetermined motion model in the fourth region where the image is expected to exist. For each fourth region, the position of the object is detected based on the likelihood and the prior probability of each pixel of interest.

そして検出部103は、複数の像同士の距離が閾値以下の場合、複数の像同士の距離が閾値を超えるように透視画像が生成される第1照射部112、113、及び放射線検出部116、117の少なくともいずれかの位置情報を算出すればよい。   When the distance between the plurality of images is equal to or smaller than the threshold, the detection unit 103 generates the first irradiation units 112 and 113, and the radiation detection unit 116 that generate the fluoroscopic images so that the distance between the plurality of images exceeds the threshold. The position information of at least one of 117 may be calculated.

例えば、検出部103は、第1照射部112、113、及び放射線検出部116、117それぞれについて、動きうる位置の中の数通りに対応する射影行列を取得し、各オブジェクトの3次元座標と各射影行列から、第1照射部112、113、及び放射線検出部116、117の位置に応じて撮像される透視画像118、119における各オブジェクトの像の画像座標を算出する。そして検出部103は、オブジェクトの像間の距離が閾値を超える(好ましくは、最大となる)第1照射部112、113、及び放射線検出部116、117の位置情報を抽出すればよい。   For example, for each of the first irradiation units 112 and 113 and the radiation detection units 116 and 117, the detection unit 103 obtains projection matrices corresponding to several possible positions in the movable position, and the three-dimensional coordinates of each object and each From the projection matrix, the image coordinates of the image of each object in the fluoroscopic images 118 and 119 that are captured according to the positions of the first irradiation units 112 and 113 and the radiation detection units 116 and 117 are calculated. Then, the detection unit 103 may extract the position information of the first irradiation units 112 and 113 and the radiation detection units 116 and 117 where the distance between the object images exceeds the threshold (preferably, the maximum).

また検出部103は、各オブジェクトの3次元座標の所定運動モデルに従う予測位置と各射影行列から、第1照射部112、113、及び放射線検出部116、117の位置に応じて撮像される透視画像118、119における各オブジェクトの像の画像座標を算出してもよい。   Further, the detection unit 103 is a perspective image that is imaged according to the positions of the first irradiation units 112 and 113 and the radiation detection units 116 and 117 from the predicted position according to the predetermined motion model of the three-dimensional coordinates of each object and each projection matrix. The image coordinates of the image of each object at 118 and 119 may be calculated.

制御部123は、検出部103により算出された位置情報に基づいて、第1照射部112、113、及び放射線検出部116、117の少なくともいずれかの位置を制御すればよい。   The control unit 123 may control the position of at least one of the first irradiation units 112 and 113 and the radiation detection units 116 and 117 based on the position information calculated by the detection unit 103.

変形例8によれば、複数の像同士が交差しなくなるため、像の取り違えが生じない。この結果、オブジェクトの像を追跡できないフレームが減るため、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。   According to the modified example 8, since a plurality of images do not intersect with each other, the images are not mixed up. As a result, since the number of frames in which the image of the object cannot be tracked is reduced, the number of generation (imaging) of fluoroscopic images can be reduced, and the exposure dose of the subject due to fluoroscopic radiation can be reduced.

(変形例9)
変形例3では、所定運動モデルに基づいて予測した第4領域を構成する各画素を注目画素として尤度を算出したが、エピポーラ線によって第4領域を更に限定して尤度を算出するようにしてもよい。
(Modification 9)
In the modified example 3, the likelihood is calculated using each pixel constituting the fourth region predicted based on the predetermined motion model as the target pixel. However, the likelihood is calculated by further limiting the fourth region with an epipolar line. May be.

例えば、透視画像118でオブジェクトの像を検出した場合、透視画像119のエピポーラ線上にも当該オブジェクトの像が存在する。なお、透視画像の歪みを補正できていない場合であっても、エピポーラ線付近に当該オブジェクトの像が存在する。   For example, when an object image is detected from the perspective image 118, the object image also exists on the epipolar line of the perspective image 119. Even if the distortion of the fluoroscopic image cannot be corrected, an image of the object exists near the epipolar line.

このため、算出部102は、透視画像119において予測された第4領域かつエピポーラ線付近において、注目画素毎に尤度を算出するようにすればよい。   Therefore, the calculation unit 102 may calculate the likelihood for each target pixel in the fourth region predicted in the perspective image 119 and in the vicinity of the epipolar line.

変形例9によれば、透視画像の一部の画素で尤度を算出すれば足りるため、尤度算出時間を短縮することができる。この結果、治療ビームを照射すべきタイミングまでに尤度の算出を終わらせる確率を高めることができ、尤度の算出が終わらずに治療ビームを照射できない事態を低減でき、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。また、透視画像の生成(撮像)から治療ビーム照射までの時間を短縮できる。   According to the modified example 9, since it is sufficient to calculate the likelihood with a part of the pixels of the fluoroscopic image, the likelihood calculation time can be shortened. As a result, it is possible to increase the probability that the calculation of the likelihood is finished by the timing when the treatment beam should be irradiated, reduce the situation where the treatment beam cannot be irradiated without the calculation of the likelihood, and generate a fluoroscopic image (imaging) ) The number of times can be reduced, and the exposure amount of the subject by fluoroscopic radiation can be reduced. In addition, the time from the generation (imaging) of the fluoroscopic image to the treatment beam irradiation can be shortened.

なお変形例9の手法は、透視画像のフレームレートが高いほど有効である。   Note that the method of Modification 9 is more effective as the frame rate of the fluoroscopic image is higher.

(変形例10)
上記実施形態では、メモリ101の透視画像への書き込みが完了後に、メモリ101から透視画像が読み出され、尤度の算出が開始されたが、変形例10では、最初に尤度の算出が行われる注目画素での尤度の算出に必要な全ての画素がメモリに書き込まれるタイミング後に、尤度の算出を開始する例について説明する。
(Modification 10)
In the above embodiment, the perspective image is read from the memory 101 after the writing to the perspective image in the memory 101 is completed, and the calculation of the likelihood is started. However, in the modified example 10, the likelihood is calculated first. An example in which the calculation of the likelihood is started after the timing when all the pixels necessary for the calculation of the likelihood at the target pixel are written in the memory will be described.

この場合、メモリ101には、透視画像を構成する各画素が所定順序で書き込まれる。   In this case, the pixels constituting the fluoroscopic image are written in the memory 101 in a predetermined order.

また管理部104は、算出部102により最初に尤度の算出が行われる注目画素での尤度の算出に必要な全ての画素がメモリ101に書き込まれるタイミングを管理し、当該タイミング後に透視画像の読み出しを開始する。   In addition, the management unit 104 manages the timing at which all the pixels necessary for calculating the likelihood at the target pixel for which the first calculation of the likelihood is performed by the calculation unit 102 are written in the memory 101, and after that timing, Start reading.

例えば、管理部104は、透視画像118の場合、タイミング信号131を受け取ってからのクロック数で、透視画像118のどの画素の値までを受け取ったかを管理できるので、タイミング信号131を受け取ってからのクロック数で、算出部102により最初に尤度の算出が行われる注目画素での尤度の算出に必要な全ての画素がメモリ101に書き込まれるタイミングを管理する。   For example, in the case of the fluoroscopic image 118, the management unit 104 can manage up to which pixel value of the fluoroscopic image 118 has been received by the number of clocks after receiving the timing signal 131. Based on the number of clocks, the timing at which all the pixels necessary for calculating the likelihood at the target pixel for which the likelihood is first calculated by the calculation unit 102 is written in the memory 101 is managed.

図8は、変形例10のタイミング管理手法の一例の説明図である。図8に示す例では、透視画像118の各画素が左上からラスタスキャン順にメモリ101に書き込まれる。図8に示す例では、注目画素800で算出部102により最初に尤度の算出が行われ、注目画素800での尤度の算出に必要な全ての画素は、第1領域801を構成する第1画素及び第2領域802を構成する第2画素である。   FIG. 8 is an explanatory diagram of an example of the timing management method of the tenth modification. In the example shown in FIG. 8, each pixel of the perspective image 118 is written in the memory 101 in the raster scan order from the upper left. In the example shown in FIG. 8, the likelihood is first calculated by the calculation unit 102 in the pixel of interest 800, and all the pixels necessary for calculating the likelihood in the pixel of interest 800 form the first region 801. This is a second pixel constituting one pixel and the second region 802.

このため管理部104は、タイミング信号131を受け取ってからのクロック数で、第1画素と第2画素の全てがメモリ101に書き込まれるタイミングを管理し、注目画素800での尤度の算出に必要な全ての画素がメモリ101に書き込まれるタイミングを管理する。   Therefore, the management unit 104 manages the timing at which all of the first pixel and the second pixel are written in the memory 101 by the number of clocks after receiving the timing signal 131, and is necessary for calculating the likelihood at the target pixel 800. The timing at which all the pixels are written in the memory 101 is managed.

そして算出部102は、当該タイミング後に透視画像が読み出されると、注目画素毎の尤度の算出を開始する。   When the fluoroscopic image is read after the timing, the calculation unit 102 starts calculating the likelihood for each pixel of interest.

変形例10によれば、尤度の算出開始時間を早めることができるため、尤度の算出終了時間も早めることができ、尤度算出時間を短縮することができる。この結果、治療ビームを照射すべきタイミングまでに尤度の算出を終わらせる確率を高めることができ、尤度の算出が終わらずに治療ビームを照射できない事態を低減でき、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。また、透視画像の生成(撮像)から治療ビーム照射までの時間を短縮できる。   According to the modified example 10, since the likelihood calculation start time can be shortened, the likelihood calculation end time can also be shortened, and the likelihood calculation time can be shortened. As a result, it is possible to increase the probability that the calculation of the likelihood is finished by the timing when the treatment beam should be irradiated, reduce the situation where the treatment beam cannot be irradiated without the calculation of the likelihood, and generate a fluoroscopic image (imaging) ) The number of times can be reduced, and the exposure amount of the subject by fluoroscopic radiation can be reduced. In addition, the time from the generation (imaging) of the fluoroscopic image to the treatment beam irradiation can be shortened.

(変形例11)
上記実施形態では、透視画像の全画素をメモリ101へ書き込んだが、尤度の算出に必要な画素をメモリ101へ書き込むようにしてもよい。
(Modification 11)
In the above embodiment, all the pixels of the fluoroscopic image are written in the memory 101, but the pixels necessary for calculating the likelihood may be written in the memory 101.

変形例11によれば、透視画像の転送時間を短縮できる。この結果、治療ビームを照射すべきタイミングまでに尤度の算出を終わらせる確率を高めることができ、尤度の算出が終わらずに治療ビームを照射できない事態を低減でき、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。また、透視画像の生成(撮像)から治療ビーム照射までの時間を短縮できる。   According to the eleventh modification, the transmission time of the fluoroscopic image can be shortened. As a result, it is possible to increase the probability that the calculation of the likelihood is finished by the timing when the treatment beam should be irradiated, reduce the situation where the treatment beam cannot be irradiated without the calculation of the likelihood, and generate a fluoroscopic image (imaging) ) The number of times can be reduced, and the exposure amount of the subject by fluoroscopic radiation can be reduced. In addition, the time from the generation (imaging) of the fluoroscopic image to the treatment beam irradiation can be shortened.

なお変形例11の手法は、透視画像のフレームレートが高いほど有効である。   Note that the technique of the modification 11 is more effective as the frame rate of the fluoroscopic image is higher.

(変形例12)
上記実施形態では、全ての色成分の画像を透視画像としたが、オブジェクトの透過率に応じた色成分の画像を透視画像としてもよい。
(Modification 12)
In the above embodiment, the image of all the color components is the perspective image, but the image of the color component corresponding to the transmittance of the object may be the perspective image.

例えば、放射線検出部116、117を、カラーイメージインテンシファイアと、ベイヤー型のカラーフィルタを利用してベイヤーRAW画像を撮影するカメラと、の組み合わせで実現する場合、ベイヤーRAW画像の特定の色成分を透視画像118、119としてもよい。   For example, when the radiation detection units 116 and 117 are realized by a combination of a color image intensifier and a camera that captures a Bayer RAW image using a Bayer type color filter, a specific color component of the Bayer RAW image is used. May be the perspective images 118 and 119.

カラーイメージインテンシファイアとベイヤー型のカメラの組み合わせでは、透過率が低いものの感度はR(赤)成分が最も高く、透過率が高いものの感度はB(青)成分が最も高い。このため、オブジェクトが透過率の低いマーカである場合、ベイヤーRAW画像のR成分を透視画像118、119とし、オブジェクトが透過率の低くない患部である場合、ベイヤーRAW画像のG成分又はB成分を透視画像118、119としてもよい。   In the combination of the color image intensifier and the Bayer type camera, although the transmittance is low, the sensitivity is the highest in the R (red) component, while the sensitivity is high, but the sensitivity is the highest in the B (blue) component. For this reason, when the object is a marker with low transmittance, the R component of the Bayer RAW image is set as the perspective images 118 and 119, and when the object is an affected part with low transmittance, the G component or B component of the Bayer RAW image is set as The perspective images 118 and 119 may be used.

また、ベイヤーRAW画像をデモザイキングして、特定の色成分を透視画像118、119としてもよい。なお、デモザイキングしない場合、その色成分の画素数が少ないため、画像処理の時間を短縮できる。   In addition, the Bayer RAW image may be demosaiced, and specific color components may be used as the perspective images 118 and 119. In addition, when not demosaicing, the number of pixels of the color component is small, so that the image processing time can be shortened.

また例えば、放射線検出部116、117を、カラーイメージインテンシファイアと、特定の色成分のみを撮影するカメラと、の組み合わせで実現する場合、特定の色成分の画像を透視画像118、119としてもよい。   For example, when the radiation detection units 116 and 117 are realized by a combination of a color image intensifier and a camera that captures only a specific color component, the image of the specific color component may be used as the perspective images 118 and 119. Good.

例えば、オブジェクトが透過率の低いマーカである場合、R成分を透過させるカラーフィルタを利用したカメラを用い、R成分のみからなる画像を透視画像118、119としてもよい。また、オブジェクトが透過率の低くない患部である場合、G成分又はB成分を透過させるカラーフィルタを利用したカメラを用い、G成分又はB成分のみからなる画像を透視画像118、119としてもよい。   For example, when the object is a marker having a low transmittance, a camera using a color filter that transmits the R component may be used, and images including only the R component may be used as the perspective images 118 and 119. In addition, when the object is an affected part with low transmittance, a camera using a color filter that transmits the G component or the B component may be used, and images including only the G component or the B component may be used as the perspective images 118 and 119.

デモザイキングの内挿処理で画像がぼけるため、この場合、ベイヤーRAW画像をデモザイキングした画像のその色成分だけの画像よりも、ぼけが少ない画像を得られる。   Since the image is blurred by the demosaicing interpolation process, in this case, an image with less blur can be obtained than the image of only the color component of the image obtained by demosaicing the Bayer RAW image.

変形例12によれば、オブジェクトの追跡に失敗する確率を低減することができる。この結果、オブジェクトの像を追跡できないフレームが減るため、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。   According to the modified example 12, it is possible to reduce the probability that the tracking of the object fails. As a result, since the number of frames in which the image of the object cannot be tracked is reduced, the number of generation (imaging) of fluoroscopic images can be reduced, and the exposure dose of the subject due to fluoroscopic radiation can be reduced.

(変形例13)
上記実施形態において、値の大きさが所定条件を満たす尤度が算出されなかった場合、検出部103は、警告信号を制御部123に出力し、制御部123は、警告信号に基づいて、警告装置(図1では、図示省略)に警告を行わせる制御を行わせるようにしてもよい。
(Modification 13)
In the above embodiment, when the likelihood that the magnitude of the value satisfies the predetermined condition is not calculated, the detection unit 103 outputs a warning signal to the control unit 123, and the control unit 123 outputs a warning based on the warning signal. You may make it perform control which makes an apparatus (illustration omitted in FIG. 1) warn.

この場合、透視画像118、119においてオブジェクトの像がはっきりと見えない状態であり、オブジェクトの位置の誤検出が生じる可能性がある。例えば、透過率が低い骨とオブジェクトとが放射線114、115の線上に重なると、オブジェクトの像がはっきりと見えない状態となる。   In this case, the image of the object cannot be clearly seen in the perspective images 118 and 119, and there is a possibility that an erroneous detection of the position of the object may occur. For example, when a bone having low transmittance and an object overlap the lines of radiation 114 and 115, the image of the object cannot be clearly seen.

変形例13によれば、このような状態であることが、医師や放射線技師などのユーザに警告されるため、ユーザに、放射線114、115の強度を強めたり、放射線114、115の照射方向を変更させたりさせるように促すことができ、このような状態を早期に解消することができる。この結果、オブジェクトの像を追跡できないフレームが減るため、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。   According to the modified example 13, since a user such as a doctor or a radiologist is warned that such a state is present, the user can increase the intensity of the radiation 114, 115 or change the irradiation direction of the radiation 114, 115. Such a state can be resolved at an early stage. As a result, since the number of frames in which the image of the object cannot be tracked is reduced, the number of generation (imaging) of fluoroscopic images can be reduced, and the exposure dose of the subject due to fluoroscopic radiation can be reduced.

また、値の大きさが所定条件を満たす尤度が算出されなかった場合、検出部103は、放射線の強度を高めさせる制御信号を制御部123に出力し、制御部123は、制御信号に基づいて、第1照射部112、113に放射線の強度を高めさせる制御を行わせるようにしてもよい。   When the likelihood that the magnitude of the value satisfies the predetermined condition is not calculated, the detection unit 103 outputs a control signal for increasing the intensity of the radiation to the control unit 123, and the control unit 123 is based on the control signal. Thus, the first irradiation units 112 and 113 may be controlled to increase the intensity of radiation.

このようにすれば、透視画像118、119のどのフレームにおいてもオブジェクトの像がはっきりと見えるようになるため、オブジェクトの像がはっきりと見えない状態を早期に解消することができる。この結果、オブジェクトの像を追跡できないフレームが減るため、透視画像の生成(撮像)回数を低減でき、透視用の放射線による被検体の被曝量を低減させることができる。   In this way, since the image of the object can be clearly seen in any frame of the perspective images 118 and 119, the state where the image of the object cannot be clearly seen can be eliminated at an early stage. As a result, since the number of frames in which the image of the object cannot be tracked is reduced, the number of generation (imaging) of fluoroscopic images can be reduced, and the exposure dose of the subject due to fluoroscopic radiation can be reduced.

(変形例14)
上記実施形態では、オブジェクトの像の周辺で、尤度の値が総じて大きくなる場合があるため、近傍で尤度が高ければ、マージしてもよい。これにより、本来1つのオブジェクトを複数として検出するミスがなくなる。
(Modification 14)
In the above embodiment, the likelihood value may be generally increased around the image of the object. Therefore, if the likelihood is high in the vicinity, merging may be performed. This eliminates the mistake of originally detecting one object as a plurality.

(変形例15)
上記実施形態では、オブジェクトらしい部分で大きな値をとる尤度を算出し、尤度が大きい部分をオブジェクトとして検出したが、オブジェクトらしい部分で小さな値をとる特徴量を算出し、特徴量が小さい部分をオブジェクトとして検出するようにしてもよい。この特徴量は、第1画素の画素値が互いに近く、かつ第1画素の画素値と第2画素の画素値とが離れているほど、値が小さくなるように設計すればよい。例えば、σ /σ やσ /σ を特徴量として利用できる。
(Modification 15)
In the above embodiment, the likelihood that takes a large value in the part that seems to be an object is calculated, and the part that has a large likelihood is detected as an object. May be detected as an object. The feature amount may be designed such that the smaller the pixel value of the first pixel is, and the smaller the pixel value of the first pixel and the pixel value of the second pixel are, the smaller the value is. For example, σ t 2 / σ b 2 or σ w 2 / σ b 2 can be used as the feature amount.

(ハードウェア構成)
図9は、本実施形態及び各変形例の治療システム1のハードウェア構成の一例を示すブロック図である。さきほどまでは、治療ビームが重粒子線の想定で説明したが、図9はX線である場合のブロック図である。図9に示すように、治療システム1は、コンソール10、撮像装置20、寝台装置30、治療計画装置40、及び放射線治療装置(ライナック:治療計画データに基づいて放射線を照射して治療を行なう放射線治療装置)50を備える。なお、撮像装置20がCT装置である例について述べるが、これに限定されるものではない。
(Hardware configuration)
FIG. 9 is a block diagram illustrating an example of a hardware configuration of the treatment system 1 of the present embodiment and each modification. Up to this point, the treatment beam has been described on the assumption of a heavy particle beam, but FIG. 9 is a block diagram in the case of an X-ray. As illustrated in FIG. 9, the treatment system 1 includes a console 10, an imaging device 20, a bed device 30, a treatment plan device 40, and a radiation treatment device (linac: radiation that performs treatment by irradiating radiation based on treatment plan data. Treatment apparatus) 50. Although an example in which the imaging apparatus 20 is a CT apparatus will be described, the present invention is not limited to this.

コンソール10は、追跡装置100及び制御部123に対応し、寝台装置30は、寝台110に対応し、治療計画装置40は、上記実施形態で図示を省略した治療計画装置に対応し、放射線治療装置50は、第2照射部120に対応する。   The console 10 corresponds to the tracking device 100 and the control unit 123, the bed device 30 corresponds to the bed 110, the treatment planning device 40 corresponds to the treatment planning device not shown in the above embodiment, and the radiation treatment device. 50 corresponds to the second irradiation unit 120.

撮像装置20、寝台装置30、及び放射線治療装置50は、通常は検査室に設置される。一方、コンソール10は、通常は検査室に隣接する制御室に設置される。治療計画装置40は、検査室及び制御室の外側に設置される。なお、治療計画装置40は、制御室に設置されてもよいし、コンソール10と一体の装置であってもよい。また、撮像装置20の代表的な例としては、X線CT装置、MRI(magnetic resonance imaging)装置、X線装置等が挙げられる。以下、撮像装置20として、X線CT装置20aを用いる場合について説明する。   The imaging device 20, the bed device 30, and the radiation therapy device 50 are usually installed in an examination room. On the other hand, the console 10 is usually installed in a control room adjacent to the examination room. The treatment planning device 40 is installed outside the examination room and the control room. The treatment planning device 40 may be installed in the control room, or may be a device integrated with the console 10. Typical examples of the imaging apparatus 20 include an X-ray CT apparatus, an MRI (magnetic resonance imaging) apparatus, and an X-ray apparatus. Hereinafter, the case where the X-ray CT apparatus 20a is used as the imaging apparatus 20 will be described.

治療システム1のコンソール10は、図9に示すように、コンピュータをベースとして構成されており、図示しない病院基幹のLAN(local area network)等のネットワークと相互通信可能である。コンソール10は、大きくは、CPU11、メインメモリ12、画像メモリ13、HDD(hard disc drive)14、入力装置15、表示装置16、及び追跡装置100等の基本的なハードウェアから構成される。表示装置16は、上述の警告装置を兼ねる。CPU11は、共通信号伝送路としてのバスを介して、コンソール10を構成する各ハードウェア構成要素に相互接続されている。なお、コンソール10は、記録媒体ドライブを具備してもよい。   As shown in FIG. 9, the console 10 of the treatment system 1 is configured based on a computer, and can communicate with a network such as a hospital basic LAN (local area network) not shown. The console 10 is mainly composed of basic hardware such as a CPU 11, a main memory 12, an image memory 13, an HDD (hard disc drive) 14, an input device 15, a display device 16, and a tracking device 100. The display device 16 also serves as the warning device described above. The CPU 11 is interconnected to each hardware component constituting the console 10 via a bus as a common signal transmission path. Note that the console 10 may include a recording medium drive.

CPU11は、半導体で構成された電子回路が複数の端子を持つパッケージに封入されている集積回路(LSI)の構成をもつ制御装置である。医師等の操作者によって入力装置15が操作等されることにより指令が入力されると、CPU11は、メインメモリ12に記憶しているプログラムを実行する。又は、CPU11は、HDD14に記憶しているプログラム、ネットワークから転送されてHDD14にインストールされたプログラム、又は記録媒体ドライブ(図示しない)に装着された記録媒体から読み出されてHDD14にインストールされたプログラムを、メインメモリ12にロードして実行する。   The CPU 11 is a control device having a configuration of an integrated circuit (LSI) in which an electronic circuit made of a semiconductor is enclosed in a package having a plurality of terminals. When a command is input by operating the input device 15 by an operator such as a doctor, the CPU 11 executes a program stored in the main memory 12. Alternatively, the CPU 11 is a program stored in the HDD 14, a program transferred from the network and installed in the HDD 14, or a program read from a recording medium mounted on a recording medium drive (not shown) and installed in the HDD 14. Are loaded into the main memory 12 and executed.

メインメモリ12は、ROM(read only memory)及びRAM(random access memory)等の要素を兼ね備える構成をもつ記憶装置である。メインメモリ12は、IPL(initial program loading)、BIOS(basic input/output system)及びデータを記憶したり、CPU11のワークメモリやデータの一時的な記憶に用いられたりする。   The main memory 12 is a storage device having a configuration that combines elements such as a read only memory (ROM) and a random access memory (RAM). The main memory 12 stores IPL (initial program loading), BIOS (basic input / output system) and data, and is used for temporary storage of the work memory and data of the CPU 11.

画像メモリ13は、透視画像、2次元画像データとしてのスライスデータや、3次元画像データとしての治療計画ボリュームデータ及び治療直前ボリュームデータを記憶する記憶装置である。   The image memory 13 is a storage device that stores fluoroscopic images, slice data as two-dimensional image data, treatment plan volume data as three-dimensional image data, and volume data just before treatment.

HDD14は、磁性体を塗布又は蒸着した金属のディスクが着脱不能で内蔵されている構成をもつ記憶装置である。HDD14は、コンソール10にインストールされたプログラム(アプリケーションプログラムの他、OS(operating system)等も含まれる)や、データを記憶する記憶装置である。また、OSに、術者等の操作者に対する表示装置16への情報の表示にグラフィックを多用し、基礎的な操作を入力装置15によって行なうことができるGUI(graphical user interface)を提供させることもできる。   The HDD 14 is a storage device having a configuration in which a metal disk coated or vapor-deposited with a magnetic material is incorporated in a non-detachable manner. The HDD 14 is a storage device that stores programs installed in the console 10 (including application programs as well as an OS (operating system)) and data. Also, it is possible to cause the OS to provide a GUI (graphical user interface) that allows a basic operation to be performed by the input device 15 by using a lot of graphics for displaying information on the display device 16 for an operator such as an operator. it can.

入力装置15は、操作者によって操作が可能なポインティングデバイスであり、操作に従った入力信号がCPU11に送られる。   The input device 15 is a pointing device that can be operated by an operator, and an input signal according to the operation is sent to the CPU 11.

表示装置16は、図示しない画像合成回路、VRAM(video random access memory)、及びディスプレイ等を含んでいる。画像合成回路は、画像データに種々のパラメータの文字データ等を合成した合成データを生成する。VRAMは、合成データを、ディスプレイに表示する表示画像データとして展開する。ディスプレイは、液晶ディスプレイやCRT(cathode ray tube)等によって構成され、表示画像データを表示画像として順次表示する。   The display device 16 includes an image composition circuit (not shown), a video random access memory (VRAM), a display, and the like. The image synthesizing circuit generates synthesized data obtained by synthesizing character data of various parameters with image data. The VRAM develops the composite data as display image data to be displayed on the display. The display is composed of a liquid crystal display, a CRT (cathode ray tube) or the like, and sequentially displays display image data as a display image.

コンソール10は、X線CT装置20a、寝台装置30、及び放射線治療装置50の動作を制御する。また、コンソール10は、X線CT装置20aのDAS24から入力された生データに対して対数変換処理や、感度補正等の補正処理(前処理)を行なって投影データを生成し、投影データを基に2次元画像データとしてのスライスデータや3次元画像データとしてのボリュームデータを生成する。   The console 10 controls the operations of the X-ray CT apparatus 20a, the bed apparatus 30, and the radiation therapy apparatus 50. Further, the console 10 generates projection data by performing logarithmic conversion processing and correction processing (preprocessing) such as sensitivity correction on the raw data input from the DAS 24 of the X-ray CT apparatus 20a, and generates projection data based on the projection data. In addition, slice data as two-dimensional image data and volume data as three-dimensional image data are generated.

治療システム1のX線CT装置20aは、被検体111の患部等の治療部位を含む領域の画像データを表示するために、治療部位を含む領域を撮像する。X線CT装置20aは、放射線源としてのX線管21、絞り22、X線検出器23、DAS(data acquisition system)24、回転部25、高電圧供給装置26、絞り駆動装置27、回転駆動装置28、及び撮像コントローラ29を設ける。   The X-ray CT apparatus 20a of the treatment system 1 images a region including the treatment site in order to display image data of the region including the treatment site such as an affected part of the subject 111. The X-ray CT apparatus 20a includes an X-ray tube 21 as a radiation source, an aperture 22, an X-ray detector 23, a DAS (data acquisition system) 24, a rotating unit 25, a high voltage supply device 26, an aperture driving device 27, and a rotational drive. A device 28 and an imaging controller 29 are provided.

X線管21は、高電圧供給装置26から供給された管電圧に応じて金属製のターゲットに電子線を衝突させることで制動X線を発生させ、X線をX線検出器23に向かって照射する。X線管21から照射されるX線によって、ファンビームX線やコーンビームX線が形成される。   The X-ray tube 21 generates a braking X-ray by causing an electron beam to collide with a metal target according to the tube voltage supplied from the high voltage supply device 26, and the X-ray is directed toward the X-ray detector 23. Irradiate. Fan beam X-rays and cone beam X-rays are formed by X-rays emitted from the X-ray tube 21.

絞り22は、絞り駆動装置27によって、X線管21から照射されるX線の照射範囲を調整する。すなわち、絞り駆動装置27によって絞り22の開口を調整することによって、X線照射範囲を変更できる。   The diaphragm 22 adjusts the irradiation range of the X-rays emitted from the X-ray tube 21 by the diaphragm driving device 27. That is, the X-ray irradiation range can be changed by adjusting the aperture of the diaphragm 22 by the diaphragm driving device 27.

X線検出器23は、マトリクス状、すなわち、チャンネル方向に複数チャンネル、スライス方向に複数列のX線検出素子を有する2次元アレイ型のX線検出器(マルチスライス型検知器ともいう。)である。X線検出器23のX線検出素子は、X線管21から照射されたX線を検出する。   The X-ray detector 23 is a matrix, that is, a two-dimensional array type X-ray detector (also referred to as a multi-slice detector) having a plurality of channels in the channel direction and a plurality of rows in the slice direction. is there. The X-ray detection element of the X-ray detector 23 detects X-rays emitted from the X-ray tube 21.

DAS24は、X線検出器23の各X線検出素子が検出する透過データの信号を増幅してデジタル信号に変換する。DAS24の出力データは、撮像コントローラ29を介してコンソール10に供給される。   The DAS 24 amplifies the transmission data signal detected by each X-ray detection element of the X-ray detector 23 and converts it into a digital signal. Output data from the DAS 24 is supplied to the console 10 via the imaging controller 29.

回転部25は、X線管21、絞り22、X線検出器23、及びDAS24を一体として保持する。回転部25は、X線管21とX線検出器23とを対向させた状態で、X線管21、絞り22、X線検出器23、及びDAS24を一体として被検体111の周りに回転できるように構成されている。なお、回転部25の回転中心軸と平行な方向をz軸方向、そのz軸方向に直交する平面をx軸方向、y軸方向で定義する。   The rotating unit 25 integrally holds the X-ray tube 21, the diaphragm 22, the X-ray detector 23, and the DAS 24. The rotating unit 25 can rotate around the subject 111 with the X-ray tube 21, the diaphragm 22, the X-ray detector 23, and the DAS 24 as one body in a state where the X-ray tube 21 and the X-ray detector 23 face each other. It is configured as follows. A direction parallel to the rotation center axis of the rotating unit 25 is defined as a z-axis direction, and a plane orthogonal to the z-axis direction is defined as an x-axis direction and a y-axis direction.

高電圧供給装置26は、撮像コントローラ29による制御によって、X線の照射に必要な電力をX線管21に供給する。   The high voltage supply device 26 supplies power necessary for X-ray irradiation to the X-ray tube 21 under the control of the imaging controller 29.

絞り駆動装置27は、撮像コントローラ29による制御によって、絞り22におけるX線のスライス方向の照射範囲を調整する機構を有する。   The diaphragm driving device 27 has a mechanism for adjusting the irradiation range of the diaphragm 22 in the X-ray slice direction under the control of the imaging controller 29.

回転駆動装置28は、撮像コントローラ29による制御によって、回転部25がその位置関係を維持した状態で空洞部の周りを回転するように回転部25を回転させる機構を有する。   The rotation driving device 28 has a mechanism for rotating the rotating unit 25 so that the rotating unit 25 rotates around the hollow portion while maintaining the positional relationship under the control of the imaging controller 29.

撮像コントローラ29は、CPU及びメモリによって構成される。撮像コントローラ29は、X線管21、X線検出器23、DAS24、高電圧供給装置26、絞り駆動装置27、及び回転駆動装置28等の制御を行なうことで、寝台装置30の動作を伴ってスキャンを実行させる。   The imaging controller 29 includes a CPU and a memory. The imaging controller 29 controls the X-ray tube 21, the X-ray detector 23, the DAS 24, the high voltage supply device 26, the aperture driving device 27, the rotation driving device 28, etc. Run a scan.

治療システム1の寝台装置30は、天板31、天板駆動装置32、及び寝台コントローラ39を備える。   The couch device 30 of the treatment system 1 includes a couchtop 31, a couchtop drive device 32, and a couch controller 39.

天板31は、被検体111を載置可能である。天板駆動装置32は、寝台コントローラ39による制御によって、天板31をy軸方向に沿って昇降動させる機構と、天板31をz軸方向に沿って進退動させる機構と、天板31をy軸方向を軸として回転させる機構とを有する。   The top plate 31 can place the subject 111 thereon. The top plate driving device 32 is controlled by the bed controller 39 to move the top plate 31 up and down along the y-axis direction, the mechanism to move the top plate 31 back and forth along the z-axis direction, and the top plate 31. and a mechanism that rotates the y-axis direction as an axis.

寝台コントローラ39は、CPU及びメモリによって構成される。寝台コントローラ39は、天板駆動装置32等の制御を行なうことで、X線CT装置20aの動作を伴ってスキャンを実行させる。また、寝台コントローラ39は、天板駆動装置32等の制御を行なうことで、放射線治療装置50の動作を伴って放射線治療を実行させる。   The bed controller 39 includes a CPU and a memory. The couch controller 39 controls the top board driving device 32 and the like, thereby executing a scan with the operation of the X-ray CT apparatus 20a. In addition, the bed controller 39 controls the top board driving device 32 and the like, thereby executing radiation therapy with the operation of the radiation therapy device 50.

治療システム1の治療計画装置40は、X線CT装置20aを用いて撮像されてコンソール10によって生成されたスライスデータ及びボリュームデータを基に、放射線治療装置50によって放射線治療を行なうための治療計画データを生成する。治療計画装置40によって生成された治療計画データに基づくコンソール10の制御の下、放射線治療装置50によって被検体111の診療部位に治療ビームが照射される。治療計画装置40は、コンピュータをベースとして構成されており、図示しない病院基幹のLAN等のネットワークと相互通信可能である。治療計画装置40は、大きくは、CPU41、メインメモリ42、治療計画メモリ43、HDD44、入力装置45、及び表示装置46等の基本的なハードウェアから構成される。CPU41は、共通信号伝送路としてのバスを介して、治療計画装置40を構成する各ハードウェア構成要素に相互接続されている。なお、治療計画装置40は、記録媒体ドライブを具備してもよい。   The treatment planning device 40 of the treatment system 1 is treatment planning data for performing radiation treatment by the radiation treatment device 50 based on slice data and volume data that are imaged using the X-ray CT device 20a and generated by the console 10. Is generated. Under the control of the console 10 based on the treatment plan data generated by the treatment planning device 40, the radiation treatment device 50 irradiates the treatment site of the subject 111 with the treatment beam. The treatment planning apparatus 40 is configured on the basis of a computer, and can communicate with a network such as a hospital backbone LAN (not shown). The treatment planning device 40 is mainly composed of basic hardware such as a CPU 41, a main memory 42, a treatment plan memory 43, an HDD 44, an input device 45, and a display device 46. The CPU 41 is interconnected to each hardware component constituting the treatment planning apparatus 40 via a bus as a common signal transmission path. The treatment planning device 40 may include a recording medium drive.

CPU41の構成は、コンソール10のCPU11の構成と同等である。操作者によって入力装置45が操作等されることにより指令が入力されると、CPU41は、メインメモリ42に記憶しているプログラムを実行する。又は、CPU41は、HDD44に記憶しているプログラム、ネットワークから転送されてHDD44にインストールされたプログラム、又は記録媒体ドライブ(図示しない)に装着された記録媒体から読み出されてHDD44にインストールされたプログラムを、メインメモリ42にロードして実行する。   The configuration of the CPU 41 is equivalent to the configuration of the CPU 11 of the console 10. When an instruction is input by operating the input device 45 by an operator, the CPU 41 executes a program stored in the main memory 42. Alternatively, the CPU 41 may be a program stored in the HDD 44, a program transferred from the network and installed in the HDD 44, or a program read from a recording medium installed in a recording medium drive (not shown) and installed in the HDD 44. Are loaded into the main memory 42 and executed.

メインメモリ42の構成は、コンソール10のメインメモリ12の構成と同等である。メインメモリ42は、IPL、BIOS及びデータを記憶したり、CPU41のワークメモリやデータの一時的な記憶に用いられたりする。   The configuration of the main memory 42 is the same as the configuration of the main memory 12 of the console 10. The main memory 42 stores IPL, BIOS, and data, and is used for temporary storage of the work memory and data of the CPU 41.

治療計画メモリ43は、治療計画データを記憶する記憶装置である。HDD44の構成は、コンソール10のHDD14の構成と同等である。入力装置45は、コンソール10の入力装置15の構成と同等である。表示装置46は、コンソール10の表示装置16の構成と同等である。   The treatment plan memory 43 is a storage device that stores treatment plan data. The configuration of the HDD 44 is the same as the configuration of the HDD 14 of the console 10. The input device 45 is equivalent to the configuration of the input device 15 of the console 10. The display device 46 is equivalent to the configuration of the display device 16 of the console 10.

治療計画装置40は、X線CT装置20aによって生成された画像データを基に、被検体111の治療部位の位置及び治療部位の形状を求め、治療部位に照射すべき治療ビーム(X線、電子線、中性子線、陽子線、又は重粒子線等)や、そのエネルギー、及び照射野を決定する。   The treatment planning apparatus 40 obtains the position of the treatment site and the shape of the treatment site of the subject 111 based on the image data generated by the X-ray CT apparatus 20a, and treats the treatment beam (X-ray, electron) to be irradiated on the treatment site. Line, neutron beam, proton beam, heavy particle beam, etc.), its energy, and irradiation field.

治療システム1の放射線治療装置50は、一般的にMV級の放射線を発生させることができる。放射線治療装置50は、放射線の発生口部分に絞り(コリメータ)を設置し、絞りによって治療計画に基づく照射形状及び線量分布を実現する。近年は、絞りとして複数の可動リーフにより複雑な腫瘍の形状に対応した線量分布を形成することができるマルチリーフコリメータ(MLC)が多く用いられる。放射線治療装置50は、絞りによって形成される照射野により放射線の照射量を調整し、被検体111の治療部位を消滅又は縮小させる。   The radiotherapy apparatus 50 of the treatment system 1 can generally generate MV class radiation. The radiation therapy apparatus 50 installs a diaphragm (collimator) at a radiation generation port, and realizes an irradiation shape and a dose distribution based on the treatment plan by the diaphragm. In recent years, a multi-leaf collimator (MLC) that can form a dose distribution corresponding to a complicated tumor shape by a plurality of movable leaves as a diaphragm is often used. The radiation therapy apparatus 50 adjusts the radiation dose by the irradiation field formed by the diaphragm, and eliminates or reduces the treatment site of the subject 111.

放射線治療装置50は、放射線源としての放射線源51、絞り52、アーム部55、高電圧供給装置56、絞り駆動装置57、回転駆動装置58、及び治療コントローラ59を備える。   The radiation therapy apparatus 50 includes a radiation source 51 as a radiation source, an aperture 52, an arm unit 55, a high voltage supply device 56, an aperture drive device 57, a rotation drive device 58, and a treatment controller 59.

放射線源51は、高電圧供給装置56から供給された管電圧に応じて放射線を発生させる。   The radiation source 51 generates radiation according to the tube voltage supplied from the high voltage supply device 56.

絞り52は、絞り駆動装置57によって、放射線源51から照射される放射線の照射範囲を調整する。すなわち、絞り駆動装置57によって絞り52の開口を調整することによって、放射線の照射範囲を変更できる。   The diaphragm 52 adjusts the irradiation range of the radiation irradiated from the radiation source 51 by the diaphragm driving device 57. That is, by adjusting the aperture of the diaphragm 52 by the diaphragm driving device 57, the radiation irradiation range can be changed.

アーム部55は、放射線源51及び絞り52を一体として保持する。アーム部55は、放射線源51及び絞り52を一体として被検体111の周りに回転できるように構成されている。   The arm unit 55 holds the radiation source 51 and the diaphragm 52 together. The arm unit 55 is configured so that the radiation source 51 and the diaphragm 52 can be rotated around the subject 111 as a unit.

高電圧供給装置56は、治療コントローラ59による制御によって、放射線の照射に必要な電力を放射線源51に供給する。   The high voltage supply device 56 supplies the radiation source 51 with electric power necessary for irradiation with radiation under the control of the treatment controller 59.

絞り駆動装置57は、治療コントローラ59による制御によって、絞り52における放射線の照射範囲を調整する機構を有する。   The diaphragm driving device 57 has a mechanism for adjusting the radiation range of the diaphragm 52 under the control of the treatment controller 59.

回転駆動装置58は、治療コントローラ59による制御によって、アーム部55と支持部との接続部を中心として回転するようにアーム部55を回転させる機構を有する。   The rotation driving device 58 has a mechanism for rotating the arm portion 55 so as to rotate around the connection portion between the arm portion 55 and the support portion under the control of the treatment controller 59.

治療コントローラ59は、CPU及びメモリによって構成される。治療コントローラ59は、治療計画装置40によって生成される治療計画データに従って放射線源51、高電圧供給装置56、及び絞り駆動装置57等の制御を行なうことで、寝台装置30の動作を伴って治療のための放射線の照射を実行させる。   The treatment controller 59 includes a CPU and a memory. The treatment controller 59 controls the radiation source 51, the high voltage supply device 56, the diaphragm drive device 57, and the like according to the treatment plan data generated by the treatment planning device 40, thereby performing treatment with the operation of the bed device 30. Radiation is executed.

以上説明したとおり、本実施形態及び各変形例によれば、透視用の放射線による被曝量を低減させることができる。   As described above, according to the present embodiment and each modification, it is possible to reduce the exposure dose due to fluoroscopic radiation.

なお本発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。   Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the constituent elements over different embodiments may be appropriately combined.

例えば、上記実施形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。   For example, as long as each step in the flowchart of the above embodiment is not contrary to its nature, the execution order may be changed, a plurality of steps may be performed simultaneously, or may be performed in a different order for each execution.

1 治療システム
100 追跡装置
101 メモリ
102 算出部
103 検出部
104 管理部
110 寝台
112、113 第1照射部
116、117 放射線検出部
123 制御部
120 第2照射部
DESCRIPTION OF SYMBOLS 1 Treatment system 100 Tracking apparatus 101 Memory 102 Calculation part 103 Detection part 104 Management part 110 Bed 112,113 1st irradiation part 116,117 Radiation detection part 123 Control part 120 2nd irradiation part

Claims (11)

被検体の内部を透視した透視画像に含まれる注目画素毎に尤度を算出する算出部と、
前記注目画素それぞれの前記尤度に基づいて、前記被検体の内部のオブジェクトの位置を検出する検出部と、
を備え、
前記注目画素の周辺にある第1領域に含まれる2以上の第1画素の画素値の差を示す第1の差に対する、前記2以上の第1画素の画素値と前記第1領域に含まれない1以上の第2画素の画素値との差を示す第2の差が大きい場合の前記尤度は、前記第1の差に対する前記第2の差が小さい場合の前記尤度よりも大きい、
画像処理装置。
A calculation unit that calculates the likelihood for each pixel of interest included in the fluoroscopic image seen through the inside of the subject;
A detection unit that detects a position of an object inside the subject based on the likelihood of each of the target pixels;
With
The pixel values of the two or more first pixels are included in the first region with respect to the first difference indicating the difference between the pixel values of the two or more first pixels included in the first region around the pixel of interest. The likelihood when the second difference indicating a difference from the pixel value of one or more second pixels that is not greater is larger than the likelihood when the second difference with respect to the first difference is small,
Image processing device.
前記第1領域は、前記オブジェクトの形状に依存する形状である、
請求項1に記載の画像処理装置。
The first region is a shape that depends on the shape of the object.
The image processing apparatus according to claim 1.
前記算出部は、前記透視画像において前記オブジェクトの像の存在が期待される第3領域を示す領域情報を取得し、前記領域情報が示す前記第3領域において、前記注目画素毎に前記尤度を算出する、
請求項1または2に記載の画像処理装置。
The calculation unit acquires area information indicating a third area where the object image is expected to exist in the perspective image, and calculates the likelihood for each target pixel in the third area indicated by the area information. calculate,
The image processing apparatus according to claim 1.
前記算出部は、所定運動モデルに基づいて、前記透視画像において前記オブジェクトの像の存在が期待される第4領域を予測し、前記第4領域において、前記注目画素毎に前記尤度を算出する、
請求項1または2に記載の画像処理装置。
The calculation unit predicts a fourth region where the object image is expected to exist in the fluoroscopic image based on a predetermined motion model, and calculates the likelihood for each target pixel in the fourth region. ,
The image processing apparatus according to claim 1.
前記透視画像を構成する各画素が所定順序で書き込まれる記憶部と、
前記算出部により最初に前記尤度の算出が行われる注目画素での前記尤度の算出に必要な全ての画素が前記記憶部に書き込まれるタイミングを管理する管理部と、を更に備え、
前記算出部は、前記タイミングの経過後に、前記注目画素毎の前記尤度の算出を開始する、
請求項1〜4のいずれか1項に記載の画像処理装置。
A storage unit in which the pixels constituting the fluoroscopic image are written in a predetermined order;
A management unit that manages the timing at which all the pixels necessary for the calculation of the likelihood in the target pixel for which the calculation of the likelihood is first performed by the calculation unit are written in the storage unit;
The calculation unit starts calculating the likelihood for each pixel of interest after the timing has elapsed.
The image processing apparatus of any one of Claims 1-4.
前記オブジェクトは、前記被検体の内部に複数存在し、
前記算出部は、前記被検体の内部を異なる方向で透視した複数の透視画像それぞれの前記注目画素毎に前記尤度を算出し、
前記検出部は、前記透視画像毎に前記複数のオブジェクトの像それぞれの存在が期待される第3領域を示す領域情報及び3次元座標を当該透視画像に射影する射影行列を取得し、前記透視画像毎に値の大きさが所定条件を満たす尤度の注目画素を複数検出し、前記透視画像毎に当該透視画像の前記領域情報を用いて当該透視画像から検出した前記複数の注目画素それぞれがいずれの第3領域に存在するかを検出して、前記複数の透視画像それぞれで検出された前記複数の注目画素を前記複数の透視画像間で対応付け、前記複数の透視画像それぞれの前記射影行列、前記複数の透視画像それぞれから検出され、前記複数の透視画像間で対応付けられた前記複数の注目画素を用いて、前記複数のオブジェクトの3次元位置を検出する、
請求項1または2に記載の画像処理装置。
A plurality of the objects exist inside the subject,
The calculation unit calculates the likelihood for each pixel of interest of each of a plurality of fluoroscopic images obtained by seeing through the inside of the subject in different directions,
The detection unit acquires region information indicating a third region in which each of the plurality of object images is expected to exist for each perspective image and a projection matrix that projects a three-dimensional coordinate onto the perspective image, and the perspective image A plurality of target pixels having a likelihood that a value satisfies a predetermined condition is detected for each of the plurality of target pixels detected from the fluoroscopic image using the region information of the fluoroscopic image for each of the fluoroscopic images. The plurality of pixels of interest detected in each of the plurality of fluoroscopic images, the projection matrix of each of the plurality of fluoroscopic images, Detecting a three-dimensional position of the plurality of objects using the plurality of pixels of interest detected from each of the plurality of perspective images and associated between the plurality of perspective images;
The image processing apparatus according to claim 1.
前記オブジェクトは、前記被検体の内部に複数存在し、
前記算出部は、前記被検体の内部を異なる方向で透視した複数の透視画像それぞれの前記注目画素毎に前記尤度を算出し、
前記検出部は、前記透視画像毎に3次元座標を当該透視画像に射影する射影行列を取得し、前記透視画像毎に値の大きさが所定条件を満たす尤度の注目画素を複数検出し、前記複数の透視画像それぞれの前記射影行列を用いたエピポーラ幾何によって前記複数の透視画像それぞれで検出された前記複数の注目画素を前記複数の透視画像間で対応付け、前記複数の透視画像それぞれの前記射影行列、前記複数の透視画像それぞれから検出され、前記複数の透視画像間で対応付けられた前記複数の注目画素を用いて、前記複数のオブジェクトの3次元位置を検出する、
請求項1または2に記載の画像処理装置。
A plurality of the objects exist inside the subject,
The calculation unit calculates the likelihood for each pixel of interest of each of a plurality of fluoroscopic images obtained by seeing through the inside of the subject in different directions,
The detection unit obtains a projection matrix for projecting three-dimensional coordinates to the fluoroscopic image for each fluoroscopic image, and detects a plurality of target pixels having a likelihood that the magnitude of a value satisfies a predetermined condition for each fluoroscopic image, The plurality of pixels of interest that are detected in each of the plurality of fluoroscopic images are associated with each other by the epipolar geometry using the projection matrix of each of the plurality of fluoroscopic images, and each of the plurality of fluoroscopic images is associated with each other. A projection matrix, detected from each of the plurality of perspective images, and using the plurality of pixels of interest associated with the plurality of perspective images to detect a three-dimensional position of the plurality of objects;
The image processing apparatus according to claim 1.
前記算出部は、前記オブジェクトの形状及びサイズに関するオブジェクト情報と3次元座標を前記透視画像に射影する射影行列とを取得し、前記オブジェクト情報と前記射影行列とを用いて、前記透視画像に写る前記オブジェクトの像の形状及びサイズを算出し、当該像の形状及びサイズで前記第1領域を設定する、
請求項1または2に記載の画像処理装置。
The calculation unit obtains object information relating to the shape and size of the object and a projection matrix that projects three-dimensional coordinates onto the perspective image, and uses the object information and the projection matrix to reflect the object in the perspective image. Calculating the shape and size of the image of the object, and setting the first region with the shape and size of the image;
The image processing apparatus according to claim 1.
被検体に放射線を照射する第1照射部と、
前記被検体を透過した前記放射線を検出し、前記被検体の内部を透視した透視画像を生成する第1検出部と、
前記透視画像に含まれる注目画素毎に尤度を算出する算出部と、
前記注目画素それぞれの前記尤度に基づいて、前記被検体の内部のオブジェクトの位置を検出する第2検出部と、
検出された前記位置に基づいて、前記オブジェクトに治療ビームを照射する第2照射部と、
を備え、
前記注目画素の周辺にある第1領域に含まれる2以上の第1画素の画素値の差を示す第1の差に対する、前記2以上の第1画素の画素値と前記第1領域に含まれない1以上の第2画素の画素値との差を示す第2の差が大きい場合の前記尤度は、前記第1の差に対する前記第2の差が小さい場合の前記尤度よりも大きい、
治療システム。
A first irradiation unit for irradiating a subject with radiation;
A first detection unit that detects the radiation that has passed through the subject and generates a fluoroscopic image of the inside of the subject;
A calculation unit that calculates a likelihood for each target pixel included in the fluoroscopic image;
A second detection unit for detecting a position of an object inside the subject based on the likelihood of each of the target pixels;
A second irradiation unit configured to irradiate the object with a treatment beam based on the detected position;
With
The pixel values of the two or more first pixels are included in the first region with respect to the first difference indicating the difference between the pixel values of the two or more first pixels included in the first region around the pixel of interest. The likelihood when the second difference indicating a difference from the pixel value of one or more second pixels that is not greater is larger than the likelihood when the second difference with respect to the first difference is small,
Treatment system.
前記オブジェクトは、前記被検体の内部に複数存在し、
前記算出部は、所定運動モデルに基づいて、前記透視画像において前記複数のオブジェクトの像それぞれの存在が期待される第4領域を予測し、前記複数の第4領域それぞれにおいて、前記注目画素毎に前記尤度を算出し、
前記第2検出部は、前記像毎に、当該像が前記所定運動モデルに基づいて移動する位置に近いほど値が大きくなる事前確率を当該像の存在が期待される前記第4領域に設定し、前記第4領域毎に、前記注目画素それぞれの前記尤度と前記事前確率とに基づいて、前記オブジェクトの位置を検出し、前記複数の像同士の距離が閾値以下の場合、前記複数の像同士の距離が前記閾値を超えるように前記透視画像が生成される前記第1照射部及び前記第1検出部の少なくともいずれかの位置情報を算出し、
前記位置情報に基づいて、前記第1照射部及び前記第1検出部の少なくともいずれかの位置を制御する制御部を更に備える請求項9に記載の治療システム。
A plurality of the objects exist inside the subject,
The calculation unit predicts a fourth area where each of the plurality of object images is expected to be present in the fluoroscopic image based on a predetermined motion model, and for each of the target pixels in each of the plurality of fourth areas. Calculating the likelihood,
The second detection unit sets, for each image, a prior probability that the value increases as the image moves closer to the position based on the predetermined motion model in the fourth region where the image is expected to exist. For each of the fourth regions, the position of the object is detected based on the likelihood and the prior probability of each of the target pixels, and when the distance between the plurality of images is equal to or less than a threshold, Calculating position information of at least one of the first irradiating unit and the first detecting unit in which the fluoroscopic image is generated such that the distance between images exceeds the threshold;
The treatment system according to claim 9, further comprising a control unit that controls a position of at least one of the first irradiation unit and the first detection unit based on the position information.
被検体の内部を透視した透視画像に含まれる注目画素毎に尤度を算出する算出ステップと、
前記注目画素それぞれの前記尤度に基づいて、前記被検体の内部のオブジェクトの位置を検出する検出ステップと、
を含み、
前記注目画素の周辺にある第1領域に含まれる2以上の第1画素の画素値の差を示す第1の差に対する、前記2以上の第1画素の画素値と前記第1領域に含まれない1以上の第2画素の画素値との差を示す第2の差が大きい場合の前記尤度は、前記第1の差に対する前記第2の差が小さい場合の前記尤度よりも大きい、
画像処理方法。
A calculation step for calculating the likelihood for each target pixel included in the fluoroscopic image seen through the inside of the subject;
A detection step of detecting a position of an object inside the subject based on the likelihood of each of the target pixels;
Including
The pixel values of the two or more first pixels are included in the first region with respect to the first difference indicating the difference between the pixel values of the two or more first pixels included in the first region around the pixel of interest. The likelihood when the second difference indicating a difference from the pixel value of one or more second pixels that is not greater is larger than the likelihood when the second difference with respect to the first difference is small,
Image processing method.
JP2017085183A 2017-04-24 2017-04-24 Image processing apparatus, treatment system, and image processing method Active JP6310118B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017085183A JP6310118B2 (en) 2017-04-24 2017-04-24 Image processing apparatus, treatment system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017085183A JP6310118B2 (en) 2017-04-24 2017-04-24 Image processing apparatus, treatment system, and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013204583A Division JP6139361B2 (en) 2013-09-30 2013-09-30 Medical image processing apparatus, treatment system, and medical image processing method

Publications (2)

Publication Number Publication Date
JP2017124300A JP2017124300A (en) 2017-07-20
JP6310118B2 true JP6310118B2 (en) 2018-04-11

Family

ID=59365055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017085183A Active JP6310118B2 (en) 2017-04-24 2017-04-24 Image processing apparatus, treatment system, and image processing method

Country Status (1)

Country Link
JP (1) JP6310118B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7093075B2 (en) * 2018-04-09 2022-06-29 東芝エネルギーシステムズ株式会社 Medical image processing equipment, medical image processing methods, and programs
JP7067373B2 (en) * 2018-08-29 2022-05-16 沖電気工業株式会社 Signal tracking device, signal tracking system, signal tracking method and program
JP7103255B2 (en) * 2019-02-12 2022-07-20 株式会社島津製作所 Motion tracking device and motion tracking method
JP7252847B2 (en) * 2019-07-08 2023-04-05 株式会社日立製作所 Motion tracking device, radiotherapy system, and method of operating motion tracking device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009175845A (en) * 2008-01-22 2009-08-06 Fuji Xerox Co Ltd Image processor, pen device, and program
JP5916434B2 (en) * 2012-02-28 2016-05-11 三菱重工業株式会社 Treatment planning apparatus, treatment planning method and program thereof
US8873821B2 (en) * 2012-03-20 2014-10-28 Paul Reed Smith Guitars Limited Partnership Scoring and adjusting pixels based on neighborhood relationships for revealing data in images

Also Published As

Publication number Publication date
JP2017124300A (en) 2017-07-20

Similar Documents

Publication Publication Date Title
JP6139361B2 (en) Medical image processing apparatus, treatment system, and medical image processing method
KR102175394B1 (en) Medical apparatus, and method for controlling medical apparatus
US10130316B2 (en) X-ray CT apparatus and display method for CT image
JP7116944B2 (en) MEDICAL DEVICE, METHOD OF CONTROLLING MEDICAL DEVICE, AND PROGRAM
JP6310118B2 (en) Image processing apparatus, treatment system, and image processing method
US8965096B2 (en) Radiation therapy device controller, processing method and program for same
JP2008000456A (en) Radiation therapy equipment controller and radiation irradiation method
JP2012196260A (en) Control device for radiation therapy device, processing method and program for the same
WO2012008542A1 (en) Radiation treatment system and control method therefor
JP2010183976A (en) Radiotherapy apparatus controller and irradiation method
JP2016198262A (en) X-ray diagnostic apparatus
JP5010740B2 (en) Radiotherapy apparatus control method and radiotherapy apparatus control apparatus
US20220054862A1 (en) Medical image processing device, storage medium, medical device, and treatment system
US20170296843A1 (en) Processing device for a radiation therapy system
JP2014136054A (en) Radiotherapy system
JP2012010759A (en) Interference determination device
JP5238296B2 (en) X-ray apparatus and rotational imaging method
WO2023176264A1 (en) Medical image processing device, treatment system, medical image processing method, and program
US20230347180A1 (en) Medical image processing device, medical image processing method, medical image processing program, and radiation therapy device
WO2023153031A1 (en) Medical image processing device, treatment system, medical image processing method, program, and recording medium
WO2023176257A1 (en) Medical image processing device, treatment system, medical image processing method, and program
US20210378615A1 (en) Control apparatus, radiography system, control processing method, and control processing program
JP6996881B2 (en) X-ray CT device
CN116018181A (en) System and method for dynamic multi-leaf collimator tracking
JP2020182640A (en) X-ray diagnostic apparatus and medical information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180315

R151 Written notification of patent or utility model registration

Ref document number: 6310118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151