JP6703470B2 - Data processing device and data processing method - Google Patents

Data processing device and data processing method Download PDF

Info

Publication number
JP6703470B2
JP6703470B2 JP2016216759A JP2016216759A JP6703470B2 JP 6703470 B2 JP6703470 B2 JP 6703470B2 JP 2016216759 A JP2016216759 A JP 2016216759A JP 2016216759 A JP2016216759 A JP 2016216759A JP 6703470 B2 JP6703470 B2 JP 6703470B2
Authority
JP
Japan
Prior art keywords
dimensional image
image
captured
dimensional
ray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016216759A
Other languages
Japanese (ja)
Other versions
JP2018068982A (en
Inventor
和喜 松崎
和喜 松崎
徹 梅川
徹 梅川
隆志 飯村
隆志 飯村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016216759A priority Critical patent/JP6703470B2/en
Publication of JP2018068982A publication Critical patent/JP2018068982A/en
Application granted granted Critical
Publication of JP6703470B2 publication Critical patent/JP6703470B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、2次元の画像に撮像されている特徴部位の3次元位置を算出するデータ処理装置及びデータ処理方法の技術に関する。 The present invention relates to a technique of a data processing device and a data processing method for calculating a three-dimensional position of a characteristic part captured in a two-dimensional image.

X線源と2次元X線検出器(以下、検出器と称する)を対向するように設置したX線撮像システムが従来からある。また、支柱の両端にX線源と検出器を対向するように設置したX線撮像システムが従来からある。このような、X線撮像システムの支柱の形状として、C字形、U字形、コ字形等があり、支柱を天井から吊るす形状や、支柱を床から支える形状や、支柱を床に立てた別の支柱に取り付ける形状等がある。また、ガントリ上にX線源と検出器とを対向するように設置したX線撮像システムがある。これらのX線撮像システムは、X線源と、検出器と、被検体とを固定あるいは移動させながら、X線による被検体の静止画像や動画像を得ることが可能である。また、これらのX線撮像装置は、支柱あるいはガントリを移動させることにより、X線源及び検出器の対を被検体の周囲で回転させながらX線計測を行うことも可能である。また、これらのX線撮像装置は、X線源と検出器とを固定し、被検体を回転させながらX線計測を行うことが可能である。このような回転計測により得られた一連の計測像に対して再構成演算処理が行われることにより、再構成像が得られるコーンビームCT(Computed Tomography)計測が可能である。 There is a conventional X-ray imaging system in which an X-ray source and a two-dimensional X-ray detector (hereinafter referred to as a detector) are installed so as to face each other. In addition, there is a conventional X-ray imaging system in which an X-ray source and a detector are installed so as to face each other on both ends of a column. There are C-shaped, U-shaped, U-shaped, and the like as the shape of the pillar of such an X-ray imaging system, and the shape of hanging the pillar from the ceiling, the shape of supporting the pillar from the floor, and the other shape of the pillar standing on the floor. There are shapes to be attached to the columns. There is also an X-ray imaging system in which an X-ray source and a detector are installed on the gantry so as to face each other. These X-ray imaging systems can obtain a still image or a moving image of the subject by X-rays while fixing or moving the X-ray source, the detector, and the subject. In addition, these X-ray imaging apparatuses can also perform X-ray measurement while moving the column or gantry while rotating the pair of X-ray source and detector around the subject. Further, these X-ray imaging devices can perform X-ray measurement while fixing the X-ray source and the detector and rotating the subject. By performing reconstruction calculation processing on a series of measurement images obtained by such rotation measurement, cone beam CT (Computed Tomography) measurement capable of obtaining a reconstruction image is possible.

また、被検体にX線を照射するX線源と、被検体を透過したX線とを検出する検出器との対を被検体の周囲で回転させながらX線の検出(回転検出)を行い、得られた一連の検出データに再構成演算処理を施して3次元画像を得るCT装置がある。CT装置は、X線源と検出器とが筺体の中に格納され、被検体の周囲を高速に回転可能な構造となっているため、撮像時間が短く高速に3次元画像を取得可能な点である。このCT装置は、様々ながんを診断するために、広く用いられている。 Further, X-ray detection (rotation detection) is performed while rotating a pair of an X-ray source that irradiates the subject with X-rays and a detector that detects X-rays that have passed through the subject, around the subject. , There is a CT apparatus that obtains a three-dimensional image by performing reconstruction calculation processing on the obtained series of detection data. The CT device has a structure in which an X-ray source and a detector are housed in a housing and can rotate around a subject at high speed, so that the imaging time is short and a three-dimensional image can be acquired at high speed. Is. This CT device is widely used to diagnose various cancers.

一方、体内に器具を挿入し検査、治療を行う際に用いられる器具として、例えば気管支内の検査に用いられる内視鏡、心臓のインターベンションに用いられるカテーテル等がある。これら器具を気管支や血管内に挿入する際、X線撮像システムで得られるX線画像が広く用いられている。X線画像は2次元画像であるものの、画像がリアルタイムに取得可能であることから、術中に器具の位置や向きを確認するのに最適である。 On the other hand, examples of instruments used when inserting instruments into the body to perform examinations and treatments include endoscopes used for examinations in the bronchi, catheters used for intervention of the heart, and the like. An X-ray image obtained by an X-ray imaging system is widely used when these instruments are inserted into the bronchus or a blood vessel. Although the X-ray image is a two-dimensional image, the image can be acquired in real time, so it is optimal for confirming the position and orientation of the instrument during surgery.

これら器具の投影X線画像上での視認性を向上させるために、特許文献1に記載の技術が開示されている。特許文献1には、「被検体に関する一連の複数のX線画像を発生するX線画像発生部と、被検体に関する3次元の画像のデータを記憶する記憶部29と、記憶された3次元の画像のデータから、2次元の血管画像のデータを発生する画像処理部40と、X線画像どうしを差分し、複数の差分画像を発生する差分処理部34と、複数の差分画像各々を2次元の血管画像に重ねて表示する表示部35とを具備する」X線診断装置が開示されている。 In order to improve the visibility of these instruments on a projected X-ray image, the technique described in Patent Document 1 is disclosed. Patent Document 1 describes "an X-ray image generation unit that generates a series of a plurality of X-ray images regarding a subject, a storage unit 29 that stores data of a three-dimensional image regarding the subject, and a stored three-dimensional image. An image processing unit 40 that generates two-dimensional blood vessel image data from image data, a difference processing unit 34 that generates a plurality of difference images by subtracting X-ray images from each other, and a plurality of difference images are two-dimensional. The X-ray diagnostic apparatus is disclosed.

また、肺がんの確定診断を行うために、気管支内視鏡を用いた生検による検査が広く行われている。この検査では、肺末梢部へ向けて、まず、術者が気管支内視鏡下でガイドシースと呼ばれる内腔を持つ筒状の処置具を挿入する。さらに、気管支内視鏡が挿入できない肺末梢の気管支では、術者がX線撮像システムの投影X線画像下でガイドシースを肺末梢病変部に誘導、留置し、このガイドシースの内腔に生検用の鉗子(生検鉗子)や細胞診用のブラシ(細胞診ブラシ)を挿入する。このようにして、生検鉗子や、ブラシが病変部にガイドされ、検体が採取される。 Moreover, in order to make a definite diagnosis of lung cancer, a test by a biopsy using a bronchoscope is widely performed. In this examination, the operator first inserts a tubular treatment instrument having a lumen called a guide sheath under the bronchoscope toward the peripheral part of the lung. Further, in the bronchus around the lung where the bronchoscope cannot be inserted, the operator guides and places the guide sheath in the peripheral lesion of the lung under the projected X-ray image of the X-ray imaging system, and inserts it into the lumen of this guide sheath. Insert forceps for inspection (biopsy forceps) or brush for cytology (cytology brush). In this way, the biopsy forceps and the brush are guided to the lesion area and the specimen is collected.

特開2009−39521号公報JP, 2009-39521, A

X線撮像システムによるX線画像を用いた生検では、前記したように、生検鉗子や細胞診ブラシ等の処置具がリアルタイムで認識可能である。しかし、X線画像は、2次元の画像であるため、X線源の中心と検出器の中心とを結ぶ軸を考えた場合、この軸に垂直な面での処置具の位置や向きの処置具の位置や向きは認識可能ではあるが、軸方向(以下、奥行き方向)では、投影方向となってしまうため、奥行き方向の処置具の位置を認識することは容易ではない。 In the biopsy using the X-ray image by the X-ray imaging system, the treatment tools such as the biopsy forceps and the cytodiagnosis brush can be recognized in real time as described above. However, since the X-ray image is a two-dimensional image, when the axis connecting the center of the X-ray source and the center of the detector is considered, the treatment of the position and orientation of the treatment tool on the plane perpendicular to this axis is performed. Although the position and orientation of the treatment tool can be recognized, it is not easy to recognize the position of the treatment tool in the depth direction because it becomes the projection direction in the axial direction (hereinafter, depth direction).

また、X線画像を用いた生検において、病変部から検体を正確に採取するためには、患部と処置具の位置関係が正しく認識されなければならない。しかし、前記したように、X線画像では、奥行き方向の位置を認識することが容易ではない。仮にX線画像上で、病変部と処置具とが重なって描出されていたとしても、必ずしも病変部に処置具が到達しているとは限らない。すなわち、奥行き方向において、病変部と、処置具との位置が一致しているとは限らない。 Further, in a biopsy using an X-ray image, in order to accurately collect a sample from a lesion, the positional relationship between the affected area and the treatment tool must be correctly recognized. However, as described above, it is not easy to recognize the position in the depth direction in the X-ray image. Even if the lesioned part and the treatment tool are drawn so as to overlap each other on the X-ray image, the treatment tool does not always reach the lesioned part. That is, the positions of the lesion and the treatment tool do not always match in the depth direction.

さらに、X線画像は、X線が通過する体内物質の吸収量の違いを画像化している。そのため、一般的に、吸収量の高い骨等は、画像上に描出されやすく、吸収量が低い軟組織等は、画像上に描出されにくい。つまり投影X線画像では、骨等は高いコントラストを有するが、腫瘍等を含む軟組織は低いコントラストとなり互いの識別が簡単ではないことが想定される。肺がんにおいても、すりガラス陰影(Ground Glass Opacity:GGO)を生じる種類のがんは、コントラストが低くなってしまうため投影X線画像上では認識が容易ではない。また、処置具を通す、血管や気管支も、同様の理由により(コントラストが低くなってしまうため)投影X線画像上での認識は容易ではない。 Furthermore, the X-ray image visualizes the difference in the absorption amount of the substance in the body through which the X-ray passes. Therefore, in general, bone or the like having a high absorption amount is easily visualized on the image, and soft tissue or the like having a low absorption amount is difficult to be visualized on the image. That is, in the projected X-ray image, bones and the like have a high contrast, but soft tissues including a tumor and the like have a low contrast, and it is assumed that they cannot be easily distinguished from each other. Even in lung cancer, the type of cancer that produces ground glass opacity (GGO) has a low contrast and is not easy to recognize on a projected X-ray image. Further, it is not easy to recognize a blood vessel or a bronchus through which a treatment tool is passed on a projected X-ray image for the same reason (because the contrast becomes low).

このように、投影X線画像上での軟組織等の視認性が比較的低いことが想定される点に対し、前記した特許文献1では、事前に撮像された3次元画像を用いている。その3次元画像はカテーテル等の処置具を通す血管を造影した画像である。特許文献1では、3次元画像と投影X線画像とを位置合わせを行っている。そして、特許文献1では、3次元画像から生成した投影画像を投影X線画像に重ね合わせることにより、処置具の視認性を向上させる手法を開示している。 In this way, in view of the fact that the visibility of soft tissues and the like on the projected X-ray image is assumed to be relatively low, the above-mentioned Patent Document 1 uses a three-dimensional image captured in advance. The three-dimensional image is an image in which a blood vessel passing through a treatment tool such as a catheter is imaged. In Patent Document 1, the three-dimensional image and the projected X-ray image are aligned. Then, Patent Document 1 discloses a method of improving the visibility of the treatment tool by superimposing the projection image generated from the three-dimensional image on the projection X-ray image.

このような手法では、事前に撮像された3次元画像を用いることにより、投影X線画像上での血管範囲やカテーテルの位置が明確になり、視認性が向上する可能性がある。しかしながら、投影X線画像及び重ね合わせ画像は2次元画像のため、奥行き方向の位置関係は、依然として明確にはならないことが想定される。また、事前に撮像されたCT画像等の3次元画像は、処置を行うためのX線撮像とは異なる装置、異なる時間に撮像された画像である。そのため、被験者の体動、特に肺は呼吸性の動きがあるため、事前に撮像された3次元画像から生成された投影像と投影X線像では、位置ずれが生じる場合がある。特許文献1に記載の手法では、必ずしも、それらのいずれにも対応できないことが想定される。 In such a method, by using a three-dimensional image captured in advance, the blood vessel range and the position of the catheter on the projected X-ray image are clarified, and the visibility may be improved. However, since the projected X-ray image and the superimposed image are two-dimensional images, it is assumed that the positional relationship in the depth direction is still unclear. Also, a three-dimensional image such as a CT image captured in advance is an image captured at a different time from a device different from the X-ray imaging for performing the treatment. Therefore, since the body movement of the subject, especially the lungs, has respiratory movements, there may be a positional shift between the projection image and the projection X-ray image generated from the three-dimensional image captured in advance. It is assumed that the method described in Patent Document 1 does not necessarily support any of them.

このような背景に鑑みて本発明がなされたのであり、本発明は、特徴部位の3次元位置算出精度を向上させることを課題とする。 The present invention has been made in view of such a background, and an object of the present invention is to improve the three-dimensional position calculation accuracy of a characteristic part.

前記した課題を解決するため、本発明が適用されるデータ処理装置は、放射線撮像装置によって撮像された画像であり、所定の特徴部位が撮像されている2次元画像と、前記2次元画像を撮像した被検体と同一の被検体を、前記放射線撮像装置とは別の放射線撮像装置で、前記2次元画像とは異なる時刻で撮像された3次元画像とにおいて、前記2次元画像に撮像されている前記特徴部位の前記3次元画像での位置を算出するデータ処理装置であって、前記2次元画像を取得する2次元画像取得部と、前記3次元画像を取得する3次元画像取得部と、前記3次元画像を基に、前記2次元画像に相当する2次元の画像である計算2次元画像を生成する計算2次元画像生成部と、前記3次元画像を基に、前記2次元画像における剛体領域を減弱して減弱2次元画像を生成する剛体領域減弱部と、前記3次元画像を基に、前記計算2次元画像から剛体領域を減弱したものに相当する計算減弱2次元画像を生成する計算剛体領域減弱部と、前記減弱2次元画像と、前記計算減弱2次元画像とを基に、前記減弱2次元画像と、前記計算減弱2次元画像とにおけるずれの度合いを算出するずれ度算出部と、前記算出されたずれの度合いを基に、前記特徴部位の前記3次元画像での位置を算出する位置算出部と、前記3次元画像中に前記特徴部位の位置を表示する表示部と、を有することを特徴とする。
その他の解決手段については実施形態中において記載する。
In order to solve the above-mentioned problems, a data processing apparatus to which the present invention is applied is an image captured by a radiation imaging apparatus, and a two-dimensional image in which a predetermined characteristic part is captured, and the two-dimensional image. The same subject as the above-mentioned subject is captured as the two-dimensional image in a three-dimensional image captured at a different time from the two-dimensional image by a radiation imaging device different from the radiation imaging device. A data processing device for calculating the position of the characteristic part in the three-dimensional image, the two-dimensional image acquiring part acquiring the two-dimensional image, the three-dimensional image acquiring part acquiring the three-dimensional image, A calculation two-dimensional image generation unit that generates a calculation two-dimensional image that is a two-dimensional image corresponding to the two-dimensional image based on the three-dimensional image, and a rigid body region in the two-dimensional image based on the three-dimensional image. And a rigid body region weakening unit for generating a weakened two-dimensional image, and a calculated rigid body for generating a weakened two-dimensional image corresponding to a weakened region of the calculated two-dimensional image based on the three-dimensional image. A deviation degree calculation unit that calculates a degree of deviation between the attenuation two-dimensional image and the calculated attenuation two-dimensional image based on the area attenuation unit, the attenuation two-dimensional image, and the calculated attenuation two-dimensional image, A position calculation unit that calculates the position of the characteristic region in the three-dimensional image based on the calculated degree of deviation, and a display unit that displays the position of the characteristic region in the three-dimensional image. It is characterized by
Other solutions will be described in the embodiments.

本発明によれば、特徴部位の3次元位置算出精度を向上させることができる。 According to the present invention, the three-dimensional position calculation accuracy of a characteristic part can be improved.

本実施形態に係るX線撮像システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the X-ray imaging system which concerns on this embodiment. 本実施形態に係るデータ処理装置のハードウェア構成図を示すとともに、メモリの構成を示す図である。It is a figure which shows the hardware block diagram of the data processing apparatus which concerns on this embodiment, and also shows the structure of a memory. 本実施形態に係るデータ処理装置における全体処理の手順の一例を示すフローチャートである。It is a flow chart which shows an example of the procedure of the whole processing in the data processor concerning this embodiment. 本実施形態に係る計算投影画像の生成手法の一例を示す図である。It is a figure which shows an example of the generation method of the calculation projection image which concerns on this embodiment. 本実施形態に係る骨領域減弱処理の詳細な手順を示すフローチャートである。It is a flow chart which shows the detailed procedure of the bone field weakening processing concerning this embodiment. 本実施形態に係る骨領域減弱X線画像の例を示す図である。It is a figure which shows the example of the bone region attenuation X-ray image which concerns on this embodiment. 骨領域減弱X線画像における特徴部位を示す図である。It is a figure which shows the characteristic site|part in a bone region attenuation X-ray image. 本実施形態に係る体動移動量算出処理の詳細な処理手順を示すフローチャートである。It is a flow chart which shows a detailed processing procedure of body movement amount calculation processing concerning this embodiment. 本実施形態に係る体動移動量算出を説明するための図である。It is a figure for explaining body movement amount calculation concerning this embodiment. 特徴部位の3次元位置算出方法を示す図である。It is a figure which shows the three-dimensional position calculation method of a characteristic site. 生成された直線の関係を示す図である。It is a figure which shows the relationship of the produced|generated straight line. 本実施形態に係る表示画面例を示す図である。It is a figure which shows the example of a display screen which concerns on this embodiment. 本実施形態に係る表示画面の別の例を示す図である。It is a figure which shows another example of the display screen which concerns on this embodiment.

次に、本発明を実施するための形態(「実施形態」という)について、適宜図面を参照しながら詳細に説明する。
以下、放射線撮像システムの一例として、特に、X線撮像システムの実施形態について図面を用いて説明する。本実施形態は、これに限らず適宜の放射線撮像システムに適用することができる。なお、本実施形態では、X線源及び検出器によって撮像された2次元の撮像X線画像を、単に撮像X線画像と称する。
また、X線源やX線検出器、撮像X線画像等に限らず、X線以外の適宜の測定源や検出器、撮像画像や反射画像等に適宜適用することができる。
Next, modes for carrying out the present invention (referred to as “embodiments”) will be described in detail with reference to the drawings as appropriate.
Hereinafter, as an example of a radiation imaging system, an embodiment of an X-ray imaging system will be described with reference to the drawings. The present embodiment is not limited to this, and can be applied to an appropriate radiation imaging system. In the present embodiment, the two-dimensional imaged X-ray image imaged by the X-ray source and the detector is simply referred to as an imaged X-ray image.
Further, the present invention is not limited to the X-ray source, the X-ray detector, the captured X-ray image, and the like, and can be appropriately applied to an appropriate measurement source and detector other than the X-ray, the captured image, the reflected image, and the like.

図1は、本実施形態に係るX線撮像システムの構成の一例を示す図である。
X線撮像システム1は、データ処理装置100、X線源201、検出器202、制御装置300、表示装置(表示部)401、記憶装置402を有している。また、X線撮像システム1は、有線又は無線のネットワークを介して、医用画像サーバ2と接続されている。
医用画像サーバ2は、例えば、CT画像、MRI(Magnetic Resonance Imaging)画像、PET(Positron Emission Computed Tomography)画像、超音波画像と言った様々な医用画像を保存している。これら画像及び情報のネットワークを介した通信や保存は、例えば、医療分野にて一般的に使用されているDICOM(Digital Imaging and Communication in Medicine)フォーマットが用いられることが望ましい。
FIG. 1 is a diagram showing an example of the configuration of an X-ray imaging system according to this embodiment.
The X-ray imaging system 1 includes a data processing device 100, an X-ray source 201, a detector 202, a control device 300, a display device (display unit) 401, and a storage device 402. Further, the X-ray imaging system 1 is connected to the medical image server 2 via a wired or wireless network.
The medical image server 2 stores various medical images such as a CT image, an MRI (Magnetic Resonance Imaging) image, a PET (Positron Emission Computed Tomography) image, and an ultrasonic image. For communication and storage of these images and information via a network, for example, it is desirable to use a DICOM (Digital Imaging and Communication in Medicine) format generally used in the medical field.

X線源201は、X線の照射を行い、検出器202は照射されたX線を検出する。
制御装置300は、X線源201、検出器202の移動や、回転等を制御するとともに、検出器202から検出データを取得するものであり、駆動部301と、データ収集部302とを有する。
駆動部301は、X線源201、検出器202を駆動する図示しない駆動モータ等を駆動することにより、X線源201、検出器202の移動や、回転等を行う。
データ収集部302は、検出器202から撮像X線画像(2次元画像)の情報を収集し、記憶装置402へ送る。
表示装置401は、各種画像の表示を行うとともに、補正した処置具の特徴部位等を表示する。つまり、表示装置401は、データ収集部302が収集した撮像X線画像の表示や、データ処理装置100による処理結果を表示する。
記憶装置402は、検出器202で撮像され、データ収集部302から送られた撮像X線画像を格納する。また、記憶装置402は、データ処理装置100による処理結果等を記憶する。
The X-ray source 201 emits X-rays, and the detector 202 detects the emitted X-rays.
The control device 300 controls movement, rotation, and the like of the X-ray source 201 and the detector 202, and acquires detection data from the detector 202, and includes a drive unit 301 and a data collection unit 302.
The drive unit 301 drives the X-ray source 201 and the detector 202, which are not shown, to drive the X-ray source 201 and the detector 202, thereby moving and rotating the X-ray source 201 and the detector 202.
The data collection unit 302 collects the information of the captured X-ray image (two-dimensional image) from the detector 202 and sends it to the storage device 402.
The display device 401 displays various images, and also displays the corrected characteristic part of the treatment tool and the like. That is, the display device 401 displays the captured X-ray images collected by the data collection unit 302 and the processing result by the data processing device 100.
The storage device 402 stores the captured X-ray image captured by the detector 202 and sent from the data collection unit 302. Further, the storage device 402 stores the processing result and the like by the data processing device 100.

データ処理装置100は、画像取得部(2次元画像取得部、3次元画像取得部)111、計算投影画像生成部(計算2次元画像生成部)112、画像位置合わせ部113、剛体領域減弱部114を有している。また、データ処理装置100は、特徴部位抽出部115、体動移動量算出/補正部(計算剛体領域減弱部、ずれ度算出部、位置算出部)116、3次元位置算出部(位置算出部)117、位置マッピング部118、表示処理部119を有している。データ処理装置100における各部が行う処理の詳細については後記する。
画像取得部111は、医用画像サーバ2から3次元画像を取得したり、記憶装置402から撮像X線画像を取得したりする。
計算投影画像生成部112は、3次元画像から2次元の計算投影画像(計算2次元画像)を生成する。計算投影画像については、後記する。
The data processing device 100 includes an image acquisition unit (two-dimensional image acquisition unit, three-dimensional image acquisition unit) 111, a calculated projection image generation unit (calculated two-dimensional image generation unit) 112, an image registration unit 113, and a rigid body region weakening unit 114. have. Further, the data processing device 100 includes a characteristic part extraction unit 115, a body movement amount calculation/correction unit (calculated rigid body region attenuation unit, deviation degree calculation unit, position calculation unit) 116, a three-dimensional position calculation unit (position calculation unit). It has a 117, a position mapping section 118, and a display processing section 119. Details of the processing performed by each unit in the data processing device 100 will be described later.
The image acquisition unit 111 acquires a three-dimensional image from the medical image server 2 and acquires a captured X-ray image from the storage device 402.
The calculation projection image generation unit 112 generates a two-dimensional calculation projection image (calculation two-dimensional image) from the three-dimensional image. The calculation projection image will be described later.

画像位置合わせ部113は、撮像X線画像と3次元画像との位置合わせを行う。
剛体領域減弱部114は、撮像X線画像から骨領域の減弱処理を行う。骨領域の減弱処理については後記する。
特徴部位抽出部115は、骨領域が減弱された撮像X線画像(骨領域減弱X線画像(減弱2次元画像)と称する)から処置具等の特徴部位(以下、特徴部位と称する)を抽出する。骨領域減弱X線画像については後記する。
体動移動量算出/補正部116は、骨領域減弱X線画像と計算投影画像とから体動移動量を算出し、特徴部位の位置を補正する。
3次元位置算出部117は、体動移動量算出/補正部116で算出された体動移動量を基に、特徴部位の3次元位置の算出を行う。なお、本実施形態では、3次元位置とは、X線撮像システム1での空間位置のことを指すものとする。
位置マッピング部118は、3次元位置算出部117によって算出された特徴部位の3次元位置を基に、特徴部位を3次元画像等に付加する。
表示処理部119は、各種画像の表示を行うとともに、補正した特徴部位等を表示装置401に表示させる。
The image alignment unit 113 aligns the captured X-ray image and the three-dimensional image.
The rigid region weakening unit 114 performs a bone region weakening process from the captured X-ray image. The process of reducing the bone area will be described later.
The characteristic part extraction unit 115 extracts a characteristic part (hereinafter, referred to as a characteristic part) of a treatment tool or the like from the captured X-ray image in which the bone region is weakened (referred to as a bone region weakened X-ray image (weakened two-dimensional image)). To do. The bone area attenuated X-ray image will be described later.
The body movement amount calculation/correction unit 116 calculates the body movement amount from the bone region attenuated X-ray image and the calculated projection image, and corrects the position of the characteristic part.
The three-dimensional position calculation unit 117 calculates the three-dimensional position of the characteristic part based on the body movement amount calculated by the body movement amount calculation/correction unit 116. In the present embodiment, the three-dimensional position means a spatial position in the X-ray imaging system 1.
The position mapping unit 118 adds the characteristic region to the three-dimensional image or the like based on the three-dimensional position of the characteristic region calculated by the three-dimensional position calculation unit 117.
The display processing unit 119 displays various images and causes the display device 401 to display the corrected characteristic portion and the like.

(ハードウェア構成図)
図2は、本実施形態に係るデータ処理装置のハードウェア構成図を示すとともに、メモリの構成を示す図である。
データ処理装置100は、メモリ101、CPU(Central Processing Unit)102、通信装置103を有している。
メモリ101には、記憶装置402(図1参照)等に格納されているプログラムが展開されている。そして、メモリ101に展開されたプログラムがCPU102によって実行されることにより、画像取得部111、計算投影画像生成部112、画像位置合わせ部113、剛体領域減弱部114、特徴部位抽出部115、体動移動量算出/補正部116、3次元位置算出部117、位置マッピング部118、表示処理部119が具現化している。画像取得部111、計算投影画像生成部112、画像位置合わせ部113、剛体領域減弱部114、特徴部位抽出部115、体動移動量算出/補正部116、3次元位置算出部117、位置マッピング部118、表示処理部119については、図1で説明済みであるので、ここでの説明を省略する。
(Hardware configuration diagram)
FIG. 2 is a diagram showing the hardware configuration of the data processing apparatus according to the present embodiment and the configuration of the memory.
The data processing device 100 includes a memory 101, a CPU (Central Processing Unit) 102, and a communication device 103.
The programs stored in the storage device 402 (see FIG. 1) and the like are expanded in the memory 101. Then, the program expanded in the memory 101 is executed by the CPU 102, so that the image acquisition unit 111, the calculated projection image generation unit 112, the image registration unit 113, the rigid body region attenuation unit 114, the characteristic portion extraction unit 115, and the body movement. A movement amount calculation/correction unit 116, a three-dimensional position calculation unit 117, a position mapping unit 118, and a display processing unit 119 are embodied. The image acquisition unit 111, the calculated projection image generation unit 112, the image alignment unit 113, the rigid body region attenuation unit 114, the characteristic portion extraction unit 115, the body movement amount calculation/correction unit 116, the three-dimensional position calculation unit 117, and the position mapping unit. The 118 and the display processing unit 119 have already been described with reference to FIG. 1, so description thereof will be omitted here.

(全体処理)
図3は、本実施形態に係るデータ処理装置における全体処理の手順の一例を示すフローチャートである。以降、適宜、図1を参照する。
これ以降では、一例として、2つの撮像X線画像を取得する場合について説明するが、本実施形態は、3つ以上の撮像X線画像を取得する場合にも適用可能である。また、本実施形態では、特徴部位(以下、特徴部位と称する)を鉗子先端及びガイドシースマーカとしているが、鉗子先端やガイドシースマーカ以外にも、適宜のマーカや適宜の部位・部分でもよい。また、本実施形態では、特徴部位は、鉗子先端及びガイドシースマーカの2つとしているが、一つ又は3以上としてもよい。また、処置具に限らず、他の器具でもよい。
(Overall processing)
FIG. 3 is a flowchart showing an example of the procedure of the overall processing in the data processing device according to the present embodiment. Hereinafter, FIG. 1 will be referred to as appropriate.
Hereinafter, as an example, a case where two captured X-ray images are acquired will be described, but the present embodiment is also applicable to a case where three or more captured X-ray images are acquired. Further, in the present embodiment, the characteristic portion (hereinafter referred to as the characteristic portion) is the forceps tip and the guide sheath marker, but other than the forceps tip or the guide sheath marker, an appropriate marker or an appropriate portion/portion may be used. Further, in the present embodiment, the characteristic parts are two, the tip of the forceps and the guide sheath marker, but may be one or three or more. Further, it is not limited to the treatment tool, and other instruments may be used.

まず、処理に先だって、X線撮像システム1は、装置制御部104の駆動部301によりX線源201及び検出器202を駆動させる。例えば、X線源201及び検出器202を回転させ、撮像位置へ移動する。そして、X線源201を構成するX線管(不図示)等からX線が照射され、検出器202のパネル(不図示)等がX線を検出して、検出データが生じる。この検出データは、制御装置300のデータ収集部302によって2次元の撮像X線画像として構成される。撮像X線画像は、一旦、記憶装置402に保存された後、データ処理装置100へ送られる。撮像X線画像は、検出器202からデータ処理装置100へ直接送られてもよい。さらに、駆動部301により、X線源201及び検出器202の角度又は方向が変更され、同様の撮像が行われることにより、他の撮像X線画像が取得される。 First, prior to the processing, the X-ray imaging system 1 drives the X-ray source 201 and the detector 202 by the driving unit 301 of the device control unit 104. For example, the X-ray source 201 and the detector 202 are rotated and moved to the imaging position. Then, X-rays are emitted from an X-ray tube (not shown) or the like that constitutes the X-ray source 201, a panel (not shown) of the detector 202 or the like detects the X-rays, and detection data is generated. This detection data is configured as a two-dimensional captured X-ray image by the data collection unit 302 of the control device 300. The captured X-ray image is temporarily stored in the storage device 402 and then sent to the data processing device 100. The captured X-ray image may be sent directly from the detector 202 to the data processing device 100. Further, the driving unit 301 changes the angles or directions of the X-ray source 201 and the detector 202 and performs similar imaging, so that another captured X-ray image is acquired.

なお、本実施形態では、1組のX線源201及び検出器202を回転移動させて、2回撮像を行うことにより、2つの撮像X線画像を撮像しているが、2組のX線源201及び検出器202により、同時に2回撮像を行うことにより2つの撮像X線画像が撮像されてもよい。 In the present embodiment, two sets of X-ray images are picked up by rotating the set of X-ray source 201 and detector 202 and picking up images twice. Two imaged X-ray images may be taken by the source 201 and the detector 202 by taking two images at the same time.

そして、画像取得部111は、撮像された2つの撮像X線画像を取得する(S101)。
そして、ステップS101において、2つの撮像X線画像が取得されるのと前後して、画像取得部111は、医用画像サーバ2から、事前に撮像されている3次元画像を取得する(S102)。ここで、3次元画像は、撮像X線画像とは、別に撮像されている。3次元画像の撮像は、例えば、撮像X線画像の1週間前等である(1週間前には限らない)。
Then, the image acquisition unit 111 acquires the two captured X-ray images (S101).
Then, before and after the two captured X-ray images are acquired in step S101, the image acquisition unit 111 acquires a three-dimensional image captured in advance from the medical image server 2 (S102). Here, the three-dimensional image is captured separately from the captured X-ray image. The three-dimensional image is captured, for example, one week before the captured X-ray image (not limited to one week before).

3次元画像は、例えば、病変部の診断や、処置具を病変部まで挿入するためのルート等を、事前に計画するために用いられる画像である。3次元画像として、前記したように、一般的にはCT画像、MRI画像、PET画像等を用いることができるが、これらに限られない。ここでは、一例として、3次元画像としてCT画像を用いる例について説明する。
なお、3次元画像は、例えば、体軸方向に連続撮像したものが複数枚取得される。
The three-dimensional image is, for example, an image used for diagnosing a lesion site and for planning a route for inserting a treatment tool to the lesion site in advance. As described above, a CT image, an MRI image, a PET image or the like can be generally used as the three-dimensional image, but the three-dimensional image is not limited thereto. Here, as an example, an example in which a CT image is used as a three-dimensional image will be described.
Note that, for example, a plurality of three-dimensional images obtained by continuously capturing images in the body axis direction are acquired.

そして、計算投影画像生成部112は、取得した複数枚の3次元画像(CT画像)から、X線源201及び検出器202の位置に基づいて、2次元の計算投影画像を生成する。(S111)。
ここで、計算投影画像は、以下の手順によって生成される。
(A1)計算投影画像生成部112は、実際のX線撮像システム1におけるX線源201及び検出器202の空間的な配置に、事前に撮像した3次元画像(CT画像等)を配置した模擬体系を生成する。
(A2)そして、計算投影画像生成部112は、生成した模擬体系で、X線源201から検出器202に模擬X線(レイ)を投影し、模擬X線による検出器202での検出画像(例えば、通過距離と画素値等)を算出(レイトレース)することによって計算投影画像を生成する。
つまり、計算投影画像とは、3次元画像から模擬的に再構成されるX線画像である。
なお、計算投影画像は、一般的には、DRR(Digital Reconstructed Radiograph)画像と呼ばれる。
Then, the calculated projection image generation unit 112 generates a two-dimensional calculated projection image from the acquired three-dimensional images (CT images) based on the positions of the X-ray source 201 and the detector 202. (S111).
Here, the calculation projection image is generated by the following procedure.
(A1) The simulated projection image generation unit 112 simulates a three-dimensional image (CT image or the like) captured in advance in a spatial arrangement of the X-ray source 201 and the detector 202 in the actual X-ray imaging system 1. Generate a system.
(A2) Then, the calculation projection image generation unit 112 projects a simulated X-ray (ray) from the X-ray source 201 to the detector 202 with the generated simulation system, and the detected image at the detector 202 by the simulated X-ray ( For example, the calculated projection image is generated by calculating (ray trace) the passing distance and the pixel value.
That is, the calculation projection image is an X-ray image reconstructed in a simulated manner from a three-dimensional image.
The calculated projection image is generally called a DRR (Digital Reconstructed Radiograph) image.

(計算投影画像生成処理)
図4は、本実施形態に係る計算投影画像の生成手法の一例を示す図である。
まず、前記した通り、X線撮像システム1において、撮像X線画像501が取得された際のX線源201、検出器202の3次元的な位置は、撮像時の装置構成から容易に取得可能である。ここで、3次元的な位置とは、X線撮像システム1における3次元位置である。
(Computational projection image generation process)
FIG. 4 is a diagram showing an example of a method of generating a calculated projection image according to this embodiment.
First, as described above, in the X-ray imaging system 1, the three-dimensional positions of the X-ray source 201 and the detector 202 when the captured X-ray image 501 is acquired can be easily acquired from the device configuration at the time of imaging. Is. Here, the three-dimensional position is a three-dimensional position in the X-ray imaging system 1.

また、撮像X線画像501の撮像時におけるX線源201及び検出器202の被写体に対する撮像角度も容易に取得することができる。したがって、取得されたX線源201及び検出器202の回転角度と、位置とを模擬した配置で、3次元画像503から計算投影画像502を生成することが可能である。例えば、計算投影画像生成部112は、前記したレイトレース法を用いて、3次元画像503であるCT画像の画素値をレイ方向に加算した数値を計算することで計算投影画像502を生成する。さらに、計算投影画像生成部112は、計算投影画像502を、撮像X線画像501を撮像したX線源201の各位置について計算投影画像502を生成する。 Further, the imaging angles of the X-ray source 201 and the detector 202 with respect to the subject at the time of imaging the captured X-ray image 501 can also be easily acquired. Therefore, it is possible to generate the calculated projection image 502 from the three-dimensional image 503 with an arrangement simulating the rotation angle and the position of the acquired X-ray source 201 and detector 202. For example, the calculation projection image generation unit 112 generates the calculation projection image 502 by calculating the numerical value obtained by adding the pixel values of the CT image, which is the three-dimensional image 503, in the ray direction using the ray tracing method described above. Further, the calculation projection image generation unit 112 generates the calculation projection image 502 for each position of the X-ray source 201 that has captured the captured X-ray image 501.

例えば、計算投影画像生成部112は、X線源201の位置P1における計算投影画像502aと、X線源201の位置P2における計算投影画像502bとを3次元画像503から生成する。計算投影画像502aは撮像X線画像501aに、計算投影画像502bは撮像X線画像501bにそれぞれ対応する。 For example, the calculated projection image generation unit 112 generates a calculated projection image 502a at the position P1 of the X-ray source 201 and a calculated projection image 502b at the position P2 of the X-ray source 201 from the three-dimensional image 503. The calculated projection image 502a corresponds to the captured X-ray image 501a, and the calculated projection image 502b corresponds to the captured X-ray image 501b.

(位置合わせ処理)
図3の説明に戻る。
次に、画像位置合わせ部113により、計算投影画像と撮像X線画像との位置合わせを行う(S112)。
計算投影画像と、撮像X線画像の組み合わせにおいて、各画像は2次元画像のため、それらの位置合わせを行うことは容易である。ここで、計算投影画像と、撮像X線画像の組み合わせとは、同じX線源201及び検出器202の位置で、実際に撮像された撮像X線画像と、模擬的に生成された計算投影画像の組み合わせである。例えば、図4において、X線源201の位置P1と、位置P2とで撮像X線画像501a,501bが撮像されたとすると、X線源201の位置P1で撮像された撮像X線画像501aと、X線源201が位置P1にあるとして模擬的に生成された計算投影画像502aとの組み合わせが1つの組み合わせとなる。同様に、X線源201の位置P2で撮像された撮像X線画像501bと、X線源201が位置P2にあるとして模擬的に生成された計算投影画像502bとの組み合わせが1つの組み合わせとなる。
(Alignment process)
Returning to the explanation of FIG.
Next, the image alignment unit 113 aligns the calculated projection image and the captured X-ray image (S112).
In the combination of the calculated projection image and the captured X-ray image, since each image is a two-dimensional image, it is easy to align them. Here, the combination of the calculated projection image and the captured X-ray image means the captured X-ray image actually captured at the same position of the X-ray source 201 and the detector 202 and the simulated projection image generated. Is a combination of. For example, in FIG. 4, if the imaged X-ray images 501a and 501b are imaged at the position P1 and the position P2 of the X-ray source 201, the imaged X-ray image 501a imaged at the position P1 of the X-ray source 201, One combination is a combination with the calculated projection image 502a that is generated by simulation assuming that the X-ray source 201 is at the position P1. Similarly, the combination of the captured X-ray image 501b imaged at the position P2 of the X-ray source 201 and the calculated projection image 502b that is generated as a simulation assuming that the X-ray source 201 is at the position P2 is one combination. ..

ステップS112において、画像位置合わせ部113は、例えば、図4の計算投影画像501aを移動・回転し、計算投影画像502aと撮像X線画像501aの類似度を算出する。類似度として、例えば、撮像X線画像501aと、計算投影画像502aとの相互情報量等が用いられる。ここで、相互情報量は、撮像X線画像501aと、計算投影画像502aとの画素値を用いた相互情報量である。
そして、画像位置合わせ部113は、類似度が最大となる移動・回転パラメータを求める。すなわち、画像位置合わせ部113は、図4における計算投影画像502aと、撮像X線画像501aとの類似度が最大となる計算投影画像502aの移動・回転パラメータを求める。
画像位置合わせ部113は、撮像X線画像501bと、計算投影画像502bとについて同様の位置合わせを行う。
In step S112, the image alignment unit 113 moves/rotates the calculated projection image 501a in FIG. 4, for example, and calculates the similarity between the calculated projection image 502a and the captured X-ray image 501a. As the degree of similarity, for example, the mutual information amount between the captured X-ray image 501a and the calculated projection image 502a is used. Here, the mutual information amount is a mutual information amount using pixel values of the captured X-ray image 501a and the calculated projection image 502a.
Then, the image registration unit 113 obtains the movement/rotation parameter that maximizes the similarity. That is, the image alignment unit 113 obtains the movement/rotation parameter of the calculated projection image 502a that maximizes the similarity between the calculated projection image 502a in FIG. 4 and the captured X-ray image 501a.
The image registration unit 113 performs similar registration between the captured X-ray image 501b and the calculated projection image 502b.

なお、類似度の他に以下の手法が用いられてもよい。すなわち、まず、画像位置合わせ部113は、撮像X線画像501及び計算投影画像502における共通の基準部位を設定する。基準部位は、同一の特徴を有する箇所(例えば、臓器における所定の一部)であり、図示しない入力装置を介してユーザによって指定される。そして、画像位置合わせ部113は、撮像X線画像501及び計算投影画像502において基準部位が一致する移動・回転パラメータを算出する。 In addition to the similarity, the following method may be used. That is, first, the image alignment unit 113 sets a common reference part in the captured X-ray image 501 and the calculated projection image 502. The reference part is a part having the same characteristics (for example, a predetermined part in an organ), and is designated by the user via an input device (not shown). Then, the image alignment unit 113 calculates a movement/rotation parameter at which the reference parts of the captured X-ray image 501 and the calculated projection image 502 match.

ステップS112で算出された移動・回転パラメータに従って3次元画像503を移動・回転することにより、図4における撮像X線画像501の撮像時における被検体の位置と、3次元画像503とを合わせることが可能となる。なお、本実施形態では計算投影画像502を回転、移動させることで位置合わせを行っているが、撮像X線画像501の方を移動・回転させて、移動・回転パラメータが求められてもよい。 By moving/rotating the three-dimensional image 503 in accordance with the moving/rotating parameter calculated in step S112, the position of the subject at the time of capturing the captured X-ray image 501 in FIG. 4 and the three-dimensional image 503 can be matched. It will be possible. It should be noted that in the present embodiment, alignment is performed by rotating and moving the calculated projection image 502, but the movement/rotation parameter may be obtained by moving/rotating the captured X-ray image 501.

例えば、図4における、3次元画像503から生成した計算投影画像502と、撮像X線画像501を用いた位置合わせでは、平行移動3自由度及び撮像方向を軸とする回転(平面内回転)2自由度の計5自由度の移動・回転パラメータを算出できる。さらに、X線源201の様々な位置に対応する計算投影画像502を生成し、各計算投影画像502に対応する撮像X線画像501と画素値を比較することで移動量を算出する手法では、3次元画像503から全方位の計算投影画像502を生成することができるため、平行移動(直交軸)3自由度と及び直交の各直交軸周りの回転3自由度の計6自由度の移動・回転パラメータを算出可能である。本実施形態の画像位置合わせでは、いずれの位置合わせ法を用いてもよいし、他の位置合わせ法を適宜用いてもよい。
本実施形態では、移動・回転パラメータとして5パラメータを算出することとする。また、ステップS112で行われる位置合わせは、いわゆる剛体位置合わせであるため、主に骨等の剛体領域の位置合わせに適している。
撮像X線画像501と、3次元画像503とは撮像時刻が異なっているため、被検体の撮像位置が異なっているが、このような位置合わせを行うことにより、以降の処理における精度を向上させることができる。
For example, in the alignment using the calculated projection image 502 generated from the three-dimensional image 503 and the captured X-ray image 501 in FIG. 4, rotation about the parallel movement 3 degrees of freedom and the imaging direction (in-plane rotation) 2 It is possible to calculate movement/rotation parameters with a total of 5 degrees of freedom. Furthermore, in the method of calculating the movement amount by generating the calculation projection images 502 corresponding to various positions of the X-ray source 201 and comparing the pixel value with the captured X-ray image 501 corresponding to each calculation projection image 502, Since it is possible to generate the omnidirectional calculation projection image 502 from the three-dimensional image 503, there are a total of 6 degrees of freedom of translation (orthogonal axis) 3 degrees of freedom and rotation around each orthogonal axis. The rotation parameter can be calculated. In the image registration of the present embodiment, any registration method may be used, and another registration method may be used as appropriate.
In this embodiment, five parameters are calculated as the movement/rotation parameters. Further, the alignment performed in step S112 is so-called rigid alignment, and is therefore suitable mainly for alignment of a rigid region such as bone.
Since the captured X-ray image 501 and the three-dimensional image 503 have different imaging times, the imaging positions of the subject are different. However, by performing such alignment, the accuracy of the subsequent processing is improved. be able to.

(骨領域減弱処理)
図3の説明に戻る。
次に、剛体領域減弱部114が、撮像X線画像と3次元画像とを用いて、撮像X線画像の骨領域(剛体領域)を減弱する骨領域減弱処理を行う(S113)。
(Bone area attenuation processing)
Returning to the explanation of FIG.
Next, the rigid body region weakening unit 114 performs a bone region weakening process for weakening the bone region (rigid body region) of the captured X-ray image using the captured X-ray image and the three-dimensional image (S113).

ステップS113の骨領域を減弱する処理の詳細を、図5を参照して説明する。
図5は、本実施形態に係る骨領域減弱処理の詳細な手順を示すフローチャートである。
まず、剛体領域減弱部114は、撮像X線画像のすべてと3次元画像とを取得する(S201)。
次に、剛体領域減弱部114は、3次元画像から骨領域を抽出する(S202)。
3次元画像であるCT画像では、画素値がCT値と呼ばれる規格化された数値となっている。このCT値は、水を0、空気等のガスを−1000とした相対値であり、撮像された物質の密度を示している。このため、軟組織領域、空気領域、骨領域等がCT値によって識別可能である。これにより、剛体領域減弱部114は、例えば、軟組織領域、空気領域、骨領域等に相当する画素値を指定することにより、それぞれの領域を抽出することが可能である。
Details of the processing of reducing the bone region in step S113 will be described with reference to FIG.
FIG. 5 is a flowchart showing a detailed procedure of the bone region attenuation processing according to this embodiment.
First, the rigid region weakening unit 114 acquires all of the captured X-ray images and the three-dimensional image (S201).
Next, the rigid region weakening unit 114 extracts a bone region from the three-dimensional image (S202).
In a CT image that is a three-dimensional image, pixel values are standardized numerical values called CT values. This CT value is a relative value where water is 0 and gas such as air is -1000, and indicates the density of the imaged substance. Therefore, the soft tissue region, the air region, the bone region, etc. can be identified by the CT value. Thereby, the rigid region weakening unit 114 can extract each region by specifying the pixel value corresponding to, for example, the soft tissue region, the air region, the bone region, or the like.

そして、剛体領域減弱部114は、骨領域のみが抽出された3次元画像を基に、入力された撮像X線画像と同一のX線源201の位置に対応する計算投影画像を生成する。すなわち、剛体領域減弱部114は、骨領域のみを投影した計算投影画像である骨領域計算投影画像を生成する(S203)。
骨領域のみが抽出された3次元画像は、元の3次元画像と同様に投影計算できるため、剛体領域減弱部114は、骨領域のみを投影した計算投影画像(骨領域計算投影画像)を生成することができる。
Then, the rigid body region weakening unit 114 generates a calculated projection image corresponding to the same position of the X-ray source 201 as the input captured X-ray image, based on the three-dimensional image in which only the bone region is extracted. That is, the rigid body region weakening unit 114 generates a bone region calculation projection image which is a calculation projection image obtained by projecting only the bone region (S203).
Since the three-dimensional image in which only the bone region is extracted can be projected and calculated in the same manner as the original three-dimensional image, the rigid region weakening unit 114 generates a calculated projection image (bone region calculation and projection image) in which only the bone region is projected. can do.

続いて、剛体領域減弱部114は、撮像X線画像から骨領域計算投影画像を差分(撮像X線画像−骨領域計算投影画像)することで骨領域減弱X線画像を生成し(S204)、図3のステップS114へ処理を戻す。このようにして、剛体領域減弱部114は、撮像X線画像の骨領域を減弱する。撮像X線画像から骨領域計算投影画像を差分した結果得られる画像を骨領域減弱X線画像と称する。なお、骨領域は体動による変化が少ないので、このような骨領域減弱X線画像の生成が可能である。 Subsequently, the rigid region attenuation unit 114 generates a bone region attenuated X-ray image by subtracting the bone region calculation projection image from the captured X-ray image (imaging X-ray image-bone region calculation projection image) (S204), The process is returned to step S114 of FIG. In this way, the rigid body region weakening portion 114 weakens the bone region of the captured X-ray image. An image obtained as a result of subtracting the bone region calculation projection image from the captured X-ray image is referred to as a bone region attenuated X-ray image. It should be noted that since the bone region is little changed by body movement, such a bone region attenuated X-ray image can be generated.

図6は、本実施形態に係る骨領域減弱X線画像の例を示す図である。
ステップS112において、撮像X線画像501と3次元画像503(図4参照)は位置合わせされている。前記したように、この位置合わせは、主に骨領域での剛体位置合わせでもある。よって、撮像X線画像501と、3次元画像503から生成された骨領域計算投影画像511とを差分することが可能である。
そして、剛体領域減弱部114は、骨減弱がなされていない撮像X線画像501から、骨領域計算投影画像511を差分することで、骨領域減弱X線画像521を生成する。
剛体領域減弱部114は、この処理を骨領域減弱X線画像521の数だけ行う。
FIG. 6 is a diagram showing an example of a bone area attenuated X-ray image according to the present embodiment.
In step S112, the captured X-ray image 501 and the three-dimensional image 503 (see FIG. 4) are aligned. As mentioned above, this registration is also a rigid registration mainly in the bone area. Therefore, it is possible to make a difference between the captured X-ray image 501 and the bone region calculation projection image 511 generated from the three-dimensional image 503.
Then, the rigid body region weakening unit 114 generates the bone region weakening X-ray image 521 by subtracting the bone region calculation projection image 511 from the captured X-ray image 501 in which the bone weakening has not been performed.
The rigid region attenuation unit 114 performs this process for the number of bone region attenuated X-ray images 521.

(特徴部位抽出処理)
図3の説明に戻る。
そして、特徴部位抽出部115が、骨領域減弱X線画像から特徴部位を抽出する(S114)。本実施形態では、鉗子先端及びガイドシースマーカを特徴部位とする。
(Feature part extraction process)
Returning to the explanation of FIG.
Then, the characteristic part extraction unit 115 extracts the characteristic part from the bone region attenuated X-ray image (S114). In this embodiment, the tip of the forceps and the guide sheath marker are the characteristic parts.

図7は、骨領域減弱X線画像における特徴部位を示す図である。
骨領域減弱X線画像521aは、図4のX線源201の位置P1で撮像された撮像X線画像501aを基に生成された骨領域減弱X線画像521である。同様に、骨領域減弱X線画像521bは、図4のX線源201の位置P2で撮像された撮像X線画像501bを基に生成された骨領域減弱X線画像521である。骨領域減弱X線画像521a,521bでは、骨領域が少し残っているが、骨領域が減弱される前の撮像X線画像501a,501bと比較すると、骨領域が低コントラストとなっている。
FIG. 7 is a diagram showing characteristic parts in a bone region attenuated X-ray image.
The bone area attenuated X-ray image 521a is a bone area attenuated X-ray image 521 generated based on the imaged X-ray image 501a imaged at the position P1 of the X-ray source 201 in FIG. Similarly, the bone area attenuated X-ray image 521b is a bone area attenuated X-ray image 521 generated based on the captured X-ray image 501b imaged at the position P2 of the X-ray source 201 in FIG. In the bone region attenuated X-ray images 521a and 521b, some bone regions remain, but the bone regions have low contrast as compared with the captured X-ray images 501a and 501b before the bone regions are attenuated.

図7に示すように、処置具はX線の高吸収領域である。そのため、骨領域減弱X線画像521上において、処置具は他の人体構造物と比べて高コントラストとなる。そのため、コントラストの違いから、例えば鉗子先端531を特徴的な部位として骨領域減弱X線画像521から検出することは可能である。また処置具の中でもガイドシースマーカ532は、コントラストが異なって描出される。そのため、やはり、特徴部位抽出部115はコントラストの違いからガイドシースマーカ532を骨領域減弱X線画像521から抽出することができる。また、撮像X線画像501(図4参照)では、骨領域等が高コントラストで描出されるが、骨領域を減弱しておくと、処置具がより明瞭に描出されるため、鉗子先端531や、ガイドシースマーカ532等の特徴部位を高精度に認識することが可能である。
なお、鉗子先端531と、処置具におけるその他の部分もコントラストが異なっているので、コントラストを基に、特徴部位抽出部115が、処置具全体の画像から鉗子先端531を抽出することができる。
As shown in FIG. 7, the treatment tool is a high X-ray absorption region. Therefore, the treatment tool has a high contrast on the bone region attenuated X-ray image 521 as compared with other human body structures. Therefore, due to the difference in contrast, it is possible to detect the forceps tip 531 from the bone region attenuated X-ray image 521 as a characteristic site. Further, among the treatment tools, the guide sheath marker 532 is drawn with different contrast. Therefore, the characteristic part extraction unit 115 can also extract the guide sheath marker 532 from the bone region attenuated X-ray image 521 due to the difference in contrast. In the imaged X-ray image 501 (see FIG. 4 ), the bone region and the like are drawn with high contrast, but if the bone region is attenuated, the treatment tool can be drawn more clearly, so the forceps tip 531 and It is possible to recognize the characteristic parts such as the guide sheath marker 532 with high accuracy.
Since the forceps tip 531 and the other portions of the treatment tool have different contrasts, the characteristic portion extraction unit 115 can extract the forceps tip 531 from the image of the entire treatment tool based on the contrast.

本実施形態では、特徴部位は、骨領域減弱X線画像521においてコントラストが所定の範囲の領域を認識することで特徴部位の認識を行っているが、骨領域減弱X線画像521を表示装置401に表示させ、ユーザがマウス等で領域を指定することで特徴部位の抽出を行ってもよい。 In the present embodiment, the characteristic region is recognized by recognizing a region having a contrast within a predetermined range in the bone region attenuated X-ray image 521, but the bone region attenuated X-ray image 521 is displayed on the display device 401. Alternatively, the user may extract the characteristic portion by designating the area with a mouse or the like.

(体動移動量算出処理)
図3の説明に戻る。
ステップS114の後、体動移動量算出/補正部116は、骨領域減弱X線画像と3次元画像とを用いて体動移動量を算出する体動移動量算出処理を行う(S115)
まず、撮像X線画像と、撮像X線画像とは別に撮像された3次元画像は、撮像した装置が異なる上、同じ時刻に撮像されたものではない。従って、撮像X線画像の撮像時と、3次元画像撮像時における被検者の体勢、環境等が異なる。また、被検者の体動、例えば心臓の動きや、呼吸等により、人体は非剛体的に変形する。そのため、撮像時刻が異なるそれぞれの画像(撮像X線画像、3次元画像)には、体動によるずれが含まれる。
(Body movement amount calculation process)
Returning to the explanation of FIG.
After step S114, the body movement amount calculation/correction unit 116 performs a body movement amount calculation process for calculating the body movement amount using the bone region attenuated X-ray image and the three-dimensional image (S115).
First, the captured X-ray image and the three-dimensional image captured separately from the captured X-ray image are not captured at the same time because the image capturing devices are different. Therefore, the posture, environment, etc. of the subject are different when the captured X-ray image is captured and when the three-dimensional image is captured. In addition, the human body is deformed in a non-rigid manner due to the body movement of the subject, such as the movement of the heart or breathing. Therefore, each image (captured X-ray image, three-dimensional image) having a different image capturing time includes a shift due to body movement.

さらに、X線撮像システム1により異なる複数方向から撮像X線画像を撮像する場合でも、X線源201と検出器202が一組しかない場合には、同時に撮像することができない。すなわち、各一台ずつのX線源201と、検出器202とが回転して複数の撮像X線画像を撮像する場合、撮像されたそれぞれの撮像X線画像には体動によるずれが生じていることが考えられる。 Further, even when the X-ray imaging system 1 captures captured X-ray images from different directions, if there is only one set of the X-ray source 201 and the detector 202, it is not possible to perform simultaneous imaging. That is, when one X-ray source 201 and one detector 202 rotate to pick up a plurality of picked-up X-ray images, the picked-up picked-up X-ray images are displaced due to body movement. It is possible that

ここで発明者らは、体動が、骨等の固い領域、いわゆる剛体領域にはほとんど影響しないが、軟組織領域のような柔らかい領域で起こることを見出した。すなわち、骨等の剛体領域は体動により位置が変わらないが、軟組織等の柔らかい組織は体動により位置が変わることを発明者らは見出した。
処置具は、気管支や、血管等の軟組織中に挿入されるため、軟組織と共に体動の影響を受けることとなる。このような体動の影響を補正する手法について以下に述べる。
Here, the inventors have found that the body movement hardly affects a hard region such as a bone, a so-called rigid body region, but occurs in a soft region such as a soft tissue region. That is, the inventors have found that the position of a rigid body region such as bone does not change due to body movement, but the position of soft tissue such as soft tissue changes due to body movement.
Since the treatment tool is inserted into the soft tissues such as the bronchus and blood vessels, it is affected by the body movement together with the soft tissues. A method of correcting the influence of such body movement will be described below.

図8は、本実施形態に係る体動移動量算出処理(図3のS115)の詳細な処理手順を示すフローチャートである。
まず、体動移動量算出/補正部116は、骨領域減弱X線画像のすべてと、3次元画像を取得する(S301)。
次に、体動移動量算出/補正部116は、3次元画像から骨領域を減弱した計算投影画像を生成することで骨領域減弱計算投影画像(計算減弱2次元画像)を生成する(S302)。図5及び図6で生成される骨領域減弱X線画像521が、撮像X線画像501から骨領域を減弱したものであるのに対し、ステップS302で生成される骨領域減弱計算投影画像は3次元画像から模擬的に生成される画像である。なお、3次元画像から骨領域を減弱した画像を生成することは、前記したようにCT値を利用することで可能である。なお、骨領域減弱計算投影画像は、撮像X線画像に対応して生成される。このようにして生成された骨領域減弱計算投影画像は、計算投影画像から剛体領域を減弱したものに相当する。
続いて、体動移動量算出/補正部116は、骨領域減弱X線画像を非剛体変換する。(S303)。
FIG. 8 is a flowchart showing a detailed processing procedure of the body movement amount calculation processing (S115 in FIG. 3) according to the present embodiment.
First, the body movement movement amount calculation/correction unit 116 acquires all bone region attenuated X-ray images and three-dimensional images (S301).
Next, the body movement amount calculating/correcting unit 116 generates a bone region-attenuation calculation projection image (calculation-attenuation two-dimensional image) by generating a calculation projection image in which the bone region is attenuated from the three-dimensional image (S302). .. The bone area attenuation X-ray image 521 generated in FIG. 5 and FIG. 6 is obtained by reducing the bone area from the captured X-ray image 501, whereas the bone area attenuation calculation projection image generated in step S302 is 3 It is an image generated by simulation from a three-dimensional image. Note that it is possible to generate an image in which the bone region is attenuated from the three-dimensional image by using the CT value as described above. The bone region attenuation calculation projection image is generated corresponding to the captured X-ray image. The bone region attenuation calculation projection image generated in this way corresponds to the calculation projection image with the rigid region attenuated.
Subsequently, the body movement movement amount calculation/correction unit 116 non-rigidly transforms the bone region attenuated X-ray image. (S303).

(非剛体変換処理)
ここで、非剛体変換について図9を用いて説明する。
図9は、本実施形態に係る体動移動量算出(図8のS303)を説明するための図である。
ここで、骨領域減弱X線画像521aは、X線源201が図4の位置P1に位置している時における撮像X線画像501aを基に生成された骨領域減弱X線画像521である。また、骨領域減弱計算投影画像541aは、骨領域減弱X線画像521aに対応する骨領域減弱計算投影画像541である。
同様に、骨領域減弱X線画像521bは、X線源201が図4の位置P2に位置している時における撮像X線画像501bを基に生成された骨領域減弱X線画像521である。また、骨領域減弱計算投影画像541bは、骨領域減弱X線画像521bに対応する骨領域減弱計算投影画像541である。
(Non-rigid conversion process)
Here, the non-rigid transformation will be described with reference to FIG.
FIG. 9 is a diagram for explaining the body movement amount calculation (S303 in FIG. 8) according to the present embodiment.
Here, the bone area attenuated X-ray image 521a is a bone area attenuated X-ray image 521 generated based on the captured X-ray image 501a when the X-ray source 201 is located at the position P1 in FIG. The bone area attenuation calculation projection image 541a is a bone area attenuation calculation projection image 541 corresponding to the bone area attenuation X-ray image 521a.
Similarly, the bone area attenuated X-ray image 521b is a bone area attenuated X-ray image 521 generated based on the captured X-ray image 501b when the X-ray source 201 is located at the position P2 in FIG. The bone area attenuation calculation projection image 541b is a bone area attenuation calculation projection image 541 corresponding to the bone area attenuation X-ray image 521b.

非剛体変換で、体動移動量算出/補正部116は、図9に示すように、骨領域減弱X線画像521に格子状のメッシュを設定する。そして、メッシュにおける格子上の各点を結ぶ線が、例えば、スプライン関数による曲線となるようになめらかな曲線を設定する。そして、体動移動量算出/補正部116は、この曲線を、例えばスプライン関数に沿って移動させ、それに応じて画素を変換する。すなわち、体動移動量算出/補正部116は、骨領域減弱X線画像521を歪ませる(歪曲させる)ことによって非剛体変換を行う。このとき、骨領域減弱X線画像521が歪曲画像となり、骨領域減弱計算投影画像541が非歪曲画像となる。
なお、移動するひとつ又は複数の格子点の選択、移動量や移動方向はユーザが予め設定するようにしてもよい。
また、本実施形態では、骨領域減弱X線画像521に対して非剛体変換が行われているが、骨領域減弱計算投影画像541に対して非剛体変換が行われてもよい。
By the non-rigid body conversion, the body movement amount calculating/correcting unit 116 sets a grid-like mesh in the bone region attenuation X-ray image 521 as shown in FIG. Then, a smooth curve is set so that the line connecting each point on the grid in the mesh becomes a curve by a spline function, for example. Then, the body movement movement amount calculation/correction unit 116 moves this curve along, for example, a spline function, and converts pixels accordingly. That is, the body movement amount calculating/correcting unit 116 performs non-rigid body conversion by distorting (distorting) the bone region attenuated X-ray image 521. At this time, the bone region attenuation X-ray image 521 becomes a distorted image, and the bone region attenuation calculation projection image 541 becomes a non-distorted image.
Note that the user may preset the selection of one or a plurality of grid points to be moved, the movement amount, and the movement direction.
Further, in the present embodiment, the non-rigid body transformation is performed on the bone region attenuation X-ray image 521, but the non-rigid body transformation may be performed on the bone region attenuation calculation projection image 541.

体動移動量算出/補正部116は、非剛体変換した骨領域減弱X線画像と、骨領域減弱計算投影画像との類似度を算出する(図8のS304)。
類似度は、非剛体変換した骨領域減弱X線画像521(図9参照)と、骨領域減弱計算投影画像541(図9参照)との画素毎における相互情報量等である。なお、類似度として相互情報量以外の指標が用いられてもよい。
The body movement amount calculation/correction unit 116 calculates the degree of similarity between the non-rigid body-transformed bone area attenuation X-ray image and the bone area attenuation calculation projection image (S304 in FIG. 8).
The degree of similarity is a mutual information amount or the like of each pixel between the non-rigid body-transformed bone region attenuation X-ray image 521 (see FIG. 9) and the bone region attenuation calculation projection image 541 (see FIG. 9). An index other than the mutual information amount may be used as the degree of similarity.

そして、体動移動量算出/補正部116は、類似度が最大となったか否かを判定する(図8のS305)。
なお、図9に示すように骨領域減弱X線画像521と、骨領域減弱計算投影画像541では。互いに明暗が反転した関係となっている。このような場合、体動移動量算出/補正部116は、相互情報量が最小となったときを類似度最大と判定する。骨領域減弱X線画像521と、骨領域減弱計算投影画像541では。互いに明暗が反転していない場合、体動移動量算出/補正部116は、相互情報量が最大となったときを類似度最大と判定する。
Then, the body movement amount calculating/correcting unit 116 determines whether or not the degree of similarity is maximum (S305 in FIG. 8).
As shown in FIG. 9, in the bone area attenuation X-ray image 521 and the bone area attenuation calculation projection image 541. The relationship between the light and dark is reversed. In such a case, the body movement amount calculating/correcting unit 116 determines that the degree of similarity is maximum when the mutual information amount is minimum. In the bone area attenuation X-ray image 521 and the bone area attenuation calculation projection image 541. When the lightness and darkness are not reversed, the body movement amount calculating/correcting unit 116 determines that the similarity is maximum when the mutual information amount is maximum.

ステップS305の結果、類似度が最大でない場合(S305→No)、体動移動量算出/補正部116は、ステップS303へ処理を戻し、骨領域減弱X線画像の非剛体変換を再度行う。
ステップS305の結果、類似度が類似度である場合(S305→Yes)、体動移動量算出/補正部116は、非剛体変換された骨領域減弱X線画像における非剛体変換パラメータを用いて、特徴部位が、どの程度移動したかを示す体動移動量(ずれの度合い)を算出し(S306)、図3のステップS121へ処理をリターンする。体動移動量は、例えば、ベクトル(移動量ベクトル)として示される。この移動量ベクトルは、非剛体変換前(ステップS302の段階)における特徴部位の位置と、ステップS306の段階での特徴部位の位置から算出される。この移動量ベクトルは、各画素について算出される。
体動移動量算出/補正部116は、ステップS301〜S306の処理を、骨領域減弱X線画像それぞれについて行う。
ステップS301〜S306の処理が行われることにより、体動移動量を定量的気に算出することができる。
If the result of step S305 shows that the degree of similarity is not the maximum (S305→No), the body movement amount calculation/correction unit 116 returns the processing to step S303, and performs non-rigid body conversion of the bone region attenuated X-ray image again.
As a result of step S305, when the similarity is the similarity (S305→Yes), the body movement movement amount calculation/correction unit 116 uses the non-rigid body transformation parameter in the non-rigid body transformed X-ray image of the bone region, The body movement amount (degree of deviation) indicating how much the characteristic portion has moved is calculated (S306), and the process returns to step S121 in FIG. The body movement amount is indicated as a vector (movement amount vector), for example. This movement amount vector is calculated from the position of the characteristic portion before the non-rigid transformation (step S302) and the position of the characteristic portion at the step S306. This movement amount vector is calculated for each pixel.
The body movement amount calculation/correction unit 116 performs the processes of steps S301 to S306 for each bone region attenuated X-ray image.
By performing the processes of steps S301 to S306, the body movement amount can be calculated quantitatively.

(特徴部位の3次元位置算出)
図3の説明に戻る
ステップS115の後、体動移動量算出/補正部116は、ステップS115で算出された移動量ベクトル等の体動パラメータを基に、骨領域減弱X線画像における特徴部位の位置を補正する(S121)。
(Calculation of three-dimensional position of characteristic part)
Returning to the description of FIG. 3, after step S115, the body movement movement amount calculation/correction unit 116 determines, based on the body movement parameter such as the movement amount vector calculated in step S115, the characteristic region in the bone region attenuation X-ray image. The position is corrected (S121).

次に、3次元位置算出部117は、複数存在する特徴部位のうち、1つを選択する(S122)。本実施形態であれば、3次元位置算出部117が、鉗子先端か、ガイドシースマーカのどちらかを3次元位置算出部117が処理対象として選択する。
続いて、3次元位置算出部117は、処理対象となっている特徴部位(本実施形態では鉗子先端か、ガイドシースマーカ)の骨領域減弱X線画像上の位置に対応する検出器202上の3次元位置を算出する(S123)。ここで、3次元位置とは、前記したようにX線撮像システム1での空間的位置である。
Next, the three-dimensional position calculation unit 117 selects one of a plurality of characteristic parts (S122). In this embodiment, the three-dimensional position calculation unit 117 selects either the forceps tip or the guide sheath marker as the processing target.
Then, the three-dimensional position calculation unit 117 on the detector 202 corresponding to the position on the bone region attenuation X-ray image of the characteristic part (the tip of the forceps or the guide sheath marker in the present embodiment) to be processed. A three-dimensional position is calculated (S123). Here, the three-dimensional position is a spatial position in the X-ray imaging system 1, as described above.

骨領域減弱X線画像に対応する検出器202のX線撮像システム1内における3次元位置は、X線撮像システム1上における検出器202の装置構成から求められる。そして、3次元位置算出部117は、例えば、抽出した鉗子先端位置の検出器202上の位置(図10の符号K1、K2)を算出することが可能である。
ガイドシースマーカについても同様の処理により検出器202上(撮像X線画像上)の3次元位置を算出することができる。
The three-dimensional position of the detector 202 in the X-ray imaging system 1 corresponding to the bone area attenuated X-ray image is obtained from the device configuration of the detector 202 on the X-ray imaging system 1. Then, the three-dimensional position calculation unit 117 can calculate, for example, the position of the extracted forceps tip position on the detector 202 (reference symbols K1 and K2 in FIG. 10).
With respect to the guide sheath marker, the three-dimensional position on the detector 202 (on the captured X-ray image) can be calculated by the same process.

ここで、検出器202上の特徴部位の位置は、体動補正後の特徴部位の位置(以下、体動補正後の位置と称する)が用いられる。すなわち、3次元位置算出部117は、体動補正後の位置が、検出器202のどこに位置するかを算出する。 Here, as the position of the characteristic part on the detector 202, the position of the characteristic part after body movement correction (hereinafter referred to as the position after body movement correction) is used. That is, the three-dimensional position calculation unit 117 calculates where on the detector 202 the position after the body movement correction is located.

ステップS122の後、3次元位置算出部117は、処理対象となっている特徴部位について、検出器202上の3次元位置と、対応するX線源201の3次元位置との2点を結ぶ直線を生成する(S131)。 After step S122, the three-dimensional position calculation unit 117 connects the two points of the three-dimensional position on the detector 202 and the corresponding three-dimensional position of the X-ray source 201 with respect to the characteristic portion to be processed. Is generated (S131).

図10を参照して、ステップS131の処理を説明する。
図10は、特徴部位の3次元位置算出方法を示す図である。
3次元位置算出部117は、X線撮像システム1上におけるX線源201の装置構成から、撮像X線画像501の撮像時におけるX線源201のX線撮像システム1における3次元位置を求めることができる。従って、3次元位置算出部117は、特徴部位、例えば、抽出した鉗子先端位置の検出器202上の3次元位置(図10におけるK1)と、X線源201の位置P1から、その2点を結ぶ直線L1を生成する。なお、符号K2、位置P2、直線L2、符号Q1,Q,Q2は後記する。
The process of step S131 will be described with reference to FIG.
FIG. 10 is a diagram showing a method for calculating the three-dimensional position of a characteristic part.
The three-dimensional position calculation unit 117 obtains the three-dimensional position of the X-ray source 201 in the X-ray imaging system 1 at the time of capturing the captured X-ray image 501 from the device configuration of the X-ray source 201 on the X-ray imaging system 1. You can Therefore, the three-dimensional position calculation unit 117 determines a characteristic part, for example, the three-dimensional position (K1 in FIG. 10) of the extracted forceps tip position on the detector 202 and the two points from the position P1 of the X-ray source 201. A connecting straight line L1 is generated. The reference numeral K2, the position P2, the straight line L2, and the reference numerals Q1, Q, Q2 will be described later.

その後、3次元位置算出部117は、すべての骨領域減弱X線画像について、直線の生成を完了したか否かを判定する(S132)。
ステップS132の結果、直線の生成を完了していない骨領域減弱X線画像が存在する場合(S132→No)、3次元位置算出部117は、ステップS123に戻って、処理が行われていない骨領域減弱X線画像を基に、検出器202上の特徴部位の位置と、X線源201とを結ぶ直線を算出する。本実施形態の例では、図10の符号K2、位置P2を結ぶ直線L2を算出する。
After that, the three-dimensional position calculation unit 117 determines whether or not the generation of straight lines has been completed for all the bone area attenuated X-ray images (S132).
As a result of step S132, when there is a bone region attenuated X-ray image for which the generation of the straight line is not complete (S132→No), the three-dimensional position calculation unit 117 returns to step S123, and the bone that has not been processed yet. A straight line connecting the position of the characteristic part on the detector 202 and the X-ray source 201 is calculated based on the area-reduced X-ray image. In the example of this embodiment, a straight line L2 connecting the symbol K2 and the position P2 in FIG. 10 is calculated.

この結果、特徴部位1つにつき、検出器202上の特徴部位の位置と、X線源201とを結ぶ直線は、特徴部位の数だけ生成される(本実施形態の例では2本)。
なお、本実施形態では、検出器202上の特徴部位の位置と、X線源201とを結ぶ直線を、1回1回生成しているが、1回の処理ですべての直線を生成するようにしてもよい。
As a result, for each characteristic region, as many straight lines connecting the position of the characteristic region on the detector 202 and the X-ray source 201 as the number of characteristic regions are generated (two in the example of the present embodiment).
In the present embodiment, the straight line connecting the position of the characteristic part on the detector 202 and the X-ray source 201 is generated once, but all the straight lines are generated by one processing. You can

ステップS132において、すべての骨領域減弱X線画像について、直線の生成が完了している場合(S132→Yes)、3次元位置算出部117は、生成されたそれぞれの直線の位置関係から特徴部位のX線撮像システム1における3次元位置を算出する(S141)。
図11は、生成された直線の関係を示す図である。
ここで、図10は、図11に示す直線L1,L2をz軸方向からみたものに相当する。
In step S132, when the generation of the straight line is completed for all the bone area attenuated X-ray images (S132→Yes), the three-dimensional position calculation unit 117 determines the characteristic region from the positional relationship of the generated straight lines. A three-dimensional position in the X-ray imaging system 1 is calculated (S141).
FIG. 11 is a diagram showing the relationship of the generated straight lines.
Here, FIG. 10 corresponds to the straight lines L1 and L2 shown in FIG. 11 as viewed from the z-axis direction.

図10に示す通り、X線源201の位置P1と撮像X線画像501a上の特徴部位の3次元位置K1を結ぶ直線L1と、回転したX線源201の位置P2と撮像X線画像501b上の特徴部位の3次元位置K2を結ぶ直線L2とが交わる点が特徴部位のX線撮像システム1における3次元位置を示している。従って、直線L1及び直線L2は、1点で交わることが理想的である。しかしながら、図11に示すように、実際には計測誤差等があるため、直線L1と、直線L2とは必ずしも交わるとは限らず、多くの場合、いわゆるねじれの位置の関係となる。ちなみに、図11の例では、直線L1が直線L2の下を通っている。 As shown in FIG. 10, a straight line L1 connecting the position P1 of the X-ray source 201 and the three-dimensional position K1 of the characteristic portion on the captured X-ray image 501a, the position P2 of the rotated X-ray source 201, and the captured X-ray image 501b. The point at which the straight line L2 connecting the three-dimensional position K2 of the characteristic part intersects with each other indicates the three-dimensional position of the characteristic part in the X-ray imaging system 1. Therefore, it is ideal that the straight line L1 and the straight line L2 intersect at one point. However, as shown in FIG. 11, the straight line L1 and the straight line L2 do not necessarily intersect with each other due to actual measurement error and the like, and in many cases, there is a so-called twisted position relationship. By the way, in the example of FIG. 11, the straight line L1 passes below the straight line L2.

そこで、図11に示すように、3次元位置算出部117は、2つの直線の距離が最も近くなる直線L1上の点Q1と、直線L2上の点Q2を求め、例えばその2点の中点Qを特徴部位の3次元位置とする。 Therefore, as shown in FIG. 11, the three-dimensional position calculation unit 117 obtains a point Q1 on the straight line L1 and a point Q2 on the straight line L2 at which the distance between the two straight lines is the shortest, and, for example, the midpoint between the two points. Let Q be the three-dimensional position of the characteristic part.

点Q1及び点Q2は、以下の式(1)及び式(2)から求めることが可能である。
Q1=K1+(D1−D2*Dv)/(1−Dv*Dv)*v1・・・(1)
Q2=K2+(D2−D1*Dv)/(Dv*Dv−1)*v2・・・(2)
The points Q1 and Q2 can be obtained from the following equations (1) and (2).
Q1=K1+(D1-D2*Dv)/(1-Dv*Dv)*v1...(1)
Q2=K2+(D2-D1*Dv)/(Dv*Dv-1)*v2 (2)

ここで、K1、K2は、図10に示すように、検出器202上における特徴部位の3次元位置である。また、v1は直線L1のベクトルであり、v2は直線L2のベクトルである。さらに、D1、D2、Dvは以下の式(3)〜(5)によって定義される。 Here, K1 and K2 are three-dimensional positions of the characteristic parts on the detector 202, as shown in FIG. Also, v1 is the vector of the straight line L1, and v2 is the vector of the straight line L2. Further, D1, D2 and Dv are defined by the following equations (3) to (5).

D1=(K2−K1)・v1・・・(3)
D2=(K2−K1)・v2・・・(4)
Dv=v1・v2・・・(5)
D1=(K2-K1)*v1...(3)
D2=(K2-K1)*v2...(4)
Dv=v1·v2 (5)

そして、3次元位置算出部117は、求められた点Q1及び点Q2の3次元位置から、特徴部位の3次元位置Qは次の式(6)を用いて算出される。
Q=(Q1+Q2)/2・・・(6)
Then, the three-dimensional position calculation unit 117 calculates the three-dimensional position Q of the characteristic part from the obtained three-dimensional positions of the points Q1 and Q2 using the following equation (6).
Q=(Q1+Q2)/2 (6)

なお、3本以上の直線が生成される場合、3次元位置算出部117は各直線に最も近くなる点を特徴部位の3次元位置Qとすればよい。
このようにすることにより、算出された体動移動量に計測誤差等が含まれていても、精度よく特徴部位の3次元位置を算出することができる。
When three or more straight lines are generated, the three-dimensional position calculation unit 117 may set the point closest to each straight line as the three-dimensional position Q of the characteristic portion.
By doing so, even if the calculated body movement amount includes a measurement error or the like, it is possible to accurately calculate the three-dimensional position of the characteristic portion.

図3の説明に戻る。
3次元位置算出部117は、すべての特徴部位について、X線撮像システム1における3次元位置の算出が完了したか否かを判定する(S142)。
ステップS142の結果、すべての特徴部位の3次元位置の算出が完了していない場合(S142→No)、3次元位置算出部117は、ステップS122へ処理を戻して、残っている特徴部位の3次元位置を算出する。
Returning to the explanation of FIG.
The three-dimensional position calculation unit 117 determines whether or not the calculation of the three-dimensional position in the X-ray imaging system 1 has been completed for all the characteristic parts (S142).
As a result of step S142, when the calculation of the three-dimensional positions of all the characteristic parts has not been completed (S142→No), the three-dimensional position calculation unit 117 returns the process to step S122, and the three of the remaining characteristic parts are calculated. Calculate the dimensional position.

(表示)
ステップS142の結果、すべての特徴部位について3次元位置の算出が完了している場合(S142→Yes)、位置マッピング部118は、ステップS141で算出した各特徴部位の位置情報を3次元画像に付加する(S151)。
このとき、位置マッピング部118は、ステップS112で算出された移動・回転パラメータを利用して、ステップS141で算出した特徴部位の位置情報を3次元画像に付加する。
ステップS112で行った位置合わせにより、撮像対象となっている被検体の位置と、3次元画像の位置とは合っている。その状態で、体動補正及び特徴部位の3次元位置の算出が行われているため、各特徴部位の3次元位置情報を3次元画像上に正しく付加することができる。
(display)
As a result of step S142, when the calculation of the three-dimensional position has been completed for all the characteristic parts (S142→Yes), the position mapping unit 118 adds the position information of each characteristic part calculated in step S141 to the three-dimensional image. Yes (S151).
At this time, the position mapping unit 118 uses the movement/rotation parameters calculated in step S112 to add the position information of the characteristic part calculated in step S141 to the three-dimensional image.
Due to the alignment performed in step S112, the position of the subject to be imaged matches the position of the three-dimensional image. In that state, since the body movement correction and the calculation of the three-dimensional position of the characteristic part are performed, the three-dimensional position information of each characteristic part can be correctly added to the three-dimensional image.

そして、表示処理部119は、特徴部位の3次元位置情報が付加された3次元画像を表示装置401に表示する(S152)。また、必要に応じて、3次元位置情報が付加された3次元画像が記憶装置402に記憶される。 Then, the display processing unit 119 displays the three-dimensional image to which the three-dimensional position information of the characteristic part is added on the display device 401 (S152). Further, the three-dimensional image to which the three-dimensional position information is added is stored in the storage device 402 as needed.

図12は、本実施形態に係る表示画面例を示す図である。
図12に示す表示画面は、図3のステップS152で表示される画面である。
図12に示す表示画面600は、3次元画像表示部601と、第1撮像X線画像表示部602と、第2撮像X線画像表示部603とを有している。
図12に示す例では、X線撮像システム1により取得された、撮像方向の異なる撮像X線画像それぞれが、第1撮像X線画像表示部602及び第2撮像X線画像表示部603に表示されている。そして、3次元画像表示部601には、図3のステップS141で算出された特徴部位(鉗子先端位置及びガイドシースマーカ)の位置611が付加表示されたCT画像(3次元画像の断層画像)が表示されている。
FIG. 12 is a diagram showing an example of a display screen according to this embodiment.
The display screen shown in FIG. 12 is the screen displayed in step S152 of FIG.
The display screen 600 shown in FIG. 12 includes a three-dimensional image display unit 601, a first captured X-ray image display unit 602, and a second captured X-ray image display unit 603.
In the example shown in FIG. 12, the captured X-ray images acquired by the X-ray imaging system 1 in different imaging directions are displayed on the first captured X-ray image display unit 602 and the second captured X-ray image display unit 603, respectively. ing. Then, on the three-dimensional image display unit 601, a CT image (a tomographic image of a three-dimensional image) additionally displaying the position 611 of the characteristic region (forceps tip position and guide sheath marker) calculated in step S141 of FIG. It is displayed.

図12に示す例では、撮像X線画像と、3次元画像としてのCT画像の断層画像が表示されているが、これに限らない。例えば、CT画像の断層画像を積層することで再構築された被検者の3次元立体画像が表示されてもよい。また、撮像X線画像の表示は省略されてもよい。あるいは、3次元画像表示部601と、第1撮像X線画像表示部602と、第2撮像X線画像表示部603が、選択表示されてもよい。
このような表示画面600が表示されることにより、術者は、鉗子先端や、ガイドシースマーカをリアルタイムで視認することができる。
In the example shown in FIG. 12, a tomographic image of a captured X-ray image and a CT image as a three-dimensional image is displayed, but the present invention is not limited to this. For example, a three-dimensional stereoscopic image of the subject reconstructed by stacking the tomographic images of the CT images may be displayed. Further, the display of the captured X-ray image may be omitted. Alternatively, the three-dimensional image display unit 601, the first captured X-ray image display unit 602, and the second captured X-ray image display unit 603 may be selectively displayed.
By displaying such a display screen 600, the operator can visually recognize the tip of the forceps and the guide sheath marker in real time.

図13は、本実施形態に係る表示画面の別の例を示す図である。
図13では、図12における3次元画像表示部601に相当する3次元画像表示部601aのみを示している。図13に示す例では、これまでの手法によって推定された特徴部位の位置が破線(符号612)で示されており、本実施形態による手法で推定された特徴部位の位置が実線(符号611)で示されている。すなわち、破線で示される特徴部位の位置は体動量補正前に推定された位置を示し、実線で示される特徴部位の位置は体動量補正後に推定された位置を示している。
図13のような3次元画像表示部601aが表示されることにより、どの程度体動補正がなされたか否かをユーザが確認することができる。
FIG. 13 is a diagram showing another example of the display screen according to the present embodiment.
In FIG. 13, only a three-dimensional image display unit 601a corresponding to the three-dimensional image display unit 601 in FIG. 12 is shown. In the example shown in FIG. 13, the position of the characteristic part estimated by the method so far is shown by the broken line (reference numeral 612), and the position of the characteristic part estimated by the method according to the present embodiment is shown by the solid line (reference numeral 611). Indicated by. That is, the position of the characteristic part shown by the broken line shows the position estimated before the body movement amount correction, and the position of the characteristic part shown by the solid line shows the position estimated after the body movement amount correction.
By displaying the three-dimensional image display unit 601a as shown in FIG. 13, the user can confirm to what extent body movement correction has been performed.

本実施形態によれば、被検者の体動を考慮した特徴部位の3次元位置の推定が可能となる。これにより、特徴部位の3次元位置の推定精度を向上させることができる。 According to the present embodiment, it is possible to estimate the three-dimensional position of the characteristic part in consideration of the body movement of the subject. This can improve the estimation accuracy of the three-dimensional position of the characteristic part.

また、本実施形態によれば、これまでの撮像X線画像のみでは認識が簡単ではなかった、病変部と鉗子先端と言った処置具の3次元的な位置関係を明確にすることが可能となる。また、3次元画像上には、例えば、撮像X線画像では認識が必ずしも簡単ではない病変部周辺の構造も明瞭に描出されているため、病変部へ向かう特徴部位のルートを確認することも可能となる。
このように、本実施形態によると、X線撮像システム1による2次元撮像画像と事前に撮像された3次元画像とを用い、病変部及び処置具等の特徴部位の相対位置関係が高精度に認識可能となり、また病変を含む処置具等の特徴部位周辺の構造が高精度に認識可能とすることができる。
Further, according to the present embodiment, it is possible to clarify the three-dimensional positional relationship between the lesioned part and the treatment tool such as the tip of the forceps, which has not been easy to recognize only with the captured X-ray images. Become. In addition, the structure around the lesion, which is not always easy to recognize in the captured X-ray image, is clearly drawn on the three-dimensional image, so that the route of the characteristic site toward the lesion can be confirmed. Becomes
As described above, according to the present embodiment, the relative positional relationship between the lesion site and the characteristic site such as the treatment tool is highly accurate by using the two-dimensional imaged image by the X-ray imaging system 1 and the three-dimensional image captured in advance. The structure around the characteristic part such as the treatment instrument including the lesion can be recognized with high accuracy.

また、本実施形態では、図9に示すように、取得された複数(本実施形態では2つ)の撮像X線画像から生成される骨領域減弱X線画像それぞれにおいて、独立に体動移動量の算出が行われる。従って、複数の撮像X線画像のそれぞれの撮像時刻が異なり、それぞれの撮像X線画像に体動が生じていても、データ処理装置100は、その体動を補正することができる。 Further, in the present embodiment, as shown in FIG. 9, the amount of body movement is independently adjusted in each of the bone region attenuated X-ray images generated from the acquired (two in the present embodiment) captured X-ray images. Is calculated. Therefore, even if the imaging times of the plurality of captured X-ray images are different and the body movement occurs in each of the captured X-ray images, the data processing device 100 can correct the body movement.

(付記)
上述の実施形態では、画像のフォーマット(データ形式)にDICOMフォーマットを使用しているが、もちろん他のフォーマット、例えばJPEG(Joint Photographic Experts Group)画像やビットマップ画像等のフォーマットを用いることができる。
さらに、本実施形態では、医用画像サーバ2に3次元画像のデータを保存しているが、図示しない治療計画装置と、データ処理装置100とが直接通信し、データファイルを交換してもよい。
また、ネットワークによるデータファイル等の通信を用いる形態を説明したが、データファイルの交換手段として他の記憶媒体、例えばフレキシブルディスクやCD−R等の大容量記憶媒体を用いてもよい。
(Appendix)
In the above-described embodiment, the DICOM format is used as the image format (data format), but of course, other formats such as JPEG (Joint Photographic Experts Group) image and bitmap image can be used.
Further, in the present embodiment, the data of the three-dimensional image is stored in the medical image server 2, but the treatment planning device (not shown) and the data processing device 100 may directly communicate with each other to exchange the data files.
Further, although the mode of using communication of a data file or the like via a network has been described, another storage medium, for example, a large-capacity storage medium such as a flexible disk or a CD-R may be used as the data file exchanging means.

なお、本実施形態では、X線源201及び検出器202による撮像X線画像について説明するが、本実施形態は、これに限らず、超音波エコー等、X線による画像以外の2次元画像にも適用することができる。
また、本実施形態では、図3の骨領域減弱処理(S113)の後に、特徴部位の抽出(S114)が行われているが、これに限らない。体動移動量算出処理(S115)の後に、特徴部位抽出部115が、非剛体変換された骨領域減弱X線画像から特徴部位を抽出するようにしてもよい。
In addition, in the present embodiment, an imaged X-ray image by the X-ray source 201 and the detector 202 will be described, but the present embodiment is not limited to this, and may be a two-dimensional image other than an image by X-ray such as an ultrasonic echo. Can also be applied.
Further, in the present embodiment, the characteristic region is extracted (S114) after the bone region attenuation process (S113) in FIG. 3, but the present invention is not limited to this. After the body movement amount calculation process (S115), the characteristic part extraction unit 115 may extract the characteristic part from the non-rigid body-transformed bone area attenuated X-ray image.

本発明は前記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を有するものに限定されるものではない。 The present invention is not limited to the above-described embodiment, but includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described.

また、前記した各構成、機能、各部101〜109、記憶装置402等は、それらの一部又はすべてを、例えば集積回路で設計すること等によりハードウェアで実現してもよい。また、図2に示すように、前記した各構成、機能等は、CPU102等のプロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、HD(Hard Disk)に格納すること以外に、メモリや、SSD(Solid State Drive)等の記録装置、又は、IC(Integrated Circuit)カードや、SD(Secure Digital)カード、DVD(Digital Versatile Disc)等の記録媒体に格納することができる。
また、各実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には、ほとんどすべての構成が相互に接続されていると考えてよい。
Further, the above-described respective configurations and functions, the respective units 101 to 109, the storage device 402 and the like may be realized by hardware by designing a part or all of them, for example, with an integrated circuit. Further, as shown in FIG. 2, each configuration, function, and the like described above may be realized by software by a processor such as the CPU 102 interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function is stored in a hard disk (HD), a memory, a recording device such as an SSD (Solid State Drive), an IC (Integrated Circuit) card, or the like. , SD (Secure Digital) card, DVD (Digital Versatile Disc) and the like.
Further, in each embodiment, the control lines and information lines are shown to be necessary for explanation, and not all the control lines and information lines on the product are necessarily shown. In reality, almost all configurations can be considered as interconnected.

1 X線撮像システム
2 医用画像サーバ
100 データ処理装置
101 メモリ
102 CPU
103 通信装置
110 処理部
111 画像取得部(2次元画像取得部、3次元画像取得部)
112 計算投影画像生成部(計算2次元画像生成部)
113 画像位置合わせ部
114 剛体領域減弱部
115 特徴部位抽出部
116 体動移動量算出/補正部(計算剛体領域減弱部、ずれ度算出部、位置算出部)
117 3次元位置算出部(位置算出部)
118 位置マッピング部
119 表示処理部
201 X線源
202 検出器
401 表示装置(表示部)
402 記憶装置
501,501a,501b 撮像X線画像(2次元画像)
502,502a,502b 計算投影画像(計算2次元画像)
503 3次元画像
511 骨領域計算投影画像
521,521a,521b 骨領域減弱X線画像(減弱2次元画像)
531 鉗子先端(特徴部位)
532 ガイドシースマーカ(特徴部位)
541,541a,541b 骨領域減弱計算投影画像(計算減弱2次元画像)
600 表示画面
601,601a 3次元画像表示部
602 第1撮像X線画像表示部
603 第2撮像X線画像表示部
L1,L2 直線
1 X-ray imaging system 2 Medical image server 100 Data processing device 101 Memory 102 CPU
103 communication device 110 processing unit 111 image acquisition unit (two-dimensional image acquisition unit, three-dimensional image acquisition unit)
112 Calculation Projection Image Generation Unit (Calculation Two-Dimensional Image Generation Unit)
113 Image Positioning Unit 114 Rigid Body Region Attenuating Unit 115 Characteristic Region Extracting Unit 116 Body Movement Amount Calculation/Correction Unit (Calculated Rigid Body Region Attenuating Unit, Deviation Degree Calculating Unit, Position Calculating Unit)
117 Three-dimensional position calculation unit (position calculation unit)
118 position mapping unit 119 display processing unit 201 X-ray source 202 detector 401 display device (display unit)
402 Storage devices 501, 501a, 501b Captured X-ray image (two-dimensional image)
502, 502a, 502b Computational projection image (computation two-dimensional image)
503 3D image 511 Bone region calculation projection image 521, 521a, 521b Bone region attenuated X-ray image (attenuated 2D image)
531 Forceps tip (characteristic region)
532 Guide sheath marker (characteristic part)
541, 541a, 541b Bone region attenuation calculation projection image (calculation attenuation two-dimensional image)
600 display screen 601, 601a three-dimensional image display unit 602 first captured X-ray image display unit 603 second captured X-ray image display unit L1, L2 straight line

Claims (7)

放射線撮像装置によって撮像された画像であり、所定の特徴部位が撮像されている2次元画像と、前記2次元画像を撮像した被検体と同一の被検体を、前記放射線撮像装置とは別の放射線撮像装置で、前記2次元画像とは異なる時刻で撮像された3次元画像とにおいて、前記2次元画像に撮像されている前記特徴部位の前記3次元画像での位置を算出するデータ処理装置であって、
前記2次元画像を取得する2次元画像取得部と、
前記3次元画像を取得する3次元画像取得部と、
前記3次元画像を基に、前記2次元画像に相当する2次元の画像である計算2次元画像を生成する計算2次元画像生成部と、
前記3次元画像を基に、前記2次元画像における剛体領域を減弱して減弱2次元画像を生成する剛体領域減弱部と、
前記3次元画像を基に、前記計算2次元画像から剛体領域を減弱したものに相当する計算減弱2次元画像を生成する計算剛体領域減弱部と、
前記減弱2次元画像と、前記計算減弱2次元画像とを基に、前記減弱2次元画像と、前記計算減弱2次元画像とにおけるずれの度合いを算出するずれ度算出部と、
前記算出されたずれの度合いを基に、前記特徴部位の前記3次元画像での位置を算出する位置算出部と、
前記3次元画像中に前記特徴部位の位置を表示する表示部と、
を有することを特徴とするデータ処理装置。
A radiation image captured by a radiation imaging apparatus, in which a two-dimensional image in which a predetermined characteristic portion is captured, and a subject identical to the subject in which the two-dimensional image is captured are different from the radiation imaging apparatus. A data processing device for calculating a position in the three-dimensional image of the characteristic part captured in the two-dimensional image in the three-dimensional image captured at a different time from the two-dimensional image in the image capturing device. hand,
A two-dimensional image acquisition unit for acquiring the two-dimensional image,
A three-dimensional image acquisition unit for acquiring the three-dimensional image,
A calculation two-dimensional image generation unit that generates a calculation two-dimensional image that is a two-dimensional image corresponding to the two-dimensional image based on the three-dimensional image;
A rigid body region weakening unit for weakening a rigid body region in the two-dimensional image to generate a weakened two-dimensional image based on the three-dimensional image;
A calculation rigid region weakening unit for generating a calculation weakened two-dimensional image corresponding to a weakened body region attenuated from the calculated two-dimensional image based on the three-dimensional image;
A deviation degree calculation unit that calculates a degree of deviation between the attenuation two-dimensional image and the calculation attenuation two-dimensional image based on the attenuation two-dimensional image and the calculation attenuation two-dimensional image,
A position calculation unit that calculates the position of the characteristic region in the three-dimensional image based on the calculated degree of deviation;
A display unit that displays the position of the characteristic region in the three-dimensional image;
A data processing device comprising:
前記表示部は、
前記算出された特徴部位の位置とともに、前記ずれの度合いを考慮せずに算出された前記特徴部位の前記3次元画像での位置を表示する
ことを特徴とする請求項1に記載のデータ処理装置。
The display unit is
The data processing apparatus according to claim 1, wherein the position of the characteristic portion calculated without considering the degree of the deviation in the three-dimensional image is displayed together with the calculated position of the characteristic portion. ..
前記2次元画像は、X線源から照射されたX線を検出器で検出することによって複数撮像され、
前記位置算出部は、
前記2次元画像に撮像されている前記特徴部位を基に、前記2次元画像を撮像した時の前記検出器の位置における、前記算出されたずれの度合いを基に補正された特徴部位の位置を算出し、
前記2次元画像を撮像した前記検出器の位置における、前記補正された特徴部位の位置と、前記2次元画像を撮像した時の前記X線源の位置とを結ぶ直線を生成する
ことを各2次元画像に対して行った結果、生成された各直線に対して最も近くなる点を算出し、
該算出された点を基に、前記特徴部位の前記3次元画像中での位置を算出する
ことを特徴とする請求項1に記載のデータ処理装置。
A plurality of the two-dimensional images are picked up by detecting X-rays emitted from an X-ray source with a detector,
The position calculation unit,
Based on the characteristic part captured in the two-dimensional image, the position of the characteristic part corrected based on the calculated degree of deviation at the position of the detector at the time of capturing the two-dimensional image. Calculate,
Generating a straight line that connects the position of the corrected characteristic part at the position of the detector that captured the two-dimensional image and the position of the X-ray source when the two-dimensional image was captured. As a result of doing it on the three-dimensional image, calculate the closest point to each generated straight line,
The data processing apparatus according to claim 1, wherein the position of the characteristic portion in the three-dimensional image is calculated based on the calculated points.
前記ずれ度算出部は、
前記減弱2次元画像及び前記計算減弱2次元画像のいずれか一方の画像を所定の歪度で歪曲させ、前記減弱2次元画像及び前記計算減弱2次元画像のうち、前記歪曲された画像である歪曲画像と、前記歪曲されていない画像である非歪曲画像との類似度が最大となる前記歪曲画像と、前記非歪曲画像とにおける各画素の移動量を前記ずれの度合いとする
ことを特徴とする請求項1に記載のデータ処理装置。
The deviation degree calculation unit,
Either one of the image of the attenuation two-dimensional image and the calculated attenuation two-dimensional image is distorted in a predetermined skewness, of pre-Symbol attenuation 2-dimensional image and the calculated attenuation two-dimensional image, is the distorted image The distorted image and the distorted image that maximizes the similarity between the non-distorted image that is the non-distorted image and the non-distorted image, and the amount of movement of each pixel in the distorted image is the degree of deviation. The data processing device according to claim 1.
前記2次元画像は複数撮像され、
前記ずれ度算出部は、
前記各画素の移動量の算出を、各2次元画像から生成された減弱2次元画像のそれぞれについて行う
ことを特徴とする請求項4に記載のデータ処理装置。
A plurality of the two-dimensional images are captured,
The deviation degree calculation unit,
The data processing apparatus according to claim 4, wherein the movement amount of each pixel is calculated for each of the attenuated two-dimensional images generated from each two-dimensional image.
前記2次元画像と、前記計算2次元画像との位置合わせを行うことにより、前記2次元画像と、前記3次元画像との位置合わせを行う画像位置合わせ部
を有することを特徴とする請求項1に記載のデータ処理装置。
An image registration unit that performs registration between the two-dimensional image and the three-dimensional image by performing registration between the two-dimensional image and the calculated two-dimensional image. The data processing device according to.
放射線撮像装置によって撮像された画像であり、所定の特徴部位が撮像されている2次元画像と、前記2次元画像を撮像した被検体と同一の被検体を、前記放射線撮像装置とは別の放射線撮像装置で、前記2次元画像とは異なる時刻で撮像された3次元画像とにおいて、前記2次元画像に撮像されている前記特徴部位の前記3次元画像での位置を算出するデータ処理装置によるデータ処理方法であって、
前記データ処理装置が、
前記2次元画像を取得し、
前記3次元画像を取得し、
前記3次元画像を基に、前記2次元画像に相当する2次元の画像である計算2次元画像を生成し、
前記3次元画像を基に、前記2次元画像における剛体領域を減弱して減弱2次元画像を生成し、
前記3次元画像を基に、前記計算2次元画像から剛体領域を減弱したものに相当する計算減弱2次元画像を生成し、
前記減弱2次元画像と、前記計算減弱2次元画像とを基に、前記減弱2次元画像と、前記計算減弱2次元画像とにおけるずれの度合いを算出し、
前記算出されたずれの度合いを基に、前記特徴部位の前記3次元画像での位置を算出し、
前記3次元画像中に前記特徴部位の位置を表示部に表示する
ことを特徴とするデータ処理方法。
A radiation image captured by a radiation imaging apparatus, in which a two-dimensional image in which a predetermined characteristic portion is captured, and a subject identical to the subject in which the two-dimensional image is captured are different from the radiation imaging apparatus. Data by a data processing device that calculates the position in the three-dimensional image of the characteristic part captured in the two-dimensional image in the three-dimensional image captured by the imaging device at a different time from the two-dimensional image A processing method,
The data processing device,
Acquiring the two-dimensional image,
Acquiring the three-dimensional image,
Generating a calculated two-dimensional image, which is a two-dimensional image corresponding to the two-dimensional image, based on the three-dimensional image,
Attenuating a rigid body region in the two-dimensional image based on the three-dimensional image to generate an attenuated two-dimensional image,
Generating a computationally attenuated two-dimensional image corresponding to the rigid body region attenuated from the computational two-dimensional image based on the three-dimensional image;
Calculating the degree of deviation between the attenuation two-dimensional image and the calculated attenuation two-dimensional image based on the attenuation two-dimensional image and the calculation attenuation two-dimensional image,
Calculating the position of the characteristic part in the three-dimensional image based on the calculated degree of deviation,
A data processing method, wherein the position of the characteristic part is displayed on the display unit in the three-dimensional image.
JP2016216759A 2016-11-04 2016-11-04 Data processing device and data processing method Active JP6703470B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016216759A JP6703470B2 (en) 2016-11-04 2016-11-04 Data processing device and data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016216759A JP6703470B2 (en) 2016-11-04 2016-11-04 Data processing device and data processing method

Publications (2)

Publication Number Publication Date
JP2018068982A JP2018068982A (en) 2018-05-10
JP6703470B2 true JP6703470B2 (en) 2020-06-03

Family

ID=62113206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016216759A Active JP6703470B2 (en) 2016-11-04 2016-11-04 Data processing device and data processing method

Country Status (1)

Country Link
JP (1) JP6703470B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11452566B2 (en) * 2018-12-21 2022-09-27 Intellijoint Surgical Inc. Pre-operative planning for reorientation surgery: surface-model-free approach using simulated x-rays
EP4060604A1 (en) * 2021-03-16 2022-09-21 Koninklijke Philips N.V. Method and system to generate modified x-ray images

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007135858A (en) * 2005-11-18 2007-06-07 Hitachi Medical Corp Image processor
JP2008086658A (en) * 2006-10-04 2008-04-17 Fujifilm Corp Image display device, and image display program
US8503746B2 (en) * 2008-05-26 2013-08-06 Hitachi Medical Corporation Medical image processing device, medical image processing method, and medical image processing program
JP5702572B2 (en) * 2009-10-29 2015-04-15 株式会社東芝 X-ray equipment
US8675944B2 (en) * 2012-01-12 2014-03-18 Kabushiki Kaisha Toshiba Method of registering image data
JP2014158628A (en) * 2013-02-20 2014-09-04 Univ Of Tokushima Image processor, image processing method, control program, and recording medium
JP6472606B2 (en) * 2014-05-15 2019-02-20 キヤノンメディカルシステムズ株式会社 X-ray diagnostic equipment
JP6467654B2 (en) * 2014-11-19 2019-02-13 東芝エネルギーシステムズ株式会社 Medical image processing apparatus, method, program, and radiotherapy apparatus
JP6349278B2 (en) * 2015-03-23 2018-06-27 株式会社日立製作所 Radiation imaging apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2018068982A (en) 2018-05-10

Similar Documents

Publication Publication Date Title
US11707241B2 (en) System and method for local three dimensional volume reconstruction using a standard fluoroscope
US11992349B2 (en) System and method for local three dimensional volume reconstruction using a standard fluoroscope
CN110123449B (en) System and method for local three-dimensional volume reconstruction using standard fluoroscopy
JP6559532B2 (en) Real-time simulation of fluoroscopic images
JP6349278B2 (en) Radiation imaging apparatus, image processing method, and program
EP3750134A1 (en) System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
JP6806655B2 (en) Radiation imaging device, image data processing device and image processing program
JP2017502807A (en) Surgical apparatus and method of use
JP6637781B2 (en) Radiation imaging apparatus and image processing program
CN110301883B (en) Image-based guidance for navigating tubular networks
JP6703470B2 (en) Data processing device and data processing method
US20230316550A1 (en) Image processing device, method, and program
JP6952740B2 (en) How to assist users, computer program products, data storage media, and imaging systems
Naik et al. Feature-based registration framework for pedicle screw trajectory registration between multimodal images
JP2024005113A (en) Image processing device, method, and program
de Araújo Coelho A 3D Computer Assisted Orthopedic Surgery Planning Approach Based on Planar Radiography

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200508

R150 Certificate of patent or registration of utility model

Ref document number: 6703470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250