JP2011050621A - X-ray navigation apparatus - Google Patents

X-ray navigation apparatus Download PDF

Info

Publication number
JP2011050621A
JP2011050621A JP2009203356A JP2009203356A JP2011050621A JP 2011050621 A JP2011050621 A JP 2011050621A JP 2009203356 A JP2009203356 A JP 2009203356A JP 2009203356 A JP2009203356 A JP 2009203356A JP 2011050621 A JP2011050621 A JP 2011050621A
Authority
JP
Japan
Prior art keywords
ray
image
surgical tool
unit
volume image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009203356A
Other languages
Japanese (ja)
Other versions
JP2011050621A5 (en
JP5661264B2 (en
Inventor
Hidekazu Nakamoto
秀和 仲本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2009203356A priority Critical patent/JP5661264B2/en
Publication of JP2011050621A publication Critical patent/JP2011050621A/en
Publication of JP2011050621A5 publication Critical patent/JP2011050621A5/ja
Application granted granted Critical
Publication of JP5661264B2 publication Critical patent/JP5661264B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an X-ray navigation apparatus which displays on a real-time basis the position of an instrument on a volume image. <P>SOLUTION: The X-ray navigation apparatus comprises: a database 201 for storing volume images output from an image diagnostic apparatus 200; an X-ray source 111 for generating X-ray, an X-ray detector 112 for detecting X-ray; an X-ray perspective image generating section 203 for generating an X-ray perspective image from X-ray signals output from the X-ray detector 112; a registration section 202 that defines the positional relationship between a volume image and the X-ray source 111 and integrates the coordinate of the volume image and the coordinate of the X-ray perspective image; an instrument two-dimensional position extracting section 204 for extracting the two-dimensional position of the instrument from the X-ray perspective image; an instrument three-dimensional position extracting section 205 for extracting the three-dimensional position of the instrument in the volume image by use of the two-dimensional information extracted in the instrument two-dimensional position extracting section 204; and display sections 113 and 114 for displaying the position of the instrument in the volume image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、X線診断装置から得られるX線透視画像をCT、MR装置等の画像診断装置から得られるボリューム画像に重ね合わせるとともに、術具(カテーテル等)を表示するX線ナビゲーション装置に関するものである。   The present invention relates to an X-ray navigation apparatus for superimposing an X-ray fluoroscopic image obtained from an X-ray diagnostic apparatus on a volume image obtained from an image diagnostic apparatus such as a CT or MR apparatus and displaying a surgical instrument (catheter etc.) It is.

X線を被検体に照射し、被検体を透過したX線を検出し、検出されたX線に基づいてX線透視画像を得て表示するX線診断装置がある。X線透視画像は2次元画像であることから、X線透視画像から奥行き情報を判断するのは難しかった。そこで、術具の選択位置に対する相対位置を検出して画像表示し、術具を管腔内の選択位置に搬送するための方法及びシステムが提案された(例えば、特許文献1)。   There is an X-ray diagnostic apparatus that irradiates a subject with X-rays, detects X-rays transmitted through the subject, and obtains and displays an X-ray fluoroscopic image based on the detected X-rays. Since the fluoroscopic image is a two-dimensional image, it has been difficult to determine depth information from the fluoroscopic image. In view of this, a method and system for detecting the relative position of the surgical instrument relative to the selected position, displaying an image, and transporting the surgical instrument to the selected position in the lumen has been proposed (for example, Patent Document 1).

このように、X線透視画像から3次元位置を特定し、術具を視覚的に誘導する方法が提案されている。   Thus, a method has been proposed in which a three-dimensional position is specified from an X-ray fluoroscopic image to visually guide a surgical tool.

特開2007-83038号公報JP 2007-83038 A

しかしながら、上記システム(特許文献1)は複数枚のX線透視画像から3次元情報を抽出しており、術具の位置を人による指示(マニュアル操作)していることから、術具の位置をリアルタイムに表示することは難しい。また、術具の位置情報をX線診断装置にて取得していることから、被検体に対する被曝の影響も大きい。   However, since the above system (Patent Document 1) extracts three-dimensional information from a plurality of fluoroscopic images and instructs the position of the surgical tool by a person (manual operation), the position of the surgical tool is determined. It is difficult to display in real time. In addition, since the position information of the surgical tool is acquired by the X-ray diagnostic apparatus, the influence of the exposure on the subject is large.

本発明の目的は、術具の位置をボリューム画像にリアルタイムに表示することできるX線ナビゲーション装置を提供する。   An object of the present invention is to provide an X-ray navigation apparatus capable of displaying the position of a surgical instrument on a volume image in real time.

上記課題を解決するため、本発明のX線ナビゲーション装置は、画像診断装置から出力されるボリューム画像を記憶するデータベースと、X線を発生させるX線発生部と、X線を検出するX線検出部と、前記X線検出部から出力されるX線信号からX線透視画像を作成するX線透視画像作成部と、前記ボリューム画像と前記X線発生部のX線照射方向の位置関係を定義し、前記ボリューム画像の座標と前記X線透視画像の座標の統合を行なうレジストレーション部と、前記X線透視画像から術具の2次元位置を抽出する術具2次元位置抽出部と、前記術具2次元位置抽出部で抽出された前記術具の2次元位置情報を用いて、前記ボリューム画像における前記術具の3次元位置を抽出する術具3次元位置抽出部と、前記術具の位置を前記ボリューム画像に表示する表示部を有している。   In order to solve the above-described problems, an X-ray navigation apparatus according to the present invention includes a database that stores volume images output from an image diagnostic apparatus, an X-ray generation unit that generates X-rays, and an X-ray detection that detects X-rays A X-ray fluoroscopic image creation unit that creates an X-ray fluoroscopic image from an X-ray signal output from the X-ray detection unit, and defines a positional relationship in the X-ray irradiation direction of the volume image and the X-ray generation unit A registration unit that integrates the coordinates of the volume image and the coordinates of the fluoroscopic image, a surgical tool two-dimensional position extraction unit that extracts a two-dimensional position of the surgical tool from the fluoroscopic image, and the surgical method Using the 2D position information of the surgical tool extracted by the tool 2D position extraction unit, a surgical tool 3D position extraction unit that extracts the 3D position of the surgical tool in the volume image, and the position of the surgical tool Is displayed on the volume image. Have.

本発明によれば、術具の位置をボリューム画像にリアルタイムに表示することできる。   According to the present invention, the position of the surgical instrument can be displayed on the volume image in real time.

本発明のX線ナビゲーション装置の全体構成を示す図。The figure which shows the whole structure of the X-ray navigation apparatus of this invention. 本発明のX線ナビゲーション装置の内部構成を示す図。The figure which shows the internal structure of the X-ray navigation apparatus of this invention. 本発明のレジストレーション部202について説明する図。The figure explaining the registration part 202 of this invention. 本発明の主に術具2次元位置抽出部204と術具3次元位置抽出部205について説明する図。The figure explaining the surgical tool two-dimensional position extraction part 204 and the surgical tool three-dimensional position extraction part 205 mainly of this invention. 本発明の表示部113、114の表示形態を示す図。The figure which shows the display form of the display parts 113 and 114 of this invention. 本発明の実施例2を説明する図。FIG. 6 is a diagram illustrating Example 2 of the present invention. 本発明の実施例2を説明する図。FIG. 6 is a diagram illustrating Example 2 of the present invention. 本発明のGUI(術前)表示例を示す図。The figure which shows the example of GUI (preoperative) display of this invention. 本発明のGUI(手術適用時)表示例を示す図。The figure which shows the example of a GUI (at the time of surgery application) display of this invention. 本発明の実施例1と実施例2の動作手順を示すフローチャート。6 is a flowchart showing an operation procedure of the first and second embodiments of the present invention.

本発明の実施例について図を用いて説明する。   Embodiments of the present invention will be described with reference to the drawings.

図1は、本発明のX線ナビゲーション装置の全体構成を示す図である。寝台100上には、被検体101が臥位で仰向けになっている。術者102は、術具103(例えば、カテーテル)を被検体101の体内に挿入している。   FIG. 1 is a diagram showing the overall configuration of the X-ray navigation apparatus of the present invention. On the bed 100, the subject 101 is lying on his back in the supine position. The operator 102 has inserted a surgical tool 103 (for example, a catheter) into the body of the subject 101.

本発明のX線ナビゲーション装置は、予め得られたCT、MR装置等の画像診断装置のボリューム画像を記憶するデータベースや各種演算部を有している本体110と、X線を発生するX線発生部111と、被検体101を透過したX線を検出するX線検出部112と、X線画像、X線透視画像やCT、MR画像を表示する表示部113、114と、各構成要素を操作する操作部115を有している。ボリューム画像は、ボリュームレンダリング等の手法を用いて作成されたものである。   The X-ray navigation apparatus of the present invention includes a main body 110 having a database and various calculation units for storing volume images of diagnostic imaging apparatuses such as CT and MR apparatuses obtained in advance, and X-ray generation for generating X-rays. Unit 111, X-ray detection unit 112 for detecting X-rays transmitted through the subject 101, display units 113 and 114 for displaying X-ray images, X-ray fluoroscopic images, CT, and MR images, and operation of each component An operation unit 115 is provided. The volume image is created using a technique such as volume rendering.

X線発生部111は、電力供給を受けてX線を発生させるX線管球を有している。また、X線発生部111には、特定のエネルギーのX線を選択的に透過させるX線フィルタや、発生したX線を遮蔽するX線遮蔽用鉛板を複数有し、複数のX線遮蔽用鉛板をそれぞれ移動することにより、被検体101に対するX線照射領域を決定する絞り装置などを有していてもよい。   The X-ray generator 111 has an X-ray tube that receives power supply and generates X-rays. The X-ray generator 111 includes a plurality of X-ray filters that selectively transmit X-rays of specific energy and a plurality of X-ray shielding lead plates that shield generated X-rays. There may be provided a diaphragm device or the like for determining an X-ray irradiation area for the subject 101 by moving the lead plate for each object.

X線検出部112は、例えば、X線を検出する複数の検出素子が2次元アレイ状に配置されて構成されており、X線発生部111から照射され、被検体101を透過したX線の入射量に応じたX線信号を検出する機器である。   The X-ray detection unit 112 is configured by, for example, a plurality of detection elements that detect X-rays arranged in a two-dimensional array. The X-ray detection unit 112 irradiates from the X-ray generation unit 111 and passes through the subject 101. This device detects X-ray signals according to the amount of incident light.

また、X線発生部111とアーム122には、X線発生部11の位置を特定するためのポインタ(3次元位置が定義された複数の反射球)120と、ポインタ120に赤外線を発生させ、ポインタ120から反射された赤外線を受信し、ポインタ120の位置を検出する位置検出部121が備えられている。よって、位置検出部121により、X線発生部111の位置を検出することができる。なお、X線発生部111の位置を検出する媒体として赤外線を用いたが、磁気を用いてもよい。   In addition, the X-ray generator 111 and the arm 122 generate a pointer 120 for specifying the position of the X-ray generator 11 (a plurality of reflecting spheres with a defined three-dimensional position) 120, and infrared rays to the pointer 120, A position detection unit 121 that receives infrared rays reflected from the pointer 120 and detects the position of the pointer 120 is provided. Therefore, the position detection unit 121 can detect the position of the X-ray generation unit 111. In addition, although infrared rays were used as a medium for detecting the position of the X-ray generation unit 111, magnetism may be used.

図2は、本発明のX線ナビゲーション装置の内部構成を示す図である。
本体110は、CT、MR装置等の画像診断装置200から出力されるボリューム画像を記憶するデータベース201と、X線検出部112から出力されるX線信号からX線透視画像を作成するX線透視画像作成部203と、ボリューム画像とX線発生部111のX線照射方向の位置関係を定義し、ボリューム画像の座標とX線透視画像の座標の統合を行なうレジストレーション部202と、X線透視画像から術具の2次元位置を抽出する術具2次元位置抽出部204と、術具2次元位置抽出部204で抽出されたX線透視画像の術具の2次元位置情報を用いて、ボリューム画像における術具の3次元位置を抽出する術具3次元位置抽出部205とを有している。
FIG. 2 is a diagram showing an internal configuration of the X-ray navigation apparatus of the present invention.
The main body 110 includes a database 201 that stores volume images output from a diagnostic imaging apparatus 200 such as a CT or MR apparatus, and an X-ray fluoroscope that creates an X-ray fluoroscopic image from an X-ray signal output from the X-ray detector 112. An image creation unit 203, a registration unit 202 that defines the positional relationship between the volume image and the X-ray generation direction of the X-ray generation unit 111, and integrates the coordinates of the volume image and the X-ray fluoroscopic image. Using the 2D position extraction unit 204 for extracting the 2D position of the surgical tool from the image and the 2D position information of the surgical tool in the fluoroscopic image extracted by the 2D position extraction unit 204, the volume A surgical tool three-dimensional position extraction unit 205 that extracts a three-dimensional position of the surgical tool in the image;

図3は、レジストレーション部202について説明するための図である。
図3(a)は、画像診断装置200のボリューム画像を示すものである。このボリューム画像は、マーカ(1)〜(3)が被検体101の表面(例えば、腹部の3点)に付与されて撮影されたものである。図3(b)は、X線透視画像作成部203で作成されたX線透視画像を示すものである。このX線透視画像は、ボリューム画像を得た時のマーカ(1)〜(3)と同じ位置にマーカ(1)〜(3)が被検体101の表面に付与されて撮影されたものである。
FIG. 3 is a diagram for explaining the registration unit 202.
FIG. 3 (a) shows a volume image of the diagnostic imaging apparatus 200. FIG. This volume image is taken with markers (1) to (3) attached to the surface of the subject 101 (for example, three points on the abdomen). FIG. 3B shows an X-ray fluoroscopic image created by the X-ray fluoroscopic image creating unit 203. This fluoroscopic image was taken with the markers (1) to (3) attached to the surface of the subject 101 at the same positions as the markers (1) to (3) when the volume image was obtained. .

マーカ(1)〜(3)は、CT、MR装置、X線診断装置等のマルチモダリティで撮影可能なマーカである。マーカ(1)〜(3)が付与されて撮影されたボリューム画像及びX線透視画像のマーカ(1)〜(3)の表示部位は、例えば、被検体101の部位よりも輝度が高く、それぞれの番号が認識できるように表示される。   The markers (1) to (3) are markers that can be imaged with multi-modality such as CT, MR apparatus, X-ray diagnostic apparatus and the like. The display part of the markers (1) to (3) of the volume image and the fluoroscopic image taken with the markers (1) to (3) is, for example, higher in luminance than the part of the subject 101, respectively. The number is displayed so that it can be recognized.

レジストレーション部202は、マーカ(1)〜(3)の位置情報を用いて、データベース201から出力されるボリューム画像とX線透視画像作成部203から出力されるX線透視画像の位置合わせを行ない、ボリューム画像とX線発生部111のX線照射方向の位置関係を定義する。具体的には、レジストレーション部202は、X線透視画像からマーカ(1)〜(3)の2次元位置を特定する。また、レジストレーション部202は、ボリューム画像の上面(被検体101の上側)からマーカ(1)〜(3)の3次元位置を特定し、ボリューム画像の上面におけるマーカ(1)〜(3)の2次元位置を特定する。よって、レジストレーション部202は、それぞれのマーカ(1)〜(3)の2次元位置からボリューム画像に対して、X線透視画像の平面を特定することができる。   The registration unit 202 uses the position information of the markers (1) to (3) to align the volume image output from the database 201 and the X-ray fluoroscopic image output from the X-ray fluoroscopic image creation unit 203. The positional relationship between the volume image and the X-ray generation direction of the X-ray generation unit 111 is defined. Specifically, the registration unit 202 identifies the two-dimensional positions of the markers (1) to (3) from the X-ray fluoroscopic image. Further, the registration unit 202 identifies the three-dimensional positions of the markers (1) to (3) from the upper surface of the volume image (the upper side of the subject 101), and sets the markers (1) to (3) on the upper surface of the volume image. Specify the 2D position. Therefore, the registration unit 202 can specify the plane of the X-ray fluoroscopic image with respect to the volume image from the two-dimensional positions of the markers (1) to (3).

そして、位置検出部121は、X線透視画像が撮影された際、X線発生部111に付与されたポインタ120の位置を検出することにより、レジストレーション部202は、マーカ(1)〜(3)に基づいて、ボリューム画像に対して、X線透視画像の平面を特定したため、ボリューム画像とX線発生部111のX線照射方向の位置関係を定義することができる。   Then, the position detection unit 121 detects the position of the pointer 120 given to the X-ray generation unit 111 when the X-ray fluoroscopic image is captured, so that the registration unit 202 can detect the markers (1) to (3 ), The plane of the X-ray fluoroscopic image is specified for the volume image, and therefore the positional relationship between the volume image and the X-ray generation direction of the X-ray generation unit 111 can be defined.

図4は、主に術具2次元位置抽出部204と術具3次元位置抽出部205について説明する図である。
図4(a)は、画像診断装置200で撮影されたボリューム画像400である。ボリューム画像400は、予め画像診断装置200で術具の手術経路となる血管401が抽出されている。具体的には、画像診断装置200は、ボリューム画像400の輝度情報(主に血管の輝度情報)を用いて、例えば、リージョングローイング法の画像抽出法により、複数の血管を抽出し、術者は術具の手術経路を確定する。リージョングローイング法とは、抽出すべき領域の基準点を設定し、その基準点の輝度との輝度差が設定範囲内に属する画素の領域を抽出する画像抽出法である。
FIG. 4 is a diagram for mainly explaining the surgical tool two-dimensional position extraction unit 204 and the surgical tool three-dimensional position extraction unit 205.
FIG. 4A shows a volume image 400 taken by the diagnostic imaging apparatus 200. FIG. From the volume image 400, a blood vessel 401 serving as a surgical path of a surgical instrument is extracted in advance by the diagnostic imaging apparatus 200. Specifically, the diagnostic imaging apparatus 200 uses the luminance information of the volume image 400 (mainly blood vessel luminance information) to extract a plurality of blood vessels by, for example, an image extraction method of the region growing method, Determine the surgical path of the surgical instrument. The region growing method is an image extraction method in which a reference point of a region to be extracted is set, and a pixel region whose luminance difference from the luminance of the reference point falls within a setting range is extracted.

そして、画像診断装置200は、抽出された複数の血管の内、術具の手術経路が確定された血管401を抽出し、ボリューム画像400に重畳する。データベース201は、画像診断装置200から出力されるボリューム画像400を術具の手術経路が確定された血管401とともに記憶する。   The diagnostic imaging apparatus 200 extracts a blood vessel 401 in which the surgical route of the surgical instrument is determined from the extracted plurality of blood vessels, and superimposes it on the volume image 400. The database 201 stores the volume image 400 output from the diagnostic imaging apparatus 200 together with the blood vessel 401 in which the surgical path of the surgical instrument is determined.

図4(b)は、X線透視画像作成部203で作成されたX線透視画像410である。X線透視画像410には、被検体101の血管411と、術具412と、術具412の先端部413が表示されている。   FIG. 4B is an X-ray fluoroscopic image 410 created by the X-ray fluoroscopic image creating unit 203. In the X-ray fluoroscopic image 410, the blood vessel 411 of the subject 101, the surgical instrument 412 and the distal end portion 413 of the surgical instrument 412 are displayed.

術具2次元位置抽出部204は、X線透視画像作成部203で作成されたX線透視画像410の輝度情報(主に術具412の輝度情報)を用いて、直前に撮影されたX線透視画像の術具103と、現在撮影されたX線透視画像の術具103の差分をとることで現在の術具103の先端部413及び経路を確定する。また、術具2次元位置抽出部204は、例えば、リージョングローイング法の画像抽出法により、術具412を抽出し、術具412の先端部413及び経路を確定してもよい。このように、術具2次元位置抽出部204は、X線透視画像410から術具412の2次元位置を抽出することができる。   The surgical tool two-dimensional position extraction unit 204 uses the luminance information of the X-ray fluoroscopic image 410 created by the X-ray fluoroscopic image creation unit 203 (mainly luminance information of the surgical tool 412), and the X-ray imaged immediately before By taking the difference between the surgical tool 103 of the fluoroscopic image and the surgical tool 103 of the currently taken X-ray fluoroscopic image, the distal end portion 413 and the path of the current surgical tool 103 are determined. In addition, the surgical instrument two-dimensional position extraction unit 204 may extract the surgical instrument 412 and determine the distal end portion 413 and the path of the surgical instrument 412 by, for example, an image extraction method using a region growing method. As described above, the surgical instrument two-dimensional position extraction unit 204 can extract the two-dimensional position of the surgical instrument 412 from the X-ray fluoroscopic image 410.

ここで、図4(c)に示すように、レジストレーション部202は、ボリューム画像400の座標とX線透視画像410の座標は異なっているため、これらの座標の統合を行なう。具体的には、レジストレーション部202は、位置検出部121の座標におけるX線発生部111の位置情報に対して、座標変換を行なって、ボリューム画像400の座標におけるX線発生部111の位置情報を算出する。レジストレーション部202は、ボリューム画像400とX線発生部111のX線照射方向の位置関係を定義しているため、位置検出部121の座標からボリューム画像400の座標への変換行列を求めることができる。よって、レジストレーション部202は、ボリューム画像400の座標とX線透視画像410の座標の統合を行なうことができる。ボリューム画像400とX線透視画像410の座標の統合によって、X線発生部111の位置が動いたとしても、X線透視画像作成部から出力されるX線透視画像410が、ボリューム画像400のどの方向から撮影されたかを算出することができる。   Here, as shown in FIG. 4C, since the coordinates of the volume image 400 and the coordinates of the X-ray fluoroscopic image 410 are different, the registration unit 202 integrates these coordinates. Specifically, the registration unit 202 performs coordinate conversion on the position information of the X-ray generation unit 111 at the coordinates of the position detection unit 121, and the position information of the X-ray generation unit 111 at the coordinates of the volume image 400 Is calculated. Since the registration unit 202 defines the positional relationship between the volume image 400 and the X-ray generation direction of the X-ray generation unit 111, a registration matrix from the coordinates of the position detection unit 121 to the coordinates of the volume image 400 can be obtained. it can. Therefore, the registration unit 202 can integrate the coordinates of the volume image 400 and the coordinates of the X-ray fluoroscopic image 410. Even if the position of the X-ray generation unit 111 is moved by integrating the coordinates of the volume image 400 and the X-ray fluoroscopic image 410, the X-ray fluoroscopic image 410 output from the X-ray fluoroscopic image creation unit is It can be calculated whether the image is taken from the direction.

そして、術具3次元位置抽出部205は、ボリューム画像400における、X線発生部111のX線照射方向、すなわち術者102の視点420における視線方向421からのX線透視画像410を算出する。視線方向421において、X線透視画像410から抽出した術具412とボリューム画像400から抽出された手術経路となる血管401が重なった部分が、術具412の先端部413及び経路ということになる。   Then, the surgical instrument three-dimensional position extraction unit 205 calculates an X-ray fluoroscopic image 410 from the X-ray irradiation direction of the X-ray generation unit 111 in the volume image 400, that is, the visual line direction 421 at the viewpoint 420 of the operator 102. In the line-of-sight direction 421, the portion where the surgical instrument 412 extracted from the X-ray fluoroscopic image 410 and the blood vessel 401 serving as the surgical path extracted from the volume image 400 overlap is the distal end portion 413 and the path of the surgical instrument 412.

そこで、術具3次元位置抽出部205は、X線透視画像410から抽出した術具412の抽出位置をボリューム画像400において視線方向421上において矢印422のように移動させ、術具412の抽出位置とボリューム画像400から血管401の抽出位置とが最も一致した位置を抽出する。表示部113、114は、ボリューム画像400から血管401の抽出位置に一致した術具412の位置をボリューム画像400上に術具412として表示する。   Therefore, the surgical instrument 3D position extraction unit 205 moves the extraction position of the surgical instrument 412 extracted from the X-ray fluoroscopic image 410 as indicated by an arrow 422 on the visual line direction 421 in the volume image 400, and the extracted position of the surgical instrument 412 Then, the position where the extraction position of the blood vessel 401 most closely matches is extracted from the volume image 400. The display units 113 and 114 display the position of the surgical instrument 412 that matches the extraction position of the blood vessel 401 from the volume image 400 as the surgical instrument 412 on the volume image 400.

図4(d)には、ボリューム画像400を基準として表示されている表示形態が示されている。よって、術者102は、術具412の位置をボリューム画像400から確認することができる。   FIG. 4 (d) shows a display form displayed with the volume image 400 as a reference. Therefore, the operator 102 can confirm the position of the surgical instrument 412 from the volume image 400.

また、術具3次元位置抽出部205は、X線透視画像410から抽出した術具412の抽出位置とボリューム画像400から血管401の抽出位置とが最も一致した位置を抽出しているため、表示部113、114は、その抽出位置に基づいて、X線透視画像410においてボリューム画像400の血管や臓器等を表示することができる。図4(e)には、X線透視画像410を基準として表示されている表示形態が示されている。   In addition, the surgical instrument 3D position extraction unit 205 extracts the position where the extraction position of the surgical instrument 412 extracted from the fluoroscopic image 410 and the extraction position of the blood vessel 401 most closely match from the volume image 400, so that the display The units 113 and 114 can display blood vessels and organs of the volume image 400 in the X-ray fluoroscopic image 410 based on the extraction position. FIG. 4 (e) shows a display form displayed with the X-ray fluoroscopic image 410 as a reference.

よって、術者102は、ボリューム画像400とX線透視画像410の両方を見ながら、手術を実施することができる。   Therefore, the operator 102 can perform an operation while viewing both the volume image 400 and the fluoroscopic image 410.

図5は、表示部113、114の他の表示形態を示す図である。
表示部113、114は、ボリューム画像400から術具412の先端部413の位置情報を抽出し、術具412の先端部413における直交3断面画像、アキシャル(Axial)断面画像 501、サジタル(Sagittal)断面画像 502、コロナル(Coronal)断面画像503をボリューム画像400から抽出して表示することができる。
FIG. 5 is a diagram showing another display form of the display units 113 and 114. As shown in FIG.
The display units 113 and 114 extract position information of the distal end portion 413 of the surgical instrument 412 from the volume image 400, an orthogonal three-sectional image at the distal end portion 413 of the surgical instrument 412, an axial sectional image 501, and a sagittal A cross-sectional image 502 and a coronal cross-sectional image 503 can be extracted from the volume image 400 and displayed.

表示部113、114は、それぞれの断面画像501〜503上に術具412の先端部413および予め求めた手術経路となる血管401を表示し、術具412の先端部413を波線の交点で表示することができる。
また、表示部113、114は、過去に行なった手術の手術経路510と先端部511も表示することもできる。そして、過去に行なった手術の手術経路510と異なる手術経路を今回とった場合には、表示部113、114は、術者に警告を発する機能も有している。
The display units 113 and 114 display the distal end portion 413 of the surgical instrument 412 and the blood vessel 401 serving as the surgical route obtained in advance on the respective cross-sectional images 501 to 503, and display the distal end portion 413 of the surgical instrument 412 at the intersection of the wavy lines can do.
The display units 113 and 114 can also display a surgical route 510 and a distal end portion 511 of the surgery performed in the past. When a surgical route different from the surgical route 510 performed in the past is taken this time, the display units 113 and 114 also have a function of issuing a warning to the operator.

以上、本発明の実施例1によれば、術具の位置をボリューム画像にリアルタイムに表示することできる。   As described above, according to the first embodiment of the present invention, the position of the surgical instrument can be displayed on the volume image in real time.

本発明の実施例2を図6、図7を用いて説明する。実施例1では、術具3次元位置抽出部205において、X線透視画像410から抽出した術具412の抽出位置とボリューム画像400から血管401の抽出位置とが最も一致した位置を抽出したが、ボリューム画像400中の血管は複数存在するため、一概に血管401が決まらない場合がある。実施例2では、上記を補正する形態を説明する。   A second embodiment of the present invention will be described with reference to FIGS. In Example 1, the surgical instrument 3D position extraction unit 205 extracts the position where the extraction position of the surgical instrument 412 extracted from the X-ray fluoroscopic image 410 and the extraction position of the blood vessel 401 most closely from the volume image 400, Since there are a plurality of blood vessels in the volume image 400, the blood vessels 401 may not be determined. In the second embodiment, a mode for correcting the above will be described.

図6(a)に示すように、ボリューム画像400に手術経路として抽出された血管401が表示されている。ここで、術具412の先端部が、血管401と、血管401より奥側にある血管600の交点601に差し掛かった場合、術具412がどちらの血管に存在するか判別できない。この解決方法として、術具3次元位置抽出部205は、下記2通りの方法により解決することができる。   As shown in FIG. 6 (a), a blood vessel 401 extracted as a surgical route is displayed in the volume image 400. Here, when the distal end portion of the surgical instrument 412 reaches the intersection 601 of the blood vessel 401 and the blood vessel 600 on the back side of the blood vessel 401, it cannot be determined in which blood vessel the surgical instrument 412 exists. As this solution, the surgical instrument three-dimensional position extraction unit 205 can be solved by the following two methods.

(1)術具412が辿ってきた過去の領域(血管401)に付随する領域を抽出し、術具412の位置と推定する。具体的には、術具3次元位置抽出部205は、術具412の手術経路が確定した血管401について、術具412が辿ってきた領域をリージョングローイング法の画像抽出法で抽出する。   (1) The region associated with the past region (blood vessel 401) followed by the surgical instrument 412 is extracted and estimated as the position of the surgical instrument 412. Specifically, the surgical instrument three-dimensional position extraction unit 205 extracts a region followed by the surgical instrument 412 with respect to the blood vessel 401 in which the surgical path of the surgical instrument 412 has been determined by an image extraction method of the region growing method.

(2)X線発生部111及びX線検出部112(X線Cアーム)に2以上の角度をつけて、2つのX線透視画像を作成し、2つのX線透視画像410をそれぞれの方向からボリューム画像400に投影し、術具3次元位置抽出部205は、それぞれのX線透視画像に重なる領域を術具412の位置と推定する。   (2) The X-ray generation unit 111 and the X-ray detection unit 112 (X-ray C arm) are angled at 2 or more to create two X-ray fluoroscopic images, and the two X-ray fluoroscopic images 410 are in the respective directions. The surgical tool three-dimensional position extraction unit 205 estimates the area overlapping each X-ray fluoroscopic image as the position of the surgical tool 412.

具体的には、図6(b)に示すように、X線発生部111及びX線検出部112(X線Cアーム)の基本位置におけるX線透視画像410および術具412に対し、X線Cアームを任意の角度に回転して再撮影したX線透視画像よび術具412の両者を用いて、図7に示すように、画像処理をそれぞれ行う。   Specifically, as shown in FIG. 6 (b), the X-ray fluoroscopic image 410 and the surgical instrument 412 at the basic positions of the X-ray generation unit 111 and the X-ray detection unit 112 (X-ray C arm) Image processing is performed as shown in FIG. 7 using both the X-ray fluoroscopic image and the surgical instrument 412 re-photographed by rotating the C-arm to an arbitrary angle.

ボリューム画像400にX線発生部111のX線照射方向と同じ方向421つまり術者102の視点420に対する視線方向421から投影処理を行う。X線透視画像410で描出した術具412とボリューム画像400の抽出画像が重なった部分が術具412の先端部413及び経路ということになる。   The volume image 400 is projected from the same direction 421 as the X-ray irradiation direction of the X-ray generator 111, that is, the line-of-sight direction 421 with respect to the viewpoint 420 of the operator 102. A portion where the surgical instrument 412 depicted in the X-ray fluoroscopic image 410 and the extracted image of the volume image 400 overlap is the distal end portion 413 and the path of the surgical instrument 412.

術具3次元位置抽出部205は、X線透視画像410で描出した術具412とボリューム画像400の抽出画像が重なった部分を抽出する。X線透視画像410を基準として周辺組織や手術経路が表示されることとなる。   The surgical instrument three-dimensional position extraction unit 205 extracts a portion where the surgical instrument 412 drawn in the X-ray fluoroscopic image 410 and the extracted image of the volume image 400 overlap. The surrounding tissue and the operation route are displayed with the X-ray fluoroscopic image 410 as a reference.

ここで、図7に示すように、CASE1のX線透視画像410上では手術経路が重なって術具412の先端部413がどちらに属するのか判断できない。しかしながら、CASE2のように、X線Cアームの角度を変えて再撮影および画像処理を行うことで、手術経路の区別と術具412がどちらに属するかを判別することができるようになる。   Here, as shown in FIG. 7, on the X-ray fluoroscopic image 410 of CASE 1, it is impossible to determine to which of the distal ends 413 of the surgical instrument 412 the surgical routes overlap. However, as in CASE2, by performing re-imaging and image processing while changing the angle of the X-ray C-arm, it becomes possible to distinguish between the surgical path and which of the surgical tools 412 belongs.

以上、本発明の実施例2によれば、X線透視画像410から抽出した術具412の抽出位置に対応する血管が前後方向に2ヶ所以上検出しても対応することできる。   As described above, according to the second embodiment of the present invention, even when two or more blood vessels corresponding to the extraction position of the surgical instrument 412 extracted from the X-ray fluoroscopic image 410 are detected in the front-rear direction, it can be handled.

次に、本発明の表示部113、114のGUIについて、図8、9を用いて説明する。
図8は、GUI(術前)表示例を示す。3D Scanボタン801を押下することでボリューム撮像が行われ、それぞれのスライス画像811〜814が表示される。それらの画像を用いて領域抽出、手術経路および治療領域の描出を行い、必要に応じてレジストレーションを実施して座標を統合してから手術が開始される。別画面820、821には、患者全体像におけるスライス情報や装置情報・患者情報・各種機能情報・術具情報等の手術支援詳細情報を表示する画面もある。
Next, GUIs of the display units 113 and 114 according to the present invention will be described with reference to FIGS.
FIG. 8 shows a GUI (preoperative) display example. By pressing the 3D Scan button 801, volume imaging is performed, and respective slice images 811 to 814 are displayed. Using these images, the region is extracted, the surgical route and the treatment region are drawn, registration is performed as necessary, and the coordinates are integrated to start the operation. The other screens 820 and 821 include screens for displaying detailed operation support information such as slice information, device information, patient information, various function information, and surgical tool information in the entire patient image.

図9にGUI(手術適用時)表示例を示す。X線透視ボタン805を押下することで、X線透視画像の表示が開始され、手術経路、術具の先端部、生体内部情報および周辺臓器情報が表示される。ここで、3Dナビゲーションボタン806を押下することで、Axial (アキシャル)画像900、Sagittal(サジタル)画像901、 Coronal(コロナル)画像902、ボリューム画像903を表示することができる。さらに、ボリューム画像903には、術具の先端部および予め求めた手術経路が表示され、術具の先端部は常に波線の交点で表示される。その他、過去の手術経路も描写される。   Fig. 9 shows an example of GUI (when applying surgery). By pressing an X-ray fluoroscopy button 805, display of an X-ray fluoroscopic image is started, and a surgical route, a distal end portion of a surgical instrument, living body internal information, and peripheral organ information are displayed. Here, by pressing the 3D navigation button 806, an Axial image 900, a Sagittal image 901, a Coronal image 902, and a volume image 903 can be displayed. Further, the volume image 903 displays the distal end portion of the surgical instrument and the previously obtained surgical path, and the distal end portion of the surgical instrument is always displayed at the intersection of the wavy lines. In addition, past surgical routes are also depicted.

そして、X線透視ボタン805および3Dナビゲーションボタン806の両方が押下されるとボリューム画像を基準とした重畳画像911と、X線透視画像を基準とした重畳画像910が表示される。   When both the X-ray fluoroscopic button 805 and the 3D navigation button 806 are pressed, a superimposed image 911 based on the volume image and a superimposed image 910 based on the X-ray fluoroscopic image are displayed.

X線透視画像で描出した術具とボリューム画像の抽出画像が重なった部分が術具の先端部およびその軌跡ということになり、X線透視画像にはX線透視画像を基準として周辺組織や手術経路が表示されることなる。術者はX線透視画像とボリューム画像の両方の術具の先端部を視認して安全を確保しながら、手術を実施することができる。また、X線装置の位置情報(回転情報含む)を示した画面912、913もあり、患者位置とポインタ位置の相対関係が一目で分かるようになっている。仮に抽出領域と術具先端位置が重なり、X線Cアームが回転した時には画面内のX線Cアームの位置も回転量に連動して位置が変更される。   The part where the surgical tool drawn with the fluoroscopic image overlaps with the extracted image of the volume image is the tip of the surgical tool and its trajectory, and the fluoroscopic image uses the fluoroscopic image as a reference for surrounding tissues and surgery. The route will be displayed. The surgeon can perform the surgery while visually confirming the distal end portion of the surgical instrument in both the fluoroscopic image and the volume image to ensure safety. There are also screens 912 and 913 showing position information (including rotation information) of the X-ray apparatus, so that the relative relationship between the patient position and the pointer position can be seen at a glance. If the extraction region and the surgical tool tip position overlap and the X-ray C arm rotates, the position of the X-ray C arm in the screen is also changed in accordance with the amount of rotation.

図10は、本発明の実施例1と実施例2の動作手順を示すフローチャートである。   FIG. 10 is a flowchart showing the operation procedure of the first and second embodiments of the present invention.

(s101)画像診断装置200によって、被検体101を撮像し、ボリューム画像を取得する。
(s102)画像診断装置200は、ボリューム画像400の輝度情報(主に血管の輝度情報)を用いて、リージョングローイング法の画像抽出法により、複数の血管を抽出する。
(s103)画像診断装置200は、抽出した血管の座標上の3次元位置情報を算出する。
(s101) The subject 101 is imaged by the diagnostic imaging apparatus 200, and a volume image is acquired.
(s102) The diagnostic imaging apparatus 200 uses the luminance information (mainly blood vessel luminance information) of the volume image 400 to extract a plurality of blood vessels by the region extracting method image extraction method.
(s103) The diagnostic imaging apparatus 200 calculates three-dimensional position information on the extracted blood vessel coordinates.

(s104)抽出した血管の3次元位置情報を用いて、術者は、画像診断装置200に対して、手術経路および治療領域の登録を行なう。   (s104) Using the extracted three-dimensional position information of the blood vessel, the surgeon registers the surgical route and the treatment area in the image diagnostic apparatus 200.

(s105)レジストレーション部202は、マーカ(1)〜(3)の位置情報を用いて、ボリューム画像400とX線装置(主にX線発生部111)の位置関係を定義づけを行なう。   (s105) The registration unit 202 uses the positional information of the markers (1) to (3) to define the positional relationship between the volume image 400 and the X-ray apparatus (mainly the X-ray generation unit 111).

(s106)手術に必要な各種パラメータ(X線の撮影条件(管電圧、管電流)、画像表示の形態)を設定する。   (s106) Various parameters (X-ray imaging conditions (tube voltage, tube current), image display form) necessary for the operation are set.

(s107)手術が開始される。
(s108)手術に連動して、X線ナビゲーション装置は、位置検出部121の動作、および各種ナビゲーション機能を開始する。
(s109)X線装置(X線発生部111、X線検出部112等)は、透視撮影を開始する。X線透視画像作成部203は、X線検出部112から出力されるX線信号からX線透視画像を作成する。
(s107) The operation is started.
(s108) In conjunction with the operation, the X-ray navigation apparatus starts the operation of the position detection unit 121 and various navigation functions.
(s109) The X-ray apparatus (X-ray generation unit 111, X-ray detection unit 112, etc.) starts fluoroscopic imaging. The X-ray fluoroscopic image creation unit 203 creates an X-ray fluoroscopic image from the X-ray signal output from the X-ray detection unit 112.

(s110)術者102は、カテーテル等の術具103を被検体101に挿入する。
(s111)X線透視画像410はリアルタイム撮像可能なことから、術具2次元位置抽出部204は、X線透視画像410の輝度情報を用いて、直前に撮影されたX線透視画像の術具103と、現在撮影されたX線透視画像の術具103の差分や、リージョングローイング法の画像抽出法により、現在の術具103の先端部及び経路を確定する。
(s110) The operator 102 inserts a surgical instrument 103 such as a catheter into the subject 101.
(s111) Since the X-ray fluoroscopic image 410 can be captured in real time, the surgical instrument two-dimensional position extraction unit 204 uses the luminance information of the X-ray fluoroscopic image 410 to operate the surgical tool of the X-ray fluoroscopic image captured immediately before. The distal end portion and the path of the current surgical instrument 103 are determined by the difference between the surgical instrument 103 of the currently photographed X-ray fluoroscopic image 103 and the image extraction method of the region growing method.

(s112)レジストレーション部202は、ボリューム画像400の座標とX線透視画像410の座標の統合を行なう。
(s113)術具3次元位置抽出部205は、ボリューム画像400における、X線発生部111のX線照射方向、すなわち術者の視点420における視線方向421からのX線透視画像410を算出し、ボリューム画像400上にX線透視画像410を投影する。
(s112) The registration unit 202 integrates the coordinates of the volume image 400 and the coordinates of the X-ray fluoroscopic image 410.
(s113) The surgical instrument three-dimensional position extraction unit 205 calculates the X-ray fluoroscopic image 410 from the X-ray irradiation direction of the X-ray generation unit 111 in the volume image 400, that is, the visual line direction 421 at the operator's viewpoint 420, An X-ray fluoroscopic image 410 is projected on the volume image 400.

(s114)術具3次元位置抽出部205は、X線透視画像410による術具412の位置と、画像診断装置200に対して、手術経路および治療領域の登録を行なった血管の領域の交点(重なる場所)を描出して、術具103の3次元位置を抽出する。   (s114) The surgical tool three-dimensional position extraction unit 205 intersects the position of the surgical tool 412 based on the fluoroscopic image 410 and the blood vessel region in which the surgical route and the treatment region are registered with respect to the diagnostic imaging apparatus 200 ( (Overlapping place) is drawn, and the three-dimensional position of the surgical instrument 103 is extracted.

(s115)術具3次元位置抽出部205は、交点(重なる場所)が前後方向に2ヶ所以上検出したかどうかを判定する。
(s116)X線Cアームを任意の角度に回転して再度撮影し、術具3次元位置抽出部205は、角度に応じた投影処理を行い、術具103の位置を特定する。
(s115) The surgical instrument three-dimensional position extraction unit 205 determines whether two or more intersections (overlapping places) have been detected in the front-rear direction.
(s116) The X-ray C-arm is rotated to an arbitrary angle and imaged again, and the surgical instrument three-dimensional position extraction unit 205 performs a projection process according to the angle and specifies the position of the surgical instrument 103.

(s117)表示部113、114は、描出した交点(術具103の位置)を3次元ナビゲーション(ボリューム画像400)上に表示する。   (s117) The display units 113 and 114 display the drawn intersection (position of the surgical tool 103) on the three-dimensional navigation (volume image 400).

(s118)表示部113、114は、現在の被検体101の位置情報・方向ベクトル・軌跡(ログ)・時間経過・それに伴う患者情報をリアルタイムに表示する。   (s118) The display units 113 and 114 display the current position information, direction vector, trajectory (log), time elapsed, and accompanying patient information of the subject 101 in real time.

(s119)表示部113、114は、ボリューム画像400だけでなく、X線透視画像410にも2次元処理した手術経路を画像上に表示する。   (s119) The display units 113 and 114 display not only the volume image 400 but also the X-ray fluoroscopic image 410 on the image the surgical route that has been two-dimensionally processed.

(s120)術具3次元位置抽出部205は、術具103が被検体101の目的部位に到達したかどうかを判定する。
(s121)術具103による治療を開始する。
(s120) The surgical instrument three-dimensional position extraction unit 205 determines whether or not the surgical instrument 103 has reached the target site of the subject 101.
(s121) The treatment with the surgical instrument 103 is started.

100 寝台、101 被検体、102 術者、103 術具、110 本体、111 X線発生部、112 X線検出部、113、114 表示部、115 操作部、200 画像診断装置、201 データベース、202 レジストレーション部、203 X線透視画像作成部、204 術具2次元位置抽出部、205 術具3次元位置抽出部   100 bed, 101 subject, 102 surgeon, 103 surgical tool, 110 main body, 111 X-ray generation unit, 112 X-ray detection unit, 113, 114 display unit, 115 operation unit, 200 diagnostic imaging apparatus, 201 database, 202 resist Installation unit, 203 X-ray fluoroscopic image creation unit, 204 surgical tool 2D position extraction unit, 205 surgical tool 3D position extraction unit

Claims (9)

画像診断装置から出力されるボリューム画像を記憶するデータベースと、X線を発生させるX線発生部と、X線を検出するX線検出部と、前記X線検出部から出力されるX線信号からX線透視画像を作成するX線透視画像作成部と、前記ボリューム画像と前記X線発生部のX線照射方向の位置関係を定義し、前記ボリューム画像の座標と前記X線透視画像の座標の統合を行なうレジストレーション部と、前記X線透視画像から術具の2次元位置を抽出する術具2次元位置抽出部と、前記術具2次元位置抽出部で抽出された前記術具の2次元位置情報を用いて、前記ボリューム画像における前記術具の3次元位置を抽出する術具3次元位置抽出部と、前記術具の位置を前記ボリューム画像に表示する表示部を有していることを特徴とするX線ナビゲーション装置。   From a database for storing volume images output from the diagnostic imaging apparatus, an X-ray generator for generating X-rays, an X-ray detector for detecting X-rays, and an X-ray signal output from the X-ray detector An X-ray fluoroscopic image creating unit that creates an X-ray fluoroscopic image, and defines a positional relationship in the X-ray irradiation direction of the volume image and the X-ray generation unit, and the coordinates of the volume image and the coordinates of the X-ray fluoroscopic image A registration unit for performing integration, a surgical tool two-dimensional position extracting unit for extracting a two-dimensional position of the surgical tool from the fluoroscopic image, and a two-dimensional surgical tool extracted by the surgical tool two-dimensional position extracting unit A surgical tool 3D position extraction unit that extracts a 3D position of the surgical tool in the volume image using position information; and a display unit that displays the position of the surgical tool on the volume image. A featured X-ray navigation system. 前記レジストレーション部は、被検体に装着されるマーカの位置情報を用いて、前記ボリューム画像と前記X線透視画像の位置合わせを行ない、前記ボリューム画像と前記X線発生部のX線照射方向の位置関係を定義することを特徴とする請求項1記載のX線ナビゲーション装置。   The registration unit aligns the volume image and the X-ray fluoroscopic image using position information of a marker attached to the subject, and sets the volume image and the X-ray generation unit in the X-ray irradiation direction. 2. The X-ray navigation apparatus according to claim 1, wherein a positional relationship is defined. 前記レジストレーション部は、前記X線発生部の位置を検出する位置検出部の座標における前記X線発生部の位置情報に対して、座標変換を行なって、前記ボリューム画像の座標におけるX線発生部の位置情報を算出することを特徴とする請求項1記載のX線ナビゲーション装置。   The registration unit performs coordinate conversion on the position information of the X-ray generation unit in the coordinates of the position detection unit that detects the position of the X-ray generation unit, and generates an X-ray generation unit in the coordinates of the volume image 2. The X-ray navigation apparatus according to claim 1, wherein the position information is calculated. 前記術具2次元位置抽出部は、前記X線透視画像の輝度情報を用いて、直前に撮影されたX線透視画像の術具と、現在撮影されたX線透視画像の術具の差分をとることで現在の術具の先端部及び経路を確定することを特徴とする請求項1記載のX線ナビゲーション装置。   The surgical tool two-dimensional position extraction unit uses the luminance information of the X-ray fluoroscopic image to calculate a difference between the surgical tool of the X-ray fluoroscopic image captured immediately before and the surgical tool of the X-ray fluoroscopic image currently captured. 2. The X-ray navigation apparatus according to claim 1, wherein the distal end portion and the path of the current surgical instrument are determined by taking the current operation tool. 前記術具2次元位置抽出部は、リージョングローイング法の画像抽出法により、前記術具を抽出し、前記術具の先端部及び経路を確定することを特徴とする請求項1記載のX線ナビゲーション装置。   2. The X-ray navigation according to claim 1, wherein the surgical tool two-dimensional position extraction unit extracts the surgical tool by an image extraction method of a region growing method and determines a distal end portion and a path of the surgical tool. apparatus. 前記表示部は、前記ボリューム画像から前記術具の先端部の位置情報を抽出し、前記術具の先端部における直交3断面画像を前記ボリューム画像から抽出して表示することを特徴とする請求項1記載のX線ナビゲーション装置。   The display unit extracts position information of a distal end portion of the surgical tool from the volume image, and extracts and displays an orthogonal three-section image at the distal end portion of the surgical tool from the volume image. 1. The X-ray navigation device according to 1. 前記表示部は、前記術具の位置に基づいて、前記X線透視画像において前記ボリューム画像の血管や臓器を表示することを特徴とする請求項1記載のX線ナビゲーション装置。   2. The X-ray navigation apparatus according to claim 1, wherein the display unit displays blood vessels and organs of the volume image in the X-ray fluoroscopic image based on the position of the surgical instrument. 前記X線発生部及び前記X線検出部に2以上の角度をつけて撮影し、前記2つのX線透視画像をそれぞれの方向から前記ボリューム画像に投影し、前記術具3次元位置抽出部は、2つのX線透視画像に重なる領域を前記術具の位置と推定することを特徴とする請求項1記載のX線ナビゲーション装置。   The X-ray generation unit and the X-ray detection unit are imaged at an angle of 2 or more, the two X-ray fluoroscopic images are projected on the volume image from respective directions, and the surgical instrument three-dimensional position extraction unit is 2. The X-ray navigation apparatus according to claim 1, wherein a region overlapping two X-ray fluoroscopic images is estimated as the position of the surgical instrument. 前記術具3次元位置抽出部は、前記術具が辿ってきた過去の領域に付随する領域を抽出し、前記術具の位置を推定することを特徴とする請求項1記載のX線ナビゲーション装置。   2. The X-ray navigation apparatus according to claim 1, wherein the surgical instrument three-dimensional position extraction unit extracts an area associated with a past area that the surgical instrument has traced, and estimates the position of the surgical instrument. .
JP2009203356A 2009-09-03 2009-09-03 X-ray navigation device Active JP5661264B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009203356A JP5661264B2 (en) 2009-09-03 2009-09-03 X-ray navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009203356A JP5661264B2 (en) 2009-09-03 2009-09-03 X-ray navigation device

Publications (3)

Publication Number Publication Date
JP2011050621A true JP2011050621A (en) 2011-03-17
JP2011050621A5 JP2011050621A5 (en) 2012-10-18
JP5661264B2 JP5661264B2 (en) 2015-01-28

Family

ID=43940257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009203356A Active JP5661264B2 (en) 2009-09-03 2009-09-03 X-ray navigation device

Country Status (1)

Country Link
JP (1) JP5661264B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013063158A (en) * 2011-09-16 2013-04-11 Shiga Univ Of Medical Science Surgery system under three-dimensional real time mr image guidance
KR20140061380A (en) * 2011-08-09 2014-05-21 이모픽스 리미티드 Image processing method
JP2015150049A (en) * 2014-02-12 2015-08-24 株式会社島津製作所 X-ray imaging device
JP2016073501A (en) * 2014-10-07 2016-05-12 株式会社東芝 Medical image processing apparatus and x-ray diagnostic apparatus
JP2016532513A (en) * 2013-09-06 2016-10-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Navigation system
JP2016533795A (en) * 2013-12-19 2016-11-04 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Object tracking device
JP2017205327A (en) * 2016-05-19 2017-11-24 株式会社島津製作所 X-ray image processing apparatus
WO2019073681A1 (en) * 2017-10-10 2019-04-18 株式会社日立製作所 Radiation imaging device, image processing method, and image processing program
CN109954196A (en) * 2013-08-15 2019-07-02 直观外科手术操作公司 The graphic user interface for positioning and being inserted into for conduit
CN110200712A (en) * 2018-02-28 2019-09-06 上海术凯机器人有限公司 A kind of dentistry automatic planting system and method based on PLC control
CN113749804A (en) * 2021-07-06 2021-12-07 上海优医基医疗影像设备有限公司 Oral implant surgical robot with CT imaging system and control method thereof
US11436697B2 (en) 2019-03-27 2022-09-06 Fujifilm Corporation Positional information display device, positional information display method, positional information display program, and radiography apparatus

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000217035A (en) * 1999-01-21 2000-08-04 Toshiba Corp X-ray diagnostic device
JP2001245880A (en) * 2000-02-03 2001-09-11 Koninkl Philips Electronics Nv Method of judging position of medical instrument
JP2002112998A (en) * 2000-10-05 2002-04-16 Toshiba Medical System Co Ltd Ultrasonic puncture supporting apparatus
JP2006167448A (en) * 2004-12-14 2006-06-29 General Electric Co <Ge> Imaging method and apparatus for supporting operator during interventional radiology procedure
JP2006246941A (en) * 2005-03-08 2006-09-21 Toshiba Corp Image processing apparatus and vessel tracking method
JP2006320722A (en) * 2005-05-19 2006-11-30 Siemens Ag Method of expanding display range of 2d image of object region
JP2008093443A (en) * 2006-10-05 2008-04-24 Siemens Ag Method for displaying interventional treatment
JP2008544831A (en) * 2005-06-29 2008-12-11 アキュレイ・インコーポレーテッド High-precision overlay of X-ray images on cone-beam CT scan for image-guided radiation treatment
JP2009082468A (en) * 2007-09-28 2009-04-23 Toshiba Corp Image display and x-ray diagnosing treatment apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000217035A (en) * 1999-01-21 2000-08-04 Toshiba Corp X-ray diagnostic device
JP2001245880A (en) * 2000-02-03 2001-09-11 Koninkl Philips Electronics Nv Method of judging position of medical instrument
JP2002112998A (en) * 2000-10-05 2002-04-16 Toshiba Medical System Co Ltd Ultrasonic puncture supporting apparatus
JP2006167448A (en) * 2004-12-14 2006-06-29 General Electric Co <Ge> Imaging method and apparatus for supporting operator during interventional radiology procedure
JP2006246941A (en) * 2005-03-08 2006-09-21 Toshiba Corp Image processing apparatus and vessel tracking method
JP2006320722A (en) * 2005-05-19 2006-11-30 Siemens Ag Method of expanding display range of 2d image of object region
JP2008544831A (en) * 2005-06-29 2008-12-11 アキュレイ・インコーポレーテッド High-precision overlay of X-ray images on cone-beam CT scan for image-guided radiation treatment
JP2008093443A (en) * 2006-10-05 2008-04-24 Siemens Ag Method for displaying interventional treatment
JP2009082468A (en) * 2007-09-28 2009-04-23 Toshiba Corp Image display and x-ray diagnosing treatment apparatus

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140061380A (en) * 2011-08-09 2014-05-21 이모픽스 리미티드 Image processing method
JP2014522711A (en) * 2011-08-09 2014-09-08 アイモーフィクス リミテッド Image processing method
KR102036834B1 (en) * 2011-08-09 2019-10-25 이모픽스 리미티드 Image processing method
JP2013063158A (en) * 2011-09-16 2013-04-11 Shiga Univ Of Medical Science Surgery system under three-dimensional real time mr image guidance
CN109954196A (en) * 2013-08-15 2019-07-02 直观外科手术操作公司 The graphic user interface for positioning and being inserted into for conduit
US12004850B2 (en) 2013-08-15 2024-06-11 Intuitive Surgical Operations, Inc. Graphical user interface for catheter positioning and insertion
US11800991B2 (en) 2013-08-15 2023-10-31 Intuitive Surgical Operations, Inc. Graphical user interface for catheter positioning and insertion
CN109954196B (en) * 2013-08-15 2021-11-09 直观外科手术操作公司 Graphical user interface for catheter positioning and insertion
JP2019162512A (en) * 2013-08-15 2019-09-26 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Graphical user interface for catheter positioning and insertion
US11395702B2 (en) 2013-09-06 2022-07-26 Koninklijke Philips N.V. Navigation system
JP2016532513A (en) * 2013-09-06 2016-10-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Navigation system
JP2016533795A (en) * 2013-12-19 2016-11-04 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Object tracking device
JP2015150049A (en) * 2014-02-12 2015-08-24 株式会社島津製作所 X-ray imaging device
JP2016073501A (en) * 2014-10-07 2016-05-12 株式会社東芝 Medical image processing apparatus and x-ray diagnostic apparatus
JP2017205327A (en) * 2016-05-19 2017-11-24 株式会社島津製作所 X-ray image processing apparatus
US11127153B2 (en) 2017-10-10 2021-09-21 Hitachi, Ltd. Radiation imaging device, image processing method, and image processing program
CN111093505A (en) * 2017-10-10 2020-05-01 株式会社日立制作所 Radiographic apparatus, image processing method, and image processing program
JP2019069037A (en) * 2017-10-10 2019-05-09 株式会社日立製作所 Radiation imaging apparatus, image processing method, and image processing program
CN111093505B (en) * 2017-10-10 2023-06-27 富士胶片医疗健康株式会社 Radiographic apparatus and image processing method
WO2019073681A1 (en) * 2017-10-10 2019-04-18 株式会社日立製作所 Radiation imaging device, image processing method, and image processing program
CN110200712A (en) * 2018-02-28 2019-09-06 上海术凯机器人有限公司 A kind of dentistry automatic planting system and method based on PLC control
US11436697B2 (en) 2019-03-27 2022-09-06 Fujifilm Corporation Positional information display device, positional information display method, positional information display program, and radiography apparatus
CN113749804A (en) * 2021-07-06 2021-12-07 上海优医基医疗影像设备有限公司 Oral implant surgical robot with CT imaging system and control method thereof
CN113749804B (en) * 2021-07-06 2022-11-29 上海优医基医疗影像设备有限公司 Oral implant surgical robot with CT imaging system and control method thereof

Also Published As

Publication number Publication date
JP5661264B2 (en) 2015-01-28

Similar Documents

Publication Publication Date Title
JP5661264B2 (en) X-ray navigation device
US10667869B2 (en) Guidance system for needle procedures
US9202387B2 (en) Methods for planning and performing percutaneous needle procedures
EP3212112B1 (en) Computed tomography enhanced fluoroscopic system
CA3061191A1 (en) Tissue imaging system and method for tissue imaging
US10546396B2 (en) System and method for registration of fluoroscopic images in a coordinate system of a medical system
US7508388B2 (en) Method for extending the display of a 2D image of an object region
JP5248474B2 (en) Targeting method, targeting device, computer-readable medium, and program element
US8886286B2 (en) Determining and verifying the coordinate transformation between an X-ray system and a surgery navigation system
JP5787030B2 (en) Medical X-ray equipment
JP5417609B2 (en) Medical diagnostic imaging equipment
EP1727471A1 (en) System for guiding a medical instrument in a patient body
JP2015522371A (en) Imaging system and method enabling instrument guidance
JP2009531113A (en) Image guided surgery system
EP3530221B1 (en) System for performing a percutaneous navigation procedure
EP3254627A1 (en) Fluoroscopic guidance system with offset light source and method of use
KR20220100613A (en) Method and system for reproducing the insertion point of a medical device
US20110257508A1 (en) Device For Supporting, Scanning, Tomographically Displaying A Patient And Carrying Out An Intervention And Method For Determining The Spatial Relation Between Optical Recordings And Tomographic Displays
JP2010162058A (en) Medical image display system
KR101862133B1 (en) Robot apparatus for interventional procedures having needle insertion type
JP6952740B2 (en) How to assist users, computer program products, data storage media, and imaging systems
US20190110685A1 (en) Systems and methods for guided interventional procedures
WO2015091226A1 (en) Laparoscopic view extended with x-ray vision
JP2018134197A (en) Medical procedure navigation system and method
US20230045275A1 (en) Methods and system for guided device insertion during medical imaging

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120831

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141203

R150 Certificate of patent or registration of utility model

Ref document number: 5661264

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350