JPH10334220A - Surgical operation aid navigation method - Google Patents

Surgical operation aid navigation method

Info

Publication number
JPH10334220A
JPH10334220A JP15428497A JP15428497A JPH10334220A JP H10334220 A JPH10334220 A JP H10334220A JP 15428497 A JP15428497 A JP 15428497A JP 15428497 A JP15428497 A JP 15428497A JP H10334220 A JPH10334220 A JP H10334220A
Authority
JP
Japan
Prior art keywords
image
catheter
blood vessel
coordinate
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15428497A
Other languages
Japanese (ja)
Inventor
Makie Saitou
巻江 齊藤
Yoshihiro Goto
良洋 後藤
Shigeyuki Ikeda
重之 池田
Shinji Kawasaki
真司 川▲さき▼
Kenji Takiguchi
賢治 滝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP15428497A priority Critical patent/JPH10334220A/en
Publication of JPH10334220A publication Critical patent/JPH10334220A/en
Pending legal-status Critical Current

Links

Landscapes

  • Surgical Instruments (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow medical instruments to be reached accurately to an object position without interrupting a surgical operation by obtaining a 3-dimension image from the inside of a tubular organ such as a blood vessel in real time and navigating the image. SOLUTION: By what kind of shape, which size and what coordinate a medical instrument such as a catheter and a stent is to be displayed on a monitor image is decided (step 11). The initial coordinate value of a catheter is entered and a catheter 3-dimension image is configured (step 12). A 3-dimension image in a blood vessel is configured based on entry and measured values in the steps 11, 12 (step 13). The catheter 3-dimension image and the 3-dimension image in a blood vessel are synthesized to obtain a navigation use synthesis image and it is displayed on a monitor screen (step 14). A catheter coordinate detector reads a coordinate in the inside of the blood vessel (step 15) to obtain the catheter 3-dimension image and the 3-dimension image in a blood vessel and they are synthesized to obtain a new navigation sue synthesis image (steps 17, 18).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、血管,食道,腸,
気管支等の管状器官内の微小部分を手術する際等での上
記管状器官の内部のナビゲーションに好適な手術支援ナ
ビゲーション方法に関するものである。なお本明細書に
おいて、「手術」とは「検査及び手術」を指すものとす
る。
The present invention relates to blood vessels, esophagus, intestines,
The present invention relates to a surgical assisted navigation method suitable for navigation inside a tubular organ such as a bronchus when performing a surgical operation on a minute part in the tubular organ. In this specification, “surgery” means “examination and surgery”.

【0002】[0002]

【従来の技術】従来から、手術において器官内部のナビ
ゲーションを行う技術が知られている。その一例とし
て、複数のプローブのセンサ座標系における先端座標値
をシステムに登録し、プローブを交換する際に対応する
先端座標を入力できるようにし、プローブの交換毎に所
定の変換式を求め、常に使用中のプローブの先端の位置
を検出・表示できるようにしたものがある(コンピュー
タ支援画像診断学会第4回学術講演会、第3回日本コン
ピュータ外科学会学術発表会(1994年10月15〜
16日)合同論文集85〜88頁参照)。
2. Description of the Related Art Conventionally, there has been known a technique for performing navigation inside an organ during surgery. As an example, the tip coordinate values in the sensor coordinate system of a plurality of probes are registered in the system, so that the corresponding tip coordinates can be input when exchanging the probe, and a predetermined conversion formula is obtained every time the probe is exchanged. There is one that can detect and display the position of the tip of the probe in use (the 4th academic lecture meeting of the Computer Aided Diagnostic Imaging Society, the 3rd academic presentation meeting of the Japan Society of Computer Aided Surgery (October 15, 1994-
16) Joint Journal Collection, pages 85 to 88).

【0003】[0003]

【発明が解決しようとする課題】しかしながら上述従来
技術では、外科手術において、検出した指示具の先端位
置を画像上に表示するが、この場合の画像は主に二次元
画像である。ここで、上記文献中に「立体再構成画像」
なる記載があるが、これは解剖学的オリエンテーション
の把握を援助するものであり、リアルタイムに表示され
る画像ではない。このため、カテーテル,ステント等の
器具を正確に目的位置に到達できるようにナビゲーショ
ンすることができなかった。
However, in the above-mentioned prior art, the position of the detected tip of the pointing device is displayed on an image in a surgical operation. In this case, the image is mainly a two-dimensional image. Here, "3D reconstructed image"
Although there is a description, it assists in understanding the anatomical orientation, and is not an image displayed in real time. For this reason, navigation such that a catheter, a stent, or the like device can accurately reach a target position cannot be performed.

【0004】また、上記指示具の先端位置を検出するた
めに、キャリブレーション用プローブ,手術用プローブ
等にセンサを取り付け位置を検出する必要があり、使用
可能な部位は限られてしまうもので、カメラやセンサ等
を挿入することが不可能な血管等の管状器官において、
内側からの画像を得てナビゲーションすることができな
かった。
In order to detect the position of the tip of the pointing device, it is necessary to attach a sensor to a calibration probe, a surgical probe, or the like, and to detect the position thereof. In tubular organs such as blood vessels where it is impossible to insert cameras and sensors,
I couldn't get the image from inside and navigate.

【0005】本発明の目的は、カメラやセンサ等を挿入
することが不可能な血管等の管状器官においても、その
内側からの三次元画像をリアルタイムで得てナビゲーシ
ョンすることができ、したがって手術を中断することな
く器具を正確に目的位置に到達可能にナビゲーションす
ることのできる手術支援ナビゲーション方法を提供する
ことにある。
An object of the present invention is to provide a real-time three-dimensional image from inside even a tubular organ, such as a blood vessel, into which a camera, a sensor, or the like cannot be inserted. It is an object of the present invention to provide a surgical assistance navigation method capable of accurately navigating an instrument to a target position without interruption.

【0006】[0006]

【課題を解決するための手段】上記目的は、器官の複数
の断層像から中心投影法を用いて構成された器官内部三
次元画像と、上記器官の内部に挿入された器具の位置座
標を基に構成した器具三次元画像とをリアルタイムで合
成し、表示することにより達成される。
The above object is based on a three-dimensional internal image of an organ constructed from a plurality of tomographic images of an organ using a central projection method and the position coordinates of a device inserted inside the organ. This is achieved by synthesizing and displaying in real time the device three-dimensional image configured as described above.

【0007】器官内部三次元画像と器具三次元画像とを
リアルタイムで合成し、表示すれば、カメラやセンサ等
を挿入することが不可能な血管等の管状器官において
も、その内側からの三次元画像(カテーテル等の器具が
位置する管状器官内部の画像)をリアルタイムで得てナ
ビゲーションすることができ、したがって手術を中断す
ることなく器具を正確に目的位置に到達可能にナビゲー
ションすることができる。
If a three-dimensional image of the inside of an organ and a three-dimensional image of a device are synthesized and displayed in real time, even in a tubular organ such as a blood vessel into which a camera, a sensor, or the like cannot be inserted, a three-dimensional image from the inside can be obtained. Images (images inside the tubular organ where the device such as a catheter is located) can be obtained and navigated in real time, so that the device can be navigated to reach the target position accurately without interrupting the operation.

【0008】[0008]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態を説明する。図1は本発明による手術支援ナビゲ
ーション方法の一実施形態を示すフローチャートであ
る。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a flowchart showing one embodiment of a surgery support navigation method according to the present invention.

【0009】この図1において、ステップ11では、ナ
ビゲーション用合成画像を表示するモニタ画面上におい
て、カテーテルやステント等の器具(以下、カテーテル
と総称する)をどのような形状で、どの位の大きさで、
どのような座標位置に表示するかを決定する。カテーテ
ルの形状は、いくつかのパターンからマウスやキーボー
ド等で選択するか、マウス等でユーザの好みの形状に形
成する。カテーテルの大きさ(直径,長さ等)も、予め
用意されている値の中からマウスやキーボード等で選択
するか、好みの大きさを入力する。表示する座標位置
(xi,yi,zi)(i=1,2,3,…n)も同様
である。
In FIG. 1, in a step 11, on a monitor screen for displaying a synthetic image for navigation, a device such as a catheter or a stent (hereinafter collectively referred to as a catheter) is formed in any shape and size. so,
Decide what coordinate position to display. The shape of the catheter is selected from several patterns using a mouse, a keyboard, or the like, or formed into a shape desired by the user using a mouse, or the like. The size (diameter, length, etc.) of the catheter is also selected from values prepared in advance using a mouse, a keyboard, or the like, or a desired size is input. The same applies to the displayed coordinate position (xi, yi, zi) (i = 1, 2, 3,... N).

【0010】ステップ12では、カテーテル座標位置の
初期値(xj,yj,zj)(j=0)を入力する。こ
の初期値により、血管内の三次元画像も構成する。この
値の入力方法は、マウスやキーボード等を使用するか、
後述カテーテル座標位置検出器により測定する。
In step 12, an initial value (xj, yj, zj) (j = 0) of the catheter coordinate position is input. These initial values also form a three-dimensional image of a blood vessel. This value can be entered using a mouse or keyboard,
It is measured by a catheter coordinate position detector described later.

【0011】ステップ13では、ステップ11,12の
入力値及び測定値(xj+xi,yj+yi,zj+z
i)(j=0)等により、カテーテル三次元(3D)画
像を構成する。次に、上記ステップ12の入力値及び測
定値(xj,yj,zj)(j=0)により、管状器
官、ここでは血管の複数の断層像から一般的な中心投影
法を使用し、血管内部の三次元(3D)画像を構成す
る。ステップ14では、ステップ13で構成したカテー
テル三次元画像と血管内部三次元画像とを合成し、ナビ
ゲーション用合成画像を得てモニタ画面に表示する。
In step 13, the input values and measured values (xj + xi, yj + yi, zj + z) of steps 11 and 12
i) A three-dimensional (3D) image of the catheter is formed by (j = 0) and the like. Next, based on the input values and the measured values (xj, yj, zj) (j = 0) in step 12 described above, a general center projection method is used from a plurality of tomographic images of a tubular organ, here, a blood vessel, and the inside of the blood vessel (3D) image is constructed. In step 14, the three-dimensional catheter image and the three-dimensional image inside the blood vessel constructed in step 13 are combined, a combined image for navigation is obtained, and displayed on the monitor screen.

【0012】ステップ15では、角度センサや二次元セ
ンサ等からなるカテーテル座標位置検出器により、血管
内部のカテーテルの位置座標を読み取る。ステップ16
では、ステップ15で読み取ったカテーテルの位置座標
(xj,yj,zj)(j=j+1)に変更があるかど
うかチェックする。変更があった場合はステップ17に
進むが、変更がない場合はステップ15に戻る。
In step 15, the position coordinates of the catheter inside the blood vessel are read by a catheter coordinate position detector including an angle sensor and a two-dimensional sensor. Step 16
Then, it is checked whether or not the position coordinates (xj, yj, zj) (j = j + 1) of the catheter read in step 15 are changed. If there is a change, the process proceeds to step 17, but if there is no change, the process returns to step 15.

【0013】ステップ17では、新たなカテーテルの位
置座標(xj,yj,zj)(j=j+1)を使用し、
カテーテル三次元画像及び血管内部の三次元画像を構成
する。
In step 17, the new catheter position coordinates (xj, yj, zj) (j = j + 1) are used,
A three-dimensional image of the catheter and a three-dimensional image of the inside of the blood vessel are constructed.

【0014】ステップ18では、ステップ17で構成し
た新たなカテーテル三次元画像と血管内部の三次元画像
とを合成し、新たなナビゲーション用合成画像を得てモ
ニタ画面に表示する。ステップ19では、処理を終了す
るかをチェックする。処理を続行する場合は上記ステッ
プ15〜18の処理を繰返し行う。処理終了の入力は、
マウスやキーボード等からの操作による。
In step 18, the new three-dimensional catheter image formed in step 17 and the three-dimensional image of the inside of the blood vessel are synthesized, and a new synthesized image for navigation is obtained and displayed on the monitor screen. In step 19, it is checked whether or not to end the processing. When the processing is continued, the processing of steps 15 to 18 is repeated. Input of processing end is
By operation from a mouse or keyboard.

【0015】図2は上述本発明方法を実行するためのハ
ードウェア構成例を示すブロック図である。この図2に
おいて、CPU70,主メモリ71,磁気ディスク7
2,表示メモリ73,マウスコントローラ75及びカテ
ーテル座標位置検出器77,78は、共通バス79で相
互に接続されいる。
FIG. 2 is a block diagram showing an example of a hardware configuration for executing the method of the present invention. 2, a CPU 70, a main memory 71, a magnetic disk 7
2. The display memory 73, the mouse controller 75 and the catheter coordinate position detectors 77 and 78 are mutually connected by a common bus 79.

【0016】ここで、カテーテル座標位置検出器77と
78は、択一的に使用されるもので通常、同時に接続さ
れることはない。図示するように、カテーテル座標位置
検出器77は、カテーテル77gに装着された各々の角
度センサ1〜3(77d〜77f)を制御するセンサ1
〜3コントローラ77a〜77cによりカテーテルの座
標情報を検出する。この例では角度センサは3個だが、
いくつでもよい。また、カテーテル座標位置検出器78
は、X,Y軸に沿った二次元センサ78bにより得た情
報をAD変換器78aによりディジタル変換し、カテー
テルの座標情報を検出する。
Here, the catheter coordinate position detectors 77 and 78 are used alternately and are not usually connected at the same time. As shown in the figure, the catheter coordinate position detector 77 is a sensor 1 that controls each of the angle sensors 1 to 3 (77d to 77f) attached to the catheter 77g.
The coordinate information of the catheter is detected by the controllers 77a to 77c. In this example, there are three angle sensors,
Any number is acceptable. Further, the catheter coordinate position detector 78
Converts the information obtained by the two-dimensional sensor 78b along the X and Y axes into digital data by the AD converter 78a to detect the coordinate information of the catheter.

【0017】磁気ディスク72には、三次元画像再構成
対象である複数の断層像(MRI等によるボリューム画
像を含む)、図1に示す各処理の実行プログラム(管状
器官内部三次元画像及び器具三次元画像を構成すると共
に、それらをリアルタイムで合成し、表示するプログラ
ム)及びオペレーションプログラム等が格納されてい
る。
On the magnetic disk 72, a plurality of tomographic images (including volume images obtained by MRI and the like) to be reconstructed, a program for executing each processing shown in FIG. A program for composing the original images, synthesizing and displaying them in real time, and an operation program are stored.

【0018】CPU70は、上記複数の断層像と実行プ
ログラムを磁気ディスク72から読み出し、またカテー
テル座標位置検出器77又は78からのカテーテル位置
座標情報を受け、主メモリ71を用いて、図1に示す処
理フローを演算,実行し、その結果(ナビゲーション用
合成画像)を表示メモリ73に送りCRTモニタ74に
表示させる。
The CPU 70 reads the plurality of tomographic images and the execution program from the magnetic disk 72, receives the catheter position coordinate information from the catheter coordinate position detector 77 or 78, and uses the main memory 71 as shown in FIG. The processing flow is calculated and executed, and the result (combined image for navigation) is sent to the display memory 73 and displayed on the CRT monitor 74.

【0019】なお、マウスコントローラ75に接続され
たマウス76は、カテーテル三次元画像等の演算の際に
初期位置座標等を指定するため等に用いられる。このよ
うにして得られたナビゲーション用合成画像は、必要に
応じて磁気ディスク72に格納される。
The mouse 76 connected to the mouse controller 75 is used for designating initial position coordinates and the like when calculating a three-dimensional catheter image and the like. The navigation synthesized image thus obtained is stored on the magnetic disk 72 as needed.

【0020】図3は上述本発明方法によるナビゲーショ
ン用合成画像の一例を示す図である。ここでは、ナビゲ
ーション用合成画像20を上記CRTモニタ74に表示
させた例を示している。上述したように、このナビゲー
ション用合成画像20は、管状器官、ここでは血管の複
数の断層像を用いて一般的な中心投影法により求めた血
管内部の三次元画像20aとコンピュータ・グラフィッ
クによるカテーテル三次元画像20bにより構成されて
いる。カテーテル三次元画像20bの位置、大きさ及び
形状等は、指定された初期値により決定している。
FIG. 3 is a diagram showing an example of a composite image for navigation according to the method of the present invention. Here, an example is shown in which the navigation composite image 20 is displayed on the CRT monitor 74. As described above, the navigation synthesized image 20 is composed of a three-dimensional image 20a of the inside of a blood vessel obtained by a general central projection method using a plurality of tomographic images of a tubular organ, here, a blood vessel, and a catheter tertiary image by computer graphics. It is composed of an original image 20b. The position, size, shape, and the like of the catheter three-dimensional image 20b are determined based on designated initial values.

【0021】図4は、図2中のカテーテル座標位置検出
器の一例を示す構成図である。ここでは、カテーテル座
標位置検出に角度センサを使用している。
FIG. 4 is a block diagram showing an example of the catheter coordinate position detector in FIG. Here, an angle sensor is used for catheter coordinate position detection.

【0022】角度センサ1〜3(77d〜77f)は、
一端側がカテーテル77gに装着されており、他端側が
天井30に固定されている。天井30に代えて他の静止
部に固定してもよい。カテーテル77gが患者31の血
管内に挿入,移動する度に、カテーテル77gのR1〜
3(32〜34)が移動する。このR1〜3(32〜3
4)の移動した距離,角度等を角度センサ1〜3(77
d〜77f)が検知し、現カテーテル77gの位置座標
を検出する。R1(32)の状態については、角度セン
サ1(77d)が検知する。同様にR2(33),R3
(34)の状態については、角度センサ2(77e),
3(77f)が検知する。角度センサの数は図示例(3
個)に限定されない。
The angle sensors 1 to 3 (77d to 77f)
One end is attached to the catheter 77g, and the other end is fixed to the ceiling 30. Instead of the ceiling 30, it may be fixed to another stationary part. Each time the catheter 77g is inserted and moved into the blood vessel of the patient 31, R1 of the catheter 77g is
3 (32-34) moves. This R1-3 (32-3
The distance, angle, etc. of the movement of 4) are measured by the angle sensors 1 to 3 (77).
d-77f) to detect the position coordinates of the current catheter 77g. The angle sensor 1 (77d) detects the state of R1 (32). Similarly, R2 (33), R3
Regarding the state of (34), the angle sensor 2 (77e),
3 (77f) detects. The number of angle sensors is shown in the illustrated example (3
).

【0023】図5は、図2中のカテーテル座標位置検出
器の他の例を示す構成図である。ここでは、カテーテル
座標位置検出に二次元センサを使用している。患者31
の位置を軸にX,Y方向にX線管(35a,35b)が
設置され、それに正対して二次元センサ(78b1,7
8b2)が設置されている。X線管(35a,35b)
からX線を照射し、その強度を二次元センサ(78b
1,78b2)が検出し、AD変換器(78a1,78
a2)でAD変換することにより、患者31内のカテー
テル77gの先端の位置座標を検出する。
FIG. 5 is a block diagram showing another example of the catheter coordinate position detector in FIG. Here, a two-dimensional sensor is used for detecting the catheter coordinate position. Patient 31
The X-ray tubes (35a, 35b) are installed in the X and Y directions around the position of, and the two-dimensional sensors (78b1, 7
8b2). X-ray tubes (35a, 35b)
Irradiates X-rays from the sensor and measures the intensity using a two-dimensional sensor (78b
, 78b2) and AD converters (78a1, 78a).
By performing the AD conversion in a2), the position coordinates of the tip of the catheter 77g in the patient 31 are detected.

【0024】以下、図6〜図8を参照して、本発明方法
で用いられる器官内部三次元画像の構成方法について説
明する。図6〜図8は、複数の断層像から、一般的な中
心投影方法により三次元画像を構成する方法(特願平6
−3492号)を示す。
Hereinafter, a method of constructing a three-dimensional image inside an organ used in the method of the present invention will be described with reference to FIGS. FIGS. 6 to 8 show a method of constructing a three-dimensional image from a plurality of tomographic images by a general center projection method (Japanese Patent Application No. Hei 6 (1994) -294).
-3492).

【0025】まず、上記三次元画像の構成方法におい
て、中心投影による座標変換について述べる。中心投影
による投影面への各断層像の投影に当たっての、各断層
像の画素座標の投影面上の座標への変換は次のように行
われる。
First, a description will be given of coordinate transformation by central projection in the above-described method for constructing a three-dimensional image. The conversion of the pixel coordinates of each tomographic image to the coordinates on the projection surface when projecting each tomographic image on the projection plane by the central projection is performed as follows.

【0026】図6に示す例では、説明を簡単化するため
投影面と断層像面、更にはx−y面が各々平行であるよ
うに座標系をとっている。この図6において、x,y,
zは三次元座標系(x,y,z)の各軸、e点(x1,
y1,d1)は視点eの位置、P点(X,Y)は投影面
(表示画面に相当する)21上の点、S点(x0,y0,
d0)はe点(x1,y1,d1)とP点(X,Y)を通る
直線22と断層像23Aの交わる点、である。
In the example shown in FIG. 6, the coordinate system is set such that the projection plane, the tomographic image plane, and the xy plane are parallel to each other to simplify the description. In FIG. 6, x, y,
z is each axis of the three-dimensional coordinate system (x, y, z), and point e (x1,
y1, d1) is the position of the viewpoint e, P point (X, Y) is a point on the projection plane (corresponding to the display screen) 21, and S point (x0, y0,
d0) is a point where the straight line 22 passing through the point e (x1, y1, d1) and the point P (X, Y) intersects with the tomographic image 23A.

【0027】また、Dは投影面21の位置(z軸上)
で、任意に設定可能である。d0は断層像23Aの位置
(z軸上)で、計測時に決まる。d1は視点eのz座
標、である。
D is the position of the projection plane 21 (on the z-axis).
And can be set arbitrarily. d0 is the position (on the z-axis) of the tomographic image 23A and is determined at the time of measurement. d1 is the z coordinate of the viewpoint e.

【0028】これによれば、次の式が成り立つ。 X={(D−d1)/(d0−d1)}×(x0−x1)+x1 …(1) Y={(D−d1)/(d0−d1)}×(y0−y1)+y1 …(2) x0={(d0−D)/(d1−D)}×(x1−x)+X …(3) y0={(d0−D)/(d1−D)}×(y1−y)+Y …(4)According to this, the following equation is established. X = {(D−d1) / (d0−d1)} × (x0−x1) + x1 (1) Y = {(D−d1) / (d0−d1)} × (y0−y1) + y1 ( 2) x0 = {(d0-D) / (d1-D)} * (x1-x) + X (3) y0 = {(d0-D) / (d1-D)} * (y1-y) + Y … (4)

【0029】投影された画像を投影面21に相当する表
示画面(図示せず)上に、縦512画素×横512画素
で表示するとき、X,Yは−256から+256までの
値を取る。それぞれのX,Yに対してd0の断層像23
A上では上掲(3),(4)式によりx0,y0が決ま
り、どの点が投影すべきかが決まる。断層像23は複数
あって、d0も複数個あるので、1組のX,Yに対して
複数の投影すべき点x0,y0が決まる。
When the projected image is displayed on a display screen (not shown) corresponding to the projection plane 21 by 512 pixels vertically × 512 pixels horizontally, X and Y take values from -256 to +256. A tomographic image 23 of d0 for each X and Y
On A, x0 and y0 are determined by the above equations (3) and (4), and which point is to be projected is determined. Since there are a plurality of tomographic images 23 and a plurality of d0, a plurality of points x0 and y0 to be projected are determined for one set of X and Y.

【0030】同様の座標系において、断層像23Aの他
にも断層像23B〜23Eを用意し、y軸方向から見た
図を図7(a)に示す。この図7(a)において、断層
像23A〜23Eは同一対象物について同一方向に等間
隔で得られた断層像(図示例では等間隔であるが、必ず
しも等間隔である必要はない)であり、断層像23Bに
は、臓器領域B1,B2,B3が強調して書いてある。臓
器領域B1,B2,B3を投影面21に投影するとB1’,
B2’,B3’となる。同様に、断層像23Cの臓器領域
C1,C2を投影面21に投影するとC1’,C2’とな
る。
In the same coordinate system, tomographic images 23B to 23E are prepared in addition to the tomographic image 23A, and a diagram viewed from the y-axis direction is shown in FIG. In FIG. 7A, tomographic images 23A to 23E are tomographic images obtained at equal intervals in the same direction for the same object (although they are equal in the illustrated example, they are not necessarily equal). On the tomographic image 23B, the organ regions B1, B2, and B3 are emphasized and written. When the organ regions B1, B2, B3 are projected on the projection plane 21, B1 ',
B2 'and B3'. Similarly, when the organ regions C1 and C2 of the tomographic image 23C are projected on the projection plane 21, they become C1 'and C2'.

【0031】ここで、投影データ(ここでは、B1’,
B2’,B3’;C1’,C2’)を表示メモリ(図示せ
ず)に書く時は、三次元的効果を出すために、視点eか
ら見てより遠くに存在する投影データを先に書き込み、
それより近くの投影データは後から上書きする。したが
ってここでは、投影データC1,C2より投影データB
1,B2,B3の方が視点eより遠くに存在するので、投
影データB1’,B2’,B3’を先に書いて、投影デー
タC1’,C2’は後から上書きすることになる。なお図
7(a)では、投影データB1’,B2’,B3’;C
1’,C2’は各々投影面21から離して示しているが、
これは表示メモリに書き込む投影データB1’,B2’,
B3’;C1’,C2’の順番を判り易くしたために過ぎ
ず、最初に書かれる投影データB1’,B2’,B3’
も、それに上書きされる投影データC1’,C2’も実際
には投影面21上に書かれる。
Here, the projection data (here, B1 ',
When writing B2 ', B3'; C1 ', C2') in a display memory (not shown), first write projection data which is farther from the viewpoint e to obtain a three-dimensional effect. ,
Later projection data is overwritten. Therefore, here, the projection data B is obtained from the projection data C1, C2.
Since 1, B2 and B3 are farther than the viewpoint e, the projection data B1 ', B2' and B3 'are written first, and the projection data C1' and C2 'are overwritten later. In FIG. 7A, the projection data B1 ', B2', B3 '; C
1 'and C2' are shown apart from the projection plane 21, respectively.
This corresponds to the projection data B1 ', B2',
B3 '; This is merely to make the order of C1', C2 'easy to understand, and the projection data B1', B2 ', B3' to be written first
In addition, the projection data C1 'and C2' overwritten thereon are actually written on the projection plane 21.

【0032】図7(b)は、図7(a)よりも一般化し
て示したもので、投影面と断層像面が平行でない場合の
例である。この場合は、断層像23A,23B,23C
…から補間演算で投影面21と平行な面に向けられた断
層像23a,23b,23c…を作っておく必要があ
る。その他は、図7(a)の場合と同様である。なお、
b1’;c1’,c2’;d1’は、補間演算された断層像
23b,23c,23d上の臓器領域b1;c1,c2;
d1の投影データである。
FIG. 7B shows a more generalized example than FIG. 7A, and shows an example in which the projection plane and the tomographic image plane are not parallel. In this case, tomographic images 23A, 23B, 23C
, It is necessary to create tomographic images 23a, 23b, 23c,... Directed to a plane parallel to the projection plane 21 by interpolation. Others are the same as in the case of FIG. In addition,
b1 ';c1', c2 ';d1' are organ regions b1; c1, c2; on the interpolated tomographic images 23b, 23c, 23d;
d1 is projection data.

【0033】図8は、視点、断層像及び投影面がより複
雑な位置関係をもった場合の中心投影による座標変換を
説明するための図で、断層像23上のS点(x0,z0,
y0)の投影結果が投影面上のP点(x,y,z)にな
ることを示す。
FIG. 8 is a diagram for explaining coordinate conversion by central projection when the viewpoint, tomographic image, and projection plane have a more complicated positional relationship. The point S (x0, z0,
y0) indicates that the projection result is a point P (x, y, z) on the projection plane.

【0034】この図8において、中心投影による投影面
21への断層像23の投影に当たっての、断層像23の
画素座標の投影面21上の座標への変換は次のように行
われる。ここで、aはx軸と投影面21の交わる点、b
はy軸と投影面21の交わる点、cはz軸と投影面21
の交わる点、である。
In FIG. 8, the conversion of the pixel coordinates of the tomographic image 23 to the coordinates on the projection surface 21 in the projection of the tomographic image 23 onto the projection surface 21 by the central projection is performed as follows. Here, a is a point at which the x-axis intersects with the projection plane 21, b
Is a point at which the y-axis intersects with the projection plane 21, and c is a z-axis and the projection plane 21
Is the intersection of

【0035】また、αは原点から投影面21に下ろした
垂線をz−x面に投影した線がx軸となす角、βは前記
垂線がx−z面となす角、e点(x1,y1,z1)は視
点eの位置、P点(x,y,z)は投影面(表示画面に
相当する)21上の点、S点(x0,z0,y0)はe点
(x1,y1,z1)とP点(x,y,z)を通る直線2
2と断層像23の交わる点、とすると、次の式が成り立
つ。
Further, α is an angle formed by a line projected from the origin to the projection plane 21 on the zx plane and the x axis, β is an angle formed by the perpendicular on the xz plane, and point e (x1, y1, z1) is the position of the viewpoint e, P point (x, y, z) is a point on the projection plane (corresponding to the display screen) 21, and S point (x0, z0, y0) is e point (x1, y1). , Z1) and a straight line 2 passing through point P (x, y, z)
Assuming that the point 2 intersects the tomographic image 23, the following equation is established.

【0036】まず、投影面21は (x/a)+(y/b)+(z/c)=1 …(5) で表わされる。また、e点(x1,y1,z1)とP点
(x,y,z)を通る直線22は (x0−x)/(x1−x)=(y0−y)/(y1−y)=(z0−z)/(z1 −z) …(6) で与えられる。
First, the projection plane 21 is represented by (x / a) + (y / b) + (z / c) = 1 (5). Further, a straight line 22 passing through the point e (x1, y1, z1) and the point P (x, y, z) is (x0-x) / (x1-x) = (y0-y) / (y1-y) = (Z0−z) / (z1−z) (6)

【0037】投影面21がC1点(xc1,yc1,zc
1)を通るとき、 k1=sinα k2=cosα/sinβ k3=cosα・cosβ/sinβ ai=1/a bi=1/b ci=1/c として、 z=[X・k1−Y・k2−yc1・k3−{(ci・k3・zc1)/bi}+{ (ai・k3・X)/(bi・cosα)}−{(ai・k3・xc1)/bi} ]/[1−{(ci・k3)/bi}+{(ai・k3・sinα)/(bi・c osα)}] …(7) x=(X−z・sinα)/cosα …(8) y=[yc1+{−ci・(z−zc1)−ai・(x−xc1)}]/bi …(9)
When the projection plane 21 is at the point C1 (xc1, yc1, zc
When passing through 1), k1 = sinα k2 = cosα / sinβ k3 = cosα · cosβ / sinβ ai = 1 / a bi = 1 / b ci = 1 / c, and z = [X · k1−Y · k2−yc1・ K3 − {(ci · k3 · zc1) / bi} + {(ai · k3 · X) / (bi · cosα)} − {(ai · k3 · xc1) / bi}] / [1-{(ci)・ K3) / bi} + {(ai · k3 · sinα) / (bi · cosα)}] (7) x = (X−z · sinα) / cosα (8) y = [yc1 + {− ci · (Z-zc1) -ai · (x-xc1)}] / bi (9)

【0038】ここで、上記C1点(xc1,yc1,zc
1)には、例えば、視点e(x1,y1,z1)から投影面
21に下ろした垂線と投影面21の交わる点(この点と
視点e間の距離はh)として、 zc1=z1+−[h/sqrt{1+(c2/a2)+(c2/b2)}] (「z1+−」の「−」はz0<zc1のとき) …(10) xc1=x1+{c・(z1−zc1)/a} …(11) yc1=y1+{c・(z1−zc1)/b} …(12) を使ってもよい。
Here, the above C1 point (xc1, yc1, zc
In 1), for example, a point at which a perpendicular line drawn from the viewpoint e (x1, y1, z1) to the projection surface 21 intersects with the projection surface 21 (the distance between this point and the viewpoint e is h): zc1 = z1 +-[ h / sqrt {1+ (c 2 / a 2) + (c 2 / b 2)}] ( "z1 + -" in "-" when the z0 <zc1) ... (10) xc1 = x1 + {c · (z1 −zc1) / a} (11) yc1 = y1 + {c · (z1−zc1) / b} (12)

【0039】投影された画像を投影面21に相当する表
示画面(図示せず)上に、縦512画素×横512画素
で表示するとき、X,Yは−256から+256までの
値を取る。それぞれのX,Yに対して上掲(7),
(8),(9)式によりx,yが決まる。e点のx1,
y1,z1は任意に与えるので、下掲(13),(14)
式により、y0=d0の断層像上で画素S点の座標x0,
z0が決まる。 x0={(d0−y)/(y1−y)}×(x1−x)+x …(13) z0={(d0−y)/(y1−y)}×(z1−z)+z …(14) 断層像は複数あって、d0も複数個あるので、1組の
X,Yに対して複数の投影すべき点x0,y0が決まる。
When the projected image is displayed on a display screen (not shown) corresponding to the projection plane 21 with 512 pixels vertically × 512 pixels horizontally, X and Y take values from -256 to +256. The above (7) for each X and Y,
X and y are determined by the equations (8) and (9). x1 at point e,
Since y1 and z1 are given arbitrarily, the following (13), (14)
From the equation, the coordinates x0, x of the pixel S on the tomographic image of y0 = d0
z0 is determined. x0 = {(d0-y) / (y1-y)} × (x1-x) + x (13) z0 = {(d0-y) / (y1-y)} × (z1-z) + z ( 14) Since there are a plurality of tomographic images and a plurality of d0, a plurality of points x0 and y0 to be projected are determined for one set of X and Y.

【0040】なお、図8中のRは視点eからS点までの
距離を示すもので、このRはP点の画素値(輝度)を求
める際のパラメータとなる。デプス画像の場合は、P点
の画素値は設定された画素値(輝度)の最大値Rmax
から上記Rを引算した値に比例する。
Note that R in FIG. 8 indicates the distance from the viewpoint e to the point S, and this R is a parameter for calculating the pixel value (luminance) at the point P. In the case of a depth image, the pixel value at point P is the maximum value Rmax of the set pixel value (luminance).
Is proportional to the value obtained by subtracting the above R from.

【0041】不透明度を考慮に入れたボリュームレンダ
リング法で三次元画像を構成してもよい(Marc Levoy,
"Display of Surface From Volume Data" IEEE Comput
er Graphics and Application,May,P.29-37,1988 参
照)。
A three-dimensional image may be constructed by a volume rendering method that takes opacity into account (Marc Levoy,
"Display of Surface From Volume Data" IEEE Comput
er Graphics and Application, May, pp. 29-37, 1988).

【0042】[0042]

【発明の効果】以上説明したように本発明によれば、カ
メラやセンサ等を挿入することが不可能な血管等の管状
器官においても、その内側からの三次元画像をリアルタ
イムで得てナビゲーションすることができ、したがって
手術を中断することなく器具を正確に目的位置に到達可
能にナビゲーションすることができるという効果があ
る。
As described above, according to the present invention, even in a tubular organ such as a blood vessel into which a camera or a sensor cannot be inserted, a three-dimensional image from the inside is obtained in real time for navigation. Therefore, there is the effect that the instrument can be accurately navigated to the target position without interrupting the operation.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明方法の一実施形態を示すフローチャート
である。
FIG. 1 is a flowchart showing an embodiment of the method of the present invention.

【図2】本発明方法が適用可能なハードウェア構成例を
示すブロック図である。
FIG. 2 is a block diagram showing an example of a hardware configuration to which the method of the present invention can be applied.

【図3】本発明方法によるナビゲーション用合成画像の
一例を示す図である。
FIG. 3 is a diagram showing an example of a composite image for navigation according to the method of the present invention.

【図4】図2中のカテーテル座標位置検出器の一例を示
す構成図である。
FIG. 4 is a configuration diagram illustrating an example of a catheter coordinate position detector in FIG. 2;

【図5】図2中のカテーテル座標位置検出器の他の例を
示す構成図である。
FIG. 5 is a configuration diagram showing another example of the catheter coordinate position detector in FIG. 2;

【図6】本発明方法で用いられる中心投影法による三次
元画像の構成方法の説明図である。
FIG. 6 is an explanatory diagram of a method of constructing a three-dimensional image by a center projection method used in the method of the present invention.

【図7】本発明方法で用いられる中心投影法による三次
元画像の構成方法の説明図である。
FIG. 7 is an explanatory diagram of a method of constructing a three-dimensional image by a center projection method used in the method of the present invention.

【図8】本発明方法で用いられる中心投影法による三次
元画像の構成方法の説明図である。
FIG. 8 is an explanatory diagram of a method of constructing a three-dimensional image by a center projection method used in the method of the present invention.

【符号の説明】[Explanation of symbols]

20 ナビゲーション用合成画像 20a 血管内部の三次元画像 20b カテーテル三次元画像 70 CPU 71 主メモリ 72 磁気ディスク 73 表示メモリ 74 CRTモニタ 75 マウスコントローラ 76 マウス 77,78 カテーテル座標位置検出器 79 共通バス Reference Signs List 20 synthetic image for navigation 20a three-dimensional image of inside of blood vessel 20b three-dimensional image of catheter 70 CPU 71 main memory 72 magnetic disk 73 display memory 74 CRT monitor 75 mouse controller 76 mouse 77, 78 catheter coordinate position detector 79 common bus

───────────────────────────────────────────────────── フロントページの続き (72)発明者 川▲さき▼ 真司 東京都千代田区内神田一丁目1番14号 株 式会社日立メディコ内 (72)発明者 滝口 賢治 東京都千代田区内神田一丁目1番14号 株 式会社日立メディコ内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Kawa-Saki ▼ Shinji 1-1-1 Uchikanda, Chiyoda-ku, Tokyo Inside Hitachi Medical Co., Ltd. (72) Kenji Takiguchi 1-chome Uchikanda, Chiyoda-ku, Tokyo No. 1-14 Inside Hitachi Medical Corporation

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 器官の複数の断層像から中心投影法を用
いて構成された器官内部三次元画像と、上記器官の内部
に挿入された器具の位置座標を基に構成した器具三次元
画像とをリアルタイムで合成し、表示することを特徴と
する手術支援ナビゲーション方法。
1. An organ three-dimensional image formed from a plurality of tomographic images of an organ using a central projection method, and a device three-dimensional image formed based on position coordinates of a device inserted inside the organ. Surgery-assisted navigation method, which synthesizes and displays in real time.
JP15428497A 1997-05-29 1997-05-29 Surgical operation aid navigation method Pending JPH10334220A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15428497A JPH10334220A (en) 1997-05-29 1997-05-29 Surgical operation aid navigation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15428497A JPH10334220A (en) 1997-05-29 1997-05-29 Surgical operation aid navigation method

Publications (1)

Publication Number Publication Date
JPH10334220A true JPH10334220A (en) 1998-12-18

Family

ID=15580793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15428497A Pending JPH10334220A (en) 1997-05-29 1997-05-29 Surgical operation aid navigation method

Country Status (1)

Country Link
JP (1) JPH10334220A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4700795B2 (en) * 1999-09-30 2011-06-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for determining the position of a medical instrument
JP2016533832A (en) * 2013-08-26 2016-11-04 コー・ヤング・テクノロジー・インコーポレーテッド Surgical navigation system operating method and surgical navigation system
CN117137450A (en) * 2023-08-30 2023-12-01 哈尔滨海鸿基业科技发展有限公司 Flap implantation imaging method and system based on flap blood transport assessment

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4700795B2 (en) * 1999-09-30 2011-06-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for determining the position of a medical instrument
JP2016533832A (en) * 2013-08-26 2016-11-04 コー・ヤング・テクノロジー・インコーポレーテッド Surgical navigation system operating method and surgical navigation system
CN117137450A (en) * 2023-08-30 2023-12-01 哈尔滨海鸿基业科技发展有限公司 Flap implantation imaging method and system based on flap blood transport assessment
CN117137450B (en) * 2023-08-30 2024-05-10 哈尔滨海鸿基业科技发展有限公司 Flap implantation imaging method and system based on flap blood transport assessment

Similar Documents

Publication Publication Date Title
CN111655184B (en) Guidance for placement of surgical ports
JP5551957B2 (en) Projection image generation apparatus, operation method thereof, and projection image generation program
US6049622A (en) Graphic navigational guides for accurate image orientation and navigation
US5823958A (en) System and method for displaying a structural data image in real-time correlation with moveable body
JP5207795B2 (en) System and method for navigating an object being imaged
JP4676021B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
CN102821671B (en) Endoscopic observation back-up system and equipment
CN108601628B (en) Navigation, tracking and guidance system for positioning a working instrument in a patient&#39;s body
JP3664336B2 (en) Method and apparatus for setting viewpoint position and gaze direction in 3D image construction method
US8045780B2 (en) Device for merging a 2D radioscopy image with an image from a 3D image data record
EP2699166B1 (en) Mpr slice selection for visualization of catheter in three-dimensional ultrasound
US20030215122A1 (en) Medical image processing apparatus with a function of measurement on a medical image
JP2007526066A (en) System for guiding medical instruments in a patient
JPH11318884A (en) Image display device
CN108472089A (en) The motion frame of electromagnetic sensor tracking system visualizes
US9940747B2 (en) Mapping 3D to 2D images
JP3770280B2 (en) 3D image display method and apparatus
Tran et al. Augmented reality system for oral surgery using 3D auto stereoscopic visualization
JP2009072317A (en) Medical tube operation support system
JP2009022411A (en) Medical image processor
JP2023501848A (en) ULTRASOUND DIAGNOSTIC DEVICE, ULTRASOUND PROBE, IMAGE GENERATION METHOD AND STORAGE MEDIUM
EP4231271A1 (en) Method and system for generating a simulated medical image
JPH10334220A (en) Surgical operation aid navigation method
JP4290398B2 (en) Device for detecting a three-dimensional position of a test instrument inserted into a body part and radiation image creating device
JP4110226B2 (en) 3D image display device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040513

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070611

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080107