JP2000279425A - Navigation device - Google Patents

Navigation device

Info

Publication number
JP2000279425A
JP2000279425A JP8940599A JP8940599A JP2000279425A JP 2000279425 A JP2000279425 A JP 2000279425A JP 8940599 A JP8940599 A JP 8940599A JP 8940599 A JP8940599 A JP 8940599A JP 2000279425 A JP2000279425 A JP 2000279425A
Authority
JP
Japan
Prior art keywords
target
information
navigation
image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8940599A
Other languages
Japanese (ja)
Inventor
Yukito Furuhashi
幸人 古橋
Takao Shibazaki
隆男 柴▲崎▼
Akito Saito
明人 斉藤
Hiroshi Matsuzaki
弘 松崎
Akio Kosaka
明生 小坂
Takeo Asano
武夫 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP8940599A priority Critical patent/JP2000279425A/en
Priority to US09/533,651 priority patent/US6466815B1/en
Publication of JP2000279425A publication Critical patent/JP2000279425A/en
Priority to US09/875,628 priority patent/US6456868B2/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To visually and easily grasp a distance between a target object and an object and also to permit a user to easily obtain required kinds of navigation information. SOLUTION: The position and attitude of an endoscope 3 and a testee body 1 in a three-dimensional space are measured and navigation information for navigating the object to a target is generated. Then navigation information is displayed on a liquid crystal monitor 13 by changing a color, a line thickness, a plotting size and plotting density, for example, when the information is displayed in accordance with relation in the position and attitude of the endoscope 3 and the testee body 1.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、被ナビゲーション
対象物と目標の3次元空間における位置姿勢情報に基づ
いてナビゲーション情報を変化させるナビゲーション装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a navigation apparatus for changing navigation information based on position and orientation information of a target object and a target in a three-dimensional space.

【0002】[0002]

【従来の技術】例えば、特開平9−173352号公報
や特開平10−5245号公報に開示されているよう
に、医療用、手術用のナビゲーション装置が従来より各
種提案されている。
2. Description of the Related Art As disclosed in, for example, JP-A-9-173352 and JP-A-10-5245, various types of medical and surgical navigation devices have been proposed.

【0003】ここで、特開平9−173352号公報に
開示された医用ナビゲーションシステムでは、被検体所
望部分指定手段により指定された被検体の所望の部分の
情報(外形形状、医用画像情報)を表示装置によって表
示するようにしている。また、外観撮影手段より得られ
る映像情報と、外形計測手段により計測された外形情報
と、医用画像撮影手段より得られる医用画像情報とを、
画像表示手段により重ね合わせて表示するようにしてい
る。
[0003] In the medical navigation system disclosed in Japanese Patent Application Laid-Open No. 9-173352, information (external shape, medical image information) of a desired part of the subject designated by subject desired part designating means is displayed. It is displayed by the device. Further, the video information obtained from the appearance photographing means, the outer shape information measured by the outer shape measuring means, and medical image information obtained from the medical image shooting means,
The images are superimposed and displayed by the image display means.

【0004】また、特開平10−5245号公報に開示
された外科手術支援装置では、手術部位の断層像の画像
データと、手術器具と、手術器具先端付近の血管を検知
する血管検知手段と、手術器具の現在位置を検出する位
置検出手段と、手術器具の先端部の位置と手術器具の挿
入方向とを算出する演算手段と、手術器具の先端部が位
置している部位が撮影されている画像データを選択する
画像選択手段と、画像選択手段により選択された画像上
に、手術器具の先端部を示す所定のパターンを重ね合わ
せる画像合成手段より、時々刻々変化する手術器具の位
置や検知された血管を選択された断層像へ重ね合わせて
表示ようにしている。これにより、術者は、被検体の体
内に挿入している手術器具の先端部の位置情報を断層像
上で視覚的に確認するというものである。
Further, in the surgical operation support apparatus disclosed in Japanese Patent Application Laid-Open No. 10-5245, image data of a tomographic image of a surgical site, a surgical instrument, and a blood vessel detecting means for detecting a blood vessel near the distal end of the surgical instrument are provided. Position detecting means for detecting the current position of the surgical instrument, computing means for calculating the position of the distal end of the surgical instrument and the insertion direction of the surgical instrument, and a part where the distal end of the surgical instrument is located An image selecting means for selecting image data, and an image synthesizing means for superimposing a predetermined pattern indicating the tip of the surgical instrument on the image selected by the image selecting means, the position of the surgical instrument, which changes every moment, is detected. The displayed blood vessel is superimposed on the selected tomographic image and displayed. Thus, the operator visually confirms the position information of the distal end of the surgical instrument inserted into the body of the subject on a tomographic image.

【0005】[0005]

【発明が解決しようとする課題】しかし、上記公報に開
示されているナビゲーションには、以下のような課題が
ある。
However, the navigation disclosed in the above publication has the following problems.

【0006】即ち、特開平9−173352号公報に開
示された医用ナビゲーションシステムでは、被検体所望
部分指定手段により指定された被検体の所望部分の情報
が表示されるのであって、使用者が望む部分へ被検体所
望部分指定手段をナビゲーションすることは困難であ
る。また、外観撮影手段より得られる映像情報と外形計
測手段により計測された外形情報、医用画像撮影手段よ
り得られる医用画像情報とを重ね合わせて表示する際
に、表示される情報の視線方向、つまり表示面に垂直な
方向の距離感を得ることが困難である。さらにまた、計
測範囲内であるが表示範囲外である場所に被検体、及び
被検体所望部分指定手段が位置する際に、何ら情報が与
えられていないため、どのように動かすことで被検体ヘ
アプローチできるのかを、画面表示から判断することは
困難である。
That is, in the medical navigation system disclosed in Japanese Patent Application Laid-Open No. 9-173352, information on a desired part of the subject specified by the desired part specifying means is displayed, and the user desires. It is difficult to navigate the object desired portion designating means to the portion. Also, when the image information obtained by the external appearance photographing means and the outline information measured by the outline measuring means, and the medical image information obtained by the medical image photographing means are displayed in a superimposed manner, the gaze direction of the displayed information, that is, It is difficult to obtain a sense of distance in a direction perpendicular to the display surface. Furthermore, no information is given when the subject and the subject-desired-portion specifying unit are located in a place that is within the measurement range but outside the display range. It is difficult to determine from the screen display whether the approach can be made.

【0007】また、特開平10−5245号公報に開示
された外科手術支援装置では、血管と手術器具との距離
を知るために、表示される断層像上の手術器具の先端位
置と検知された血管の位置との間隔を、使用者が常に意
識していなければならない。
Further, in the surgical operation support apparatus disclosed in Japanese Patent Application Laid-Open No. H10-5245, in order to know the distance between the blood vessel and the surgical instrument, the distal end position of the surgical instrument on the displayed tomographic image is detected. The user must always be aware of the distance from the position of the blood vessel.

【0008】本発明は、上記の点に鑑みてなされたもの
で、表示するナビゲーション情報を、目標物と被ナビゲ
ーション対象物との相対的な3次元的位置姿勢に応じて
変化させることにより、目標物と被ナビゲーション対象
物との距離を視覚的に把握しやすくすること、及び必要
な種類のナビゲーション情報を使用者が容易に入手でき
るナビゲーション装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned points, and the navigation information to be displayed is changed in accordance with the relative three-dimensional position and orientation of a target object and a navigation target object. It is an object of the present invention to make it easy to visually grasp the distance between an object and an object to be navigated, and to provide a navigation device that allows a user to easily obtain necessary types of navigation information.

【0009】[0009]

【課題を解決するための手段】上記の目的を達成するた
めに、請求項1に記載の発明によるナビゲーション装置
は、対象物と目標の3次元空間における位置姿勢を計測
して、上記対象物を目標にナビゲートするためのナビゲ
ーション情報を生成するナビゲーション装置であって、
上記ナビゲーション情報を、上記対象物と上記目標の位
置姿勢関係に応じて異なる態様で表示する表示手段をさ
らに具備することを特徴とする。
To achieve the above object, a navigation apparatus according to the first aspect of the present invention measures the position and orientation of a target and a target in a three-dimensional space, and determines the position of the target. A navigation device that generates navigation information for navigating to a goal,
Display means for displaying the navigation information in different modes according to the position and orientation relationship between the object and the target is further provided.

【0010】即ち、請求項1に記載の発明のナビゲーシ
ョン装置によれば、ナビゲーション情報を、対象物と目
標の位置姿勢関係に応じて異なる態様で表示するように
しているので、使用者は、容易に3次元空間における位
置姿勢を把握することができる。
That is, according to the navigation apparatus of the first aspect of the present invention, the navigation information is displayed in different modes according to the position and orientation relationship between the target and the target, so that the user can easily. Thus, the position and orientation in the three-dimensional space can be grasped.

【0011】なお、上記構成は、後述する第1及び第2
の実施の形態が対応するもので、上記目標は、被検体
1、手術対象となる患部、手術において注意すべき部位
が該当するが、実体が存在する被検体に限らず、予め取
得した実在の目標物の画像情報から再構成された2次
元、又は3次元のモデル像として表示される仮想の目標
物も含む。また、上記対象物は、内視鏡3が該当する
が、目標に対して観察や操作を行うための吸引管やピン
セット等の処置具なども含む。上記表示手段は、液晶モ
ニタ13が該当するが、CRTディスプレイやヘッドマ
ウントディスプレイなどの映像情報表示装置も含む。そ
して、上記「異なる態様」とは、ナビゲーション情報を
表示する際の色、線の太さ、描画される大きさ、及び描
画の疎密を意味している。
Note that the above-described configuration is equivalent to first and second
The target corresponds to the subject 1, the affected part to be operated on, and a site to be noted in the operation, but is not limited to the subject where the entity exists, It also includes a virtual target displayed as a two-dimensional or three-dimensional model image reconstructed from image information of the target. The end object corresponds to the endoscope 3, but also includes a treatment tool such as a suction tube and tweezers for performing observation and operation on a target. The display means corresponds to the liquid crystal monitor 13, but also includes a video information display device such as a CRT display or a head mounted display. The “different aspect” means the color, the line thickness, the size to be drawn, and the density of the drawing when displaying the navigation information.

【0012】また、請求項2に記載の発明によるナビゲ
ーション装置は、対象物と目標の3次元空間における位
置姿勢を計測して、上記対象物を目標にナビゲートする
ためのナビゲーション情報を生成するナビゲーション装
置であって、上記3次元空間における位置姿勢が計測可
能な場合には、上記対象物又は上記目標のモデル画像、
ナビゲーション方向情報、上記対象物と上記目標間の距
離情報の少なくとも一つを表示し、計測不可能な場合に
は、計測不能であることを表す情報を表示する表示手段
をさらに具備することを特徴とする。
According to a second aspect of the present invention, there is provided a navigation apparatus for measuring the position and orientation of a target and a target in a three-dimensional space, and generating navigation information for navigating the target to the target. The device, if the position and orientation in the three-dimensional space can be measured, the target object or the target model image;
A display unit that displays at least one of navigation direction information and distance information between the object and the target, and displays information indicating that measurement is not possible when measurement is not possible. And

【0013】即ち、請求項2に記載の発明のナビゲーシ
ョン装置によれば、3次元空間における位置姿勢が計測
可能な場合には、上記対象物又は上記目標のモデル画
像、ナビゲーション方向情報、上記対象物と上記目標間
の距離情報の少なくとも一つを表示するようにしている
ので、使用者は、容易に3次元空間における位置姿勢を
把握することができる。また、計測不能であることを表
す情報を表示するので、使用者は、計測不能であること
を容易に知ることができる。
That is, according to the navigation device of the present invention, when the position and orientation in the three-dimensional space can be measured, the model image of the object or the target, the navigation direction information, and the object Since at least one of the distance information between the target and the target is displayed, the user can easily grasp the position and orientation in the three-dimensional space. In addition, since information indicating that measurement is impossible is displayed, the user can easily know that measurement is not possible.

【0014】なお、上記構成は、後述する第1及び第2
の実施の形態が対応するもので、上記目標は、被検体
1、手術対象となる患部、手術において注意すべき部位
が該当するが、実体が存在する被検体に限らず、予め取
得した実在の目標物の画像情報から再構成された2次
元、又は3次元のモデル像として表示される仮想の目標
物も含む。また、上記対象物は、内視鏡3が該当する
が、目標に対して観察や操作を行うための吸引管やピン
セット等の処置具なども含む。上記表示手段は、液晶モ
ニタ13が該当するが、CRTディスプレイやヘッドマ
ウントディスプレイなどの映像情報表示装置も含む。
Note that the above-described configuration is equivalent to first and second
The target corresponds to the subject 1, the affected part to be operated on, and a site to be noted in the operation, but is not limited to the subject where the entity exists, It also includes a virtual target displayed as a two-dimensional or three-dimensional model image reconstructed from image information of the target. The end object corresponds to the endoscope 3, but also includes a treatment tool such as a suction tube and tweezers for performing observation and operation on a target. The display means corresponds to the liquid crystal monitor 13, but also includes a video information display device such as a CRT display or a head mounted display.

【0015】また、上記モデル画像は、第1の実施の形
態ではワイヤフレーム3次元モデルデータ10が該当す
るが、外形形状を表現できるモデルデータであれば一般
的な3次元コンピュータグラフィックスで用いられるデ
ータ構造も含む。また、第2の実施の形態では、内視鏡
3の正射影像27を表現する線が該当するが、外形形状
を表現できるものであれば一般的な3次元コンピュータ
グラフィックスで用いられる表現方法も含む。さらに、
このモデル画像は、第1及び第2の実施の形態では、対
象部位の3次元ボリュームデータ11が該当するが、2
次元ピクセルデータが複数存在する形態も含む。
In the first embodiment, the model image corresponds to the wireframe three-dimensional model data 10, but any model data that can represent the external shape is used in general three-dimensional computer graphics. Includes data structures. Further, in the second embodiment, a line expressing the orthogonally projected image 27 of the endoscope 3 corresponds to the line. However, as long as it can express the external shape, an expression method used in general three-dimensional computer graphics is used. Including. further,
In the first and second embodiments, this model image corresponds to the three-dimensional volume data 11 of the target part.
This includes a form in which a plurality of dimensional pixel data exist.

【0016】また、上記ナビゲーション方向情報は、第
1の実施の形態では矢印21が該当するが、三角形や丸
等の2次元幾何学図形や円錐等の3次元幾何学図形や画
像データ等視覚的に確認できるものを含む。
Although the arrow 21 corresponds to the navigation direction information in the first embodiment, the navigation direction information may be a two-dimensional geometric figure such as a triangle or a circle, a three-dimensional geometric figure such as a cone, or visual data such as image data. Including those that can be confirmed.

【0017】そして、上記距離情報は、第1の実施の形
態では患部への距離を示す数字31が該当するが、任意
の目標物への距離を示す数字を含む。あるいは、これ
は、第1の実施の形態では患部への距離を示す棒30が
該当するが、三角形や丸等の2次元幾何学図形や円柱等
の3次元幾何学図形や画像データ等視覚的に確認できる
ものを含む。
The distance information corresponds to the numeral 31 indicating the distance to the affected part in the first embodiment, but includes the numeral indicating the distance to an arbitrary target. Alternatively, this corresponds to the rod 30 indicating the distance to the diseased part in the first embodiment, but it may be a two-dimensional geometric figure such as a triangle or a circle, a three-dimensional geometric figure such as a cylinder, or a visual data such as image data. Including those that can be confirmed.

【0018】また、上記計測不能であることを表す情報
は、第1の実施の形態では「計測不能状態」という文字
情報28が該当するが、これは計測不能な状態を表現す
る任意の文字情報を含む。さらに、これは、第1の実施
の形態では黄色で太さ60ピクセルの枠29が該当する
が、計測不能を示すことを定義された任意の記号的パタ
ーンを含む。
In the first embodiment, the information indicating that measurement is not possible corresponds to the character information 28 of "measurement impossible state", but this is arbitrary character information expressing the measurement impossible state. including. Furthermore, this includes any symbolic pattern defined to indicate that measurement is not possible, which in the first embodiment is a yellow and 60 pixel thick frame 29.

【0019】また、請求項3に記載の発明によるナビゲ
ーション装置は、上記請求項1又は請求項2に記載の発
明によるナビゲーション装置において、上記対象物が撮
像手段を具備し、上記撮像手段で撮像した画像を他の情
報に重畳して上記表示手段に表示可能であることを特徴
とする。
According to a third aspect of the present invention, there is provided the navigation apparatus according to the first or second aspect, wherein the object has an image pickup means, and the object is picked up by the image pickup means. The image is superimposed on other information and can be displayed on the display means.

【0020】即ち、請求項3に記載の発明のナビゲーシ
ョン装置によれば、対象物の撮像手段で撮像した画像を
他の情報に重畳して表示するので、表示手段上で、実際
の映像情報とナビゲーション情報を同一の空間上の情報
として得られることにより、使用者は、まだ見えぬ実体
の位置や形状や状態をナビゲーション情報から容易に把
握することができる。
That is, according to the navigation apparatus of the present invention, the image picked up by the image pickup means for the object is displayed so as to be superimposed on other information, so that the actual image information is displayed on the display means. By obtaining the navigation information as information in the same space, the user can easily grasp the position, shape, and state of the invisible entity from the navigation information.

【0021】なお、上記構成は、後述する第1の実施の
形態が対応するもので、上記対象物は、第1の実施の形
態では内視鏡3が該当するが、顕微鏡なども含む。ま
た、上記表示手段は、第1の実施の形態では液晶モニタ
13が該当するが、CRTディスプレイやヘッドマウン
トディスプレイなどの映像情報表示装置も含む。
The above configuration corresponds to a first embodiment described later. The object corresponds to the endoscope 3 in the first embodiment, but also includes a microscope. The display means corresponds to the liquid crystal monitor 13 in the first embodiment, but also includes a video information display device such as a CRT display or a head mounted display.

【0022】[0022]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0023】[第1の実施の形態]図1は、本発明の第
1の実施の形態に係るナビゲーション装置の構成を示す
図である。
[First Embodiment] FIG. 1 is a diagram showing a configuration of a navigation device according to a first embodiment of the present invention.

【0024】即ち、手術台に被検体1が仰向けの状態で
寝ている。そして、その被検体1の頭部には、赤外線L
EDを三角形状に配置した硬質なセンシングプレート2
がテープにて取り付けられており、頭部に対しての取り
付け位置姿勢が容易には変化しないようになっている。
また、内視鏡3には、赤外線LEDを三角形状に配置し
た硬質なセンシングプレート4が固定的に取り付けられ
ている。これらセンシングプレート2,4上で、配置さ
れたLED同士の位置関係が変化することはない。ま
た、各センシングプレート2,4上で定義された座標系
に対して、各LEDが配置された位置は事前に計測して
おり、LED定義データとしてセンサ情報記憶部5に蓄
えられている。このセンサ情報記憶部5は、センサ制御
部6に接続されている。そして、センシングプレート
2,4が計測範囲内に位置するように、画像撮影方式の
センサアセンブリ7を配置する。センサ制御部6にセン
シングプレート2,4とセンサアセンブリ7が接続さ
れ、3次元位置姿勢計測手段を構成している。
That is, the subject 1 is lying on the operating table while lying on his back. The head of the subject 1 has an infrared ray L
Hard sensing plate 2 with EDs arranged in a triangular shape
Are attached by a tape so that the attachment position and posture with respect to the head do not easily change.
Further, a rigid sensing plate 4 having infrared LEDs arranged in a triangular shape is fixedly attached to the endoscope 3. On these sensing plates 2 and 4, the positional relationship between the arranged LEDs does not change. Further, the position where each LED is arranged is measured in advance with respect to the coordinate system defined on each of the sensing plates 2 and 4, and is stored in the sensor information storage unit 5 as LED definition data. The sensor information storage unit 5 is connected to the sensor control unit 6. Then, the sensor assembly 7 of the image capturing system is arranged so that the sensing plates 2 and 4 are located within the measurement range. The sensing plates 2 and 4 and the sensor assembly 7 are connected to the sensor control unit 6 to constitute a three-dimensional position and orientation measurement unit.

【0025】このような3次元位置姿勢計測手段で計測
された3次元位置姿勢情報は、センサ制御部6よりナビ
ゲーション情報制御部8に渡される。ここで、予め計測
された被検体、手術対象となる患部、手術において注意
すべき部位の外形形状情報と内部断層像情報はCTやM
RIにより事前に計測され、低解像度(例えば、32×
32×32ボクセルの解像度)、中解像度(例えば、1
28×128×128ボクセルの解像度)、高解像度
(例えば、512×512×512ボクセルの解像度)
な情報に分られ、画像処理用計算機等によりワイヤーフ
レーム3次元モデルデータ10(高解像度ワイヤーフレ
ーム3次元モデルデータ10a,中解像度ワイヤーフレ
ーム3次元モデルデータ10b,低解像度ワイヤーフレ
ーム3次元モデルデータ10c)と3次元ボリュームデ
ータ11(高解像度3次元ボリュームデータ11a,中
解像度3次元ボリュームデータ11b,低解像度3次元
ボリュームデータ11c)へ変換され、ナビゲーション
情報記憶部9にデータとして蓄えられている。
The three-dimensional position and orientation information measured by such three-dimensional position and orientation measurement means is passed from the sensor control unit 6 to the navigation information control unit 8. Here, the external shape information and the internal tomographic image information of the subject, the affected part to be operated on, and the part to be noted in the operation are measured by CT or M
It is measured in advance by RI and has a low resolution (for example, 32 ×
32 × 32 voxel resolution), medium resolution (for example, 1
28 × 128 × 128 voxel resolution), high resolution (eg, 512 × 512 × 512 voxel resolution)
3D model data 10 (high-resolution wireframe 3D model data 10a, medium-resolution wireframe 3D model data 10b, low-resolution wireframe 3D model data 10c) by an image processing computer or the like. And three-dimensional volume data 11 (high-resolution three-dimensional volume data 11a, medium-resolution three-dimensional volume data 11b, and low-resolution three-dimensional volume data 11c), and are stored in the navigation information storage unit 9 as data.

【0026】また、このナビゲーション情報記憶部9に
は、距離マップ12も予め記憶されている。ここで、距
離マップ12とは、図2及び図3に示すように、3次元
配列の値が対象部位(被検体、手術対象となる患部、手
術において注意すべき部位)の表面からの最短距離を表
し、配列の添字番号が対象部位が存在する空間での3次
元位置座標に対応する変数となっている。例えば、最小
分割単位が0.1[mm]の時は、添字番号の1/10
がミリメートルで表現された座標値となる。このような
距離マップが、事前に距離マップ作成用計算機等によっ
て各対象部位ごとに作成され、ナビゲーション情報記憶
部9にデータとして蓄えられている。なお、ワイヤフレ
ーム3次元モデルデータ10と3次元ボリュームデータ
11、及び距離マップ12は全て同一の座標系になるよ
うに、座標変換演算をなされている。
The navigation information storage unit 9 also stores a distance map 12 in advance. Here, the distance map 12 is, as shown in FIGS. 2 and 3, a value of a three-dimensional array in which the shortest distance from the surface of a target part (subject, affected part to be operated on, a part to be noted in surgery) And the subscript number of the array is a variable corresponding to the three-dimensional position coordinates in the space where the target part exists. For example, when the minimum division unit is 0.1 [mm], 1/10 of the subscript number is used.
Is the coordinate value expressed in millimeters. Such a distance map is created in advance for each target site by a distance map creating computer or the like, and stored as data in the navigation information storage unit 9. Note that coordinate transformation calculations are performed so that the wireframe three-dimensional model data 10, the three-dimensional volume data 11, and the distance map 12 all have the same coordinate system.

【0027】そして、上記内視鏡3の光学系より得られ
る画像は、図示しないカメラ制御装置、画像入力ボード
を介して、上記ナビゲーション情報制御部8に取り込ま
れるようになっている。
An image obtained from the optical system of the endoscope 3 is taken into the navigation information control unit 8 via a camera control device (not shown) and an image input board.

【0028】このナビゲーション情報制御部8で生成さ
れるナビゲーション情報は、情報表示手段としての液晶
モニタ13によって、使用者に対し表示される。被検体
1のデータと被検体自身は、図4に示すように、特徴点
のデータ上の座標値mと、これに対応する特徴点のセン
シングプレート2で規定される座標値pを計測し、座標
変換行列(pHm)14を算出することで関連付けられ
ている。この座標変換行列14は、上記ナビゲーション
情報記憶部9に蓄えられている。
The navigation information generated by the navigation information control section 8 is displayed to the user by a liquid crystal monitor 13 as information display means. As shown in FIG. 4, the data of the subject 1 and the subject itself measure a coordinate value m on the data of the feature point and a coordinate value p defined by the sensing plate 2 of the corresponding feature point, It is associated by calculating a coordinate transformation matrix (pHm) 14. This coordinate transformation matrix 14 is stored in the navigation information storage unit 9.

【0029】ここで、座標変換行列とは、図5に示すよ
うに、3次元空間での回転動作を表す3行3列の回転成
分Rと、3次元空間での並進動作を表す3行1列の並進
成分Tと、定数成分と、で構成される4行4列の行列で
ある。
Here, as shown in FIG. 5, the coordinate transformation matrix is a three-row, three-column rotation component R representing a rotation operation in a three-dimensional space, and a three-row, one-row representing a translation operation in a three-dimensional space. This is a 4-by-4 matrix composed of a column translation component T and a constant component.

【0030】また、図6に示すような、センシングプレ
ート4で規定される座標系から内視鏡3の光学系を表現
するカメラモデルで使用される座標系への座標変換行列
(cHe)15と、カメラモデル座標系から実際の液晶
モニタ13上の座標系への座標変換行列(f_cto
s)16も求められて、上記ナビゲーション情報記憶部
9に蓄えられている。
A coordinate conversion matrix (cHe) 15 from a coordinate system defined by the sensing plate 4 to a coordinate system used in a camera model expressing the optical system of the endoscope 3 as shown in FIG. , A coordinate transformation matrix (f_cto) from the camera model coordinate system to the actual coordinate system on the liquid crystal monitor 13
s) 16 is also obtained and stored in the navigation information storage unit 9.

【0031】次に、このような構成における作用を説明
する。
Next, the operation in such a configuration will be described.

【0032】本ナビゲーション装置の動作中、上記3次
元位置姿勢計測手段の構成要素であるセンサ制御部6
は、センシングプレート2,4の各赤外線LEDの3次
元位置を計測し、センサ情報記憶部5に蓄えられたLE
D定義データを用いて、センシングプレート2,4の3
次元位置姿勢を、センシングプレート2で定義される3
次元空間上でのセンシングプレート4で定義される空間
の原点の座標値と、センシングプレート4で定義される
空間のX,Y,Z軸の単位ベクトルの値として算出す
る。そして、この3次元位置姿勢情報より、図7に示す
ように、被検体1の頭部に取り付けられたセンシングプ
レート2から内視鏡3に取り付けられたセンシングプレ
ート4への座標変換行列(pHe)17が算出される。
この座標変換行列17と上記座標変換行列14,15,
16とより、図8に示すように、対象部位のデータが液
晶モニタ13上での位置データヘ変換され、この位置デ
ータを用いてナビゲーション情報制御部8でナビゲーシ
ョン情報が生成される。
During the operation of the present navigation device, the sensor control unit 6, which is a component of the three-dimensional position and orientation measuring means, is used.
Measures the three-dimensional position of each infrared LED of the sensing plates 2 and 4 and stores the LE stored in the sensor information storage unit 5.
Using the D definition data, the sensing plates 2, 4 and 3
The three-dimensional position and orientation are defined by the sensing plate 2
It is calculated as the coordinate value of the origin of the space defined by the sensing plate 4 in the dimensional space and the value of the unit vector of the X, Y, and Z axes of the space defined by the sensing plate 4. Then, based on the three-dimensional position and orientation information, a coordinate conversion matrix (pHe) from the sensing plate 2 attached to the head of the subject 1 to the sensing plate 4 attached to the endoscope 3 as shown in FIG. 17 is calculated.
This coordinate transformation matrix 17 and the coordinate transformation matrices 14, 15,
8, the data of the target part is converted into position data on the liquid crystal monitor 13, and the navigation information control unit 8 generates navigation information using this position data.

【0033】このナビゲーション情報制御部8へは、上
記内視鏡3の光学系からの映像も入力されており、よっ
て、上記ナビゲーション情報とその映像とを重畳して、
図9の(A)に示すように、液晶モニタ13にて表示す
る。
An image from the optical system of the endoscope 3 is also input to the navigation information control unit 8, so that the navigation information and the image are superimposed,
The image is displayed on the liquid crystal monitor 13 as shown in FIG.

【0034】ここで、図7に示すように、内視鏡3の先
端位置を上記座標変換行列14,15,17を用いて座
標変換し、距離マップ12を参照することにより、対象
部位と内視鏡3の先端との相対的な距離が求められる。
そこで、液晶モニタ13上には、図9の(A)に示すよ
うに、被検体1と内視鏡3が計測可能な状態にある時に
は、上記対象部位と内視鏡3の先端との相対的な距離
を、患部への距離として、棒30の長さと数字31で表
現して表示する。
Here, as shown in FIG. 7, the tip end position of the endoscope 3 is coordinate-transformed using the coordinate transformation matrices 14, 15, and 17 and the distance map 12 is referred to to determine the position of the target part. The relative distance from the tip of the endoscope 3 is obtained.
Therefore, when the subject 1 and the endoscope 3 are in a measurable state on the liquid crystal monitor 13 as shown in FIG. The target distance is displayed as the distance to the affected part, expressed by the length of the stick 30 and the numeral 31.

【0035】内視鏡3を用いた外科手術では、被検体1
の外部より患部に向かって、傷付けてはならない部位に
注意しながら内視鏡3を挿入し、患部を処置しなければ
ならない。
In the surgical operation using the endoscope 3, the subject 1
The endoscope 3 must be inserted into the affected area from the outside while paying attention to a site that should not be damaged, and the affected area must be treated.

【0036】内視鏡3が被検体1の外部にある時、対象
部位のモデル像は、図9の(A)に示すように、外形形
状のワイヤフレーム像18として生成される。そして、
本実施の形態においては、このワイヤフレーム像18の
線の色や太さを、上記方法により求められた内視鏡3先
端と対象部位との相対的距離に応じて変化させるように
している。また、上記患部への距離を示す棒30の色と
太さ、数字31とその背景の色も変化させる。
When the endoscope 3 is outside the subject 1, a model image of the target part is generated as a wire frame image 18 having an outer shape as shown in FIG. And
In the present embodiment, the color and thickness of the line of the wire frame image 18 are changed in accordance with the relative distance between the tip of the endoscope 3 and the target part obtained by the above method. Further, the color and thickness of the bar 30 indicating the distance to the affected part, the numeral 31 and the color of the background are also changed.

【0037】例えば、上記相対的距離が10mm以上離
れている時には、ワイヤフレーム像18の線の色は青
色、線の太さは1ピクセル、距離を示す棒30の色は青
色、棒30の太さは20ピクセル、数字31の背景色は
青色とし、それが0mm以上10mm未満離れている時
には、ワイヤフレーム像18の線の色は黄色、線の太さ
は2ピクセル、距離を示す棒30の色は黄色、棒30の
太さは30ピクセル、数字31の背景色は黄色、また、
それが0mm以上10mm未満挿入されている時には、
ワイヤフレーム像18の線の色は紫色、線の太さは2ピ
クセル、距離を示す棒30の色は紫色、棒30の太さは
30ピクセル、数字31の背景色は紫色、というように
変化させる。
For example, when the relative distance is 10 mm or more, the color of the line of the wire frame image 18 is blue, the thickness of the line is 1 pixel, the color of the bar 30 indicating the distance is blue, and the thickness of the bar 30 is thick. The background color of the numeral 31 is 20 pixels, and the background color of the numeral 31 is blue. When it is separated by 0 mm or more and less than 10 mm, the line color of the wire frame image 18 is yellow, the thickness of the line is 2 pixels, and the distance bar 30 The color is yellow, the thickness of the bar 30 is 30 pixels, the background color of the numeral 31 is yellow,
When it is inserted more than 0mm and less than 10mm,
The color of the line of the wireframe image 18 is purple, the thickness of the line is 2 pixels, the color of the bar 30 indicating the distance is purple, the thickness of the bar 30 is 30 pixels, the background color of the numeral 31 is purple, and so on. Let it.

【0038】このように、予め設定された距離に達した
時に、その距離に応じた色へ描画されるワイヤフレーム
像18の色が変化したり、線の太さが変化することによ
り、使用者は、対象となっている部位への距離を視覚的
に捉えることができる。また、注意すべき部位へ内視鏡
3がある設定距離以上に近付いた際に、注意すべき部位
を表すワイヤフレーム像18の線が太く描画されること
により、使用者は、注意すべき部位へ近付き過ぎたこと
を視覚的に捉えることができる。例えば、注意すべき部
位に関する距離マップ12の参照値が10mm以下にな
ったならば、線の太さを5倍に変化させる。
As described above, when the distance reaches a preset distance, the color of the wire frame image 18 drawn in a color corresponding to the distance changes, or the thickness of the line changes. Can visually grasp the distance to the target portion. Further, when the endoscope 3 approaches the site to be watched for more than a certain distance, the line of the wire frame image 18 representing the site to be watched is drawn thick, so that the user can view the site to watch. You can visually grasp that you have approached too much. For example, when the reference value of the distance map 12 regarding the part to be noted becomes 10 mm or less, the thickness of the line is changed five times.

【0039】また、内視鏡3と対象部位との相対的距離
に応じて描画されるワイヤフレーム像18の粗密も変化
させるようにしている。即ち、相対的距離が小さくなる
につれて、より詳細なワイヤフレーム3次元モデルデー
タ10ヘ切り替えて描画を行い、相対的距離が大きくな
るにつれて、間引かれたワイヤフレーム3次元モデルデ
ータ10ヘ切り替えて描画を行う。例えば、対象部位ま
での距離が30mm未満であったならば高解像度ワイヤ
フレーム3次元モデルデータ10aを用い、対象部位ま
での距離が30mm以上100mm未満であったならば
中解像度ワイヤーフレーム3次元モデルデータ10bを
用い、対象部位までの距離が100mm以上であったな
らば、低解像度ワイヤーフレーム3次元モデルデータ1
0cを用いる。この作用により、描画完了までの時間を
短くするために粗いワイヤフレーム3次元モデルデータ
を用いなければならず、近付いた時に詳細な情報を表示
できなかったり、逆に、詳細なワイヤフレーム3次元モ
デルデータを用いたために、対象部位から遠くにある時
に不要な細部の情報を描画することによって描画完了ま
での時間が長くなったりするといった問題が生じること
がなく、距離に応じて必要な詳細度と十分な描画速度を
実現できる。
In addition, the density of the wire frame image 18 drawn according to the relative distance between the endoscope 3 and the target part is also changed. That is, as the relative distance decreases, the drawing is performed by switching to the more detailed wireframe three-dimensional model data 10, and as the relative distance increases, the drawing is switched to the thinned wireframe three-dimensional model data 10. I do. For example, if the distance to the target part is less than 30 mm, the high-resolution wireframe three-dimensional model data 10a is used. If the distance to the target part is 30 mm or more and less than 100 mm, the medium-resolution wireframe three-dimensional model data is used. If the distance to the target part is 100 mm or more using 10b, the low-resolution wireframe three-dimensional model data 1
0c is used. Due to this effect, coarse wireframe three-dimensional model data must be used in order to shorten the time until drawing is completed, and detailed information cannot be displayed when approaching, or on the contrary, a detailed wireframe three-dimensional model Since the data was used, there was no problem that the time required to complete the drawing was extended by drawing unnecessary details when it was far from the target site. A sufficient drawing speed can be realized.

【0040】また、本実施の形態においては、内視鏡3
が被検体1内部へ挿入される際には、内視鏡3と対象部
位の表面部との相対的距離に応じて、描画される被検体
1のモデル像がワイヤフレーム像18から、図9の
(B)に示すような3次元ボリュームデータの内部断層
像19へ、自動的に切り替える。ここで、内視鏡3の先
端と対象部位との相対的距離は上記方法により求められ
る。例えば、この相対的距離が5mmになった時に、被
検体のモデル像をワイヤフレーム像18から、内視鏡の
視線方向に応じた3次元ボリュームデータの内部断層像
19へ切り替える。この切り替えにより、使用者は、内
視鏡3を挿入後は不要になる被検体のワイヤフレーム像
18に替わって、挿入後重要になる3次元ボリュームデ
ータの内部断層像19を、切り替え作業を要求されるこ
となく容易に得ることができる。
In the present embodiment, the endoscope 3
Is inserted into the subject 1, the model image of the subject 1 to be drawn is changed from the wire frame image 18 to the drawing shown in FIG. 9 according to the relative distance between the endoscope 3 and the surface of the target portion. (B) is automatically switched to the internal tomographic image 19 of three-dimensional volume data. Here, the relative distance between the distal end of the endoscope 3 and the target site is obtained by the above method. For example, when the relative distance becomes 5 mm, the model image of the subject is switched from the wire frame image 18 to the internal tomographic image 19 of the three-dimensional volume data according to the viewing direction of the endoscope. By this switching, the user requests the switching operation of the internal tomographic image 19 of the three-dimensional volume data, which becomes important after the insertion, instead of the wireframe image 18 of the subject that becomes unnecessary after the insertion of the endoscope 3. It can be easily obtained without being done.

【0041】このように、内視鏡3が被検体内部に挿入
されている時、使用者に対して表示されるナビゲーショ
ン情報は、被検体1の3次元ボリュームデータの内部断
層像19と患部、注意すべき部位のワイヤフレーム像2
0である。この状態で、内視鏡3がある設定値以上対象
部位へ近付いた時は、ワイヤフレーム像20の描画属性
だけでなく、描画される3次元ボリュームデータの内部
断層像19の色も変化させる。
As described above, when the endoscope 3 is inserted into the subject, the navigation information displayed to the user includes the internal tomographic image 19 of the three-dimensional volume data of the subject 1 and the affected part. Wire frame image 2 of the area to be careful
0. In this state, when the endoscope 3 approaches the target part by a certain set value or more, not only the drawing attribute of the wire frame image 20 but also the color of the internal tomographic image 19 of the drawn three-dimensional volume data is changed.

【0042】なお、内視鏡3の撮影範囲内に対象部位が
存在しない場合は、図9の(C)に示すように、対象と
なる部位が存在する方向を矢印21を用いて示す。ここ
で、モデル像が描画範囲内にあるかどうかは、モデル像
の描画の際に計算されるモデル像の各点の座標が、表示
されるモニタ上の点として存在する座標がどうかを、全
ての点について検査することにより判断することができ
る。
If the target region does not exist within the photographing range of the endoscope 3, the direction in which the target region exists is indicated by an arrow 21 as shown in FIG. 9C. Here, whether the model image is within the drawing range depends on whether the coordinates of each point of the model image calculated at the time of drawing the model image are coordinates present as points on the monitor to be displayed. Can be determined by examining the following points.

【0043】即ち、図10に示すように、モデル像の座
標を表示画面の座標へ変換し(ステップS1)、その変
換された点が表示範囲内の座標値かどうかを判定する
(ステップS2)。そして、表示範囲内の点があれば、
モデル像を表示する(ステップS3)。これに対して、
表示範囲内の点がない場合には、モデル像の代表点の座
標を表示画面の座標へ変換すると共に(ステップS
4)、内視鏡3の先端の座標を表示画面の座標へと変換
して(ステップS5)、モデル像の代表点と内視鏡3の
先端の距離と方向を計算する(ステップS6)。即ち、
対象部位の代表点のモデルデータ座標系での座標値23
を、上記座標変換行列14,15,16,17により液
晶モニタ13上の座標値へ変換することにより、内視鏡
映像の中心22つまり内視鏡3先端と対象部位との相対
的な距離と方向を求めることができる。そして、この距
離に比例するように対象部位を示す矢印21の大きさを
変化させることで、使用者は、どの程度内視鏡3を動か
せば対象部位を内視鏡3の撮影範囲に捉えることができ
るかを視覚的に理解することができる。
That is, as shown in FIG. 10, the coordinates of the model image are converted to the coordinates of the display screen (step S1), and it is determined whether or not the converted point is a coordinate value within the display range (step S2). . And if there is a point in the display range,
A model image is displayed (step S3). On the contrary,
If there is no point within the display range, the coordinates of the representative point of the model image are converted into the coordinates of the display screen (step S5).
4) The coordinates of the tip of the endoscope 3 are converted into coordinates of the display screen (step S5), and the distance and direction between the representative point of the model image and the tip of the endoscope 3 are calculated (step S6). That is,
Coordinate value 23 in the model data coordinate system of the representative point of the target part
Is converted into coordinate values on the liquid crystal monitor 13 by the coordinate conversion matrices 14, 15, 16, and 17, so that the relative distance between the center 22 of the endoscope image, that is, the tip of the endoscope 3 and the target portion is obtained. The direction can be determined. Then, by changing the size of the arrow 21 indicating the target portion so as to be proportional to this distance, the user can capture the target portion within the imaging range of the endoscope 3 by moving the endoscope 3 by how much. Can understand visually what can be done.

【0044】また、センサ制御部6は、計測不能時に、
3次元位置姿勢情報に替わって、計測不能を示すメッセ
ージを出力する。ナビゲーション情報制御部8は、この
メッセージを受けた時に、ナビゲーション情報としての
モデル像を消去し、「計測不能状態」という文字情報2
8と、黄色で太さ60ピクセルの枠29とを生成し、図
9の(D)に示すように、液晶モニタ13により使用者
へ表示する。この作用により、使用者は、内視鏡3、も
しくは被検体1が計測不能な位置にあることを容易に知
ることができ、実際の状態にそぐわないナビゲーション
情報による誤操作を行う可能性が減少する。
When the measurement is impossible, the sensor control unit 6
A message indicating that measurement is impossible is output instead of the three-dimensional position and orientation information. Upon receiving this message, the navigation information control unit 8 deletes the model image as the navigation information, and outputs the character information 2 indicating "measurable state".
8 and a frame 29 of yellow and 60 pixels in thickness are generated and displayed to the user on the liquid crystal monitor 13 as shown in FIG. With this operation, the user can easily know that the endoscope 3 or the subject 1 is at a position where measurement is not possible, and the possibility of performing an erroneous operation based on navigation information that does not match the actual state is reduced.

【0045】なお、本実施の形態の各構成は、当然、各
種の変形、変更が可能である。
It is to be noted that each configuration of the present embodiment can be variously modified and changed.

【0046】例えば、ナビゲーション対象とする部位
は、上記対象部位に限らず、被検体1の外形形状情報や
内部断層像情報より作成される任意の部位とすることが
できる。また、実際に被検体1が存在せず、仮想の被検
体の頭部にセンシングプレートが取り付けられていると
して、シミュレーションを行うことも可能である。
For example, the part to be navigated is not limited to the above-mentioned part, but may be any part created from the external shape information of the subject 1 or the internal tomographic image information. Further, it is possible to perform a simulation on the assumption that the subject 1 does not actually exist and the sensing plate is attached to the head of the virtual subject.

【0047】また、3次元位置姿勢計測手段は、磁気セ
ンサを用いた方式や、機械的なリンクとジョイントとエ
ンコーダやポテンショメータを用いた方式など、一般に
よく知られた3次元位置姿勢計測方式へ置き換えること
ができる。さらに、被検体が固定的になっている時に
は、事前に被検体の3次元位置姿勢を計測し、この情報
をセンサ情報記憶部に蓄え、被ナビゲーション対象物と
の相対的3次元位置姿勢の演算に利用することで、シス
テム稼動時は被ナビゲーション対象物の3次元位置姿勢
を計測するだけで良くなる。
The three-dimensional position and orientation measurement means is replaced with a generally well-known three-dimensional position and orientation measurement method such as a method using a magnetic sensor or a method using a mechanical link, a joint, an encoder or a potentiometer. be able to. Furthermore, when the subject is fixed, the three-dimensional position and orientation of the subject are measured in advance, this information is stored in the sensor information storage unit, and the calculation of the relative three-dimensional position and orientation with respect to the navigation target is performed. When the system is operating, it is only necessary to measure the three-dimensional position and orientation of the navigation target.

【0048】また、対象部位の外形情報を表現するワイ
ヤフレームは、ポリゴンなどの3次元コンピュータグラ
フィックスで用いられる様々な表現方法に置き換えるこ
とができる。あるいは、視線方向に対する輪郭線、等距
離線でも良い。
Further, the wire frame expressing the outer shape information of the target part can be replaced by various expression methods used in three-dimensional computer graphics such as polygons. Alternatively, a contour line or an equidistant line with respect to the viewing direction may be used.

【0049】また、被ナビゲーション対象物である内視
鏡3は、複数であっても構わない。さらに、被ナビゲー
ション対象物としては、処置具などの観察手段を持たな
い物であっても構わない。
The endoscope 3 which is the object to be navigated may be plural. Further, the navigation target object may be an object having no observation means such as a treatment tool.

【0050】また、対象部位が観察範囲内にあるかどう
かの判断は、上記方法に限定されるものではない。
The determination as to whether the target site is within the observation range is not limited to the above method.

【0051】さらに、被ナビゲーション対象物と対象部
位との相対的距離の算出方法は、距離マップに限らず、
被ナビゲーション対象物の代表点と対象部位の代表点と
の距離を、一般的に知られている3次元空間における点
と点の距離の算出方法で求めても良い。
The method of calculating the relative distance between the navigation target and the target site is not limited to the distance map.
The distance between the representative point of the navigation target and the representative point of the target portion may be obtained by a generally known method of calculating the distance between points in a three-dimensional space.

【0052】また、距離による色の変化は、上記の様な
ある値を境界値とした変化だけではなく、複数の境界値
による段階的な変化でも、連続的な変化でも良い。
Further, the color change due to the distance may be not only a change using a certain value as a boundary value as described above, but also a stepwise change due to a plurality of boundary values or a continuous change.

【0053】同様に、距離による線の太さの変化は、上
記の様なある値を境界値とした変化だけではなく、複数
の境界値による段階的な変化でも、連続的な変化でも良
い。
Similarly, the change in the line thickness depending on the distance may be not only a change using a certain value as a boundary value as described above, but also a stepwise change due to a plurality of boundary values or a continuous change.

【0054】また、色を透過色、線の太さを0とするこ
とで、ナビゲーション情報の表示を実質的に行わなくて
も良い。
By setting the color to be a transparent color and the line thickness to be 0, it is not necessary to substantially display the navigation information.

【0055】さらに、距離によるモデル像の描画の粗密
の変化は、上記の様な複数の粗さの違うデータを用意
し、それを切り替える方法ではなく、単一データから連
続的に変化させても良い。
Further, the variation of the density of the model image drawing depending on the distance is not determined by preparing a plurality of data having different roughnesses as described above and switching the data, but by continuously changing the data from a single data. good.

【0056】また、対象部位が観察範囲外にある時に表
示されるパターンは、矢印21に限らず、三角形、丸、
棒などでも良く、距離の大きさは、形状の大きさで表現
してもよい。
The pattern displayed when the target portion is out of the observation range is not limited to the arrow 21 but may be a triangle, a circle,
A rod or the like may be used, and the magnitude of the distance may be represented by the magnitude of the shape.

【0057】さらに、距離による矢印21の大きさの変
化は、上記のような連続的な変化だけでなく、ある設定
値による段階的な変化でも良い。
Further, the change in the size of the arrow 21 due to the distance may be not only a continuous change as described above, but also a stepwise change due to a certain set value.

【0058】また、対象部位のデータは、単一のデータ
から実行時に描画の粗さを決定する手段を加えれば、予
め解像度別に分けて蓄えておく必要はない。
Further, the data of the target portion need not be stored separately for each resolution if a means for determining the roughness of the drawing at the time of execution is added from a single data.

【0059】さらに、計測不能状態を示すナビゲーショ
ン情報は、文字情報28、もしくは枠29の一方でも良
い。
Further, the navigation information indicating the measurement impossible state may be one of the character information 28 or the frame 29.

【0060】また、ナビゲーション情報の属性である色
や線の太さ、モデル像の描画の粗さ、パターンの大き
さ、距離による変化の際の境界値、計測不能状態を示す
ナビゲーション情報の文字情報28の文字列は、使用者
が定義できるようにしても良い。
Also, the color information and line thickness as attributes of the navigation information, the roughness of the drawing of the model image, the size of the pattern, the boundary value at the time of the change due to the distance, and the character information of the navigation information indicating the measurement impossible state The character string of 28 may be defined by the user.

【0061】[第2の実施の形態]次に、本発明の第2
の実施の形態を説明する。
[Second Embodiment] Next, a second embodiment of the present invention will be described.
An embodiment will be described.

【0062】図11はその構成を示す図で、本実施の形
態においては、上記第1の実施の形態の構成と以下の点
を除いて、同様に構成されている。
FIG. 11 is a diagram showing the configuration. In this embodiment, the configuration is the same as that of the first embodiment except for the following points.

【0063】即ち、内視鏡3は、光学系の撮影情報をナ
ビゲーション情報制御部8へ渡す必要がない。本実施の
形態においては、内視鏡3を挿入すべき径路(最小侵襲
経路)を表現するベクトル24が、データとして、予め
ナビゲーション情報記憶部9に蓄えられている。そし
て、内視鏡3の先端と後端の座標値25が、内視鏡3に
固定的に取り付けられたセンシングプレート4で規定さ
れる座標系に対して求められており、ナビゲーション情
報記憶部9に蓄えられている。
That is, the endoscope 3 does not need to pass the photographing information of the optical system to the navigation information control unit 8. In the present embodiment, a vector 24 representing a path (minimally invasive path) into which the endoscope 3 is to be inserted is stored in advance in the navigation information storage unit 9 as data. Then, the coordinate values 25 of the front end and the rear end of the endoscope 3 are obtained with respect to the coordinate system defined by the sensing plate 4 fixedly attached to the endoscope 3, and the navigation information storage unit 9 It is stored in.

【0064】次に、このような構成における作用を説明
する。
Next, the operation in such a configuration will be described.

【0065】本実施の形態に係るナビゲーション装置の
動作中、センサ制御部6は、センシングプレート2,4
の各赤外線LEDの3次元位置を計測し、センサ情報記
憶部5に蓄えられたLED定義データを用いて、センシ
ングプレート2,4の3次元位置姿勢を算出する。この
3次元位置姿勢情報より、被検体1の頭部に取り付けら
れたセンシングプレート2から内視鏡3に取り付けられ
たセンシングプレート4への座標変換行列17が算出さ
れる。この座標変換行列17と前述の座標変換行列1
4,15、及び上記座標値25より、対象部位のデータ
に対する内視鏡3の位置と姿勢が求められる。
During operation of the navigation apparatus according to the present embodiment, the sensor control unit 6
The three-dimensional position of each infrared LED is measured, and the three-dimensional position and orientation of the sensing plates 2 and 4 are calculated using the LED definition data stored in the sensor information storage unit 5. From this three-dimensional position and orientation information, a coordinate conversion matrix 17 from the sensing plate 2 attached to the head of the subject 1 to the sensing plate 4 attached to the endoscope 3 is calculated. This coordinate transformation matrix 17 and the aforementioned coordinate transformation matrix 1
The position and orientation of the endoscope 3 with respect to the data of the target site are obtained from the coordinates 4, 15 and the coordinate value 25.

【0066】ナビゲーション情報制御部8は、図12に
示すように、患部を含む3次元ボリュームデータ11の
三切断面像26と、その断面に投影される内視鏡3の正
射影像27をナビゲーション情報として生成し、液晶モ
ニタ13にて表示する。例えば、患部の代表点の座標が
(260,180,280)と表されたとすると、3次
元ボリュームデータ11の三切断面像26はx=260
のYZ平面、y=180のZX平面、z=280のXY
平面となる。
As shown in FIG. 12, the navigation information control unit 8 navigates the three-section plane image 26 of the three-dimensional volume data 11 including the affected part and the orthographic projection image 27 of the endoscope 3 projected on its cross section. It is generated as information and displayed on the liquid crystal monitor 13. For example, if the coordinates of the representative point of the affected part are represented as (260, 180, 280), the three-section image 26 of the three-dimensional volume data 11 is x = 260.
YZ plane, y = 180 ZX plane, z = 280 XY
It becomes a plane.

【0067】内視鏡3の先端位置を用いて上記距離マッ
プ12を参照することにより、対象部位と内視鏡3の先
端との相対的な距離が求められる。
The relative distance between the target part and the end of the endoscope 3 can be obtained by referring to the distance map 12 using the position of the end of the endoscope 3.

【0068】そして、本実施の形態においては、内視鏡
3の正射影像27及び三切断面像26は、対象部位と内
視鏡3の先端との相対的な距離に応じて色を連続的に変
化させる。また、内視鏡3の正射影像27は、対象部位
と内視鏡3の先端との相対的な距離に応じて、図13に
示すように、線の太さを連続的に変化させる。これらの
変化により、使用者は、内視鏡3の対象部位への接近を
容易に把握することができる。
In the present embodiment, the orthographic projection image 27 and the three-section plane image 26 of the endoscope 3 are continuously colored in accordance with the relative distance between the target part and the end of the endoscope 3. Change. The orthographic image 27 of the endoscope 3 continuously changes the thickness of the line as shown in FIG. 13 according to the relative distance between the target site and the end of the endoscope 3. By these changes, the user can easily grasp the approach of the endoscope 3 to the target portion.

【0069】また、内視鏡3の先端位置と後端位置の座
標値25により求められる内視鏡3の姿勢は、挿入すべ
き径路を表現するベクトル24のデータと比較され、あ
る設定値(例えば、10度)以上の傾きが存在する場合
には、内視鏡3の正射影像27の色と線の太さを変化さ
せる。この変化により、使用者は、現在の内視鏡3の挿
入方向が挿入すべき方向として定義された方向からずれ
たことを、容易に把握することができる。
The posture of the endoscope 3 obtained from the coordinate values 25 of the front end position and the rear end position of the endoscope 3 is compared with data of a vector 24 representing a path to be inserted, and a certain set value ( If there is an inclination of 10 degrees or more, the color and line thickness of the orthographic image 27 of the endoscope 3 are changed. Due to this change, the user can easily grasp that the current insertion direction of the endoscope 3 has deviated from the direction defined as the insertion direction.

【0070】なお、本第2の実施の形態の各構成は、当
然、各種の変形、変更が可能である。
It is to be noted that each configuration of the second embodiment can be variously modified and changed.

【0071】例えば、ナビゲーション対象とする部位は
上記対象部位に限らず、被検体の外形形状情報、内部断
層像情報より作成される任意の部位とすることができ
る。また、実際に被検体が存在せず、仮想の被検体の頭
部にセンシングプレートが取り付けられているとして、
シミュレーションを行うことも可能である。
For example, the part to be navigated is not limited to the above-described part, but may be any part created from the external shape information of the subject and the internal tomographic image information. Also, assuming that the subject does not actually exist and the sensing plate is attached to the head of the virtual subject,
It is also possible to perform a simulation.

【0072】また、3次元位置姿勢計測手段は、磁気セ
ンサを用いた方式や、機械的なリンクとジョイントとエ
ンコーダーやポテンショメータを用いた方式など、一般
によく知られた3次元位置姿勢計測方式へ置き換えるこ
とができる。被ナビゲーション対象物との相対的3次元
位置姿勢の演算に利用することで、システム稼動時は被
ナビゲーション対象物の3次元位置姿勢を計測するだけ
で良くなる。
The three-dimensional position and orientation measuring means is replaced with a generally well-known three-dimensional position and orientation measurement method such as a method using a magnetic sensor or a method using a mechanical link, a joint, an encoder or a potentiometer. be able to. By using the calculation for calculating the relative three-dimensional position and orientation with respect to the navigation target, it is only necessary to measure the three-dimensional position and orientation of the navigation target when the system is operating.

【0073】また、被ナビゲーション対象物は複数であ
っても構わない。さらに、被ナビゲーション対象物とし
ては機械的な形状が計測できるものであれば、内視鏡3
に限らず、吸引管やピンセットなど他のものへ置き換え
ることができる。
Further, there may be a plurality of navigation target objects. Furthermore, if the object to be navigated can measure a mechanical shape, the endoscope 3
However, the present invention is not limited to this, and can be replaced with another thing such as a suction tube or tweezers.

【0074】また、内視鏡3先端の座標は機械的な先端
に一致している必要はなく、仮想的に先端が長くなって
いるとしたデータを与えても良い。さらに、機械的な先
端位置からの延長量をパラメータとする式で先端座標を
与え、使用者により指定された延長量に基づく先端座標
を逐次求める形式でも良い。
The coordinates of the end of the endoscope 3 do not need to coincide with the mechanical end, and data indicating that the end of the endoscope 3 is virtually longer may be given. Further, the tip coordinates may be given by a formula using the extension amount from the mechanical tip position as a parameter, and the tip coordinates based on the extension amount designated by the user may be sequentially obtained.

【0075】また、距離による色の変化は、上記の様な
連続的な変化だけではなく、ある値を境界値とした変化
でも、複数の境界値による段階的な変化でも良い。
Further, the color change due to the distance may be not only a continuous change as described above, but also a change using a certain value as a boundary value or a stepwise change using a plurality of boundary values.

【0076】同様に、距離による線の太さの変化は、上
記の様な連続的な変化だけではなく、ある値を境界値と
した変化でも、複数の境界値による段階的な変化でも良
い。
Similarly, the change in the line thickness depending on the distance may be not only a continuous change as described above, but also a change with a certain value as a boundary value or a stepwise change with a plurality of boundary values.

【0077】また、傾きの大きさの演算方法は、本方法
に限定されるものではない。
The method of calculating the magnitude of the inclination is not limited to this method.

【0078】さらに、ナビゲーション情報の属性である
色や線の太さ、距離による変化の際の境界値を、使用者
が定義できるようにしても良い。
Further, the user may be able to define the boundary value when the attribute is changed due to the color, line thickness, or distance, which is the attribute of the navigation information.

【0079】また、被ナビゲーション対象物は、顕微鏡
であっても良い。この場合、顕微鏡の焦点距離を顕微鏡
本体から取得し、これを本実施の形態中の内視鏡3先端
の座標とすることにより、焦点位置をナビゲーション対
象の点とすることができる。
The navigation object may be a microscope. In this case, by obtaining the focal length of the microscope from the microscope main body and using this as the coordinates of the tip of the endoscope 3 in the present embodiment, the focal position can be set as a point to be navigated.

【0080】以上実施の形態に基づいて本発明を説明し
たが、本発明は上述した実施の形態に限定されるもので
はなく、本発明の要旨の範囲内で種々の変形や応用が可
能である。ここで、本発明の要旨をまとめると以下のよ
うになる。
Although the present invention has been described based on the above embodiments, the present invention is not limited to the above embodiments, and various modifications and applications are possible within the scope of the present invention. . Here, the summary of the present invention is as follows.

【0081】(1) 対象物を目標へナビゲートする情
報を生成するナビゲーション装置であり、上記目標と上
記対象物の3次元位置姿勢を計測する3次元位置姿勢計
測手段と、上記3次元位置姿勢計測手段の計測結果に基
づいて、ナビゲーションに必要な情報を生成する情報生
成手段と、上記情報生成手段で生成した情報を表示する
表示手段と、を具備し、上記表示手段は、上記対象物と
上記目標の距離情報、上記対象物から上記目標への方向
情報、上記対象物又は上記目標が上記3次元位置姿勢計
測手段の計測範囲内に位置するかの情報のうち少なくと
も一つの情報に応じて、複数の表示形態より選択された
表示形態でナビゲーション情報を表示することを特徴と
するナビゲーション装置。
(1) A navigation device for generating information for navigating a target to a target, a three-dimensional position / posture measuring means for measuring the three-dimensional position / posture of the target and the target, and the three-dimensional position / posture Based on the measurement result of the measuring means, information generating means for generating information necessary for navigation, and display means for displaying the information generated by the information generating means, the display means, the object and According to at least one of information on the distance information of the target, direction information from the target to the target, and information on whether the target or the target is located within the measurement range of the three-dimensional position and orientation measurement means. A navigation device displaying navigation information in a display mode selected from a plurality of display modes.

【0082】この(1)に記載の構成に関する実施の形
態は、上記第1及び第2の実施の形態が対応する。即
ち、上記第1及び第2の実施の形態では、上記目標は、
被検体1、手術対象となる患部、手術において注意すべ
き部位が該当するが、実体が存在する被検体に限らず、
予め取得した実在の目標物の画像情報から再構成された
2次元、又は3次元のモデル像として表示される仮想の
目標物も含む。また、上記被ナビゲーション対象物は、
内視鏡3が該当するが、目標物に対して観察や操作を行
うための吸引管やピンセット等の処置具なども含む。上
記3次元位置姿勢計測手段は、赤外線LEDを用いたセ
ンサ(センシングプレート2,4、センサアセンブリ
7、センサ情報記憶部5、センサ制御部6)が該当する
が、磁気センサを用いた方式や、機械的なリンクとジョ
イントとエンコーダやポテンショメータを用いた方式な
ど、一般によく知られた3次元位置姿勢計測方式も含
む。上記情報生成手段は、ナビゲーション情報記憶部9
とナビゲーション情報制御部8が該当する。上記表示手
段は、液晶モニタ13が該当するが、CRTディスプレ
イやヘッドマウントディスプレイなどの映像情報表示装
置も含む。なお、「複数の表示形態」という用語は、本
明細書では、ナビゲーション情報を表示する際の色、線
の太さ、描画される大きさ、及び描画の疎密を意味して
いる。
The embodiment relating to the configuration described in (1) corresponds to the first and second embodiments. That is, in the first and second embodiments, the target is:
The subject 1, the affected area to be operated on, the site to be careful in the operation correspond, but not limited to the subject in which the entity exists,
A virtual target displayed as a two-dimensional or three-dimensional model image reconstructed from image information of a real target acquired in advance is also included. The navigation target object is
The endoscope 3 corresponds, but also includes a treatment tool such as a suction tube and tweezers for observing and operating a target. The three-dimensional position and orientation measurement means corresponds to a sensor using an infrared LED (sensing plates 2 and 4, a sensor assembly 7, a sensor information storage unit 5, and a sensor control unit 6). A well-known three-dimensional position and orientation measurement method such as a method using a mechanical link, a joint, an encoder, and a potentiometer is also included. The information generating means includes a navigation information storage unit 9
And the navigation information control unit 8. The display means corresponds to the liquid crystal monitor 13, but also includes a video information display device such as a CRT display or a head mounted display. In this specification, the term “plurality of display forms” means colors, line thicknesses, drawn sizes, and density of the navigation information when displaying the navigation information.

【0083】この(1)に記載の構成によれば、目標と
対象物は3次元位置姿勢計測手段により、3次元空間上
の相対的な位置と姿勢を計測される。情報生成手段で
は、この3次元位置姿勢計測手段の計測結果に基づい
て、ナビゲーションに必要な情報を生成する。表示手段
では、この情報生成手段で生成したナビゲーション情報
として、上記対象物と上記目標の距離情報、上記対象物
から上記目標への方向情報、上記対象物又は上記目標が
上記3次元位置姿勢計測手段の計測範囲内に位置するか
の情報のうち少なくとも一つの情報に応じて、複数の表
示形態より選択された表示形態でナビゲーション情報を
表示する。この結果、使用者は、目標と対象物との距
離、対象物から目標への方向、対象物又は目標が上記3
次元位置姿勢計測手段の計測範囲内に位置するかを、容
易に把握することができる。
According to the configuration described in (1), the relative position and posture of the target and the object in the three-dimensional space are measured by the three-dimensional position and posture measuring means. The information generating means generates information necessary for navigation based on the measurement result of the three-dimensional position and orientation measuring means. The display means includes, as the navigation information generated by the information generation means, distance information between the object and the target, direction information from the object to the target, the object or the target being the three-dimensional position and orientation measurement means. The navigation information is displayed in a display mode selected from a plurality of display modes in accordance with at least one of the information items indicating whether the navigation information is located within the measurement range. As a result, the user determines whether the distance between the target and the target, the direction from the target to the target, the target or the target is the above-mentioned 3rd.
It can be easily grasped whether the position is within the measurement range of the three-dimensional position and orientation measurement means.

【0084】(2) 上記表示手段は、上記3次元位置
計測手段により上記目標及び上記対象物が計測可能な場
合は、上記目標又は上記対象物の外形形状情報、上記目
標物の内部断層情報、上記目標または上記対象物の方
向、上記目標物への距離情報のうち、少なくとも一つを
表示し、それ以外の場合は、計測不能であることを示す
情報を表示することを特徴とする上記(1)に記載のナ
ビゲーション装置。
(2) When the target and the object can be measured by the three-dimensional position measuring means, the display means includes external shape information of the target or the object, internal tomographic information of the target, At least one of the direction of the target or the target and the distance information to the target is displayed, and in other cases, information indicating that measurement is impossible is displayed. The navigation device according to 1).

【0085】この(2)に記載の構成に関する実施の形
態は、上記第1及び第2の実施の形態が対応する。即
ち、上記外形形状情報は、第1の実施の形態ではワイヤ
フレーム3次元モデルデータ10が該当するが、外形形
状を表現できるモデルデータであれば一般的な3次元コ
ンピュータグラフィックスで用いられるデータ構造も含
む。また、第2の実施の形態では、内視鏡3の正射影像
27を表現する線が該当するが、外形形状を表現できる
ものであれば一般的な3次元コンピュータグラフィック
スで用いられる表現方法も含む。上記内部断層情報は、
第1及び第2の実施の形態では、対象部位の3次元ボリ
ュームデータ11が該当するが、2次元ピクセルデータ
が複数存在する形態も含む。上記対象物の方向は、第1
の実施の形態では矢印21が該当するが、三角形や丸等
の2次元幾何学図形や円錐等の3次元幾何学図形や画像
データ等視覚的に確認できるものを含む。上記目標物へ
の距離情報は、第1の実施の形態では患部への距離を示
す数字31が該当するが、任意の目標物への距離を示す
数字を含む。あるいは、これは、第1の実施の形態では
患部への距離を示す棒30が該当するが、三角形や丸等
の2次元幾何学図形や円柱等の3次元幾何学図形や画像
データ等視覚的に確認できるものを含む。
The embodiment relating to the configuration described in (2) corresponds to the first and second embodiments. That is, the outer shape information corresponds to the wire frame three-dimensional model data 10 in the first embodiment, but any data structure used in general three-dimensional computer graphics as long as the model data can express the outer shape. Including. Further, in the second embodiment, a line expressing the orthogonally projected image 27 of the endoscope 3 corresponds to the line. However, as long as it can express the external shape, an expression method used in general three-dimensional computer graphics is used. Including. The internal fault information is
In the first and second embodiments, the three-dimensional volume data 11 of the target part corresponds, but a mode in which a plurality of two-dimensional pixel data exist is also included. The direction of the object is the first
In the embodiment of the present invention, the arrow 21 corresponds, but includes a two-dimensional geometric figure such as a triangle or a circle, a three-dimensional geometric figure such as a cone, and image data such as image data. In the first embodiment, the distance information to the target corresponds to the numeral 31 indicating the distance to the affected part, but includes the numeral indicating the distance to an arbitrary target. Alternatively, this corresponds to the rod 30 indicating the distance to the diseased part in the first embodiment, but it may be a two-dimensional geometric figure such as a triangle or a circle, a three-dimensional geometric figure such as a cylinder, or a visual data such as image data. Including those that can be confirmed.

【0086】また、上記計測不能であることを示す情報
は、第1の実施の形態では「計測不能状態」という文字
情報28が該当するが、これは計測不能な状態を表現す
る任意の文字情報を含む。あるいは、これは、第1の実
施の形態では黄色で太さ60ピクセルの枠29が該当す
るが、計測不能を示すことを定義された任意の記号的パ
ターンを含む。
In the first embodiment, the information indicating that measurement is not possible corresponds to the character information 28 of “measurement impossible state”, but this is arbitrary character information expressing the measurement impossible state. including. Alternatively, this includes any symbolic pattern that is defined as indicating a non-measurable, although in the first embodiment the frame 29 is yellow and has a thickness of 60 pixels.

【0087】(3) 上記対象物は撮像手段を具備し、
上記表示手段は、上記撮像手段で撮像した画像と上記ナ
ビゲーション情報を重畳して表示可能であることを特徴
とする上記(1)に記載のナビゲーション装置。
(3) The object has an image pickup means,
The navigation device according to (1), wherein the display unit is capable of displaying an image captured by the imaging unit and the navigation information in a superimposed manner.

【0088】この(3)に記載の構成に関する実施の形
態は、上記第1の実施の形態が対応する。即ち、上記撮
像手段を有する対象物は、第1の実施の形態では内視鏡
3が該当するが、顕微鏡なども含む。また、上記表示手
段は、第1の実施の形態では液晶モニタ13が該当する
が、CRTディスプレイやヘッドマウントディスプレイ
などの映像情報表示装置も含む。
The embodiment relating to the configuration described in (3) corresponds to the first embodiment. That is, in the first embodiment, the object having the imaging means corresponds to the endoscope 3, but also includes a microscope. The display means corresponds to the liquid crystal monitor 13 in the first embodiment, but also includes a video information display device such as a CRT display or a head mounted display.

【0089】この(3)に記載の構成によれば、上記
(1)に記載の対象物が撮像手段を有しており、この撮
像手段から得られる画像と上記(1)に記載の情報生成
手段より得られるナビゲーション情報を重畳して表示す
る。即ち、表示手段上で、実際の画像とナビゲーション
情報を同一の空間上の情報として得られることにより、
使用者は、まだ見えぬ実体の位置や形状や状態をナビゲ
ーション情報から容易に把握することができる。
According to the configuration described in (3), the object described in (1) has an imaging unit, and the image obtained from the imaging unit and the information generation unit described in (1) are used. The navigation information obtained by the means is superimposed and displayed. That is, by obtaining the actual image and the navigation information as information on the same space on the display means,
The user can easily grasp the position, shape, and state of the invisible entity from the navigation information.

【0090】(4) 上記目標と上記対象物の距離又は
方向に応じて、上記ナビゲーション情報の表示色を異な
らせることを特徴とする上記(1)乃至(3)の何れか
に記載のナビゲーション装置。
(4) The navigation device according to any one of (1) to (3), wherein the display color of the navigation information is changed according to the distance or direction between the target and the object. .

【0091】この(4)に記載の構成に関する実施の形
態は、上記第1及び第2の実施の形態が対応する。即
ち、上記ナビゲーション情報の表示色は、第1の実施の
形態ではモニタ上に描画される対象部位のワイヤフレー
ム像18、及び内部断層像19が該当するが、第1の実
施の形態での矢印21も含む。また、第2の実施の形態
では、モニタ上に描画される対象部位の三切断面像26
や内視鏡3の正射影像27が該当する。
The embodiment relating to the configuration described in (4) corresponds to the above-described first and second embodiments. That is, the display color of the navigation information corresponds to the wire frame image 18 and the internal tomographic image 19 of the target part drawn on the monitor in the first embodiment, but the arrow in the first embodiment. 21 is also included. In the second embodiment, the three-section image 26 of the target portion drawn on the monitor is displayed.
And the orthographic projection image 27 of the endoscope 3.

【0092】この(4)に記載の構成によれば、上記3
次元位置姿勢計測手段により計測された上記目標と上記
対象物の相対的な距離に応じてナビゲーション情報の色
が変化することにより、使用者は、相対的な距離が近付
き過ぎたことなどを視覚的に容易に把握することができ
る。また、相対的な方向に応じてナビゲーション情報の
色を変化させることにより、使用者は、相対的な方向が
ずれていることなどを視覚的に容易に把握することがで
きる。あるいは、相対的な距離と方向を同時に評価して
色を変化させることで、使用者は、相対的な距離と方向
の状態を視覚的に容易に把握することができる。
According to the configuration described in (4), the above 3
By changing the color of the navigation information according to the relative distance between the target and the object measured by the three-dimensional position and orientation measuring means, the user can visually recognize that the relative distance is too close. Can be easily grasped. In addition, by changing the color of the navigation information according to the relative direction, the user can easily visually recognize that the relative direction is deviated. Alternatively, the user can visually and easily grasp the state of the relative distance and direction by simultaneously evaluating the relative distance and direction and changing the color.

【0093】(5) 上記目標と上記対象物の距離又は
方向に応じて、上記ナビゲーション情報の表示において
線の太さを異ならせることを特徴とする上記(1)乃至
(3)の何れかに記載のナビゲーション装置。
(5) In any one of the above (1) to (3), the thickness of a line is varied in displaying the navigation information according to the distance or direction between the target and the object. A navigation device as described.

【0094】この(5)に記載の構成に関する実施の形
態は、上記第1及び第2の実施の形態が対応する。即
ち、上記ナビゲーション情報の線の太さは、第1の実施
の形態ではモニタ上に描画される対象部位のワイヤフレ
ーム像18が該当するが、第1の実施の形態での矢印2
1も含む。第2の実施の形態では、モニタ上に描画され
る内視鏡3の正射影像27が該当する。
The embodiment relating to the configuration described in (5) corresponds to the first and second embodiments. That is, the line thickness of the navigation information corresponds to the wire frame image 18 of the target portion drawn on the monitor in the first embodiment, but the arrow 2 in the first embodiment corresponds to the thickness of the line.
1 is also included. In the second embodiment, this corresponds to the orthographic image 27 of the endoscope 3 drawn on the monitor.

【0095】この(5)に記載の構成によれば、上記3
次元位置姿勢計測手段により計測された上記目標と上記
対象物の相対的な距離に応じてナビゲーション情報の線
の太さが変化することにより、使用者は、相対的な距離
が近付き過ぎたことなどを視覚的に容易に把握すること
ができる。また、相対的な方向に応じてナビゲーション
情報の線の太さを変化させることにより、使用者は、相
対的な方向がずれていることなどを視覚的に容易に把握
することができる。あるいは、相対的な距離と方向を同
時に評価して線の太さを変化させることで、使用者は、
相対的な距離と方向の状態を視覚的に容易に把握するこ
とができる。
According to the configuration described in (5), the above-mentioned 3
By changing the thickness of the navigation information line according to the relative distance between the target and the object measured by the three-dimensional position and orientation measurement means, the user may be notified that the relative distance is too close. Can be easily grasped visually. Further, by changing the thickness of the line of the navigation information according to the relative direction, the user can easily visually recognize that the relative direction is shifted or the like. Alternatively, by simultaneously evaluating the relative distance and direction and changing the line thickness, the user can
The state of the relative distance and direction can be easily grasped visually.

【0096】(6) 上記目標と上記対象物の距離に応
じて、上記表示手段に上記目標の外形形状モデルと上記
目標の内部断層画像を択一的に表示することを特徴とす
る上記(1)乃至(3)の何れかに記載のナビゲーショ
ン装置。
(6) According to the distance (1), the target external shape model and the target internal tomographic image are selectively displayed on the display means according to the distance between the target and the object. The navigation device according to any one of (1) to (3).

【0097】この(6)に記載の構成に関する実施の形
態は、上記第1の実施の形態が対応する。即ち、上記外
形形状モデルは、第1の実施の形態ではワイヤフレーム
像18が該当するが、ポリゴンなどの3次元コンピュー
タグラフィックスで用いられる様々な表現方法や視線方
向に対する輪郭線、等距離線も含む。また、上記内部断
層像は、第1の実施の形態では内部断層像19が該当す
る。
The embodiment relating to the configuration described in (6) corresponds to the first embodiment. That is, in the first embodiment, the outer shape model corresponds to the wireframe image 18, but various expression methods used in three-dimensional computer graphics such as polygons, and contour lines and equidistant lines with respect to the line of sight are also included. Including. The internal tomographic image corresponds to the internal tomographic image 19 in the first embodiment.

【0098】この(6)に記載の構成によれば、上記3
次元位置姿勢計測手段により計測された上記目標と上記
対象物の相対的な距離に応じて目標の外形形状モデルと
内部断層像とが切り替わることにより、使用者は、対象
物が目標の近くに位置していることを容易に把握するこ
とができる。また、設定された距離の内部と外部という
異なる状態に応じた情報を容易に得ることができる。
According to the configuration described in (6), the above 3
By switching between the target external shape model and the internal tomographic image in accordance with the relative distance between the target and the target measured by the three-dimensional position and orientation measurement means, the user can position the target near the target. You can easily grasp what you are doing. Further, information according to different states of the inside and outside of the set distance can be easily obtained.

【0099】(7) 上記目標と上記対象物の距離に応
じて、上記表示手段に目標モデル画像を描写の粗さを違
えて表示することを特徴とする上記(1)乃至(3)の
何れかに記載のナビゲーション装置。
(7) According to any one of the above (1) to (3), the target model image is displayed on the display means with different depiction roughness in accordance with the distance between the target and the object. The navigation device according to any one of the above.

【0100】この(7)に記載の構成に関する実施の形
態は、上記第1の実施の形態が対応する。即ち、上記目
標モデル画像は、第1の実施の形態ではワイヤフレーム
像18が該当するが、ポリゴンなどの3次元コンピュー
タグラフィックスで用いられる様々な表現方法や視線方
向に対する輪郭線、等距離線も含む。
An embodiment relating to the configuration described in (7) corresponds to the first embodiment. That is, the target model image corresponds to the wire frame image 18 in the first embodiment. However, various expression methods used in three-dimensional computer graphics such as polygons, and contour lines and equidistant lines with respect to the line of sight are also used. Including.

【0101】この(7)に記載の構成によれば、目標モ
デル画像の描画の疎密が、目標と対象物の相対的な距離
に応じて、例えば遠くにある時には粗く、近くにある時
には細かく変化することにより、目標モデル画像描画の
負荷と表示する情報量とのバランスをとることができ
る。このことにより、使用者は、適当な描画速度で適当
な情報量を距離に応じて得ることができる。
According to the configuration described in (7), the density of the drawing of the target model image varies depending on the relative distance between the target and the object, for example, coarse when the distance is far and fine when the distance is short. By doing so, it is possible to balance the load of drawing the target model image with the amount of information to be displayed. Thus, the user can obtain an appropriate amount of information at an appropriate drawing speed according to the distance.

【0102】(8) 上記目標と上記対象物の距離に応
じて、上記表示手段に、上記目標を表す画像と上記目標
の方向情報を択一的に表示することを特徴とする上記
(1)乃至(3)の何れかに記載のナビゲーション装
置。
(8) According to the feature (1), an image representing the target and directional information of the target are alternatively displayed on the display means according to the distance between the target and the object. The navigation device according to any one of (1) to (3).

【0103】この(8)に記載の構成に関する実施の形
態は、上記第1の実施の形態が対応する。即ち、上記目
標を表す画像は、第1の実施の形態ではワイヤフレーム
像18が該当するが、ポリゴンなどの3次元コンピュー
タグラフィックスで用いられる様々な表現方法や視線方
向に対する輪郭線、等距離線や内部断層像情報も含む。
また、上記目標の方向情報は、第1の実施の形態では矢
印21が該当するが、三角形や丸等の2次元幾何学図形
や円錐等の3次元幾何学図形や画像データ等視覚的に確
認できるものを含む。
The embodiment relating to the configuration described in (8) corresponds to the first embodiment. In other words, the image representing the target corresponds to the wire frame image 18 in the first embodiment, but various expression methods used in three-dimensional computer graphics such as polygons, contour lines for the line of sight, and equidistant lines. And internal tomographic image information.
In the first embodiment, the direction information of the target corresponds to the arrow 21 in the first embodiment, but is visually confirmed by a two-dimensional geometric figure such as a triangle or a circle, a three-dimensional geometric figure such as a cone, or image data. Including what can be done.

【0104】この(8)に記載の構成によれば、目標と
対象物との相対的な距離と方向から、上記表示手段の表
示領域に対する位置関係を上記情報生成手段にて算出
し、例えば表示領域に目標を表す画像が描画されない場
合は目標の方向情報ヘ切り替えることで、使用者は、目
標や対象物の位置や方向を見失うことなく把握すること
ができる。
According to the configuration described in (8), the positional relationship of the display means with respect to the display area is calculated by the information generation means from the relative distance and direction between the target and the object. When the image representing the target is not drawn in the area, switching to the direction information of the target allows the user to grasp the position and direction of the target and the target object without losing sight.

【0105】(9) 上記目標と上記対象物の距離に応
じて、上記表示手段に、上記目標の方向情報を少なくと
も大きさ・形状の何れかが異なる記号で表示することを
特徴とする上記(1)乃至(3)の何れかに記載のナビ
ゲーション装置。
(9) The direction information of the target is displayed on the display means in accordance with the distance between the target and the object with a symbol having at least any one of a size and a shape different from the target. The navigation device according to any one of (1) to (3).

【0106】この(9)に記載の構成に関する実施の形
態は、上記第1の実施の形態が対応する。即ち、上記記
号は、第1の実施の形態では矢印21が該当するが、三
角形や丸等の2次元幾何学図形や円錐等の3次元幾何学
図形や画像データ等視覚的に確認できるものを含む。
The embodiment relating to the configuration described in (9) corresponds to the first embodiment. That is, the symbol corresponds to the arrow 21 in the first embodiment, but a symbol that can be visually confirmed such as a two-dimensional geometric figure such as a triangle or a circle, a three-dimensional geometric figure such as a cone, or image data. Including.

【0107】この(9)に記載の構成によれば、記号の
大きさ又は形状で上記目標と上記対象物の相対的な距離
を表現することにより、使用者は、方向だけでなく距離
も視覚的に容易に把握することができる。
According to the configuration described in (9), by expressing the relative distance between the target and the object by the size or shape of the symbol, the user can visually recognize not only the direction but also the distance. Can be easily grasped.

【0108】(10) ナビゲーションの目標物と、上
記目標物に対してナビゲーションされる被ナビゲーショ
ン対象物と、上記目標物及び/又は上記被ナビゲーショ
ン対象物の3次元位置姿勢を計測する3次元位置姿勢計
測手段と、上記3次元位置姿勢計測手段により計測され
る計測情報に基づいて、ナビゲーション情報を生成制御
する情報算出手段と、上記情報算出手段により生成制御
されたナビゲーション情報を表示する情報表示手段と、
から構成されるナビゲーション装置において、上記情報
算出手段は、上記3次元位置姿勢計測手段により計測さ
れた上記目標物と上記被ナビゲーション対象物の相対的
な距離及び/又は方向、及び/又は計測の可否に応じ
て、ナビゲーション情報の属性又は種類を、計測結果の
視覚的表現となるように変化させることを特徴とするナ
ビゲーション装置。
(10) A target for navigation, an object to be navigated with respect to the target, and a three-dimensional position and orientation for measuring the three-dimensional position and orientation of the target and / or the object to be navigated A measuring means, an information calculating means for generating and controlling navigation information based on the measurement information measured by the three-dimensional position and orientation measuring means, and an information displaying means for displaying the navigation information generated and controlled by the information calculating means. ,
In the navigation apparatus, the information calculation means includes: a relative distance and / or direction between the target object and the navigation target object measured by the three-dimensional position and orientation measurement means; The navigation device changes the attribute or the type of the navigation information so as to be a visual expression of the measurement result according to

【0109】この(10)に記載の構成に関する実施の
形態は、上記第1及び第2の実施の形態が対応する。即
ち、上記第1及び第2の実施の形態では、上記目標物
は、被検体1、手術対象となる患部、手術において注意
すべき部位が該当するが、実体が存在する被検体に限ら
ず、予め取得した実在の目標物の画像情報から再構成さ
れた2次元、又は3次元のモデル像として表示される仮
想の目標物も含む。また、上記被ナビゲーション対象物
は、内視鏡3が該当するが、目標物に対して観察や操作
を行うための吸引管やピンセット等の処置具なども含
む。上記3次元位置姿勢計測手段は、赤外線LEDを用
いたセンサ(センシングプレート2,4、センサアセン
ブリ7、センサ情報記憶部5、センサ制御部6)が該当
するが、磁気センサを用いた方式や、機械的なリンクと
ジョイントとエンコーダやポテンショメータを用いた方
式など、一般によく知られた3次元位置姿勢計測方式も
含む。上記情報算出手段は、ナビゲーション情報記憶部
9とナビゲーション情報制御部8が該当する。上記情報
表示手段は、液晶モニタ13が該当するが、CRTディ
スプレイやヘッドマウントディスプレイなどの映像情報
表示装置も含む。なお、「ナビゲーション情報の属性」
という用語は、本明細書では、ナビゲーション情報を表
示する際の色、線の太さ、描画される大きさ、及び描画
の疎密を意味している。
The embodiment relating to the configuration described in (10) corresponds to the above-described first and second embodiments. That is, in the first and second embodiments, the target object corresponds to the subject 1, the affected part to be operated on, and a site to be noted in the operation, but is not limited to the subject in which the entity exists. A virtual target displayed as a two-dimensional or three-dimensional model image reconstructed from image information of a real target acquired in advance is also included. The navigation target object corresponds to the endoscope 3, and includes a treatment tool such as a suction tube and tweezers for performing observation and operation on the target object. The three-dimensional position and orientation measurement means corresponds to a sensor using an infrared LED (sensing plates 2 and 4, a sensor assembly 7, a sensor information storage unit 5, and a sensor control unit 6). A well-known three-dimensional position and orientation measurement method such as a method using a mechanical link, a joint, an encoder, and a potentiometer is also included. The information calculation means corresponds to the navigation information storage unit 9 and the navigation information control unit 8. The information display means corresponds to the liquid crystal monitor 13, but also includes a video information display device such as a CRT display or a head mounted display. "Attribute of navigation information"
In this specification, the term "color" means the color, the thickness of the line, the size of the drawn image, and the density of the drawn image when the navigation information is displayed.

【0110】この(10)に記載の構成によれば、目標
物と被ナビゲーション対象物は3次元位置姿勢計測手段
により、3次元空間上の相対的な位置と姿勢を計測され
る。情報算出手段では、この3次元位置姿勢計測手段に
より計測された目標物及び/又は被ナビゲーション対象
物の3次元位置姿勢情報、及び/又は計測の可否を、目
標物と被ナビゲーション対象物の相対的な距離及び/又
は方向の情報、及び/又は計測状態の情報として、ナビ
ゲーション情報の生成制御を行う。情報表示手段では、
この情報算出手段で生成制御されたナビゲーション情報
を表示する。この結果、使用者は、容易に目標物と被ナ
ビゲーション対象物との位置関係、及び/又は相対的な
姿勢の状態、及び/又は計測の可否状態を把握すること
ができる。
According to the configuration described in (10), the relative position and orientation of the target object and the navigation target object in the three-dimensional space are measured by the three-dimensional position and orientation measurement means. The information calculation means determines the three-dimensional position and orientation information of the target and / or the navigation target object measured by the three-dimensional position and orientation measurement means, and / or whether or not the measurement can be performed. As the information on the distance and / or direction, and / or the information on the measurement state, the navigation information is generated and controlled. In the information display means,
The navigation information generated and controlled by the information calculation means is displayed. As a result, the user can easily grasp the positional relationship between the target object and the navigation target object, and / or the relative posture state, and / or the measurement availability state.

【0111】(11) 上記ナビゲーション情報は、上
記3次元位置姿勢計測手段が正常に計測可能な時には、
上記目標物及び/又は被ナビゲーション対象物の外形形
状のモデル像、上記目標物の内部断層像情報のモデル
像、上記目標物及び/又は被ナビゲーション対象物が存
在する方向を示す記号的パターン、上記目標物への距離
を表す数値、及び/又は記号的パターンの何れか一つ以
上を含むもの、上記3次元位置姿勢計測手段が計測不能
な時には、計測不能を示す文字情報及び/又は記号的パ
ターンであることを特徴とする上記(10)に記載のナ
ビゲーション装置。
(11) When the three-dimensional position and orientation measuring means can measure normally, the navigation information
A model image of the external shape of the target and / or the navigation target, a model image of internal tomographic image information of the target, a symbolic pattern indicating a direction in which the target and / or the target to be navigated are present, A character including at least one of a numerical value representing a distance to a target and / or a symbolic pattern, and character information and / or a symbolic pattern indicating that measurement is impossible when the three-dimensional position and orientation measuring means cannot measure. The navigation device according to the above (10), wherein

【0112】この(11)に記載の構成に関する実施の
形態は、上記第1及び第2の実施の形態が対応する。即
ち、上記外形形状のモデル像は、第1の実施の形態では
ワイヤフレーム3次元モデルデータ10が該当するが、
外形形状を表現できるモデルデータであれば一般的な3
次元コンピュータグラフィックスで用いられるデータ構
造も含む。また、第2の実施の形態では、内視鏡3の正
射影像27を表現する線が該当するが、外形形状を表現
できるものであれば一般的な3次元コンピュータグラフ
ィックスで用いられる表現方法も含む。上記内部断層像
情報のモデル像は、第1及び第2の実施の形態では、対
象部位の3次元ボリュームデータ11が該当するが、2
次元ピクセルデータが複数存在する形態も含む。上記被
ナビゲーション対象物が存在する方向を示す記号的パタ
ーンは、第1の実施の形態では矢印21が該当するが、
三角形や丸等の2次元幾何学図形や円錐等の3次元幾何
学図形や画像データ等視覚的に確認できるものを含む。
上記目標物への距離を表す数値は、第1の実施の形態で
は患部への距離を示す数字31が該当するが、任意の目
標物への距離を示す数字を含む。上記目標物への距離を
表す記号的パターンは、第1の実施の形態では患部への
距離を示す棒30が該当するが、三角形や丸等の2次元
幾何学図形や円柱等の3次元幾何学図形や画像データ等
視覚的に確認できるものを含む。上記計測不能を示す文
字情報は、第1の実施の形態では「計測不能状態」とい
う文字情報28が該当するが、これは計測不能な状態を
表現する任意の文字情報を含む。上記計測不能を示す記
号的パターンは、第1の実施の形態では黄色で太さ60
ピクセルの枠29が該当するが、計測不能を示すことを
定義された任意の記号的パターンを含む。
The embodiment relating to the configuration described in (11) corresponds to the above-described first and second embodiments. That is, the model image of the external shape corresponds to the wireframe three-dimensional model data 10 in the first embodiment.
If the model data can represent the external shape, general 3
It also includes data structures used in three-dimensional computer graphics. Further, in the second embodiment, a line expressing the orthogonally projected image 27 of the endoscope 3 corresponds to the line. However, as long as it can express the external shape, an expression method used in general three-dimensional computer graphics is used. Including. In the first and second embodiments, the model image of the internal tomographic image information corresponds to the three-dimensional volume data 11 of the target part.
This includes a form in which a plurality of dimensional pixel data exist. The symbolic pattern indicating the direction in which the navigation target exists is the arrow 21 in the first embodiment,
This includes visual confirmation such as two-dimensional geometric figures such as triangles and circles, three-dimensional geometric figures such as cones, and image data.
The numerical value indicating the distance to the target corresponds to the numeral 31 indicating the distance to the affected part in the first embodiment, but includes a numeral indicating the distance to an arbitrary target. In the first embodiment, the symbolic pattern representing the distance to the target corresponds to the bar 30 indicating the distance to the diseased part. Includes things that can be visually confirmed such as scientific figures and image data. In the first embodiment, the character information indicating the unmeasurable state corresponds to the character information 28 of “measurable state”, but includes any character information expressing the unmeasurable state. The symbolic pattern indicating that measurement is impossible is yellow in thickness and 60 in thickness in the first embodiment.
Pixel box 29 is relevant, but includes any symbolic pattern defined to indicate unmeasurable.

【0113】(12) 上記被ナビゲーション対象物が
観察機能を有し、情報表示手段において観察機能を有す
る被ナビゲーション対象物より得られる観察像と上記情
報算出手段より得られるナビゲーション情報を、上記情
報算出手段にて重畳表示することを特徴とする上記(1
0)に記載のナビゲーション装置。
(12) The object to be navigated has an observing function, and the observation image obtained from the object to be navigated having the observing function in the information display means and the navigation information obtained by the information calculating means are used to calculate the information. (1) characterized by superimposed display by means
The navigation device according to 0).

【0114】この(12)に記載の構成に関する実施の
形態は、上記第1の実施の形態が対応する。即ち、上記
観察機能を有する被ナビゲーション対象物は、第1の実
施の形態では内視鏡3が該当するが、顕微鏡なども含
む。また、上記情報表示手段は、第1の実施の形態では
液晶モニタ13が該当するが、CRTディスプレイやヘ
ッドマウントディスプレイなどの映像情報表示装置も含
む。
The embodiment relating to the configuration described in (12) corresponds to the first embodiment. That is, the navigation target having the observation function corresponds to the endoscope 3 in the first embodiment, but also includes a microscope. The information display means corresponds to the liquid crystal monitor 13 in the first embodiment, but also includes a video information display device such as a CRT display or a head mounted display.

【0115】この(12)に記載の構成によれば、上記
(10)に記載の被ナビゲーション対象物が観察機能を
有しており、この観察機能から得られる観察像と上記
(10)に記載の情報算出手段より得られるナビゲーシ
ョン情報を重畳する。情報表示手段上で、実際の映像情
報とナビゲーション情報を同一の空間上の情報として得
られることにより、使用者は、まだ見えぬ実体の位置や
形状や状態をナビゲーション情報から容易に把握するこ
とができる。
According to the configuration described in (12), the object to be navigated described in (10) has an observation function, and the observation image obtained from this observation function and the observation image described in (10) are used. The navigation information obtained from the information calculation means is superimposed. By obtaining the actual video information and navigation information on the same space on the information display means, the user can easily grasp the position, shape and state of the invisible entity from the navigation information. it can.

【0116】(13) 上記目標物と上記被ナビゲーシ
ョン対象物の相対的な距離及び/又は方向に応じて、ナ
ビゲーション情報の色を変化させることを特徴とする上
記(10)乃至(12)の何れかに記載のナビゲーショ
ン装置。
(13) The color of the navigation information is changed according to the relative distance and / or direction between the target object and the navigation target object. The navigation device according to any one of the above.

【0117】この(13)に記載の構成に関する実施の
形態は、上記第1及び第2の実施の形態が対応する。即
ち、上記ナビゲーション情報の色は、第1の実施の形態
ではモニタ上に描画される対象部位のワイヤフレーム像
18、及び内部断層像19が該当するが、第1の実施の
形態での矢印21も含む。また、第2の実施の形態で
は、モニタ上に描画される対象部位の三切断面像26や
内視鏡3の正射影像27が該当する。
The embodiment relating to the configuration described in (13) corresponds to the first and second embodiments. That is, the color of the navigation information corresponds to the wireframe image 18 and the internal tomographic image 19 of the target portion drawn on the monitor in the first embodiment, but the arrow 21 in the first embodiment corresponds to the color of the navigation information. Including. Further, in the second embodiment, a three-section plane image 26 of the target portion drawn on the monitor and an orthographic image 27 of the endoscope 3 correspond thereto.

【0118】この(13)に記載の構成によれば、上記
3次元位置姿勢計測手段により計測された上記目標物と
上記被ナビゲーション対象物の相対的な距離に応じてナ
ビゲーション情報の色が変化することにより、使用者
は、相対的な距離が近付き過ぎたことなどを視覚的に容
易に把握することができる。また、相対的な方向に応じ
てナビゲーション情報の色を変化させることにより、使
用者は、相対的な方向がずれていることなどを視覚的に
容易に把握することができる。あるいは、相対的な距離
と方向を同時に評価して色を変化させることで、使用者
は、相対的な距離と方向の状態を視覚的に容易に把握す
ることができる。
According to the configuration described in (13), the color of the navigation information changes according to the relative distance between the target and the navigation target measured by the three-dimensional position and orientation measuring means. Thus, the user can easily visually recognize that the relative distance is too close. In addition, by changing the color of the navigation information according to the relative direction, the user can easily visually recognize that the relative direction is deviated. Alternatively, the user can visually and easily grasp the state of the relative distance and direction by simultaneously evaluating the relative distance and direction and changing the color.

【0119】(14) 上記目標物と上記被ナビゲーシ
ョン対象物の相対的な距離及び/又は方向に応じて、ナ
ビゲーション情報の線の太さを変化させることを特徴と
する上記(10)乃至(12)の何れかに記載のナビゲ
ーション装置。
(14) The thickness of the navigation information line is changed according to the relative distance and / or direction between the target and the navigation target. The navigation device according to any one of the above.

【0120】この(14)に記載の構成に関する実施の
形態は、上記第1及び第2の実施の形態が対応する。即
ち、上記ナビゲーション情報の線の太さは、第1の実施
の形態ではモニタ上に描画される対象部位のワイヤフレ
ーム像18が該当するが、第1の実施の形態での矢印2
1も含む。第2の実施の形態では、モニタ上に描画され
る内視鏡3の正射影像27が該当する。
The embodiment relating to the configuration described in (14) corresponds to the above-described first and second embodiments. That is, the line thickness of the navigation information corresponds to the wire frame image 18 of the target portion drawn on the monitor in the first embodiment, but the arrow 2 in the first embodiment corresponds to the thickness of the line.
1 is also included. In the second embodiment, this corresponds to the orthographic image 27 of the endoscope 3 drawn on the monitor.

【0121】この(14)に記載の構成によれば、上記
3次元位置姿勢計測手段により計測された上記目標物と
上記被ナビゲーション対象物の相対的な距離に応じてナ
ビゲーション情報の線の太さが変化することにより、使
用者は、相対的な距離が近付き過ぎたことなどを視覚的
に容易に把握することができる。また、相対的な方向に
応じてナビゲーション情報の線の太さを変化させること
により、使用者は、相対的な方向がずれていることなど
を視覚的に容易に把握することができる。あるいは、相
対的な距離と方向を同時に評価して線の太さを変化させ
ることで、使用者は、相対的な距離と方向の状態を視覚
的に容易に把握することができる。
According to the configuration described in (14), the line thickness of the navigation information is determined according to the relative distance between the target and the navigation target measured by the three-dimensional position and orientation measuring means. Changes, the user can easily visually recognize that the relative distance is too close. Further, by changing the thickness of the line of the navigation information according to the relative direction, the user can easily visually recognize that the relative direction is shifted or the like. Alternatively, by evaluating the relative distance and the direction at the same time and changing the thickness of the line, the user can easily grasp the state of the relative distance and the direction easily.

【0122】(15) 上記目標物と上記被ナビゲーシ
ョン対象物の相対的な距離に応じて、目標物のモデル像
が外形形状と内部断層像情報とに切り替わることを特徴
とする上記(10)乃至(12)の何れかに記載のナビ
ゲーション装置。
(15) The model image of the target is switched between the external shape and the internal tomographic image information according to the relative distance between the target and the navigation target. (12) The navigation device according to any of (12).

【0123】この(15)に記載の構成に関する実施の
形態は、上記第1の実施の形態が対応する。即ち、上記
外形形状のモデル像は、第1の実施の形態ではワイヤフ
レーム像18が該当するが、ポリゴンなどの3次元コン
ピュータグラフィックスで用いられる様々な表現方法や
視線方向に対する輪郭線、等距離線も含む。また、上記
内部断層像情報は、第1の実施の形態では内部断層像1
9が該当する。
The embodiment relating to the configuration described in (15) corresponds to the first embodiment. In other words, the model image of the external shape corresponds to the wire frame image 18 in the first embodiment. However, various expression methods used in three-dimensional computer graphics such as polygons, contour lines with respect to the viewing direction, and equidistant lines are used. Also includes lines. Further, in the first embodiment, the internal tomographic image information is the internal tomographic image 1
9 corresponds to this.

【0124】この(15)に記載の構成によれば、上記
3次元位置姿勢計測手段により計測された上記目標物と
上記被ナビゲーション対象物の相対的な距離に応じて外
形形状のモデル像と内部断層像情報が切り替わることに
より、使用者は、被ナビゲーション対象物が目標物の近
くに位置していることを容易に把握することができる。
また、設定された距離の内部と外部という異なる状態に
応じた情報を容易に得ることができる。
According to the configuration described in (15), the model image of the outer shape and the internal shape are formed in accordance with the relative distance between the target and the navigation target measured by the three-dimensional position and orientation measuring means. By switching the tomographic image information, the user can easily grasp that the navigation target is located near the target.
Further, information according to different states of the inside and outside of the set distance can be easily obtained.

【0125】(16) 上記目標物と上記被ナビゲーシ
ョン対象物の相対的な距離に応じて、表示されるモデル
像描画の粗密を変化させることを特徴とする上記(1
0)乃至(12)の何れかに記載のナビゲーション装
置。
(16) The density of a model image to be displayed is changed according to the relative distance between the target and the navigation target.
The navigation device according to any one of (0) to (12).

【0126】この(16)に記載の構成に関する実施の
形態は、上記第1の実施の形態が対応する。即ち、上記
モデル像は、第1の実施の形態ではワイヤフレーム像1
8が該当するが、ポリゴンなどの3次元コンピュータグ
ラフィックスで用いられる様々な表現方法や視線方向に
対する輪郭線、等距離線も含む。
The embodiment relating to the configuration described in (16) corresponds to the first embodiment. That is, in the first embodiment, the model image is the wireframe image 1
8, which also includes various expression methods used in three-dimensional computer graphics such as polygons, contour lines for the viewing direction, and equidistant lines.

【0127】この(16)に記載の構成によれば、モデ
ル像の描画の疎密が、目標物と被ナビゲーション対象物
の相対的な距離に応じて、例えば遠くにある時には粗
く、近くにある時には細かく変化することにより、モデ
ル像描画の負荷と表示する情報量とのバランスをとるこ
とができる。このことにより、使用者は、適当な描画速
度で適当な情報量を距離に応じて得ることができる。
According to the configuration described in (16), the density of the drawing of the model image is coarse depending on the relative distance between the target and the navigation target, for example, when it is far, and when it is near. By making a fine change, it is possible to balance the load of model image drawing with the amount of information to be displayed. Thus, the user can obtain an appropriate amount of information at an appropriate drawing speed according to the distance.

【0128】(17) 上記目標物と上記被ナビゲーシ
ョン対象物の相対的な距離と方向に応じて、目標物及び
/又は被ナビゲーション対象物のモデル像と、目標物及
び/又は被ナビゲーション対象物が存在する方向の記号
的パターンとを切り換えることを特徴とする上記(1
0)乃至(12)の何れかに記載のナビゲーション装
置。
(17) According to the relative distance and direction between the target and the navigation target, a model image of the target and / or the target to be navigated and the target and / or the target to be navigated are displayed. (1) characterized by switching between a symbol pattern in an existing direction.
The navigation device according to any one of (0) to (12).

【0129】この(17)に記載の構成に関する実施の
形態は、上記第1の実施の形態が対応する。即ち、上記
モデル像は、第1の実施の形態ではワイヤフレーム像1
8が該当するが、ポリゴンなどの3次元コンピュータグ
ラフィックスで用いられる様々な表現方法や視線方向に
対する輪郭線、等距離線や内部断層像情報も含む。ま
た、上記記号的パターンは、第1の実施の形態では矢印
21が該当するが、三角形や丸等の2次元幾何学図形や
円錐等の3次元幾何学図形や画像データ等視覚的に確認
できるものを含む。
The embodiment relating to the configuration described in (17) corresponds to the first embodiment. That is, in the first embodiment, the model image is the wireframe image 1
8, which also includes various expression methods used in three-dimensional computer graphics such as polygons, contour lines for the line of sight, equidistant lines, and internal tomographic image information. The symbolic pattern corresponds to the arrow 21 in the first embodiment, but can be visually confirmed such as a two-dimensional geometric figure such as a triangle or a circle, a three-dimensional geometric figure such as a cone, or image data. Including things.

【0130】この(17)に記載の構成によれば、目標
物と被ナビゲーション対象物との相対的な距離と方向か
ら、上記情報表示手段の表示領域に対する位置関係を上
記情報算出手段にて算出し、例えば表示領域にモデル像
が描画されない場合は記号的パターンヘ切り替えること
で、使用者は、目標物や被ナビゲーション対象物の位置
や方向を見失うことなく把握することができる。
According to the configuration described in (17), the information relation to the display area of the information display means is calculated by the information calculation means from the relative distance and direction between the target and the navigation target. However, for example, when the model image is not drawn in the display area, by switching to the symbolic pattern, the user can grasp the position and the direction of the target object and the navigation target object without losing sight.

【0131】(18) 上記目標物と上記被ナビゲーシ
ョン対象物の相対的な距離に応じて、目標物が存在する
方向を示す記号的パターンの大きさを変化させることを
特徴とする上記(10)乃至(12)の何れかに記載の
ナビゲーション装置。
(18) The size of the symbolic pattern indicating the direction in which the target exists is changed according to the relative distance between the target and the navigation target. The navigation device according to any one of (12) to (12).

【0132】この(18)に記載の構成に関する実施の
形態は、上記第1の実施の形態が対応する。即ち、上記
記号的パターンは、第1の実施の形態では矢印21が該
当するが、三角形や丸等の2次元幾何学図形や円錐等の
3次元幾何学図形や画像データ等視覚的に確認できるも
のを含む。
The embodiment relating to the configuration described in (18) corresponds to the first embodiment. That is, the symbolic pattern corresponds to the arrow 21 in the first embodiment, but can be visually confirmed such as a two-dimensional geometric figure such as a triangle or a circle, a three-dimensional geometric figure such as a cone, or image data. Including things.

【0133】この(18)に記載の構成によれば、パタ
ーンの大きさで上記目標物と上記被ナビゲーション対象
物の相対的な距離を表現することにより、使用者は、方
向だけでなく距離も視覚的に容易に把握することができ
る。
According to the configuration described in (18), by expressing the relative distance between the target object and the navigation target object by the size of the pattern, the user can control not only the direction but also the distance. It can be easily grasped visually.

【0134】[0134]

【発明の効果】以上詳述したように、本発明によれば、
表示するナビゲーション情報を、目標物と被ナビゲーシ
ョン対象物との相対的な3次元的位置姿勢に応じて変化
させることにより、目標物と被ナビゲーション対象物と
の距離を視覚的に把握しやすくすること、及び必要な種
類のナビゲーション情報を使用者が容易に入手できるナ
ビゲーション装置を提供することができる。
As described in detail above, according to the present invention,
By changing the displayed navigation information according to the relative three-dimensional position and orientation of the target and the navigation target, the distance between the target and the navigation target can be easily grasped visually. , And a navigation device that allows a user to easily obtain necessary types of navigation information.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態に係るナビゲーショ
ン装置の構成を示す図である。
FIG. 1 is a diagram showing a configuration of a navigation device according to a first embodiment of the present invention.

【図2】距離マップを説明するための図である。FIG. 2 is a diagram illustrating a distance map.

【図3】距離マップを説明するための図である。FIG. 3 is a diagram for explaining a distance map.

【図4】被検体のデータと被検体自身の関係を示す図で
ある。
FIG. 4 is a diagram showing a relationship between data of a subject and the subject itself.

【図5】被検体のデータと被検体自身を関連付ける座標
変換行列を説明するための図である。
FIG. 5 is a diagram for explaining a coordinate conversion matrix that associates data of a subject with the subject itself.

【図6】内視鏡に取り付けられたセンシングプレートで
規定される座標系から内視鏡の光学系を表現するカメラ
モデルで使用される座標系への座標変換行列と、カメラ
モデル座標系から実際の液晶モニタ上の座標系への座標
変換行列とを説明するための図である。
FIG. 6 is a diagram illustrating a coordinate transformation matrix from a coordinate system defined by a sensing plate attached to an endoscope to a coordinate system used in a camera model expressing an optical system of the endoscope; FIG. 5 is a diagram for explaining a coordinate conversion matrix to a coordinate system on a liquid crystal monitor.

【図7】被検体の頭部に取り付けられたセンシングプレ
ートから内視鏡に取り付けられたセンシングプレートへ
の座標変換行列を説明するための図である。
FIG. 7 is a diagram for explaining a coordinate conversion matrix from a sensing plate attached to the head of the subject to a sensing plate attached to the endoscope.

【図8】対象部位のデータの液晶モニタ上での位置デー
タヘの複数の座標変換行列を用いた変換を説明するため
の図である。
FIG. 8 is a diagram for explaining the conversion of target region data to position data on a liquid crystal monitor using a plurality of coordinate conversion matrices.

【図9】(A)乃至(D)はそれぞれ液晶モニタの表示
例を示す図で、特に、(A)は内視鏡の光学系からの映
像とナビゲーション情報としてのワイヤフレーム像とを
重畳した表示、(B)は内視鏡の光学系からの映像とナ
ビゲーション情報としての3次元ボリュームデータの内
部断層像とを重畳した表示、(C)は内視鏡の撮影範囲
内に対象部位が存在しない場合の表示、(D)は計測不
能時の表示、をそれぞれ示している。
FIGS. 9A to 9D are diagrams showing display examples on a liquid crystal monitor, in particular, FIG. 9A shows an image from an optical system of an endoscope superimposed on a wire frame image as navigation information. Display, (B) a display in which an image from the optical system of the endoscope is superimposed on an internal tomographic image of three-dimensional volume data as navigation information, and (C) a target portion exists within the imaging range of the endoscope. (D) shows a display when measurement is not performed, and (D) shows a display when measurement is impossible.

【図10】図9の(C)のような表示を行うための動作
フローチャートである。
10 is an operation flowchart for performing a display as shown in FIG. 9C.

【図11】本発明の第2の実施の形態に係るナビゲーシ
ョン装置の構成を示す図である。
FIG. 11 is a diagram showing a configuration of a navigation device according to a second embodiment of the present invention.

【図12】第2の実施の形態における表示例と、そのよ
うな表示を行うために用いられる座標変換行列とを示す
図である。
FIG. 12 is a diagram illustrating a display example according to the second embodiment and a coordinate transformation matrix used for performing such display.

【図13】内視鏡の正射影像の線の太さを、対象部位と
内視鏡の先端との相対的な距離に応じて変化させること
を説明するための図である。
FIG. 13 is a diagram for explaining changing a line thickness of an orthographic image of the endoscope in accordance with a relative distance between a target portion and a distal end of the endoscope.

【符号の説明】[Explanation of symbols]

1 被検体 2,4 センシングプレート 3 内視鏡 5 センサ情報記憶部 6 センサ制御部 7 センサアセンブリ 8 ナビゲーション情報制御部 9 ナビゲーション情報記憶部 10,10a,10b,10c ワイヤーフレーム3次
元モデルデータ 11,11a,11b,11c 3次元ボリュームデー
タ 12 距離マップ 13 液晶モニタ 14,15,16,17 座標変換行列 18,20 ワイヤフレーム像 19 内部断層像 21 矢印 22 内視鏡映像の中心 23 対象部位の代表点のモデルデータ座標系での座標
値 24 ベクトル 25 内視鏡の先端位置と後端位置の座標値 26 三切断面像 27 内視鏡の正射影像 28 文字情報 29 黄色で太さ60ピクセルの枠 30 患部への距離を示す棒 31 患部への距離を示す数字
DESCRIPTION OF SYMBOLS 1 Subject 2, 4 Sensing plate 3 Endoscope 5 Sensor information storage part 6 Sensor control part 7 Sensor assembly 8 Navigation information control part 9 Navigation information storage part 10, 10a, 10b, 10c Wireframe three-dimensional model data 11, 11a , 11b, 11c 3D volume data 12 Distance map 13 LCD monitor 14, 15, 16, 17 Coordinate transformation matrix 18, 20 Wireframe image 19 Internal tomographic image 21 Arrow 22 Endoscope video center 23 Representative point of target site Coordinate values in the model data coordinate system 24 Vector 25 Coordinate values of the end position and end position of the endoscope 26 Trisection plane image 27 Orthogonal projection image of the endoscope 28 Character information 29 Yellow frame 60 pixels thick 30 Bar indicating the distance to the affected part 31 Number indicating the distance to the affected part

───────────────────────────────────────────────────── フロントページの続き (72)発明者 斉藤 明人 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 松崎 弘 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 小坂 明生 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 浅野 武夫 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 Fターム(参考) 5E501 AA24 AA25 AC15 BA03 CA03 CB14 FA14 FA27  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Akihito Saito 2-43-2 Hatagaya, Shibuya-ku, Tokyo Inside Olympus Optical Industrial Co., Ltd. (72) Inventor Hiroshi Matsuzaki 2-4-2-3 Hatagaya, Shibuya-ku, Tokyo No. Within Olympus Optical Co., Ltd. (72) Inventor Akio Kosaka 2-43-2 Hatagaya, Shibuya-ku, Tokyo Inside Olympus Optical Co., Ltd. (72) Takeo Asano 2-43-2, Hatagaya, Shibuya-ku, Tokyo No. Olympus Optical Co., Ltd. F term (reference) 5E501 AA24 AA25 AC15 BA03 CA03 CB14 FA14 FA27

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 対象物と目標の3次元空間における位置
姿勢を計測して、上記対象物を目標にナビゲートするた
めのナビゲーション情報を生成するナビゲーション装置
において、 上記ナビゲーション情報を、上記対象物と上記目標の位
置姿勢関係に応じて異なる態様で表示する表示手段をさ
らに具備することを特徴とするナビゲーション装置。
1. A navigation device that measures the position and orientation of a target and a target in a three-dimensional space and generates navigation information for navigating the target to the target. A navigation device, further comprising a display means for displaying in a different manner according to the position and orientation relationship of the target.
【請求項2】 対象物と目標の3次元空間における位置
姿勢を計測して、上記対象物を目標にナビゲートするた
めのナビゲーション情報を生成するナビゲーション装置
において、 上記3次元空間における位置姿勢が計測可能な場合に
は、上記対象物又は上記目標のモデル画像、ナビゲーシ
ョン方向情報、上記対象物と上記目標間の距離情報の少
なくとも一つを表示し、計測不可能な場合には、計測不
能であることを表す情報を表示する表示手段をさらに具
備することを特徴とするナビゲーション装置。
2. A navigation apparatus for measuring the position and orientation of an object and a target in a three-dimensional space and generating navigation information for navigating the object to the target. If possible, display at least one of the model image of the target or the target, navigation direction information, and distance information between the target and the target. If measurement is not possible, measurement is impossible. A navigation device further comprising display means for displaying information indicating the fact.
【請求項3】 上記対象物は撮像手段を具備し、上記撮
像手段で撮像した画像を他の情報に重畳して上記表示手
段に表示可能であることを特徴とする請求項1又は2に
記載のナビゲーション装置。
3. The object according to claim 1, wherein the object has an image pickup means, and the image picked up by the image pickup means can be superimposed on other information and displayed on the display means. Navigation device.
JP8940599A 1999-03-30 1999-03-30 Navigation device Withdrawn JP2000279425A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP8940599A JP2000279425A (en) 1999-03-30 1999-03-30 Navigation device
US09/533,651 US6466815B1 (en) 1999-03-30 2000-03-22 Navigation apparatus and surgical operation image acquisition/display apparatus using the same
US09/875,628 US6456868B2 (en) 1999-03-30 2001-06-06 Navigation apparatus and surgical operation image acquisition/display apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8940599A JP2000279425A (en) 1999-03-30 1999-03-30 Navigation device

Publications (1)

Publication Number Publication Date
JP2000279425A true JP2000279425A (en) 2000-10-10

Family

ID=13969746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8940599A Withdrawn JP2000279425A (en) 1999-03-30 1999-03-30 Navigation device

Country Status (1)

Country Link
JP (1) JP2000279425A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004500187A (en) * 2000-01-27 2004-01-08 ストライカー インストルメンツ Surgery system
JP2004521684A (en) * 2001-02-07 2004-07-22 アエスクラップ アクチェンゲゼルシャフト ウント コンパニー コマンディトゲゼルシャフト Method and apparatus for contouring a recess in a piece of material
JP2004533863A (en) * 2001-02-13 2004-11-11 メディガイド リミテッド Medical imaging and navigation system
JP2005111081A (en) * 2003-10-09 2005-04-28 Olympus Corp Endoscopic image display processor
JP2007503893A (en) * 2003-09-01 2007-03-01 シーメンス アクチエンゲゼルシヤフト Visual support method and apparatus for electrophysiological catheterization in the heart
JP2007503894A (en) * 2003-09-01 2007-03-01 シーメンス アクチエンゲゼルシヤフト Visual support method and apparatus for electrophysiological catheterization in the heart
JP2007534351A (en) * 2003-07-16 2007-11-29 ゼット−カット, インコーポレイテッド Guidance system and method for surgical procedures with improved feedback
JP2008149044A (en) * 2006-12-20 2008-07-03 Matsushita Electric Ind Co Ltd Ultrasonic diagnostic system
US7697973B2 (en) 1999-05-18 2010-04-13 MediGuide, Ltd. Medical imaging and navigation system
JP2011507584A (en) * 2007-12-20 2011-03-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3D reconstruction of body and body contour
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
JP2011237987A (en) * 2010-05-10 2011-11-24 Olympus Corp Operation input device and manipulator system
US8095200B2 (en) 2002-03-06 2012-01-10 Mako Surgical Corp. System and method for using a haptic device as an input device
JP2012080948A (en) * 2010-10-07 2012-04-26 Hitachi Medical Corp Surgery support system and surgery support method
US8287522B2 (en) 2006-05-19 2012-10-16 Mako Surgical Corp. Method and apparatus for controlling a haptic device
JP2014522249A (en) * 2011-04-07 2014-09-04 3シェイプ アー/エス 3D system and method for guiding an object
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
EP3136204A2 (en) 2015-08-27 2017-03-01 Fujitsu Limited Image processing device and image processing method
US9801686B2 (en) 2003-03-06 2017-10-31 Mako Surgical Corp. Neural monitor-based dynamic haptics
WO2020161956A1 (en) * 2019-02-08 2020-08-13 富士フイルム株式会社 Craniotomy simulation device, method, and program
US11202676B2 (en) 2002-03-06 2021-12-21 Mako Surgical Corp. Neural monitor-based dynamic haptics
CN114191078A (en) * 2021-12-29 2022-03-18 上海复旦数字医疗科技股份有限公司 Endoscope operation navigation robot system based on mixed reality
WO2022163241A1 (en) * 2021-01-29 2022-08-04 ソニーグループ株式会社 Control device, control system, and control method

Cited By (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697973B2 (en) 1999-05-18 2010-04-13 MediGuide, Ltd. Medical imaging and navigation system
US9956049B2 (en) 1999-05-18 2018-05-01 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
US10251712B2 (en) 1999-05-18 2019-04-09 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
JP2004500187A (en) * 2000-01-27 2004-01-08 ストライカー インストルメンツ Surgery system
JP2004521684A (en) * 2001-02-07 2004-07-22 アエスクラップ アクチェンゲゼルシャフト ウント コンパニー コマンディトゲゼルシャフト Method and apparatus for contouring a recess in a piece of material
JP2009018184A (en) * 2001-02-13 2009-01-29 Mediguide Ltd Medical imaging and navigation system
JP2004533863A (en) * 2001-02-13 2004-11-11 メディガイド リミテッド Medical imaging and navigation system
US8391954B2 (en) 2002-03-06 2013-03-05 Mako Surgical Corp. System and method for interactive haptic positioning of a medical device
US11076918B2 (en) 2002-03-06 2021-08-03 Mako Surgical Corp. Robotically-assisted constraint mechanism
US9775681B2 (en) 2002-03-06 2017-10-03 Mako Surgical Corp. Haptic guidance system and method
US11298190B2 (en) 2002-03-06 2022-04-12 Mako Surgical Corp. Robotically-assisted constraint mechanism
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US11298191B2 (en) 2002-03-06 2022-04-12 Mako Surgical Corp. Robotically-assisted surgical guide
US8095200B2 (en) 2002-03-06 2012-01-10 Mako Surgical Corp. System and method for using a haptic device as an input device
US11202676B2 (en) 2002-03-06 2021-12-21 Mako Surgical Corp. Neural monitor-based dynamic haptics
US9775682B2 (en) 2002-03-06 2017-10-03 Mako Surgical Corp. Teleoperation system with visual indicator and method of use during surgical procedures
US10058392B2 (en) 2002-03-06 2018-08-28 Mako Surgical Corp. Neural monitor-based dynamic boundaries
US8571628B2 (en) 2002-03-06 2013-10-29 Mako Surgical Corp. Apparatus and method for haptic rendering
US9636185B2 (en) 2002-03-06 2017-05-02 Mako Surgical Corp. System and method for performing surgical procedure using drill guide and robotic device operable in multiple modes
US8911499B2 (en) 2002-03-06 2014-12-16 Mako Surgical Corp. Haptic guidance method
US9002426B2 (en) 2002-03-06 2015-04-07 Mako Surgical Corp. Haptic guidance system and method
US10231790B2 (en) 2002-03-06 2019-03-19 Mako Surgical Corp. Haptic guidance system and method
US10610301B2 (en) 2002-03-06 2020-04-07 Mako Surgical Corp. System and method for using a haptic device as an input device
US11426245B2 (en) 2002-03-06 2022-08-30 Mako Surgical Corp. Surgical guidance system and method with acoustic feedback
US9801686B2 (en) 2003-03-06 2017-10-31 Mako Surgical Corp. Neural monitor-based dynamic haptics
JP2007534351A (en) * 2003-07-16 2007-11-29 ゼット−カット, インコーポレイテッド Guidance system and method for surgical procedures with improved feedback
US9078567B2 (en) 2003-09-01 2015-07-14 Siemens Aktiengesellschaft Method and device for visually supporting an electrophysiology catheter application in the heart
JP2007503893A (en) * 2003-09-01 2007-03-01 シーメンス アクチエンゲゼルシヤフト Visual support method and apparatus for electrophysiological catheterization in the heart
JP2007503894A (en) * 2003-09-01 2007-03-01 シーメンス アクチエンゲゼルシヤフト Visual support method and apparatus for electrophysiological catheterization in the heart
JP2005111081A (en) * 2003-10-09 2005-04-28 Olympus Corp Endoscopic image display processor
JP4615842B2 (en) * 2003-10-09 2011-01-19 オリンパス株式会社 Endoscope system and endoscope image processing apparatus
US8287522B2 (en) 2006-05-19 2012-10-16 Mako Surgical Corp. Method and apparatus for controlling a haptic device
US11123143B2 (en) 2006-05-19 2021-09-21 Mako Surgical Corp. Method and apparatus for controlling a haptic device
US10028789B2 (en) 2006-05-19 2018-07-24 Mako Surgical Corp. Method and apparatus for controlling a haptic device
US9724165B2 (en) 2006-05-19 2017-08-08 Mako Surgical Corp. System and method for verifying calibration of a surgical device
US11950856B2 (en) 2006-05-19 2024-04-09 Mako Surgical Corp. Surgical device with movement compensation
US11937884B2 (en) 2006-05-19 2024-03-26 Mako Surgical Corp. Method and apparatus for controlling a haptic device
US9492237B2 (en) 2006-05-19 2016-11-15 Mako Surgical Corp. Method and apparatus for controlling a haptic device
US11844577B2 (en) 2006-05-19 2023-12-19 Mako Surgical Corp. System and method for verifying calibration of a surgical system
US10350012B2 (en) 2006-05-19 2019-07-16 MAKO Surgiccal Corp. Method and apparatus for controlling a haptic device
US11771504B2 (en) 2006-05-19 2023-10-03 Mako Surgical Corp. Surgical system with base and arm tracking
US11712308B2 (en) 2006-05-19 2023-08-01 Mako Surgical Corp. Surgical system with base tracking
US11291506B2 (en) 2006-05-19 2022-04-05 Mako Surgical Corp. Method and apparatus for controlling a haptic device
US10952796B2 (en) 2006-05-19 2021-03-23 Mako Surgical Corp. System and method for verifying calibration of a surgical device
JP2008149044A (en) * 2006-12-20 2008-07-03 Matsushita Electric Ind Co Ltd Ultrasonic diagnostic system
JP2011507584A (en) * 2007-12-20 2011-03-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3D reconstruction of body and body contour
JP2011237987A (en) * 2010-05-10 2011-11-24 Olympus Corp Operation input device and manipulator system
US9361818B2 (en) 2010-05-10 2016-06-07 Olympus Corporation Operation input device and manipulator system
JP2012080948A (en) * 2010-10-07 2012-04-26 Hitachi Medical Corp Surgery support system and surgery support method
US10716634B2 (en) 2011-04-07 2020-07-21 3Shape A/S 3D system and method for guiding objects
US9763746B2 (en) 2011-04-07 2017-09-19 3Shape A/S 3D system and method for guiding objects
JP2014522249A (en) * 2011-04-07 2014-09-04 3シェイプ アー/エス 3D system and method for guiding an object
US10582972B2 (en) 2011-04-07 2020-03-10 3Shape A/S 3D system and method for guiding objects
US10299865B2 (en) 2011-04-07 2019-05-28 3Shape A/S 3D system and method for guiding objects
EP3136204A2 (en) 2015-08-27 2017-03-01 Fujitsu Limited Image processing device and image processing method
US10235118B2 (en) 2015-08-27 2019-03-19 Fujitsu Limited Augmented reality device and method for providing assistance to a worker at a remote site
WO2020161956A1 (en) * 2019-02-08 2020-08-13 富士フイルム株式会社 Craniotomy simulation device, method, and program
WO2022163241A1 (en) * 2021-01-29 2022-08-04 ソニーグループ株式会社 Control device, control system, and control method
CN114191078A (en) * 2021-12-29 2022-03-18 上海复旦数字医疗科技股份有限公司 Endoscope operation navigation robot system based on mixed reality
CN114191078B (en) * 2021-12-29 2024-04-26 上海复旦数字医疗科技股份有限公司 Endoscope operation navigation robot system based on mixed reality

Similar Documents

Publication Publication Date Title
JP2000279425A (en) Navigation device
US6049622A (en) Graphic navigational guides for accurate image orientation and navigation
US6466815B1 (en) Navigation apparatus and surgical operation image acquisition/display apparatus using the same
US6515657B1 (en) Ultrasonic imager
US9615772B2 (en) Global endoscopic viewing indicator
JP6336245B2 (en) Selectively transparent electrophysiology map
JP4676021B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
JP5417609B2 (en) Medical diagnostic imaging equipment
KR20030060492A (en) Apparatus and method for displaying virtual endoscopy diaplay
JP2000500679A (en) 3D image forming system
JPH08107875A (en) Endoscope shape detector
JPH10502194A (en) Method and system for constructing and displaying three-dimensional images
US20160379368A1 (en) Method for determining an imaging specification and image-assisted navigation as well as device for image-assisted navigation
JP4660771B2 (en) 3D image display device
JP4653324B2 (en) Image display apparatus, image display program, image processing apparatus, and medical image diagnostic apparatus
JP4865575B2 (en) Ultrasonic diagnostic equipment
CN106028943B (en) Ultrasonic virtual endoscopic imaging system and method and device thereof
JP2006061274A (en) Program and endoscope system
JP4159396B2 (en) Endoscope shape detection device
JP2003079637A (en) Operation navigating system
JP3780146B2 (en) Surgical navigation device
JP3447405B2 (en) 3D image display device
US8818059B2 (en) Method and device for navigation in a multi-dimensional image data set
JP2000189400A (en) Three-dimensional positioning display device
JP2002017751A (en) Surgery navigation device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060606