JP4472085B2 - Surgical navigation system - Google Patents

Surgical navigation system Download PDF

Info

Publication number
JP4472085B2
JP4472085B2 JP2000017135A JP2000017135A JP4472085B2 JP 4472085 B2 JP4472085 B2 JP 4472085B2 JP 2000017135 A JP2000017135 A JP 2000017135A JP 2000017135 A JP2000017135 A JP 2000017135A JP 4472085 B2 JP4472085 B2 JP 4472085B2
Authority
JP
Japan
Prior art keywords
image
unit
surgical
image information
endoscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000017135A
Other languages
Japanese (ja)
Other versions
JP2001204738A (en
Inventor
俊哉 菅井
康雄 後藤
正宏 工藤
均 唐沢
昌章 植田
敬司 塩田
浩二 下村
剛明 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2000017135A priority Critical patent/JP4472085B2/en
Publication of JP2001204738A publication Critical patent/JP2001204738A/en
Application granted granted Critical
Publication of JP4472085B2 publication Critical patent/JP4472085B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、表示部に表示されている例えば生体画像情報の上に使用している手術器具などの処置用機器の位置を表示することで手術を進める方向をナビゲートする手術用ナビゲーションシステムに関する。
【0002】
【従来の技術】
従来から例えば、特開平5−305073号公報などの様に、事前に撮影されたCT(computerized tomography)や、MRI(magnetic resonance imaging )などによる断層像をコンピューターで合成してモニターなどの表示部に断層もしくは立体表示すると共に、手術に使用する処置具や、内視鏡などの処置用機器の形状を予めキャリブレーションしておき、それらの機器に位置検出用のマーカーを取り付け、外部から赤外線などによる位置検出を行う事により、前述の生体画像情報上に使用している機器の位置を表示したり、特に脳外科などでは顕微鏡像に脳腫瘍の位置を合成して表示することにより、手術を進める方向をナビゲートする機器が開発されている。
【0003】
また、特公平6−43893号公報や、特公平3−28686号公報などには、被写体の位置や、形状を認識する技術が示されている。あるいは、特開平7−261094号公報などには、顕微鏡像に内視鏡像をピクチャーインピクチャーが可能な手術用顕微鏡が示されている。
【0004】
その他、TVモニターや、ヘッドマウントディスプレーなどでは、画像ミキサーを利用する事で、複数の画像を希望の形で合成して表示する作業を容易に行うことができる。
【0005】
【発明が解決しようとする課題】
しかしながら、上記従来構成のものにあっては次のような問題がある。
(1)モニターに表示されている内視鏡像で見ている生体組織が、生体のどの部分に位置するのかを表示する事が出来ない。
【0006】
(2)患者の体内の術部の処置に一般的に使用する処置具や、内視鏡などの処置用機器は、モニターの顕微鏡像の画面上では単純化された棒状のマークで表示されている。そのため、その処置用機器の形状を正確には表示出来ないので、特に処置用機器の一部が顕微鏡像から外れている場合には顕微鏡像から外れている部分などが生体組織に接触するおそれがある。このような場合には不用意に生体組織を損傷するおそれがる。
【0007】
(3)予め複数の処置用機器を準備し、使用する処置用機器を交換しながら処置を進める場合には使用する処置用機器を交換する度にキャリブレーションを取り直さなくてはならない。そのため、処置用機器の交換作業に手間が掛かるので、手術を能率良く進めることが難しい問題がある。
【0008】
本発明は上記事情に着目してなされたもので、その目的は、内視鏡を使用した場合に、内視鏡像で得られている画像の生体組織上での位置を表示することができ、さらに、使用する処置具や内視鏡などの処置用機器の形状を生体組織の画像上に合成して表示することができ、例えば顕微鏡像から外れている部分が不用意に生体組織に接触することを防止することができるとともに、使用する処置具や、内視鏡などの処置用機器を交換しても、新たにキャリブレーションを取り直す必要が無く、手術を能率良く進めることができる手術用ナビゲーションシステムを提供することにある。
【0009】
【課題を解決するための手段】
請求項1の発明は、患者の体内の術部を観察する手術用顕微鏡と、前記体内の術部の処置に使用する処置用機器の位置を測定する位置測定部と、患者の体内に挿入される挿入部の先端から前記術部の目標物までの距離を測定する距離測定手段を有する内視鏡と、前記患者の体内の術部の画像情報を表示する画像情報表示部と、予め測定された生体画像情報を保持する記憶部と、前記位置測定部からの位置情報と、前記距離測定手段からの距離情報と、前記記憶部に予め記録されている生体画像情報とを合成して基準となる画像を構築するとともに、前記内視鏡及び前記手術用顕微鏡の位置、目標物との距離、内視鏡画像のデータから解析した前記術部内における前記手術用顕微鏡からは死角になって見る事が出来ない前記目標物の情報を前記画像情報表示部の画面上に合成表示する画像情報合成部とを具備したことを特徴とする手術用ナビゲーションシステムである。
そして、本請求項1の発明では、患者の体内の術部の処置に使用する処置用機器の位置を位置測定部によって測定し、患者の体内に挿入される挿入部の先端から前記術部の目標物までの距離を内視鏡の距離測定手段によって測定する。さらに予め測定された生体画像情報を記憶部によって保持するとともに、位置測定部からの位置情報と、距離測定手段からの距離情報と、記憶部に予め記録されている生体画像情報とを画像情報合成部によって合成して基準となる画像を構築する。さらに、前記内視鏡及び前記手術用顕微鏡の位置、目標物との距離、内視鏡画像のデータから解析した前記術部内における前記手術用顕微鏡からは死角になって見る事が出来ない前記目標物の情報を画像情報表示部の画面上に合成表示するようにしたものである。
【0010】
請求項2の発明は、前記画像情報合成部は、前記処置用機器の形状を予め記憶しておく手段を有し、前記処置用機器の位置及び形状の情報と、予め記録されている生体画像情報とを合成して前記画像情報表示部の画面上に前記機器の形状と位置とを判別可能に表示するものであることを特徴とする請求項1に記載の手術用ナビゲーションシステムである。
そして、本請求項2の発明では画像情報合成部に処置用機器の形状を予め記憶させ、処置用機器の位置及び形状の情報と、予め記録されている生体画像情報とを合成して画像情報表示部の画面上に機器の形状と位置とを判別可能に表示するようにしたものである。
【0011】
請求項3の発明は、患者の体内の術部を観察する手術用顕微鏡と、前記体内の術部の処置に使用する処置用機器の位置を測定する位置測定部と、患者の体内に挿入される挿入部の先端から前記術部の目標物までの距離を測定する距離測定部を有する内視鏡と、前記患者の体内の術部の画像情報を表示する画像情報表示部と、予め測定された生体画像情報を保持する記憶部と、前記位置測定部からの位置情報と、前記距離測定手段からの距離情報と、前記記憶部に予め記録されている生体画像情報とを合成して基準となる画像を構築するとともに、前記内視鏡及び前記手術用顕微鏡の位置、目標物との距離、内視鏡画像のデータから解析した前記術部内における前記手術用顕微鏡からは死角になって見る事が出来ない前記目標物の情報を前記画像情報表示部の画面上に合成表示する画像情報合成部とを具備し、患者の体内の術部の処置に複数の処置用機器を適宜、選択的に交換して使用するとともに、前記各処置用機器の先端から所定の設定位置に、前記位置測定部が識別する為のマーカーを設けたことを特徴とする手術用ナビゲーションシステムである。
そして、本請求項3の発明では患者の体内の術部の処置に使用する処置用機器の位置を位置測定部によって測定し、患者の体内に挿入される挿入部の先端から前記術部の目標物までの距離を内視鏡の距離測定手段によって測定する。さらに予め測定された生体画像情報を記憶部によって保持するとともに、位置測定部からの位置情報と、距離測定手段からの距離情報と、記憶部に予め記録されている生体画像情報とを画像情報合成部によって合成して基準となる画像を構築する。さらに、前記内視鏡及び前記手術用顕微鏡の位置、目標物との距離、内視鏡画像のデータから解析した前記術部内における前記手術用顕微鏡からは死角になって見る事が出来ない前記目標物の情報を画像情報表示部の画面上に合成表示する。さらに、患者の体内の術部の処置に複数の処置用機器を適宜、選択的に交換して使用する際に、各処置用機器の先端から所定の設定位置のマーカーによって位置測定部が各処置用機器の種類を識別できるようにしたものである。
【0012】
【発明の実施の形態】
以下、本発明の第1の実施の形態を図1乃至図7を参照して説明する。図1は本実施の形態の手術用ナビゲーションシステムを使用する手術用顕微鏡のシステム全体の概略構成を示すものである。図1中で、1は手術室に設置されている手術用顕微鏡、2はこの手術用顕微鏡1の鏡体、61は患者32が載せられている手術用ベッドである。ここで、手術用顕微鏡1の架台3には、床面を移動可能なベース4と、このベース4上に立設された支柱5とが設けられている。なお、手術用顕微鏡1の架台3は手術室内における手術用ベッド61の先端部側(例えばベッド61上の患者32の頭部32aが配置される側)に配置されている。
【0013】
さらに、支柱5の上部には、手術用顕微鏡1の鏡体2を任意の方向に移動可能に支持する支持機構62が設けられている。この支持機構62には第1アーム6と、第2アーム7と、第3アーム8とが設けられている。ここで、第1アーム6には図示しない照明用光源が内蔵されている。そして、この第1アーム6の一端部は支柱5の上部に略鉛直方向の軸O1を中心に回転自在に取付けられている。
【0014】
さらに、第1アーム6の他端部には、第2アーム7の一端部が略鉛直方向の軸O2を中心に回転自在に取付けられている。この第2アーム7はリンク機構とバランス調整用のスプリング部材とからなるパンタグラフアームによって形成され、上下方向に移動操作可能になっている。
【0015】
また、第2アーム7の他端部には、第3アーム8の一端が略鉛直方向の軸O3を中心に回転自在に取付けられている。この第3アーム8の他端には手術用顕微鏡1の鏡体2が連結されている。さらに、この第3アーム8は、略水平面上で、互いに直交する方向の2つの軸O4,O5を中心としてそれぞれ回転自在に支持されている。そして、鏡体2はこの第3アーム8によって軸O4を中心として術者の観察方向に対する前後方向の俯仰を可能に、かつ軸O5を中心として術者の左右方向の俯仰を可能にそれぞれ支持されている。
【0016】
また、支持機構62の各回転軸O1〜O5における軸受部には図示しない電磁ブレーキが各々設けられている。この電磁ブレーキは支柱5に内蔵された図示しない電磁ブレーキ電源回路と接続されている。さらに、この電磁ブレーキ電源回路は、図2に示すように鏡体2に一体に固定されたグリップ9に設けられたスイッチ10と接続されている。
【0017】
そして、スイッチ10によって各回転軸O1〜O5の電磁ブレーキがオンオフ操作されるようになっている。ここで、スイッチ10が例えばオン操作された場合には各回転軸O1〜O5の電磁ブレーキがオフ操作されることにより、支持機構62がロック解除状態で保持され、鏡体2が空間的に自由に位置調整を行うことができるようになっている。そして、スイッチ10がオフ操作された場合には各回転軸O1〜O5の電磁ブレーキがオン操作されて支持機構62がロック状態に切換えられ、鏡体2の位置固定が行われるようになっている。
【0018】
また、図3は手術用顕微鏡1の鏡体2の概略構成を示すものである。この鏡体2には、1つの対物レンズ11と、左右一対の観察光学系14A,14Bとが設けられている。ここで、左右の各観察光学系14A,14Bの観察光軸上には変倍光学系12と、左右の結像レンズ13a,13bと、左右の接眼レンズ14a,14bとが順に配置されている。そして、この左右一対の観察光学系14A,14Bによって立体観察光学系が構成されている。
【0019】
また、結像レンズ13a,13bによる結像面は、それぞれ接眼レンズ14a,14bの焦点位置に配置されるように設置されている。なお、図3中の16は対物レンズ11のレンズ位置を検出する位置センサーを示すものである。ここで、対物レンズ11は図示しないモーターと連結されて光軸方向に移動可能に支持されている。そして、この対物レンズ11の光軸方向のレンズ位置が位置センサー16により検出できるように構成されている。
【0020】
また、本実施の形態の手術用顕微鏡1のシステムでは図4に示すように手術用顕微鏡1と同時に手術に使用する処置具33(例えばバイポーラ摂子や、超音波吸引器、鉗子類など)や、内視鏡34などの処置用機器が併用される。さらに、本実施の形態の手術用ナビゲーションシステムには患者32の頭部32aを囲む略C字状のヘッドフレーム35や、患者32の体内の術部の処置に使用する処置具33や、内視鏡34などの処置用機器の位置を測定する位置検出センサー(位置測定部)36が設けられている。
【0021】
ここで、ヘッドフレーム35は、患者32の頭蓋に固定されている。さらに、このヘッドフレーム35は、図示しない固定用フレームにより、移動しない様に手術用ベッド61に固定されている。
【0022】
また、ヘッドフレーム35には複数のヘッドフレームマーカー37が並設されている。このヘッドフレームマーカー37は、赤外線を発光するアクティブタイプあるいは、単なる突起であるパッシブマーカーを任意に選択して使用する。
【0023】
さらに、位置検出センサー36は位置、各設定値演算回路38に接続されている。この位置、各設定値演算回路38にはさらに画像合成回路(画像情報合成部)39が接続されている。この画像合成回路39には例えばワークステーションの記憶部などの記憶装置40と、例えばキーボード41や、マウス42や、タッチペン43、図示しないレーザーポインターなどの各種の入力装置(コントローラ)と、TVモニター44や、ヘッドマウントディスプレー45などの各種の表示装置(画像情報表示部)がそれぞれ接続されている。
【0024】
また、ヘッドフレーム35は手術前に予め患者32の頭部32aに装着される。そして、ヘッドフレーム35を装着した状態でMRIや、CTなどにより生体の断層像が撮影され、この時撮影される生体画像データ46が記憶装置40に記録される。これにより、生体画像データ46にヘッドフレーム35の位置データが合成され、ヘッドフレーム35を基準として以後のナビゲーションを行う事が可能となる。
【0025】
さらに、位置検出センサー36は、前述のヘッドフレーム35のヘッドフレームマーカー37や、後述する他のマーカーのタイプに合わせた赤外線センサーを有しており、各々複数のマーカーの捉えられ方により、その位置(方向)を検出出来る様になっている。
【0026】
また、生体内部を観察する内視鏡34には患者の体内に挿入される細長い挿入部34aの基端部に手元側の操作部34bが連結されている。この操作部34bには複数の内視鏡マーカー47が設けられており、その効果はヘッドフレームマーカー37と同様である。そして、予めキャリブレーションを取る事により、内視鏡マーカー47を位置検出センサー36が捉える事で、内視鏡34のヘッドフレーム35に対する相対的な位置や向きを把握するようになっている。
【0027】
更に、複数の内視鏡マーカー47の配置、あるいはアクティブとパッシブの組合せなどにより、内視鏡34の種類を特定できる。そのため、事前に入力されている内視鏡34の形状、視野方向、面角などのデータが読み出され、TVモニター44や、ヘッドマウントディスプレー45などの表示装置に内視鏡34の外形や視野方向、画角などが表示される。
【0028】
また、内視鏡34の挿入部34aの基端部には機種識別マーカー49が設けられている。そして、この機種識別マーカー49により、この内視鏡34がどの機種であるか(例えば、斜視か直視か、画角はいくつか、形状寸法はなどの機種毎のデータ)を判別出来る様になっている。この機種識別マーカー49は例えば色、あるいは数などによる識別を行い、位置検出センサー36により、その位置と種類が判断される。
【0029】
また、現在の内視鏡には一般にピント調節機能や、ズーム機能等が設けられている事が多い。そこで、本実施の形態の内視鏡34のこれらの機能の設定データは位置、各設定値演算回路38に送られ、ナビゲーション画像構築に使用されるようになっている。
【0030】
さらに、本実施の形態の手術用ナビゲーションシステム対応の内視鏡34には例えば本出願人が既に出願している特開平3−28686号公報に示されているスポット光の利用や、超音波センサーなどによる距離検出機能(距離測定手段)を有している。そして、図6に示すように内視鏡34の挿入部34aの先端と対象物(術部の目標物)48との間の距離S1を測定出来る様になっている。
【0031】
また、この内視鏡34と同時に併用される手術用顕微鏡1には、図2に示すように鏡体2の側面の所定の位置に信号部材として複数、本実施の形態では3つの顕微鏡マーカー18a、18b、18cが一体的に固定されている。これらの顕微鏡マーカー18a、18b、18cとしては赤外線を発光するアクティブタイプあるいは、単なる突起であるパッシブマーカーが任意に選択して使用される。そして、位置検出センサー36によってこれらの顕微鏡マーカー18a、18b、18cを検出することにより、ヘッドフレーム35と鏡体2との相対位置、各アームの回転角度などを変数とした位置検出や、顕微鏡マーカー18a〜18cによるヘッドフレーム35との相対位置検出によって、その位置を把握出来る様になっている。
【0032】
なお、バイポーラ摂子や、超音波吸引器、鉗子類など処置具33にもヘッドフレームマーカー37や、内視鏡マーカー47と同様の構成の処置具マーカー50が設けられている。
【0033】
次に、上記構成の作用について説明する。本実施の形態の手術用ナビゲーションシステムの使用時には手術前に事前に撮影されている生体画像データ46が記憶装置40から画像合成回路39に伝送され、基準となる画像が構築される。この際の画像は後述する様に3D画像、2D画像(正面・側面・上面)でも良いし、必要に応じて組み合わせても良い。また、3D画像は頭蓋(脳)内部の立体構造が判断可能であれば、その表示形式には特に制限は無く、ワイヤーフレーム像でも良いし、スケルトンの立体表示でも良い。
【0034】
その後、術者51は手術用顕微鏡1の鏡体2のグリップ9を握り、スイッチ10を押すことにより軸O1〜O5に内蔵された電磁ブレーキを解除し、鏡体2を移動して術部の観察部位に焦点位置を位置決めする。
【0035】
また、手術用顕微鏡1による観察時には術部から発せられた光束は、鏡体2に入射する。このとき、対物レンズ11から鏡体2に入射した光束は、変倍光学糸12、結像レンズ13a・13b、接眼レンズ14a・14bを透過して観察され、術者51は術部を所望の倍率で観察する。なお、観察後の焦点位置が合わないときは、対物レンズ11を図示しないモータにより駆動し、合焦を行う。
【0036】
また、手術用顕微鏡1による観察中、位置検出センサー36は鏡体2上の顕微鏡マーカー18a、18b、18cを検出し、その検出信号は位置、各設定値演算回路38に伝送され、信号処理されて、鏡体2の生体座標系における位置および姿勢が検出される。
【0037】
また、位置センサ16により対物レンズ11の位置情報が位置、各設定値演算回路38に伝送される。このとき、位置、各設定値演算回路38では対物レンズ11の位置情報から鏡体2に対する焦点位置の相対位置が算出される。さらに、鏡体2の生体座標系における位置および姿勢と、鏡体2に対する焦点位置の相対位置とから、生体座標系における焦点位置の位置が演算される。さらに、位置、各設定値演算回路38からの出力信号は画像合成回路39に入力され、TVモニター44や、ヘッドマウントディスプレー45などの表示装置に画像上の生体座標系に3次元画像データと焦点位置が重畳されて表示される。
【0038】
以上の動作により、術者43はTVモニター44や、ヘッドマウントディスプレー45などの表示装置の画面を目視することにより、この画面に表示された3次元画像データによる術部の画像に焦点位置が重畳された画像を観察することができる。そして、このTVモニター44や、ヘッドマウントディスプレー45などの表示装置の表示画像を観察することにより、3次元画像データによる画像上において、顕微鏡1の観察位置を知ることができる。
【0039】
また、手術時には患者の頭部32aの術部に処置具33や、内視鏡34などの処置用機器が挿入される。ここで、術部に例えば、処置具33が挿入された場合には、ヘッドフレーム35の位置を位置検出センサー36が検出し、基準の3次元座標を設定する。続いて、その基準の3次元座標に対して処置具33の位置を検出すると共に、前述の様に各処置具33の種類を認識し、位置、各設定値演算回路38に処置具33の種類のデータを伝送する。そして、事前に記憶装置40に記録されている処置具33の形状データを読み出し、画像合成回路39に伝送する。
【0040】
なお、処置用機器として内視鏡34が使用される場合についても処置具33の場合と同様にそのデータが画像合成回路39に伝送されると共に、内視鏡像についても伝送される。
【0041】
また、手術用顕微鏡1の鏡体2のデータについても前述の様に画像合成回路39まで伝送される。そして、この画像合成回路39には顕微鏡像も伝送され、前述の内視鏡像、前述の生体画像データ46による画像との合成により、死角の無い脳の画像が構築される。
【0042】
さらに、その脳の画像上に、前述の各処置具33、内視鏡34の形状データ、位置データが合成される。ここで、合成された画像はTVモニター44や、ヘッドマウントディスプレー45などの表示装置に表示されると共に、必要に応じて後述する顕微鏡像の中にピクチャーインピクチャーされる。
【0043】
そして、これらの制御はキーボード41、あるいはマウス42、タッチペン43、図示しないレーザーポインターなどのコントローラーによって、指示される。
【0044】
また、図7はTVモニター44の表示画面の表示例を示すものである。ここで、TVモニター44の表示画面の左半分には、3D表示部52が配置され、患者の頭部32aの術部が3D表示される。さらに、TVモニター44の表示画面の右上部分には上面像表示部53、側面像表示部54、正面像表示部55、また、表示画面の右下部分には顕微鏡像表示部56がそれぞれ配置されている。そして、上面像表示部53には患者の頭部32aの術部の上面像の2D画像、側面像表示部54には患者の頭部32aの術部の側面像の2D画像、正面像表示部55には患者の頭部32aの術部の正面像の2D画像、顕微鏡像表示部56には患者の頭部32aの術部の顕微鏡像の2D画像がそれぞれ表示されている。
【0045】
また、3D表示部52はワイヤーフレームによる表示を使用し、その内部の開頭の様子や、対象物(腫瘍など)を合成して立体的に表示している。更に、使用している内視鏡34などを立体的に外形表示し、その挿入状況や、対象物48との位置関係、周囲の生体組織との接触状況などが判断出来る様になっている。なお、上面像表示部53、側面像表示部54、正面像表示部55についても同様に合成された2Dの画像を示し、より確実に確認出来る様になっている。
【0046】
また、顕微鏡像表示部56には手術用顕微鏡1の鏡体2からは本来死角になって見る事が出来ない対象物48の様子を、前述の内視鏡34及び手術用顕微鏡1の位置、焦点位置、対象物との距離S1、ズーム設定、内視鏡画像などのデータから解析して合成表示されている。さらに、顕微鏡像表示部56の上部には内視鏡像表示部57が配置されている。そして、この内視鏡像表示部57には内視鏡34からの内視鏡像が表示されている。
【0047】
そこで、上記構成のものにあっては次の効果を奏する。すなわち、本実施の形態ではTVモニター44の表示画面には内視鏡34を使用した場合に、内視鏡像で得られている画像の生体組織上での位置を表示することができる。
【0048】
さらに、使用する処置具33や、内視鏡34などの処置用機器の形状を記憶して、実際の処置用機器の形状をTVモニター44の表示画面の生体組織画像上に合成して表示するようにしたので、従来のように処置具33や、内視鏡34などの処置用機器の一部が例えば顕微鏡像から外れ、その部分が不用意に生体組織に接触することを防止することができる。
【0049】
また、内視鏡34の操作部34bには複数の内視鏡マーカー47、処置具33には処置具マーカー50をそれぞれ設け、各マーカー47、50の配置、あるいはアクティブとパッシブの組合せなどにより、内視鏡34や、処置具33の種類を特定できるようにしたので、使用する処置具33や、内視鏡34などの処置用機器を交換しても、新たにキャリブレーションを取り直す必要を無くすことができる。
【0050】
また、図8は本発明の第2の実施の形態を示すものである。本実施の形態は第1の実施の形態(図1乃至図7参照)の手術用顕微鏡1の鏡体2の接眼部に表示される表示画面の構成を次の通り変更したものである。
【0051】
すなわち、本実施の形態の手術用顕微鏡1の鏡体2の接眼部の顕微鏡像表示画面71には実際に手術用顕微鏡1の鏡体2によって得られる顕微鏡像を表示する顕微鏡像の画像表示部72と、第1の実施の形態と同様に対象物48を仮想表示する対象物仮想表示部73とが設けられている。
【0052】
さらに、顕微鏡像表示画面71の対象物仮想表示部73にはピクチャーインピクチャーにより、任意の画像を合わせて表示可能であり、例えば3D表示により位置を確認したり、内視鏡像を表示したりする事が出来る。
【0053】
そこで、本実施の形態では手術中、手術用顕微鏡1の鏡体2の接眼部の顕微鏡像表示画面71を目視している作業者が接眼部から眼を離さずに必要な画像を確認する事が出来る効果がある。
【0054】
また、図9は本発明の第3の実施の形態を示すものである。本実施の形態は第1の実施の形態(図1乃至図7参照)の手術用顕微鏡1と併用される内視鏡34として挿入部34aの有効長が違う複数、本実施の形態では2種類の内視鏡34A、34Bを設けたものである。
【0055】
すなわち、本実施の形態では一方の内視鏡34Aの挿入部34a1の長さに比べて他方の内視鏡34Bの挿入部34a2の長さの方が大きくなるように設定されてれいる。そして、内視鏡34Aの挿入部34a1には先端から一定の設定位置L1に内視鏡マーカー47aが配置されている。さらに、内視鏡34Bの挿入部34a2にも同様に先端から一定の設定位置L2に内視鏡マーカー47bが配置されている。ここで、内視鏡34A側の挿入部34a1の内視鏡マーカー47aの設置位置L1と内視鏡34B側の挿入部34a2の内視鏡マーカー47bの設置位置L2とは同一の位置に設定されている。
【0056】
そこで、上記構成のものにあっては次の効果を奏する。すなわち、本実施の形態では2種類の内視鏡34A、34Bの各内視鏡マーカー47a、47bの設置位置L1、L2を同一の位置に設定したので、2種類の内視鏡34A、34Bを術中に交換しても改めてキャリブレーションを取り直す事無く、すぐに使用する事が可能である。
【0057】
さらに、本発明は上記実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々変形実施できることは勿論である。
次に、本出願の他の特徴的な技術事項を下記の通り付記する。

(付記項1) 使用する機器の位置を測定する手段と、
先端から目標物までの距離を測定する距離検出手段を有する内視鏡と、
画像情報表示手段を有し、
前記位置情報と、前記距離情報と、予め記録されている生体画像情報を合成し、
画面上に表示する機能を有する位置表示装置。
【0058】
(付記項2) 使用する機器の位置を測定する手段と、
前記機器の形状を予め記憶しておく手段と、
画像情報を表示する手段を有し、
前記機器の位置及び形状の情報と、予め記録されている生体画像情報を合成し、
画面上に前記機器の形状と位置が判別可能に表示する位置表示装置。
【0059】
(付記項3) 使用する機器の位置を測定する手段と、
前記位置情報と予め記録されている生体画像情報を合成し、
前記機器の位置を表示する位置表示装置において、
前記使用する機器が複数ある場合、
それらの先端から規定の位置に、前記測定手段が識別する為のマーカーを有する事により、
前記使用する機器を交換しても、常に前記マーカーから先端までの位置が一定であるもの。
【0060】
(付記項4) 付記項1において、
前記表示内容が、
2次元もしくは3次元の生体画像情報と、
前記内視鏡の位置情報と、
前記内視鏡の視野中心に位置する生体組織の位置を合成し、
前記内視鏡画像の生体組織における位置を表示可能なもの。
【0061】
(付記項5) 付記項2において、
前記表示内容が、
2次元もしくは3次元の生体画像情報と、
前記使用機器の2次元もしくは3次元の形状情報を合成し、
生体組織に対する前記使用機器位置を表示可能なもの。
【0062】
(付記項6) 付記項3において、
前記マーカーの取付位置もしくは種類により、
前記使用する機器の種類が判別可能であるもの。
【0063】
(付記項7) 付記項1〜3,付記項4〜6において、
前記画像情報が、
手術用顕微鏡の顕微鏡像内に任意に挿入もしくは、合成して表示可能なもの。
【0064】
(付記項1〜3の従来技術) 従来、特開平5−305073などの様に、事前に撮影されたCTやMRIなどによる断層像をコンピューターで合成して断層もしくは立体表示すると共に、手術に使用する処置具や内視鏡などの機器の形状を予めキャリブレーションしておき、それらの機器に位置検出のマーカーを取り付け、外部から赤外線などによる位置検出を行う事により、前述の生体画像情報上に使用している機器の位置を表示したり、特に脳外科などでは顕微鏡像に脳腫瘍の位置を合成して表示したり、手術を進める方向をナビゲートする機器があった。
【0065】
又、特公平6−43893や特公平3−28686などの様に、被写体の位置や形状を認識する事が行われていた。あるいは、特開平7−261094などの様に、顕微鏡像に内視鏡像をピクチャーインピクチャーが可能な手術用顕微鏡もあった。
【0066】
その他、TVモニターやヘッドマウントディスプレーなどでは、容易に画像ミキサーを利用する事で、複数の画像を希望の形で合成して表示する事が可能であった。
【0067】
(付記項1〜3が解決しようとする課題) 本発明が解決しようとする課題は従来技術の問題点である。
・内視鏡像で見ている生体組織が、生体のどの部分に位置するのかを表示する事が出来ない。
・一般的に使用する処置具や内視鏡などの機器は、画面上で棒状の単純化された表示しか出来ず、その形状を表示出来ない為、特に顕微鏡像から外れた部分などが不用意に生体組織を損傷する事を防止出来ない。
・使用する機器を交換する度にキャリブレーションを取り直さなくてはならない。
という点について解決しようとするものである。
【0068】
(付記項1〜3の効果) 本発明の効果は、
・内視鏡を使用した場合に、内視鏡像で得られている画像の生体組織上での位置を表示出来る様にする。
・使用する処置具や内視鏡などの機器の形状を記憶して、実際の形状を生体組織画像上に合成して表示する事により、例えば顕微鏡像から外れている部分が不用意に生体組織を損傷する事などを防止する。
・使用する処置具や内視鏡などの機器を交換しても、新たにキャリブレーションを取り直す必要を無くす。
というものである。
【0069】
【発明の効果】
本発明によれば、内視鏡を使用した場合に、内視鏡像で得られている画像の生体組織上での位置を表示することができ、さらに、使用する処置具や内視鏡などの処置用機器の形状を生体組織の画像上に合成して表示することができ、例えば顕微鏡像から外れている部分が不用意に生体組織を損傷することを防止することができるとともに、使用する処置具や、内視鏡などの処置用機器を交換しても、新たにキャリブレーションを取り直す必要が無く、手術を能率良く進めることができる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態の手術用ナビゲーションシステムを使用する手術用顕微鏡のシステム全体の概略構成図。
【図2】 第1の実施の形態の手術用顕微鏡の鏡体を示す正面図。
【図3】 第1の実施の形態の手術用顕微鏡の鏡体内部の概略構成図。
【図4】 第1の実施の形態の手術用ナビゲーションシステム全体の概略構成図。
【図5】 第1の実施の形態の手術用ナビゲーションシステムの要部構成を示す斜視図。
【図6】 第1の実施の形態の手術用ナビゲーションシステム対応の内視鏡の使用状態を示す要部の縦断面図。
【図7】 第1の実施の形態の手術用ナビゲーションシステムにおける表示装置の表示例を説明するための説明図。
【図8】 本発明の第2の実施の形態における手術用顕微鏡の接眼部の顕微鏡像を示す平面図。
【図9】 本発明の第3の実施の形態の手術用ナビゲーションシステムで使用される有効長の違う複数の内視鏡を示す側面図。
【符号の説明】
1 手術用顕微鏡
33 処置具(処置用機器)
34 内視鏡(処置用機器)
36 位置検出センサー(位置測定部)
39 画像合成回路(画像情報合成部)
40 記憶装置(記憶部)
44 TVモニター(画像情報表示部)
45 ヘッドマウントディスプレー(画像情報表示部)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a surgical navigation system for navigating a direction in which a surgical operation is performed by displaying the position of a treatment device such as a surgical instrument used on, for example, biological image information displayed on a display unit.
[0002]
[Prior art]
Conventionally, for example, as disclosed in JP-A-5-305073, a tomographic image obtained by CT (computerized tomography) or MRI (magnetic resonance imaging) is synthesized by a computer and displayed on a display unit such as a monitor. In addition to tomographic or stereoscopic display, the shape of treatment instruments used for surgery and treatment instruments such as endoscopes are calibrated in advance, and markers for position detection are attached to these instruments, and infrared rays are used from the outside. By performing position detection, the position of the device being used is displayed on the above-mentioned biological image information. Devices to navigate have been developed.
[0003]
Japanese Patent Publication No. 6-43893, Japanese Patent Publication No. 3-28686, and the like show techniques for recognizing the position and shape of a subject. Alternatively, Japanese Patent Application Laid-Open No. 7-261094 discloses a surgical microscope capable of picture-in-picture of an endoscopic image as a microscope image.
[0004]
In addition, a TV monitor, a head-mounted display, and the like can easily perform a work of combining and displaying a plurality of images in a desired form by using an image mixer.
[0005]
[Problems to be solved by the invention]
However, the conventional configuration has the following problems.
(1) It is impossible to display in which part of the living body the living tissue viewed in the endoscopic image displayed on the monitor is located.
[0006]
(2) Treatment tools generally used for treatment of the surgical site in the patient's body and treatment devices such as endoscopes are displayed with simplified bar-shaped marks on the screen of the microscope image of the monitor. Yes. For this reason, the shape of the treatment device cannot be accurately displayed. In particular, when a part of the treatment device is out of the microscope image, there is a possibility that the portion of the treatment device is in contact with the living tissue. is there. In such a case, there is a risk of inadvertently damaging the living tissue.
[0007]
(3) When a plurality of treatment devices are prepared in advance and the treatment proceeds while exchanging the treatment devices to be used, the calibration must be retaken every time the treatment device to be used is replaced. For this reason, since it takes time to replace the treatment device, there is a problem that it is difficult to efficiently perform the operation.
[0008]
The present invention has been made paying attention to the above circumstances, and its purpose is to display the position on the living tissue of the image obtained by the endoscopic image when the endoscope is used, Furthermore, the shape of a treatment device such as a treatment instrument or an endoscope to be used can be synthesized and displayed on an image of a biological tissue, for example, a portion that is out of the microscope image is inadvertently in contact with the biological tissue. Surgery navigation that can prevent surgery, and even if the treatment instrument used and treatment equipment such as an endoscope are replaced, there is no need to recalibrate and the operation can be carried out efficiently. To provide a system.
[0009]
[Means for Solving the Problems]
The invention according to claim 1 is an operation part in a patient's body. A surgical microscope for observing the body and the surgical part inside the body An endoscope having a position measuring unit for measuring the position of a treatment device used for the treatment of the patient and a distance measuring unit for measuring the distance from the distal end of the insertion unit inserted into the patient's body to the target of the surgical unit An image information display unit that displays image information of an operation part in the body of the patient, a storage unit that stores biological image information measured in advance, position information from the position measurement unit, and the distance measurement unit And the biometric image information recorded in advance in the storage unit. In addition to constructing a reference image, the position of the endoscope and the surgical microscope, the distance from the target, and the surgical microscope in the surgical site analyzed from the data of the endoscopic image is a blind spot. Information on the target that cannot be seen On the screen of the image information display section Composite display An operation navigation system comprising an image information composition unit for performing the operation.
In the first aspect of the present invention, the position of the treatment device used for the treatment of the surgical site in the patient's body is measured by the position measuring unit, and the position of the surgical site is measured from the distal end of the insertion unit inserted into the patient's body. The distance to the target is measured by the distance measuring means of the endoscope. Furthermore, the biometric image information measured in advance is held in the storage unit, and the position information from the position measurement unit, the distance information from the distance measuring unit, and the biometric image information recorded in the storage unit are combined into image information. Synthesized by part To construct a reference image. Furthermore, the position of the endoscope and the surgical microscope, the distance from the target, the target that cannot be seen from the surgical microscope in the surgical site analyzed from the data of the endoscopic image and cannot be seen. Information on things On the screen of the image information display section Composition It is intended to be displayed.
[0010]
According to a second aspect of the present invention, the image information synthesizing unit has means for previously storing the shape of the treatment device, and information on the position and shape of the treatment device and a biological image recorded in advance. 2. The surgical navigation system according to claim 1, wherein the information is combined with information and displayed on the screen of the image information display unit so that the shape and position of the device can be discriminated.
According to the second aspect of the present invention, the shape of the treatment device is stored in advance in the image information composition unit, and the position and shape information of the treatment device and the biological image information recorded in advance are combined to obtain image information. The shape and position of the device are displayed so as to be distinguishable on the screen of the display unit.
[0011]
The invention according to claim 3 is an operation part in a patient's body. A surgical microscope for observing the body and the surgical part inside the body An endoscope having a position measuring unit for measuring the position of a treatment device used for the treatment of the patient and a distance measuring unit for measuring the distance from the distal end of the insertion unit inserted into the body of the patient to the target of the surgical unit An image information display unit that displays image information of an operation part in the body of the patient, a storage unit that stores biological image information measured in advance, position information from the position measurement unit, and the distance measurement unit And the biometric image information recorded in advance in the storage unit. In addition to constructing a reference image, the position of the endoscope and the surgical microscope, the distance from the target, and the surgical microscope in the surgical site analyzed from the data of the endoscopic image is a blind spot. Information on the target that cannot be seen On the screen of the image information display section Composite display A plurality of treatment devices are appropriately and selectively exchanged for use in the treatment of the surgical site in the patient's body, and at a predetermined set position from the distal end of each treatment device. A navigation system for surgery which is provided with a marker for identification by the position measuring unit.
According to the third aspect of the present invention, the position of the treatment device used for the treatment of the surgical site in the patient's body is measured by the position measuring unit, and the target of the surgical site is measured from the distal end of the insertion portion to be inserted into the patient's body. The distance to the object is measured by the distance measuring means of the endoscope. Furthermore, the biometric image information measured in advance is held in the storage unit, and the position information from the position measurement unit, the distance information from the distance measuring unit, and the biometric image information recorded in the storage unit are combined into image information. Synthesized by part To construct a reference image. Furthermore, the position of the endoscope and the surgical microscope, the distance from the target, the target that cannot be seen from the surgical microscope in the surgical site analyzed from the data of the endoscopic image and cannot be seen. Information on things On the screen of the image information display section Composition indicate. Furthermore, when a plurality of treatment devices are appropriately and selectively exchanged for treatment of the surgical site in the patient's body, the position measurement unit performs each treatment with a marker at a predetermined set position from the tip of each treatment device. The device type can be identified.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 shows a schematic configuration of an entire system of a surgical microscope using the surgical navigation system of the present embodiment. In FIG. 1, 1 is a surgical microscope installed in the operating room, 2 is a mirror body of the surgical microscope 1, and 61 is a surgical bed on which a patient 32 is placed. Here, the gantry 3 of the surgical microscope 1 is provided with a base 4 that can move on the floor surface and a support column 5 that stands on the base 4. Note that the gantry 3 of the surgical microscope 1 is disposed on the distal end side of the surgical bed 61 in the operating room (for example, the side on which the head 32a of the patient 32 on the bed 61 is disposed).
[0013]
Further, a support mechanism 62 that supports the mirror body 2 of the surgical microscope 1 so as to be movable in an arbitrary direction is provided on the upper portion of the support column 5. The support mechanism 62 is provided with a first arm 6, a second arm 7, and a third arm 8. Here, an illumination light source (not shown) is built in the first arm 6. One end portion of the first arm 6 is attached to the upper portion of the support column 5 so as to be rotatable about a substantially vertical axis O1.
[0014]
Furthermore, one end of the second arm 7 is attached to the other end of the first arm 6 so as to be rotatable about a substantially vertical axis O2. The second arm 7 is formed by a pantograph arm comprising a link mechanism and a spring member for balance adjustment, and can be moved up and down.
[0015]
Further, one end of the third arm 8 is attached to the other end of the second arm 7 so as to be rotatable about a substantially vertical axis O3. The mirror body 2 of the surgical microscope 1 is connected to the other end of the third arm 8. Further, the third arm 8 is supported so as to be rotatable about two axes O4 and O5 in directions orthogonal to each other on a substantially horizontal plane. The mirror body 2 is supported by the third arm 8 so as to be able to be lifted in the front-rear direction with respect to the observation direction of the operator around the axis O4 and to be able to be lifted in the left-right direction around the axis O5. ing.
[0016]
In addition, an electromagnetic brake (not shown) is provided on the bearing portion of each of the rotation shafts O1 to O5 of the support mechanism 62. This electromagnetic brake is connected to an electromagnetic brake power circuit (not shown) built in the column 5. Further, this electromagnetic brake power supply circuit is connected to a switch 10 provided on a grip 9 integrally fixed to the mirror body 2 as shown in FIG.
[0017]
And the electromagnetic brake of each rotating shaft O1-O5 is turned on / off by the switch 10. Here, for example, when the switch 10 is turned on, the electromagnetic brakes of the rotary shafts O1 to O5 are turned off, so that the support mechanism 62 is held in the unlocked state, and the mirror body 2 is spatially free. The position can be adjusted. When the switch 10 is turned off, the electromagnetic brakes of the rotary shafts O1 to O5 are turned on, the support mechanism 62 is switched to the locked state, and the position of the mirror body 2 is fixed. .
[0018]
FIG. 3 shows a schematic configuration of the mirror body 2 of the surgical microscope 1. The mirror body 2 is provided with one objective lens 11 and a pair of left and right observation optical systems 14A and 14B. Here, a variable magnification optical system 12, left and right imaging lenses 13a and 13b, and left and right eyepieces 14a and 14b are sequentially arranged on the observation optical axes of the left and right observation optical systems 14A and 14B. . The pair of left and right observation optical systems 14A and 14B constitute a stereoscopic observation optical system.
[0019]
Further, the image forming surfaces of the image forming lenses 13a and 13b are disposed so as to be arranged at the focal positions of the eyepiece lenses 14a and 14b, respectively. Note that reference numeral 16 in FIG. 3 denotes a position sensor that detects the lens position of the objective lens 11. Here, the objective lens 11 is connected to a motor (not shown) and supported so as to be movable in the optical axis direction. The lens position of the objective lens 11 in the optical axis direction can be detected by the position sensor 16.
[0020]
Further, in the system of the surgical microscope 1 of the present embodiment, as shown in FIG. 4, a treatment tool 33 (for example, a bipolar probe, an ultrasonic aspirator, forceps, etc.) used for the surgery simultaneously with the surgical microscope 1, A treatment device such as an endoscope 34 is used in combination. Furthermore, the surgical navigation system of the present embodiment includes a substantially C-shaped head frame 35 that surrounds the head 32a of the patient 32, a treatment tool 33 that is used to treat a surgical site in the body of the patient 32, and an endoscope. A position detection sensor (position measurement unit) 36 that measures the position of a treatment device such as a mirror 34 is provided.
[0021]
Here, the head frame 35 is fixed to the skull of the patient 32. Further, the head frame 35 is fixed to the surgical bed 61 so as not to move by a fixing frame (not shown).
[0022]
The head frame 35 is provided with a plurality of head frame markers 37. As the head frame marker 37, an active type that emits infrared light or a passive marker that is a simple protrusion is arbitrarily selected and used.
[0023]
Further, the position detection sensor 36 is connected to a position and each set value calculation circuit 38. An image composition circuit (image information composition unit) 39 is further connected to the position and each set value calculation circuit 38. The image composition circuit 39 includes a storage device 40 such as a storage unit of a workstation, various input devices (controllers) such as a keyboard 41, a mouse 42, a touch pen 43, and a laser pointer (not shown), and a TV monitor 44. In addition, various display devices (image information display units) such as a head mounted display 45 are connected to each other.
[0024]
The head frame 35 is attached to the head 32a of the patient 32 in advance before surgery. Then, a tomographic image of the living body is photographed by MRI, CT or the like with the head frame 35 attached, and the biological image data 46 photographed at this time is recorded in the storage device 40. As a result, the position data of the head frame 35 is synthesized with the biological image data 46, and subsequent navigation can be performed with the head frame 35 as a reference.
[0025]
Further, the position detection sensor 36 has an infrared sensor adapted to the above-described head frame marker 37 of the head frame 35 and other marker types to be described later. (Direction) can be detected.
[0026]
The endoscope 34 for observing the inside of the living body is connected to a proximal side operation portion 34b at the proximal end portion of an elongated insertion portion 34a inserted into the body of the patient. The operation unit 34 b is provided with a plurality of endoscope markers 47, and the effect thereof is the same as that of the head frame marker 37. Then, by performing calibration in advance, the position detection sensor 36 captures the endoscope marker 47, thereby grasping the relative position and orientation of the endoscope 34 with respect to the head frame 35.
[0027]
Furthermore, the type of the endoscope 34 can be specified by the arrangement of a plurality of endoscope markers 47 or a combination of active and passive. Therefore, data such as the shape, field of view direction, and surface angle of the endoscope 34 input in advance is read, and the outer shape and field of view of the endoscope 34 are displayed on a display device such as the TV monitor 44 and the head mounted display 45. The direction and angle of view are displayed.
[0028]
A model identification marker 49 is provided at the proximal end of the insertion portion 34a of the endoscope 34. The model identification marker 49 can determine which model of the endoscope 34 (for example, data for each model such as perspective or direct view, several angles of view, shape dimensions, etc.). ing. The model identification marker 49 is identified by, for example, color or number, and the position detection sensor 36 determines the position and type.
[0029]
In addition, current endoscopes are generally provided with a focus adjustment function, a zoom function, and the like. Therefore, the setting data of these functions of the endoscope 34 according to the present embodiment is sent to the position / setting value calculation circuit 38 and used for construction of a navigation image.
[0030]
Furthermore, the endoscope 34 compatible with the surgical navigation system of the present embodiment includes, for example, the use of spot light and an ultrasonic sensor disclosed in Japanese Patent Laid-Open No. 3-28686, which has already been filed by the present applicant. It has a distance detection function (distance measuring means). Then, as shown in FIG. 6, the distance S1 between the distal end of the insertion portion 34a of the endoscope 34 and the object (target of the surgical part) 48 can be measured.
[0031]
Further, in the surgical microscope 1 used together with the endoscope 34, as shown in FIG. 2, a plurality of signal members are provided at predetermined positions on the side surface of the mirror body 2, and in this embodiment, three microscope markers 18a. , 18b, 18c are fixed integrally. As these microscope markers 18a, 18b, and 18c, an active type that emits infrared rays or a passive marker that is a simple protrusion is arbitrarily selected and used. Then, by detecting these microscope markers 18a, 18b, and 18c by the position detection sensor 36, position detection using the relative position between the head frame 35 and the mirror body 2, the rotation angle of each arm, and the like as variables, or a microscope marker By detecting the relative position with respect to the head frame 35 by 18a to 18c, the position can be grasped.
[0032]
Note that the treatment instrument 33 such as a bipolar probe, an ultrasonic aspirator, and forceps is also provided with a treatment instrument marker 50 having the same configuration as the head frame marker 37 and the endoscope marker 47.
[0033]
Next, the operation of the above configuration will be described. When using the surgical navigation system of the present embodiment, the biological image data 46 taken in advance before surgery is transmitted from the storage device 40 to the image composition circuit 39, and a reference image is constructed. The image at this time may be a 3D image, a 2D image (front, side, or top) as described later, or may be combined as necessary. In addition, as long as the 3D structure inside the skull (brain) can be determined, the display format of the 3D image is not particularly limited, and may be a wire frame image or a 3D skeleton display.
[0034]
Thereafter, the operator 51 grasps the grip 9 of the body 2 of the surgical microscope 1 and depresses the switch 10 to release the electromagnetic brake built in the axes O1 to O5, and moves the body 2 to move the surgical body. The focal position is positioned at the observation site.
[0035]
In addition, a light beam emitted from the surgical site at the time of observation with the surgical microscope 1 enters the mirror body 2. At this time, the light beam incident on the mirror body 2 from the objective lens 11 is observed through the variable magnification optical thread 12, the imaging lenses 13a and 13b, and the eyepieces 14a and 14b. Observe at magnification. Note that when the focus position after observation does not match, the objective lens 11 is driven by a motor (not shown) to perform focusing.
[0036]
During observation with the surgical microscope 1, the position detection sensor 36 detects the microscope markers 18 a, 18 b and 18 c on the mirror body 2, and the detection signals are transmitted to the position and setting value calculation circuit 38 for signal processing. Thus, the position and orientation of the mirror body 2 in the living body coordinate system are detected.
[0037]
Further, the position information of the objective lens 11 is transmitted to the position and each set value calculation circuit 38 by the position sensor 16. At this time, the position and each set value calculation circuit 38 calculates the relative position of the focal position with respect to the mirror body 2 from the position information of the objective lens 11. Further, the position of the focal position in the biological coordinate system is calculated from the position and orientation of the mirror body 2 in the biological coordinate system and the relative position of the focal position with respect to the mirror body 2. Further, the output signal from the position and each set value calculation circuit 38 is input to the image synthesis circuit 39, and the three-dimensional image data and the focal point are displayed on the living body coordinate system on the image on the display device such as the TV monitor 44 or the head mount display 45. The position is displayed superimposed.
[0038]
Through the above operation, the operator 43 visually observes the screen of the display device such as the TV monitor 44 or the head mounted display 45, and the focal position is superimposed on the image of the surgical site based on the three-dimensional image data displayed on this screen. The observed image can be observed. Then, by observing a display image of a display device such as the TV monitor 44 or the head mount display 45, the observation position of the microscope 1 can be known on the image based on the three-dimensional image data.
[0039]
Further, during the operation, a treatment instrument 33 and a treatment device such as an endoscope 34 are inserted into the surgical site of the patient's head 32a. Here, for example, when the treatment tool 33 is inserted into the surgical site, the position detection sensor 36 detects the position of the head frame 35 and sets the reference three-dimensional coordinates. Subsequently, the position of the treatment tool 33 is detected with respect to the reference three-dimensional coordinates, and the type of each treatment tool 33 is recognized as described above, and the type of the treatment tool 33 is detected in the position and each set value calculation circuit 38. The data of is transmitted. Then, the shape data of the treatment instrument 33 recorded in advance in the storage device 40 is read and transmitted to the image composition circuit 39.
[0040]
Note that when the endoscope 34 is used as the treatment device, the data is transmitted to the image synthesis circuit 39 and the endoscopic image is transmitted as in the case of the treatment instrument 33.
[0041]
Further, the data of the mirror body 2 of the surgical microscope 1 is also transmitted to the image composition circuit 39 as described above. A microscope image is also transmitted to the image synthesis circuit 39, and a brain image without a blind spot is constructed by synthesizing with the above-described endoscopic image and the above-described image based on the biological image data 46.
[0042]
Furthermore, the shape data and position data of each treatment instrument 33 and endoscope 34 are synthesized on the brain image. Here, the synthesized image is displayed on a display device such as a TV monitor 44 or a head mounted display 45, and is picture-in-pictured in a microscopic image, which will be described later, as necessary.
[0043]
These controls are instructed by a controller such as a keyboard 41, a mouse 42, a touch pen 43, or a laser pointer (not shown).
[0044]
FIG. 7 shows a display example of the display screen of the TV monitor 44. Here, in the left half of the display screen of the TV monitor 44, the 3D display unit 52 is arranged, and the surgical part of the patient's head 32a is displayed in 3D. Further, a top image display unit 53, a side image display unit 54, a front image display unit 55 are arranged in the upper right part of the display screen of the TV monitor 44, and a microscope image display unit 56 is arranged in the lower right part of the display screen. ing. The top image display unit 53 has a 2D image of the top image of the surgical site of the patient's head 32a, and the side image display unit 54 has a 2D image of the side image of the surgical site of the patient's head 32a and a front image display unit. 55 shows a 2D image of the front image of the surgical site of the patient's head 32a, and the microscope image display unit 56 displays a 2D image of the microscope image of the surgical site of the patient's head 32a.
[0045]
In addition, the 3D display unit 52 uses a display by a wire frame to synthesize and display a state of craniotomy inside the object and an object (such as a tumor) in a three-dimensional manner. Further, the endoscope 34 and the like being used are displayed in a three-dimensional outline so that the insertion status, the positional relationship with the object 48, the contact status with surrounding living tissue, and the like can be determined. It should be noted that the top image display unit 53, the side image display unit 54, and the front image display unit 55 also show similarly synthesized 2D images so that they can be confirmed more reliably.
[0046]
Further, the microscope image display unit 56 shows the state of the object 48 that cannot be seen from the body 2 of the surgical microscope 1 as a blind spot, the positions of the endoscope 34 and the surgical microscope 1 described above, It is synthesized and displayed by analyzing from data such as the focal position, the distance S1 to the object, the zoom setting, and the endoscope image. Further, an endoscope image display unit 57 is disposed on the upper part of the microscope image display unit 56. The endoscopic image from the endoscope 34 is displayed on the endoscopic image display unit 57.
[0047]
Therefore, the above configuration has the following effects. That is, in the present embodiment, when the endoscope 34 is used on the display screen of the TV monitor 44, the position of the image obtained as the endoscopic image on the living tissue can be displayed.
[0048]
Furthermore, the shape of the treatment instrument 33 and the treatment device such as the endoscope 34 to be used is stored, and the actual shape of the treatment device is synthesized and displayed on the biological tissue image on the display screen of the TV monitor 44. As described above, it is possible to prevent the treatment instrument 33 and a part of the treatment device such as the endoscope 34 from deviating from, for example, the microscopic image and inadvertently coming into contact with the living tissue. it can.
[0049]
In addition, a plurality of endoscope markers 47 and a treatment instrument marker 50 are provided on the operation portion 34b of the endoscope 34, and the arrangement of the markers 47 and 50, or a combination of active and passive, etc. Since the type of the endoscope 34 and the treatment instrument 33 can be specified, even if the treatment instrument 33 or the treatment instrument such as the endoscope 34 to be used is replaced, there is no need to newly recalibrate. be able to.
[0050]
FIG. 8 shows a second embodiment of the present invention. In the present embodiment, the configuration of the display screen displayed on the eyepiece portion of the mirror body 2 of the surgical microscope 1 according to the first embodiment (see FIGS. 1 to 7) is changed as follows.
[0051]
That is, the image display of the microscope image which actually displays the microscope image obtained by the mirror body 2 of the surgical microscope 1 on the microscope image display screen 71 of the eyepiece part of the mirror body 2 of the surgical microscope 1 of the present embodiment. A unit 72 and a target object virtual display unit 73 that virtually displays the target object 48 as in the first embodiment are provided.
[0052]
Furthermore, an arbitrary image can be displayed together on the object virtual display unit 73 of the microscope image display screen 71 by using picture-in-picture. For example, the position can be confirmed by 3D display or an endoscopic image can be displayed. I can do it.
[0053]
Therefore, in this embodiment, an operator who is viewing the microscope image display screen 71 of the eyepiece part of the body 2 of the surgical microscope 1 during the operation confirms a necessary image without taking his eyes off the eyepiece part. There is an effect that can be done.
[0054]
FIG. 9 shows a third embodiment of the present invention. In this embodiment, the endoscope 34 used together with the surgical microscope 1 of the first embodiment (see FIGS. 1 to 7) has a plurality of insertion portions 34a having different effective lengths, and in this embodiment, two types. Endoscopes 34A and 34B are provided.
[0055]
That is, in the present embodiment, the length of the insertion portion 34a2 of the other endoscope 34B is set to be larger than the length of the insertion portion 34a1 of one endoscope 34A. An endoscope marker 47a is arranged at a fixed setting position L1 from the distal end of the insertion portion 34a1 of the endoscope 34A. Further, similarly, an endoscope marker 47b is arranged at a fixed setting position L2 from the distal end in the insertion portion 34a2 of the endoscope 34B. Here, the installation position L1 of the endoscope marker 47a of the insertion section 34a1 on the endoscope 34A side and the installation position L2 of the endoscope marker 47b of the insertion section 34a2 on the endoscope 34B side are set to the same position. ing.
[0056]
Therefore, the above configuration has the following effects. That is, in the present embodiment, since the installation positions L1 and L2 of the endoscope markers 47a and 47b of the two types of endoscopes 34A and 34B are set to the same position, the two types of endoscopes 34A and 34B are arranged. Even if it is replaced during the operation, it can be used immediately without having to recalibrate.
[0057]
Furthermore, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the present invention.
Next, other characteristic technical matters of the present application are appended as follows.
Record
(Appendix 1) Means for measuring the position of the equipment to be used;
An endoscope having distance detection means for measuring the distance from the tip to the target;
Having image information display means,
The position information, the distance information, and biological image information recorded in advance are synthesized,
A position display device having a function of displaying on a screen.
[0058]
(Appendix 2) means for measuring the position of the equipment to be used;
Means for previously storing the shape of the device;
Means for displaying image information;
Combining the information on the position and shape of the device with biological image information recorded in advance,
A position display device for displaying the shape and position of the device on a screen in a distinguishable manner.
[0059]
(Appendix 3) Means for measuring the position of the equipment to be used;
Combining the position information and biological image information recorded in advance,
In the position display device that displays the position of the device,
If there are multiple devices to use,
By having a marker for the measurement means to identify at a specified position from their tips,
Even when the device to be used is replaced, the position from the marker to the tip is always constant.
[0060]
(Additional Item 4) In Additional Item 1,
The display content is
2D or 3D biological image information,
Positional information of the endoscope;
Synthesizing the position of the biological tissue located in the center of the visual field of the endoscope;
What can display the position in the biological tissue of the endoscopic image.
[0061]
(Additional Item 5) In Additional Item 2,
The display content is
2D or 3D biological image information,
2D or 3D shape information of the device used is synthesized,
A device capable of displaying the position of the device used with respect to a living tissue.
[0062]
(Additional Item 6) In Additional Item 3,
Depending on the mounting position or type of the marker,
The type of equipment used can be identified.
[0063]
(Additional Item 7) In Additional Items 1 to 3 and Additional Items 4 to 6,
The image information is
Those that can be arbitrarily inserted or combined into a microscope image of a surgical microscope.
[0064]
(Prior art of supplementary items 1 to 3) Conventionally, as in JP-A-5-305073, a tomographic image obtained in advance by CT or MRI is synthesized with a computer to display a tomographic or stereoscopic display and used for surgery. By calibrating the shape of devices such as treatment tools and endoscopes in advance, attaching position detection markers to those devices, and performing position detection using infrared rays or the like from the outside, the above-mentioned biological image information is displayed. There are devices that display the position of the devices that are being used, especially in neurosurgery and the like, and display the position of the brain tumor synthesized on a microscopic image, or navigate the direction in which the surgery proceeds.
[0065]
In addition, the position and shape of the subject have been recognized as in Japanese Patent Publication No. 6-43893 and Japanese Patent Publication No. 3-28686. Alternatively, there has been a surgical microscope capable of picture-in-picture of an endoscopic image as a microscopic image, as in JP-A-7-261994.
[0066]
In addition, in TV monitors and head mounted displays, it was possible to easily combine and display a plurality of images in a desired form by using an image mixer.
[0067]
(Problems to be solved by Supplementary Items 1 to 3) The problem to be solved by the present invention is a problem of the prior art.
-It is impossible to display in which part of the living body the living tissue viewed in the endoscopic image is located.
・ Generally used instruments such as treatment tools and endoscopes can only display a simplified bar shape on the screen and cannot display the shape, so parts that are out of the microscope image are not prepared. It is impossible to prevent damage to living tissue.
• You must recalibrate each time you change the equipment you use.
It tries to solve this point.
[0068]
(Effects of Supplementary Items 1 to 3)
-When an endoscope is used, the position on the living tissue of the image obtained by the endoscopic image can be displayed.
-By storing the shape of devices such as treatment instruments and endoscopes to be used, and by synthesizing and displaying the actual shape on the biological tissue image, for example, a part that is out of the microscopic image is inadvertently To prevent damage.
・ Eliminates the need to recalibrate even when equipment such as treatment tools and endoscopes are replaced.
That's it.
[0069]
【The invention's effect】
According to the present invention Inside When an endoscope is used, the position of an image obtained as an endoscopic image on a living tissue can be displayed, and the shape of a treatment instrument such as a treatment tool or an endoscope used can be It can be synthesized and displayed on the tissue image. For example, it is possible to prevent inadvertently damaging the living tissue from a part that is off the microscopic image, and to use a treatment instrument, an endoscope, etc. Even if the treatment device is replaced, it is not necessary to newly recalibrate, and the operation can be performed efficiently.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of an entire system of a surgical microscope using a surgical navigation system according to a first embodiment of the present invention.
FIG. 2 is a front view showing a body of the surgical microscope according to the first embodiment.
FIG. 3 is a schematic configuration diagram of the inside of a body of the surgical microscope according to the first embodiment.
FIG. 4 is a schematic configuration diagram of the entire surgical navigation system according to the first embodiment.
FIG. 5 is a perspective view showing a main configuration of the surgical navigation system according to the first embodiment.
FIG. 6 is a longitudinal sectional view of a main part showing a use state of the endoscope compatible with the surgical navigation system of the first embodiment.
FIG. 7 is an explanatory diagram for explaining a display example of the display device in the surgical navigation system according to the first embodiment.
FIG. 8 is a plan view showing a microscope image of an eyepiece part of a surgical microscope according to a second embodiment of the present invention.
FIG. 9 is a side view showing a plurality of endoscopes having different effective lengths used in the surgical navigation system according to the third embodiment of the present invention.
[Explanation of symbols]
1 Surgical microscope
33 Treatment tool (treatment device)
34 Endoscope (treatment device)
36 Position detection sensor (position measurement unit)
39 Image composition circuit (image information composition unit)
40 Storage device (storage unit)
44 TV monitor (image information display)
45 Head mounted display (image information display)

Claims (3)

患者の体内の術部を観察する手術用顕微鏡と、
前記体内の術部の処置に使用する処置用機器の位置を測定する位置測定部と、
患者の体内に挿入される挿入部の先端から前記術部の目標物までの距離を測定する距離測定手段を有する内視鏡と、
前記患者の体内の術部の画像情報を表示する画像情報表示部と、
予め測定された生体画像情報を保持する記憶部と、
前記位置測定部からの位置情報と、前記距離測定手段からの距離情報と、前記記憶部に予め記録されている生体画像情報とを合成して基準となる画像を構築するとともに、前記内視鏡及び前記手術用顕微鏡の位置、前記目標物との距離、内視鏡画像のデータから解析した前記術部内における前記手術用顕微鏡からは死角になって見る事が出来ない前記目標物の情報を前記画像情報表示部の画面上に合成表示する画像情報合成部と
を具備したことを特徴とする手術用ナビゲーションシステム。
A surgical microscope for observing the surgical site inside the patient's body ,
A position measuring unit for measuring the position of a treatment device used for treatment of the surgical site in the body ;
An endoscope having a distance measuring means for measuring a distance from a distal end of an insertion portion to be inserted into a patient's body to a target of the surgical site;
An image information display unit for displaying image information of an operation part in the patient's body;
A storage unit for holding biological image information measured in advance;
The position information from the position measuring unit, the distance information from the distance measuring unit, and the biological image information recorded in advance in the storage unit are combined to construct a reference image, and the endoscope And the position of the surgical microscope, the distance from the target, the information on the target that cannot be seen from the surgical microscope in the surgical site analyzed from the data of the endoscopic image, as a blind spot. A surgical navigation system, comprising: an image information synthesis unit configured to perform synthesis display on a screen of the image information display unit.
前記画像情報合成部は、前記処置用機器の形状を予め記憶しておく手段を有し、前記処置用機器の位置及び形状の情報と、予め記録されている生体画像情報とを合成して前記画像情報表示部の画面上に前記機器の形状と位置とを判別可能に表示するものであることを特徴とする請求項1に記載の手術用ナビゲーションシステム。  The image information synthesizing unit has means for preliminarily storing the shape of the treatment device, and synthesizes the position and shape information of the treatment device and biological image information recorded in advance. The surgical navigation system according to claim 1, wherein the shape and position of the device are displayed on the screen of an image information display unit so as to be discriminable. 患者の体内の術部を観察する手術用顕微鏡と、
前記体内の術部の処置に使用する処置用機器の位置を測定する位置測定部と、
患者の体内に挿入される挿入部の先端から前記術部の目標物までの距離を測定する距離測定部を有する内視鏡と、
前記患者の体内の術部の画像情報を表示する画像情報表示部と、
予め測定された生体画像情報を保持する記憶部と、
前記位置測定部からの位置情報と、前記距離測定手段からの距離情報と、前記記憶部に予め記録されている生体画像情報とを合成して基準となる画像を構築するとともに、前記内視鏡及び前記手術用顕微鏡の位置、目標物との距離、内視鏡画像のデータから解析した前記術部内における前記手術用顕微鏡からは死角になって見る事が出来ない前記目標物の情報を前記画像情報表示部の画面上に合成表示する画像情報合成部と
を具備し、
患者の体内の術部の処置に複数の処置用機器を適宜、選択的に交換して使用するとともに、
前記各処置用機器の先端から所定の設定位置に、前記位置測定部が識別する為のマーカーを設けたことを特徴とする手術用ナビゲーションシステム。
A surgical microscope for observing the surgical site inside the patient's body ,
A position measuring unit for measuring the position of a treatment device used for treatment of the surgical site in the body ;
An endoscope having a distance measuring unit for measuring a distance from a distal end of an insertion unit to be inserted into a patient's body to a target of the surgical unit;
An image information display unit for displaying image information of an operation part in the patient's body;
A storage unit for holding biological image information measured in advance;
The position information from the position measuring unit, the distance information from the distance measuring unit, and the biological image information recorded in advance in the storage unit are combined to construct a reference image, and the endoscope And the position of the surgical microscope, the distance from the target, and the information on the target that cannot be seen from the surgical microscope in the surgical site analyzed from the data of the endoscopic image. An image information composition unit for composition display on the screen of the information display unit,
As necessary, selectively replace multiple treatment devices for treatment of the surgical site inside the patient's body,
A surgical navigation system, wherein a marker for identifying the position measurement unit is provided at a predetermined set position from the tip of each treatment device.
JP2000017135A 2000-01-26 2000-01-26 Surgical navigation system Expired - Fee Related JP4472085B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000017135A JP4472085B2 (en) 2000-01-26 2000-01-26 Surgical navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000017135A JP4472085B2 (en) 2000-01-26 2000-01-26 Surgical navigation system

Publications (2)

Publication Number Publication Date
JP2001204738A JP2001204738A (en) 2001-07-31
JP4472085B2 true JP4472085B2 (en) 2010-06-02

Family

ID=18544167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000017135A Expired - Fee Related JP4472085B2 (en) 2000-01-26 2000-01-26 Surgical navigation system

Country Status (1)

Country Link
JP (1) JP4472085B2 (en)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010034530A1 (en) * 2000-01-27 2001-10-25 Malackowski Donald W. Surgery system
JP4047569B2 (en) * 2001-10-10 2008-02-13 オリンパス株式会社 Optical scanning probe system
JP4108958B2 (en) * 2001-10-23 2008-06-25 オリンパス株式会社 Endoscopic surgery system
JP4022068B2 (en) * 2001-12-28 2007-12-12 オリンパス株式会社 Endoscope system
US6741883B2 (en) * 2002-02-28 2004-05-25 Houston Stereotactic Concepts, Inc. Audible feedback from positional guidance systems
JP4615842B2 (en) * 2003-10-09 2011-01-19 オリンパス株式会社 Endoscope system and endoscope image processing apparatus
JP4695357B2 (en) * 2004-07-20 2011-06-08 オリンパス株式会社 Surgery system
JP4916114B2 (en) * 2005-01-04 2012-04-11 オリンパス株式会社 Endoscope device
WO2008093517A1 (en) 2007-01-31 2008-08-07 National University Corporation Hamamatsu University School Of Medicine Device for displaying assistance information for surgical operation, method for displaying assistance information for surgical operation, and program for displaying assistance information for surgical operation
JP5283157B2 (en) * 2007-03-20 2013-09-04 国立大学法人静岡大学 Surgery support information display device, surgery support information display method, and surgery support information display program
FR2917598B1 (en) * 2007-06-19 2010-04-02 Medtech MULTI-APPLICATIVE ROBOTIC PLATFORM FOR NEUROSURGERY AND METHOD OF RECALING
JP5561458B2 (en) 2008-03-18 2014-07-30 国立大学法人浜松医科大学 Surgery support system
JP5379454B2 (en) * 2008-11-21 2013-12-25 オリンパスメディカルシステムズ株式会社 Medical observation apparatus and medical observation system
JP5569711B2 (en) 2009-03-01 2014-08-13 国立大学法人浜松医科大学 Surgery support system
JP5675227B2 (en) 2010-08-31 2015-02-25 富士フイルム株式会社 Endoscopic image processing apparatus, operation method, and program
JP5302285B2 (en) 2010-10-28 2013-10-02 シャープ株式会社 Stereoscopic video output device, stereoscopic video output method, stereoscopic video output program, computer-readable recording medium, and stereoscopic video display device
JP5796982B2 (en) 2011-03-31 2015-10-21 オリンパス株式会社 SURGERY SYSTEM CONTROL DEVICE AND CONTROL METHOD
JP2013252387A (en) 2012-06-08 2013-12-19 Canon Inc Medical image processing apparatus
JP6108812B2 (en) * 2012-12-17 2017-04-05 オリンパス株式会社 Insertion device
CN105208958B (en) 2013-03-15 2018-02-02 圣纳普医疗(巴巴多斯)公司 System and method for navigation and the simulation of minimally-invasive treatment
JP6311393B2 (en) * 2014-03-28 2018-04-18 セイコーエプソン株式会社 Information processing apparatus, information processing method, and information processing system
JP5781135B2 (en) * 2013-09-27 2015-09-16 エフ・エーシステムエンジニアリング株式会社 3D navigation video generation device
JP6257371B2 (en) * 2014-02-21 2018-01-10 オリンパス株式会社 Endoscope system and method for operating endoscope system
JP6094531B2 (en) * 2014-06-02 2017-03-15 中国電力株式会社 Work support system using virtual images
EP3184071A1 (en) * 2015-12-22 2017-06-28 SpineMind AG Device for intraoperative image-guided navigation during surgical interventions in the vicinity of the spine and the adjoining thoracic, pelvis or head area
KR102620677B1 (en) * 2016-11-01 2024-01-04 한국전기연구원 Probe Apparatus and Method for Diagnosing Brain Tumor in Real-time using Electromagnetic Wave
DE102019114817B4 (en) * 2019-06-03 2021-12-02 Karl Storz Se & Co. Kg Imaging system and method of observation
WO2021014584A1 (en) * 2019-07-23 2021-01-28 Hoya株式会社 Program, information processing method, and information processing device
US11937882B2 (en) * 2019-08-27 2024-03-26 Biosense Webster (Israel) Ltd. ENT tools
JP6796346B1 (en) * 2020-02-12 2020-12-09 リバーフィールド株式会社 Surgical robot
JP6993043B1 (en) * 2020-10-27 2022-01-13 リバーフィールド株式会社 Surgical support device
WO2022091209A1 (en) * 2020-10-27 2022-05-05 リバーフィールド株式会社 Surgery assistance device

Also Published As

Publication number Publication date
JP2001204738A (en) 2001-07-31

Similar Documents

Publication Publication Date Title
JP4472085B2 (en) Surgical navigation system
JP5190510B2 (en) Multifunctional robotized platform for neurosurgery and position adjustment method
JP4101951B2 (en) Surgical microscope
US20220079686A1 (en) 3d navigation system and methods
US11160614B2 (en) Surgical imaging sensor and display unit, and surgical navigation system associated therewith
US20220039876A1 (en) Sensored surgical tool and surgical intraoperative tracking and imaging system incorporating same
ES2292593T3 (en) GUIDING SYSTEM
US6832985B2 (en) Endoscopic system with instrument position and orientation display
KR102356881B1 (en) Graphical user interface for catheter positioning and insertion
KR20190014112A (en) A graphical user interface for displaying guide information in a plurality of modes during an image guided procedure
KR20190015580A (en) A graphical user interface for displaying guide information during an image guided procedure
JP2007531553A (en) Intraoperative targeting system and method
JP2004530485A (en) Guide systems and probes therefor
CN110169821B (en) Image processing method, device and system
JP3730683B2 (en) How to operate a surgical microscope
JP2001161638A (en) Microscope for operation
WO2015091226A1 (en) Laparoscopic view extended with x-ray vision
JP4436495B2 (en) Surgical observation system
JP4488264B2 (en) Surgical microscope
JP4472080B2 (en) Microscopic surgery support system
JP2002017751A (en) Surgery navigation device
JP4460700B2 (en) Surgical site observation system
JP2004016357A (en) Observation system for medical operation
JP2023102286A (en) Surgical system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100303

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140312

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees