JP4472085B2 - Surgical navigation system - Google Patents
Surgical navigation system Download PDFInfo
- Publication number
- JP4472085B2 JP4472085B2 JP2000017135A JP2000017135A JP4472085B2 JP 4472085 B2 JP4472085 B2 JP 4472085B2 JP 2000017135 A JP2000017135 A JP 2000017135A JP 2000017135 A JP2000017135 A JP 2000017135A JP 4472085 B2 JP4472085 B2 JP 4472085B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- surgical
- image information
- endoscope
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 0 CC1C(C)C(C(*)=C)=C(C)C1C Chemical compound CC1C(C)C(C(*)=C)=C(C)C1C 0.000 description 2
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Endoscopes (AREA)
- Closed-Circuit Television Systems (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、表示部に表示されている例えば生体画像情報の上に使用している手術器具などの処置用機器の位置を表示することで手術を進める方向をナビゲートする手術用ナビゲーションシステムに関する。
【0002】
【従来の技術】
従来から例えば、特開平5−305073号公報などの様に、事前に撮影されたCT(computerized tomography)や、MRI(magnetic resonance imaging )などによる断層像をコンピューターで合成してモニターなどの表示部に断層もしくは立体表示すると共に、手術に使用する処置具や、内視鏡などの処置用機器の形状を予めキャリブレーションしておき、それらの機器に位置検出用のマーカーを取り付け、外部から赤外線などによる位置検出を行う事により、前述の生体画像情報上に使用している機器の位置を表示したり、特に脳外科などでは顕微鏡像に脳腫瘍の位置を合成して表示することにより、手術を進める方向をナビゲートする機器が開発されている。
【0003】
また、特公平6−43893号公報や、特公平3−28686号公報などには、被写体の位置や、形状を認識する技術が示されている。あるいは、特開平7−261094号公報などには、顕微鏡像に内視鏡像をピクチャーインピクチャーが可能な手術用顕微鏡が示されている。
【0004】
その他、TVモニターや、ヘッドマウントディスプレーなどでは、画像ミキサーを利用する事で、複数の画像を希望の形で合成して表示する作業を容易に行うことができる。
【0005】
【発明が解決しようとする課題】
しかしながら、上記従来構成のものにあっては次のような問題がある。
(1)モニターに表示されている内視鏡像で見ている生体組織が、生体のどの部分に位置するのかを表示する事が出来ない。
【0006】
(2)患者の体内の術部の処置に一般的に使用する処置具や、内視鏡などの処置用機器は、モニターの顕微鏡像の画面上では単純化された棒状のマークで表示されている。そのため、その処置用機器の形状を正確には表示出来ないので、特に処置用機器の一部が顕微鏡像から外れている場合には顕微鏡像から外れている部分などが生体組織に接触するおそれがある。このような場合には不用意に生体組織を損傷するおそれがる。
【0007】
(3)予め複数の処置用機器を準備し、使用する処置用機器を交換しながら処置を進める場合には使用する処置用機器を交換する度にキャリブレーションを取り直さなくてはならない。そのため、処置用機器の交換作業に手間が掛かるので、手術を能率良く進めることが難しい問題がある。
【0008】
本発明は上記事情に着目してなされたもので、その目的は、内視鏡を使用した場合に、内視鏡像で得られている画像の生体組織上での位置を表示することができ、さらに、使用する処置具や内視鏡などの処置用機器の形状を生体組織の画像上に合成して表示することができ、例えば顕微鏡像から外れている部分が不用意に生体組織に接触することを防止することができるとともに、使用する処置具や、内視鏡などの処置用機器を交換しても、新たにキャリブレーションを取り直す必要が無く、手術を能率良く進めることができる手術用ナビゲーションシステムを提供することにある。
【0009】
【課題を解決するための手段】
請求項1の発明は、患者の体内の術部を観察する手術用顕微鏡と、前記体内の術部の処置に使用する処置用機器の位置を測定する位置測定部と、患者の体内に挿入される挿入部の先端から前記術部の目標物までの距離を測定する距離測定手段を有する内視鏡と、前記患者の体内の術部の画像情報を表示する画像情報表示部と、予め測定された生体画像情報を保持する記憶部と、前記位置測定部からの位置情報と、前記距離測定手段からの距離情報と、前記記憶部に予め記録されている生体画像情報とを合成して基準となる画像を構築するとともに、前記内視鏡及び前記手術用顕微鏡の位置、目標物との距離、内視鏡画像のデータから解析した前記術部内における前記手術用顕微鏡からは死角になって見る事が出来ない前記目標物の情報を前記画像情報表示部の画面上に合成表示する画像情報合成部とを具備したことを特徴とする手術用ナビゲーションシステムである。
そして、本請求項1の発明では、患者の体内の術部の処置に使用する処置用機器の位置を位置測定部によって測定し、患者の体内に挿入される挿入部の先端から前記術部の目標物までの距離を内視鏡の距離測定手段によって測定する。さらに予め測定された生体画像情報を記憶部によって保持するとともに、位置測定部からの位置情報と、距離測定手段からの距離情報と、記憶部に予め記録されている生体画像情報とを画像情報合成部によって合成して基準となる画像を構築する。さらに、前記内視鏡及び前記手術用顕微鏡の位置、目標物との距離、内視鏡画像のデータから解析した前記術部内における前記手術用顕微鏡からは死角になって見る事が出来ない前記目標物の情報を画像情報表示部の画面上に合成表示するようにしたものである。
【0010】
請求項2の発明は、前記画像情報合成部は、前記処置用機器の形状を予め記憶しておく手段を有し、前記処置用機器の位置及び形状の情報と、予め記録されている生体画像情報とを合成して前記画像情報表示部の画面上に前記機器の形状と位置とを判別可能に表示するものであることを特徴とする請求項1に記載の手術用ナビゲーションシステムである。
そして、本請求項2の発明では画像情報合成部に処置用機器の形状を予め記憶させ、処置用機器の位置及び形状の情報と、予め記録されている生体画像情報とを合成して画像情報表示部の画面上に機器の形状と位置とを判別可能に表示するようにしたものである。
【0011】
請求項3の発明は、患者の体内の術部を観察する手術用顕微鏡と、前記体内の術部の処置に使用する処置用機器の位置を測定する位置測定部と、患者の体内に挿入される挿入部の先端から前記術部の目標物までの距離を測定する距離測定部を有する内視鏡と、前記患者の体内の術部の画像情報を表示する画像情報表示部と、予め測定された生体画像情報を保持する記憶部と、前記位置測定部からの位置情報と、前記距離測定手段からの距離情報と、前記記憶部に予め記録されている生体画像情報とを合成して基準となる画像を構築するとともに、前記内視鏡及び前記手術用顕微鏡の位置、目標物との距離、内視鏡画像のデータから解析した前記術部内における前記手術用顕微鏡からは死角になって見る事が出来ない前記目標物の情報を前記画像情報表示部の画面上に合成表示する画像情報合成部とを具備し、患者の体内の術部の処置に複数の処置用機器を適宜、選択的に交換して使用するとともに、前記各処置用機器の先端から所定の設定位置に、前記位置測定部が識別する為のマーカーを設けたことを特徴とする手術用ナビゲーションシステムである。
そして、本請求項3の発明では患者の体内の術部の処置に使用する処置用機器の位置を位置測定部によって測定し、患者の体内に挿入される挿入部の先端から前記術部の目標物までの距離を内視鏡の距離測定手段によって測定する。さらに予め測定された生体画像情報を記憶部によって保持するとともに、位置測定部からの位置情報と、距離測定手段からの距離情報と、記憶部に予め記録されている生体画像情報とを画像情報合成部によって合成して基準となる画像を構築する。さらに、前記内視鏡及び前記手術用顕微鏡の位置、目標物との距離、内視鏡画像のデータから解析した前記術部内における前記手術用顕微鏡からは死角になって見る事が出来ない前記目標物の情報を画像情報表示部の画面上に合成表示する。さらに、患者の体内の術部の処置に複数の処置用機器を適宜、選択的に交換して使用する際に、各処置用機器の先端から所定の設定位置のマーカーによって位置測定部が各処置用機器の種類を識別できるようにしたものである。
【0012】
【発明の実施の形態】
以下、本発明の第1の実施の形態を図1乃至図7を参照して説明する。図1は本実施の形態の手術用ナビゲーションシステムを使用する手術用顕微鏡のシステム全体の概略構成を示すものである。図1中で、1は手術室に設置されている手術用顕微鏡、2はこの手術用顕微鏡1の鏡体、61は患者32が載せられている手術用ベッドである。ここで、手術用顕微鏡1の架台3には、床面を移動可能なベース4と、このベース4上に立設された支柱5とが設けられている。なお、手術用顕微鏡1の架台3は手術室内における手術用ベッド61の先端部側(例えばベッド61上の患者32の頭部32aが配置される側)に配置されている。
【0013】
さらに、支柱5の上部には、手術用顕微鏡1の鏡体2を任意の方向に移動可能に支持する支持機構62が設けられている。この支持機構62には第1アーム6と、第2アーム7と、第3アーム8とが設けられている。ここで、第1アーム6には図示しない照明用光源が内蔵されている。そして、この第1アーム6の一端部は支柱5の上部に略鉛直方向の軸O1を中心に回転自在に取付けられている。
【0014】
さらに、第1アーム6の他端部には、第2アーム7の一端部が略鉛直方向の軸O2を中心に回転自在に取付けられている。この第2アーム7はリンク機構とバランス調整用のスプリング部材とからなるパンタグラフアームによって形成され、上下方向に移動操作可能になっている。
【0015】
また、第2アーム7の他端部には、第3アーム8の一端が略鉛直方向の軸O3を中心に回転自在に取付けられている。この第3アーム8の他端には手術用顕微鏡1の鏡体2が連結されている。さらに、この第3アーム8は、略水平面上で、互いに直交する方向の2つの軸O4,O5を中心としてそれぞれ回転自在に支持されている。そして、鏡体2はこの第3アーム8によって軸O4を中心として術者の観察方向に対する前後方向の俯仰を可能に、かつ軸O5を中心として術者の左右方向の俯仰を可能にそれぞれ支持されている。
【0016】
また、支持機構62の各回転軸O1〜O5における軸受部には図示しない電磁ブレーキが各々設けられている。この電磁ブレーキは支柱5に内蔵された図示しない電磁ブレーキ電源回路と接続されている。さらに、この電磁ブレーキ電源回路は、図2に示すように鏡体2に一体に固定されたグリップ9に設けられたスイッチ10と接続されている。
【0017】
そして、スイッチ10によって各回転軸O1〜O5の電磁ブレーキがオンオフ操作されるようになっている。ここで、スイッチ10が例えばオン操作された場合には各回転軸O1〜O5の電磁ブレーキがオフ操作されることにより、支持機構62がロック解除状態で保持され、鏡体2が空間的に自由に位置調整を行うことができるようになっている。そして、スイッチ10がオフ操作された場合には各回転軸O1〜O5の電磁ブレーキがオン操作されて支持機構62がロック状態に切換えられ、鏡体2の位置固定が行われるようになっている。
【0018】
また、図3は手術用顕微鏡1の鏡体2の概略構成を示すものである。この鏡体2には、1つの対物レンズ11と、左右一対の観察光学系14A,14Bとが設けられている。ここで、左右の各観察光学系14A,14Bの観察光軸上には変倍光学系12と、左右の結像レンズ13a,13bと、左右の接眼レンズ14a,14bとが順に配置されている。そして、この左右一対の観察光学系14A,14Bによって立体観察光学系が構成されている。
【0019】
また、結像レンズ13a,13bによる結像面は、それぞれ接眼レンズ14a,14bの焦点位置に配置されるように設置されている。なお、図3中の16は対物レンズ11のレンズ位置を検出する位置センサーを示すものである。ここで、対物レンズ11は図示しないモーターと連結されて光軸方向に移動可能に支持されている。そして、この対物レンズ11の光軸方向のレンズ位置が位置センサー16により検出できるように構成されている。
【0020】
また、本実施の形態の手術用顕微鏡1のシステムでは図4に示すように手術用顕微鏡1と同時に手術に使用する処置具33(例えばバイポーラ摂子や、超音波吸引器、鉗子類など)や、内視鏡34などの処置用機器が併用される。さらに、本実施の形態の手術用ナビゲーションシステムには患者32の頭部32aを囲む略C字状のヘッドフレーム35や、患者32の体内の術部の処置に使用する処置具33や、内視鏡34などの処置用機器の位置を測定する位置検出センサー(位置測定部)36が設けられている。
【0021】
ここで、ヘッドフレーム35は、患者32の頭蓋に固定されている。さらに、このヘッドフレーム35は、図示しない固定用フレームにより、移動しない様に手術用ベッド61に固定されている。
【0022】
また、ヘッドフレーム35には複数のヘッドフレームマーカー37が並設されている。このヘッドフレームマーカー37は、赤外線を発光するアクティブタイプあるいは、単なる突起であるパッシブマーカーを任意に選択して使用する。
【0023】
さらに、位置検出センサー36は位置、各設定値演算回路38に接続されている。この位置、各設定値演算回路38にはさらに画像合成回路(画像情報合成部)39が接続されている。この画像合成回路39には例えばワークステーションの記憶部などの記憶装置40と、例えばキーボード41や、マウス42や、タッチペン43、図示しないレーザーポインターなどの各種の入力装置(コントローラ)と、TVモニター44や、ヘッドマウントディスプレー45などの各種の表示装置(画像情報表示部)がそれぞれ接続されている。
【0024】
また、ヘッドフレーム35は手術前に予め患者32の頭部32aに装着される。そして、ヘッドフレーム35を装着した状態でMRIや、CTなどにより生体の断層像が撮影され、この時撮影される生体画像データ46が記憶装置40に記録される。これにより、生体画像データ46にヘッドフレーム35の位置データが合成され、ヘッドフレーム35を基準として以後のナビゲーションを行う事が可能となる。
【0025】
さらに、位置検出センサー36は、前述のヘッドフレーム35のヘッドフレームマーカー37や、後述する他のマーカーのタイプに合わせた赤外線センサーを有しており、各々複数のマーカーの捉えられ方により、その位置(方向)を検出出来る様になっている。
【0026】
また、生体内部を観察する内視鏡34には患者の体内に挿入される細長い挿入部34aの基端部に手元側の操作部34bが連結されている。この操作部34bには複数の内視鏡マーカー47が設けられており、その効果はヘッドフレームマーカー37と同様である。そして、予めキャリブレーションを取る事により、内視鏡マーカー47を位置検出センサー36が捉える事で、内視鏡34のヘッドフレーム35に対する相対的な位置や向きを把握するようになっている。
【0027】
更に、複数の内視鏡マーカー47の配置、あるいはアクティブとパッシブの組合せなどにより、内視鏡34の種類を特定できる。そのため、事前に入力されている内視鏡34の形状、視野方向、面角などのデータが読み出され、TVモニター44や、ヘッドマウントディスプレー45などの表示装置に内視鏡34の外形や視野方向、画角などが表示される。
【0028】
また、内視鏡34の挿入部34aの基端部には機種識別マーカー49が設けられている。そして、この機種識別マーカー49により、この内視鏡34がどの機種であるか(例えば、斜視か直視か、画角はいくつか、形状寸法はなどの機種毎のデータ)を判別出来る様になっている。この機種識別マーカー49は例えば色、あるいは数などによる識別を行い、位置検出センサー36により、その位置と種類が判断される。
【0029】
また、現在の内視鏡には一般にピント調節機能や、ズーム機能等が設けられている事が多い。そこで、本実施の形態の内視鏡34のこれらの機能の設定データは位置、各設定値演算回路38に送られ、ナビゲーション画像構築に使用されるようになっている。
【0030】
さらに、本実施の形態の手術用ナビゲーションシステム対応の内視鏡34には例えば本出願人が既に出願している特開平3−28686号公報に示されているスポット光の利用や、超音波センサーなどによる距離検出機能(距離測定手段)を有している。そして、図6に示すように内視鏡34の挿入部34aの先端と対象物(術部の目標物)48との間の距離S1を測定出来る様になっている。
【0031】
また、この内視鏡34と同時に併用される手術用顕微鏡1には、図2に示すように鏡体2の側面の所定の位置に信号部材として複数、本実施の形態では3つの顕微鏡マーカー18a、18b、18cが一体的に固定されている。これらの顕微鏡マーカー18a、18b、18cとしては赤外線を発光するアクティブタイプあるいは、単なる突起であるパッシブマーカーが任意に選択して使用される。そして、位置検出センサー36によってこれらの顕微鏡マーカー18a、18b、18cを検出することにより、ヘッドフレーム35と鏡体2との相対位置、各アームの回転角度などを変数とした位置検出や、顕微鏡マーカー18a〜18cによるヘッドフレーム35との相対位置検出によって、その位置を把握出来る様になっている。
【0032】
なお、バイポーラ摂子や、超音波吸引器、鉗子類など処置具33にもヘッドフレームマーカー37や、内視鏡マーカー47と同様の構成の処置具マーカー50が設けられている。
【0033】
次に、上記構成の作用について説明する。本実施の形態の手術用ナビゲーションシステムの使用時には手術前に事前に撮影されている生体画像データ46が記憶装置40から画像合成回路39に伝送され、基準となる画像が構築される。この際の画像は後述する様に3D画像、2D画像(正面・側面・上面)でも良いし、必要に応じて組み合わせても良い。また、3D画像は頭蓋(脳)内部の立体構造が判断可能であれば、その表示形式には特に制限は無く、ワイヤーフレーム像でも良いし、スケルトンの立体表示でも良い。
【0034】
その後、術者51は手術用顕微鏡1の鏡体2のグリップ9を握り、スイッチ10を押すことにより軸O1〜O5に内蔵された電磁ブレーキを解除し、鏡体2を移動して術部の観察部位に焦点位置を位置決めする。
【0035】
また、手術用顕微鏡1による観察時には術部から発せられた光束は、鏡体2に入射する。このとき、対物レンズ11から鏡体2に入射した光束は、変倍光学糸12、結像レンズ13a・13b、接眼レンズ14a・14bを透過して観察され、術者51は術部を所望の倍率で観察する。なお、観察後の焦点位置が合わないときは、対物レンズ11を図示しないモータにより駆動し、合焦を行う。
【0036】
また、手術用顕微鏡1による観察中、位置検出センサー36は鏡体2上の顕微鏡マーカー18a、18b、18cを検出し、その検出信号は位置、各設定値演算回路38に伝送され、信号処理されて、鏡体2の生体座標系における位置および姿勢が検出される。
【0037】
また、位置センサ16により対物レンズ11の位置情報が位置、各設定値演算回路38に伝送される。このとき、位置、各設定値演算回路38では対物レンズ11の位置情報から鏡体2に対する焦点位置の相対位置が算出される。さらに、鏡体2の生体座標系における位置および姿勢と、鏡体2に対する焦点位置の相対位置とから、生体座標系における焦点位置の位置が演算される。さらに、位置、各設定値演算回路38からの出力信号は画像合成回路39に入力され、TVモニター44や、ヘッドマウントディスプレー45などの表示装置に画像上の生体座標系に3次元画像データと焦点位置が重畳されて表示される。
【0038】
以上の動作により、術者43はTVモニター44や、ヘッドマウントディスプレー45などの表示装置の画面を目視することにより、この画面に表示された3次元画像データによる術部の画像に焦点位置が重畳された画像を観察することができる。そして、このTVモニター44や、ヘッドマウントディスプレー45などの表示装置の表示画像を観察することにより、3次元画像データによる画像上において、顕微鏡1の観察位置を知ることができる。
【0039】
また、手術時には患者の頭部32aの術部に処置具33や、内視鏡34などの処置用機器が挿入される。ここで、術部に例えば、処置具33が挿入された場合には、ヘッドフレーム35の位置を位置検出センサー36が検出し、基準の3次元座標を設定する。続いて、その基準の3次元座標に対して処置具33の位置を検出すると共に、前述の様に各処置具33の種類を認識し、位置、各設定値演算回路38に処置具33の種類のデータを伝送する。そして、事前に記憶装置40に記録されている処置具33の形状データを読み出し、画像合成回路39に伝送する。
【0040】
なお、処置用機器として内視鏡34が使用される場合についても処置具33の場合と同様にそのデータが画像合成回路39に伝送されると共に、内視鏡像についても伝送される。
【0041】
また、手術用顕微鏡1の鏡体2のデータについても前述の様に画像合成回路39まで伝送される。そして、この画像合成回路39には顕微鏡像も伝送され、前述の内視鏡像、前述の生体画像データ46による画像との合成により、死角の無い脳の画像が構築される。
【0042】
さらに、その脳の画像上に、前述の各処置具33、内視鏡34の形状データ、位置データが合成される。ここで、合成された画像はTVモニター44や、ヘッドマウントディスプレー45などの表示装置に表示されると共に、必要に応じて後述する顕微鏡像の中にピクチャーインピクチャーされる。
【0043】
そして、これらの制御はキーボード41、あるいはマウス42、タッチペン43、図示しないレーザーポインターなどのコントローラーによって、指示される。
【0044】
また、図7はTVモニター44の表示画面の表示例を示すものである。ここで、TVモニター44の表示画面の左半分には、3D表示部52が配置され、患者の頭部32aの術部が3D表示される。さらに、TVモニター44の表示画面の右上部分には上面像表示部53、側面像表示部54、正面像表示部55、また、表示画面の右下部分には顕微鏡像表示部56がそれぞれ配置されている。そして、上面像表示部53には患者の頭部32aの術部の上面像の2D画像、側面像表示部54には患者の頭部32aの術部の側面像の2D画像、正面像表示部55には患者の頭部32aの術部の正面像の2D画像、顕微鏡像表示部56には患者の頭部32aの術部の顕微鏡像の2D画像がそれぞれ表示されている。
【0045】
また、3D表示部52はワイヤーフレームによる表示を使用し、その内部の開頭の様子や、対象物(腫瘍など)を合成して立体的に表示している。更に、使用している内視鏡34などを立体的に外形表示し、その挿入状況や、対象物48との位置関係、周囲の生体組織との接触状況などが判断出来る様になっている。なお、上面像表示部53、側面像表示部54、正面像表示部55についても同様に合成された2Dの画像を示し、より確実に確認出来る様になっている。
【0046】
また、顕微鏡像表示部56には手術用顕微鏡1の鏡体2からは本来死角になって見る事が出来ない対象物48の様子を、前述の内視鏡34及び手術用顕微鏡1の位置、焦点位置、対象物との距離S1、ズーム設定、内視鏡画像などのデータから解析して合成表示されている。さらに、顕微鏡像表示部56の上部には内視鏡像表示部57が配置されている。そして、この内視鏡像表示部57には内視鏡34からの内視鏡像が表示されている。
【0047】
そこで、上記構成のものにあっては次の効果を奏する。すなわち、本実施の形態ではTVモニター44の表示画面には内視鏡34を使用した場合に、内視鏡像で得られている画像の生体組織上での位置を表示することができる。
【0048】
さらに、使用する処置具33や、内視鏡34などの処置用機器の形状を記憶して、実際の処置用機器の形状をTVモニター44の表示画面の生体組織画像上に合成して表示するようにしたので、従来のように処置具33や、内視鏡34などの処置用機器の一部が例えば顕微鏡像から外れ、その部分が不用意に生体組織に接触することを防止することができる。
【0049】
また、内視鏡34の操作部34bには複数の内視鏡マーカー47、処置具33には処置具マーカー50をそれぞれ設け、各マーカー47、50の配置、あるいはアクティブとパッシブの組合せなどにより、内視鏡34や、処置具33の種類を特定できるようにしたので、使用する処置具33や、内視鏡34などの処置用機器を交換しても、新たにキャリブレーションを取り直す必要を無くすことができる。
【0050】
また、図8は本発明の第2の実施の形態を示すものである。本実施の形態は第1の実施の形態(図1乃至図7参照)の手術用顕微鏡1の鏡体2の接眼部に表示される表示画面の構成を次の通り変更したものである。
【0051】
すなわち、本実施の形態の手術用顕微鏡1の鏡体2の接眼部の顕微鏡像表示画面71には実際に手術用顕微鏡1の鏡体2によって得られる顕微鏡像を表示する顕微鏡像の画像表示部72と、第1の実施の形態と同様に対象物48を仮想表示する対象物仮想表示部73とが設けられている。
【0052】
さらに、顕微鏡像表示画面71の対象物仮想表示部73にはピクチャーインピクチャーにより、任意の画像を合わせて表示可能であり、例えば3D表示により位置を確認したり、内視鏡像を表示したりする事が出来る。
【0053】
そこで、本実施の形態では手術中、手術用顕微鏡1の鏡体2の接眼部の顕微鏡像表示画面71を目視している作業者が接眼部から眼を離さずに必要な画像を確認する事が出来る効果がある。
【0054】
また、図9は本発明の第3の実施の形態を示すものである。本実施の形態は第1の実施の形態(図1乃至図7参照)の手術用顕微鏡1と併用される内視鏡34として挿入部34aの有効長が違う複数、本実施の形態では2種類の内視鏡34A、34Bを設けたものである。
【0055】
すなわち、本実施の形態では一方の内視鏡34Aの挿入部34a1の長さに比べて他方の内視鏡34Bの挿入部34a2の長さの方が大きくなるように設定されてれいる。そして、内視鏡34Aの挿入部34a1には先端から一定の設定位置L1に内視鏡マーカー47aが配置されている。さらに、内視鏡34Bの挿入部34a2にも同様に先端から一定の設定位置L2に内視鏡マーカー47bが配置されている。ここで、内視鏡34A側の挿入部34a1の内視鏡マーカー47aの設置位置L1と内視鏡34B側の挿入部34a2の内視鏡マーカー47bの設置位置L2とは同一の位置に設定されている。
【0056】
そこで、上記構成のものにあっては次の効果を奏する。すなわち、本実施の形態では2種類の内視鏡34A、34Bの各内視鏡マーカー47a、47bの設置位置L1、L2を同一の位置に設定したので、2種類の内視鏡34A、34Bを術中に交換しても改めてキャリブレーションを取り直す事無く、すぐに使用する事が可能である。
【0057】
さらに、本発明は上記実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々変形実施できることは勿論である。
次に、本出願の他の特徴的な技術事項を下記の通り付記する。
記
(付記項1) 使用する機器の位置を測定する手段と、
先端から目標物までの距離を測定する距離検出手段を有する内視鏡と、
画像情報表示手段を有し、
前記位置情報と、前記距離情報と、予め記録されている生体画像情報を合成し、
画面上に表示する機能を有する位置表示装置。
【0058】
(付記項2) 使用する機器の位置を測定する手段と、
前記機器の形状を予め記憶しておく手段と、
画像情報を表示する手段を有し、
前記機器の位置及び形状の情報と、予め記録されている生体画像情報を合成し、
画面上に前記機器の形状と位置が判別可能に表示する位置表示装置。
【0059】
(付記項3) 使用する機器の位置を測定する手段と、
前記位置情報と予め記録されている生体画像情報を合成し、
前記機器の位置を表示する位置表示装置において、
前記使用する機器が複数ある場合、
それらの先端から規定の位置に、前記測定手段が識別する為のマーカーを有する事により、
前記使用する機器を交換しても、常に前記マーカーから先端までの位置が一定であるもの。
【0060】
(付記項4) 付記項1において、
前記表示内容が、
2次元もしくは3次元の生体画像情報と、
前記内視鏡の位置情報と、
前記内視鏡の視野中心に位置する生体組織の位置を合成し、
前記内視鏡画像の生体組織における位置を表示可能なもの。
【0061】
(付記項5) 付記項2において、
前記表示内容が、
2次元もしくは3次元の生体画像情報と、
前記使用機器の2次元もしくは3次元の形状情報を合成し、
生体組織に対する前記使用機器位置を表示可能なもの。
【0062】
(付記項6) 付記項3において、
前記マーカーの取付位置もしくは種類により、
前記使用する機器の種類が判別可能であるもの。
【0063】
(付記項7) 付記項1〜3,付記項4〜6において、
前記画像情報が、
手術用顕微鏡の顕微鏡像内に任意に挿入もしくは、合成して表示可能なもの。
【0064】
(付記項1〜3の従来技術) 従来、特開平5−305073などの様に、事前に撮影されたCTやMRIなどによる断層像をコンピューターで合成して断層もしくは立体表示すると共に、手術に使用する処置具や内視鏡などの機器の形状を予めキャリブレーションしておき、それらの機器に位置検出のマーカーを取り付け、外部から赤外線などによる位置検出を行う事により、前述の生体画像情報上に使用している機器の位置を表示したり、特に脳外科などでは顕微鏡像に脳腫瘍の位置を合成して表示したり、手術を進める方向をナビゲートする機器があった。
【0065】
又、特公平6−43893や特公平3−28686などの様に、被写体の位置や形状を認識する事が行われていた。あるいは、特開平7−261094などの様に、顕微鏡像に内視鏡像をピクチャーインピクチャーが可能な手術用顕微鏡もあった。
【0066】
その他、TVモニターやヘッドマウントディスプレーなどでは、容易に画像ミキサーを利用する事で、複数の画像を希望の形で合成して表示する事が可能であった。
【0067】
(付記項1〜3が解決しようとする課題) 本発明が解決しようとする課題は従来技術の問題点である。
・内視鏡像で見ている生体組織が、生体のどの部分に位置するのかを表示する事が出来ない。
・一般的に使用する処置具や内視鏡などの機器は、画面上で棒状の単純化された表示しか出来ず、その形状を表示出来ない為、特に顕微鏡像から外れた部分などが不用意に生体組織を損傷する事を防止出来ない。
・使用する機器を交換する度にキャリブレーションを取り直さなくてはならない。
という点について解決しようとするものである。
【0068】
(付記項1〜3の効果) 本発明の効果は、
・内視鏡を使用した場合に、内視鏡像で得られている画像の生体組織上での位置を表示出来る様にする。
・使用する処置具や内視鏡などの機器の形状を記憶して、実際の形状を生体組織画像上に合成して表示する事により、例えば顕微鏡像から外れている部分が不用意に生体組織を損傷する事などを防止する。
・使用する処置具や内視鏡などの機器を交換しても、新たにキャリブレーションを取り直す必要を無くす。
というものである。
【0069】
【発明の効果】
本発明によれば、内視鏡を使用した場合に、内視鏡像で得られている画像の生体組織上での位置を表示することができ、さらに、使用する処置具や内視鏡などの処置用機器の形状を生体組織の画像上に合成して表示することができ、例えば顕微鏡像から外れている部分が不用意に生体組織を損傷することを防止することができるとともに、使用する処置具や、内視鏡などの処置用機器を交換しても、新たにキャリブレーションを取り直す必要が無く、手術を能率良く進めることができる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態の手術用ナビゲーションシステムを使用する手術用顕微鏡のシステム全体の概略構成図。
【図2】 第1の実施の形態の手術用顕微鏡の鏡体を示す正面図。
【図3】 第1の実施の形態の手術用顕微鏡の鏡体内部の概略構成図。
【図4】 第1の実施の形態の手術用ナビゲーションシステム全体の概略構成図。
【図5】 第1の実施の形態の手術用ナビゲーションシステムの要部構成を示す斜視図。
【図6】 第1の実施の形態の手術用ナビゲーションシステム対応の内視鏡の使用状態を示す要部の縦断面図。
【図7】 第1の実施の形態の手術用ナビゲーションシステムにおける表示装置の表示例を説明するための説明図。
【図8】 本発明の第2の実施の形態における手術用顕微鏡の接眼部の顕微鏡像を示す平面図。
【図9】 本発明の第3の実施の形態の手術用ナビゲーションシステムで使用される有効長の違う複数の内視鏡を示す側面図。
【符号の説明】
1 手術用顕微鏡
33 処置具(処置用機器)
34 内視鏡(処置用機器)
36 位置検出センサー(位置測定部)
39 画像合成回路(画像情報合成部)
40 記憶装置(記憶部)
44 TVモニター(画像情報表示部)
45 ヘッドマウントディスプレー(画像情報表示部)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a surgical navigation system for navigating a direction in which a surgical operation is performed by displaying the position of a treatment device such as a surgical instrument used on, for example, biological image information displayed on a display unit.
[0002]
[Prior art]
Conventionally, for example, as disclosed in JP-A-5-305073, a tomographic image obtained by CT (computerized tomography) or MRI (magnetic resonance imaging) is synthesized by a computer and displayed on a display unit such as a monitor. In addition to tomographic or stereoscopic display, the shape of treatment instruments used for surgery and treatment instruments such as endoscopes are calibrated in advance, and markers for position detection are attached to these instruments, and infrared rays are used from the outside. By performing position detection, the position of the device being used is displayed on the above-mentioned biological image information. Devices to navigate have been developed.
[0003]
Japanese Patent Publication No. 6-43893, Japanese Patent Publication No. 3-28686, and the like show techniques for recognizing the position and shape of a subject. Alternatively, Japanese Patent Application Laid-Open No. 7-261094 discloses a surgical microscope capable of picture-in-picture of an endoscopic image as a microscope image.
[0004]
In addition, a TV monitor, a head-mounted display, and the like can easily perform a work of combining and displaying a plurality of images in a desired form by using an image mixer.
[0005]
[Problems to be solved by the invention]
However, the conventional configuration has the following problems.
(1) It is impossible to display in which part of the living body the living tissue viewed in the endoscopic image displayed on the monitor is located.
[0006]
(2) Treatment tools generally used for treatment of the surgical site in the patient's body and treatment devices such as endoscopes are displayed with simplified bar-shaped marks on the screen of the microscope image of the monitor. Yes. For this reason, the shape of the treatment device cannot be accurately displayed. In particular, when a part of the treatment device is out of the microscope image, there is a possibility that the portion of the treatment device is in contact with the living tissue. is there. In such a case, there is a risk of inadvertently damaging the living tissue.
[0007]
(3) When a plurality of treatment devices are prepared in advance and the treatment proceeds while exchanging the treatment devices to be used, the calibration must be retaken every time the treatment device to be used is replaced. For this reason, since it takes time to replace the treatment device, there is a problem that it is difficult to efficiently perform the operation.
[0008]
The present invention has been made paying attention to the above circumstances, and its purpose is to display the position on the living tissue of the image obtained by the endoscopic image when the endoscope is used, Furthermore, the shape of a treatment device such as a treatment instrument or an endoscope to be used can be synthesized and displayed on an image of a biological tissue, for example, a portion that is out of the microscope image is inadvertently in contact with the biological tissue. Surgery navigation that can prevent surgery, and even if the treatment instrument used and treatment equipment such as an endoscope are replaced, there is no need to recalibrate and the operation can be carried out efficiently. To provide a system.
[0009]
[Means for Solving the Problems]
The invention according to
In the first aspect of the present invention, the position of the treatment device used for the treatment of the surgical site in the patient's body is measured by the position measuring unit, and the position of the surgical site is measured from the distal end of the insertion unit inserted into the patient's body. The distance to the target is measured by the distance measuring means of the endoscope. Furthermore, the biometric image information measured in advance is held in the storage unit, and the position information from the position measurement unit, the distance information from the distance measuring unit, and the biometric image information recorded in the storage unit are combined into image information. Synthesized by part To construct a reference image. Furthermore, the position of the endoscope and the surgical microscope, the distance from the target, the target that cannot be seen from the surgical microscope in the surgical site analyzed from the data of the endoscopic image and cannot be seen. Information on things On the screen of the image information display section Composition It is intended to be displayed.
[0010]
According to a second aspect of the present invention, the image information synthesizing unit has means for previously storing the shape of the treatment device, and information on the position and shape of the treatment device and a biological image recorded in advance. 2. The surgical navigation system according to
According to the second aspect of the present invention, the shape of the treatment device is stored in advance in the image information composition unit, and the position and shape information of the treatment device and the biological image information recorded in advance are combined to obtain image information. The shape and position of the device are displayed so as to be distinguishable on the screen of the display unit.
[0011]
The invention according to claim 3 is an operation part in a patient's body. A surgical microscope for observing the body and the surgical part inside the body An endoscope having a position measuring unit for measuring the position of a treatment device used for the treatment of the patient and a distance measuring unit for measuring the distance from the distal end of the insertion unit inserted into the body of the patient to the target of the surgical unit An image information display unit that displays image information of an operation part in the body of the patient, a storage unit that stores biological image information measured in advance, position information from the position measurement unit, and the distance measurement unit And the biometric image information recorded in advance in the storage unit. In addition to constructing a reference image, the position of the endoscope and the surgical microscope, the distance from the target, and the surgical microscope in the surgical site analyzed from the data of the endoscopic image is a blind spot. Information on the target that cannot be seen On the screen of the image information display section Composite display A plurality of treatment devices are appropriately and selectively exchanged for use in the treatment of the surgical site in the patient's body, and at a predetermined set position from the distal end of each treatment device. A navigation system for surgery which is provided with a marker for identification by the position measuring unit.
According to the third aspect of the present invention, the position of the treatment device used for the treatment of the surgical site in the patient's body is measured by the position measuring unit, and the target of the surgical site is measured from the distal end of the insertion portion to be inserted into the patient's body. The distance to the object is measured by the distance measuring means of the endoscope. Furthermore, the biometric image information measured in advance is held in the storage unit, and the position information from the position measurement unit, the distance information from the distance measuring unit, and the biometric image information recorded in the storage unit are combined into image information. Synthesized by part To construct a reference image. Furthermore, the position of the endoscope and the surgical microscope, the distance from the target, the target that cannot be seen from the surgical microscope in the surgical site analyzed from the data of the endoscopic image and cannot be seen. Information on things On the screen of the image information display section Composition indicate. Furthermore, when a plurality of treatment devices are appropriately and selectively exchanged for treatment of the surgical site in the patient's body, the position measurement unit performs each treatment with a marker at a predetermined set position from the tip of each treatment device. The device type can be identified.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 shows a schematic configuration of an entire system of a surgical microscope using the surgical navigation system of the present embodiment. In FIG. 1, 1 is a surgical microscope installed in the operating room, 2 is a mirror body of the
[0013]
Further, a
[0014]
Furthermore, one end of the
[0015]
Further, one end of the
[0016]
In addition, an electromagnetic brake (not shown) is provided on the bearing portion of each of the rotation shafts O1 to O5 of the
[0017]
And the electromagnetic brake of each rotating shaft O1-O5 is turned on / off by the
[0018]
FIG. 3 shows a schematic configuration of the
[0019]
Further, the image forming surfaces of the
[0020]
Further, in the system of the
[0021]
Here, the
[0022]
The
[0023]
Further, the
[0024]
The
[0025]
Further, the
[0026]
The
[0027]
Furthermore, the type of the
[0028]
A
[0029]
In addition, current endoscopes are generally provided with a focus adjustment function, a zoom function, and the like. Therefore, the setting data of these functions of the
[0030]
Furthermore, the
[0031]
Further, in the
[0032]
Note that the
[0033]
Next, the operation of the above configuration will be described. When using the surgical navigation system of the present embodiment, the
[0034]
Thereafter, the
[0035]
In addition, a light beam emitted from the surgical site at the time of observation with the
[0036]
During observation with the
[0037]
Further, the position information of the
[0038]
Through the above operation, the
[0039]
Further, during the operation, a
[0040]
Note that when the
[0041]
Further, the data of the
[0042]
Furthermore, the shape data and position data of each
[0043]
These controls are instructed by a controller such as a
[0044]
FIG. 7 shows a display example of the display screen of the
[0045]
In addition, the
[0046]
Further, the microscope
[0047]
Therefore, the above configuration has the following effects. That is, in the present embodiment, when the
[0048]
Furthermore, the shape of the
[0049]
In addition, a plurality of
[0050]
FIG. 8 shows a second embodiment of the present invention. In the present embodiment, the configuration of the display screen displayed on the eyepiece portion of the
[0051]
That is, the image display of the microscope image which actually displays the microscope image obtained by the
[0052]
Furthermore, an arbitrary image can be displayed together on the object
[0053]
Therefore, in this embodiment, an operator who is viewing the microscope
[0054]
FIG. 9 shows a third embodiment of the present invention. In this embodiment, the
[0055]
That is, in the present embodiment, the length of the insertion portion 34a2 of the
[0056]
Therefore, the above configuration has the following effects. That is, in the present embodiment, since the installation positions L1 and L2 of the
[0057]
Furthermore, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the present invention.
Next, other characteristic technical matters of the present application are appended as follows.
Record
(Appendix 1) Means for measuring the position of the equipment to be used;
An endoscope having distance detection means for measuring the distance from the tip to the target;
Having image information display means,
The position information, the distance information, and biological image information recorded in advance are synthesized,
A position display device having a function of displaying on a screen.
[0058]
(Appendix 2) means for measuring the position of the equipment to be used;
Means for previously storing the shape of the device;
Means for displaying image information;
Combining the information on the position and shape of the device with biological image information recorded in advance,
A position display device for displaying the shape and position of the device on a screen in a distinguishable manner.
[0059]
(Appendix 3) Means for measuring the position of the equipment to be used;
Combining the position information and biological image information recorded in advance,
In the position display device that displays the position of the device,
If there are multiple devices to use,
By having a marker for the measurement means to identify at a specified position from their tips,
Even when the device to be used is replaced, the position from the marker to the tip is always constant.
[0060]
(Additional Item 4) In
The display content is
2D or 3D biological image information,
Positional information of the endoscope;
Synthesizing the position of the biological tissue located in the center of the visual field of the endoscope;
What can display the position in the biological tissue of the endoscopic image.
[0061]
(Additional Item 5) In
The display content is
2D or 3D biological image information,
2D or 3D shape information of the device used is synthesized,
A device capable of displaying the position of the device used with respect to a living tissue.
[0062]
(Additional Item 6) In Additional Item 3,
Depending on the mounting position or type of the marker,
The type of equipment used can be identified.
[0063]
(Additional Item 7) In
The image information is
Those that can be arbitrarily inserted or combined into a microscope image of a surgical microscope.
[0064]
(Prior art of
[0065]
In addition, the position and shape of the subject have been recognized as in Japanese Patent Publication No. 6-43893 and Japanese Patent Publication No. 3-28686. Alternatively, there has been a surgical microscope capable of picture-in-picture of an endoscopic image as a microscopic image, as in JP-A-7-261994.
[0066]
In addition, in TV monitors and head mounted displays, it was possible to easily combine and display a plurality of images in a desired form by using an image mixer.
[0067]
(Problems to be solved by
-It is impossible to display in which part of the living body the living tissue viewed in the endoscopic image is located.
・ Generally used instruments such as treatment tools and endoscopes can only display a simplified bar shape on the screen and cannot display the shape, so parts that are out of the microscope image are not prepared. It is impossible to prevent damage to living tissue.
• You must recalibrate each time you change the equipment you use.
It tries to solve this point.
[0068]
(Effects of
-When an endoscope is used, the position on the living tissue of the image obtained by the endoscopic image can be displayed.
-By storing the shape of devices such as treatment instruments and endoscopes to be used, and by synthesizing and displaying the actual shape on the biological tissue image, for example, a part that is out of the microscopic image is inadvertently To prevent damage.
・ Eliminates the need to recalibrate even when equipment such as treatment tools and endoscopes are replaced.
That's it.
[0069]
【The invention's effect】
According to the present invention Inside When an endoscope is used, the position of an image obtained as an endoscopic image on a living tissue can be displayed, and the shape of a treatment instrument such as a treatment tool or an endoscope used can be It can be synthesized and displayed on the tissue image. For example, it is possible to prevent inadvertently damaging the living tissue from a part that is off the microscopic image, and to use a treatment instrument, an endoscope, etc. Even if the treatment device is replaced, it is not necessary to newly recalibrate, and the operation can be performed efficiently.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of an entire system of a surgical microscope using a surgical navigation system according to a first embodiment of the present invention.
FIG. 2 is a front view showing a body of the surgical microscope according to the first embodiment.
FIG. 3 is a schematic configuration diagram of the inside of a body of the surgical microscope according to the first embodiment.
FIG. 4 is a schematic configuration diagram of the entire surgical navigation system according to the first embodiment.
FIG. 5 is a perspective view showing a main configuration of the surgical navigation system according to the first embodiment.
FIG. 6 is a longitudinal sectional view of a main part showing a use state of the endoscope compatible with the surgical navigation system of the first embodiment.
FIG. 7 is an explanatory diagram for explaining a display example of the display device in the surgical navigation system according to the first embodiment.
FIG. 8 is a plan view showing a microscope image of an eyepiece part of a surgical microscope according to a second embodiment of the present invention.
FIG. 9 is a side view showing a plurality of endoscopes having different effective lengths used in the surgical navigation system according to the third embodiment of the present invention.
[Explanation of symbols]
1 Surgical microscope
33 Treatment tool (treatment device)
34 Endoscope (treatment device)
36 Position detection sensor (position measurement unit)
39 Image composition circuit (image information composition unit)
40 Storage device (storage unit)
44 TV monitor (image information display)
45 Head mounted display (image information display)
Claims (3)
前記体内の術部の処置に使用する処置用機器の位置を測定する位置測定部と、
患者の体内に挿入される挿入部の先端から前記術部の目標物までの距離を測定する距離測定手段を有する内視鏡と、
前記患者の体内の術部の画像情報を表示する画像情報表示部と、
予め測定された生体画像情報を保持する記憶部と、
前記位置測定部からの位置情報と、前記距離測定手段からの距離情報と、前記記憶部に予め記録されている生体画像情報とを合成して基準となる画像を構築するとともに、前記内視鏡及び前記手術用顕微鏡の位置、前記目標物との距離、内視鏡画像のデータから解析した前記術部内における前記手術用顕微鏡からは死角になって見る事が出来ない前記目標物の情報を前記画像情報表示部の画面上に合成表示する画像情報合成部と
を具備したことを特徴とする手術用ナビゲーションシステム。 A surgical microscope for observing the surgical site inside the patient's body ,
A position measuring unit for measuring the position of a treatment device used for treatment of the surgical site in the body ;
An endoscope having a distance measuring means for measuring a distance from a distal end of an insertion portion to be inserted into a patient's body to a target of the surgical site;
An image information display unit for displaying image information of an operation part in the patient's body;
A storage unit for holding biological image information measured in advance;
The position information from the position measuring unit, the distance information from the distance measuring unit, and the biological image information recorded in advance in the storage unit are combined to construct a reference image, and the endoscope And the position of the surgical microscope, the distance from the target, the information on the target that cannot be seen from the surgical microscope in the surgical site analyzed from the data of the endoscopic image, as a blind spot. A surgical navigation system, comprising: an image information synthesis unit configured to perform synthesis display on a screen of the image information display unit.
前記体内の術部の処置に使用する処置用機器の位置を測定する位置測定部と、
患者の体内に挿入される挿入部の先端から前記術部の目標物までの距離を測定する距離測定部を有する内視鏡と、
前記患者の体内の術部の画像情報を表示する画像情報表示部と、
予め測定された生体画像情報を保持する記憶部と、
前記位置測定部からの位置情報と、前記距離測定手段からの距離情報と、前記記憶部に予め記録されている生体画像情報とを合成して基準となる画像を構築するとともに、前記内視鏡及び前記手術用顕微鏡の位置、目標物との距離、内視鏡画像のデータから解析した前記術部内における前記手術用顕微鏡からは死角になって見る事が出来ない前記目標物の情報を前記画像情報表示部の画面上に合成表示する画像情報合成部と
を具備し、
患者の体内の術部の処置に複数の処置用機器を適宜、選択的に交換して使用するとともに、
前記各処置用機器の先端から所定の設定位置に、前記位置測定部が識別する為のマーカーを設けたことを特徴とする手術用ナビゲーションシステム。 A surgical microscope for observing the surgical site inside the patient's body ,
A position measuring unit for measuring the position of a treatment device used for treatment of the surgical site in the body ;
An endoscope having a distance measuring unit for measuring a distance from a distal end of an insertion unit to be inserted into a patient's body to a target of the surgical unit;
An image information display unit for displaying image information of an operation part in the patient's body;
A storage unit for holding biological image information measured in advance;
The position information from the position measuring unit, the distance information from the distance measuring unit, and the biological image information recorded in advance in the storage unit are combined to construct a reference image, and the endoscope And the position of the surgical microscope, the distance from the target, and the information on the target that cannot be seen from the surgical microscope in the surgical site analyzed from the data of the endoscopic image. An image information composition unit for composition display on the screen of the information display unit,
As necessary, selectively replace multiple treatment devices for treatment of the surgical site inside the patient's body,
A surgical navigation system, wherein a marker for identifying the position measurement unit is provided at a predetermined set position from the tip of each treatment device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000017135A JP4472085B2 (en) | 2000-01-26 | 2000-01-26 | Surgical navigation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000017135A JP4472085B2 (en) | 2000-01-26 | 2000-01-26 | Surgical navigation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001204738A JP2001204738A (en) | 2001-07-31 |
JP4472085B2 true JP4472085B2 (en) | 2010-06-02 |
Family
ID=18544167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000017135A Expired - Fee Related JP4472085B2 (en) | 2000-01-26 | 2000-01-26 | Surgical navigation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4472085B2 (en) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010034530A1 (en) * | 2000-01-27 | 2001-10-25 | Malackowski Donald W. | Surgery system |
JP4047569B2 (en) * | 2001-10-10 | 2008-02-13 | オリンパス株式会社 | Optical scanning probe system |
JP4108958B2 (en) * | 2001-10-23 | 2008-06-25 | オリンパス株式会社 | Endoscopic surgery system |
JP4022068B2 (en) * | 2001-12-28 | 2007-12-12 | オリンパス株式会社 | Endoscope system |
US6741883B2 (en) * | 2002-02-28 | 2004-05-25 | Houston Stereotactic Concepts, Inc. | Audible feedback from positional guidance systems |
JP4615842B2 (en) * | 2003-10-09 | 2011-01-19 | オリンパス株式会社 | Endoscope system and endoscope image processing apparatus |
JP4695357B2 (en) * | 2004-07-20 | 2011-06-08 | オリンパス株式会社 | Surgery system |
JP4916114B2 (en) * | 2005-01-04 | 2012-04-11 | オリンパス株式会社 | Endoscope device |
WO2008093517A1 (en) | 2007-01-31 | 2008-08-07 | National University Corporation Hamamatsu University School Of Medicine | Device for displaying assistance information for surgical operation, method for displaying assistance information for surgical operation, and program for displaying assistance information for surgical operation |
JP5283157B2 (en) * | 2007-03-20 | 2013-09-04 | 国立大学法人静岡大学 | Surgery support information display device, surgery support information display method, and surgery support information display program |
FR2917598B1 (en) * | 2007-06-19 | 2010-04-02 | Medtech | MULTI-APPLICATIVE ROBOTIC PLATFORM FOR NEUROSURGERY AND METHOD OF RECALING |
JP5561458B2 (en) | 2008-03-18 | 2014-07-30 | 国立大学法人浜松医科大学 | Surgery support system |
JP5379454B2 (en) * | 2008-11-21 | 2013-12-25 | オリンパスメディカルシステムズ株式会社 | Medical observation apparatus and medical observation system |
JP5569711B2 (en) | 2009-03-01 | 2014-08-13 | 国立大学法人浜松医科大学 | Surgery support system |
JP5675227B2 (en) | 2010-08-31 | 2015-02-25 | 富士フイルム株式会社 | Endoscopic image processing apparatus, operation method, and program |
JP5302285B2 (en) | 2010-10-28 | 2013-10-02 | シャープ株式会社 | Stereoscopic video output device, stereoscopic video output method, stereoscopic video output program, computer-readable recording medium, and stereoscopic video display device |
JP5796982B2 (en) | 2011-03-31 | 2015-10-21 | オリンパス株式会社 | SURGERY SYSTEM CONTROL DEVICE AND CONTROL METHOD |
JP2013252387A (en) | 2012-06-08 | 2013-12-19 | Canon Inc | Medical image processing apparatus |
JP6108812B2 (en) * | 2012-12-17 | 2017-04-05 | オリンパス株式会社 | Insertion device |
CN105208958B (en) | 2013-03-15 | 2018-02-02 | 圣纳普医疗(巴巴多斯)公司 | System and method for navigation and the simulation of minimally-invasive treatment |
JP6311393B2 (en) * | 2014-03-28 | 2018-04-18 | セイコーエプソン株式会社 | Information processing apparatus, information processing method, and information processing system |
JP5781135B2 (en) * | 2013-09-27 | 2015-09-16 | エフ・エーシステムエンジニアリング株式会社 | 3D navigation video generation device |
JP6257371B2 (en) * | 2014-02-21 | 2018-01-10 | オリンパス株式会社 | Endoscope system and method for operating endoscope system |
JP6094531B2 (en) * | 2014-06-02 | 2017-03-15 | 中国電力株式会社 | Work support system using virtual images |
EP3184071A1 (en) * | 2015-12-22 | 2017-06-28 | SpineMind AG | Device for intraoperative image-guided navigation during surgical interventions in the vicinity of the spine and the adjoining thoracic, pelvis or head area |
KR102620677B1 (en) * | 2016-11-01 | 2024-01-04 | 한국전기연구원 | Probe Apparatus and Method for Diagnosing Brain Tumor in Real-time using Electromagnetic Wave |
DE102019114817B4 (en) * | 2019-06-03 | 2021-12-02 | Karl Storz Se & Co. Kg | Imaging system and method of observation |
WO2021014584A1 (en) * | 2019-07-23 | 2021-01-28 | Hoya株式会社 | Program, information processing method, and information processing device |
US11937882B2 (en) * | 2019-08-27 | 2024-03-26 | Biosense Webster (Israel) Ltd. | ENT tools |
JP6796346B1 (en) * | 2020-02-12 | 2020-12-09 | リバーフィールド株式会社 | Surgical robot |
JP6993043B1 (en) * | 2020-10-27 | 2022-01-13 | リバーフィールド株式会社 | Surgical support device |
WO2022091209A1 (en) * | 2020-10-27 | 2022-05-05 | リバーフィールド株式会社 | Surgery assistance device |
-
2000
- 2000-01-26 JP JP2000017135A patent/JP4472085B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001204738A (en) | 2001-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4472085B2 (en) | Surgical navigation system | |
JP5190510B2 (en) | Multifunctional robotized platform for neurosurgery and position adjustment method | |
JP4101951B2 (en) | Surgical microscope | |
US20220079686A1 (en) | 3d navigation system and methods | |
US11160614B2 (en) | Surgical imaging sensor and display unit, and surgical navigation system associated therewith | |
US20220039876A1 (en) | Sensored surgical tool and surgical intraoperative tracking and imaging system incorporating same | |
ES2292593T3 (en) | GUIDING SYSTEM | |
US6832985B2 (en) | Endoscopic system with instrument position and orientation display | |
KR102356881B1 (en) | Graphical user interface for catheter positioning and insertion | |
KR20190014112A (en) | A graphical user interface for displaying guide information in a plurality of modes during an image guided procedure | |
KR20190015580A (en) | A graphical user interface for displaying guide information during an image guided procedure | |
JP2007531553A (en) | Intraoperative targeting system and method | |
JP2004530485A (en) | Guide systems and probes therefor | |
CN110169821B (en) | Image processing method, device and system | |
JP3730683B2 (en) | How to operate a surgical microscope | |
JP2001161638A (en) | Microscope for operation | |
WO2015091226A1 (en) | Laparoscopic view extended with x-ray vision | |
JP4436495B2 (en) | Surgical observation system | |
JP4488264B2 (en) | Surgical microscope | |
JP4472080B2 (en) | Microscopic surgery support system | |
JP2002017751A (en) | Surgery navigation device | |
JP4460700B2 (en) | Surgical site observation system | |
JP2004016357A (en) | Observation system for medical operation | |
JP2023102286A (en) | Surgical system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091110 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100209 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100303 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140312 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |