JP2007512854A - 手術用ナビゲーションシステム(カメラプローブ) - Google Patents

手術用ナビゲーションシステム(カメラプローブ) Download PDF

Info

Publication number
JP2007512854A
JP2007512854A JP2006530169A JP2006530169A JP2007512854A JP 2007512854 A JP2007512854 A JP 2007512854A JP 2006530169 A JP2006530169 A JP 2006530169A JP 2006530169 A JP2006530169 A JP 2006530169A JP 2007512854 A JP2007512854 A JP 2007512854A
Authority
JP
Japan
Prior art keywords
probe
patient
image
displayed
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2006530169A
Other languages
English (en)
Inventor
コックロ、ラルフ、アルフォンス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bracco Imaging SpA
Original Assignee
Bracco Imaging SpA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bracco Imaging SpA filed Critical Bracco Imaging SpA
Publication of JP2007512854A publication Critical patent/JP2007512854A/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】手術部位内のナビゲーションのシステム及び方法を提供する。
【解決手段】本発明に係わる実施形態では、トラッキング装置でトラックされる、携帯のナビゲーションのプローブに、マイクロカメラを設けている。これにより、プローブ内に設けたマイクロカメラの視点からのリアルタイム画像を見ながら、手術場面内でナビゲーションが可能となる。手術場面には、術前の走査から生成された対象構造のコンピュータ3次元画像が、重ね合わされている。カメラ画像および重ね合わせ3次元画像の透明性の調整で、深さの認識を強めることができる。プローブ先端と重ね合わせの3次元構造との距離、すなわちプローブから延びた仮想の放射線に沿った距離が、組合せた画像に動的に表示される。本発明の実施形態では、仮想インターフェイスが、組合された画像に隣接してシステムの表示装置に表示される。これによりナビゲーションに関わる機能が促進される。

Description

本発明は、コンピュータ支援の外科手術に関し、特にコンピュータで機能強化した手術用ナビゲーションシステムに関する。発明は、さらに、そのシステムの操作およびコントロールの方法および装置に関する。
画像ガイダンスシステムが、脳外科手術に、より一般的かつ広く適用されてきている。そのようなシステムは、正確性を増して広範囲の手術の処理を少なくしつつある。現在、画像ガイダンスシステム「ナビゲーションシステム」は、術前の画像データ取得に基づいている。これらのデータは、光学トラッキング装置、例えばMRI、CTなどで患者から得る。そのような光学トラッキングは、患者の皮膚に設けたマーカ(基準点)を検知して、術前の画像データの対応箇所と関連付ける。
多くの従来の画像ガイダンス手術では、術前の走査データの画像が、3次元座標の2次元画像で表示され、外科医がトラッキング作用をするプローブを持つ。プローブが、手術部位に導入されると、その先端位置は、画像上でアイコンとして表示される。術前の画像データを実際の手術領域とリンクさせることにより、ナビゲーションシステムは、外科医(あるいは施術者)に価値ある情報を提供する。つまり、患者体内でのツール(プローブ)の正確な位置である。これは、術前プランで使用する画像を、手術中の実際の組織に関連できる。
しかしながら、従来システムは、表示画像が2次元であるため、外科医が、頭の中で3次元画像に調整する必要がある。これらは、2次元断層データを提供する従来のナビゲーションシステムに共通する問題である。従って外科医は、著しい精神的努力で、術前の画像の位置関係(軸平面、前頭面、矢状面)と、患者の対象領域の物理的位置関係、例えば、脳神経外科手術での患者の頭(通常、手術中は、布で覆われている)を関連付ける。
他の従来システムは、3次元データセットを第4の表示ウィンドウで表示する。しかし、そのようなシステムで表示された3次元画像は、単なる術前の走査データで、外科医が実際に見る手術部位とは全く関連しないか又は合致しない。従って、そのようなシステムを使用している間、外科医は、作業中に、実際の外科の手術部位と表示された3次元視界とを頭の中で一致させることを強いられる。これは、関心有る物体の3次元画像(黒の背景に対する抽象的な物体)と手術部位の実際の視界を連続的に切り替える事を外科医に要求する。つまり技術に必要なものは、外科医の手術中に術前データを面倒でなく提供し、施術者のリアルタイムの外科手術のナビゲーション能力を高めることである。
本発明は、コンピュータ機能を強化した手術用ナビゲーションシステムとその方法を提供する。
本発明による典型的な形態では、トラッキング装置で位置決めする携帯型ナビゲーションプローブにマイクロカメラを設けている。これは、マイクロカメラで得られるリアルタイム画像を見ながら、手術部位でのナビゲーションが可能となる。リアルタイム画像は、対象とする構造の3次元グラフィックスに重ねられる。リアルタイム画像および重ね合わせた3次元グラフィックスの様々な透明な配置は、距離感覚を増強する。プローブと重ね合わせた3次元グラフィックスの「物体」間の距離が、重ね合わせた画像でダイナミックに表示される。発明の典型的な実施例では、仮想インターフェースも、システム画面上の重ね合わせた画像に隣接して表示することができる。これで、様々なナビゲーション関連と画面機能を相互作用させる事ができる。本発明の典型的な実施例では、外科手術のアプローチに仮想現実システム使用することができる。この場合、術前に獲得した多様なCTやMRIデータを利用する。本発明は、理想的な手術手順のマークに加えて、3次元構造の形成を可能とする。本発明の装置および方法は、手術の計画シナリオを、実際の手術部位のリアルタイム画像に変換することが出来る。
手術用ナビゲーション(手術部位操作案内)の斬新な装置および方法を提供する。本発明の典型的な実施例では、術前の3次元画像データの画像を、手術時のビデオカメラのリアルタイム画像に重ね合わせる。同時に、外科医またはユーザに、手術部位でのナビゲーションを提供する。ビデオカメラのリアルタイム画像に加えて、現下の対象点での走査データの軸平面、前頭面、矢状面を表示する。本発明による典型的な実施例では、この機能は、トラッキングされるマイクロビデオカメラとコンピュータ画像装置とを組合わせて達成される。実施例では、コンピューター画像装置は、ビデオカメラのリアルタイム画像に、術前に得た3次元画像データからのコンピュータ生成画像を重ね合わせて表示できる。
図1に、本発明の典型的な実施例によるプローブ110を示す。プローブ110は、ビデオカメラ120および先端に取付けたポインタ130を備えている。ビデオカメラ120は、プローブ先端がカメラの視界150内に入るように取付ける。したがって、外科医は、手術を通してシステムの画面モニターを見ることができる。任意に選択されたコンピュータ生成物体に加えて実際のビデオ画像も見ることが出来る。外科医は、手術部位から常にディスプレイモニターへ視野を移す必要が無くなる。カメラの重量は、非常に軽く容易に携帯できる。ポインタ130は、対象となる領域または物体、例えば立方体180、を指示できる。物体が不透明な場合、その内部に他の関与する物体、例えば円柱体190、があるとする。リアルタイムのビデオ画像は、立方体180が不透明のため、円柱体190を表示することができない。コンピューター画像システムは、ユーザに関心領域の増大・増強した視界を提供することが出来る。
下記に詳述するが、本発明の実施例では、コンピュータで生成した3次元の術前画像データを、ビデオのリアルタイム画像と重ね合わせて、半透明モードでの表示が出来る。術前の画像データとは、手術の計画データ、選択した物体、および対象とする構造である。同時に、関心領域の術前走査データを含む軸平面、前頭面および矢状面を3つの分離したウィンドウに表示できる。下記に記述するが、そのような画像面は、プローブ110のポインタ先端130の現下の位置に基づいてダイナミックに変えることができる。
図2は、ビデオカメラ120の視点から見た図1の典型的な場面を描く。本発明の実施例による拡張画像システムでは、立方体180(ビデオカメラのリアルタイム画像から)および立方体に隠れているコンピュータ生成の円柱体190(術前の走査データで生成)が見える。実際の外科手術処置では、例えば、手術部位内で見えるものに対して、既知であるが目に見えない又は塞がっている物体の正確な位置を知ることは重大である。例えば、頭蓋下の目に見える腫瘍を除去する時に、腫瘍裏に隠れている触れてはならない重要な構造、例えば視神経の正確な位置を知ることは極めて重大である。図2において、円柱体190は、隠れている物体の典型的な表示である。プローブ130を目に見える物体(立方体180で表示)に近付けた時、プローブ130と円柱体180の正確な距離は、ユーザには重大である。
本願発明の方法および装置は、ユーザに術前・術中に「通常の視界の向こう先」を見ることを可能にする。つまり、ポインタ130(図1、2参照)の先端の向こう先を見ることにより、腫瘍または近くの血管の位置を視覚化できる。さらに、図19〜24に関して下記に記載されるように、システムは、例えば、「視界を越えた」(ビデオカメラまたは肉眼には見えない)構造への距離を、ポインタ先端の方向に沿って表示することができる。これらの距離は、数値または他の読出し形式で表示される。従って、ユーザがプローブを移動させると、関与する物体とプローブとの距離変化を見ることが出来る。これらは、システムに内蔵している術前のデータに基づいている。これは、非常に鋭敏または重要な隠れた構造が近くに存在することをユーザに注意を促す。
本発明の方法および装置は、外科手術または他の体内ナビゲーションの新規な方法となる。本発明の実施形態では、患者の術前データによるコンピュータ生成3次元表示で強化された手術部位のリアルタイム画像と、動的に変化する軸平面、前頭面、矢状面像(術前走査データから生成)と、ポインタ先端のリアルタイムの位置とを同時表示することでナビゲーションを行なう。全ての画像ウインドウが一つのモニターで表示されるので、2つのモードでの表示は相互に強化される。この結果、ユーザは空間位置を一層理解し、ナビゲーションを更に容易かつ総括的に使用できる。
本発明の実施形態でのナビゲーションシステムの3次元データは、3次元ボリュームレンダリングで生成できる。例えば、Volume Interactions Pte Ltd社(シンガポール)のVizDexter(登録商標)またはRadioDexter(登録商標)の3次元画像可視化システムを用いる。VizDexterおよびRadioDexterシステムの各々は、3次元のデータ表示システムの仮想現実環境での多様なイメージ(例えば、CTとMRI)イメージで利用できる。本発明の典型的な形態では、そのような3次元のデータ表示システムは、例えば、Volume Interactions Pte Ltdによって提供されるDextroscope(登録商標)である。
≪装置の詳細≫
図3〜6は、本発明の典型的な形態の装置を示す。図7は、図3〜6の装置の概略図である。図3に示すように、本発明の実施形態のプローブは、4つの主要な部分からなる。それらの内の3つは、図3〜6で見える。プローブは、筐体320と、筐体320から取り外せるポインタ先端330と、筐体320に取付けた3個の球体325とを備えている。球体320の1つは、筐体320の前方部上方、そして2つの球体は、筐体の後方部に取り付けている。これら球体は、患者の身体(及び体内の関与する既知の構造)に対するプローブの位置をトラッキングするために使用される。
筐体320にビデオカメラのケースが収容される。筐体後端部322で見えるが、図10〜15で詳細を示す。カメラケースの後端部にケーブル340を接続してビデオカメラのビデオ信号を画像システムに送る。図3の典型的な装置では、カメラは(図3では見えないが、図12〜14でカメラ4が見える)、ガラスレンズ352の後ろ、筐体350の前方に、搭載できる。カメラは、取外し可能のポインタ330の先端が、視界に入るように取り付ける。ケーブル340の先端にカメラの絞り調整デバイス、例えば銀色のリング345を取付けても良い。図3では、ケーブル340の末端、絞り調整デバイス345およびカメラ全体の長さは、筐体320より短い。筐体の長さは、人間工学的および設計要素による。拡張部360は、カメラケース内のカメラ組立部品を保持できる。カメラ組立部品は、拡張部360の後ろで、固定デバイス370により筐体320に対して固定位置に(前後方向に)保持できる。さらにカメラケース内のカメラを筐体320に対して向き(回転)を代えて固定できる。これはカメラケースの後端部322の斜面を用いる。この斜面は、筐体320の後部の突起とかみ合い、カメラケース322がプローブ筐体320に固定される。これは図3の固定デバイス、ねじ380で実現できる。
図4〜6は、図3のプローブをユーザが保持しているのを種々の角度で表示している。図4〜6を参照すると、ユーザは、プローブをペンまたは鉛筆を持つように保持できる。図4に、プローブ筐体410の保持を示す。筐体の後部を人差し指と親指の間に置き、前方部を親指と人差し指でつかみ、中指に置く。図4〜6は、プローブが容易に操作できる手持ちサイズで有ることが分かる。
図4のプローブ筐体後部の突起485は、カメラケース422をケース内の斜面(図4では見えない)にかみ合わせて所望の回転方向で固定する。所望の回転位置で、固定ねじ480で固定する。突起485、固定ねじ480および斜面は、図13を参照して詳述する。
本発明の実施形態を図8〜15を参照して述べる。本発明の実施形態の典型的なプローブは、(1)取外し可能なポインタ先端330と、(2)カメラ組立部品を収容する筐体320(ユーザが保持する部分)と、(3)ケースに入れ込み固定するカメラと、(4) 1つ以上のナビゲーションマーカー、例えば、図3に示す3個のトラッキングボール(球体)325の4つの部分からなる。
図8と9は、本発明の実施形態のプローブのサイズの例である。図9は、図8のプローブにサイズを入れている。
図9は、取り外し可能のポインタ先端930、プローブ筐体920および2つのトラッキング球体925のサイズを表している。取り外し可能のポインタ先端の長さは130mm、筐体の前後端の長さは135mm、そして前後のトラッキング球体925中心間の距離は110mmである。図示したサイズは例示で、人間工学を考慮に加えて設計により大幅に変えても良い。筐体920の中心軸970は、ポインタ先端930の中心軸971から19mmオフセットしている。19mmのオフセットとポインタ先端の長さの組合せがカメラの視界サイズを決定する。
オフセットの長さは、ポインタ先端およびユーザの都合で15〜20mmの範囲にすることが可能である。プローブ筐体920の長さは、前方トラッキング球体925の垂直の中心軸と後方の2つの球体の垂直中心軸の中点との距離110mm、または、筐体920の前後端距離135mmで決められるが、人間工学的または設計の関係から変更しても良い。
本発明の実施形態のプローブ筐体の長さは、使用するトラッキング装置で下限が決まる。これは、ポラリスシステム(Polaris system)のようなトラッキング装置では、正確なトラッキングを得るために、前方のトラッキング球体と後方の一対の球体に50mmの横の距離が必要である。上限は300mmで、これ以上では正確なトラッキングは得られない。これらの制限、または他のトラッキング装置による制限内で、プローブ筐体の長さは、状況により変更しても良い。
実施例の図9で明らかであるが、前方のトラッキング球体中心と後方のトラッキング球体中心間で垂直方向にオフセットがある。これはトラッキング機能を付けるためである。一般的にトラッキング装置において、トラッキング球体の面をトラッキング装置の視野方向に対して垂直にするのが好ましい。トラッキング装置の視線は、図9の左上から右下45度の線となる。外科医は、プローブを水平にせず、また、水平から45度上向にもしない。これにより、プローブは、視野に正確に垂直となる。本発明の実施例では、前方と後方ペアのトラッキング球体の高さにオフセットを用いている。このオフセットは、3つのトラッキング球体が形成する面を、水平からプラスの角度に向ける。ここでは、プローブ先端を、後部に対して傾けて保持する状態をプラスの角度とする。これによりトラッキング装置の視線(左上からプラス45度)に対してトラッキング球体が形成する面を垂直に保つことが出来る。トラッキング装置に対してプローブの見易さを高めている。
プローブの筺体920は、加圧滅菌処理され、図9に示すように、殺菌ホース950が筐体後端に取り付けられている。筐体およびポインタ先端は、手術で使用されるため、好ましくは無毒、変異かつ腐食性の無いことが好ましい。本発明では、Tiを用いた。通常のカメラは、加圧滅菌器に入れることが出来ないため、手術室では殺菌しないカメラを殺菌ホース950に通し、プローブ筐体920に通して固定する。
筐体920は、先端がガラスまたは同様の材質からなり、カメラが無菌環境と接触するのを避ける。このガラスには、高い透明性のガラス、例えば石英を用いてカメラレンズを通過する入射光のゆがみを最小限にする。ガラスまたは同様の材料は、ぴったりと筐体に合って手術部位からカメラを密封している。
図10は、カメラ3をプローブ筐体2に一方向から挿入する状態を示す。カメラ3を筐体2の固定した位置に取り付けるための係止機構を設けても良い。この係止機構を、図13に示す。斜面部1301がカメラケース3の後部に刻まれている。カメラケース3がプローブ筐体2に入ると、斜面部1301は、突起プラグ1305に嵌合して、一方向でカメラを保持する。ねじ1310を締めてプローブ筐体2に対してカメラケース3を固定する。カメラケースにカメラが固定されているため較正が正確に行なえる。カメラの前面(これは、カメラの参照フレームの原点となる)から、取り外し可能のポインタ先端まで、およびナビゲーションマーカ(前述のトラッキング球体)の中心の距離が分かる(較正で予め測定されている)。
手術部位のビデオカメラのリアルタイム画像を提供する他、プローブは、デジタルズーム機能を備えた拡大デバイス、またはナビゲーションデバイスとして使用できる。ポインタ先端部を取り外して、カメラに邪魔の無い映像を提供またはプローブの前で操作する手または機器のスペースを取ることができる。デジタルまたは光学ズームで、拡大3次元コンピュータグラフィックスを、カメラ画像で拡大したサイズ・形に合わせられる。
カメラの解像度が充分高い場合、手術の時に光学拡大装置、例えば顕微鏡やヘッドアップレンズに置換える事も出来る。高分解能カメラと関連ズーム機能で、本発明の方法と装置は、顕微手術を根本的に変える。これにより、通常の画像処理技術を用いて、従来の光学システムを越える倍率及びより少ない光学歪の入射光を提供する。
本願発明の他の実施形態として、仮想画像並びにリアルタイム画像も立体的にできる。この場合、2台のカメラを配置し、オンライン立体画像を実施する。偏光、シャッターまたは色分けした3次元眼鏡で見ることになる。または既存の技術を使用した3次元表示で見てもよい。既存技術を用いて、立体画像を、術前の走査データからの立体的仮想画像と結びつけることが出来る。この実施形態は、最大の深さ感覚を与えてくれ、手術部位にアクセスするプローブの操作を促進する。そして外科医の直接の視線を必要としない。従って、外科医は、患者を見ながらナビゲーションする表示装置のみを用いる。
≪プロセスの流れ≫
図16は、手術用ナビゲーションの術前プランのプロセスフローを示す。ステップ1601で、目印または基準点を患者に付ける。形は、リング、正方形または容易に認識できる形で良く、走査の際に見える形が良い。基準点になるものは、既知の種々の材料からなる。ステップ1610で、患者に走査を行ない術前に画像データを生成する。図16には、コンピュータ断層撮影(CT)、磁気共鳴映像法(MRI)および3次元超音波走査(3DUS)からなるマルチモード走査を例示している。この走査から、ステップ1602で、患者の画像データセットを取得し、患者の解剖領域の3次元データセットを得る。ステップ1620で手術のプランを検討する。ステップ1601〜1620で取得する患者の画像データセットは、(i)手術を予定している領域または構造の画像データと、(ii)マルチモード走査空間の目印/基準点の3次元位置と、から成る。
次に図16および17でレジストレーションプロセスを説明する。レジストレーションプロセスは、図16のステップ1603での患者の画像データセットをビデオカメラの3次元空間の患者本体とを合わせこむプロセスである。患者の画像データセットを、ビデオカメラのリアルタイム画像に最小の誤差で重ね合わせる。リアルタイム画像と術前の走査データによる画像とを合わせて手術中のナビゲーションに使用する。明らかであるが、手術用ナビゲーションにおいて、術前の3次元画像データによるリアルタイム画像の増強は、重ね合わせ位置を正確にして始めて稼動する。つまり術前の3次元空間を、術中の患者およびビデオカメラが位置する3次元空間に、最小の誤差で合わせることで効果のある結果が得られる。図17で、左上のステップ1701および1702は、術前の画像データのプロセスを示し、ステップ1711および1712は、リアルタイム、すなわち実際の物理データを示している。この2つの平行したデータの流れをステップ1703でマッチさせる。
ステップ1701の患者の画像データセット(図16の1603)をロードする。ステップ1702で、患者の画像データセットから目印/基準点の3次元位置を抽出する。ステップ1711で、トラッキング装置、例えばNDI(Northern Digital Inc.)社のPolaris(登録商標)を従事させる。ステップ1712で、患者に取り付けた目印/基準点の実際の3次元位置をトラッキング装置の参照フレーム内で決める。ステップ1703で、ステップ1712とステップ1702の目印/基準点の3次元位置を関連付ける。ステップ1704で変換マトリクスMを生成する。この変換マトリクスMを、患者の術前画像データセットに作動させる。トラッキング装置の参照フレーム内の物体に座標変換を行なう。トラッキング装置の参照フレームと、カメラの参照フレームは同じである。
術中のプロセスフローを図18に示す。プローブ1802内のカメラは、患者1801のリアルタイム画像コンピュータ1861に送出し、例えばメモリバッファに蓄積する。プローブの3次元位置と方向は、トラッキング装置1803、例えばプローブ1802上のトラッキングマーカで検出される。仮想カメラ1804〜1806が、システムプログラムによりコンピュータ1861で生成される。その固有パラメータ1805は、プローブ1802内の実際のカメラのパラメータと同一である。この様なパラメータは、既存手段を用いて、予め正確な較正プロセスで決定できる。付帯的なパラメータ(位置および方向)1806は、トラッキング装置1803でアップデートする。トラッキング装置は、プローブ1811の3次元位置と方向、および、患者1812の3次元位置と方向を与える。結合データ1810も示している。トラッキング装置1803からの出力で、プローブデータ1811と患者データ1812に分けられる。
手術プランを含む患者の画像データセット1808を、Volume Interactions社のVixDexterおよびRadioDexterからロードする。また画像データセット1808を、図17で記述したレジストレーションプロセスで出力される変換マトリクスを用いて、患者にレジストレーションする。このレジストレーションは、患者1801に強く取り付けた基準マーカシステムに変換される。これによりレジストレーションは、トラッキング装置1803で基準マーカ1801をトラッキングすることで、手術中に維持される。仮想カメラ1804は、患者の画像データセットと手術プラン1808の仮想イメージ1821を生成する。これは要素1811および1812で示されるようにプローブ1802と患者1801からのアップデートしたトラッキングデータによる。仮想画像1821は、メモリバッファ1822に送られ、ミキサー1820でメモリバッファ1820に蓄積されているビデオ画像とミックスされ、モニタ1850に出力表示される。仮想および実像の透明性、色、サイズ、および他の性質をプログラムの種々のパラメータの調整でコントロールできる。
≪表示機能≫
図19〜24は、本願発明の実施形態での画面表示を示す。図19は、仮想物体への動的距離を表示している。図19は、カメラからの視界を図示している。着脱可能なポインタ先端1930そして仮想物体1960が見える。仮想の物体である球体1960は、カメラが見る手術部位では見えない。見えるのは、直方体1910のみである。しかし、術前の走査データにより、直方体1910の中に球体1960が横たわっている様に見える。本発明の機能は、カメラと着脱可能のポインタ先端1930の或る位置で、ユーザにポインタ先端1930と目に見えない(しかし存在している)仮想物体1960、例えば図19の球体1960との距離を連続した読出しで見ることが出来る。
このようにユーザは、プローブカメラの視界を越えて、不透明な面を通して物体を見ることが出来る。この物体は走査データから存在することは知られており、表示画面に仮想物体で表示される。この機能は、X線画像に似ており、DEX-Ray(登録商標)システムとして市場に出されている。この機能の説明のために、図20〜24に人の頭がい骨のモデルおよび頭がい骨内に挿入された種々の形の物体を示す。
図20は、本発明の実施例の画面を示す。メイン画面2010は、術前走査データから生成した仮想物体像と、カメラのリアルタイム画像と組合せたものを表している。走査データから生成される2次元画像は、表示装置の右に3つの小さい画面で示されている。これらは、軸平面2020、前頭面2030、矢状面2040からなる。これらの小さい画面には、円形アイコンを備えた十字線がある。これは、2次元像の各々で示される像に対するプローブ先端のリアルタイムの位置を示している。
図20を参照して説明する。座標系は、x軸、y軸、z軸からなる。x軸は、画像表示装置を横切る水平線、y軸は、x軸に垂直で画像の深さ方向に伸びている。z軸は他の軸に対して垂直である。軸平面2020がxy平面となり、プローブ先端が指示するz軸の頭がい骨の水平断層およびその内容を示す。軸平面2020は、頭がい骨の上からの眺めを表している。この場合、長方形の物体が見えている。同様に、前頭面2030は、xz面を表している。xz面は、y方向のプローブ先端に対して垂直の頭がい骨スライスを含んでいる。ここで記載する「プローブ先端」は、「ポインタ先端」として理解され同様の用語を交互に用いる。表示2040は、矢状面またはyz面を表し、x方向のプローブ先端に対する垂直の頭がい骨スライスとなる。つまり、頭がい骨の前額部に接する面である。
図20で注目する点は、ポインタ先端と球体間の距離2015(56.7mm)である。球体は、術前データで知られている閉じた頭がい骨の中にあり、メイン表示2010に仮想物体として表示されている。この距離は、ポインタ先端と仮想物体表面との距離である。ユーザは、仮想物体の色を選択できる。これにより近くの物体との区別が出来る。仮想球体2070は、赤そして仮想円柱体2080は、緑で表示されている。メイン表示の下部に、プローブ先端と仮想球体2070の間の距離56.7mmが表示される。
図21は、図20といくらかの点で異なる。メイン表示ウィンドウ2110のリアルタイム画像の下に、3つの色彩の表示がある。各々は、仮想物体の名前を示し、プローブ先端から仮想物体またはその近くのユーザ指定目印の点までの距離を示す。目印の点は、3次元データセットの何れにもセットできる。物体への距離を知るために、目印の点を、物体の先端または最上部中心に設ける。3つの球体が目印の点となり、プローブ先端と放射線で結んでいる。3つの内の2つは、円柱と円錐の先端にある。第3の球体は、円錐の右上を浮遊しているように見える。実際は、立方体の上にある。透明にセットしているので見えない。図22および23では立方体は見える。図22では、頭がい骨頭部の実像は除去している。図23では立方体の仮想像を見やすくしている。
メイン表示ウィンドウ2110の左下に、一対の赤色の長方形のウィンドウ2190がある。これは、目印の名前(上のウィンドウ)と目印への距離(下のウィンドウ、ここでは92.5mm)である。つまりプローブの右にある仮想円柱体である。真中の一対のウィンドウ2191は、円錐で、距離は129.5mmである。左端の一対のウィンドウは、立方体で、プローブ先端からの距離は82.4mmである。注目すべき点は、何れの目印の点も、メイン表示の仮想物体2180の球体上に無いことである。ポインタ先端から仮想球体までの距離2115は55.8mmである。本発明の実施形態では、仮想物体への最短距離が表示される。メイン表示ウィンドウの下に、目印の名前および距離が表示される。
ユーザは、術前の走査データから既知の一つ以上の物体を指定して表示できる。ポインタ先端から目印の点までの距離が同時に表示される。各々のウィンドウの数字は、ユーザがプローブを動かすと変化する。図21では、立方体は消されて(透明)いて表示されていない。しかし立方体先端の目印の点は、トラックされており、プローブ先端からの距離は、表示される。メイン表示に仮想の赤い球体が示されているのは、ポインタ先端の軸方向の放射線で最も近い物体である。仮想の放射線が最も近くの物体と交差する距離が、メイン表示に常に表示される。
図21には、図20と同様に、術前走査データの断面で、軸平面2120、前頭面2130、矢状面2140が表示されている。
図22〜24に、追加された機能を示している。軸平面は、下からの眺めを表している。図22〜24は、種々の物体を備えたモデル頭がい骨の説明である。
図22のモデルは、頭がい骨の上部を取り除いており、内部の物体は、仮想でなくカメラからのリアルタイム画像の一部である。従って自然色(灰色)が見える。仮想物体の赤い球体を表示させた。他の3つの物体である円柱、正方形、円錐は、ビデオ画像で見える。赤い球体の実際のビデオ画像の一部が見える。これは、仮想物体と実体とのレジストレーションミスによる。レジストレーションが正しければ、赤い仮想球体は、ビデオカメラのリアルタイム画像を完全にふさぐ。ただし、仮想球体が半透明モードに設定されている場合、隠れている実のビデオ画像が、半透明の赤い仮想球体を通して見ることが出来る。モデル頭がい骨に挿入された平面2250に、全ての物体が位置している。
図23〜24で、モデル頭がい骨の頂部を戻しているので、平面上に位置する4つの物体が再び仮想物体となる。これらは、プローブ内のカメラには見えない。図23ではポインタ先端から延びた仮想放射線に最も近い物体は、球体でなく円柱体となる。その距離は72.5mmで、メイン表示の下部に表示されている。メイン表示下の長方形のウィンドウには、円柱体の上端目印の点までの距離81.8mmが表示されている。円錐体および立方体上端の目印点までの距離も、各々表示されている。これらの距離は、明らかに円柱体までの距離と異なる。円柱体への距離は、目印点までの距離ではなく、プローブ先端からの最短距離となる。
最後に、図24は、図23と類似したものを表示している。ここではプローブ先端の位置を下げている。指定目印までの距離が全て少し大きくなっている。プローブの移動量は、図23と24の矢状面の表示から分かる。図24では、円柱体が再び最も近い物体で、距離は82.7mmである。円柱体、円錐体、立方体の3つの物体および各々に設定された目印点までの距離が、メイン表示下部に表示される。
≪実施形態≫
本発明は、図25〜31に図示する典型的なシステムと環境で実施される。図示するシステムは、本発明の実施形態に基づいた手術用ナビゲーション装置DEX-Ray (シンガポールVolume Interactions Pte Ltd社製)である。図示する装置は、3次元データセット視覚化装置、例えばVizDexterまたはRadioDexterと一緒に又は一体化が可能である。これにより完全な手術プランおよびナビゲーション装置または道具を提供できる。また図示する装置単体の提供もできる。この場合、ユーザが、ソフトウェア(RadioDexter)で動作する3次元データセット視覚化装置(Dextroscope)を既に備えている必要がある。本発明の実施形態として、DEX-Ray装置に関して記載する。
DEX-Rayは、内部構造の3次元再構成と手術室の患者のライブビデオ像との自動重合せを執刀医に提供する。装置には次の様なハードウェアが必要である。キーボードとマウスのインターフェイスを備えたコンピュータ、NDI社製のPolarisのようなトラッキング装置、画像を表示するモニター、ミニカメラを内蔵したプローブ、プローブおよび患者に貼り付ける基準マーカである。
DEX-Rayの使用前に、患者の仮想データを準備する必要がある。仮想データは、VizDexter、RadioDexter、または他の3次元相互視覚化システムを用いる。他には、対象とする解剖物体の分割、仮想基準点の設置、手術プランデータ(経路、目印、注釈)の蓄積が必要である。
患者の仮想データをDEX-Rayに取込み、基準点をベースにしたレジストレーションで、用意した仮想データを手術での実際の患者とを関連付ける。レジストレーションが完了すると、DEX-Rayナビゲーションページがユーザに示される。このページを参照しながら、ユーザは、ビデオカメラのリアルタイム画像とコンピュータで生成された仮想画像とが結合した状態でナビゲートできる。また、ユーザは、DEX-Ray装置で、表示および他のコントロール設定を調整できる。
図25は、典型的なデータ取込みページを示している。このインターフェイスで、患者の仮想データをDEX-Ray装置に取込む。図示例では、ディレクトリ(D:/Demo/Cases)は、仮想データの全てが蓄積しており、フィールド"Location"で示されている。図示するページは、ロケーションフィールドのディレクトリのデータファイルの全てが、ケースリストボックスにリストされている。各データセットはケースに対応する。各データファイルは、拡張子.dexを備え、ファイル名の前にユニークなアイコンが付く。ファイル名がクリックされると、ファイルを閲覧しているのが強調表示される。ファイル名がダブルクリックされると、ケース内の全てのオブジェクトが、ケースビューアにリスト表示(表示画面の右側)される。患者の情報(氏名、性別、出生日など)が、患者詳細ボックス(ケースリストボックス下)に各々表示される。ユーザは、ケースリストボックスの上部のヘッダ、氏名または日付をクリックしてデータファイルをソートする。
ケースを選択すると、オブジェクトの全てがケースビューアボックスにリスト(図25の右側)される。図示したRadioDexter装置では、オブジェクトは、、ボリューム、アノテーション、測定、メッシュ、アライメントの5つのカテゴリに分類されている。他の実施例では、便利なオブジェクトカテゴリが使用できる。
ケースが全てロードされると、ユーザはデータローディングページ右下の「次の」ボタンをクリックしてレジストレーションページに行くことが出来る。ユーザがケースをロードせずにレジストレーションページに進もうとすると、エラーメッセージボックスがポップアップして警告が出て、ケースに入ることを忠告する。
要約すると、データローディングページでの例示操作として、(i)ケースリストボックスのケースをダブルクリックする、(ii)エディットボックスで患者情報を確認する、(iii)ケース閲覧ボックス内のオブジェクトをロード/アンロードまたは表示する/隠す、(iv)nextボタンをクリックしてレジストレーションページへ移る。
図26および27は、各々、レジストレーション前および後のレジストレーションページを図示する。このページは、仮想データ(術前の走査で生成されたデータ)を手術室の患者にレジストレーションするためである。3次元のインタラクティブ表示装置、例えばRadioDexterで生成される仮想データは、仮想世界での自身の位置および方向を有する。仮想データは、患者の走査データから再現されるが、患者の各位置および方向が、手術室で横たわる患者と異なっている。実際の位置および方向は、トラッキング装置の座標系で定義される。術前の仮想データを実際の患者に正確に重ね合せるために、仮想データと患者とをレジストレーションする。
図26および27のレジストレーションページは、4つに分割されている。上の2つは、重ね合せの視界(左側)とトラッキングボリューム視界(右側)で、見て目視で確認するために使用される。下の2つは、基準点ボタンおよびレジストレーションボタンで(左側)、そしてメッセージフィールドおよび「次」のボタン(右側)で、ユーザとDEX-Ray装置とインタラクティブとなる。
レジストレーションが終了すると、重ね合せ画像(左上の図)で、仮想画像とライブのビデオ画像とが合致しているかを確認する。レジストレーションが実行される前に、調整される物体の画像が表示(ここでは、頭がい骨)される。RadioDexterのような3次元データ表示装置で定められたオリジナルの位置および方向が表示される。調整物体は、図26の重ね合せ画像に示すラベルで印をつけた一連の点である。レジストレーションが行なわれると、視点がシフトして図27の重ね合せ像に示すミニカメラに変わる。
図27では、レジストレーション中にユーザが選択した基準点は、物体のビデオ画像に表示されるが、元の仮想の調整物体は隠れる。最大のレジストレーションエラーの基準点(基準点番号2)は、一対の大きな黄色の矢印でマークされ、図27で容易に見えるようにしている。
トラッキングボリュームビュー(4分割の右上)で、トラッキング装置でトラックされる全ての項目が、最適なトラッキングボリューム内に有ることを確認する。3次元ボリュームは、画面では2次元画像で表示されるので、2つの画像、平面画像と正面画像が表示に現われる。平面像は、ユーザが、トラッキング装置の前に立ち、トラッキング装置の上からトラッキングボリュームを見た視点を表示している。正面像は、ユーザが、トラッキング装置の前に立ち、トラッキングボリュームを見た視点となる。各視点において、トラッキング装置は、長い長方形で示される。例として、トラッキングボリュームの形は、半球(半径0.5m)と円柱(半径0.5m、高さ0.5m)からなる。平面像は、水平面で切った断面で、正面像は、垂直面で切った断面である。正面像のトラッキングボリュームのラベルB、R、F、Lは、後、右、前、左を意味する。同様に正面像で、中央の長方形は、トラッキング装置を表し、円はトラッキングボリュームの垂直断面を示しており、ラベルT、R、B、Lは、上端、右、下端、左を意味する。トラッキングされた項目は、アイコンで示されている。この場合、小円形とその中の十字形である。図26では、1つのアイコンは、基準マーカを示し、他のアイコンは、プローブ先端の位置を示す。レジストレーション中に、ユーザが選択する基準点をピンクの十字形で示して認識しやすくしても良い。これは図27の平面像および正面像に示している。
レジストレーションが完了すると、各基準点のレジストレーションエラーが、図27に示すように、ボタンに示される。この場合、レジストレーションエラーは、仮想の基準点とユーザが選択する実の基準点間の相違として定義される。赤で記されるエラーは、基準点が最大のレジストレーションエラー(基準点番号2)を示している。灰色のスケールでは見にくい。
基準点ボタンの右側にレジストレーションに関するボタンが3つある。「基準点を取る」「レジストレーションする」「レジストレーションをリセットする」の3つである。ユーザが何れかのボタンの上にカーソルを置くと、指示メッセージが表示される。図26の右下に「基準点を取る」と表示されている。
ユーザは、プローブ先端を患者の各基準点に置く毎に、「基準点を取る」ボタンをクリックする。「レジストレーションをする」ボタンは、基準点のマッチングの数が異なる時に使用される。これは、ユーザが取り上げた実際の基準点が、仮想データでの仮想基準点よりも少ない時に起きる。この機能は、便利である。実の基準点の幾つかが無くなっていたり、又はずれている時があるためである。また少ない基準点を好むユーザもいる。
レジストレーションをやり直す時は、「レジストレーションをリセット」ボタンをクリックする。これは、基準点を取りまたはレジストレーション後、ユーザがレジストレーションの結果に満足できない場合(例えば、エラーが大きく重ね合わせが出来ない)である。
レジストレーション終了後、レジストレーションページ下部の「次」のボタンをクリックしてベクトル記録ページ(図29、30)を開く。レジストレーションを完了せずに次のページに入ると、エラーメッセージが表示される。
図28は、レジストレーションプロセスを説明するプロセスのフローチャートの例である。ステップ2801で、ユーザはプローブ先端を患者に取付けた基準点に向ける。ステップ2802で、図26、27の4分割の左下にある3つのボタンの上部にある「基準点を取る」ボタンをクリックする。ステップ2804で全ての基準点が選択されると、ステップ2809に移る。ここでレジストレーションエラー再度見る。エラーが無ければ、ステップ2810に移り、レジストレーションページから出る。ステップ2809で、レジストレーションエラーが許容できない場合、フローはステップ2808に移り、許容できないエラーが1つ以上かどうかを判断する。エラーが1つの場合、ステップ2807で基準点が再レジストレーションされ、ループがステップ2802で再度入る。2つ以上のレジストレーションエラーが要求に満たない場合、ステップ2805でレジストレーションがリセットされ2つ以上の基準点が再度選択される。
ステップ2804で、全ての基準点が選択されていない場合、フローはステップ2803に移り、仮想基準点の数より少ないかどうか、即ち、異なった点のマッチングが要求されているかを判断する。Y(yes)の場合、ステップ2806に進む。ここで「レジストレーションする」ボタンをクリックすると、フローは、ステップ2809を経てレジストレーションを終了する。許容できる精度には、6つ以上の基準点が必要である。この数は、レジストレーション技術による。ステップ2803で、異なる点のマッチングが所望されない場合、フローは2802に移り、更に基準点が選択され、仮想および実際の基準点が同一になる。これが完了すると、プロセスのフローは、ステップ2804に戻りステップ2809に移る。ここでユーザは、再びレジストレーションエラーを評価して、ステップ2808に戻るか又はステップ2810の「次」のボタンを経てベクトル記録ページに入る。
図29、30は、ベクトル記録ページを示している。このインターフェイスが、相対的に垂直のベクトルを記録するのに使用される。下記に記載するナビゲーションページ(図31)のカーソルの動きをコントロールするのに使用される。ナビゲーションページのカーソル動作がプローブでコントロールされる。プローブが仮想面で動作しているようなものである。ユーザは、この仮想面で指示方向を記録する必要がある。外科医は、プローブ動作をDEX-Ray装置のインターフェイスに使用するため、物理的インターフェイスに触れずにシステムをコントロールできる。プローブがトラッキング装置でトラックされているので、プローブが指定領域に入るとインターフェイスとして使用される。従って外科医または他のユーザは、患者の近くで立ちながら装置をコントロールできる。DEX-Ray装置を配置している所へ歩く必要が無い。プローブを他の手動でないインターフェイス、例えば、フットスイッチと一緒に使用できる。図29は、プロセス開始のベクトル記録ページを図示している。ここでは、ユーザは、ベクトルに対して上方の点を選択するように指示される。図30は、垂直ベクトルがユーザで選択された後のベクトル記録ページの例である。ステータスボックスで表示されている。
ベクトル記録ページは、いくつかのコンポーネントを備えている。インストラクションボックス(図29、30の左上)およびドローイングボックス(図29、30の右上)で、これらのボックスは、ユーザがベクトルを記録している時に指示を視覚的に表示する。ドローイングボックス下部の灰色のグリッドは、水平面を表し、両端に赤い球を備えた赤い線は、空間の垂直ベクトルを表している。ユーザが、ベクトルの上の点を記録する時、上の球が、記録するまで点滅する。次に下の球が点滅して、ユーザに、ベクトルの下の点を記録するように指示する。記録プロセスが終了すると球は点滅しなくなる。
ステータスボックス(左下)には、現在の稼動状態(正しく又は誤って稼動している)が、ボックスに逐次表示される。正常に動作している場合、文字は緑色で表示される。そうでない場合、文字は赤で表示される。
記録点ボタン(左下)で、ユーザは、空間のベクトルの各端の点を取る度に、このボタンをクリックする。テストベクトルボタン(左下3つのボタンの中央)は、ベクトル記録プロセスが終了すると、ユーザはこのボタンをクリックして、選択したベクトルをテストできる。そしてインターフェイスがシフトする。プローブを動かしてカーソルの動作が満足できるかどうかを見る。テストが終了するとリターンボタンをクリックしてベクトル記録ページに戻る。カーソルの動作が満足できる場合は、ベクトルテストを省略しても良い。この時点で、選択した画面のカーソルの動作が満足できるまで、他のベクトルを再記録できる。
ベクトル記録のプロセスが終了すると、ユーザは、「次」のボタン(右下)をクリックしてナビゲーションページに入る。ベクトルを記録せずにナビゲーションページを開こうとすると、警告メッセージが現われて、デフォルトのベクトルが、仮想面で使用される。
図31は、コンソールモードでのナビゲーションページを表している。ナビゲーションページは、ナビゲーション/ガイダンスモードとコンソールモードの2つのモードで動作する。ナビゲーション/ガイダンスモードは、図20〜24に示されている。患者の空間をナビゲーションするナビゲーション/ガイダンスモードに対して、コンソールモードは、ユーザの操作に使用される。ナビゲーション/ガイダンスモードでは、ボタン、メニュー、スライダーまたは他のユーザが操作する物(スナップショットのボタンを除く)が無く、ビデオ画像と仮想画像の組合せが画面一杯に表示される。一方コンソールモードの場合、ボタン、メニュー、スライダー及びタブが、ユーザの操作で使用できる。
コンソールモードは3つの部分に分けられる。左上のナビゲーションプレビュー、右上のタブパネルそして下にある調整と機能パネルからなる。これらの表示と関連する機能を次に述べる。ナビゲーションプレビューには、ユーザがアクセスできる画像が、このウィンドウに表示される。タブパネルは、2つのタブで、物体タブと選択タブを有している。物体タブは、ナビゲーションウインドウに表示するグラフィツック物体の選択または表示/隠すの選択に使用される。他方、ユーザは、選択タブでナビゲーションウィンドウの表示を変更できる。
調整および機能パネルは、3つのサブ領域を備えている。これらは、透過調整、ズームおよび詳細調整、機能ボタンの列である。ユーザは、グラフィックの物体とリアルタイムの画像の両方のパラメータを調整でき、このパネルでナビゲーション機能を組合せることが出来る。
DEX-Rayでは、インターフェイスに触れずにシステムとやり取りができる。これは、無菌状況では特に有益である。医療従事者が、患者のいる所から、コンピュータに接続されたキーを押したり又はマウスを操作するのは不便である。従って、DEX-Rayは、プローブでカーソルを動かし、ナビゲーションページのコンソールモードで見て、フットスイッチで選択を指示する。マウスのカーソルコントロール及びクリック機能は、各々、プローブとフットスイッチとなるので、DEX-Rayシステムのコントロールが、フリーハンド操作となる。プローブは、仮想平面、例えば水平面で移動される。ベクトル記録ページで選択されたベクトルは、その水平面に垂直となる。トラッキング領域の任意の面を使用しても良い。ナビゲーションページのコンソールモードとやり取りするために、ユーザは、その面が位置する空間の確定した領域内でプローブを動かし、カーソルを画面で動かすことが出来る。注記したが、画面の特定領域を選択してクリックしたりフットスイッチを押すことが出来る。他の手動でない応答、例えば音声コントロールが可能である。ユーザの手を自由にするのが最も重要である。
ナビゲーション/ガイダンスモード間をやり取りするために、ユーザは、ナビゲーションページでフットスイッチをショートクリックできる。一方、カーソルはナビゲーションプレビューに位置している。画面のスナップショットには、ユーザはフットスイッチをロングクリックする。一方、DEX-Rayは、ナビゲーション/ガイダンスモードにある。スナップショットのファイルは、例えば、フォルダProfile/<CaseName>に蓄積できる。そのディレクトリは、DEX-Rayの実行プログラムが位置しているのと同様である。
DEX-Rayの例は、説明が目的であり本発明の他の可能な形態に制限を加えるものではない。本発明は、ナビゲーションシステムとガイダンスシステムを意図している。上記の記載手順は、本発明の実施例に過ぎず、術前プランが要求されないこともある。リアルタイム画像の方法、例えば、超音波をレジストレーション及びナビゲーションの目的に画像データの情報源として使用できる。さらに手術プランをナビゲーションシステム自身を用いて作成しても良い。
本発明は、典型的な形態および実施例で記載した。本発明は、その精神または主要な特徴から逸脱することなく、他の色々な形で実施することができる。本発明の範囲は、特許請求の範囲によって示すものであって、明細書本文には、なんら拘束されない。変形例として、リアルタイム走査を用いてコンピュータ生成物体および構造をリアルタイムのビデオカメラ像に重ね合わせても良い。ビデオカメラの代わりにリアルタイム走査、例えば超音波走査を選択された術前走査データ、例えばCT、MRIと組合せても良い。
本発明の実施形態に係わるプローブの図である。プローブ先端は、実の物体近くに位置し、コンピュータで生成した仮想物体が、実の物体の内部にある。 図1でのカメラ視点による場面表示を示す図である。 本発明の実施形態に係わるプローブを示す図である。 ユーザが、図3に示すプローブを右手で保持している状態を示す図である。 本発明の実施形態に係わるプローブを示す図である。 ユーザが、図3のプローブを右手で保持している状態を、異なった角度で見た状態を示す図でる。 図5に示すプローブを別の視点から見た図である。 本発明の実施形態に係わるプローブの寸法を示す図である。 殺菌環境で使用される図8のプローブを示す図である。 図3に示すプローブを、拡張した状態を示す図である。 図3に示すプローブを、半分程度に拡張した状態を示す図である。 図3のプローブの種々の部品の正面図である。 図3のプローブの種々の部品の背面図である。 分解したプローブ(図12)の別の正面図である。 分解したプローブ(図14)のクローズアップを示す図である。 本発明の実施形態に係わる術前プランのプロセスのフローダイアグラムを示す図である。 本発明の実施形態に係わるレジストレーションプロセスのフローダイアグラムを示す図である。 本発明の実施形態に係わるインタラクティブなナビゲーションのプロセスのフローダイアグラムを示す図である。 プローブ先端とコンピュータ生成物体の間の距離を動的に示す概略図である。 図19の機能を示す本発明に係わる画面のスナップショットを示す図である。 図19の機能、および、前以て選択された種々の3次元マーカ点への動的な距離と、を示す本発明に係わる画面のスナップショットを示す図である。 図20および21に示す場面に対して別の眺めを示す図である。モデルの頭がい骨の頭頂部は除去して、内部の物体を見せている。 図21の場面の別の眺めを示す図である。 図23の場面の別の眺めを示す図である。 本発明の実施形態における、患者のデータがロードされた後のデータローディングページのスナップショットを示す図である。 図25に示す本発明の実施形態に係わるレジストレーションのインターフェイス画面のスナップショットを示す図である。 図26でのレジストレーション終了後のインターフェイス画面のスナップショットを示す図である。 図26〜27でのレジストレーション操作に対するプロセスのフローチャートを示す図である。 図25に示す本発明の実施形態に係わるベクトルを決める操作の画面を示す図である。 図25に示す本発明の実施形態に係わるベクトルを決める操作の画面を示す図である。 図25に示す本発明の実施形態に係わるコンソールモードでのDEX-Rayシステムのナビゲーションページでの操作画面のスナップショットを示す図である。

Claims (24)

  1. 手術用ナビゲーションシステムにおいて、
    プローブと、
    該プローブに取付けたビデオカメラと、
    患者および前記プローブに取付けたトラッキング可能な物体と、
    前記プローブと該物体の位置を確定するトラッキング装置と、
    患者の3次元画像データを予め蓄積したデータプロセッサと、
    表示装置と、
    を備えて、
    該データプロセッサが、ビデオカメラのリアルタイム画像を、患者の3次元画像データから生成した仮想物体で増強し、前記トラッキング装置からの入力に応じて、表示装置に複合画像を表示する、
    ことを特徴とする手術用ナビゲーションシステム。
  2. ビデオカメラをプローブに内蔵することを特徴とする請求項1記載のシステム。
  3. 予め蓄積された患者の画像データが、多様な走査データからなることを特徴とする請求項1記載のシステム。
  4. 予め蓄積された患者の画像データが、1つ以上の3次元データセットからなることを特徴とする請求項1記載のシステム。
  5. 手術用ナビゲーションの方法において、
    患者の3次元画像データを取得すること、
    該患者の3次元画像データをデータプロセッサに蓄積すること、
    患者からビデオカメラのリアルタイム画像を取得すること、
    ビデオカメラの3次元位置と患者の種々の基準点をトラッキングすること、
    トラッキングデータを用いてリアルタイムのビデオ画像を3次元画像データに重ね合せること、
    重ね合せた画像を1つ以上の表示装置に表示すること、
    を特徴とする手術用ナビゲーションの方法。
  6. 前記ビデオカメラのリアルタイムの画像または前記蓄積された患者の3次元画像データの特性を変更することを特徴とする請求項5記載の方法。
  7. 上記特性が、1つ以上の、色、サイズおよひ透明性であることを特徴とする請求項6記載の方法。
  8. 上記患者の3次元画像データから生成された2次元画像を1つ以上表示することを特徴とする請求項5記載の方法。
  9. 上記2次元画像と重ね合せた画像が、1つの表示装置に全て表示されることを特徴とする請求項8記載の方法。
  10. 表示された2次元画像は、手術部位のビデオカメラの位置またはビデオカメラに接続したポインタの位置の関数であることを特徴とする請求項8記載の方法。
  11. 上記蓄積された患者の3次元画像データが、多様な様式からなることを特徴とする請求項5記載の方法。
  12. ビデオカメラが、ポインタを取付けたハウジング内に設けられていることを特徴とする請求項5記載の方法。
  13. ハウジングおよびポインタが、殺菌されていることを特徴とする請求項12記載の方法。
  14. ビデオカメラの視界がポインタを含むことを特徴とする請求項12記載の方法。
  15. 手術用ナビゲーションの方法において、重ね合せた画像に、患者内部のポインタ先端からポインタ軸方向の最短距離の物体までの距離を、動的に表示することを特徴とする請求項12記載の方法。
  16. 手術用ナビゲーションの方法において、ユーザが、患者内部で、1つ以上の確定した物体を指定でき、該物体が、システムの表示装置で、仮想物体として連続して表示されることを特徴とする請求項12または15記載の方法。
  17. 上記仮想物体が、不透明から完全な透明に及ぶ1つ以上の半透明モードで表示されることを特徴とする請求項16記載の方法。
  18. 上記仮想物体が、ユーザが指定する様々な色で表示できることを特徴とする請求項17記載の方法。
  19. 手術用ナビゲーションの方法において、ユーザが、患者に関わるxyz空間で、1つ以上の目印点を指定でき、目印点とポインタ先端間の距離が、システムの表示装置に連続して表示されることを特徴とする請求項12記載の方法。
  20. 手術用ナビゲーションの方法において、ユーザが、患者に関わるxyz空間で、1つ以上の目印点を指定でき、目印点とポインタ先端間の距離が、システムの表示装置に連続して表示されることを特徴とする請求項15記載の方法。
  21. ユーザが、データプロセッサのインターフェイスに手を触れないで、表示パラメータおよび他のシステムコントロールを入力出来ることを特徴とする請求項1記載のシステム。
  22. ユーザが、足踏みスイッチでシステムとのインターフェイスができ、空間内の確定した領域で、プローブを操作出来ることを特徴とする請求項21記載のシステム。
  23. ユーザが、データプロセッサのインターフェイスに手を触れないで、表示パラメータおよび他のシステムコントロールを入力出来ることを特徴とする請求項5記載の方法。
  24. ユーザが、足踏みスイッチでシステムとのインターフェイスができ、空間内の確定した領域でプローブを操作出来ることを特徴とする請求項23記載の方法。
JP2006530169A 2003-04-28 2004-04-27 手術用ナビゲーションシステム(カメラプローブ) Ceased JP2007512854A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US46609703P 2003-04-28 2003-04-28
US50301103P 2003-09-11 2003-09-11
PCT/EP2004/050622 WO2005000139A1 (en) 2003-04-28 2004-04-27 Surgical navigation imaging system

Publications (1)

Publication Number Publication Date
JP2007512854A true JP2007512854A (ja) 2007-05-24

Family

ID=33555189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006530169A Ceased JP2007512854A (ja) 2003-04-28 2004-04-27 手術用ナビゲーションシステム(カメラプローブ)

Country Status (5)

Country Link
US (1) US7491198B2 (ja)
EP (1) EP1617779A1 (ja)
JP (1) JP2007512854A (ja)
CA (1) CA2523727A1 (ja)
WO (1) WO2005000139A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009154081A1 (ja) * 2008-06-16 2009-12-23 ノリー株式会社 注射針誘導装置
JP2010534013A (ja) * 2007-07-18 2010-10-28 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
WO2011149182A2 (ko) * 2010-05-28 2011-12-01 가천의과학대학교 산학협력단 의료 영상 장치용 3축 움직임 추적 장치 및 이를 이용한 의료 영상 보정 방법
KR101374189B1 (ko) 2012-04-25 2014-03-13 한양대학교 에리카산학협력단 수술용 내비게이션 시스템
KR101406220B1 (ko) 2013-04-30 2014-06-12 경북대학교 산학협력단 옵티컬 트랙킹 시스템 및 이를 이용한 트랙킹 방법
JP2015529478A (ja) * 2012-06-28 2015-10-08 コーニンクレッカ フィリップス エヌ ヴェ ポータブルデバイスを用いたライブビデオ上への術前データのオーバーレイ及び登録
WO2015182651A1 (ja) * 2014-05-28 2015-12-03 株式会社モリタ製作所 根管治療用装置
JP2016158911A (ja) * 2015-03-03 2016-09-05 株式会社クレッセント 画像表示装置を使った外科手術方法及び、その外科手術に用いる装置
JP6142462B1 (ja) * 2016-02-17 2017-06-07 株式会社菊池製作所 重畳画像表示システム
JP2018153688A (ja) * 2013-03-15 2018-10-04 トラック サージカル インコーポレイテッドTrak Surgical,Inc. ツール搭載追跡システム及びコンピュータ支援外科手術の方法
JP6701438B1 (ja) * 2019-02-01 2020-05-27 TCC Media Lab株式会社 合成画像生成システム及び初期条件リセットシステム
JP2020096795A (ja) * 2018-10-19 2020-06-25 キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc デバイス対画像レジストレーションアルゴリズムからの結果の可視化及び操作
JP2021527272A (ja) * 2018-06-14 2021-10-11 ソニーグループ株式会社 外科手術ビデオのための利き手ツール検出システム

Families Citing this family (165)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
DE60130264T2 (de) * 2001-06-13 2008-05-21 Volume Interactions Pte. Ltd. Führungssystem
AU2002324775A1 (en) * 2001-08-23 2003-03-10 Sciperio, Inc. Architecture tool and methods of use
US11202676B2 (en) 2002-03-06 2021-12-21 Mako Surgical Corp. Neural monitor-based dynamic haptics
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US8996169B2 (en) 2011-12-29 2015-03-31 Mako Surgical Corp. Neural monitor-based dynamic haptics
US7206626B2 (en) 2002-03-06 2007-04-17 Z-Kat, Inc. System and method for haptic sculpting of physical objects
EP1605810A2 (en) * 2003-02-04 2005-12-21 Z-Kat, Inc. Computer-assisted knee replacement apparatus and method
WO2004069040A2 (en) * 2003-02-04 2004-08-19 Z-Kat, Inc. Method and apparatus for computer assistance with intramedullary nail procedure
US7232409B2 (en) * 2003-11-20 2007-06-19 Karl Storz Development Corp. Method and apparatus for displaying endoscopic images
US20050267353A1 (en) * 2004-02-04 2005-12-01 Joel Marquart Computer-assisted knee replacement apparatus and method
US20070073306A1 (en) * 2004-03-08 2007-03-29 Ryan Lakin Cutting block for surgical navigation
US20060004298A1 (en) * 2004-06-30 2006-01-05 Kennedy Philip R Software controlled electromyogram control systerm
US20060173268A1 (en) * 2005-01-28 2006-08-03 General Electric Company Methods and systems for controlling acquisition of images
WO2006095027A1 (en) 2005-03-11 2006-09-14 Bracco Imaging S.P.A. Methods and apparati for surgical navigation and visualization with microscope
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US7783337B2 (en) * 2005-06-06 2010-08-24 Board Of Regents, The University Of Texas System OCT using spectrally resolved bandwidth
US20070016008A1 (en) * 2005-06-23 2007-01-18 Ryan Schoenefeld Selective gesturing input to a surgical navigation system
US7840256B2 (en) 2005-06-27 2010-11-23 Biomet Manufacturing Corporation Image guided tracking array and method
JP4679985B2 (ja) * 2005-07-07 2011-05-11 株式会社 日立ディスプレイズ 液晶表示装置
US7643862B2 (en) * 2005-09-15 2010-01-05 Biomet Manufacturing Corporation Virtual mouse for use in surgical navigation
US20070073133A1 (en) * 2005-09-15 2007-03-29 Schoenefeld Ryan J Virtual mouse for use in surgical navigation
US20070118101A1 (en) * 2005-11-23 2007-05-24 Prakash Mahesh Methods and systems for facilitating planning of surgical procedures
FR2895377B1 (fr) * 2005-12-28 2010-08-13 Intuiskin Conditionnement avec capteur integre
FR2897257B1 (fr) * 2006-02-14 2008-04-25 Raymond Derycke Referentiel optique pour la formation d'images en trois dimensions
US8323290B2 (en) * 2006-03-03 2012-12-04 Biomet Manufacturing Corp. Tensor for use in surgical navigation
US20070238981A1 (en) * 2006-03-13 2007-10-11 Bracco Imaging Spa Methods and apparatuses for recording and reviewing surgical navigation processes
WO2007113815A2 (en) 2006-03-30 2007-10-11 Activiews Ltd System and method for optical position measurement and guidance of a rigid or semi flexible tool to a target
US10028789B2 (en) 2006-05-19 2018-07-24 Mako Surgical Corp. Method and apparatus for controlling a haptic device
US8125648B2 (en) 2006-06-05 2012-02-28 Board Of Regents, The University Of Texas System Polarization-sensitive spectral interferometry
KR101477125B1 (ko) * 2006-06-13 2014-12-29 인튜어티브 서지컬 인코포레이티드 미소절개 수술 시스템
US8560047B2 (en) * 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US7885701B2 (en) * 2006-06-30 2011-02-08 Depuy Products, Inc. Registration pointer and method for registering a bone of a patient to a computer assisted orthopaedic surgery system
EP1926324A1 (en) * 2006-11-21 2008-05-28 Swiss Medical Technology GmbH System and method for displaying images in an overlaying relationship
CN101677827B (zh) * 2007-05-10 2014-08-13 皇家飞利浦电子股份有限公司 定靶方法和定靶装置
US8934961B2 (en) 2007-05-18 2015-01-13 Biomet Manufacturing, Llc Trackable diagnostic scope apparatus and methods of use
JP4909176B2 (ja) * 2007-05-23 2012-04-04 キヤノン株式会社 複合現実感提示装置及びその制御方法、コンピュータプログラム
US8982203B2 (en) 2007-06-06 2015-03-17 Karl Storz Gmbh & Co. Kg Video system for viewing an object on a body
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US9089256B2 (en) * 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US8903546B2 (en) 2009-08-15 2014-12-02 Intuitive Surgical Operations, Inc. Smooth control of an articulated instrument across areas with different work space conditions
EP2031531A3 (de) * 2007-07-20 2009-04-29 BrainLAB AG Integriertes medizintechnisches Anzeigesystem
CA2751629C (en) * 2007-10-19 2016-08-23 Metritrack, Llc Three dimensional mapping display system for diagnostic ultrasound machines and method
WO2009067654A1 (en) * 2007-11-21 2009-05-28 Edda Technology, Inc. Method and system for interactive percutaneous pre-operation surgical planning
US11264139B2 (en) 2007-11-21 2022-03-01 Edda Technology, Inc. Method and system for adjusting interactive 3D treatment zone for percutaneous treatment
JP5416900B2 (ja) * 2007-11-22 2014-02-12 株式会社東芝 超音波診断装置及び穿刺支援用制御プログラム
US9076203B2 (en) * 2007-11-26 2015-07-07 The Invention Science Fund I, Llc Image guided surgery with dynamic image reconstruction
US9123159B2 (en) * 2007-11-30 2015-09-01 Microsoft Technology Licensing, Llc Interactive geo-positioning of imagery
US8571637B2 (en) * 2008-01-21 2013-10-29 Biomet Manufacturing, Llc Patella tracking method and apparatus for use in surgical navigation
KR100927096B1 (ko) * 2008-02-27 2009-11-13 아주대학교산학협력단 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법
US9168173B2 (en) 2008-04-04 2015-10-27 Truevision Systems, Inc. Apparatus and methods for performing enhanced visually directed procedures under low ambient light conditions
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
TW201004607A (en) * 2008-07-25 2010-02-01 Been-Der Yang Image guided navigation system and method thereof
EP2153794B1 (en) * 2008-08-15 2016-11-09 Stryker European Holdings I, LLC System for and method of visualizing an interior of a body
US10117721B2 (en) 2008-10-10 2018-11-06 Truevision Systems, Inc. Real-time surgical reference guides and methods for surgical applications
US9226798B2 (en) 2008-10-10 2016-01-05 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for surgical applications
EP2199732B1 (de) 2008-12-19 2017-10-11 Klingelnberg AG Vorrichtung mit Rauheitsmesstaster
US8436852B2 (en) * 2009-02-09 2013-05-07 Microsoft Corporation Image editing consistent with scene geometry
US9173717B2 (en) 2009-02-20 2015-11-03 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for intraocular lens implantation
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8784443B2 (en) 2009-10-20 2014-07-22 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for astigmatism correction
KR101759534B1 (ko) 2009-10-30 2017-07-19 더 존스 홉킨스 유니버시티 외과 수술 시 임상적으로 중요한 해부상의 랜드마크에 대한 시각 추적 및 주석 달기
WO2012022371A1 (en) * 2010-08-16 2012-02-23 Brainlab Ag Medical marker, method and apparatus for producing a medical marker
EP2642917B1 (en) * 2010-11-24 2019-12-25 Edda Technology, Inc. System and method for interactive three dimensional operation guidance system for soft organs based on anatomic map
US9538982B2 (en) 2010-12-18 2017-01-10 Massachusetts Institute Of Technology User interface for ultrasound scanning system
US9921712B2 (en) 2010-12-29 2018-03-20 Mako Surgical Corp. System and method for providing substantially stable control of a surgical tool
US9119655B2 (en) 2012-08-03 2015-09-01 Stryker Corporation Surgical manipulator capable of controlling a surgical instrument in multiple modes
US10631712B2 (en) * 2011-02-10 2020-04-28 Karl Storz Imaging, Inc. Surgeon's aid for medical display
CN103619278B (zh) * 2011-06-17 2016-08-24 皇家飞利浦有限公司 用于内窥镜手术期间的引导注射的系统
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
CN106913366B (zh) 2011-06-27 2021-02-26 内布拉斯加大学评议会 工具承载的追踪系统和计算机辅助外科方法
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
AU2012301718B2 (en) 2011-09-02 2017-06-15 Stryker Corporation Surgical instrument including a cutting accessory extending from a housing and actuators that establish the position of the cutting accessory relative to the housing
DE102011119073A1 (de) 2011-11-15 2013-05-16 Fiagon Gmbh Registrierverfahren, Positionserfassungssystem und Abtastinstrument
US8668343B2 (en) 2011-11-30 2014-03-11 Izi Medical Products Reflective marker with alignment feature
US10363102B2 (en) 2011-12-30 2019-07-30 Mako Surgical Corp. Integrated surgery method
US20130218137A1 (en) * 2011-12-30 2013-08-22 Mako Surgical Corp. Integrated surgery system
US8661573B2 (en) 2012-02-29 2014-03-04 Izi Medical Products Protective cover for medical device having adhesive mechanism
EP2836959A2 (en) * 2012-04-13 2015-02-18 Lightcraft Technology, LLC Hybrid precision tracking
KR20130121521A (ko) * 2012-04-27 2013-11-06 주식회사 고영테크놀러지 환부 및 수술도구의 트랙킹 방법
US8750568B2 (en) 2012-05-22 2014-06-10 Covidien Lp System and method for conformal ablation planning
US9498182B2 (en) 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
US9439623B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical planning system and navigation system
US9439627B2 (en) 2012-05-22 2016-09-13 Covidien Lp Planning system and navigation system for an ablation procedure
US9439622B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US10758315B2 (en) * 2012-06-21 2020-09-01 Globus Medical Inc. Method and system for improving 2D-3D registration convergence
US9498290B2 (en) 2012-07-19 2016-11-22 MRI Interventions, Inc. Surgical navigation devices and methods
KR102603224B1 (ko) 2012-08-03 2023-11-16 스트리커 코포레이션 로봇 수술을 위한 시스템 및 방법
US9226796B2 (en) 2012-08-03 2016-01-05 Stryker Corporation Method for detecting a disturbance as an energy applicator of a surgical instrument traverses a cutting path
US9820818B2 (en) 2012-08-03 2017-11-21 Stryker Corporation System and method for controlling a surgical manipulator based on implant parameters
KR102194463B1 (ko) * 2012-08-14 2020-12-23 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 다중 비전 시스템의 정합을 위한 시스템 및 방법
WO2014036499A1 (en) 2012-08-30 2014-03-06 Truevision Systems, Inc. Imaging system and methods displaying a fused multidimensional reconstructed image
ES2729247T3 (es) 2012-09-06 2019-10-31 Norwegian Univ Sci & Tech Ntnu Tratamiento del dolor de cabeza por inyección de sustancia neuroinhibidora al ganglio esfenopalatino o al ganglio ótico
WO2014069248A1 (ja) * 2012-11-02 2014-05-08 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
KR101371384B1 (ko) * 2013-01-10 2014-03-07 경북대학교 산학협력단 트랙킹 시스템 및 이를 이용한 트랙킹 방법
KR101371387B1 (ko) * 2013-01-18 2014-03-10 경북대학교 산학협력단 트랙킹 시스템 및 이를 이용한 트랙킹 방법
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
KR101446173B1 (ko) * 2013-02-21 2014-10-01 주식회사 고영테크놀러지 트랙킹 시스템 및 이를 이용한 트랙킹 방법
JP6420938B2 (ja) 2013-03-15 2018-11-07 シナプティヴ メディカル (バルバドス) インコーポレイテッドSynaptive Medical (Barbados) Inc. 低侵襲性治療の誘導及びシミュレーションのためのシステム及び方法
CA2896381C (en) 2013-03-15 2017-01-10 Synaptive Medical (Barbados) Inc. Intelligent positioning system and methods therefore
CA2892554C (en) 2013-03-15 2017-04-18 Synaptive Medical (Barbados) Inc. System and method for dynamic validation, correction of registration for surgical navigation
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
EP3033987A4 (en) * 2013-09-27 2017-05-17 Olympus Corporation Endoscopy system
DE102013222230A1 (de) 2013-10-31 2015-04-30 Fiagon Gmbh Chirurgisches Instrument
CN106030656B (zh) * 2014-02-11 2020-06-30 皇家飞利浦有限公司 一种用于对解剖目标进行可视化的系统和方法
US10758198B2 (en) 2014-02-25 2020-09-01 DePuy Synthes Products, Inc. Systems and methods for intra-operative image analysis
US10433914B2 (en) 2014-02-25 2019-10-08 JointPoint, Inc. Systems and methods for intra-operative image analysis
US9990776B2 (en) 2014-03-14 2018-06-05 Synaptive Medical (Barbados) Inc. System and method for projected tool trajectories for surgical navigation systems
US20170105802A1 (en) * 2014-03-27 2017-04-20 Bresmedical Pty Limited Computer aided surgical navigation and planning in implantology
JP6325896B2 (ja) * 2014-03-28 2018-05-16 株式会社キーエンス 光学式座標測定装置
USD816838S1 (en) * 2014-10-07 2018-05-01 Synaptive Medical (Barbados) Inc. Pointer apparatus
USD820984S1 (en) * 2014-10-07 2018-06-19 Synaptive Medical (Barbados) Inc. Pointer tool
WO2016065457A1 (en) * 2014-10-29 2016-05-06 Intellijoint Surgical Inc. Systems, methods and devices for anatomical registration and surgical localization
IL236003A (en) * 2014-11-30 2016-02-29 Ben-Yishai Rani Model and method for registering a model
US10932866B1 (en) * 2014-12-08 2021-03-02 Think Surgical, Inc. Implant based planning, digitizing, and registration for total joint arthroplasty
US10622107B2 (en) 2015-02-13 2020-04-14 Medtronic, Inc. Tools for medical device configuration
DE102015002729A1 (de) * 2015-02-27 2016-09-01 Carl Zeiss Meditec Ag Ophthalmologische Lasertherapievorrichtung und Verfahren zur Erzeugung cornealer Zugangsschnitte
US20160278864A1 (en) * 2015-03-19 2016-09-29 Medtronic Navigation, Inc. Apparatus And Method For Instrument And Gesture Based Image Guided Surgery
US20160331584A1 (en) * 2015-05-14 2016-11-17 Novartis Ag Surgical tool tracking to control surgical system
US9918798B2 (en) 2015-06-04 2018-03-20 Paul Beck Accurate three-dimensional instrument positioning
USD823470S1 (en) * 2015-07-10 2018-07-17 Brainlab Ag Reference array
US20180368786A1 (en) * 2015-12-17 2018-12-27 Korea University Research And Business Foundation Three-dimensional scattered radiation imaging apparatus, radiological medical system having the same, and method for arranging three-dimensional scattered radiation imaging apparatus
USD829904S1 (en) 2016-01-13 2018-10-02 MRI Interventions, Inc. Curved bracket for surgical navigation systems
USD824027S1 (en) 2016-01-13 2018-07-24 MRI Interventions, Inc. Fins for a support column for a surgical trajectory frame
US10376333B2 (en) 2016-01-14 2019-08-13 MRI Interventions, Inc. Devices for surgical navigation systems
USD806247S1 (en) * 2016-03-08 2017-12-26 Synaptive Medical (Barbados) Inc. Biopsy pointer tool
USD828561S1 (en) * 2016-03-08 2018-09-11 Synaptive Medical (Barbados) Inc. Pointer tool
IL245339A (en) 2016-04-21 2017-10-31 Rani Ben Yishai Method and system for verification of registration
US10182871B2 (en) * 2016-05-22 2019-01-22 JointPoint, Inc. Systems and methods for intra-operative image acquisition and calibration
US10973585B2 (en) 2016-09-21 2021-04-13 Alcon Inc. Systems and methods for tracking the orientation of surgical tools
WO2018112025A1 (en) 2016-12-16 2018-06-21 Mako Surgical Corp. Techniques for modifying tool operation in a surgical robotic system based on comparing actual and commanded states of the tool relative to a surgical site
USD820436S1 (en) * 2016-12-20 2018-06-12 Synaptive Medical (Barbados) Inc. Suction tool
WO2018189725A1 (en) 2017-04-14 2018-10-18 Stryker Corporation Surgical systems and methods for facilitating ad-hoc intraoperative planning of surgical procedures
US10917543B2 (en) 2017-04-24 2021-02-09 Alcon Inc. Stereoscopic visualization camera and integrated robotics platform
US11083537B2 (en) 2017-04-24 2021-08-10 Alcon Inc. Stereoscopic camera with fluorescence visualization
US10299880B2 (en) 2017-04-24 2019-05-28 Truevision Systems, Inc. Stereoscopic visualization camera and platform
US11026747B2 (en) 2017-04-25 2021-06-08 Biosense Webster (Israel) Ltd. Endoscopic view of invasive procedures in narrow passages
EP3412242A1 (de) * 2017-06-09 2018-12-12 Siemens Healthcare GmbH Ausgabe von positionsinformationen eines medizintechnischen instruments
US10506991B2 (en) * 2017-08-31 2019-12-17 Biosense Webster (Israel) Ltd. Displaying position and optical axis of an endoscope in an anatomical image
US20190110685A1 (en) * 2017-10-13 2019-04-18 General Electric Company Systems and methods for guided interventional procedures
CN112566581B (zh) 2018-08-10 2024-03-19 柯惠有限合伙公司 用于消融可视化的系统
WO2020129034A1 (en) * 2018-12-19 2020-06-25 INDIAN INSTITUTE OF TECHNOLOGY MADRAS (IIT Madras) Robotic surgery systems and surgical guidance methods thereof
EP3719749A1 (en) 2019-04-03 2020-10-07 Fiagon AG Medical Technologies Registration method and setup
EP4087512A4 (en) 2020-01-09 2024-02-14 Canon U.S.A. Inc. IMPROVED PLANNING AND VISUALIZATION WITH A CURVED INSTRUMENT PATH AND CURVED INSTRUMENT
KR102301863B1 (ko) * 2020-02-12 2021-09-16 큐렉소 주식회사 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템
DE102020205976A1 (de) * 2020-05-12 2021-11-18 Siemens Healthcare Gmbh Anpassen einer erweiterten und/oder künstlichen Realität
US11821912B2 (en) * 2020-05-29 2023-11-21 Formfactor, Inc. Methods of producing augmented probe system images and associated probe systems
US11289196B1 (en) 2021-01-12 2022-03-29 Emed Labs, Llc Health testing and diagnostics platform
US11615888B2 (en) 2021-03-23 2023-03-28 Emed Labs, Llc Remote diagnostic testing and treatment
US11929168B2 (en) 2021-05-24 2024-03-12 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
US11373756B1 (en) 2021-05-24 2022-06-28 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
EP4340768A1 (en) * 2021-05-21 2024-03-27 Digital Surgery Systems, Inc. Bayonet registration tool/probe
GB2623461A (en) 2021-06-22 2024-04-17 Emed Labs Llc Systems, methods, and devices for non-human readable diagnostic tests
US11887306B2 (en) 2021-08-11 2024-01-30 DePuy Synthes Products, Inc. System and method for intraoperatively determining image alignment
US12014829B2 (en) 2021-09-01 2024-06-18 Emed Labs, Llc Image processing and presentation techniques for enhanced proctoring sessions
IT202200017214A1 (it) * 2022-08-11 2024-02-11 Upsurgeon S R L Sistema per navigazione chirurgica, metodo di navigazione chirurgica, metodo di calibrazione di sistema per navigazione chirurgica
WO2024112857A1 (en) * 2022-11-23 2024-05-30 Xironetic Llc Extended reality registration method using virtual fiducial markers

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5417210A (en) * 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5603318A (en) * 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
JPH08164148A (ja) * 1994-12-13 1996-06-25 Olympus Optical Co Ltd 内視鏡下手術装置
US6167296A (en) * 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US6535756B1 (en) * 2000-04-07 2003-03-18 Surgical Navigation Technologies, Inc. Trajectory storage apparatus and method for surgical navigation system
DE10025285A1 (de) * 2000-05-22 2001-12-06 Siemens Ag Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe
JP2004530485A (ja) * 2001-06-13 2004-10-07 ヴォリューム・インタラクションズ・プライヴェート・リミテッド ガイドシステムおよびそのためのプローブ

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010534013A (ja) * 2007-07-18 2010-10-28 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
US8467855B2 (en) 2008-06-16 2013-06-18 Nory Co., Ltd. Syringe needle guiding apparatus
WO2009154081A1 (ja) * 2008-06-16 2009-12-23 ノリー株式会社 注射針誘導装置
JP2010148853A (ja) * 2008-06-16 2010-07-08 Norii Kk 注射針誘導装置
KR101031905B1 (ko) 2008-06-16 2011-05-02 노리 가부시키가이샤 주사침 유도장치의 작동방법
JP4517004B2 (ja) * 2008-06-16 2010-08-04 ノリー株式会社 注射針誘導装置
KR101662323B1 (ko) 2010-05-28 2016-10-04 가천의과학대학교 산학협력단 의료 영상 장치용 3축 움직임 추적 장치 및 이를 이용한 의료 영상 보정 방법
KR20110130968A (ko) * 2010-05-28 2011-12-06 가천의과학대학교 산학협력단 의료 영상 장치용 3축 움직임 추적 장치 및 이를 이용한 의료 영상 보정 방법
WO2011149182A3 (ko) * 2010-05-28 2012-01-19 가천의과학대학교 산학협력단 의료 영상 장치용 3축 움직임 추적 장치 및 이를 이용한 의료 영상 보정 방법
WO2011149182A2 (ko) * 2010-05-28 2011-12-01 가천의과학대학교 산학협력단 의료 영상 장치용 3축 움직임 추적 장치 및 이를 이용한 의료 영상 보정 방법
KR101374189B1 (ko) 2012-04-25 2014-03-13 한양대학교 에리카산학협력단 수술용 내비게이션 시스템
JP2015529478A (ja) * 2012-06-28 2015-10-08 コーニンクレッカ フィリップス エヌ ヴェ ポータブルデバイスを用いたライブビデオ上への術前データのオーバーレイ及び登録
JP2018153688A (ja) * 2013-03-15 2018-10-04 トラック サージカル インコーポレイテッドTrak Surgical,Inc. ツール搭載追跡システム及びコンピュータ支援外科手術の方法
KR101406220B1 (ko) 2013-04-30 2014-06-12 경북대학교 산학협력단 옵티컬 트랙킹 시스템 및 이를 이용한 트랙킹 방법
WO2015182651A1 (ja) * 2014-05-28 2015-12-03 株式会社モリタ製作所 根管治療用装置
JP2015223324A (ja) * 2014-05-28 2015-12-14 株式会社モリタ製作所 根管治療用装置
US10251736B2 (en) 2014-05-28 2019-04-09 J. Morita Mfg. Corp. Root canal treating device
JP2016158911A (ja) * 2015-03-03 2016-09-05 株式会社クレッセント 画像表示装置を使った外科手術方法及び、その外科手術に用いる装置
JP2017146759A (ja) * 2016-02-17 2017-08-24 株式会社菊池製作所 重畳画像表示システム
JP6142462B1 (ja) * 2016-02-17 2017-06-07 株式会社菊池製作所 重畳画像表示システム
JP2021527272A (ja) * 2018-06-14 2021-10-11 ソニーグループ株式会社 外科手術ビデオのための利き手ツール検出システム
JP7235212B2 (ja) 2018-06-14 2023-03-08 ソニーグループ株式会社 外科手術ビデオのための利き手ツール検出システム
JP2020096795A (ja) * 2018-10-19 2020-06-25 キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc デバイス対画像レジストレーションアルゴリズムからの結果の可視化及び操作
JP7111680B2 (ja) 2018-10-19 2022-08-02 キヤノン ユーエスエイ,インコーポレイテッド デバイス対画像レジストレーションアルゴリズムからの結果の可視化及び操作
US11786307B2 (en) 2018-10-19 2023-10-17 Canon U.S.A., Inc. Visualization and manipulation of results from a device-to-image registration algorithm
JP6701438B1 (ja) * 2019-02-01 2020-05-27 TCC Media Lab株式会社 合成画像生成システム及び初期条件リセットシステム
WO2020157985A1 (ja) * 2019-02-01 2020-08-06 TCC Media Lab株式会社 合成画像生成システム及び初期条件リセットシステム
US11207142B2 (en) 2019-02-01 2021-12-28 Tcc Media Lab Co., Ltd Composite image generation system and initial condition resetting system

Also Published As

Publication number Publication date
US7491198B2 (en) 2009-02-17
CA2523727A1 (en) 2005-01-06
EP1617779A1 (en) 2006-01-25
WO2005000139A1 (en) 2005-01-06
US20050015005A1 (en) 2005-01-20

Similar Documents

Publication Publication Date Title
JP2007512854A (ja) 手術用ナビゲーションシステム(カメラプローブ)
EP3443924B1 (en) A graphical user interface for use in a surgical navigation system with a robot arm
EP2671114B1 (en) Imaging system and method for imaging and displaying an operator&#39;s work-site
Sielhorst et al. Advanced medical displays: A literature review of augmented reality
US7643862B2 (en) Virtual mouse for use in surgical navigation
US7061484B2 (en) User-interface and method for curved multi-planar reformatting of three-dimensional volume data sets
US6049622A (en) Graphic navigational guides for accurate image orientation and navigation
DE60130264T2 (de) Führungssystem
WO2008076079A1 (en) Methods and apparatuses for cursor control in image guided surgery
US20040254454A1 (en) Guide system and a probe therefor
US20020082498A1 (en) Intra-operative image-guided neurosurgery with augmented reality visualization
JP2014512550A6 (ja) 画像システム及び方法
JP2021166706A (ja) 画像誘導手術システムのためのユーザインターフェース
US20050285853A1 (en) 3D display system and method
Serra et al. The Brain Bench: virtual tools for stereotactic frame neurosurgery
JP2023526716A (ja) 外科手術ナビゲーションシステムおよびそのアプリケーション
Fischer et al. Evaluation of different visualization techniques for perception-based alignment in medical ar
JP2007512064A (ja) 3次元画像データにおけるナビゲーションのための方法
EP3871193B1 (en) Mixed reality systems and methods for indicating an extent of a field of view of an imaging device
US20030179249A1 (en) User interface for three-dimensional data sets
Paloc et al. Computer-aided surgery based on auto-stereoscopic augmented reality
Guan et al. Volume-based tumor neurosurgery planning in the Virtual Workbench
Bichlmeier et al. The tangible virtual mirror: New visualization paradigm for navigated surgery
EP3637374A1 (en) Method and system for visualising a spatial surface curvature of a 3d-object, computer program product, and computer-readable storage medium
Saucer et al. A head-mounted display system for augmented reality image guidance: towards clinical evaluation for imri-guided nuerosurgery

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090317

AA92 Notification that decision to refuse application was cancelled

Free format text: JAPANESE INTERMEDIATE CODE: A971092

Effective date: 20090331