JP2008126063A - フルオロスコピィ画像投影への用具及び/又は埋植物の統合を備えた医用ナビゲーション・システム並びに方法 - Google Patents

フルオロスコピィ画像投影への用具及び/又は埋植物の統合を備えた医用ナビゲーション・システム並びに方法 Download PDF

Info

Publication number
JP2008126063A
JP2008126063A JP2007291479A JP2007291479A JP2008126063A JP 2008126063 A JP2008126063 A JP 2008126063A JP 2007291479 A JP2007291479 A JP 2007291479A JP 2007291479 A JP2007291479 A JP 2007291479A JP 2008126063 A JP2008126063 A JP 2008126063A
Authority
JP
Japan
Prior art keywords
image
tool
surface boundary
plant
implant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007291479A
Other languages
English (en)
Other versions
JP5328137B2 (ja
JP2008126063A5 (ja
Inventor
Willie Williamson Jr
ウィリー・ウィリアムソン,ジュニア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2008126063A publication Critical patent/JP2008126063A/ja
Publication of JP2008126063A5 publication Critical patent/JP2008126063A5/ja
Application granted granted Critical
Publication of JP5328137B2 publication Critical patent/JP5328137B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency

Abstract

【課題】フルオロスコピィ画像に医療機器(用具)又はインプラント(埋植物)を表現・抽出する医用ナビゲーション・システム及びその方法を提供する。
【解決手段】画像に描出された関心領域の表面境界を確定するように構成されており、また表面境界に関して用具又は埋植物850の位置を決定するように構成されているプロセッサ870と、画像及び表現を利用者に対して動的に表示するように構成されている表示器880とを含んでいる。プロセッサは、表面境界に関する位置に基づいて用具又は埋植物の表現を生成する。表面境界の内側の用具又は埋植物の部分は、表面境界の外側の用具又は埋植物の部分に比較して一定の透明度を有する表現として描出される。
【選択図】図7

Description

本発明は一般的には、画像誘導手術(又は手術ナビゲーション)に関する。具体的には、本発明は、フルオロスコピィ画像投影への用具及び/又は埋植物の統合を備えた医用ナビゲーション・システムに関する。
内科医、外科医及び他の医学専門家のような医師はしばしば、画像誘導による手術又は検査のような医学的処置を実行するときに科学技術に頼る。追跡システムが、例えば患者又は参照座標系に関する医療器具の配置情報を提供し得る。医師は、医療器具が自分の視線の範囲内に存在しないときの器具の位置を確かめるために、追跡システムを参照することができる。追跡システムはまた、術前計画においても助けとなり得る。
追跡システム又はナビゲーション・システムは、医師が患者の解剖学的構造を視覚化して、器具の位置及び配向を追跡することを可能にする。医師は、追跡システムを用いて、器具が所望の位置に配置されたときを決定することができる。医師は、所望の部位又は損傷部位の位置を突き止めて、他の構造を回避しつつかかる部位に手術を施すことができる。患者の体内で医療器具の位置を突き止める精度が高まると、患者に対する影響の少ないさらに小型の器具に対する改善された制御を促進することにより侵襲性の低い医学的処置を提供することができる。また、さらに小型で精密な器具によって制御及び正確さが改善されると、切開手術のような侵襲性の高い処置に伴う危険性を低減することができる。
このように、医用ナビゲーション・システムは、患者の解剖学的構造の多次元画像に関して手術器具の正確な位置を追跡する。加えて、医用ナビゲーション・システムは、これらの手術器具を患者の解剖学的構造と位置揃えした像を外科医に提供する視覚化ツールを用いている。この作用は典型的には、手術室全体に移動され得る車輪付きカート(1又は複数)に医用ナビゲーション・システムの構成要素を含めることにより提供される。
追跡システムは、例えば超音波式、慣性位置式又は電磁式の追跡システムであってよい。電磁式追跡システムは、受信器及び送信器としてコイルを用いることができる。電磁式追跡システムは、業界標準コイル・アーキテクチャ(ISCA)構成のような3個の送信器コイルの組及び3個の受信器コイルの組として構成され得る。電磁式追跡システムはまた、例えば受信器コイルのアレイを単一の送信器コイルと併用したもの、又は単一の受信器コイルを送信器コイルのアレイと併用したものによって構成されてもよい。送信器コイル(1又は複数)によって発生される磁場は、受信器コイル(1又は複数)によって検出され得る。得られたパラメータ測定値について、位置及び配向情報を送信器コイル(1又は複数)及び/又は受信器コイル(1又は複数)について決定することができる。
術中撮像又は周術期撮像のような医用撮像及び手術撮像では、患者の身体の領域についての画像が形成される。画像を用いて、手術用具又は手術器具を患者に適用して手術用具又は手術器具を画像から形成される参照座標系に関して追跡している状態で、進行中の処置を支援する。画像誘導手術は、脳外科手術のような外科的処置、膝、手首、肩又は脊椎に対する関節鏡下の処置、並びに幾つかの形式の血管造影法、心臓処置、侵襲型放射線治療及び生検において格別に有用であり、これらの処置においては、X線画像を撮影して、処置に関わる用具又は器具を表示したり、用具又は器具の位置を修正したり、他の場合には用具又は器具の進路を導いたりすることができる。
幾つかの手術部位は、体内に位置し又は直接目視することが困難な組織又は骨に対する長い探針又は他の物品の配置のために、極めて正確な計画及び制御を必要とする。具体的には、脳外科手術の場合には、進入点、探針角度及び探針深さを画定する定位フレームを、一般的には磁気共鳴撮像(MRI)画像、陽電子放出断層写真法(PET)画像又は計算機式断層写真法(CT)走査画像のように正確な組織画像を提供する事前編集された三次元診断画像と併用して、脳内の部位に接触する。脊椎での椎弓根スクリュー(螺子)の配置の場合には、目視及びフルオロスコピィ撮像による案内では骨への挿入経路のプロファイルを中心としたアキシャル像を捕捉し得ない場合があり、かかるシステムがやはり有用とされていた。
既存のCT、PET又はMRIの画像集合と共に用いられる場合に、従来記録される診断画像集合は、精密走査構成又は再構成アルゴリズムの空間的な数学的性質のいずれかによって、三次元(3D)直線座標系を画定している。しかしながら、入手可能なフルオロスコピィ像、及び表面から目視可能である解剖学的特徴又はフルオロスコピィ画像において可視である解剖学的特徴と、三次元診断画像内の特徴及び用いられている用具の外部座標との相関を求めることが望ましい場合がある。相関の決定はしばしば、埋め込み型基準物を設け、且つ/又は外部から目視可能な若しくは追跡可能な撮像することのできるマーカを付加することにより行なわれる。キーボード、マウス又は他のポインタを用いて、基準物を様々な画像において識別することができる。このように、相異なる画像において座標位置揃え点の共通の組を識別することができる。これら座標位置揃え点の共通の組はまた、適当にプログラムされた既製の光学追跡アセンブリのような外部座標測定装置によって自動的に追跡可能であってもよい。例えばフルオロスコピィ画像、及びMRI画像又はCT画像の両方に撮像され得るような撮像可能な基準物の代わりに、かかるシステムはまた、大抵の場合に手術用具の単純な光学追跡と共に動作することもでき、外科医が、患者の解剖学的構造に関して外部座標を画定して解剖学的特徴のソフトウェア追跡を開始するために一定数の骨突起又は他の認識可能な解剖学的特徴に触れるか又はポイントする初期化プロトコルを用いることができる。
一般的には、画像誘導手術システムは、外科医の視野に配置されており選択されたMRI画像及び様々な角度から撮影された幾つかのX線像又はフルオロスコピィ像のような数枚のパネルを表示する画像表示器と共に動作する。三次元診断画像は典型的には、直線構成であり1ミリメートル未満以内といった極く小さい許容誤差以内までの正確な空間分解能を有している。対照的に、フルオロスコピィ像は歪んでいる場合がある。フルオロスコピィ像は、円錐形のX線ビームが通過した全ての組織の密度が表現されている点で影絵的である。用具ナビゲーション・システムでは、外科医にとって可視である表示は、フルオロスコピィ画像に投影された手術用具、生検器具、椎弓根スクリュー、探針又は他の装置の画像を示すので、外科医は、撮像された患者の解剖学的構造に関する手術器具の配向を視覚化することができる。また、追跡された探針の先端の座標に対応し得る適当なCT又はMRI再構成画像を表示することもできる。
かかる表示を具現化するために提案されているシステムの中でも多くのシステムが外部座標での手術器具の位置及び配向を綿密に追跡することに頼っている。様々な座標集合は、ロボット式機械的リンク及びエンコーダによって画定されることができ、さらに一般的には、固定式患者支持体、支持体に固定され得るビデオ・カメラのような2以上の受像器、並びに手術器具のガイド又はフレームに取り付けられており患者支持体及びカメラ・フレームに関する用具の位置及び配向を三角測量によって自動的に決定することを可能にする複数の信号伝達要素によって画定されるので、それぞれの座標の間での様々な変換を算出することができる。2台のビデオ・カメラ及び複数の放出器又は他の位置信号伝達要素を用いる三次元追跡システムは市販されて久しく、かかる手術室システムに容易に適応構成される。また、同様のシステムが市販の音響測距システムを用いて外部位置座標を決定することができ、このシステムでは、3以上の音波放出器が作動し、放出器からの音を複数の受信器において検出して、検出アセンブリからの各放出器の相対距離を決定し、このようにして放出器が装着されているフレーム又は支持器の位置及び配向を単純な三角測量によって画定することができる。追跡された基準物が診断画像内に現われているときには、手術室座標と画像座標との間の変換を画定することが可能である。
さらに最近では、3D診断データ画像集合の精度を利用して、これら3D画像を術中フルオロスコピィ画像に現われるパターンにマッチングさせることにより手術室画像の精度を高める多くのシステムが提案されている。これらのシステムは、骨のエッジ輪郭を追跡してマッチングすることを用いるもの、1枚の画像をもう1枚の画像に形態学的に変形して座標変換を決定することを用いるもの、又は他の相関法を用いるものであり得る。低品質で非平面的なフルオロスコピィ画像と3Dデータ集合の平面との相関を求める手順は多大な時間を要し得る。基準物又は付加マーカを用いる手法では、外科医は長時間を要する初期化プロトコル又は時間が掛かり計算集約的な手順に従って、様々な画像集合の間でマーカを識別して相関させる場合がある。これらの要因の全てが、術中画像誘導システム又はナビゲーション・システムの速度及び有用性に影響を及ぼしてきた。
患者の解剖学的構造又は術中フルオロスコピィ画像と、事前編集された3D診断画像データ集合との相関もまた、元の撮像の時刻と術中処置の時刻との間での撮像構造、特に軟組織構造の干渉性の移動によって複雑化し得る。このように、二つの画像集合の3以上の座標系と手術室の物理的座標との間の変換は、実効的な相関を与えるために多数の位置揃え点を要し得る。椎弓根スクリューを配置するための脊椎追跡では、追跡アセンブリは、適当な精度を達成するために単一の椎骨について10以上の点において初期化される場合がある。腫瘍の成長又は状態の進行によって撮像セッションと撮像セッションとの間に組織の寸法又は位置が実際に変化する場合には、さらに複雑な要因が現われ得る。
脊椎に椎弓根スクリューを配置する場合のように、画像誘導追跡の目的が表面の近くの硬質組織又は骨組織に対する手術を画定することにある場合には、位置揃えは代替的には、計算機式モデリング手順を用いることにより、追跡画像への進行中の参照を行なわずに実行されてもよい。このモデリング手順では、用具の先端を幾つかの骨突起の各々に触れさせて、これらの骨突起の各々について初期化して、骨突起の座標及び配置を確定し、この後に、脊椎の仮想的表現を脊椎に取り付けられた追跡要素又はフレームと共に機械的にモデリングしながら、これらの骨突起の位置に関して用具を光学的に初期位置揃えし次いで追跡することにより、脊椎の全体としての運動をモデリングする。かかる手順では、様々なソースからの相異なる画像集合に対する時間の掛かる計算集約的な相関決定が不要であり、点の光学的追跡を代用することにより、患者の解剖学的構造に関する用具の位置を妥当な程度の精度で実効的に決定するのに用いられるX線照射を排除し又は照射回数を減らすことができる。
米国特許第5,829,444号明細書(1998年11月3日付与、Ferre等)
しかしながら、前述のアプローチの各々すなわち高品質画像データ集合を歪みの多い影絵的な投影画像と相関させて、追跡データを用いて用具位置を示すアプローチ、又は外部から検出された用具座標を重ね合わせた動的解剖学的モデルに対して点の有限集合を固定するアプローチは、機械計算によって合成画像を形成し、又は既存のデータに基づく診断平面を選択してカレントの用具の位置に関して外科医を誘導するような方法に帰着する。各々の個別の座標検出システム若しくは画像取り扱いシステムをさらに使い易く又は妥当な信頼性を有するようにするために、様々な治具及び専用サブアセンブリが考案されているが、この分野は依然として不必要に複雑である。システムは、多様な画像集合の相関決定、並びに動作、追跡、及び画像空間座標又は特徴の大量の点逐次方式の初期化をしばしば用いるばかりでなく、多様なハードウェア製造者の所有権制限による制約を受け、追跡システムによって課される物理的制限による制約を受け、また多くの異なる画像ソースの他の画像及びシステムの座標に対する縮尺、配向及び関係を決定することに加えてこれら異なるソースを調整接続する複雑なプログラミング・タスクによる制約を受ける。
フルオロスコピィ画像を補正して精度を高める幾つかの提案が行なわれている。このことは複雑な取り組みである、というのは、3Dから2Dへの投影撮像というフルオロスコープの性質によって各回の撮影で多量の情報の損失が生ずるので、逆変換は劣決定性が高いからである。カメラ及び線源の位置及び配向に起因して各回の撮影と共に発生する撮像パラメータの変化が、問題をさらに複雑にする。この分野は、より剛性でアイソセンタに位置し易いCアーム構造を提供した製造者によってある程度の取り組みが為されている。このイメージング・システムの付加的な位置的精度から、決定済みの条件下で構成される不動の患者の多数のフルオロスコピィ撮影集合を取得することにより何らかの形式の平面画像再構成を行ない得る見通しが得られる。しかしながら、このことは、計算経費が極めて高いと考えられ、現状の技術の示唆によれば、従来のCT撮像に用いられるよりも幾分コストの低い設備を用いて補正済みフルオロスコピィ画像データ集合を生成することは可能な場合もあるが、術中フルオロスコピィ画像誘導では依然として、MRI、PET又はCTデータ集合の入手を必要とし、位置又は画像の相関決定を実行することを可能にする追跡システムのためには大量の外科的な入力及び設定に頼っている。
従って、単純で低線量及び低コストのフルオロスコピィ画像を手術誘導に利用し、しかも重要な用具配置について高められた精度を達成することが依然として極めて望ましい。
位置揃えは、患者画像座標系及び電磁式追跡座標系のような二つの座標系の相関を求める工程である。幾つかの方法を用いて撮像応用において座標を位置揃えすることができる。「既知の」又は予め画定されている物体の位置を画像において求める。既知の物体は、追跡システムによって用いられるセンサを含んでいる。一旦、センサの位置が画像において求められると、センサは二つの座標系の位置揃えを可能にする。
1998年11月3日に付与されたFerre等による米国特許第5,829,444号は、例えばヘッドセットを用いる追跡及び位置揃えの方法について言及している。患者は、走査画像が記録されるときに放射線不透過性マーカを含むヘッドセットを装着する。次いで、予め画定されている参照ユニット構造に基づいて、参照ユニットは走査画像において参照ユニットの各部分の位置を自動的に決定することができ、これにより走査画像に関する参照ユニットの配向を識別することができる。場発生器を参照ユニットと関連付けて、一定の面積に位置特性を表わす場を発生することができる。参照ユニットに関する場発生器の相対位置が決定されると、位置揃えユニットは、適当な写像関数を生成することができる。すると、追跡されている表面を、記憶された画像に関して位置決定することができる。
しかしながら、患者に配置されておりフルオロスコープ・カメラから離隔している参照ユニットを用いる位置揃えでは、参照ユニットとフルオロスコープとの間の距離によって座標位置揃えに不正確さが混入する。加えて、患者に配置される参照ユニットは典型的には小型であり、さもなければ画像走査に干渉し得る。より小型の参照ユニットはより不正確な位置測定値を発生し、従って位置揃えに影響を及ぼし得る。
典型的には、ナビゲーション・システムによって用いられる参照フレームが、手術ナビゲーションの前に解剖学的構造に位置揃えされる。参照フレームの位置揃えは、表示されるフルオロスコピィ画像に関してナビゲートされる用具の精度に影響を与える。
処置中には、脊椎外科医は複雑な3Dの解剖学的関係の正確な感覚を維持しなければならない。フルオロスコピィは従来、術中に用いられており、解剖学的構造(例えば椎弓根)の視覚化、及び用具又は埋植物(例えばガイド・ワイヤ又は椎弓根スクリュー)の配置を容易にしている。フルオロスコピィは有用であるが、現状では、複雑な3D構造の2D投影のみに限定されている。さらに、フルオロスコピィは横断面に関する軸に沿ってのみ可能であり、前後方向(AP)像及び内外方向(ML)像が最も一般的である。この場合には、外科医は、画像内の標認点の解釈及び解剖学的構造の知識に基づいて、上下軸に沿って(すなわちアキシャル像に沿って)外科的配置を認知的に推定する。これらの推定方式は、例えば脊椎に椎弓根スクリューを配置する場合に様々な程度の不正確さを招き得る。
計算機式断層写真法(CT)撮像は、各々の患者に特有の3D容積画像を形成する。この画像集合は、実際には任意のビューから再レンダリングすることができ、従来は一連のアキシャル断面として提示されている。この画像集合を一般的には術前に用いて、状態を診断して手術方針を計画する。
画像誘導ナビゲーションは、他の応用の中でも脊椎手術に臨床利用されている。画像誘導応用は典型的には、2Dフルオロスコピィ画像又は3DCTデータ集合を用いる。3D方式のシステムは、通常は患者の解剖学的構造の手動式ディジタル化(例えば点の選定)によって達成されるデータ集合の患者への明示的な位置揃えを必要とする。2D方式のシステムは、撮像装置(例えばフルオロスコープ)を患者に関して追跡することにより画像が本質的に位置揃えされるので利用がより単純である。
このように、2Dシステムの使い易さ及び実時間更新を、容易に位置揃えされる3DCTデータ集合と共に組み入れたハイブリッド2D/3Dナビゲーション・システムが極めて望ましい。
ナビゲーション手順の間に、用具をナビゲートし得るフルオロスコピィ画像が撮影される。CT画像/MRI画像(解剖学的構造の薄いスライスである)とは異なり、フルオロスコピィ画像は解剖学的構造の容積を通した投影である。ナビゲートされる用具が描出されるときには、用具は画像の上に「浮いて」いるように見える(用具が構造の内部又は背後にある場合でも)(図1を参照)。浮いている画像は用具位置の正確な表現ではなく、外科医は与えられる表示を常に補正する必要がある。
従って、器具/用具をフルオロスコピィ画像に統合するシステム及び方法が必要とされている。
本発明の幾つかの実施形態は、画像に用具又は埋植物を表現するシステム及び方法を提供する。
幾つかの実施形態は、画像に関して用具又は埋植物を描出する方法を提供する。この方法は、画像に描出された関心領域について表面境界を確定するステップと、表面境界に関して用具又は埋植物の位置を決定するステップと、画像に用具又は埋植物の表現を表示するステップとを含んでいる。表面境界の内側の用具又は埋植物の部分は、表面境界の外側の用具又は埋植物の部分に比較して一定の透明度を有する表現として描出される。
幾つかの実施形態は、画像に関して用具又は埋植物の表現を表示するユーザ・インタフェイス・システムを提供する。このシステムは、画像に描出された関心領域について表面境界を確定するように構成されており、また表面境界に関して用具又は埋植物の位置を決定するように構成されているプロセッサと、画像及び表現を利用者に対して動的に表示するように構成されている表示器とを含んでいる。プロセッサは、表面境界に関する位置に基づいて用具又は埋植物の表現を生成する。表面境界の内側の用具又は埋植物の部分は、表面境界の外側の用具又は埋植物の部分に比較して一定の透明度を有する表現として描出される。
幾つかの実施形態は、コンピュータでの実行のための一組の命令を有するコンピュータ読み取り可能な媒体を提供する。この一組の命令は、追跡情報に基づいて画像に描出される関心領域について表面境界を確定する境界決定ルーチンと、追跡情報に基づいて表面境界に関して用具又は埋植物の表現を生成する埋植物表現ルーチンと、画像に用具又は埋植物の表現を表示する表示ルーチンとを含んでいる。表面境界の内側の用具又は埋植物の部分は、表面境界の外側の用具又は埋植物の部分に比較して一定の透明度を有する表現として描出される。
以上の概要、及び以下の本発明の幾つかの実施形態の詳細な説明は、添付図面と併せて読むとさらに十分に理解されよう。本発明を説明する目的で、幾つかの実施形態が図面に示されている。しかしながら、本発明は、添付図面に示す構成及び手段に限定されないことを理解されたい。
ここで図2を参照すると、参照番号10によって全体的に示す医用ナビゲーション・システム(例えば手術ナビゲーション・システム)が、可搬型コンピュータ12、表示器14、及びナビゲーション・インタフェイス16を含むものとして図示されている。医用ナビゲーション・システム10は、電磁場発生器20及び電磁センサ22と共に動作して装置24の位置を決定するように構成されている。システム10、及び/又は他のナビゲーション若しくは追跡システムは、例えば電磁式、光学式、超音波式、慣性位置式及び/又は他の追跡システムを含む多様な追跡技術と共に用いることができるが、以下ではシステム10を例示のみの目的で電磁式追跡に関して説明する。
テーブル30が、電磁センサ22の近くに配置されて、手術処置中に患者40を支持する。ケーブル50が、電磁センサ22と医用ナビゲーション・システム10との間のデータ伝送のために設けられている。医用ナビゲーション・システム10は、図2に示す実施形態では第二の表示器18と共に可搬型カート60に装着されている。
電磁センサ22は、例えばプリント回路基板であってよい。幾つかの実施形態は、複数のコイル及びコイル対を含むプリント回路基板受信器アレイ26と、プリント回路基板受信器アレイ26において検出された磁場測定値をディジタル化する電子回路とを含む電磁センサ22を含み得る。磁場測定値を用いて、任意の適当な方法又はシステムに従って電磁場発生器20の位置及び配向を算出することができる。磁場測定値が電磁センサ22の電子回路を用いてディジタル化された後に、ディジタル化された信号はケーブル50を介してナビゲーション・インタフェイス16に送信される。後に詳述するように、医用ナビゲーション・システム10は、受信したディジタル化信号に基づいて装置24の位置を算出するように構成されている。
本書に記載される医用ナビゲーション・システム10は、様々な処置時に多くの異なる形式の装置を追跡することが可能である。処置に応じて、装置24は、手術器具(例えば撮像用カテーテル、診断用カテーテル、治療用カテーテル、ガイドワイヤ、創面切除器、吸引器、ハンドル及びガイド等)、手術埋植物(例えば人工椎間板、骨ねじ、シャント、椎弓根スクリュー、プレート及び脊髄管等)、又は他の何らかの装置であってよい。医用ナビゲーション・システム10の利用の背景状況に応じて、任意の数の適当な装置を用いることができる。
図3に、医用ナビゲーション・システム100の例示的なブロック図を掲げる。医用ナビゲーション・システム100は、モジュールの集合として概念的に示されているが、専用ハードウェア・ボード、ディジタル信号プロセッサ、フィールド・プログラマブル・ゲート・アレイ、及びプロセッサの任意の組み合わせを用いて具現化され得る。代替的には、各モジュールは、単一のプロセッサ又は多数のプロセッサを備えた既製のコンピュータを用いて、プロセッサの間の作用動作を分散させて具現化されていてもよい。一例として、位置及び配向の計算のための専用プロセッサと、視覚化演算のための専用プロセッサとを有することが望ましい場合がある。さらに他の選択肢として、各モジュールは、幾つかのモジュール型作用を専用ハードウェアを用いて実行し、残りのモジュール型作用を既製のコンピュータを用いて実行するハイブリッド構成を用いて具現化されていてもよい。モジュールの動作はシステム制御器210によって制御され得る。
ナビゲーション・インタフェイス160は、電磁センサ222からディジタル化された信号を受け取る。図2に示す実施形態では、ナビゲーション・インタフェイス16はイーサネット・ポートを含んでいる(「イーサネット」は商標)。このポートには例えば、イーサネット・ネットワーク・インタフェイス・カード又はアダプタが設けられていてよい(「イーサネット」は商標)。しかしながら、様々な代替的実施形態によれば、ディジタル化された信号を代替的な有線又は無線の通信プロトコル及びインタフェイスを用いて電磁センサ222からナビゲーション・インタフェイス160へ送信することができる。
ナビゲーション・インタフェイス160によって受け取られたディジタル化信号は、電磁センサ222によって検出された磁場情報を表わしている。図3に示す実施形態では、ナビゲーション・インタフェイス160は、ディジタル化された信号をローカル・インタフェイス215を介して追跡モジュール250に送信する。追跡モジュール250は、受け取ったディジタル化された信号に基づいて位置及び配向情報を算出する。この位置及び配向情報は、装置の位置を与える。
追跡モジュール250は、位置及び配向情報をローカル・インタフェイス215を介してナビゲーション・モジュール260に伝達する。一例として、このローカル・インタフェイス215は周辺機器コンポーネント・インターコネクト(PCI)バスである。しかしながら、様々な代替的実施形態によれば、本発明の範囲を逸脱することなく、同等のバス技術を置換することができる。
位置及び配向情報を受け取ると、ナビゲーション・モジュール260を用いて装置の位置を取得された患者データに位置揃えする。図3に示す実施形態では、取得された患者データはディスク245に記憶されている。取得された患者データは、計算機式断層写真法データ、磁気共鳴データ、陽電子放出断層写真法データ、超音波データ、X線データ、又は他の任意の適当なデータ、及びこれらの任意の組み合わせを含み得る。例示のみを目的として述べると、ディスク245はハード・ディスク・ドライブであるが、他の適当な記憶装置及び/又はメモリを用いてよい。
取得された患者データは、ディスク245からメモリ220にロードされる。ナビゲーション・モジュール260は取得された患者データをメモリ220から読み出す。ナビゲーション・モジュール260は、装置の位置を取得された患者データに位置揃えして、患者画像データ及び装置の表現を視覚化するのに適した画像データを生成する。図3に示す実施形態では、画像データはローカル・インタフェイス215を介して表示制御器230に送信される。表示制御器230を用いて画像データを2台の表示器214及び218に出力する。
図3の実施形態には2台の表示器214及び218が図示されているが、代替的な実施形態は様々な表示器構成を含み得る。様々な表示器構成を用いて手術室の人間工学を改善し、様々なビューを表示し、又は様々な場所にいる人員に情報を表示することができる。例えば、図2に示すように、第一の表示器14は医用ナビゲーション・システム10に含まれていてよく、第一の表示器よりも大型の第二の表示器18は可搬型カート60に装着されている。代替的には、表示器214及び218の1又は複数が手術用ブームに装着されていてもよい。手術用ブームは、天井装着型であってもよいし、手術テーブルに取り付け可能であってもよいし、可搬型カートに装着されてもよい。
ここで図4を参照すると、医用ナビゲーション・システム300の代替的な実施形態が図示されている。医用ナビゲーション・システム300は、比較的小さい設置面積(例えば約1000cm)の可搬型コンピュータと、一体型表示器382とを含んでいる。様々な代替的実施形態によれば、任意の適当なさらに小さい又は大きい設置面積を用いてよい。
ナビゲーション・インタフェイス370は、電磁センサ372からディジタル化された信号を受け取る。図4に示す実施形態では、ナビゲーション・インタフェイス370は、ディジタル化された信号をローカル・インタフェイス315を介して追跡インタフェイス350に送信する。追跡モジュール356は、追跡インタフェイス350に加えて、受け取ったディジタル化信号に基づいて位置及び配向情報を算出するプロセッサ352及びメモリ354を含んでいる。
追跡インタフェイス350は、算出された位置及び配向情報をローカル・インタフェイス315を介して視覚化インタフェイス360に伝達する。ナビゲーション・モジュール366は、視覚化インタフェイス360に加えて、ディスク392に記憶されている取得された患者データに装置の位置を位置揃えするプロセッサ362及びメモリ364を含んでおり、患者画像データ及び装置の表現を視覚化するのに適当な画像データを生成する。
視覚化インタフェイス360は、画像データをローカル・インタフェイス315を介して表示制御器380に送信する。表示制御器380を用いて画像データを表示器382に出力することができる。
医用ナビゲーション・システム300はまた、スケジューリング、患者データの更新のような追加の計算アプリケーション又は他の適当なアプリケーションに用いられるプロセッサ342、システム制御器344、及びメモリ346を含んでいる。医用ナビゲーション・システム300の性能は、プロセッサ342を一般計算アプリケーションに用い、プロセッサ352を位置及び配向の算出に用い、またプロセッサ362を視覚化動作専用に用いることにより高められている。図4の実施形態の説明に拘わらず、本発明の範囲を逸脱することなく代替的なシステム・アーキテクチャを置換することもできる。
後にさらに詳細に説明するように、本発明の幾つかの実施形態は、2Dフルオロスコピィ画像に加えて、アキシャル像のような3D計算機式断層写真法(CT)データ集合についての術中ナビゲーションを提供する。幾つかの実施形態では、CTデータ集合を、標準的な前後方向及び横方向のフルオロスコピィ画像に対する相関決定を介して、術中に患者に対して位置揃えする。処置が進行するにつれて、追加の二次元画像が、CTデータ集合の再位置揃えを必要とせずに取得されてナビゲートされ得る。
幾つかの実施形態は、多数のレベルの処置の配置を可能にするツールを提供する。画面上のテンプレートを用いて埋植物の長さ及び寸法を選択することができる。システムは多数のレベルに配置された埋植物の位置を記憶することができる。利用者は、追加の埋植物の配置時に、記憶されたオーバレイを参照のために呼び出すことができる。加えて、幾つかの実施形態は、ナビゲート式測定を行なうことにより、各構成要素の試行錯誤方式のフィッティングを排除するのに役立つ。幾つかの実施形態では、関連する解剖学的構造及び埋植物の隣りに画面上に注釈が現われる。
幾つかの実施形態では、相関方式位置揃えアルゴリズムを利用して信頼性のある位置揃えを提供する。標準的な前後方向(AP)及び側面方向(Lat)のフルオロスコピィ画像を取得することができる。脊椎のレベルが選択され、画像が位置揃えされる。脊椎のレベルの選択は、例えばナビゲートされている器具を実際の解剖学的構造においてポイントすることにより達成される。
システムの幾つかの実施形態は、脊椎視覚化器具キット、脊椎手術器具キット、頸部用器具キット、ナビゲーション・アクセス針等のような一群の脊椎用器具及びキットと共に作用する。これらの器具は、例えば一定範囲の標準的な椎弓根スクリューの配置を容易にする。スクリューの幾何学的構成のライブラリを用いてこれらのスクリューを表わし、十分に陰影を施したモデルに対するワイヤフレームのオーバレイを容易にする。オーバレイを各々の脊椎のレベルについて記憶して呼び出すことが可能である。
幾つかの実施形態では、呼び出されたオーバレイを、例えば多数のレベルの椎弓根スクリューの間の距離、多数のレベルの椎弓根スクリューの間の曲率、及びレベルの注釈(例えば左L4椎骨)を含む幾つかの自動測定値と共に表示することができる。これらの測定値は埋植物の長さ及び寸法のより正確な選択を容易にする。これらの測定値はまた、各構成要素の試行錯誤方式のフィッティングを排除する助けとなる。
このように、幾つかの実施形態は、外科医が切開処置又は経皮的処置のいずれの際にも人体のあらゆる場所で解剖学的構造の位置を決定する助けとなる。幾つかの実施形態は、例えば腰椎及び/又は仙椎のレベルで用いることができる。幾つかの実施形態は、医療におけるディジタル撮像及び通信(DICOM)への準拠を提供し、ガントリ傾斜及び/又は可変スライス間隔をサポートする。幾つかの実施形態は、自動窓指定、及び記憶されたプロファイルとの中心合わせを提供する。幾つかの実施形態は、相関方式の2D/3D位置揃えアルゴリズムを提供して、例えば実時間の多数の平面切除術を可能にする。
幾つかの実施形態は、利用者が、ナビゲートされた配置を記憶させ呼び出すことを可能にする。幾つかの実施形態は、利用者が、多数のレベル椎弓根スクリュー及び/又は他の埋植物/器具の間の距離を測定することを可能にする。幾つかの実施形態は、利用者が、例えば相互接続ロッドの長さ及び曲率を算出することを可能にする。
図5は、本発明の一実施形態によるフルオロスコピィ画像と共に観察される3D埋植物の一例を図示している。画像500は、用具/埋植物510及び解剖学的構造550を含んでいる。用具/埋植物510は、例えば解剖学的構造550の外側の部分520及び解剖学的構造550の内側の部分530を含んでいる。
患者の皮膚のような境界が何処にあるべきかについて利用者によって与えられる情報を用いて、システムは、用具/埋植物510の何れの部分が「目標」解剖学的構造550の内側530に位置し何れの部分が外側520に位置するかを決定することができる。用具/埋植物510の境界平面よりも下方に位置する部分530は、例えば透明、半透明及び/又は他の場合には様々な程度まで不透明に調節することができる。例えば、図6は、境界表面の下方の距離に基づく様々な陰影付けを示す用具の単純化された表現を図示している。例えば図5に示すように、透明度を設けることにより、用具/埋植物510に対し、フルオロスコピィ画像の内側に位置するという錯覚を与えることができる。
幾つかの実施形態では、利用者は、1又は複数の点を「クリック」し、又は他の方法で選択し、強調し、且つ/若しくは特定して、画像内の解剖学的構造550又は他の物体の表面又は境界を示す。このように、点及び/又は平面を用いて境界を決定し、この境界よりも上方では用具/埋植物510は中実体として画像に描出され、この境界よりも下方では用具/埋植物510は半透明の物体として描出される。用具/埋植物510は、システムが境界の下方及び上方の用具/埋植物510の位置を判定して利用者に配置情報及び透明度情報を提供することを可能にするように、撮像の前にモデル化され得る。利用者は、例えばボタンを押す、及び/又は用具若しくはポインタに圧力を加える、及び/又は用具/埋植物510を配置してソフトウェアを介して(例えばキーボード及び/又はマウス入力に基づいて)点を選択すること等により、1又は複数の境界点を選択することができる。
幾つかの実施形態では、不透明度/透明度に、表面境界からの距離に基づいて加重することができる。例えば、椎弓根スクリューのような埋植物510が患者の皮膚の下方に次第に伸長するにつれて、スクリューの先端は次第に透明になる。皮膚の下方のスクリューの長さは、画像では変化する透明度で描出されて、患者の体内の深さについての洞察を与える。
図7は、本発明の一実施形態に従って用いられる画像内の埋植物/用具の表現の方法700の流れ図を示している。ステップ710では、利用者は、患者の皮膚のような境界を表わす1又は複数の測定点を指示する。利用者は、例えばボタンを押す、及び/又は用具若しくはポインタに圧力を加える、及び/又は用具/埋植物を配置してソフトウェアを介して(例えばキーボード及び/又はマウス入力に基づいて)点を選択すること等により、1又は複数の点を指示して、境界の存在を示すことができる。
ステップ720では、患者のような目標に関して用具/埋植物の位置を測定する。位置は、前述のように様々な追跡/ナビゲーション手法の任意のものに基づいて測定されてよい。ステップ730では、境界の位置について利用者によって提供された情報及び用具/埋植物の位置情報を用いて、用具/埋植物の何れの部分が境界の内側に位置し用具/埋植物の何れの部分が境界の外側に位置するかについての決定が為される。境界の下方に位置する用具/埋植物の部分は、例えば患者の区域の表示された画像において何らかの透明度を有して表現され得る。境界の上方に位置する用具/埋植物の部分は、例えば不透明な物体またはアイコンとして表現され得る。透明度を設けると、利用者に対し、境界及び目標の区域に関する用具/埋植物の位置についてさらに十分な理解を与えるのを助けることができる。
ステップ740では、患者の解剖学的構造のような目標に関して用具/埋植物を示す画像が利用者に表示される。上述のように、用具/埋植物の部分は、境界の位置によって不透明及び/又は透明である。画像は、用具/埋植物が利用者によって配置されるのに伴って更新され得る。
幾つかの実施形態では、不透明度/透明度に対し、表面境界からの距離に基づいて加重することができる。例えば、用具/埋植物が境界の下方に次第に伸長するにつれて、用具/埋植物の遠位部分(1又は複数)は次第に透明になる。境界の下方での用具/埋植物の長さは、画像では変化する透明度によって描出されて、目標の内部の深さについての洞察を与える。表示されている画像に関する透明度及び位置は、用具/埋植物が利用者によって移動させられるにつれて動的に調節され得る。
このように、幾つかの実施形態は、外科医が3Dの用具及び/又は埋植物のより現実的な表現、並びにこれら用具及び/又は埋植物の解剖学的構造における位置を観察することを可能にする。幾つかの実施形態は、3D追跡された用具(又は埋植物)を投影画像(例えばフルオロスコピィ画像)に統合するシステム及び方法を提供する。幾つかの実施形態は、2D像(例えばフルオロスコピィ像又はX線画像の像)において例えば用具/埋植物が骨の内側に位置することを「視覚的に」表現する能力を提供し、これにより2D画像に近似的な3D効果を生成する。幾つかの実施形態は、利用者が用具/埋植物を移動させ、且つ/又は患者に対して異なる/追加の用具及び/又は埋植物を用いるのに伴う動的で適応的な解の更新を提供する。
このように、幾つかの実施形態は、手術ナビゲーション及び測定のワークフロー強化を提供する。加えて、ナビゲートされている椎弓根スクリュー及び/又は他の埋植物は、臨床医による観察のために画像のオーバレイとして図形的にレンダリングされて表現され得る。このオーバレイは、例えばスクリュー及び/又は他の埋植物の位置の視覚化を維持するのに役立つ。
幾つかの実施形態は、2Dシステムの実時間更新及び使い易さを、容易に位置揃えされる3DCTデータ集合と共に組み入れた2D/3Dハイブリッド・ナビゲーション・システムと共に動作する。医学的処置の安全性及び正確さが、2D/3Dナビゲーション・システムによって強化され得る。CTデータ集合を2D術中撮像と共に用いることにより、手術室での解剖学的構造の視覚化及び理解が向上する。かかるシステムは、脊椎処置、頭蓋処置及び他の臨床処置のような多様な医学的処置に応用され得る。脊椎処置は、後外側切開及び低侵襲手術(MIS)による椎弓根スクリュー、後部C1−C2関節貫通螺子固定、経口腔歯突起固定、頸部外側塊プレート螺子固定、胸椎前方螺子固定、脊柱側弯、脊柱後弯、亀背形成術、椎体形成術、経椎間孔腰椎椎体間固定(TLIF)、人工椎間板、破裂骨折、傍脊椎腫瘍の切除等を含み得る。
以上、図面を参照して幾つかの実施形態を説明した。これらの図面は、本発明のシステム及び方法及びプログラムを具現化する特定の実施形態の幾つかの詳細を図示している。しかしながら、図面による本発明の記載は、本発明に対し、図面に示す特徴に関連する如何なる制限も加えないものと解釈されるべきである。本発明は、発明の動作を達成する方法、システム、及び任意の機械読み取り可能な媒体上のプログラム・プロダクトを思量している。上述のように、本発明の実施形態は、既存のコンピュータ・プロセッサを用いて、又はこの目的若しくは他の目的のために組み入れられた特殊目的用コンピュータ・プロセッサによって、又は結線システムによって具現化され得る。
上述のように、本発明の範囲内にある実施形態は、機械実行可能な命令又はデータ構造を担持し又は記憶した機械読み取り可能な媒体を含むプログラム・プロダクトを含んでいる。かかる機械読み取り可能な媒体は、汎用若しくは特殊目的用コンピュータ、又はプロセッサを有する他の機械によってアクセスされ得る任意の利用可能な媒体であってよい。例として述べると、かかる機械読み取り可能な媒体は、RAM、ROM、PROM、EPROM、EEPROM、フラッシュ、CD−ROM若しくは他の光学的ディスク記憶装置、磁気ディスク記憶装置若しくは他の磁気記憶装置、又は所望のプログラム・コードを機械実行可能な命令若しくはデータ構造の形態で担持し若しくは記憶するのに用いることができ、汎用若しくは特殊目的用コンピュータ又はプロセッサを有する他の機械によってアクセスすることのできるその他任意の媒体を含み得る。情報がネットワーク又は他の通信接続(結線、無線、又は結線若しくは無線の組み合わせのいずれか)を介して機械に転送され又は供給されるときに、機械は接続を機械読み取り可能な媒体として適正に見る。このようにして、かかる任意の接続は、機械読み取り可能な媒体と適正に称される。上述の組み合わせもまた機械読み取り可能な媒体の範囲に含まれる。機械実行可能な命令は例えば、汎用コンピュータ、特殊目的用コンピュータ、又は特殊目的用処理機械に、何らかの機能又は機能群を実行させるような命令及びデータを含んでいる。
本発明の実施形態は、一実施形態ではプログラム・コードのような機械実行可能な命令を、例えばネットワーク化された環境で機械によって実行されるプログラム・モジュールの形態で含んでいるプログラム・プロダクトによって具現化され得る方法ステップの一般的な文脈で記載されている。一般的には、プログラム・モジュールは、特定のタスクを実行し又は特定の抽象的なデータ型を具現化するルーチン、プログラム、オブジェクト、コンポーネント及びデータ構造等を含んでいる。機械実行可能な命令、関連するデータ構造、及びプログラム・モジュールは、本書に開示された方法のステップを実行するプログラム・コードの例を表わしている。かかる実行可能な命令の特定の系列又は関連するデータ構造は、かかるステップに記載された機能を具現化する対応する動作の例を表わしている。
本発明の実施形態は、プロセッサを有する1又は複数のリモート・コンピュータへの論理的接続を用いてネットワーク化された環境で実施することができる。論理的接続は、本書において限定ではなく例示のために提示されている閉域網(LAN)及び広域網(WAN)を含み得る。かかるネットワーク環境は、オフィス内又は企業内コンピュータ網、構内網及びインターネットとして普及しており、広範な異なる通信プロトコルを用いる場合がある。当業者は、かかるネットワーク計算機環境が典型的には、パーソナル・コンピュータ、携帯端末、マルチプロセッサ・システム、マイクロプロセッサ方式又はプログラム可能型の消費者向け電子機器、ネットワークPC、ミニコンピュータ、及びメインフレーム・コンピュータ等を含めて、多くの形式のコンピュータ・システム構成を包含することを認められよう。本発明の実施形態はまた、通信網を介してリンクされる(結線リンク、無線リンク、又は結線リンク若しくは無線リンクの組み合わせのいずれかによる)ローカル及びリモートの処理装置によってタスクが実行される分散型計算機環境で実施されてもよい。分散型計算機環境では、プログラム・モジュールはローカル及びリモートの両方のメモリ記憶装置に位置していてよい。
本発明のシステム全体又は部分を具現化する例示的なシステムは、処理ユニット、システム・メモリ、及びシステム・メモリを含む様々なシステム構成要素を処理ユニットに結合するシステム・バスを含むコンピュータの形態にある汎用計算機装置を含み得る。システム・メモリは読み出し専用メモリ(ROM)及びランダム・アクセス・メモリ(RAM)を含み得る。コンピュータはまた、磁気ハード・ディスクに対する読み書きを行なう磁気ハード・ディスク・ドライブ、取り外し可能な磁気ディスクに対する読み書きを行なう磁気ディスク・ドライブ、及びCD−ROM又は他の光学的媒体のような取り外し可能な光ディスクに対する読み書きを行なう光ディスク・ドライブを含み得る。これらのドライブ及び関連する機械読み取り可能な媒体は、機械実行可能な命令、データ構造、プログラム・モジュール及びコンピュータ用のその他不揮発性記憶装置を提供する。
図8は、本発明の一実施形態に従って用いられる例示的なイメージング及び追跡システムを示す図である。幾つかの実施形態は、図8に例示するイメージング及び追跡システムのようなイメージング及び追跡システムと連結して使用することができる。図のように、該システムはイメージング装置810、テーブル820、患者830、追跡センサ840、医療機器(用具)又はインプラント(埋植物)850、追跡エレクトロニクス860、画像プロセッサ870、表示器880を備える。イメージング装置810は、患者830の解剖学的構造のX線画像を取得するのに便利なCアーム型として示されているが、追跡システムに使用可能な如何なるタイプのイメージング装置であっても良い。イメージング装置(又はイメージング・モダリティ)810は、画像プロセッサ870と通信し、画像プロセッサ870は、追跡エレクトロニクス860と、表示器880をと通信する。
本発明の実施形態に関する以上の説明は、例示および説明の目的のために提示されている。説明は網羅的であること又は本発明を開示された厳密な形態に限定することを意図しておらず、以上の教示に照らして改変及び変形が可能であり、本発明の実施から改変及び変形が取得され得る。実施形態は、発明の原理及び実際的な応用を説明するために選択され記載されており、当業者が本発明を様々な実施形態として想到される特定の用途に適するように様々な改変を施して利用することを可能にしている。
当業者は、本書に開示された実施形態が任意の医用ナビゲーション・システムの形成に適用され得ることを認められよう。請求される主題の実施形態の幾つかの特徴を本書に記載するように説明したが、当業者には多くの改変、置換、変形及び均等構成が想到されよう。加えて、幾つかの機能ブロック及び機能ブロックの間の関係を詳細に説明したが、当業者には、動作の幾つかは他の動作を用いることなく実行することができ、又は追加の機能若しくは機能の間の関係を確立して、請求される主題に依然従うものとし得ることが想到されよう。従って、特許請求の範囲は、請求される主題の実施形態の真意に含まれるような全ての改変及び変形を網羅するものと理解されたい。また、図面の符号に対応する特許請求の範囲中の符号は、単に本願発明の理解をより容易にするために用いられているものであり、本願発明の範囲を狭める意図で用いられたものではない。そして、本願の特許請求の範囲に記載した事項は、明細書に組み込まれ、明細書の記載事項の一部となる。
二次元フルオロスコピィ画像の上の三次元埋植物の従来技術による表示を示す図である。 本発明の一実施形態に従って用いられる医用ナビゲーション・システムの図である。 本発明の一実施形態に従って用いられる医用ナビゲーション・システムの図である。 本発明の一実施形態に従って用いられる医用ナビゲーション・システムの図である。 本発明の一実施形態に従ってフルオロスコピィ画像と共に観察される三次元埋植物の一例を示す図である。 本発明の一実施形態に従って境界表面から下方への距離に基づく様々な陰影を示す用具の単純表現の図である。 本発明の一実施形態に従って用いられる画像における埋植物/用具表現の方法の流れ図である。 本発明の一実施形態に従って用いられる例示的なイメージング及び追跡システムを示す図である。
符号の説明
10 医用ナビゲーション・システム
12 可搬型コンピュータ
14 表示器
16 ナビゲーション・インタフェイス
18 第二の表示器
20 電磁場発生器
22 電磁センサ
24 装置
26 プリント回路基板受信器アレイ
30 テーブル
40 患者
50 ケーブル
60 可搬型カート
100 医用ナビゲーション・システム
160 ナビゲーション・インタフェイス
210 システム制御器
214、218 表示器
215 ローカル・インタフェイス
220 メモリ
222 電磁センサ
230 表示制御器
245 ディスク
250 追跡モジュール
260 ナビゲーション・モジュール
300 医用ナビゲーション・システム
315 ローカル・インタフェイス
342 プロセッサ
344 システム制御器
346 メモリ
350 追跡インタフェイス
352 プロセッサ
354 メモリ
356 追跡モジュール
360 視覚化インタフェイス
362 プロセッサ
364 メモリ
366 ナビゲーション・モジュール
370 ナビゲーション・インタフェイス
372 電磁センサ
380 表示制御器
382 表示器
392 ディスク
500 画像
510 用具/埋植物
520 外側部分
530 内側部分
550 解剖学的構造
700 方法
810 イメージング装置
820 テーブル
830 患者
840 追跡センサ
850 医療機器(用具)又はインプラント(埋植物)
860 追跡エレクトロニクス
870 画像プロセッサ
880 表示器

Claims (10)

  1. 画像(500)に関して用具又は埋植物(510)を描出する方法(700)であって、
    画像(500)に描出された関心領域(550)について表面境界を確定するステップ(710)と、
    該表面境界に関して用具又は埋植物(510)の位置を決定するステップ(720、730)と、
    前記画像(500)に前記用具又は埋植物(510)の表現を表示するステップ(740)と
    を備えており、前記表面境界の内側の前記用具又は埋植物(510)の部分(530)は、前記表面境界の外側の前記用具又は埋植物(510)の部分(520)に比較して一定の透明度を有する前記表現として描出される、方法(700)。
  2. 前記表面境界の内側の前記用具又は埋植物(510)の前記部分(530)は、前記表面境界の内側の距離に基づいて複数の透明度を有する前記表現として描出される、請求項1に記載の方法(700)。
  3. 前記表現は、二次元画像に前記用具又は埋植物(510)の三次元像を描出する、請求項1に記載の方法(700)
  4. 前記表面境界は、追跡装置(22、222、372)を用いて確定される、請求項1に記載の方法(700)。
  5. 画像(500)に描出された関心領域(550)について表面境界を確定する前記ステップは、前記関心領域(550)の表面での1又は複数の点の位置の識別に基づいて、画像(500)に描出された関心領域(550)について表面境界を確定するステップをさらに含んでいる、請求項1に記載の方法(700)。
  6. 画像(500)に関して用具又は埋植物(510)の表現を表示するユーザ・インタフェイス・システムであって、
    前記画像(500)に描出された関心領域(550)について表面境界を確定するように構成されており、また該表面境界に関して前記用具又は埋植物(510)の位置を決定するように構成されており、前記表面境界に関する前記位置に基づいて前記用具又は埋植物(510)の表現を生成するプロセッサ(12、342、352、362)であって、前記表面境界の内側の前記用具又は埋植物(510)の部分(530)は、前記表面境界の外側の前記用具又は埋植物(510)の部分(520)に比較して一定の透明度を有する前記表現として描出される、プロセッサ(12、342、352、362)と、
    前記画像(500)及び前記表現を利用者に対して動的に表示するように構成されている表示器(14、214、218、382)と
    を備えたシステム。
  7. 前記表面境界の内側の前記用具又は埋植物(510)の前記部分(530)は、前記表面境界の内側の距離に基づいて複数の透明度を有する前記表現として描出される、請求項6に記載のシステム。
  8. 前記表現は、二次元画像に前記用具又は埋植物(510)の三次元像を描出する、請求項6に記載のシステム。
  9. 前記表面境界は、追跡装置(22、222、372)を用いて確定される、請求項6に記載のシステム。
  10. 前記表面境界は、前記関心領域(550)の表面の1又は複数の点の位置の識別に基づいて確定される、請求項6に記載のシステム。
JP2007291479A 2006-11-17 2007-11-09 用具又は埋植物の表現を表示するユーザ・インタフェイス・システム Active JP5328137B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/561,162 US7831096B2 (en) 2006-11-17 2006-11-17 Medical navigation system with tool and/or implant integration into fluoroscopic image projections and method of use
US11/561,162 2006-11-17

Publications (3)

Publication Number Publication Date
JP2008126063A true JP2008126063A (ja) 2008-06-05
JP2008126063A5 JP2008126063A5 (ja) 2012-09-27
JP5328137B2 JP5328137B2 (ja) 2013-10-30

Family

ID=39416991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007291479A Active JP5328137B2 (ja) 2006-11-17 2007-11-09 用具又は埋植物の表現を表示するユーザ・インタフェイス・システム

Country Status (3)

Country Link
US (1) US7831096B2 (ja)
JP (1) JP5328137B2 (ja)
NL (1) NL1034672C2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012524577A (ja) * 2009-04-25 2012-10-18 シーメンス アクチエンゲゼルシヤフト インプラントと生物の骨との相対位置を評価する方法およびシステム
JP2017514614A (ja) * 2014-06-06 2017-06-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 椎骨レベル用イメージングシステム
JP2020507383A (ja) * 2017-02-02 2020-03-12 エルビット・システムズ・リミテッド 医療用拡大高解像度撮像及び追跡法
JP2021523611A (ja) * 2018-05-08 2021-09-02 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 医療画像転送システム
JP2022521615A (ja) * 2019-02-26 2022-04-11 コーニンクレッカ フィリップス エヌ ヴェ 介入装置追跡

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US8986196B2 (en) * 2006-06-13 2015-03-24 Intuitive Surgical Operations, Inc. Minimally invasive surgery instrument assembly with reduced cross section
US20090192523A1 (en) * 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US10258425B2 (en) * 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US8165360B2 (en) * 2006-12-06 2012-04-24 Siemens Medical Solutions Usa, Inc. X-ray identification of interventional tools
EP1959391A1 (de) * 2007-02-13 2008-08-20 BrainLAB AG Bestimmung des dreidimensionalen Verlaufs des Randes einer anatomischen Struktur
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US8903546B2 (en) 2009-08-15 2014-12-02 Intuitive Surgical Operations, Inc. Smooth control of an articulated instrument across areas with different work space conditions
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
DE102007041912A1 (de) * 2007-09-04 2009-03-05 Siemens Ag Verfahren zur Darstellung von Bilddaten mehrerer Bilddatenvolumina in wenigstens einer gemeinsamen Bilddarstellung und zugehörige medizinische Einrichtung
US9168173B2 (en) 2008-04-04 2015-10-27 Truevision Systems, Inc. Apparatus and methods for performing enhanced visually directed procedures under low ambient light conditions
US8805003B2 (en) * 2008-06-25 2014-08-12 Koninklijke Philips N.V. Device and method for localizing an object of interest in a subject
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US10117721B2 (en) 2008-10-10 2018-11-06 Truevision Systems, Inc. Real-time surgical reference guides and methods for surgical applications
US9226798B2 (en) 2008-10-10 2016-01-05 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for surgical applications
JP5566657B2 (ja) * 2008-10-15 2014-08-06 株式会社東芝 3次元画像処理装置及びx線診断装置
US9173717B2 (en) 2009-02-20 2015-11-03 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for intraocular lens implantation
US8693628B2 (en) * 2009-04-27 2014-04-08 Lindsay S. Machan X-ray system
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
EP2467080B1 (en) 2009-08-20 2018-04-04 Brainlab AG Integrated surgical device combining instrument, tracking system and navigation system
US8784443B2 (en) 2009-10-20 2014-07-22 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for astigmatism correction
GB2475722B (en) * 2009-11-30 2011-11-02 Mirada Medical Measurement system for medical images
US8903144B2 (en) * 2010-12-01 2014-12-02 Olympus Corporation Endoscope apparatus and method of measuring object
WO2012090148A1 (en) * 2010-12-30 2012-07-05 Mediguide Ltd System and method for registration of fluoroscopic images in a coordinate system of a medical system
CN103429158B (zh) 2011-03-15 2017-12-26 皇家飞利浦有限公司 用于提供支持介入设备的定位的图像表示的医疗成像设备
KR102015149B1 (ko) 2011-09-06 2019-08-27 에조노 아게 이미징 프로브 및 위치 및/또는 방향 정보의 획득 방법
JP5954762B2 (ja) * 2011-11-29 2016-07-20 東芝メディカルシステムズ株式会社 X線画像診断装置
WO2013112815A1 (en) * 2012-01-27 2013-08-01 University Of Pittsburgh-Of The Commonwealth System Of Higher Education Medical training system and method of employing
US9552660B2 (en) 2012-08-30 2017-01-24 Truevision Systems, Inc. Imaging system and methods displaying a fused multidimensional reconstructed image
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
US9459087B2 (en) 2013-03-05 2016-10-04 Ezono Ag Magnetic position detection system
US9257220B2 (en) 2013-03-05 2016-02-09 Ezono Ag Magnetization device and method
GB201303917D0 (en) 2013-03-05 2013-04-17 Ezono Ag System for image guided procedure
US9295372B2 (en) * 2013-09-18 2016-03-29 Cerner Innovation, Inc. Marking and tracking an area of interest during endoscopy
CN106489152A (zh) * 2014-04-10 2017-03-08 Sync-Rx有限公司 在存在医学设备的情况下的图像分析
US9974525B2 (en) 2014-10-31 2018-05-22 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
GB2534359A (en) 2015-01-15 2016-07-27 Corin Ltd System and method for patient implant alignment
WO2016118521A1 (en) * 2015-01-23 2016-07-28 Advanced Ortho-Med Technology, Inc. Systems and methods for orthopedic analysis and treatment designs
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
JP6619456B2 (ja) * 2016-01-14 2019-12-11 オリンパス株式会社 医療用マニピュレータシステムおよび医療用マニピュレータシステムの作動方法
WO2017158592A2 (en) 2016-03-13 2017-09-21 David Tolkowsky Apparatus and methods for use with skeletal procedures
US10806541B2 (en) * 2016-06-08 2020-10-20 Adam Ross Scannable optical identifier for use with implantable medical devices
KR102410247B1 (ko) * 2016-07-14 2022-06-20 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 원격조작 시스템에서 기구 내비게이터를 디스플레이하기 위한 시스템들 및 방법들
US11051886B2 (en) 2016-09-27 2021-07-06 Covidien Lp Systems and methods for performing a surgical navigation procedure
US11653853B2 (en) 2016-11-29 2023-05-23 Biosense Webster (Israel) Ltd. Visualization of distances to walls of anatomical cavities
US10529088B2 (en) 2016-12-02 2020-01-07 Gabriel Fine Automatically determining orientation and position of medically invasive devices via image processing
US10499997B2 (en) 2017-01-03 2019-12-10 Mako Surgical Corp. Systems and methods for surgical navigation
US11083537B2 (en) 2017-04-24 2021-08-10 Alcon Inc. Stereoscopic camera with fluorescence visualization
US10299880B2 (en) 2017-04-24 2019-05-28 Truevision Systems, Inc. Stereoscopic visualization camera and platform
US10917543B2 (en) 2017-04-24 2021-02-09 Alcon Inc. Stereoscopic visualization camera and integrated robotics platform
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US11406338B2 (en) 2017-07-08 2022-08-09 Vuze Medical Ltd. Apparatus and methods for use with image-guided skeletal procedures
US10593052B2 (en) * 2017-08-23 2020-03-17 Synaptive Medical (Barbados) Inc. Methods and systems for updating an existing landmark registration
WO2019075074A1 (en) 2017-10-10 2019-04-18 Covidien Lp SYSTEM AND METHOD FOR IDENTIFICATION AND MARKING OF A TARGET IN A THREE-DIMENSIONAL FLUOROSCOPIC RECONSTRUCTION
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
EP3883491A4 (en) * 2018-11-22 2022-08-24 Vuze Medical Ltd. DEVICE AND METHODS FOR USE WITH SKELETAL IMAGE-GUIDED PROCEDURES
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004523295A (ja) * 2001-02-22 2004-08-05 シーメンス アクチエンゲゼルシヤフト 外科用医療器具の制御装置および制御方法
JP2006110351A (ja) * 2004-10-13 2006-04-27 General Electric Co <Ge> 心臓の解剖学的領域の3dモデルと追尾システムとを介入蛍光透視システムの投影画像を用いて位置合わせするための方法及び装置
JP2008520312A (ja) * 2004-11-23 2008-06-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ インターベンション手順の間の画像表示用の画像処理システム及び方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5542003A (en) * 1993-09-13 1996-07-30 Eastman Kodak Method for maximizing fidelity and dynamic range for a region of interest within digitized medical image display
US5829444A (en) * 1994-09-15 1998-11-03 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
US6167296A (en) * 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US7194117B2 (en) * 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6016439A (en) * 1996-10-15 2000-01-18 Biosense, Inc. Method and apparatus for synthetic viewpoint imaging
US6424332B1 (en) * 1999-01-29 2002-07-23 Hunter Innovations, Inc. Image comparison apparatus and method
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
US6415171B1 (en) * 1999-07-16 2002-07-02 International Business Machines Corporation System and method for fusing three-dimensional shape data on distorted images without correcting for distortion
US6834122B2 (en) * 2000-01-22 2004-12-21 Kairos Scientific, Inc. Visualization and processing of multidimensional data using prefiltering and sorting criteria
US6823207B1 (en) * 2000-08-26 2004-11-23 Ge Medical Systems Global Technology Company, Llc Integrated fluoroscopic surgical navigation and imaging workstation with command protocol
US6990220B2 (en) * 2001-06-14 2006-01-24 Igo Technologies Inc. Apparatuses and methods for surgical navigation
WO2003077101A2 (en) * 2002-03-06 2003-09-18 Z-Kat, Inc. System and method for using a haptic device in combination with a computer-assisted surgery system
AU2003257339A1 (en) * 2002-08-26 2004-03-11 Orthosoft Inc. Computer aided surgery system and method for placing multiple implants
TW558689B (en) * 2002-08-30 2003-10-21 Univ Taipei Medical Three-dimensional surgery simulation system and method
GB2393625C (en) * 2002-09-26 2004-08-18 Meridian Tech Ltd Orthopaedic surgery planning
US7492930B2 (en) * 2003-02-04 2009-02-17 Aesculap Ag Method and apparatus for capturing information associated with a surgical procedure performed using a localization device
EP1444993B2 (en) * 2003-02-10 2013-06-26 W.C. Heraeus GmbH Improved metal alloy for medical devices and implants
US20070276488A1 (en) * 2003-02-10 2007-11-29 Jurgen Wachter Medical implant or device
US7154985B2 (en) * 2003-05-13 2006-12-26 Medical Insight A/S Method and system for simulating X-ray images
US7907759B2 (en) * 2006-02-02 2011-03-15 Wake Forest University Health Sciences Cardiac visualization systems for displaying 3-D images of cardiac voxel intensity distributions with optional physician interactive boundary tracing tools
US7641660B2 (en) * 2004-03-08 2010-01-05 Biomet Manufacturing Corporation Method, apparatus, and system for image guided bone cutting
US20060004274A1 (en) * 2004-06-30 2006-01-05 Hawman Eric G Fusing nuclear medical images with a second imaging modality
JP4855085B2 (ja) * 2006-01-27 2012-01-18 興和株式会社 視野計
US20070265595A1 (en) * 2006-05-09 2007-11-15 Olympus Medical Systems Corp. Treatment tool inserting/withdrawing auxiliary device and medical procedure through endoscope

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004523295A (ja) * 2001-02-22 2004-08-05 シーメンス アクチエンゲゼルシヤフト 外科用医療器具の制御装置および制御方法
JP2006110351A (ja) * 2004-10-13 2006-04-27 General Electric Co <Ge> 心臓の解剖学的領域の3dモデルと追尾システムとを介入蛍光透視システムの投影画像を用いて位置合わせするための方法及び装置
JP2008520312A (ja) * 2004-11-23 2008-06-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ インターベンション手順の間の画像表示用の画像処理システム及び方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012524577A (ja) * 2009-04-25 2012-10-18 シーメンス アクチエンゲゼルシヤフト インプラントと生物の骨との相対位置を評価する方法およびシステム
US8660331B2 (en) 2009-04-25 2014-02-25 Siemens Aktiengesellschaft Method and a system for assessing the relative pose of an implant and a bone of a creature
JP2017514614A (ja) * 2014-06-06 2017-06-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 椎骨レベル用イメージングシステム
JP2020507383A (ja) * 2017-02-02 2020-03-12 エルビット・システムズ・リミテッド 医療用拡大高解像度撮像及び追跡法
JP7280188B2 (ja) 2017-02-02 2023-05-23 エルビット・システムズ・リミテッド 医療用拡大高解像度撮像方法及び撮像システム
US11823374B2 (en) 2017-02-02 2023-11-21 Elbit Systems Ltd. Magnified high resolution imaging and tracking for medical use
JP2021523611A (ja) * 2018-05-08 2021-09-02 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 医療画像転送システム
JP2022521615A (ja) * 2019-02-26 2022-04-11 コーニンクレッカ フィリップス エヌ ヴェ 介入装置追跡
JP7407831B2 (ja) 2019-02-26 2024-01-04 コーニンクレッカ フィリップス エヌ ヴェ 介入装置追跡

Also Published As

Publication number Publication date
NL1034672C2 (nl) 2009-04-03
US7831096B2 (en) 2010-11-09
JP5328137B2 (ja) 2013-10-30
US20080118115A1 (en) 2008-05-22
NL1034672A1 (nl) 2008-05-20

Similar Documents

Publication Publication Date Title
JP5328137B2 (ja) 用具又は埋植物の表現を表示するユーザ・インタフェイス・システム
JP5121401B2 (ja) 埋植物距離測定のシステム
US7885441B2 (en) Systems and methods for implant virtual review
US8682413B2 (en) Systems and methods for automated tracker-driven image selection
US8131031B2 (en) Systems and methods for inferred patient annotation
JP5662638B2 (ja) 副鼻洞形成術ナビゲーションのためのフルオロスコープと計算機式断層写真法との位置揃えのシステム及び利用方法
US20080154120A1 (en) Systems and methods for intraoperative measurements on navigated placements of implants
CN109416841B (zh) 影像增强真实度的方法与应用该方法在可穿戴式眼镜的手术导引
US20080119725A1 (en) Systems and Methods for Visual Verification of CT Registration and Feedback
US20080119712A1 (en) Systems and Methods for Automated Image Registration
US11426241B2 (en) Device for intraoperative image-controlled navigation during surgical procedures in the region of the spinal column and in the adjacent regions of the thorax, pelvis or head
JP4156107B2 (ja) 像誘導式の介在的手順のプランニング方法及び装置
US8320992B2 (en) Method and system for superimposing three dimensional medical information on a three dimensional image
US10531814B2 (en) Method and apparatus for moving a reference device
EP3175791A1 (en) Method for reconstructing a 3d image from 2d x-ray images
KR100726022B1 (ko) 복수의 2차원 영상을 이용한 3차원 수술공간 계측 시스템및 그 방법
JP2022516642A (ja) 座標系とナビゲーションとの位置合わせのためのシステムおよび方法
JP2021510107A (ja) 超音波画像データの三次元撮像およびモデリング
WO2008035271A2 (en) Device for registering a 3d model
US20080119724A1 (en) Systems and methods for intraoperative implant placement analysis
US9477686B2 (en) Systems and methods for annotation and sorting of surgical images
US8067726B2 (en) Universal instrument calibration system and method of use
Langlotz State‐of‐the‐art in orthopaedic surgical navigation with a focus on medical image modalities
CN116266369A (zh) 确定要由医学图像采集设备成像的扫描区域的技术
CN116019571A (zh) 用于在手术期间定位患者身体并跟踪患者位置的装置和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101102

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130723

R150 Certificate of patent or registration of utility model

Ref document number: 5328137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250