JP2012531936A - 外科的軌跡の視覚化 - Google Patents

外科的軌跡の視覚化 Download PDF

Info

Publication number
JP2012531936A
JP2012531936A JP2012516924A JP2012516924A JP2012531936A JP 2012531936 A JP2012531936 A JP 2012531936A JP 2012516924 A JP2012516924 A JP 2012516924A JP 2012516924 A JP2012516924 A JP 2012516924A JP 2012531936 A JP2012531936 A JP 2012531936A
Authority
JP
Japan
Prior art keywords
surgical
surgical trajectory
visualizing
trajectory
anatomical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012516924A
Other languages
English (en)
Other versions
JP5650732B2 (ja
JP2012531936A5 (ja
Inventor
カニャン,ハイリイェ
セシル フランソワ マルテンス,ヒューベルト
トーマス ドラン,ケヴィン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2012531936A publication Critical patent/JP2012531936A/ja
Publication of JP2012531936A5 publication Critical patent/JP2012531936A5/ja
Application granted granted Critical
Publication of JP5650732B2 publication Critical patent/JP5650732B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis

Abstract

外科軌跡(32、101、42、46、47)を視覚化するための方法が提供され、前記方法は、手術を行う領域の3Dイメージ情報(31)を受け取る(71)ステップ及び前記受け取った3Dイメージ(31)をデジタル化された解剖アトラスからのデータと組み合わせる(72)ステップを含む。その結果、手術を行う前記領域の組み合わせマップが得られる。前記組み合わせまあプは、手術を行う前記領域の解剖構造(102、103、104)の予想される位置を含む。本方法はさらに、前記手術のための前記外科軌跡(32、101、42、46、47)を受け取る(73)ステップを含み、前記外科軌跡(32、101、42、46、47)と前記解剖構造(102、103、104)との交点の位置を決定する(74)ステップを含み、かつ前記外科軌跡(32、101、42、46、47)に関して配列された座標システムに前記交点(43、44)の前記位置を与える(75)ステップを含む。

Description

本発明は外科的軌跡の視覚化の方法に関する。本発明方法は3Dイメージ情報を、前記3Dイメージ情報の区分けされた解剖学的構造のためのデジタル化解剖モデルと組み合わせる。計画された外科的軌跡が、前記外科的軌跡を視覚化するために前記組み合わされたイメージ上に投影される。
本発明はさらに、前記方法を実施するためのシステム及びコンピュータプログラム製品に関する。
このような方法は、例えばGuoらの「Development and Application of Functional Databases for Planning Deep−Brain Neurosurgical Procedures」から知られている。Guoらのこの文献から、個々の患者の手術前のMRイメージをデジタル化解剖アトラスと融合させることが知られている。MRイメージのみからは、しばしば脳深部刺激術の目標とされる視床下核(STN)などの小さい異なる神経構造間を区別することは難しいか全く不可能である。解剖アトラス及び/又は確率的機能アトラスからの追加の情報を用いて、この手術前計画から手術目標物の位置特定するための正確さと精度を高めることが可能となる。Guoらの文献では、手術に先立って利用可能な追加の標準化電気生理学的情報に基づく確率機能アトラスが、前記手術目標物の決定を補助するため、及び前記3Dイメージデータに解剖学的ラベルを与えるために使用される。前融合されたイメージ及び前記標準化電気生理学的情報が一緒になって作用し、実際の又はシミュレートされた外科的軌跡に沿ってプローブ針の位置を表示することができる。前記プローブ針の位置は患者の3Dイメージ容積中及び2Dスライス中に表示される。
しかし、前記アトラスを手術前MRイメージにレジストレーションすることは、全てのレジストレーション方法に本質的に起因するレジストレーション誤差により精度に限界がある。区分けなどのイメージ処理はさらに前記解剖学的ラベル付けを改善するために利用され得る。しかしまた、この技術は本質的に正確性に限界がある。さらに、手術の際にインプラントされるプローブは意図せずに、計画された軌跡からずれることがあり得る(例えば、前記プローブの僅かな曲がりなどの不完全性により)。又は前記解剖体が、手術手順自体により(例えば、前記組織に前記プローブをインプラントすることで小さな力が生じこれが前記組織を押してずらす;脳脊髄液が手術中に失われ、前記組織中に圧力変化を起こし、その結果大きな変形が生じる、「脳シフト」と参照されるものなど)。小さい目標へのプローブの高精度のインプラントは、従って通常は術中測定(例えば、電気生理学的測定など)が、正確に前記目標物を特定するために必要とされ、かつ手術前計画での不正確性による誤差、または手術中の解剖体シフトや計画された軌跡からの(意図しない)プローブのずれを補正するために必要とされる。かかる手術中測定の正しい解釈は、正確な目標位置づけにとって非常に重要であるが、これは実行することは非常に難しい分析である。というのは、この分析を実行する際に専門家により処理されるべき情報が複雑でかつ膨大な量であるからである。
Guoらの文献に記載された方法の問題は、得られるデータが外科医にとって十分明瞭かつ曖昧性でない情報を提供しないということである。かかる情報とは、医者が、神経構造のタイプを予測し、かつ計画された外科経路又は実施された外科経路に沿って外科目標物を位置づけることを助けることができるものである。
本発明の課題は、外科医に、計画された手段経路及び行われた手段経路に沿って予測される神経構造のタイプを知るために、十分に明瞭な情報を表示するための方法を提供することである。
本発明の第1の側面によれば、この課題は外科的軌跡を視覚化する方法を提供することで達成され、前記方法は、進行中の外科手術の領域の3Dイメージ情報を受け取り、前記受け取った3Dイメージ情報を解剖学モデルレポジトリー、例えばデジタル化解剖アトラスからのデータと組み合わせて手術進行のための前記領域の組み合わせマップを得、前記組み合わせマップが手術を進行するための前記領域での解剖構造の予想位置を含み、前記手術のための外科的軌跡を受け取り、前記外科的軌跡と前記解剖構造との交点の位置を決定し、及び前記外科軌跡に沿って配列された座標システムに前記交点の位置を与える、ことを含む。
この方法の結果として、前記ユーザは、前記外科軌跡に沿ってどの位置でどの解剖構造が予期されるべきかについて明瞭な概観を受け取ることとなる。実際に、本発明の方法は3D解剖学的情報を前記外科軌跡上にマッピングする。本発明の方法により、前記ユーザは、計画された又は誘導された手術経路に沿ってどの位置でどのような構造が予期されるべきかを知る。従って、重要な構造に入り、前記手術目標を位置づけし又は例えば、特定の解剖構造で特定の薬物を放出することを容易にする。
本発明による方法は、(i)3D医学的イメージ情報を、(ii)前記3D医学的イメージ情報中の区分けされた解剖構造についての解剖モデルレポジトリー及び(iii)前記外科的介入の際に得られる外科的プローブからの解剖的又は組織タイプを示す位置測定とを組み合わせる。前記モデルレポジトリーは前記3Dイメージ情報と組み合わせて前記イメージの3D解剖的ラベル化を与える(例えば、デジタル解剖アトラスをMRIにレジストリする)。少なくとも1つの外科手術目標について少なくとも1つの計画された外科軌跡が、前記解剖的にラベル化されたイメージと組み合わされ、前記解剖的にラベル化された3Dイメージ情報を持つ前記軌跡の断面が前記外科軌跡上に解剖的ラベルとして投影される。
場合により、前記医学的イメージデータ及び関連する解剖的ラベル化は、手術中に、術中イメージング、例えばフラットパネル3DX線システム、介入MRI又は3D超音波などにより、更新され得る。少なくとも1つの外科プローブを用いる局所測定が計画された外科軌跡に沿ってなされることができ、これにより前記測定プローブ位置での手術中での解剖体タイプの同定の助けとなる。前記局所測定から得られるデータは、前記ラベル化された外科軌跡と共に視覚化され、それらの解釈の助けとなり、また手術中の前記手術目標の正確な位置を支持するための助けとなる。局所測定から得られるデータはさらに、前記ラベル化された外科軌跡と組み合わされてコンピュータ処理され(例えば、特徴クラスタ分析アルゴリズムを用いる)、特定の解剖体を示す特徴的構造を抽出して目標の位置を支持するためにユーザに提示され得る。
好ましい実施態様では、前記組み合わされたマップは手術を行う領域の統計的マップを含む。前記統計マップは前記領域での位置での前記解剖構造の存在確率を含む。かかる統計マップでは、ある解剖構造から他の解剖構造への移行はシャープではなく、徐々に移行する。従ってその交点は単一の点では示されず、ある構造が他の構造と隣接する。その代わりに前記交点では、第1の構造の確率が徐々に減少していき、少なくとも1つの構造の確率が徐々に増加する。例えば、前記外科軌跡に沿ったある位置で、第1の構造である確率が30%であり、他の構造である確率が70%である。ある位置では2以上の異なる解剖構造が有意な確率をもつことも可能である。留意すべきは、シャープな交点を用いる方法は、確率0%及び100%の場合のみである。
前記外科軌跡中のどの位置でどの構造が予期されるかの明瞭な指示のために、前記交点の位置が、前記交点及び前記外科軌跡との間の距離として与えられ得る。これにより、ユーザが、特定の解剖構造が前記目標領域にどの程度近いかを知ることができるようになる。前記外科軌跡は計画されたもの又は辿られたものであってよい。軌跡を計画する際には、本方法は、前記目標に安全で容易に到達する経路を見出すための助けとなる。外科道具を用いて軌跡を辿る際、本発明の方法は誘導が、どのタイプの解剖構造を現在作業しているのか、及び多分どのタイプの解剖構造が、目標構造へさらに進む経路で予期されるかを知ることができる。
本発明による方法の実用的実施態様では、前記外科道具は電気生理学的プローブであり、本方法はさらに前記プローブから電気生理学的シグナルを受け取るステップと、前記受け取った電気生理学的シグナルから特徴を抽出するステップと、前記抽出された特徴を前記座標システムでの位置へ関連付けるステップと、及び前記抽出された特徴を前記座標システムの前記関連付けられた位置と組み合わせて視覚化するステップとを含む。
1つの実施態様では、脊柱周りの領域のCT又はCT類似の3Dイメージデータが使用される。区分け及び解剖モデルを用いて、前記3Dイメージは解剖的にラベル化され、外科軌跡が計画される。光学的反射測定のための集積化ファイバを持つ外科プローブが、プローブのチップ(「ホトニックニードル(photonic needle)」)で局所解剖マップ化のために使用される。前記3Dイメージ情報及び関連する解剖ラベル化は、フラットパネル回転型X線システムを用いて、手術中3DX線により更新され得る。光学スペクトルは異なるプローブ位置で取得される。光学スペクトルは、前記3Dイメージ(解剖的ラベル化された)中での前記外科プローブのチップの辿った軌跡に基づいて前記外科プローブチップに関してある解剖ラベルの近さ及び方向を可視化するマップと共に可視化される。
本発明のこれらの及び他の側面は以下説明される実施態様を参照して明らかとなり、理解されるであろう。
図1は、MRI、アトラス及び外科軌跡からのデータを含むイメージを示す。 図2は、電気生理学的記録の出力の1例を示す。 図3は、本発明によるシステムのブロックダイヤグラムを示す。 図4は、解剖部分と外科軌跡の交点の位置計算を示す。 図5は、本発明のよるシステムにより提供される外科軌跡の可視化の1例を示す。 図6は、本発明のよるシステムにより提供される外科軌跡の可視化の1例を示す。 図7は、本発明のよるシステムにより提供される外科軌跡の可視化の1例を示す。 図8Aは、手術経路回りの解剖情報と組み合わされた神経EPパラメータ値のさらなる可視化を示す。 図8Bは、手術経路回りの解剖情報と組み合わされた神経EPパラメータ値のさらなる可視化を示す。 図9は、ノイズレベル対発火速度(firing rate)を示す。 図10は、本発明による方法のフローダイヤグラムを示す。
以下、本発明は、電気生理学的プローブを用いた神経外科に関連する例示的実施態様により説明される。本発明はしかし,神経EPシステムに限定されるものではない。他の外科介入であって、外科軌跡(計画された、又は辿られた)に沿った解剖学的情報についての知識が医療的及び/又は診断目的で有用であるものは、本発明において同様に有益である。本発明は、例えば光学的針ガイド介入のために適しているものである。
図1はMRI、アトラス及び外科軌跡101からのデータを含むイメージ100を示す。かかるイメージ100が手術前に外科軌跡を計画するために使用されることが知られている。このイメージで、アトラス情報は、MRIイメージで示される前記脳の前記領域での特定構造102,103、104を示すために使用される。イメージ100は人の脳の断面のMRIイメージである。外科軌跡101は、計画された手術の目標104に向かって脳組織を貫通する。この例では、手術目標104は視床下核(STN)104の特定の部分である。この例では、軌跡101は、前記手術の外科道具に他の構造102が接触せず損傷を受けないように選ばれる。このことは、主要な血管又は脳室を損傷させない上で非常に重要である。
図1のイメージ100は外科手術を計画する上で助けとなる。手術中においては電気生理学的(EP)記録が使用されることが知られている。図2はEP記録の出力200の例を示す。かかる神経EP記録は通常、いわゆるミクロ電極針を用いて実施される。これらは微小電極(約10μm直径)をそのチップで持ち、前記電極チップ近くの個々の脳細胞(ニューロン)からの電気シグナル(「スパイク」)を拾うために使用され得る。通常の手順では、神経生理学者は複数の位置で(100位置まで、それぞれは通常10〜20秒のデータを記録)の記録を研究する。通常はかかる記録は深さを増加して実施され、通常0.5mmステップごとである。このステップは医学用MRIシステムで両可能な分解能よりもずっと低いものである。種々の記録の統計的特徴の比較に基づいて(例えば、スパイクタイミングの特徴であり、バーストネス及び平均発火速度、ノイズ強度など)、神経生理学者は前記測定データを前記研究された位置の機能的特徴に変換する(即ち機能的解剖を前記記録された位置へ帰属させる)。図2から明らかなように、EP記録の分析は複雑であり、多くの専門知識を必要とする。特に時間的に追われる状況で実行する必要がある場合には特にそうである。従って本発明によれば、外科軌跡を可視化するためのシステムが提供される。
図3は、本発明のシステム10のブロックダイヤグラムが示される。システム10は、手術を進行させる領域の3Dイメージ情報31を受け取る入力11を含む。前記3Dイメージ31情報は、例えばMRI又はCTスキャナーから来る。入力11はまた、計画された又は辿られた外科軌跡を定める軌跡情報32を受け取るために提供される。場合により、例えばシステム10は、手術中にリアルタイムで軌跡を視覚化するために使用され、前記入力11はまたEPデータ33をEP記録システムから受け取るために提供される。プロセッサ13は入力データ31,32、33を処理するために提供される。前記データ処理はいくつかのステップを含み、そのいくつかのステップは必須であり、またいくつかのステップは選択的である。第1に、受け取られた3Dイメージ情報31はデジタル化された解剖アトラスからのデータと組み合わせて、手術を行うための前記領域に組み合わされたマップを得る。前記解剖アトラスデータは、システム10の一部である記憶装置12に記憶されたデータベースから来る。又は、システム10はかかるデータベースと閉鎖ネットワーク又は広域領域ネットワーク、例えばインターネットを介してそこからアトラスデータを受け取るために接続される。この実施態様では、いわゆる解剖アトラスが前記関連する領域の解剖データを得るために使用される。しかし、この解剖データはまた、他の方法、例えば適切なイメージ治療法により提供され得る。1例はCTイメージの強度値区分けであり、これは異なるタイプの組織(骨、血液など)と接続されて解剖データを得る。一般に、前記解剖データは適切な方法で記憶された解剖モデルから得られ得る。
結合されたマップは、手術を行う領域での解剖構造の予測位置を含む。前記組み合わされたマップは、イメージ認識技術を用いて前記3Dイメージ情報間の移行を見出し、前記3Dイメージを前記解剖アトラスからの情報と比較することで生成される。前記組み合わされたマップは、例えば重要な解剖構造の予想位置を記述するデータポイントのリスト又はイメージである得る。前記マップは図1に示すイメージ100のように見え得る。前記組み合わされたマップが利用可能となると、前記プロセッサ13が前記受け取った外科軌跡データ32を用いて、前記解剖構造を持つ前記外科軌跡の交点の位置を決定する。これらの交点の位置が知られると、前記外科軌跡上の解剖構造がないかも知られることとなる。これにより、軌跡を計画しまた主要血管などの重要な構造を傷つけることなく従うことが可能となる。
これらの交点の位置は前記軌跡に配列させた座標に与えられる。かかる座標システムは、前記軌跡に沿って予測されるべき解剖構造の直感的概観を与える助けとなる。例えば、前記交点の位置は、前記軌跡の出発又は目標点からの距離として与えられ得る。この距離は好ましくは、軌跡に沿って測定されたものである。前記交点の位置が知られると、前記情報は視覚化される。例えば表示装置15上に前記軌跡上に前記軌跡を表示するか、又はグラフィカルに表現される。例えばテキストラベル、色でコード又はハイライトすることで前記外科軌跡に対して重要な構造の位置が表示される。
図4は解剖部41の交点43、44の位置の計算及び軌跡42が示される。神経外科においては1以上の針が外科手術において使用される。通常5つの記録針が使用される。これらは、「中央」、「横」、「内側」、「前」、「後」針と呼ばれる。それぞれの針は自身の軌跡42、46、47及び解剖構造41とのそれ自身の交点43、44を持つ。さらに、それぞれの外科軌跡は通常わずかに目標とは異なる点45で終了する。交点43、44の位置は従って、それぞれの針で別々に計算され、それぞれの針の位置43、44が前記それぞれの手術経路42、46、47に配列された座標システムに与えられる。
図5、6及び7は、本発明によるシステム10により与えられる外科軌跡の例示的視覚化を示す。図5では5つの針につき計画された手術経路に沿って位置される解剖構造が視覚化されている。手術手順は目標として視床下核(STN)を持つ。前記目標点から0mmの距離で、5つ全ての針は前記視床下核にある。中央51、横52及び内側53針について、視床下核の前に、不確帯(ZI)及び視床(Th)を通過することが決められる。後針54及び前針55はまた、視床(Th)を通過することが予測されている。前記針が患者の脳に目標点を超えて挿入されると黒質緻密部(SNc)に入ることとなる。図5から分かるように、全ての針が、前記目標から同じ距離で同じ構造に到達するものではない。本発明による前記システム及び方法は、それぞれの針が、何時どの解剖構造に到達するかを予測することを可能とする。
図5の影付きグラフは計画された手術経路上の予測される解剖構造を表す。手術実行の際に、この画像は外科医に、なにが予測されるか、及び現在前記針がどこに位置するのか示すために使用される。現在の深さで線56が引かれ、針の現在の位置を示す。図5では全ての針が視床(Th)にある。この実施態様では、全ての針は共に動き、それぞれの目標に関して同じ距離を持つ。又は、前記針は別々に操作されそれぞれの針はそれ自身に対応する現深さレベルをもち得る。
図6で、ひとつの針61のみが視覚化されている。この実施態様では、前記外科軌跡と解剖構造との交点はひとつの構造から他の構造へはっきりした変化を示していない。手術の対象とされる領域の3Dにイメージを前記解剖アトラスからのデータと組み合わせる手順は、ある誤差の範囲で予期される位置に異なる構造がくる結果となる。特にひとつの組織タイプから他への移行に近い位置では、解剖構造のタイプについて完全に確実であるということはないかもしれない。従って、この実施態様は手術を行うための領域の統計的マップを使うものである。前記統計的マップは、ある特定の位置である解剖構造の存在する確率を含む。針61の手術経路を可視化するためのかかる統計マップを用いる場合、その結果は図6のバーグラフのようになり得る。例えば「現在の深さ」で針はある確率で視床(Th)にある。前記針がわずかにさらに前記経路を辿ると、針はすでに不確帯(ZI)にいるのかまだ視床(Th)にあるのかがわからなくなる点に到達する。
図7は5つの外科軌跡62、63、64、65、66での解剖構造と、これらの同じ位置での手術中得られた神経EPデータから抽出されたパラメータ値82、83、84、85、86との視覚化が示される。解剖データ及びEPデータが簡単な概観で利用可能であり、これは決定プロセスを助けるものである。神経EPデータは1以上のプローブ、例えば深部脳刺激(DBS)治療で機能的目標を位置づけるために使用されるプローブから誘導され得るものである。前記生データからあるシグナル特徴を抽出するための自動化神経EP分析方法が知られている。これらの抽出された特徴を前記経路(計画された、又は辿られた)に沿って解剖部を視覚化するために使用される座標システムに位置付けして関連付けすることで、前記抽出された値の関連性がより容易に評価され得る。神経EPデータから抽出される際にしばしば起る偽陰性及び/又は偽陽性は、前記抽出された特徴をこれらの抽出された特徴に基づき予想される解剖帯位置と共に表示することで容易に認識されることとなる。神経EPデータ33から抽出する代わりに、神経EPデータ自体を、それらが記録された位置に応じた位置で視覚化されることも可能である。
1つの実施態様で、脊椎回りの領域のCT又はCT類似の3Dイメージデータが使用される。区分け及び解剖モデルを用いて前記3Dイメージは解剖学的にラベル化され、外科軌跡が計画される。光学的反射測定のための集積ファイバを持つ外科プローブがプローブチップ(「ホトニック針」)で局所解剖マッピングのために使用される。前記3Dイメージ情報及び関連する解剖ラベル化は、フラットパネル回転X線システムを用いた手術中3DX線により更新される。光学スペクトルは異なるプローブ位置で取得される。光学スペクトルは、前記3D(解剖学的ラベル化)イメージでの前記外科プローブチップの辿った軌跡に基づき前記外科プローブチップに関してある解剖学的ラベル化の近さ及び方向に付き視覚化するマップと共に視覚化される。
図8A及び8Bはさらに、手術経路について解剖的情報と組み合わされた神経EPパラメータの視覚化を示す。図8Aはノイズレベル(y軸)対外科軌跡に沿った深さ(x軸)を示す。この軌跡での目標は視床下核(STN)であり、0mm深さで定義されている。図から分かるように、目標領域に近いノイズレベルは高い。STN(三角形91で示す)に入ると急激に増加することが見出される。STN内ではノイズは一定に高い(円形92で示される)。STNの外ではノイズレベルは急に減少する。しかしノイズレベルはSTNに入る前に観察されたベースライン94の上で維持され、黒質(SN、四角93で示される)に入るとさらに増加する。図8Aから、ノイズレベルのみではSTN及びSNを区別することは十分ではないことが分かる。高いノイズレベルはこれらの両方の解剖構造で観察される。解剖的知識と3Dイメージを本発明による方法で神経EPパラメータシグナルと組み合わせると、解剖構造の違いがより簡単にかつ信頼性高く区別できるようになる。
図8Bは発火速度(y軸)対外科軌跡に沿った深さ(x軸)を示す。STNへ入ると非常に高い発火速度を示す(三角形91で示す)。STN(円形92で示す)内では発火速度は減少し、SN(三角形93で示す)に入ると再び増加する。従って、発火速度自身はまたSTN(及びSNを区別するには十分ではない。同様に、発火速度などの測定は、神経単位の近さを測定することに敏感であることから高い変動性を示す。外科軌跡に沿ったある深さ及びSTN内で、発火速度はベースライン94よりも低くなる。これらの位置は円形92aで表されている。発火速度自体から判断すると外科医は間違った決定をする。解剖学的知識と3Dイメージを本発明により方法で神経EPシグナルと組み合わせる場合に、異なる解剖構造をより容易にかつ高信頼性を持って区別できる。
図9で、ノイズレベル(y軸)が、発火速度(x軸)に対してプロットされている。深さ情報がない条件で、ノイズレベルと発火速度の組み合わせは明確にSTN及びSNを他の領域から区別する。STN内に全ての測定(三角形91及び円形92)及びSN内の全ての測定(四角系93)はベースライン94の十分上にある。全ての他の測定はベースラインよりも下である。しかし、これらの測定はSTN(円形92)とSN(三角形91)の間を区別するには十分ではない。本発明による方法及びシステムにより、前記深さ情報がSTNをSNから区別するために使用され、前記ダイヤグラムにそのように示される。例えば異なる深さでのデータポイントに異なる形状や色を付すことによる。
図10は本発明による方法の1つのフローダイヤグラムを示す。前記方法はイメージ受け入れステップ71から始まる。これは手術を行う領域の3Dイメージ情報を取得するためである。前記3Dイメージ情報は、例えばMRI又はCTスキャナーから得られる。結合ステップ72では、前記受け取られた3Dイメージ情報がデジタル化された解剖アトラスからのデータと組分され、手術される前記領域の組み合わせマップを得る。前記組み合わされたマップは、手術が行われる領域の解剖構造の予想される位置を含む。軌跡入力ステップ73で,前記手術のための少なくとも1つの外科軌跡が受け取られる。前記軌跡は前記手術が行われる領域を通るように計画される経路として受け取られてもよい。前記受け取られた軌跡情報はまた、外科道具の現在位置を含むことができる。外科道具の実際の位置の連続は、辿られた軌跡を形成する。軌跡入力ステップ73で受け取られた外科軌跡は、計画されたものか、既に辿られたものかのいずれかである。又は、前記受け取られた軌跡は、計画されたものと実際に辿られたものの組み合わせでよい。内挿又は外挿が外科軌跡の形成又は調節に使用され得る。
交点計算ステップ74では、解剖構造の表面と少なくとも1つの外科軌跡との交点位置が計算される。これらの位置は出力ステップ75として与えられる。前記位置情報をより容易に理解するために、前記交点位置が、前記外科軌跡に配列する座標システムに与えられる。それにより、前記外科軌跡に沿って異なる位置でどの解剖構造が予期されるかが容易に理解できるようになる。前記与えられた位置はその後、例えば図5、6及び7に示されるように、前記外科軌跡を視覚化するために利用可能となる。
理解されるべきことは、本発明はまた、コンピュータプログラムへ拡張可能だということである。特に本発明を実行するための適合されたキャリア上又はキャリア中でのコンピュータプログラムである。前記プログラムは、ソースコード、オブジェクトコード、コード中間ソース及び部分的コンパイル済みオブジェクトコードの形であり得る。又は本発明による方法を実行するために使用するために適切な全ての他の形を含む。また理解されるべきことは、かかるプログラムは多くの異なるアーキテクチャを持つことができる、ということである。例えば、本発明の方法又はシステムの機能を実行するプログラムコードは、1以上のサブルーチンに分けることができる。これらのサブルーチン間で前記機能を分配するための多くの異なる方法については当業者にとって明らかである。前記サブルーチンは1つの実行可能なファイルに一緒に記憶され自己包含プログラムであってよい。かかる実行可能なファイルは、コンピュータ実行可能な命令を含み、例えばプロセッサ命令及び/又はインタプリター命令である(例えば、Java(登録商標)インタープリター命令)。又は前記サブルーチンの1以上又は全てが少なくとも1つの外部ライブラリファイルに記憶され、静的又は動的例えばランタイムにメインプログラムとリンクされていてよい。メインプログラムは前記サブルーチンの少なくとも1つを呼び出すことを含む。また、前記サブルーチンはお互いに呼び出す機能を含む。コンピュータプログラム製品に関する1つの実施態様は、本方法の少なくとも1つのステップを処理するそれぞれに対応するコンピュータ実行可能命令を含む。これらの命令はサブルーチンに分けられるか及び/又は1以上のファイルに記憶されてよく、前記ファイルは静的又は動的にリンクされてよい。コンピュータプログラム製品の他の実施態様は、少なくとも1つの本システムの方法及び/又は製品に対応するコンピュータ実行可能な命令を含む。これらの命令はサブルーチンに分けられ及び/又は1以上のファイルに記憶されてよく、これらのファイルは静的又は動的にリンクされていてよい。
コンピュータプログラムのキャリアはプログラムを担持できるものであれば全てのものが含まれる。前記キャリアは、例えばCDROMや半導体ROMなどのROM、フロッピディスクやハードディスクなどの磁気記憶媒体などの記憶媒体を含む。さらに前記キャリアは、伝達可能なキャリア例えば電気又は光学シグナルであってよい。これらは電気的又は光学的ケーブル又はラジオ又は他の手段を介して伝達され得る。前記プログラムがかかるシグナルに埋め込まれる場合、前記キャリアはかかるケーブル又は他の装置や方法に組み込まれ得る。又は、前記キャリアは前記プログラムが埋め込まれた集積回路であってよく、前記集積回路は関連する方法を実行するか、又は実行するために使用されるように構成されたものである。
留意すべきは、前記実施態様は本発明を限定するものではなく説明するものであるということである。また当業者であれば、添付の特許請求の範囲から離れることなく多くの他の実施態様を設計することができる、ということである。特許請求の範囲において括弧内の符号は発明を制限するものではない。「含む」には特許請求の範囲の記載されたエレメント又はステップ以外のエレメント又はステップを除外するものではない。「ひとつの」がかかるエレメントは複数をエレメントを除外するものではない。本発明はいくつかのエレメントを含むハードウェア手段により実施され、又適切にプログラムされたコンピュータ手段により実行可能である。いくつかの手段を含む装置発明において、これらの手段はハードウェアの1つ及びお同じ事項により埋めこまれてよい。ある手段が相互に異なる従属請求項に記載されているという事実は、これらの手段の組み合わせが有利に使用されないということではない。

Claims (15)

  1. 外科軌跡を視覚化する方法であり、前記方法が:
    手術を行う領域の3Dイメージ情報を受け取り;
    前記受け取った3Dイメージ情報を解剖モデルレポジトリーからのデータと組み合わせて手術を行う前記領域の組み合わせマップを得て、前記組み合わせマップが手術を行う前記領域での解剖構造の予想される位置を含み;
    前記手術のために前記外科軌跡を受け取り;
    前記外科軌跡と前記解剖構造との交点の位置を決定し;及び
    前記外科軌跡に配列された座標システムに前記交点の位置を与えるステップを含む、外科軌跡を視覚化する方法。
  2. 請求項1に記載の外科軌跡を視覚化する方法であり、前記組み合わせマップが、手術を行う領域の統計マップを含み、前記統計マップが前記領域での前記解剖構造の確率を含む、外科軌跡を視覚化する方法。
  3. 請求項1に記載の外科軌跡を視覚化する方法であり、さらに、前記外科軌跡に配列された前記座標システムでの前記交点の前記位置を表示するステップを含む、外科軌跡を視覚化する方法。
  4. 請求項1に記載の外科軌跡を視覚化する方法であり、前記交点の前記位置が、前記交点と前記外科軌跡の目標間の距離で与えられる、外科軌跡を視覚化する方法。
  5. 請求項1に記載の外科軌跡を視覚化する方法であり、前記外科軌跡が計画された軌跡である、外科軌跡を視覚化する方法。
  6. 請求項1に記載の外科軌跡を視覚化する方法であり、外科道具の現在位置が前記外科軌跡に配列された前記座標上にマッピングされる、外科軌跡を視覚化する方法。
  7. 請求項6に記載の外科軌跡を視覚化する方法であり、前記外科道具が電気生理学的プローブであり、前記方法がさらに:前記プローブから電気生理学的シグナルを受け取り、前記電気生理学的シグナルを前記座標システム中に前記関連した位置に視覚化するステップを含む、外科軌跡を視覚化する方法。
  8. 請求項6に記載の外科軌跡を視覚化する方法であり、前記外科道具が反射測定のための集積光学ファイバを持つ針プローブであり、前記方法がさらに:前記プローブから前記反射測定からの光学スペクトルを取得し、及び前記光学スペクトルを前記座標システムでの前記関連する位置で表示するステップを含む、外科軌跡を視覚化する方法。
  9. 請求項6に記載の外科軌跡を視覚化する方法であり、前記外科道具が電気生理学的プローブであり、前記方法がさらに:前記プローブから電気生理学的シグナルを受け取り、前記受け取った電気生理学的シグナルから特徴を抽出し、前記抽出された特徴を前記座標システムに関連付け、及び前記抽出された特徴を前記座標システムに関連付けされた位置と組み合わせて視覚化するステップを含む、外科軌跡を視覚化する方法。
  10. 請求項9に記載の外科軌跡を視覚化する方法であり、前記電気生理学的プローブが神経電気生理学的プローブである、外科軌跡を視覚化する方法。
  11. 請求項6に記載の外科軌跡を視覚化する方法であり、前記外科軌跡が、前記外科道具により前記現在位置へ辿られた経路の少なくとも1部を含む、外科軌跡を視覚化する方法。
  12. 請求項6に記載の外科軌跡を視覚化する方法であり、前記外科軌跡が、前記外科道具が前記現在位置から辿られるべき予想経路の少なくとも1部を含む、外科軌跡を視覚化する方法。
  13. 請求項1に記載の外科軌跡を視覚化する方法であり、前記3Dイメージ情報が、MRI又はCTスキャンイメージを含む、外科軌跡を視覚化する方法。
  14. コンピュータプログラム製品であり、前記プログラムが請求項1に記載の方法を実行するようにプロセッサを操作する、コンピュータプログラム製品。
  15. 外科軌跡を視覚化するためのシステムであり、前記システムが:
    手術を行う領域の3Dイメージ情報と前記手術のための前記外科軌跡を受け取る入力;
    前記受け取った3Dイメージ情報、前記外科軌跡及び解剖モデルレポジトリーを記憶するためのメモリ;
    プロセッサであって、
    前記3Dイメージ情報を前記解剖レポジトリーからのデータと組み合わせて手術を行う前記領域の組み合わせマップを得て、前記組み合わせマップが手術を行う前記領域での解剖構造の予想される位置を含み、及び
    前記少なくとも1つの外科軌跡と前記解剖構造との交点の位置を決定する、
    プロセッサ;及び
    前記外科軌跡に配列される座標システムに前記交点の位置を与える出力、とを含むシステム。
JP2012516924A 2009-06-29 2010-06-21 外科的軌跡の視覚化 Active JP5650732B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP09163970.8 2009-06-29
EP09163970 2009-06-29
PCT/IB2010/052785 WO2011001322A1 (en) 2009-06-29 2010-06-21 Visualizing surgical trajectories

Publications (3)

Publication Number Publication Date
JP2012531936A true JP2012531936A (ja) 2012-12-13
JP2012531936A5 JP2012531936A5 (ja) 2014-07-24
JP5650732B2 JP5650732B2 (ja) 2015-01-07

Family

ID=42727607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012516924A Active JP5650732B2 (ja) 2009-06-29 2010-06-21 外科的軌跡の視覚化

Country Status (7)

Country Link
US (1) US8831307B2 (ja)
EP (1) EP2448513B1 (ja)
JP (1) JP5650732B2 (ja)
CN (1) CN102470013B (ja)
BR (1) BRPI1010151B8 (ja)
RU (1) RU2559917C2 (ja)
WO (1) WO2011001322A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017521112A (ja) * 2014-05-23 2017-08-03 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 第二オブジェクト内で第一オブジェクトをイメージングするためのイメージング装置
US10932862B2 (en) 2015-05-10 2021-03-02 Alpha Omega Neuro Technologies Ltd. Automatic brain probe guidance system
US11051889B2 (en) 2015-05-10 2021-07-06 Alpha Omega Engineering Ltd. Brain navigation methods and device
US11234632B2 (en) 2015-05-10 2022-02-01 Alpha Omega Engineering Ltd. Brain navigation lead
US11980427B2 (en) 2021-05-26 2024-05-14 Alpha Omega Engineering Ltd. Brain navigation methods and device

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9861336B2 (en) 2012-09-07 2018-01-09 Gynesonics, Inc. Methods and systems for controlled deployment of needle structures in tissue
US9592095B2 (en) 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
WO2014194167A1 (en) * 2013-05-31 2014-12-04 University Of Washington Through Its Center For Commercialization Surgery pathway guidance and boundary system
CN106456250B (zh) * 2013-08-13 2019-10-08 波士顿科学国际有限公司 解剖项的计算机可视化
EP3033033B1 (en) * 2013-08-15 2019-10-23 Intuitive Surgical Operations, Inc. Systems and methods for medical procedure confirmation
WO2015149170A1 (en) * 2014-03-31 2015-10-08 Functional Neuromodulation, Inc. Systems and methods for determining a trajectory for a brain stimulation lead
US9999772B2 (en) 2014-04-03 2018-06-19 Pacesetter, Inc. Systems and method for deep brain stimulation therapy
WO2016046289A1 (en) * 2014-09-24 2016-03-31 Koninklijke Philips N.V. Surgical guide-wire placement planning
US10991069B2 (en) * 2014-10-08 2021-04-27 Samsung Electronics Co., Ltd. Method and apparatus for registration of medical images
US9905044B1 (en) * 2016-08-25 2018-02-27 General Electric Company Systems and methods for functional imaging
US11298041B2 (en) * 2016-08-30 2022-04-12 The Regents Of The University Of California Methods for biomedical targeting and delivery and devices and systems for practicing the same
CN106529188B (zh) * 2016-11-25 2019-04-19 苏州国科康成医疗科技有限公司 应用于手术导航的图像处理方法
US11842030B2 (en) 2017-01-31 2023-12-12 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
RU187072U1 (ru) * 2018-04-04 2019-02-18 Общество с ограниченной ответственностью "Кронк" (ООО "Кронк") Сапфировый нейрохирургический зонд для удаления опухолей головного и спинного мозга под контролем комбинированной спектроскопической диагностики
US11701181B2 (en) * 2019-04-24 2023-07-18 Warsaw Orthopedic, Inc. Systems, instruments and methods for surgical navigation with verification feedback
US11730443B2 (en) * 2019-06-13 2023-08-22 Fujifilm Sonosite, Inc. On-screen markers for out-of-plane needle guidance
US11309072B2 (en) 2020-04-21 2022-04-19 GE Precision Healthcare LLC Systems and methods for functional imaging
CN114366309A (zh) * 2022-01-17 2022-04-19 上海锦立城医疗科技有限公司 一种具有神经监测功能的手术机器人

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5026A (en) * 1847-03-20 Cut-off valve
US8007A (en) * 1851-04-01 crosby
US8009A (en) * 1851-04-01 Improvement in mills for grinding paints and drugs

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638819A (en) * 1995-08-29 1997-06-17 Manwaring; Kim H. Method and apparatus for guiding an instrument to a target
US20010034530A1 (en) 2000-01-27 2001-10-25 Malackowski Donald W. Surgery system
CA2334495A1 (en) * 2001-02-06 2002-08-06 Surgical Navigation Specialists, Inc. Computer-aided positioning method and system
RU2290055C2 (ru) * 2004-04-06 2006-12-27 Государственное образовательное учреждение высшего профессионального образования Новосибирская государственная медицинская академия Министерства здравоохранения Российской Федерации Нейронавигационная эндоскопическая система
DE102005037000B4 (de) * 2005-08-05 2011-06-01 Siemens Ag Vorrichtung zur automatisierten Planung eines Zugangspfades für einen perkutanen, minimalinvasiven Eingriff
US8150497B2 (en) 2006-09-08 2012-04-03 Medtronic, Inc. System for navigating a planned procedure within a body
US20080071292A1 (en) * 2006-09-20 2008-03-20 Rich Collin A System and method for displaying the trajectory of an instrument and the position of a body within a volume
US20080183188A1 (en) * 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Surgical Navigational and Neuromonitoring System
JP5551957B2 (ja) * 2010-03-31 2014-07-16 富士フイルム株式会社 投影画像生成装置およびその作動方法、並びに投影画像生成プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5026A (en) * 1847-03-20 Cut-off valve
US8007A (en) * 1851-04-01 crosby
US8009A (en) * 1851-04-01 Improvement in mills for grinding paints and drugs

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017521112A (ja) * 2014-05-23 2017-08-03 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 第二オブジェクト内で第一オブジェクトをイメージングするためのイメージング装置
US10932862B2 (en) 2015-05-10 2021-03-02 Alpha Omega Neuro Technologies Ltd. Automatic brain probe guidance system
US11051889B2 (en) 2015-05-10 2021-07-06 Alpha Omega Engineering Ltd. Brain navigation methods and device
US11234632B2 (en) 2015-05-10 2022-02-01 Alpha Omega Engineering Ltd. Brain navigation lead
US11980427B2 (en) 2021-05-26 2024-05-14 Alpha Omega Engineering Ltd. Brain navigation methods and device

Also Published As

Publication number Publication date
JP5650732B2 (ja) 2015-01-07
US20120099770A1 (en) 2012-04-26
RU2012102923A (ru) 2013-08-10
BRPI1010151B8 (pt) 2021-06-22
RU2559917C2 (ru) 2015-08-20
EP2448513A1 (en) 2012-05-09
CN102470013B (zh) 2016-01-20
CN102470013A (zh) 2012-05-23
BRPI1010151A2 (pt) 2016-03-29
WO2011001322A1 (en) 2011-01-06
EP2448513B1 (en) 2017-08-09
BRPI1010151B1 (pt) 2020-11-10
US8831307B2 (en) 2014-09-09

Similar Documents

Publication Publication Date Title
JP5650732B2 (ja) 外科的軌跡の視覚化
US10255723B2 (en) Planning, navigation and simulation systems and methods for minimally invasive therapy
CN1907233B (zh) 自动规划经由皮肤的最小侵入手术进入路径的装置和方法
US10074176B2 (en) Method, system and apparatus for displaying surgical engagement paths
RU2596882C2 (ru) Планирование траектории для уменьшения повреждения тканей в процессе минимально инвазивной хирургии
JP2019213904A (ja) 医用イメージングインフォマティクスのためのシステム及び方法
JP2012531936A5 (ja)
CN107871531B (zh) 裂隙评估和外科手术介入性规划
CN107865692B (zh) 外科手术和介入计划中用于检测胸膜受侵的系统和方法
US11191595B2 (en) Method for recovering patient registration
WO2017190210A1 (en) Methods for improving patient registration
US20200069374A1 (en) Surgical support device and surgical navigation system
US20210196387A1 (en) System and method for interventional procedure using medical images
EP3861937B1 (en) Electromagnetic navigation bronchoscopy using ultrasound
KR20230013042A (ko) 영상 분석을 통해 병변의 재발을 예측하는 방법
WO2023114470A1 (en) Augmented and mixed reality incorporating pathology results in surgical settings
Gibson et al. 3D visualization methods to guide surgery for Parkinson’s disease
Trope Planning safe trajectories in image-guided keyhole neurosurgery
ITUA20163697A1 (it) Metodo per il supporto alla pianificazione di traiettorie stereotassiche lineari per l’impianto di dispositivi intracerebrali quali elettrodi multicontatto registranti e/o stimolanti, sonde bioptiche, applicatori di luce laser

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20140602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141113

R150 Certificate of patent or registration of utility model

Ref document number: 5650732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250