JP2015527144A - ロボット装置およびシステムソフトウェア、ハードウェア、および画像誘導手術およびロボット支援手術に使用するための方法 - Google Patents

ロボット装置およびシステムソフトウェア、ハードウェア、および画像誘導手術およびロボット支援手術に使用するための方法 Download PDF

Info

Publication number
JP2015527144A
JP2015527144A JP2015529961A JP2015529961A JP2015527144A JP 2015527144 A JP2015527144 A JP 2015527144A JP 2015529961 A JP2015529961 A JP 2015529961A JP 2015529961 A JP2015529961 A JP 2015529961A JP 2015527144 A JP2015527144 A JP 2015527144A
Authority
JP
Japan
Prior art keywords
robot
computer
tissue
imaging
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015529961A
Other languages
English (en)
Other versions
JP2015527144A5 (ja
Inventor
ツェコス,ニコラオス
ナブカー,ニキル,ブイ.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Houston
Original Assignee
University of Houston
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Houston filed Critical University of Houston
Publication of JP2015527144A publication Critical patent/JP2015527144A/ja
Publication of JP2015527144A5 publication Critical patent/JP2015527144A5/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00238Type of minimally invasive operation
    • A61B2017/00243Type of minimally invasive operation cardiac
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/306Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3614Image-producing devices, e.g. surgical cameras using optical fibre
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3954Markers, e.g. radio-opaque or breast lesions markers magnetic, e.g. NMR or MRI
    • A61B2090/3958Markers, e.g. radio-opaque or breast lesions markers magnetic, e.g. NMR or MRI emitting a signal

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本明細書には、外科的処置の間の、ロボットのインサイツでのリアルタイムの画像化ガイダンスのための、システム、モジュール、およびそれらを使用する方法が提供される。該システムは、複数のインターフェースを介して、画像化モダリティ、特に磁気共鳴画像化モダリティ、医療用ロボットおよびそのオペレーターを手術中にリンクする複数のモジュールを含む。モジュールは、メモリー、プロセッサーおよびネットワーク接続を有する、少なくとも1つのコンピューター中で、命令が、一般に画像化モダリティを制御する、ロボットをトラッキングする、処置の領域で対象の組織をトラッキングする、画像化モダリティおよびロボットから取得したデータを処理する、および領域およびロボットをビジュアル化することを可能にするように作動する。また、モジュール、および記憶媒体で明確に具体化されたコンピュータープログラム製品を含む、コンピューター実行可能命令を保存する、非一時的なコンピューター読み取り可能なデータ記憶媒体が提供される。【選択図】なし

Description

関連出願への相互参照
本出願は、現在放棄されている、米国仮特許出願第61/693,634号の35 U.S.C.§119(e)の下で優先権の利益を主張し、その全体は、引用によって本明細書に組み込まれる。
政府資金の説明
本発明は、全米科学財団によって与えられた、認可番号0932272の下での政府支援によってなされた。米国政府は本発明において一定の権利を有する。
本発明は、ロボット工学、ロボット支援手術の処置およびその実施のためのソフトウェアの分野に関する。具体的には、本発明は、インサイツでの、リアルタイム画像誘導の診断、手術および最小限に侵襲的な医学的介入のための、MRI適合性の医療ロボットのプラットホームを含むロボットのマニピュレーターおよびアクチュエーター、および適用可能なソフトウェアおよびハードウェアを含む、ロボットシステムを提供する。
関連技術の詳細
シングルポートアクセス(SPA)の手術および経皮的介入を含む最小限に侵襲的な処置におけるロボット支援は、従来の切開手術またはフリーハンド介入(free−hand interventions)に対する、より患者に優しい、実施向上の(practice−enhancing)、最終的に、コスト効率の良い代替策として台頭してきている。新しい技術は、安全性および機能性のレベルの増加を達成し、新しい世代の医師は、旧世代の医師よりもコンピューターで使用可能なツールにより一層慣れている。そのようなパラダイムシフトには、ロボットおよび触覚装置などの、マルチモーダルセンシングの、例えば、組織および分子レベルの画像化(imaging)の、制御システムを、例えば、外科的、放射線学的、心臓病的な、介入操作者(interventionalist)と統合するための、強固な、スケーラブルな、および効果的な方法論を必要とする。パイオニア集団による、革新的な計算法、ロボットマニピュレーター、および触覚インターフェースを発達させる主要な試みが、この大飛躍への道を切り開いてきた。画像誘導およびロボット支援(IGRA)の処置の今後を調査すると、幾つかの因子が、効果的なオペレーターインターフェーシングによって、組織の病理および機能を局所的に評価することができるリアルタイム画像ガイダンスのシームレス統合を含む、次世代のシステムに寄与し得る。
リアルタイム画像ガイダンス(RTIG)は、1)処置に付随する、リアルタイムの組織の変形および動作、または自然な動作、例えば、呼吸または心拍動の評価;2)3Dでのツールのモニタリング;および3)標的組織の病態生理学的情報のアップデート、を含む処置の領域(Area of Procedure)(AoP)の評価に特有の特徴を提供する。そのような特徴を与えられると、RTIGは、「キーホール」ビジュアル化、即ち、内視鏡検査または腹腔鏡検査、および手術前の画像化ガイダンスの現在の手法から、よりグローバルで、情報が豊富な、AoPの認識への、パラダイムシフトおよび方法論的な飛躍を促進し得、これによって、広い範囲およびレベルの複雑な手術が可能となる。この関連で、広範囲な草分け的な研究が、フリーハンドまたはロボット支援の処置のために、超音波(US)、および磁気共鳴画像法(MRI)を含む、異なる画像化モダリティによって行われてきた。
IGRA処置は、困難で、高度に複雑であり、広範囲の臨床的なパラダイムおよび実現技術が、多くのグループによって現在求められている。幾つかのIGRA装置が開発され、または開発中である。MRI誘導の手術に革命を起こし得る、MR適合性のNeuroArmは、複雑で、高コストの技術であるが、リアルタイムMRガイダンスに適していない。国立衛生研究所に研究された別のシステムは、Innomotion(登録商標)ロボットに基づいており、これはもう商業上提供されていない。
したがって、改善された画像誘導およびロボット支援の処置、特に、ロボット制御のためのリアルタイムのマルチモダリティの画像化およびロボットのループ中の人間(man−in−the−loop)の自律制御または手動制御のためのHIMIが、当該技術分野で必要とされていることが認識されている。より具体的には、先行技術は、ロボット装置を操作且つ誘導するソフトウェアおよび実施システム、画像化スキャナーの空間制約内での操作のために設計されているシステム、磁気共鳴環境の非常に高い磁場で実行することができる及び組織のリアルタイムのトラッキングを可能にするロボット装置(robotic)を始動させるための手段を欠いている。本発明はこの長年のニーズと先行技術分野での要望を満たすものである。
本発明は、外科的処置の間のロボットのインサイツでのリアルタイムの画像化ガイダンスのためのコンピューターシステムに関する。
コンピューターシステムは、メモリー、プロセッサーおよび少なくとも1つのネットワーク接続を有する少なくとも1つのコンピューター中に、画像化モダリティ、医療用ロボットおよびそのオペレーターをリンクする複数のインターフェースを介して、画像化モダリティ、医療用ロボットおよびそのオペレーターに手術中にリンクするように構成された複数のモジュールを含む。本発明は、1)外科的処置の間に画像化モダリティを制御する;2)重ね合わされた(co−registered)ロボットツールまたは介入ツールをトラッキングする;3)対象の組織をトラッキングする;4)画像化モダリティから及びロボットから取得したデータを処理する;5)患者の身体外および身体内でロボットの安全且つ正確な動作のための動的な経路またはコリドー(corridor)を生成する;6)ロボット、および取得データから生成された処置の領域をビジュアル化する;および7)ヒューマン−マシンインターフェースを可能にするために力フィードバック装置または触覚装置を利用する、ように構成されたモジュールを含む、関連するコンピューターシステムに関する。本発明は、複数のマルチモーダルセンサーをロボットおよび画像化モダリティと重ね合わせられるように構成されたモジュールをさらに含む、別の関連するコンピューターシステムに関する。
本発明はまた、外科的処置の間の、ロボットのインサイツでのリアルタイムの画像化ガイダンスのためのコンピューターで実施される方法に関する。該方法は、本明細書に記載されるコンピューターシステムにおいて手術中に、組織および医療用ロボットの現状ステータスを得るためにデータを処理する工程を含む。該方法はまた、処置の領域またはロボットのアクセス経路に近位の領域またはその両方を含む少なくとも1つの組織境界を生成する工程を含み、処置の領域にわたる組織境界の動作は、動的にモニタリングされる。ロボットまたはそれを含む介入ツールの位置は、ロボットの近位に配された及び画像化モダリティに連結された複数のマーカーの個々の可視性に基づき、処置の領域に準拠してトラッキングされる。本発明は、処置の領域およびロボットがモニタリングされる且つトラッキングされると、システムのオペレーターのためにそれらのビジュアル化をもたらす工程をさらに含む、関連方法に関する。本発明は、ロボットおよび画像化モダリティの座標系と重ね合わせられた複数のマルチモーダルセンサーの1つ以上から処置の領域の画面(view)を生成する工程をさらに含む、別の関連方法に関する。
本発明はさらに、磁気共鳴画像誘導およびロボット支援の手術システムに関する。該システムは、少なくとも1つのコンピュータープロセッサー、少なくとも1つのコンピューターメモリー、システムに登録可能なロボットまたはそれを含む介入ツールを含む1つ以上のロボット構造、ロボットとともに登録された(registered)磁気共鳴スキャナー、およびコンピュータープロセッサーとコンピューターメモリーとのオンザフライ操作のために構成された複数のモジュール、を含む。複数のモジュールは、1)患者においてロボットおよび対象の組織に関するすべてのMR生成したデータを記載する、2)処置の領域において組織境界を確立する、3)MRスキャナーを介して、またはロボットを含む及び患者の身体外または身体内に配された1つ以上のマルチモーダルセンサーを介して、組織境界の動作を動的にモニタリングする、4)処置の領域に準拠してロボットの位置をトラッキングする、5)生成されたデータをシステムのオペレーターに送信する、6)生成されたデータからロボットの制御およびトラッキングのための命令を生成する、7)オペレーターのために外科的処置の間に処置の領域およびロボットの画面をもたらす、および8)ロボット、スキャナー、モジュールおよびオペレーター間で複数のインターフェースを確立する、プロセッサー実行可能命令を可能にする。本発明は、関連する磁気共鳴画像誘導およびロボット支援の手術システムに関し、ここで複数のモジュールは、マルチモーダルセンサーを介して取得したデータから、処置の領域の4D画面を生成且つビジュアル化する、プロセッサー実行可能命令を可能にするようにさらに構成される。本発明は、別の関連する磁気共鳴画像誘導およびロボット支援の手術システムに関し、ここで複数のモジュールは、組織間の又は組織とロボットとの間の境界をモニタリングするために少なくとも1つの信号強度の投影(signal intensity projection)を生成する、プロセッサー実行可能命令を可能にするようにさらに構成される。本発明は、また別の関連する磁気共鳴画像誘導およびロボット支援の手術システムに関し、ここで複数のモジュールは、患者の身体を含む自然の管状構造およびロボットまたは介入ツールを含む人工の管状構造を画像化するようにさらに構成される。
本発明はさらにまた、非一時的なコンピューター読み取り可能なデータ記憶媒体、および実行されたときに、本明細書に記載されるコンピューター実施の方法を可能にする又は本明細書に記載される複数のモジュールを含むコンピューター実行可能命令を保存する、計算システムにおける行動を実行する、同じ保存するコンピューター実行可能命令を明確に具体化するコンピュータープログラム製品に関する。
本発明の他の及びさらなる態様、特徴および利点は、開示の目的で与えられた本発明の現在の好ましい実施形態の以下の記載から明らかになる。
上に詳述された本発明の特徴、利点および目的の他に、より明らかになる他のものが達成される且つ詳細に理解され得るために、本発明のより具体的な記載および上に簡潔に要約された特定の実施形態が、添付の図面で例証される。これらの図面は、明細書の一部を形成する。しかしながら、添付の図面は、本発明の好ましい実施形態を例証し、それ故、それらの範囲内で限定するものとして考慮されるべきではないことを留意されたい。
図1は、汎用の医療用ロボットプラットホームの実例である。 図2は、シングルポートアクセス(SPA)手術のコンピューター打ち出し画像の描写(cartoon representation)である。 図3Aは、手術中のロボット検出およびトラッキングの方法の概略図である。 図3Bは、ロボットモデルの作成のためのフローチャートである。 図4Aは、MRおよびUSの方法を描写する。 図4Bは、MRおよびUSの方法のインターリービング(均一の縮尺でない(not in scale))。()のある方法は、オペレーターによって開始される。表は、データセットの収集当たりの推定時間をリストする。 図5Aは、MR基準マーカーを用いるロボットのトラッキングを例証する。 図5Bは、MR基準マーカーを用いるロボットのトラッキングを例証する。 図5Cは、MR基準マーカーを用いるロボットのトラッキングを例証する。 図5Dは、MR基準マーカーを用いるロボットのトラッキングを例証する。 図5Eは、MR基準マーカーを用いるロボットのトラッキングを例証する。 図5Fは、MR基準マーカーを用いるロボットのトラッキングを例証する。 図5Gは、MR基準マーカーを用いるロボットのトラッキングを例証する。 図5Hは、MR基準マーカーを用いるロボットのトラッキングを例証する。 図5Iは、MR基準マーカーを用いるロボットのトラッキングを例証する。 図5Kは、MR基準マーカーを用いるロボットのトラッキングを例証する。 図5Kは、MR基準マーカーを用いるロボットのトラッキングを例証する。 図5Lは、MR基準マーカーを用いるロボットのトラッキングを例証する。 図6Aは、2D投影につき170msの速度を有するカテーテルMPIを例証する。 図6Bは、2D投影につき49msの速度を有するカテーテルMPIを例証する。 図7Aは、局所領域のバイオセンシングの概要を描写する局所領域のバイオセンシングを例証する。 図7Bは、デュアルMRの空間走査を描写する局所領域のバイオセンシングを例証する。 図7Cは、3つのコンパートメントファントム(compartment phantom)のMR適合性のロボットを用いる光学(LIF)センサーを描写する局所領域のバイオセンシングを例証する。 図7Dは、固有に重ね合わせられたMRSデータの集まりを例証する。 図7Eは、固有に重ね合わせられたLIFデータの集まりを例証する。 図8は、ロボットおよびスキャナーの制御によるセンシングの相互接続を例証する。 図9Aは、心内膜のアクセスのために、リアルタイムの互いに傾斜した(oblique−to−each−other)MRIスライスから4Dアクセス導管(4D Access Conduits)を生成する、専用の画像スレッドの出力を例証する。 図9Bは、心外膜のアクセスのために、リアルタイムの互いに傾斜したMRIスライスから4Dアクセス導管を生成する、専用の画像スレッドの出力を例証する。 図10Aは、アクセスコリドーを生成する複数の投影カラムの収集のためのMRパルスシーケンスを描写する。図10Aは、共通の撮像面を共有する2つの投影カラムの3D選択を例証する。 図10Bは、アクセスコリドーを生成する複数の投影カラムの収集のためのMRパルスシーケンスを描写する。図10Bは、各カラムの個々の選択を例証する。 図10Cは、アクセスコリドーを生成する複数の投影カラムの収集のためのMRパルスシーケンスを描写する。図10Cは、より速いデータ収集のための単一の繰り返し(single repetition)を介して、軸G2に沿った共通の平面を有する、2つのカラムの選択を例証する。 図11Aは、ソフトウェアモジュールのMRスキャナー制御を描写する。 図11Bは、ソフトウェアモジュールのMRスキャナー制御の操作の例を描写する。 図12Aは、LV心内膜の組織境界をモニタリングするための複数の投影による組織の動的なトラッキングを描写する。 図12Bは、血管の組織境界をモニタリングするための複数の投影による組織の動的なトラッキングを描写する。 図12Cは、随意に造影剤を使用して、血管の組織境界をモニタリングするための複数の投影による組織の動的なトラッキングを描写する。 図12Dは、投影信号の形態を単純化する磁化準備(magnetization preparation)をモニタリングするための複数の投影による組織の動的なトラッキングを描写する。 図13Aは、投影用のアクセス可能な(accessing available)SNRおよびコントラスト差を描写する。図13Aは、投影線(破線)および信号が統合される領域の幅(ソリッドボックス)とともに、50ms/画像(image)の速度で収集されたオリジナルの動的なMR画像を示す。 図13Bは、投影用のアクセス可能なSNRおよびコントラスト差を描写する。図13Bは、LVおよび心筋に相当する2つの深みの左/右(deeps left/right)を有する信号のグラフを示す。 図14は、ロボット手術の制御のための方法のフローチャートである。 図15Aは、共通のスラブに基づいていない投影カラムを選択するための、任意のカラムの利用及び/又は投影カラムの任意の配向を描写する。 図15Bは、共通のスラブに基づいた投影カラムを選択するための、任意のカラムの利用及び/又は投影カラムの任意の配向を描写する。 図16Aは、Y軸上の共通のスライスの2つの投影カラムの選択を描写する。 図16Bは、主要なスライスに対する任意の配向を有する3つの投影の選択を描写する。 図17Aは、タイプIのマルチ投影パルスシーケンスを描写する。 図17Bは、タイプIのマルチ投影パルスシーケンスの傾斜の平衡化を描写する。 図17Cは、タイプIのマルチ投影パルスシーケンスの傾斜の平衡化を描写する。 図17Dは、タイプIのマルチ投影パルスシーケンスの傾斜の平衡化を描写する。 図17Eは、タイプIのマルチ投影パルスシーケンスの傾斜の平衡化を描写する。 図18Aは、タイプIIのマルチ投影パルスシーケンスを描写する。 図18Bは、タイプIIのマルチ投影パルスシーケンスの傾斜の平衡化を描写する。 図18Cは、タイプIIのマルチ投影パルスシーケンスの傾斜の平衡化を描写する。 図18Dは、タイプIIのマルチ投影パルスシーケンスの傾斜の平衡化を描写する。 図18Eは、タイプIIのマルチ投影パルスシーケンスの傾斜の平衡化を描写する。 図18Fは、単一のスライス選択を利用する代替タイプIIのパルスシーケンスを描写する。 図19は、タイプIIIのマルチ投影パルスシーケンスを描写する。 図20Aは、単一パルス後に2つ以上の投影を同時に収集するためのタイプIのパルスシーケンスを描写する。図20Aは、RFパルス、傾斜およびデータ取得波形の具体的な実施を示す。 図20Bは、単一パルス後に2つ以上の投影を同時に収集するためのタイプIのパルスシーケンスを描写する。図20Bは、対応するk空間軌道の適用範囲を示す。 図20Cは、2つ以上の投影を独立的且つ同時に収集するためのタイプIのパルスシーケンスを描写する。図20Cは、RFパルス、傾斜およびデータ取得波形の具体的な実施を示す。 図20Dは、2つ以上の投影を独立的且つ同時に収集するためのタイプIのパルスシーケンスを描写する。図20Dは、対応するk空間軌道の適用範囲を示す。 図21は、デュアル投影からの画像再構成のためのフローチャートである。 図22Aは、マルチスライスセットから再構成された管状構造の3D画像化のためのボリューム投影(volume−projection)の方法を例証する。 図22Bは、デュアル投影を介する手術ロボットの画像化のためのボリューム投影方法を例証する。 図22Cは、超高速3D画像化のためのボリューム投影方法を例証する。 図23は、タイムシェアリングのMRプロトコルおよび「先着順サービス(First−Come−First−Served)」の再構成のためのタイミング図である。 図24Aは、タイミング図を描写する。 図24Bは、所望のTIに対するタグ付け(tagging)パルス角の依存性を描写する。 図24Cは、複数のパルスシーケンスを利用するタイミング画像化プロトコルを描写する。 図24Dは、複数のパルスシーケンスを利用するタイミング画像化プロトコルを描写する。 図24Eは、複数のパルスシーケンスを利用するタイミング画像化プロトコルを描写する。 図25は、MR誘導およびロボット支援の処置用の計算フレームワークを例証する、統合操作環境(IOE)の組織を描写する。
本明細書で使用されるように、用語「a」または「an]は、請求項及び/又は明細書において用語「含む(comprising)」と併用して使用されるときに、「1つ(one)」を指し得るが、「1つ以上(one or more)、「少なくとも1つ(at least one)」、および「1つ以上(one or more than one)」の意味とも一致している。本発明の幾つかの実施形態は、本発明の、1つ以上の構成要素、方法の工程、及び/又は方法から成るか又はそれらから本質的になり得る。本明細書に記載される任意の方法または組成が、本明細書に記載される他の方法または組成に対して実施され得ることが熟慮される。
本明細書で使用されるように、請求項での用語「または」は、本開示が、代替および「及び/又は」のみを指す定義を支持するが、代替のみ又は相いれない代替を指すように特に明記されない限り、「及び/又は」を指す。
本明細書で使用されるように、用語「約」は、明確に示されているかどうかにかかわらず、例えば、整数、分数、およびパーセンテージを含む、数値を指す。用語「約」は、当業者が、列挙された値(例えば、同じ関数または結果を有する)と同等であると考える、さまざまな数値(例えば、+/−5−10%の列挙された値)を一般に指す。幾つかの例では、用語「約」は、最も近い有効数字に四捨五入される数値を含んでもよい。
本明細書で使用されように、用語「コンピューター」は、少なくとも1つのメモリー、プロセッサーおよび少なくとも1つの有線及び/又は無線ネットワーク接続を含む、1つ以上のマシンを指す。コンピューターは、標準的な及び現在当該技術分野で知られているような、デスクトップまたはラップトップのマシンまたは他の電子メディア、例えば、スマートフォンまたはタブレットを含み得る。限定されないが、ロボットマニピュレーター、ロボットセンサーなどを含む、ロボットシステムの実施に必要とされる、あらゆるソフトウェア、モジュール、アプリケーション、アドオン、プラグイン、プログラム及び/又はデータベースなどは、限定することなく、1つ以上のコンピューターにプログラミングされ得るか、ネットワーク接続上で検索され得るか、それらを明確に保存するメディア記憶デバイスから検索され得るか、またはコンピューターメモリーまたは他の電子メディアのメモリーに明確に保存され得、プロセッサーによって実行可能である。
本明細書で使用されるように、用語「ロボット」または「ロボットマニピュレーター」は、本明細書に記載されるように、例えば、限定されないが、マニピュレーター支援の手術、最小限に侵襲的な手術および介入的な診断または治療、あるいは診断および治療の処置の組み合わせを実行するための、遠隔駆動型のマニピュレーターを交換可能に指す。
本明細書で使用されるように、用語「患者」は、本明細書に記載される画像誘導のロボット装置およびシステムを利用する、外科的処置、手術または最小限に侵襲的な処置の被験体である、あらゆる哺乳動物、好ましくはヒトを指す。
本発明の1つの実施形態では、外科的処置の間のロボットのインサイツでのリアルタイムの画像化ガイダンスのためのコンピューターシステムが提供され、該コンピューターシステムは、メモリー、プロセッサーおよび少なくとも1つのネットワーク接続を有する、少なくとも1つのコンピューター中に、画像化モダリティ、医療用ロボットおよびそのオペレーターをリンクする複数のインターフェースを介して、画像化モダリティ、医療用ロボットおよびそのオペレーターに手術中にリンクするように構成された複数のモジュールを含む。
本実施形態において、複数のモジュールは、少なくとも1つの、外科的処置の間に画像化モダリティを制御するように構成されたモジュール;重ね合わせられたロボットツールまたは介入ツールをトラッキングするように構成されたモジュール;対象の組織をトラッキングするように構成されたモジュール;画像化モダリティから及びロボットから取得したデータを処理するように構成されたモジュール;患者の身体外および身体内でロボットの安全且つ正確な動作のための動的な経路またはコリドーを生成するように構成されたモジュール;ロボット、および取得データから生成された処置の領域をビジュアル化するように構成されたモジュール;およびヒューマン−マシンインターフェースを可能にするために力フィードバック装置または触覚装置を利用するように構成されたモジュール、を含み得る。本実施形態に加えて、コンピューターシステムは、複数のマルチモーダルセンサーをロボットおよび画像化モダリティと重ね合わせるように構成されたモジュールを含み得る。
両方の実施形態の一態様において、画像化モダリティの制御モジュールは、外科的処置の間に:組織およびロボットのステータスに関するデータを処理する;その変化を計算する;データ取得の変化を引き起こす事象を特定する;事象に対する応答を選択し、それに基づいて画像取得の方策を立てる;および画像取得の方策を画像化モダリティに送信する、プロセッサー実行可能命令を可能にし得る。本態様では、引き起こす事象は、変化を形態の範囲(range−of−form)の値のリストとアルゴリズム的に比較する命令を介して特定され得る。
別の態様では、組織をトラッキングするモジュールは:画像化モダリティで画像化シーケンスを選択し、組織内にコントラスト差を生成するパラメーターを設定する;画像化中に得られた1つ以上の信号強度または画像投影から対象の少なくとも1つの観察可能な組織境界を生成する;および外科的処置の間に組織境界の動作を動的にモニタリングする、プロセッサー実行可能命令を可能にする。本態様では、組織境界は、処置の領域の組織のまわりの境界または医療用ロボットのアクセス経路に近位の組織のまわりの境界またはその両方を含み得る。本態様に加えて、組織をトラッキングするモジュールは、選択命令の前またはその間に、外因性造影剤を組織に注入する、プロセッサー実行可能命令を可能にする。
さらに別の態様では、ロボットをトラッキングするモジュールは、ロボットの近位に配された及び画像化モダリティに連結された複数のマーカーの1つ以上を検出する;および画像化モダリティの座標系に対するマーカーの座標を抽出して、ロボットの位置を決定する、プロセッサー実行可能命令を可能にする。
さらに別の態様では、ビジュアル化モジュールは、ロボット用の各局所化工程に対する単一のマーカーの位置のみを検出するプロセッサー実行可能命令を可能にし得る。
すべての実施形態およびその態様では、複数のインターフェースの1つは、医療用ロボットおよび画像化モダリティのオペレーターによる手動制御を可能にし得る。また、複数のモジュールは、オンザフライ操作を行い得る。さらに、画像化モダリティは、磁気共鳴画像法または分光法またはその組み合わせ、超音波画像診断、X線コンピューター断層撮影法、X線乳腺撮影法、光学撮像、あるいはビデオ撮像である。
本発明の別の実施形態では、外科的処置の間の、ロボットのインサイツでのリアルタイムの画像化ガイダンスのためのコンピューターで実施される方法が提供され、該方法は、先に記載されるようなコンピューターシステムにおいて手術中に、組織および医療用ロボットの現状ステータスを得るためにデータを処理する工程;処置の領域またはロボットのアクセス経路に近位の領域またはその両方を含む少なくとも1つの組織境界を生成する工程;処置の領域にわたる組織境界の動作を動的にモニタリングする工程;およびロボットの近位に配された及び画像化モダリティに連結された複数のマーカーの個々の可視性に基づき、処置の領域に準拠してロボットまたはそれを含む介入ツールの位置をトラッキングする工程、を含む。
本実施形態に加えて、該方法は、処置の領域およびロボットがモニタリングされる且つトラッキングされると、システムのオペレーターのためにそれらのビジュアル化をもたらす工程を含む。このさらなる実施形態では、ビジュアル化は、ビジュアル画像、モデル、バーチャルリアリティーシーン(virtual reality scene)、向上したリアリティーシーンまたはそれらの重ね合わせ(superimposition)または組み合わせを含み得る。別のさらなる実施形態では、該方法は、ロボットおよび画像化モダリティの座標系と重ね合わせられた複数のマルチモーダルセンサーの1つ以上から処置の領域の画面を生成する工程を含み得る。
これらの実施形態の態様では、処理する工程は、組織およびロボットのステータスに対する変化を計算すること;データ取得の変化を引き起こす事象を特定すること;アルゴリズム的に、変化を形態の範囲の値のリストと比較すること;値の比較に基づいて事象に対する応答を選択すること;および画像化モダリティに送信される応答に基づいて画像取得の方策を立てること、を含み得る。本態様において、該方法は、組織境界を生成する前またはその間に、外因性造影剤を組織に注入する工程をさらに含み得る。
別の態様では、トラッキングする工程は、画像化モダリティの座標系に対するロボットまたは介入ツール上へのマーカーの座標を抽出して、局所化工程の間にその位置を検出することを含み得、ここで、単一のマーカー位置のみが、ロボットのトラッキング中に局所化工程のために検出される。本態様では、単一のマーカー位置のみが、局所化工程のために検出され得る。
本発明のさらに別の実施形態では、実行されたときに、先に記載されるコンピューター実施の方法の工程を可能にする計算システムにおける行動を実行するコンピューター実行可能命令を保存する、非一時的なコンピューター読み取り可能なデータ記憶媒体が提供される。関連する実施形態では、非一時的なコンピューター読み取り可能なデータ記憶媒体で明確に具体化された、コンピュータープログラム製品が提供される。
本発明のさらに別の実施形態では、磁気共鳴画像誘導およびロボット支援の手術システムが提供され、該システムは、少なくとも1つのコンピュータープロセッサー;少なくとも1つのコンピューターメモリー;システムに登録可能なロボットまたはそれを含む介入ツールを含む1つ以上のロボット構造;ロボットとともに登録された磁気共鳴スキャナー;およびコンピュータープロセッサーとコンピューターメモリーとのオンザフライ操作のために構成された複数のモジュールであって、患者においてロボットおよび対象の組織に関するすべてのMR生成したデータを記載する;処置の領域において組織境界を確立する;MRスキャナーを介して、またはロボットを含む及び患者の身体外または身体内に配された1つ以上のマルチモーダルセンサーを介して、組織境界の動作を動的にモニタリングする;処置の領域に準拠してロボットの位置をトラッキングする;生成されたデータをシステムのオペレーターに送信する;生成されたデータからロボットの制御およびトラッキングのための命令を生成する;オペレーターのために外科的処置の間に処置の領域およびロボットの画面をもたらす;およびロボット、スキャナー、モジュールおよびオペレーター間で複数のインターフェースを確立する、プロセッサー実行可能命令を可能にする、複数のモジュールを含む。
本実施形態に加えて、複数のモジュールは、マルチモーダルセンサーを介して取得したデータから、処置の領域の4D画面を生成且つビジュアル化する、プロセッサー実行可能命令を可能にするように構成され得る。このさらなる実施形態では、マルチモーダルセンサーが、磁気共鳴スキャナーを含む座標系と重ね合わせられ得る。別のさらなる実施形態では、複数のモジュールは、組織間の又は組織とロボットとの間の境界をモニタリングするために少なくとも1つの信号強度の投影を生成する、プロセッサー実行可能命令を可能にするようにさらに構成され得る。さらにまた、複数のモジュールは、患者の身体を含む自然の管状構造およびロボットまたは介入ツールを含む人工の管状構造を画像化するように構成され得る。このさらなる実施形態では、自然および人工の管状構造を画像化する命令は、造影剤を該構造へと注入または充填する;造影剤を有する構造を含む3Dボリュームの少なくとも1つの2D投影を取得する;および2D投影から3D画像を生成する、ように作動する。特に、少なくとも2つの2D投影が得られるときに、投影は、互いに対して任意の角度であり得る。また、2D投影を取得するために使用される、選択された順序の高周波パルスおよび磁場傾斜パルスは、造影剤を含まない(non−contrasted)構造から信号を少なくとも減少させる。すべてのこれらの実施形態では、複数のインターフェースの少なくとも1つは、ロボットおよびMRスキャナーのオペレーターによる手動制御を可能にする。
本実施形態の態様において、すべてのMR生成データを記載する命令は、組織およびロボットのステータスに関するデータを処理する;その変化を計算する;アルゴリズム的に、変化を形態の範囲の値のリストとアルゴリズム的に比較する命令を介して、データ取得の変化を引き起こす事象を特定する;事象に対する応答を選択し、それに基づいてMR画像取得の方策を立てる;およびMR画像取得の方策をMRスキャナーに送信する、ように作動し得る。
別の態様では、組織境界を確立する命令は、必要に応じて、外因性造影剤を、随意に組織に注入する;MR画像化シーケンスを選択し、組織内にコントラスト差を生成するパラメーターを設定する;および磁気共鳴画像法の間に得られた1つ以上の画像投影から組織境界を生成する、ように作動し得る。
さらに別の態様において、ロボットの位置をトラッキングする命令は、ロボットの近位に配された及びMRスキャナーの座標系と重ね合わせられた複数のマーカーのオン/オフのステータスに基づき、処置の領域に準拠してロボットの位置をトラッキングする;およびロボット動作を制約するために動作フィルタリング(motion filtering)を適用する、ように作動し得る。本態様において、ロボットの位置をトラッキングする命令は、MRスキャナーの座標系に対する複数のマーカーの座標を抽出して、その位置を検出するように作動し得、ここで、単一のマーカー位置のみが、ロボットのトラッキング中に局所化工程のために検出される。
さらに別の態様では、少なくとも1つの信号強度を生成する命令は、高周波パルシングを介して投影の選択方向に沿った少なくとも1つの3Dカラムに含まれる組織を刺激する;磁場傾斜を操作する;MRスキャナーから未加工データを取得する;および未加工データから信号強度の1D投影を生成する、ように作動し得る。この態様において、1つを超える3Dカラムが平面を含む場合、モジュールは、複数の高周波パルスを送り、それによって取得率を増加させる命令を可能にする。
さらに別の態様では、ロボット制御のための命令は、MR画像ガイダンス下での2D投影の取得のためのロボットの手動オペレーター制御および自動化制御を可能にするように作動し得る。本態様において、ロボット制御のための命令は、特に、手動オペレーター制御を介して、少なくとも1つの平面、少なくとも1つの投影軸、および投影幅を選択する;および付随的に、3D投影カラムを選択し、それをグループ化する;および自動制御を介して、パルス傾斜および傾斜強度を含む磁気共鳴取得パラメーターを計算する;および続いて、取得パラメーターをアップデートする;投影を動的に取得する、および分析する;および動的組織モデルを生成する;およびその後、ロボットを制御することによって動的なコリドーおよび軌道を計算する;触覚装置の動的なレンダリングを計算する;およびそれから画像ガイダンスの拡張現実感を生成する、ように作動し得る。
本発明のさらに別の実施形態では、先に記載された複数のモジュールを含むコンピューター実行可能命令を保存する、非一時的なコンピューター読み取り可能なデータ記憶媒体が提供される。関連する実施形態では、非一時的なコンピューター読み取り可能なデータ記憶媒体で明確に具体化された、コンピュータープログラム製品が提供される。
本明細書には、ツール自体をトラッキングために手術用ツール上に位置付けられ得る複数のMR可視マーカーを有する手術用ツールのリアルタイムのトラッキングが提供される。また、診断の実施および外科的処置の両方に使用するための組織の動作をモニタリンするために、特定のMRIデータ収集プロトコル、即ち、パルスシーケンスを用いて複数の投影を収集する方法によって、組織のリアルタイムのトラッキングが提供される。該方法は、複数の部位の動作のモニタリングを可能にする3−4msごとの投影の収集を理論上可能にする。
また、手術ロボットの自動化ガイダンスおよび操縦のための、および力センサーの代わりにMRデータを使用する特定の触覚装置を介して、ロボットの手動操縦を指示するための関連方法が提供される。ロボットを搭載した局所領域のバイオセンシングは、本明細書に記載されるような光学的方法と超音波方法との組み合わせを使用する。屈曲可能な手術用ツールの超高速3D/容量測定のMRI画像化が可能となる。
さらに、本明細書に記載される方法および処置を可能にするソフトウェアが提供され、例えば、MRデータの収集の制御のための、および先に記載された方法から収集された未加工データの再構成のための、および手術をビジュアル化し誘導する、現実データに基づく及びモデル化なしでの、現実的な仮想環境の生成のための、ソフトウェアが提供される。さらに、ロボットの自律または半自律の制御に有用な画像モダリティで抽出した(image modality−extracted)情報を処理且つ利用するための、および一般に、触覚装置または力フィードバック装置を介するオペレーターの「専門家のような(expert−like)」助言によって、ロボットおよび操作の領域にオペレーターをインターフェースで接続するための、ソフトウェアが提供される。
そのため、本発明は、汎用の多目的な医療ロボットプラットホームおよびソフトウェアシステムを提供する。該システムは、未加工データを収集、融合、および提示するための方法論が、異なる現在の及び台頭する医療用モダリティのために再構成可能であるような、モダリティに依存しない強固なプラットホームを含む。該システムは、実際の及びリアルタイムのデータを利用し、環境に関するパラメトリックな及び/又は抽出した前提データ(assumptions)を最小限にし、それによって、インサイツでのリアルタイムの画像化ガイダンスを可能にする。マルチモーダルセンシングは、固有に重ね合わせられるマルチモーダルの時空間データの生成のために、画像センサーをロボット上に組み込み、ロボット駆動を使用することによって実施される。
より具体的には、該システムは、クロスモダリティデータ解釈および事象に基づいた特徴づけのための方法を介して原画像を意思決定に変換するMRIデータ収集の方策を利用する。該システムは、高度な情報提供のための内容(high informational content)の手術前のデータから低度の情報提供のための内容(low informational content)の手術中の動的データの拡張を提供し、それによって、処置を計画および誘導するためのすべての必要とされる情報の収集が可能となる。そのため、該システムは、物理的または環境的な因子を明確に表わす且つ考慮する画像ベースの情報を生成する且つ統合する、計算コアを含む。また、人間のオペレーターに対する最小限の労力および散乱で、マルチモーダルデータをレンダリングし、環境の包括的な認識を提供し、およびとループ中の人間(human− or man−in−the−loop)の制御を達成する、インターフェースが提供される。
好ましい実施形態では、一般的な医療用のロボットプラットホームが提供される。プラットホームは、処置の領域のアクセスに従う、汎用の、屈曲可能なロボットマニピュレーターを含む。マニピュレーターは、モジュール式で、再構成可能な、広範囲の操作および応用のシナリオに適用可能でなければならず、他のシステムが構築され得る基本的なフレームワークのためのベースを形成することができる。
医療用のプラットホームはまた、動的にリアルタイムの、マルチモーダルの画像化から抽出される情報に基づいた、ロボット制御方法を含む。データは、ロボットのエンドエフェクタで一連のセンサーによって収集され、動的に変化する環境内で安全且つ正確に操縦するために、その本体上に分配される。これによって、実行時間のモデリング、仮定、および計算上の層を最小限にしながら、オペレーターによるAoPの直接的且つ直観的な視聴が可能となる。
医療用のプラットホームはさらに、処置を誘導して、その結果を評価することができる病態生理学的なシグネチャ(pathophysiologic signatures)を評価のためのセンサースイート(sensor−suite)としてのロボットを使用して、手術中の、ロボット支援の、オンライン診断ツールを含む。MRIおよびUSなどの従来の画像化以上に、該センサーは、インサイツでの組織の分子の特徴を問い合わせる(interrogate)ように構成される。ロボットは、人間のオペレーターとのインターフェースのための微調整およびフュージョンのために、時空間的な、マルチモーダルの重ね合わせ(co−registration)を促進するように構成された、スマートセンサープラットホームを含む。
以下に記載されるように、本発明は、多くの利点および用途を提供するが、そのような利点および用途は、そのような記載によって限定されない。本発明の実施形態は、図面を参照してより好適に例証されるが、そのような参照は、任意の方法で本発明を制限するようには意図されない。本明細書に詳細に記載される実施形態および変化は、添付の請求項および同等物によって解釈されるものとする。
図1は、マルチモーダルセンシングが、例えば、ロボット制御に対する大域的なレベルで、および分子レベルで感知するための、ロボットで支持された(robot−carried)センサー、例えば、MR、US、または光(optical)を用いる局所的なレベルで、MRIによって生じることを例証している。すべてのモダリティは、ロボット制御、マルチモーダルデータのフュージョンおよびビジュアル/FFIを単純化するMRスキャナーの座標系に固有に重ね合わせられる。表1は、手術中の大域的なトラッキングおよび局所的な組織の病理を例証する。
別の好ましい実施形態では、手術中のリアルタイムの画像化によるロボット制御および処置ガイダンスのための方法が提供される。限定しない例において、MRIは、ロボットをトラッキングする及びAoPを見るために利用される。MRIは、解剖および機能を評価するための多くの軟組織のコントラスト機構を提供する。MRIは、ビジュアル化およびトラッキングするツールおよびロボットマニピュレーターの利用を可能にする。MRIは、真の3Dまたはマルチスライスの画像化であり、ロボット制御のコアからの撮像面の配向を含む、取得パラメーターのオンザフライ調節を可能にする。MRIは、超音波と比べて、オペレーターに依存しない(operator−independent)性能を有する。MRIは、X線と比較されるような電離放射線なしで作動する。最も具体的には、MRIは、ロボットがMRスキャナーの固有の座標系に登録され得るという点で、特有の特徴を示す。
本明細書で提供されるように、手術中のリアルタイム画像化は、二方向に拡張される。第1に、前のデータに基づいた予測、モデルまたは仮定が、最小限にされる。第2に、オペレーターと患者との間の計算上の層が、最小限にされる。これによって、ロボット技術における医療用オペレーターの信頼が高まり、被験体を傷つけかねない機能不全の可能性のある領域を最小限にする。
この好ましい実施形態の一態様では、IGRA処置用の手術中のホロノミックモデリング(holonomic modeling)が提供される。本態様では、2つの相補的なMR方法は統合される。第1の方法は、複数の厚いスラブ(thick−slab)の投影からの画像再構成を利用するロボットの3D画像化である。第2の方法は、200Hz/マーカーでの患者内の連続的なトラッキングのためのロボット上のMR基準マーカーを利用する。関連する態様では、取得の速度および情報量を最適化するために各測定が行われる、タイムインスタンス(time instance)を制御するように構成されたアルゴリズムが提供される。
別の態様では、ガイダンスによって分子レベルおよび巨視レベルの画像化をつなげる(bridges)ロボット促進のセンシングが提供され、これによって、AoPオンザフライで組織の病理を評価するための手段がオペレーターに提供される。高特異性センサーの時空間的な走査を支持(carrying)および操作するためのエンドエフェクタを使用することによって、AoPの局所領域のセンシングが可能となる。例えば、エンドエフェクタは、LIFのための光センサー及び/又は局所的なMRSのためのMR RFコイルを支持(carry)し得る。これによって、計算上高価な後処理とは異なり、AoPのインサイツでのプロービングおよびデータ収集のレベルでの固有の重ね合わせのための、組織(MRI)および分子(LIFおよびMRS)レベルのモダリティの機械的結合が可能となる。
これらの態様は、AoPに高特異性バイオセンシングをもたらす。
さらに別の好ましい実施形態では、限定されないが、画像誘導の経管腔的内視鏡手術(NOTES)の画像誘導のNOTESまたは他のシングルポートアクセス(SPA)手術などの、内視鏡処置の現在および今後のバージョンによる使用のために構成された、ロボットプラットホームおよび一般化された手術中の画像ベースの制御を含むフレームワークが提供される。該フレームワークは、4D誘導の導管を通るノードによって配置される、ロボット構造または関節構造を含む。該ノードは、4D誘導の導管によって課された制約(constraints)に応じて位置が調節される、MR基準マーカーを支持する。該4D誘導の導管は、それらを取り囲む組織の一時的な状態に順応するように変化する4Dバーチャル構造である。例えば、図2に描写されるように、SPA処置は、管状の操縦可能な装置を、時空間的な管状のバーチャルエンティティである導管を介して、初期の位置EN、即ち、経皮的なポートまたは自然孔(natural orifice)から標的TTへと移動する役割があり得る。
さらに別の好ましい実施形態では、ヒューマン−情報/マシンインターフェース(HIMI)が提供される。HIMIは、デュアルビジュアル(VI)および力フィードバックのインターフェース(FFI)であり、これは、情報、即ち、処置関連の情報まで階層的に成熟したデータにオペレーターを没頭させる、および画像ベースの、ループ中の人間の制御を促進する。オペレーターに対して、HIMIは、高速学習曲線および直観性を提供し、使用するのに、散乱または追加の作業負荷はない。
さらに別の好ましい実施形態では、マルチモーダルの手術中のセンシングのための方法が提供される。これによって、組み合わせられたときに、AoPの4D画面を提供する、相補的な時空間的情報の収集のためのMR方法の統合が可能となる。この画面は、自律またはヒト誘導のロボット制御によって使用される。この手法によって、医療ロボットツールが、単純にアプリケーターの代わりに、マルチツールとして機能することができることが熟慮される。これらの方法は、データ取得段階で、固有に重ね合わせられた、マルチモーダルデータを生成する。登録は、簡単な方法でマルチモーダルの重ね合わせに対処して、不必要な複雑性および仮定を除去する、一般的なMR座標系に関連する。図3Aは、MRI絶対的座標系におけるロボットの手術中の検出およびトラッキングのための方法の概要を提供し、図3Bは、図3Aで描写されるロボットの生成を例証するフローチャートである。ロボットは、複数の小型RFコイルを含み、MRガドリニウム(Gd)−造影剤チャネルを有する、湾曲したロボットである。ロボットの2D XY、YZ、およびZXの投影は、座標系のMR平面に描写される。
その上、図4Aで例証されるように、マルチモダリティは、手術中のMRおよびロボットを搭載したUS(RM−US)画像の同時収集での、ベースのロボット制御およびHIMIに基づいている。マルチモダリティデータは、視覚(visuo)−触覚型のインターフェーシングと同様に、ロボット制御のためのアクセスコリドーおよびガイダンスの軌道の形態で、オンザフライ生成およびAoPの動的なバーチャルモデルのアップデート、即ち、4Dの時空間情報に使用される。相補的な時空間的情報を得るために手術中のMRおよびUSの利点を組み合わせることによって、提案された手法は、AoPの動的モデルを、できるだけ現実世界に近くなるように作り出す方法を発達させる。図4Bで描写されるように、手術中のMRIは、移動する心内膜、ロボットの患者内(endo−patient)の部分の3D画像化をトラッキングする、およびロボット上の基準マーカーをトラッキングする、インターリーブされた(interleaved)MR方法を含む。
手術中のRM−USは、ガイダンスのためのロボットのエンドエフェクタの前のリアルタイム画像を生成するために、MRIと同時に実行される。その上、オペレーターに引き起こされた標準的なMRまたはUSのプロトコルは、処置の性能を評価するために本明細書で提供される方法とインターリーブされ得る。
別の実施形態によると、および図5Aを参照すると、患者の外側にあるRFコイルに誘導的に連結される及び処置を画像化するために使用される複数の無線周波数(RF)のマイクロコイルを使用してMRIによってロボットまたは介入ツールをトラッキングための方法が記載される。好ましい実施形態によると、および図5Aを参照すると、複数のMR基準マーカー501は、ロボットまたはツールの全体または部分または点をビジュアル化する及びトラッキングするための特定の必要性に従って、コンピューター制御の可視性を有する、即ち、それらのいずれか1つまたはそれらの任意の組み合わせは、オン(ON)にされ得る、即ち、MRI可視性であるか、またはオフ(OFF)にされ得る、即ち、MRI非可視性である。MR可視性の1つまたは限定された数のマーカーを選択的に製造することの本質は、MRスキャナーの座標系に対するマーカーの座標を抽出するためのMRのデータ収集および処理が、すべてのマーカーが活性であるときと比較して、実質的により速いということである。
MRスキャナーの座標系に対するこれらのコイルの位置の測定は、1)デュムラン(1)および他のもの(2−4)によって確立されるようなスキャナーの3つの軸に沿った投影を収集することによって、または2)速いMR画像を収集することによって行われ得る。信号の他のソースが欠如していると、シングルコイルは、局所化が1.1mmのコイル(5−7)を有するZ軸上にある、MRスキャナーの対応する軸上のコイルの位置で、各投影に沿ったピークを示すだろう。ロボットまたはツールをトラッキングするために、ツールまたはロボット上で重複点をトラッキングする複数のマイクロコイルが必要とされる。しかしながら、複数のパッシブマーカーが同時に使用されるときに、どのピークがどのマーカーに対応するかを識別するのは容易ではない。マーカーを明確に識別し、数多くの取得及び/又は後処理(4)を避けるために、コンピューター制御の選択的なビジュアル化によって、1つのマーカーのみが各局在化工程で調整されることが可能となる。残りのマーカーは、光ファイバーを介して光を受信するフォトレジスターまたはフォトダイオードによって離調される。利用された誘導的に連結したコイルが、スキャナーRFコイルによって伝達された低励振パルスにより作動し、そのため、周囲の組織が、不要なバックグラウンド信号を減少させて最小限に励起されることに留意されたい。
そのようなマーカーの1つを示す図5Bを参照すると、これらのマーカーの選択的な可視性は、RFコイル520の同調回路を光学的に離調することによって、優先的に実装される(implemented)。各々のそのようなマーカーは、1)限定されないが、ソレノイド、球、8字などの、適切なワイヤーを適切な形状に巻きつけることによって作られるRFコイル520、2)コイル520が、まわりに巻きつけられる、例えば、限定されないが、H(プロトン)信号ソースなどのMR信号ソースの材料を含有しているイアルまたは他の容器である、MR信号のソース521、3)RFコイル520の共鳴周波数をMRスキャナーの運転周波数に調整するための、適切なキャパシタンスC522を用いる同調回路、およびフォトレジスターまたはフォトダイオードの523、および4)光ファイバー524であって、その遠位端が、光を光源503からフォトレジスターまたはフォトダイオード523に送達するために適切に配向される、光ファイバー524、を含む。マーカーアセンブリは、光の焦点をフォトレジスターまたはフォトダイオードに好適に合わせるレンズ526、およびフォトレジスターまたはフォトダイオードに到達する及びそれを起動させるための、不要な光、例えば、周辺光を除去する適切なカバレージ(coverage)627を更に必要とし得る。
また、本実施形態によると、および図5Aを参照すると、複数のマーカー501のそれぞれ1つは、限定されないが、電子工学の分野の専門家にとって標準的である、電源および制御回路の部分である発光ダイオード(LED)などの、複数の光源503の1つに各々が接続された複数の光ファイバー502と接続される。システムは、以下の機能を有する、電子ユニットまたはマイクロコントローラーまたは任意の一般的な組込みシステム505をさらに含む:1)任意の所望の順序および持続時間で、MR可視性および非可視性の任意数のマーカーまたはその組み合わせを作るように特定パターンを設定する、コマンドまたは信号を外部から受信する(509)、2)順に適切な制御出力または回路出力506を介して複数の光源503の各1つのMR可視性を制御する。これは、例えば、限定されないが、および特定のLEDに供給される電圧を高および低に切り替えることによって行われ得、3)オペレーターによって選択されると、MRデータ収集のセッションを開始するために、TTLパルスなどのトリガーパルス(triggering pulse)をMRスキャナーに送信し、4)オペレーターによって選択されると、MRデータ収集のセッションの終了を信号で送るMRスキャナーから、TTLパルスなどのトリガーパルスを受信し、それによってユニットは、次のサイクルに進む。
本実施形態の別の態様によると、および図5C−5Hを参照すると、複数のマーカーは、ロボットまたはツールの構造上に適切に分配されて、異なる起動された部分の動作をトラッキングおよびビジュアル化する。例として、および図5Cを参照すると、関節ロボットまたはツールに関して、各々の回転関節または直動関節のために、2つのそのようなマーカーが、関節の各側面上、または関節リンクの各1つの上に1つ必要とされる。図5Cに示される例では、3つのリンク525a−c、互いに直交する2つの回転関節526a−b、および介入ツールを支持する1つの直動関節527から成る起動された関節型マニピュレーターとともに、4つのマーカー528a−dが配置される。図5Cおよび5Dを参照すると、関節526aが起動されるときに、この関節のまわりの角形成(angulation)をモニタリングして、点線529aと529bとの間の角度を計算するために、マーカー528aおよび528bのみがビジュアル化される必要がある。図5Eおよび図5Fを参照すると、関節526bが起動されるときに、この回転をモニタリングして、破線530aとび530bとの間の角度を計算するために、2つのマーカー528bおよび528cのみが必要とされる。同様に、ツールが直動関節527によって拡張されるときに、2つの関節528dおよび528cのみが必要とされる。マーカーの適切な配置および選択により、限られた数のマーカーだけが使用される必要があり、それによって、取得の速度が増し、それ故、ロボットまたはツールの起動された部分をトラッキングする速度が増すために、本例は本実施形態の価値をさらに強調している。
図5Hを参照する別の例は、スネーク様のロボットなどの湾曲したツールの例であり、これは、マーカーの点をスプライン関数と適合させることによる例として、限られた数のマーカー529a−dによってトラッキングされ得、およびマーカーの空間の位置で(the position in pspace of)、ツールの形状が再構成され得る。
この場合に、マーカーの各1つは、連続してビジュアル化され、湾曲したツールの部分のみが起動されると、ツールのこの部分上のマーカーのみが、トラッキングをさらに促進してトラッキングされる必要がある。
本実施形態の別の好ましい態様では、複数のマーカーの限られた数のみが、ユニット505の制御を介して選択的にMR可視性であり、これらのマーカーは、限定されない例として、ロボットまたはツールの一部分のみが、例えば、図5C−5Gのシーケンスで示されるように起動されるときに、ロボットまたはツールの特定の部分のみをトラッキングするように選択される。それ故、ロボット制御を実行するマイクロコントローラーユニット(505)または処理ユニットは、例として、以下の態様およびプロセスを伴う図5Iで示される構造を有し得る適切なコードを実行する:1)ロボット動作の工程のために、(いわゆるJ(say J))、ロボット姿勢532(即ち、MRスキャナーに対するその関節およびリンクの座標)および順運動学(forward kinematics)533(即ち、コマンドが実行された後のMRスキャナーに対するその関節およびリンクの座標)は、入力として使用され、2)ロボットまたはツールの起動した部分をビジュアル化するために、これらの情報を分析し、どのマーカーがトラッキングされる必要があるかを選択する、プロセス工程534、3)光源503に対する制御信号506およびMRスキャナーに対する制御信号507を決定する、プロセス工程535。
プロセス工程535は、プロセス534によって選択されたマーカーを介するトラッキングをループさせる(loop)させるために、および対応するRFコイルを調整/離調するために、以下に記載されるコード構成を有し得る。
機能コイルの定義(Define Function COIL)(J、K)
J=コイルの1から最大(Maximun)#
K=0 離調された
K=1 調整された
各コイルはフラグを有する 選択されるとCF(k):CF(k)=1
SENT TTLに対して1つのフラグ
RECEIVE TTLに対して1つのフラグ
PREPAREを押した(pressing)後
NCOILS=−sum{CF(k)}と計算
設定スクリーンのアップデート
WHILE文(STOPが押されるまで)
FOR J TO NCOILS
調整するCOIL(J、1)#セットコイルJ
離調するCOIL(L、0)#セットコイルL<>J
遅延(Delay)(D1)
SENT TTLフラグ=YESであると、TTLをMRIに送信
RECEIVE TTLフラ=YESであると、MRIからTTLを受信する
ALLコイルをデフォルトに設定する(例えば、デフォルトが調整されるとその後:For m TO MAXCOILS COIL(M,1))
遅延(D1)
NEXT J
END WHILE
図5Jは、時系列制御、および4つのマーカーを使用するロボットのマルチコイルトラッキングのための事象を描写する。本例では、時系列は、連続したラッキングコイル1、3および4のために生成されるが、一方でコイル2はMR可視性ではない。図5Jは、時系列を描写し、これは、コイルステータス540、図5Aにおいて制御信号507と同等な、MRIスキャナー541に対するトランジスタートランジスター論理(TTL)パルス、図5Aにおいて制御信号508と同等な、MRI542からのTTL、およびTTLパルス間で生じる、MRのデータ収集、画像化または投影543の事象を示している。
さらに、本実施形態によると、図5Iを参照して上に記載されるように、上に記載されたマーカーの制御は、自動化され得るか、またはグラフィカルユーザーインターフェース(GUI)を介してオペレーターによって手動で設定され得る。処置が自動化されるときに、マーカー制御の時系列(即ち、そのマーカーはMR可視性である)は、持続時間および順序がどうであれ、ロボットの制御ソフトウェアによってオンザフライを変化させることができる。時系列がオペレーターによって設定されるときに、GUIは、マウスなどの、標準的なグラフィカルおよびヒューマンインターフェース装置によって:1)どのマーカーがMR可視性となるか、2)どの順序でマーカーがMR可視性/非可視性に切り替えられる(即ち、調整される/離調される)か、3)システムが折衷的に(eclectically)/電子的に定着する(settle)のに必要なあらゆる遅延、4)MRデータ取得を開始するためにTTLトリガーがMRスキャナーに送信されるかどうか、5)次のRFコイルの調整(またはMR可視性)を引き起こすためにTTLトリガーがMRスキャナーから受信されるかどうか、および6)シーケンスの繰り返しの数または代替的にSTOPボタンによる手動停止の選択、を予め設定することが可能である。GUIは、予め設定された時系列の遂行を開始するためのRUNボタンをさらに有し得る。
図5Kは、ALLコイル610の選択的な離調、ALLコイル620の調整、連続した調整コイル1 630、1 635、2 640、3 645、4 650、1+4 655、2+4 660を示す4つのマーカーの設定に対する結果を示す。図5Lは、画像化平面によって定義された2つの軸に対する、MRスキャナー座標系におけるマーカーの座標の抽出を例証する、拡大された透視のマーカー3を示し、これは、SI投影の生成およびコイルに対応する信号ピークのおよび特定を伴う。低いフリップ角が画像化に使用されるこれらの場合において、バックグラウンドの信号は、閾値化によってさらに除去され得る。
一般に、1つを超えるマーカーが使用されるときに、どのピークがどのマーカーに対応するかを特定することは簡単ではない。したがって、図5Bで描写されるスキームは、マーカーをMR識別可能にするために、および数多くの取得および後処理を避けるために使用される。これによってマーカーは、トラッキングされるときに、調整によって選択的にオンに切り替えられ、別のマーカーがトラッキングされるときに、離調によってオフに切り替えられる。方法は、計算コアのデータスケジューリング(Data Scheduling)のモジュールによって制御されたフォトダイオードおよび光ファイバーを利用する。誘導的に連結されたコイルが、低励振パルス(例えば、図5Aにおいて1−2°)によって作動し、その結果、測定可能であった場合、周囲の組織が最小限に励起されて、あらゆる不要なバックグラウンド信号が除去されることに留意されたい。
別の態様では、ロボットを検出するための方法が提供される。基準マーカーの方法は、本明細書に記載されるように、ロボットの速い再構成RFM(t)を提供することができるが、3Dでロボット装置全体を検出するために、本明細書で多重投影の画像化(multiple projection imaging)(MPI)と呼ばれるMRパルスシーケンスが使用される。該手法によって、図3Aで概略的に描写されるように、スキャナー座標系の主平面上に厚いスラブの2D投影、PRXY(t)、PRYZ(t)およびPRZX(t)が収集され、それによって(whereupon)、対象は逆投影により再構成され得る。
図6Aは、球状ファントムに付けられた、Gd造影剤で充填した、チューブの画像化の結果を示す。T1強調のMPIは、170msの速度で2つの投影PRXY(t)およびPRZY(t)を収集した。新しい再構成アルゴリズムを使用して、チューブは、標準的なマルチスライスMRIから生成されたものとの優れた適合を有して、3Dで正確に再構成された。図6Bは、49ms/投影のより速い速度で収集された類似した再構成を示す。両方の場合において、2つの直角投影のみが収集されたが、第3のもの(third)も、再構成を向上させるために加えられ得る。そのときに、MPI再構成された対象からバーチャルロボットRPR(t)を生成することは容易である。
ロボットのみがMR画像において可視性であるときに、MRIの理想的な操作が達成される。これには、例えば、図4Aでのように、ロボット中のチャネルをガドリニウム造影剤で充填し、及び/又はチャネルをコイルで取り囲むことによって、バックグラウンド組織の信号を除去することが必要である。また、ロボットの正確な再構成のために、どれだけのMPI投影(およびどれくらいの頻度でそれらが収集されること)が十分であるかが決定されなければならない。基準マーカーは、ロボットの第一近似を提供するため、わずか1つまたは2つの2D投影だけを収集するので十分かもしれない。さらに、RFM(t)およびRPR(t)の精度に対する及びそれら両方を組み合わせることによって生成された複合体R(t)に対する、基準マーカーおよびMPIスケジューリングの効果が測定されるべきである。
この好ましい実施形態のさらに別の態様では、エンドエフェクタを搭載した局所領域のバイオセンシングのための方法が提供される。これによって、オペレーターは、手順の間に組織を局所的に問い合わせることができる。オペレーターは、組織を特徴づけることができる、例えば、悪性対良性を識別する、及び/又は腫瘍境界をより好適に定義する。また、オペレーターは、その表面の後ろの組織、即ち、可視光の内視鏡によりアクセス可能な境界を評価することができる。さらに、オペレーターは、局所領域のデータをロボットの座標系に、即ち、MRスキャナーの座標系に空間的に重ね合わせることができる。
例えば、図7Aで示されるように、エンドエフェクタは、局所化された高感度MRスペクトロスコピーまたは高解像度MRIのためのRFコイルを支持し、光誘起された蛍光(LIF)のための光センサーを支持し、およびUSセンサーを支持する。図7B−7Cは、局所領域のMRSの収集および登録のための小型の1.1mm Tx/RxのRFコイルを有するトランス針プローブ(trans−needle probe)を支持する、プロトタイプのMR適合性のロボットスキャナー、および放出のための2つの300ミクロンの光ファイバーおよび受信のための1つの300ミクロンの光ファイバーを有する内視鏡のLIFセンサーを描写する。LIFおよびMRSの自動化のインターリーブされた収集を管理するマイクロプロセッサーベースの制御を使用して、このロボットとともに走査が行われた。図7Dおよび7Eで示されるように、光データおよびMRSデータは、3つの区画ファントム(compartment phantoms)において化学薬品および代謝物の空間的分布に一致した。
これらのバイオセンシングの方法が、RFコイル、例えば、Rx、またはTx/Rxを必要とし、その中で、その感知領域(sensitive area)は、エンドエフェクタの走査を提供することが熟考される。パルスシーケンスは、検出の感知地域を減少させるために、外体積の抑制による変更を必要とし得る。また、AラインまたはM−モードの画像化などのために構成された、走査の間にLIFプローブを進行させるための機械的アセンブリおよび超音波プローブ、およびプローブを±90°回転させることで、画像化されたセクターの配向の選択を可能にするための手段が必要とされる。さらに、重ね合わせられたデータを融合させて、それらをHIMIを介してオペレーターに提示するためのアルゴリズムが必要とされる。図8は、ロボット制御およびスキャナー制御によるバイオセンシング間の相互接続を例証する。ロボット制御およびMRスキャナーのオンザフライ制御は、示される時点でスキームに組み込まれ得る。
さらに別の態様では、制御、画像化スキャナーおよびオペレーターを連結するための方法が提供される。アルゴリズムは、基準マーカーのトラッキングおよびMPIのインターリーブされた取得を可能にし、その結果、R(t)の生成において、一方が他方を補足する。最先端技術のMRスキャナーが、それらの外部制御をオンザフライで提供し、撮像面またはコントラスト機構の選択を提供するため、どの特定のパルスシーケンスが使用されるかをオンザフライで選択するように構成されているソフトウェアモジュールが必要とされる。これは、限られた数の実際のサンプルからの、動的な3D対象、例えばロボットの正確な生成を可能にする、インテリジェントな適応制御である。
アルゴリズムはまた、MRスキャナーに対するマルチモーダルデータの重ね合わせのために構成される。局所領域センサーは、エンドエフェクタの座標系{EE}上の既知位置にあり、エンドエフェクタ位置は、2つの最遠位のRFマーカー、A1およびA2(図3Aおよび7A)によってトラッキングされ、その後、局所領域センサーのソース/検出器の位置は、変換マトリックスT(t)を介してMR座標系{MR}に登録され得る。エンドエフェクタ座標系およびマトリックスT(t)は、ロボットが移動するにつれ時間とともに変化する。
さらに別の実施形態では、処置の領域(AoP)の画像ベースのバーチャルモデルが提供される。代替的に、処置の領域及び/又はロボットのビジュアル化は、撮像、バーチャルリアリティーシーン、向上したリアリティーシーンなど、あるいは任意の重ね合わせまたはそれらの組み合わせとして実施され得る。本明細書で提供されるように、ロボット制御およびHIMI、即ち、ビジュアル/FFIのためのAoPのオンザフライモデルは、継続的にアップデートされる。このモデルは、リアルタイムのMRデータに基づいており、入口地点から標的までのバーチャルな4D通路である、動的なガイダンス導管の形態で、ロボットR(t)と周囲環境を融合させ、その中でロボットは、不可欠な構造または健康組織と衝突することなく及びそれを傷つけることなく、安全に操縦することができる。高いオンザフライ更新率を達成するために、適切なMRデータが、収集されて、マルチスレッドのマルチコアプロセシングアーキテクチャによって処理されると、AoPのモデルの異なる時空間的な態様が継続的にアップデートされる。例えば、図9A−9Bは、弁形成(valvulopasties)のために左心室(LV)を横断する、肺尖を超える(trans−apical)アクセスを介する心臓内の処置のために、およびシミュレートされたバーチャルなスネーク様のロボットが含まれる心外膜アクセスを介する心臓の処置のために、49ms/画像でリアルタイムのMRI画像からガイダンス導管を生成することに起因する結果を例証する。
記載されるように、ロボットは、速いがそれほど頻繁ではないその全長の3D画像化によって補足された、限られた数の基準マーカーから検出およびトラッキングされる。同様に、MRは、協力的なトラッカーアルゴリズム(trackers algorithm)に基づいてMR画像から、およびMR 1D投影から、限られた数の点または境界点からの周囲の組織の動作をトラッキングために使用され得る。「境界点」は、FFIを介して、即ち、オペレーターに「専門家の」助言を提供して、ロボットの制御に対する入力の制約およびループ中の人間の制御に対する入力の制約の両方として利用される、動的なガイダンス導管を生成するために使用される。
この好ましい実施形態の1つの態様では、協力的なトラッカーアルゴリズムを利用して、境界点から周囲の組織の動作をトラッキングするための方法が提供される。境界点は、速い解剖学的画像から抽出され、その配向は、を含めるのに大急ぎで、特定のランドマークをトラッキングすることによってロボットおよび対象の周囲の組織を含むために、自動的にオンザフライでアップデートされる。協力的な粒子フィルタートラッカー(particle filter−trackers)のベイジアンネットワークに基づいて、このアルゴリズムは、突発的動作または形態の著しい変化に遭遇したときでさえ、ランドマークをトラッキングすることができる。例えば、アルゴリズムは、標準的なコンピューター上の25−40fpsの処理速度によって、LVの、前頂(apex)、中線、および大動脈弁の輪の基部をトラッキングすることができる。とりわけ、ランドマークのトラッキングのために、粒子フィルタリングに基づく協力的なトラッカーの方法は、非常に効率的に予測アップデートループ(predict−update loop)に適応することができる、強いモデリングのない、最適化されたトラッキング機構である。外科的処置、特に、心臓または腹部で生じる、取り組むために、突発的動作または大きな外観変更に対する単一粒子フィルタートラッカーの不安定性に対処するために、複数のパーティクルフィルタートラッカーを調整する協力的なトラッキングフレームワーク、および各時間工程で、どのトラッカーが失敗し、どのトラッカーが残ったかを決めるためのベイジアンネットワークの方法を含むプロセスが使用された。アルゴリズムは、マルチスレッドの計算コアへと統合される。協力的なトラッカーの方法およびアルゴリズムは、異なる外科的モデルに関係するリアルタイムの画像上で外科医によって選択されたランドマークをトラッキングするために利用され得、互いに傾斜したMRスライスのセットからの領域の3Dトラッキングに適応することができる。
別の態様では、MR画像の代わりに磁気共鳴投影を利用して、境界点からの周囲の組織の動作をトラッキングするための方法が提供される。MRは、図10Aで例証される、ナビゲーターエコーで行われるように、カラムセットから、例えば、限定されないが、傾斜してまたは垂直に、ロボットの過渡位置まで、1D SI信号などの信号を選択且つ取得することを可能にする。該方法では、実質的に任意の位置、サイズおよび配置のカラムが選択され得る。図10Bで示されるように、選択されたMRパルスシーケンスを使用して、90°のパルスは平面を選択するが、一方で180°のパルスは、カラムに属するスピンのみに集中する。その後、読み出し傾斜の存在下で、投影は、4−5ms/投影の速度を達成するカラムの軸に沿って生成される。
これらの方法を利用する際に、より広域なバンドが、信号対雑音比(SNR)を増加させるが、より多くの組織が平均化されることで解像度を低下させるために、SNRに対するカラム幅の効果および境界点を抽出する精度が考慮されなければならない。また、組織の動的モデルの精度に関するカラム/投影の数および位置が考慮されなければならない。該方法はまた、対象のランドマークを特定するための及びそれらの過渡位置を計算するためのSI処理アルゴリズムを必要とする。
代替的に、図10Cに例証されたようなパルスシーケンスは、シーケンスの同じ繰り返しで、即ち、1回の繰り返し時間TRで、共通のスライスを共有するすべてのカラムから投影を収集するために使用され得、それ故、データ取得の速度がさらに増す。一連のN 90°のパルスは、N斜面を励起し、共通の180°のパルスは、Nエコーを生成するカラムのすべてに再び焦点を合わせる。異なるカラムからの一連のエコーを達成するために、エコーの逆順序およびすべての軸に沿った傾斜の平衡を保つための要件が必要とされる。これらの方法は、協力的なトラッカーのための画像を収集するよりもはるかに速いが、対象のランドマークと明確に関係するSI特徴を投影が示す場合にのみ使用され得る。限定しない例において、該方法は、心臓の画像化に適用可能である。
さらに別の態様では、限られた数の境界点から動的なガイダンス導管を生成するための方法が提供される。4Dのガイダンス導管を生成することによって、最大の潜在的なリフレッシュレート(refreshing rates)で、ロボットの経路全体に沿った組織の広域を包含することが可能となる。これを達成するために、並列アルゴリズムが利用され、これは、我々の前述の準備作業後に拡張される。組織の領域の動作をモニタリングするために使用される組織の領域の初期の手動調剤の後に、並列アルゴリズムは、リアルタイムで以下を実行することができる:
1.境界点を抽出する。
用語「限定された(limited)」は、ほんの少数のトレース可能な点が、あらゆる例で実際に利用可能であることを示すために使用される。これらの点は、本明細書に記載されるように、協力的なトラッカーまたはMR投影からの境界点を利用する1つのまたは両方の方法からオンザフライで生成される。
2.補間点の数が各曲線(curve)上で変わらないように境界点上にスプラインを適合させることによる、動的制御の曲線の生成。境界点が動的であると、組織の自然な動作、またはその変位(displacement)に密着して、動的制御の曲線はこの特性を引き継ぐ。
3.境界から補間点を接続することによって動的なガイダンス導管(図10A−10B)を生成して、粗メッシュ(coarse mesh)を形成し、さらに、標的に対するロボットの安全な自動化または手動の操縦のための許容空間である、精錬されたメッシュを形成するように処理される。
4.本明細書に記載されるような、MRトラッキングからオンザフライで計算されたロボットモデルのアップデート、および図8に描写されるような、動的なガイダンス導管との融合。
さらに別の実施形態では、ロボット制御およびHIMIのためのバーチャルエンティティを生成するための方法が提供される。該方法は、標的とされる解剖学的構造、例えば、大動脈に対する入口または前頂の部位からのコンピューターで生成した4D管状構造である、動的アクセスのコリドーを生成し、その中で、介入ツールは、不可欠な構造または健康組織に衝突することなく、およびそれを傷つけることなく、安全に操作され得る。該方法はまた、動的なガイダンス軌道を生成し、それに沿って、ツールは、標的に安全且つ正確に達するように並べられるべきである。
例えば、経カテーテルの大動脈弁インプラント(transcatheter aortic valve implant)(TAVI)のパラダイムにおいて、動的モデルの生成には、ロボットが、LV、例えば、心内膜、僧帽弁尖または乳頭筋における構造を傷つけず、大動脈の輪の先端入口から標的中心までエンドエフェクタを誘導することが必要とされる。これらの動的モデルは、安全性および精度のためのロボットの制御、および力フィードバックのインターフェーシングを介する、即ち、オペレーターに「専門家の」助言を提供する、ループ中の人間の制御の両方を抑制するために使用される。
別の好ましい実施形態によると、処置の間の改善されたセンシングに対するオンザフライでのMRスキャナーの制御のためのソフトウェアモジュールがある。それは、取得パラメーターをオンザフライで変化させるための現在の臨床的なMRスキャナーの性能を使用し、この例は、以前にMR誘導の血管の介入において[8]、および改善された及び直観的なループ中の人間の制御のためのロボットと撮像面の時空間的な一致に対するロボットおよびMRスキャナーの最初の統合を記載した、Christoforou et alによって[9]、示されている。このモジュールの操作は、事象が引き起こした反応である:処置の間に生じる事象は、続いて収集されるMRデータのタイプを決定する。図11Aは、3つのプロセスによる提案されたモジュールを示す。
1.アクセスコリドーの幅または標的患部のサイズの持続した減少などの、変化の測定を計算するための、処置AoP(t)の画像が生成された動的モデル領域などの組織、およびロボットのRobotState(t)の運動学的ステータスなどのロボットに関係のある、プロセスデータ。
2.単純な条件付きのアルゴリズム法を使用して又は人工知能/機械学習アルゴリズムを使用して、上記の変化を、値域の形態の基準のリストと比較することによって引き起こす事象を特定する。
3.データベースから応答を選択し、新しい取得戦略、即ち、収集されるMRデータのタイプおよび周波数(MRAcq(t))を決定し、およびそれを、例として限定されないが、専用のTCP/IPを介して、MRスキャナーに送信する。
図11Bは、標的とされた患部(卵型)がツールの進行が原因で平面から出て移動する仮想症例のためのモジュールの操作の一例を例証する。本例では、患部が、自然現象が原因でサイズが変わることがないことが推定される(例えば、鼓動する心臓のLV)。これは、以前のサイズに対する、投影カラム(COLUMN1)の信号プロファイル上のその幅の減少を引き起こし、幾らかの繰り返しが持続された。このような変化によって、モジュールは、COLUMN2を以前のものに対して直交するように整える(order)。モジュールは、COLUMN2のプロファイルから、患部が再配置されたと特定するときに、COLUMN3およびインターリーブされたスライスのスライス(INTERL2)の両方の中心をアップデートする新しいMRAcq(t)に、患部の新しい位置と一致するように命令する。事象および応答のこのような事例の幾つかは、以下の通りである:(i)アクセスコリドーの持続した現象が心臓の収縮の間に観察されると、この領域においてCOLUMNの収集頻度を増加させるはずであり、(ii)ツールの遠位先端部が標的に達すると、(ツールに対する標的の軸のまわりの)放射パターンを収集し、MARKの周波数を増加させ、および(iii)SNRは、減少されると、COLUMNの幅を広げる。事象の包括的なリストは、基準および応答を含んで集められ得る。さらに、事象のカリブレイション(event calibration)が組み込まれる(即ち、どの程度の事象が何の反応を引き起こすか)。事象はまた、モジュールのアルゴリズムを向上させるために、重要度の順番に分類され得る。
さらに別の好ましい実施形態では、特定の組織境界の動作をモニタリングするために戦略的に配置される複数の投影による組織の動的トラッキングが提供される。例えば、図12Aおよび図12Bは、それぞれ、LVの心内膜および血管のための動的トラッキングを例証する。一態様では、図12Cで示されるように、画像化シーケンスが選択され、コントラスト差を生成するために、パラメーターが設定される。このコントラストは、外因性の造影剤の8注入によって生成され得る。点AJ、BJ、およびDJは、線LJおよびLJ+1で示される、投影から抽出され、これらはその後、対象の組織境界を生成するために組み合わせられる。別の態様では、図12Dで示されるように、「飽和バンド(saturation band)」などの、特別な磁化準備が、投影信号の形態を単純化するために、収集された投影の長さを制限するように適用され得る。
例えば、図13Aおよび図13Bは、投影のための利用可能なSNRおよびコントラスト差に対する事前解析を例証する。特に、オリジナルの動的MR画像は、投影線、および信号が統合される領域の幅を示す。信号のグラフは、LVおよび心筋に相当する2つの深みの左/右(deeps left/right)を例証する。
ロボット手術の制御のための方法が、図14に描写される。2Dのマルチスライスのマルチ配向のScout画像化/CINE1400に関して、手動の構成要素1410および自動化した構成要素1420がある。まず、手動で、平面1414、投影軸1412、および投影幅1413が、後に1415でグループ化される3D投影カラムの選択と同時に選択される。それから、自動化を使用して、MRパラメーターが計算される1421(即ち、パルス傾斜1421aおよび傾斜強度1421b)。その後続いて、MR取得パラメーターがアップデートされ1422、投影の動的取得が実行され1423、投影が分析され1424、および動的組織モデルが生成される1425。これらの工程の後、動的コリドーおよび軌道1426aが、動的力覚(dynamic haptic rendering)1426bとともに計算され、結果的に、それぞれ、ロボット制御1427aおよび力覚装置制御1427bにつながり、両方の計算1427a、bから、拡張現実感1428がもたらされる。
また、この好ましい実施形態では、図15Aおよび図15Bは、任意のカラム、および投影カラムの任意の配向が、それぞれ、共通のスラブに基づいていない及び基づいた投影カラムを選択するために、どのように利用され得るかを示す。例えば、図15Aは、共通のスラブがないときのカラムの任意の選択を例証する。共通のスラブがあるときには、任意のカラムが利用される。図15Bは、従来のスピンエコーに基づくパルスシーケンスが、エンコート傾斜を除去することによって変更され得、それ故、励起を配することができ、投影カラムの選択を可能にするパルス選択の傾斜およびRF送信周波数に再び焦点を当てる(180)。
特に、図16Aは、軸Yで共通のスライスから構成される2つの投影カラムの選択を例証する。周波数は、以下のパルスシーケンスに関係するRFパルス送信周波数に相当する。2つの投影カラムは、3つのスライス/スラブの共通の空間である。主スライスに対する任意の配向である3つの投影の選択は、図16Bに示される。3つの投影は、異なる配向で組織をモニタリングするのに有用である。
この好ましい実施形態では、図17A乃至図17Eは、タイプIのマルチ投影のパルスシーケンスおよびその傾斜バランスを例証する。図17Aで示されるように、このシーケンスは、以下のための3つのユニットを有する:1)スライスリフォーカス(slice refocusing)によるマルチスライス選択(X軸)、2)共通のスライスの選択による反転パルスのリフォーカス(Y軸)、および3)EPIのような、複数の読み出し列。傾斜は、傾斜の適用にためにX軸およびZ軸に沿って平衡を保たれる。図17B乃至図17Eは、タイプIのパルスシーケンスに対する傾斜の平衡を、絵を用いて示す。シーケンスは、同じ共通のスライス上に複数の領域を含むように拡張され得る。各スライス選択が、以下を対象とする、それ自体の独立した信号を生成することに留意することは重要である:a)後に適用される任意の傾斜、b)反転パルス、およびc)読み出し傾斜。また、図18A乃至図18Eは、タイプIIのマルチ投影のパルスシーケンスおよびその傾斜バランスを例証する。図18Aで示されるように、タイプIIのパルスシーケンスは、マルチスライス選択が、X軸上にスライスリフォーカスを有さない点で、タイプIとは異なる。図18B乃至図18Eは、タイプIIのパルスシーケンスに対する傾斜の平衡を例証する。代替的に、図18Fは、タイプIIのマルチ投影のパルスシーケンスを例証し、この中で、第1ユニットは、1)シングルスライス選択(X軸)および2)一列の反転パルスによるマルチスライス選択(Y軸)を利用することによって、図18Aにおけるユニット1および2とは異なる。
加えて、図19は、タイプIIIのマルチ投影のパルスシーケンスを例証する。パルスシーケンスは、高充填化された投影の集まりに関して描写されている(3つのみが示される)。このシーケンスは、Turbo Spin Echo様であり得る。
さらに別の好ましい実施形態では、ボリューム投影(volume projections)による高速動的3D画像化が提供される。例えば、デュアル投影MRI取得が利用され得る。3D再構成の生成には、2つの独立しているが相互に関係のあるプロセスを伴う。1つは、適切な投影の取得であり、もう1つは、3Dボリュームでの構造の再構成である。固有の「真の3D(true−3D)」の性能に由来して、MRIは、データの収集およびその投影からの画像化された構造の3D再構成の促進に一定の利点をもたらす。第一に、投影は、2つの投影間の変換の必要性を取り除く共通の軸を共有するように設定され得る。さらに、2つの投影上の空間符号化の固有の重ね合わせは、軸の割り当て(assignment of axes)および直通でのマッチング(matching straightforward)を行う。第二に、画像化されたボリュームの配向は、より好適に解消する(resolve)ために使用され得る構造に対する任意の配向に設定され得、再構成アルゴリズムの負荷を減少させる。第三に、投影面間の角度は、直交に限定されず、任意の所望の値に調整され得るか、そうでなければ、事前設定され得る。第四に、2つを超える平面が、複雑な又はかなり曲がった構造を解消するために使用され得る。
特定の態様では、2つの直角投影に基づいた取得スキームが利用され得る。デュアルエコーDPI Type Iに対して、これは達成され、図20A−図20Bで示されるように、2つの投影は、同じ位相エンコード工程および軸を共有する。各位相エンコード工程(軸Y)に関して、各投影に対して1つ、2つのエコーが収集され、読み出し傾斜は、従来の「スライス選択」(軸X)および「周波数エンコード」の方向(軸Z)に沿って適用される。スピンが第2エコーの前のk空間の起点にあることを確かなものとするために、読み出しディフェージング傾斜(read−out dephasing gradient)は、第1エコーの読み出し軸に沿って繰り返される。図20C−図20Dで示される、シングルエコーDPI Type IIは、2つの(またはそれ以上の)投影を独立して同時に収集する。
2つの投影からの三次元再構成は、デュアル平面の蛍光透視法からの血管の再構成に使用される、よく研究された問題である。一般的な場合において、透視画像化では、2つの投影は互いに直交しておらず、対応するFOVの中心は同一ではない。これらの場合では、一連の変換が、2つの投影を参照の共通の座標系に重ね合わせるために適用される。続いて、構造は、例えば、スプラインを使用して、抽出され、再構成される。
MRIにより、2つの投影は、既に固有に重ね合わせられ、記載されるパルスシーケンスにより、FOVの中心およびサイズは、同一に設定される。2つの投影のFOVの固有の重ね合わせおよび同時発生は、結果として単純な幾何学的問題をもたらす。第1投影は、共通の位相軸(Y)および第1周波数エンコード軸(Z)に沿った画像化された構造の空間的情報を含んでいる。第2投影は、共通の位相エンコード軸(Y)および第2周波数軸(X)上に画像化された対象の空間的情報を含んでいる。それ故、2つの投影は、共通の位相エンコード方向に沿って一致される。この特性から、再構成の方策が考案され得る。SIが0より大きい各空間位置Yに関して、両方ともSIが0より大きい、XおよびYの空間位置を特定する。これは、結果的にオリジナルの構造となる。このプロセスに幾何学的に等価なのは、3D空間において2つの投影を逆投影し、それらの共通の空間を計算することである。
3D構造を画像化および再構成するデュアル投影を使用することは、かなり単純で容易な手法であるが、一定の構造的配置を解消することはできない。特に、構造が、共通の取得軸、即ち、位相エンコード軸に直交する平面上にあるときに、構造の2つの投影を使用する特有の解決策はない。
図21に示されるように、3D再構成スキームが実施された。一般に、アルゴリズム工程2100は、マスク2110の生成、投影のクリーンアップ(clean−up)2120、位相軸の割り当て(assignment)2130、読み取り軸の割り当て2140、ボリューム再構成2150、およびビジュアル化の透明性(transparency)2160を伴う。より具体的には、これには以下が伴う:1)FOVの中心およびサイズ、および取得マトリックスのサイズに基づいた、2つの投影により取得した3Dボリュームの定義;2)両方の投影におけるコントラストが増強された構造の区分化および対応する空間的マスクの生成;3)2つのマスクの3Dボリュームへの逆投影;および4)論理AND論理演算子によって定義された2つの逆投影の共通空間の計算。このアルゴリズムは、バックグラウンド信号が、十分に飽和されるという仮説に基づいており、それ故、2つの2D投影画像から画像化された構造を区分化することが可能である。
2つの投影は、最初に、高い構造対バックグラウンドのコントラストに基づいて閾値化し、次に、端線検出を適用することによって区分化された。区分化の結果は、2つの2Dマスクであった。その後、これらのマスクは、3Dボリュームでそれらの平面に直交して拡張された。その後、3Dボリュームで共通空間を定義するために、それらの間の共通空間は、論理AND演算子によって定義された。
一例では、DPIシーケンスは、静的な及び移動する血管を模倣するファントム(vessel−mimicking phantoms)について評価された。具体的には、再構成アルゴリズムは、最初に、食塩水または部分的な食塩水およびガドリニウムを充填された球体上に取り付けられた、Gdが充填された(3%のGd)チュービング(tubing)(i.d.=3.1mm)で試験された。まず、マルチスライスのセットが、標準的な傾斜再呼出しエコー(GRE)シーケンス(TR/TE/a=5.47ms/1.65ms/50°;スライス=2.5mm FOV=250x250mm;マトリックス=256x256)を参照して収集された。その後、DPI画像化が、磁化を準備した(magnetization prepared)デュアルエコー(TR/TE1/TE2/50°=5.47ms/1.65ms/3.59ms/50°;スライス=250mm FOV=250x250mm;マトリックス=256x256)およびシングルエコー(TR/TE1/TE2/50°=5.47ms/1.65ms/3.59ms/50°;スライス=250mm FOV=250x250mm;マトリックス=256x256)のシーケンスを用いて実行された。
不要なバックグラウンド信号を除去するために、磁化準備は、長い(long)T1>250msで広範囲の種を抑止するために、飽和パルスに続いて、2つの反転パルスから構成される磁化準備によって、それぞれ、16ms、101msおよび67msの中間パルスの遅延とともに、実行された。シーケンスは、移動する血管を模倣するチュービングの画像化のために試験された。Gdを充填されたチューブは、7自由度のMR適合性のマニピュレーターのエンドエフェクタ上に付けられた。3D再構成は、Matlabにおいて開発されたソフトウェアを使用して、上に記載されるアルゴリズムによってオフラインで実行された。特に、図22A−図22Cは、1.2分の取得時間の間にマルチスライスのセットから再構成された構造およびロボットの画像を示す。
また、この好ましい実施形態では、デュアル投影の画像化は、インターリーブされた画像化プロトコルに組み込まれ得る。例えば、図23に示されるように、タイミングダイアグラムは、タイムシェアリング(time−sharing)のMRプロトコルおよび「先着順サービス」の再構成のために例証される。異なるブロックは異なるパルスシーケンスに対応し、これには、リアルタイムのアップデートのために、直接(緑の矢印)または区分化された取得を要求した後に(赤い矢印)高速フーリエ変換される(FFT−ed)か、またはデータ抽出に使用され(青の矢印)、その後、GUIにおいてIOE出力をリフレッシュするために送られる(黒の矢印)、データの収集が挙げられる。撮像面は、動的にアップデートされる(ピンクの線)。したがって、重要なことに、再構成およびIOEのアップデートが、「先着順サービス」の方法で生じる。
さらに、図24A−図24Bで示されるように、タイミングダイアグラム、およびタグ付けパルス角対所望のTIの依存性が描写される。タグ付けパルスの適用は、すべての3つのタグが、同じTIを受けるように設定され得る。CPUタイムラインは、投影のFFT、タグ付け位置およびJタグ付けパルスの放射周波数の計算(wX,J+1、wY,J+1およびwZ,J+1)、スキャナーに対する放射周波数のダウンロード、および次のサイクルJ+2の訂正の予測を含む、処理の構成要素を示す。タイミング画像化プロトコルは、図24C−図24Eで示される画像化の処置で例証されるような複数のパルスシーケンスを組み合わせることができる。
この好ましい実施形態ではまた、統合操作環境(IOE)の組織は、センサー(MRI)、ロボットおよびオペレーターをシステムへとシームレスにリンクする、MR誘導の及びロボット支援の処置のための計算フレームワークを例証する、図25で描写される。IOEは、異なる率でリフレッシュされる、マルチモーダルのMRデータのストリーム、即ち、本明細書に記載される、異なるMRパルスシーケンスとは異なる情報を使用する。その操作は、簡単で、計算上効率的な手法(「ローリングウィンドウ(rolling window)」)であり:MRデータセットは、収集されると、同じモードの前のデータセットに取って代わり、AoPシーンをアップデートするためにデータの残りを用いて使用される。IOEは、ロボット制御および拡張する(augmenting)ヒューマンインターフェーシングの両方に使用するために、これらのマルチモーダルのデータが、どの形態で表わされるかに対処する。IOEは、バーチャルな制約またはフィクスチャー(fixtures)を使用し、「アクセスコリドー」の形態で、AoP(AoP(t))の動的モデルを生成するために、マルチモーダルのMRデータの連続フィードを組み込むこのコンセプトを拡張する。これは、入口の部位から標的とされる解剖学的構造へと拡張する4D構造である。その中で、ロボットは、安全に、即ち、不可欠な構造または健康組織と衝突することなく又はそれを傷つけることなく、操縦することができ、正確に標的に達するか、または介入を送達するために対象上に(on−target)とどまることができる。その後、アクセスコリドー上でレンダリングされた情報は、ロボット制御に使用され、HIMIによって使用される。IOEは、本明細書に記載される複数の方法からアクセスコリドーを生成するために、マルチモーダルのMRデータをどのように処理するかについて対処し:RFコイルマーカー(MARK)は、点を生成し、投影カラム(COLUMN)は、1D投影を生成し、およびインターリーブされたスライス(INTERL)は、2D画像を生成する。IOEは、すべての方法に十分に適合し、アルゴリズムの実施を統一するため、トラッカー点を生成する。最終的に、IOEは、AoPの変化に基づいてMRデータ取得の方策をオンザフライでアップデートするために、事象が引き起こした反応(図11の実施形態を参照)を使用する。上述の手法は、専用のスレッド上で実行する、ソフトウェアモジュールの形態で実施され、図25で示されるように、フレームワークにおいてそれらを相互にリンクし、以下を行うように構成される:
リアリタイムのマルチモーダルのMRデータフィードMRData(t)を処理する、および組織およびロボットに関係のあるすべてのMR生成された情報を暗に記載する、4DアクセスコリドーAoP(t)を生成する:
AoP(t)を使用して、(1)オペレーター命令OPIN(t)が、ロボットの動作がアクセスコリドーと衝突せず、標的に正確に近づくという結果になるかどうかを評価することによって、および(2)ロボットRobotState(t)のための、および力フィードバックインターフェースOPGUIDE(t)のための指示を生成することによって、安全性および精度のためにロボット動作を制約する、動作フィルタリング(§5.3.3)を適用する:
力フィードバック(FFI)およびビジュアル(VI)インターフェースを介して、オペレーターに生成された情報をレンダリングすることによってループ中の人間の制御を拡張する:
新しいMRデータ取得の方策を必要とする、組織(MRData(t))およびロボット(RobotState(t))の変化を特定し、新しい方策(ScannerState(t))を選択し、およびスキャナーにそれを送信する:
ロボット制御のためにRobotState(t)に対する指示を生成する。
以下の参考文献は、本明細書で引用される:
1.Dumoulin et al. Magn Reson Med, 29:411−415 (1993).
2.Zhang et al. Magn Reson Med, 44:56−65 (2000).
3.Wong et al. J Magn Reson Imaging, 12:632−638 (2000).
4.Flask et al. J Magn Reson Imaging, 14:617−627 (2001).
5.A.E. Sonmez and N.V. Tsekos, An approach for Robot−Assisted Multimodal Biosensing and Imaging, in: Innovations in Cancer Prevention and Research Conference, Austin, TX, 2011.
6.Sonmez et al. IEEE International Conference on Robotics and Automation, Shanghai, China, pp. 1133 − 1138 (2011).
7.Sonmez et al. International Society for Magnetic Resonance in Medicine (ISMRM) Joint Annual Meeting, pp. 3771 (2009).
8.Wacker et al. AJR Am J Roentgenol, 183:391−395 (2004).
9.Christoforou et al. Magn Reson Imaging, 25:69−77 (2007).
本発明は、本発明に固有の目的および利点と同様に、言及される目的および利点も達成するように十分に適応されている。上に開示された特定の実施形態は、単に例示目的であり、本発明は、本明細書の教示の恩恵を有している当業者に明白である、異なるが同等な方法で修正および実施され得る。さらに、本明細書に示される構成または設計の詳細に対しての限定は、以下の請求項に記載される以上には意図されない。それ故、上に開示された特定の例示的な実施形態が変更または修正され得ること、およびすべてのそのような変動が、本発明の範囲および精神内で考慮されることは明らかである。また、請求項での用語は、他に明確に示されない限り及び特許権者によって明確に定義されない限り、その明白な、通常の意味を有する。

Claims (43)

  1. 外科的処置の間のロボットのインサイツでのリアルタイムの画像化ガイダンスのためのコンピューターシステムであって、メモリー、プロセッサーおよび少なくとも1つのネットワーク接続を有する、少なくとも1つのコンピューター中に:
    画像化モダリティ、医療用ロボットおよびそのオペレーターをリンクする複数のインターフェースを介して、画像化モダリティ、医療用ロボットおよびそのオペレーターに手術中にリンクするように構成された複数のモジュール、を含むコンピューターシステム。
  2. 複数のモジュールが、少なくとも1つの:
    外科的処置の間に画像化モダリティを制御するように構成されたモジュール;
    重ね合わせられたロボットツールまたは介入ツールをトラッキングするように構成されたモジュール;
    対象の組織をトラッキングするように構成されたモジュール;
    画像化モダリティから及びロボットから取得したデータを処理するように構成されたモジュール;
    患者の身体外および身体内でロボットの安全且つ正確な動作のための動的な経路またはコリドーを生成するように構成されたモジュール;
    ロボット、および取得データから生成された処置の領域をビジュアル化するように構成されたモジュール;および
    ヒューマン−マシンインターフェースを可能にするために力フィードバック装置または触覚装置を利用するように構成されたモジュール、を含むことを特徴とする、請求項1に記載のコンピューターシステム。
  3. 複数のマルチモーダルセンサーをロボットおよび画像化モダリティと重ね合わせるように構成されたモジュールをさらに含むことを特徴とする、請求項2に記載のコンピューターシステム。
  4. 画像化モダリティの制御モジュールが、外科的処置の間に、
    組織およびロボットのステータスに関するデータを処理する;
    その変化を計算する;
    データ取得の変化を引き起こす事象を特定する;
    事象に対する応答を選択し、それに基づいて画像取得の方策を立てる;
    および画像取得の方策を画像化モダリティに送信する、プロセッサー実行可能命令を可能にすることを特徴とする、請求項2に記載のコンピューターシステム。
  5. 引き起こす事象が、変化を形態の範囲の値のリストとアルゴリズム的に比較する命令を介して特定されることを特徴とする、請求項4に記載のコンピューターシステム。
  6. 組織をトラッキングするモジュールが、
    画像化モダリティで画像化シーケンスを選択し、組織内にコントラスト差を生成するパラメーターを設定する;
    画像化中に得られた1つ以上の信号強度または画像投影から対象の少なくとも1つの観察可能な組織境界を生成する;および
    外科的処置の間に組織境界の動作を動的にモニタリングする、プロセッサー実行可能命令を可能にすることを特徴とする、請求項4に記載のコンピューターシステム。
  7. 組織境界が、処置の領域の組織のまわりの境界または医療用ロボットのアクセス経路に近位の組織のまわりの境界またはその両方を含むことを特徴とする、請求項6に記載のコンピューターシステム。
  8. 前記組織をトラッキングするモジュールが、選択命令の前またはその間に、外因性造影剤を組織に注入する、プロセッサー実行可能命令をさらに可能にすることを特徴とする、請求項7に記載のコンピューターシステム。
  9. ロボットをトラッキングするモジュールが、
    ロボットの近位に配された及び画像化モダリティに連結された複数のマーカーの1つ以上を検出する;および
    画像化モダリティの座標系に対するマーカーの座標を抽出して、ロボットの位置を決定する、プロセッサー実行可能命令を可能にすることを特徴とする、請求項2に記載のコンピューターシステム。
  10. ビジュアル化モジュールが、
    ロボット用の各局所化工程に対する単一のマーカーの位置のみを検出する、プロセッサー実行可能命令を可能にすることを特徴とする、請求項2に記載のコンピューターシステム。
  11. 複数のインターフェースの1つが、医療用ロボットおよび画像化モダリティのオペレーターによる手動制御を可能にすることを特徴とする、請求項1に記載のコンピューターシステム。
  12. 複数のモジュールが、オンザフライで作動することを特徴とする、請求項1に記載のコンピューターシステム。
  13. 画像化モダリティが、磁気共鳴画像法または分光法またはその組み合わせ、超音波画像診断、X線コンピューター断層撮影法、X線乳腺撮影法、光学撮像、あるいはビデオ撮像であることを特徴とする、請求項1に記載のコンピューターシステム。
  14. 外科的処置の間の、ロボットのインサイツでのリアルタイムの画像化ガイダンスのためのコンピューターで実施される方法であって、該方法は、
    請求項1のコンピューターシステムにおいて手術中に、
    組織および医療用ロボットの現状ステータスを得るためにデータを処理する工程;
    処置の領域またはロボットのアクセス経路に近位の領域またはその両方を含む少なくとも1つの組織境界を生成する工程;
    処置の領域にわたる組織境界の動作を動的にモニタリングする工程;および
    ロボットの近位に配された及び画像化モダリティに連結された複数のマーカーの個々の可視性に基づき、処置の領域に準拠してロボットまたはそれを含む介入ツールの位置をトラッキングする工程、を含むことを特徴とするコンピューターで実施される方法。
  15. 処置の領域およびロボットがモニタリングされる且つトラッキングされると、システムのオペレーターのためにそれらのビジュアル化をもたらす工程をさらに含むことを特徴とする、請求項14に記載のコンピューターで実施される方法。
  16. ビジュアル化が、ビジュアル画像、モデル、バーチャルリアリティーシーン、向上したリアリティーシーンまたはそれらの重ね合わせまたは組み合わせを含むことを特徴とする、請求項15に記載のコンピューターで実施される方法。
  17. ロボットおよび画像化モダリティの座標系と重ね合わせられた複数のマルチモーダルセンサーの1つ以上から処置の領域の画面を生成する工程をさらに含むことを特徴とする、請求項15に記載のコンピューターで実施される方法。
  18. 処理する工程が、
    組織およびロボットのステータスに対する変化を計算すること;
    データ取得の変化を引き起こす事象を特定すること;
    アルゴリズム的に、変化を形態の範囲の値のリストと比較すること;
    値の比較に基づいて事象に対する応答を選択すること;および
    画像化モダリティに送信される応答に基づいて画像取得の方策を立てること、を含むことを特徴とする、請求項14に記載のコンピューターで実施される方法。
  19. 生成する工程が、
    画像化モダリティで画像化シーケンスを選択すること;
    組織内でコントラスト差を生成するためのパラメーターを設定すること;および
    画像化中に得られた1つ以上の画像投影から対象の少なくとも1つの組織境界を生成すること、を含むことを特徴とする、請求項14に記載のコンピューターで実施される方法。
  20. 組織境界を生成する前またはその間に、外因性造影剤を組織に注入する工程をさらに含むことを特徴とする、請求項19に記載のコンピューターで実施される方法。
  21. トラッキングする工程が、
    画像化モダリティの座標系に対するロボットまたは介入ツール上へのマーカーの座標を抽出して、局所化工程の間にその位置を検出することを含み;
    ここで、単一のマーカー位置のみが、ロボットのトラッキング中に局所化工程のために検出されることを特徴とする、請求項14に記載のコンピューターで実施される方法。
  22. 単一のマーカー位置のみが局所化工程中に検出されることを特徴とする、請求項21に記載のコンピューターで実施される方法。
  23. 実行されたときに、請求項14の方法の工程を可能にする計算システムにおける行動を実行するコンピューター実行可能命令を保存する、非一時的なコンピューター読み取り可能なデータ記憶媒体。
  24. 請求項23の非一時的なコンピューター読み取り可能なデータ記憶媒体で明確に具体化された、コンピュータープログラム製品。
  25. 磁気共鳴画像誘導およびロボット支援の手術システムであって、
    少なくとも1つのコンピュータープロセッサー;
    少なくとも1つのコンピューターメモリー;
    システムに登録可能なロボットまたはそれを含む介入ツールを含む1つ以上のロボット構造;
    ロボットとともに登録された磁気共鳴スキャナー;および
    コンピュータープロセッサーとコンピューターメモリーとのオンザフライ操作のために構成された複数のモジュールであって、
    患者においてロボットおよび対象の組織に関するすべてのMR生成したデータを記載する;
    処置の領域において組織境界を確立する;
    MRスキャナーを介して、またはロボットを含む及び患者の身体外または身体内に配された1つ以上のマルチモーダルセンサーを介して、組織境界の動作を動的にモニタリングする;
    処置の領域に準拠してロボットの位置をトラッキングする;
    生成されたデータをシステムのオペレーターに送信する;
    生成されたデータからロボットの制御およびトラッキングのための命令を生成する;
    オペレーターのために外科的処置の間に処置の領域およびロボットの画面をもたらす;および
    ロボット、スキャナー、モジュールおよびオペレーター間で複数のインターフェースを確立する、プロセッサー実行可能命令を可能にする複数のモジュールを含む、システム。
  26. 複数のモジュールが、マルチモーダルセンサーを介して取得したデータから、処置の領域の4D画面を生成且つビジュアル化する、プロセッサー実行可能命令を可能にするようにさらに構成されることを特徴とする、請求項25に記載のシステム。
  27. マルチモーダルセンサーが、磁気共鳴スキャナーを含む座標系と重ね合わせられることを特徴とする、請求項26に記載のシステム。
  28. すべてのMR生成データを記載する命令が、
    組織およびロボットのステータスに関するデータを処理する;
    その変化を計算する;
    アルゴリズム的に、前記変化を形態の範囲の値のリストと比較する命令を介して、データ取得の変化を引き起こす事象を特定する;
    事象に対する応答を選択し、それに基づいてMR画像取得の方策を立てる;および
    MR画像取得の方策をMRスキャナーに送信する、ように作動することを特徴とする、請求項25に記載のシステム。
  29. 組織境界を確立する命令が、
    必要に応じて、外因性造影剤を、随意に組織に注入する;
    MR画像化シーケンスを選択し、組織内にコントラスト差を生成するパラメーターを設定する;および
    磁気共鳴画像法の間に得られた1つ以上の画像投影から組織境界を生成する、ように作動することを特徴とする、請求項25に記載のシステム。
  30. ロボットの位置をトラッキングする命令が、
    ロボットの近位に配された及びMRスキャナーの座標系と重ね合わせられた複数のマーカーのオン/オフのステータスに基づき、処置の領域に準拠してロボットの位置をトラッキングする;および
    ロボット動作を制約するために動作フィルタリングを適用する、ように作動することを特徴とする、請求項25に記載のシステム。
  31. ロボットの位置をトラッキングする命令が、MRスキャナーの座標系に対する複数のマーカーの座標を抽出して、その位置を検出するように作動し;ここで、単一のマーカー位置のみが、ロボットのトラッキング中に局所化工程のために検出されることを特徴とする、請求項30に記載のシステム。
  32. 複数のインターフェースの少なくとも1つが、ロボットおよびMRスキャナーのオペレーターによる手動制御を可能にすることを特徴とする、請求項25に記載のシステム。
  33. 複数のモジュールが、組織間の又は組織とロボットとの間の境界をモニタリングするために少なくとも1つの信号強度の投影を生成する、プロセッサー実行可能命令を可能にするようにさらに構成されることを特徴とする、請求項25に記載のシステム。
  34. 少なくとも1つの信号強度を生成する命令が、
    高周波パルシングを介して投影の選択方向に沿った少なくとも1つの3Dカラムに含まれる組織を刺激する;
    磁場傾斜を操作する;
    MRスキャナーから未加工データを取得する;および
    未加工データから信号強度の1D投影を生成する、ように作動することを特徴とする、請求項25に記載のシステム。
  35. 1つを超える3Dカラムが平面を含む場合、モジュールが、複数の高周波パルスを送り、それによって取得率を増加させる、命令を可能にすることを特徴とする、請求項34に記載のシステム。
  36. 複数のモジュールが、患者の身体を含む自然の管状構造およびロボットまたは介入ツールを含む人工の管状構造を画像化するように構成されることを特徴とする、請求項25に記載のシステム。
  37. 自然および人工の管状構造を画像化する命令が、
    造影剤を該構造へと注入または充填する;
    造影剤を有する構造を含む3Dボリュームの少なくとも1つの2D投影を取得する;および
    2D投影から3D画像を生成する、ように作動することを特徴とする、請求項36に記載のシステム。
  38. 少なくとも2つの2D投影が得られるときに、前記投影が、互いに対して任意の角度であることを特徴とする、請求項37に記載のシステム。
  39. 2D投影を取得するために使用される、選択された順序の高周波パルスおよび磁場傾斜パルスが、造影剤を含まない構造から信号を少なくとも減少させることを特徴とする、請求項37に記載のシステム。
  40. ロボット制御のための命令が、MR画像ガイダンス下での2D投影の取得のためのロボットの手動オペレーター制御および自動化制御を可能にするように作動することを特徴とする、請求項25に記載のシステム。
  41. ロボット制御のための命令が、
    手動オペレーター制御を介して:
    少なくとも1つの平面、少なくとも1つの投影軸、および投影幅を選択する;および
    付随的に、3D投影カラムを選択し、それをグループ化する;および
    自動制御を介して:
    パルス傾斜および傾斜強度を含む磁気共鳴取得パラメーターを計算する;および続いて
    取得パラメーターをアップデートする;
    投影を動的に取得する、および分析する;および
    動的組織モデルを生成する;および
    ロボットを制御することによって動的なコリドーおよび軌道を計算する;
    触覚装置の動的なレンダリングを計算する;および
    それから画像ガイダンスの拡張現実感を生成する、ように作動することを特徴とする、請求項40に記載のシステム。
  42. 請求項25の複数のモジュールを含むコンピューター実行可能命令を保存する、非一時的なコンピューター読み取り可能なデータ記憶媒体。
  43. 請求項42の非一時的なコンピューター読み取り可能なデータ記憶媒体で明確に具体化された、コンピュータープログラム製品。
JP2015529961A 2012-08-27 2013-08-27 ロボット装置およびシステムソフトウェア、ハードウェア、および画像誘導手術およびロボット支援手術に使用するための方法 Pending JP2015527144A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261693534P 2012-08-27 2012-08-27
US61/693,534 2012-08-27
PCT/US2013/056903 WO2014036034A1 (en) 2012-08-27 2013-08-27 Robotic device and system software, hardware and methods of use for image-guided and robot-assisted surgery

Publications (2)

Publication Number Publication Date
JP2015527144A true JP2015527144A (ja) 2015-09-17
JP2015527144A5 JP2015527144A5 (ja) 2016-10-13

Family

ID=50148674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015529961A Pending JP2015527144A (ja) 2012-08-27 2013-08-27 ロボット装置およびシステムソフトウェア、ハードウェア、および画像誘導手術およびロボット支援手術に使用するための方法

Country Status (13)

Country Link
US (1) US9855103B2 (ja)
EP (1) EP2887884B1 (ja)
JP (1) JP2015527144A (ja)
KR (1) KR20150060735A (ja)
CN (1) CN104780849B (ja)
AU (1) AU2013308959A1 (ja)
BR (1) BR112015004353A2 (ja)
CA (1) CA2883469A1 (ja)
HK (1) HK1211821A1 (ja)
MX (1) MX2015002537A (ja)
RU (1) RU2015110976A (ja)
WO (1) WO2014036034A1 (ja)
ZA (1) ZA201502007B (ja)

Families Citing this family (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
WO2015010189A1 (en) 2013-07-24 2015-01-29 Centre For Surgical Invention & Innovation Multi-function mounting interface for an image-guided robotic system and quick release interventional toolset
FR3010628B1 (fr) 2013-09-18 2015-10-16 Medicrea International Procede permettant de realiser la courbure ideale d'une tige d'un materiel d'osteosynthese vertebrale destinee a etayer la colonne vertebrale d'un patient
FR3012030B1 (fr) 2013-10-18 2015-12-25 Medicrea International Procede permettant de realiser la courbure ideale d'une tige d'un materiel d'osteosynthese vertebrale destinee a etayer la colonne vertebrale d'un patient
US9721379B2 (en) * 2014-10-14 2017-08-01 Biosense Webster (Israel) Ltd. Real-time simulation of fluoroscopic images
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US20160314621A1 (en) 2015-04-27 2016-10-27 David M. Hill Mixed environment display of attached data
US10007413B2 (en) 2015-04-27 2018-06-26 Microsoft Technology Licensing, Llc Mixed environment display of attached control elements
US9916506B1 (en) 2015-07-25 2018-03-13 X Development Llc Invisible fiducial markers on a robot to visualize the robot in augmented reality
US9919427B1 (en) 2015-07-25 2018-03-20 X Development Llc Visualizing robot trajectory points in augmented reality
KR20170074435A (ko) 2015-12-22 2017-06-30 삼성전자주식회사 엑스선 영상 장치, 그 제어 방법 및 엑스선 디텍터
US20190088162A1 (en) * 2016-03-04 2019-03-21 Covidien Lp Virtual and/or augmented reality to provide physical interaction training with a surgical robot
CN105877846B (zh) * 2016-03-30 2018-05-08 佳木斯大学 口腔诊疗机器人系统及其控制方法
EP3323565B1 (de) * 2016-11-21 2021-06-30 Siemens Aktiengesellschaft Verfahren und vorrichtung zur inbetriebnahme eines mehrachssystems
AU2018255892A1 (en) * 2017-04-21 2019-11-07 Medicrea International A system for providing intraoperative tracking to assist spinal surgery
CN107225561A (zh) * 2017-06-02 2017-10-03 成都福莫斯智能系统集成服务有限公司 基于mr技术的机器人手臂控制方法
US10678338B2 (en) 2017-06-09 2020-06-09 At&T Intellectual Property I, L.P. Determining and evaluating data representing an action to be performed by a robot
CN111164522B (zh) * 2017-09-30 2023-05-16 西门子股份公司 设计具有可重复使用技能的自主系统
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11026712B2 (en) 2017-10-30 2021-06-08 Cilag Gmbh International Surgical instruments comprising a shifting mechanism
FR3073135B1 (fr) * 2017-11-09 2019-11-15 Quantum Surgical Dispositif robotise pour une intervention medicale mini-invasive sur des tissus mous
CN111343941A (zh) * 2017-11-13 2020-06-26 皇家飞利浦有限公司 机器人工具控制
US10918422B2 (en) 2017-12-01 2021-02-16 Medicrea International Method and apparatus for inhibiting proximal junctional failure
EP3496038A1 (en) * 2017-12-08 2019-06-12 Koninklijke Philips N.V. Registration of static pre-procedural planning data to dynamic intra-procedural segmentation data
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11013563B2 (en) 2017-12-28 2021-05-25 Ethicon Llc Drive arrangements for robot-assisted surgical platforms
US11166772B2 (en) 2017-12-28 2021-11-09 Cilag Gmbh International Surgical hub coordination of control and communication of operating room devices
US11109866B2 (en) 2017-12-28 2021-09-07 Cilag Gmbh International Method for circular stapler control algorithm adjustment based on situational awareness
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US10758310B2 (en) 2017-12-28 2020-09-01 Ethicon Llc Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices
US11389164B2 (en) 2017-12-28 2022-07-19 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US20190201130A1 (en) * 2017-12-28 2019-07-04 Ethicon Llc Communication of data where a surgical network is using context of the data and requirements of a receiving system / user to influence inclusion or linkage of data and metadata to establish continuity
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US11786251B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11744604B2 (en) 2017-12-28 2023-09-05 Cilag Gmbh International Surgical instrument with a hardware-only control circuit
US11672605B2 (en) 2017-12-28 2023-06-13 Cilag Gmbh International Sterile field interactive control displays
US11771487B2 (en) 2017-12-28 2023-10-03 Cilag Gmbh International Mechanisms for controlling different electromechanical systems of an electrosurgical instrument
US11612444B2 (en) 2017-12-28 2023-03-28 Cilag Gmbh International Adjustment of a surgical device function based on situational awareness
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11132462B2 (en) 2017-12-28 2021-09-28 Cilag Gmbh International Data stripping method to interrogate patient records and create anonymized record
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11818052B2 (en) 2017-12-28 2023-11-14 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
US10517681B2 (en) * 2018-02-27 2019-12-31 NavLab, Inc. Artificial intelligence guidance system for robotic surgery
US11464532B2 (en) 2018-03-08 2022-10-11 Cilag Gmbh International Methods for estimating and controlling state of ultrasonic end effector
US11090047B2 (en) 2018-03-28 2021-08-17 Cilag Gmbh International Surgical instrument comprising an adaptive control system
US11839460B2 (en) * 2018-06-06 2023-12-12 DePuy Synthes Products, Inc. Device and method to detect and remove blood clots for treatment of ischemic stroke using force and electromagnetic sensing
US10413364B1 (en) 2018-08-08 2019-09-17 Sony Corporation Internal organ localization of a subject for providing assistance during surgery
US11475630B2 (en) * 2018-10-17 2022-10-18 Midea Group Co., Ltd. System and method for generating acupuncture points on reconstructed 3D human body model for physical therapy
WO2020100015A1 (en) * 2018-11-15 2020-05-22 Comofi Medtech Private Limited System for renal puncturing assistance
CN113395945A (zh) * 2018-12-11 2021-09-14 项目莫里股份有限公司 用于机器人导管和其他用途的用户界面和模拟系统的混合维增强现实和/或配准
CN109512509B (zh) * 2018-12-27 2020-07-03 中国科学院深圳先进技术研究院 一种机器人的柔顺控制方法、装置及设备
US11291445B2 (en) 2019-02-19 2022-04-05 Cilag Gmbh International Surgical staple cartridges with integral authentication keys
US11925417B2 (en) 2019-04-02 2024-03-12 Medicrea International Systems, methods, and devices for developing patient-specific spinal implants, treatments, operations, and/or procedures
US11877801B2 (en) 2019-04-02 2024-01-23 Medicrea International Systems, methods, and devices for developing patient-specific spinal implants, treatments, operations, and/or procedures
EP3799063A1 (en) * 2019-09-26 2021-03-31 Siemens Healthcare GmbH Mri imaging with interleaved white marker contrast projections for ai-based passive device tracking
US11769251B2 (en) 2019-12-26 2023-09-26 Medicrea International Systems and methods for medical image analysis
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
CN115136254A (zh) * 2020-02-18 2022-09-30 皇家飞利浦有限公司 用于对体内治疗设备的部署状态进行可视化的医学成像系统、设备和方法
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US20220015841A1 (en) * 2020-07-15 2022-01-20 Orthosoft Ulc Robotic device and sterilization unit for surgical instrument
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
WO2022055588A1 (en) 2020-09-08 2022-03-17 Medtronic, Inc. Imaging discovery utility for augmenting clinical image management
CN113057677B (zh) * 2021-03-30 2022-05-24 华南理工大学 超声和ct图像融合的心脏影像建模方法、系统及设备
CN113180771B (zh) * 2021-05-29 2022-08-26 吉林大学 一种具有定时加减压功能的心脏造影术后用伤口加压装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007005367A2 (en) * 2005-06-30 2007-01-11 Intuitive Surgical, Inc Robotic image guided catheter-based surgical devices and techniques
JP2007185278A (ja) * 2006-01-12 2007-07-26 Hitachi Medical Corp 手術支援装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10149955A1 (de) 2001-10-10 2003-04-24 Philips Corp Intellectual Pty MR-Anordnung zur Lokalisierung eines medizinischen Instrumentes
US6838990B2 (en) 2001-12-20 2005-01-04 Calypso Medical Technologies, Inc. System for excitation leadless miniature marker
WO2003096255A2 (en) * 2002-05-06 2003-11-20 The Johns Hopkins University Simulation system for medical procedures
US7117026B2 (en) * 2002-06-12 2006-10-03 Koninklijke Philips Electronics N.V. Physiological model based non-rigid image registration
AU2003257309A1 (en) 2002-08-13 2004-02-25 Microbotics Corporation Microsurgical robot system
US7466303B2 (en) * 2004-02-10 2008-12-16 Sunnybrook Health Sciences Center Device and process for manipulating real and virtual objects in three-dimensional space
US20080287783A1 (en) * 2007-05-16 2008-11-20 General Electric Company System and method of tracking delivery of an imaging probe
DE102007046186A1 (de) * 2007-09-26 2009-04-02 Amedo Smart Tracking Solutions Gmbh Gewebemarkierung
US9259290B2 (en) 2009-06-08 2016-02-16 MRI Interventions, Inc. MRI-guided surgical systems with proximity alerts
US8819591B2 (en) * 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007005367A2 (en) * 2005-06-30 2007-01-11 Intuitive Surgical, Inc Robotic image guided catheter-based surgical devices and techniques
JP2007185278A (ja) * 2006-01-12 2007-07-26 Hitachi Medical Corp 手術支援装置

Also Published As

Publication number Publication date
US20140058407A1 (en) 2014-02-27
ZA201502007B (en) 2016-09-28
EP2887884B1 (en) 2019-06-12
WO2014036034A1 (en) 2014-03-06
MX2015002537A (es) 2015-10-22
CN104780849A (zh) 2015-07-15
CN104780849B (zh) 2018-11-13
HK1211821A1 (en) 2016-06-03
EP2887884A4 (en) 2016-10-12
RU2015110976A (ru) 2016-10-20
AU2013308959A1 (en) 2015-04-09
US9855103B2 (en) 2018-01-02
KR20150060735A (ko) 2015-06-03
CA2883469A1 (en) 2014-03-06
EP2887884A1 (en) 2015-07-01
BR112015004353A2 (pt) 2017-07-04

Similar Documents

Publication Publication Date Title
EP2887884B1 (en) Robotic device and system software for image-guided and robot-assisted surgery
CN103281962B (zh) 门控图像获取和患者模型重建
US20170296292A1 (en) Systems and Methods for Surgical Imaging
US9311335B2 (en) Diffusion tensor imaging confidence analysis
JP7166809B2 (ja) リアルタイム3次元(3d)心臓撮像におけるガラス状態ビューのためのシステム及び方法
US20120099768A1 (en) Method and Apparatus for Reconstructing Image Projections
Linte et al. Virtual and augmented medical imaging environments: Enabling technology for minimally invasive cardiac interventional guidance
Saikus et al. Interventional cardiovascular magnetic resonance imaging: a new opportunity for image-guided interventions
Christoforou et al. Performance of interventions with manipulator-driven real-time MR guidance: implementation and initial in vitro tests
AU2015203332B2 (en) Real-time generation of mri slices
Navkar et al. A framework for integrating real-time MRI with robot control: application to simulated transapical cardiac interventions
Yeniaras et al. Magnetic resonance based control of a robotic manipulator for interventions in the beating heart
JP7319248B2 (ja) 位置追跡型インターベンショナルデバイスの自動視野更新
US9036880B2 (en) High-resolution three-dimensional medical imaging with dynamic real-time information
CN116528752A (zh) 自动分割与配准系统及方法
Chen et al. The future cardiac catheterization laboratory
Bijlsma et al. MR-based navigation for robot-assisted endovascular procedures
An Sensors and System Integration for Magnetic Resonance Image (MRI)-Guided and Robot-Assisted Interventions
Jolesz et al. Fifth National Image-Guided Therapy Workshop
Tsekos et al. MRI-Guided Robot-Assisted Interventions: An Opportunity and a Challenge in Computational Surgery
Kapur et al. Seventh National Image-Guided Therapy Workshop
Yeniaras A novel computational methodology for MRI-guided and robot-assisted aortic valve implantation surgeries
Yi A Mechatronic System for Interactive Scan Plan Prescription during Real-Time Cardiac Magnetic Resonance Imaging
Hussain et al. MRI Guidance of Cardiac Applications
Lumsden Imaging and Navigation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170821

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180523