JP2020032230A - 介入ツールの仮想ナビゲーションのための組織の非剛体変形のためのシステム及び方法 - Google Patents

介入ツールの仮想ナビゲーションのための組織の非剛体変形のためのシステム及び方法 Download PDF

Info

Publication number
JP2020032230A
JP2020032230A JP2019201983A JP2019201983A JP2020032230A JP 2020032230 A JP2020032230 A JP 2020032230A JP 2019201983 A JP2019201983 A JP 2019201983A JP 2019201983 A JP2019201983 A JP 2019201983A JP 2020032230 A JP2020032230 A JP 2020032230A
Authority
JP
Japan
Prior art keywords
dimensional
deformed
state
deformation
dimensional model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019201983A
Other languages
English (en)
Other versions
JP6928059B2 (ja
Inventor
チョプラ,プラシャント
Chopra Prashant
ドゥインダム,ヴィンセント
Duindam Vincent
ザオ,タオ
Tao Zhao
スー,レイ
Lei Xu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intuitive Surgical Operations Inc
Original Assignee
Intuitive Surgical Operations Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intuitive Surgical Operations Inc filed Critical Intuitive Surgical Operations Inc
Publication of JP2020032230A publication Critical patent/JP2020032230A/ja
Application granted granted Critical
Publication of JP6928059B2 publication Critical patent/JP6928059B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Robotics (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

【課題】解剖学的構造の変形をモデリングする方法を提供する。【解決手段】解剖学的構造の変形をモデリングする方法300は、基準状態における分岐した解剖学的構造の構成の基準三次元モデルを受信するステップ302を含む。方法はさらに、分岐した解剖学的構造の構成の変形状態の変形三次元モデルを作るために基準三次元モデルに三次元変形場を適用するステップ316及び分岐した解剖学的構造の構成の変形状態の変形三次元モデルの画像を動的に表示するステップを含む。【選択図】図3

Description

本開示は、低侵襲処置を行うために患者の解剖学的構造を通過させるためのシステム及び方法、より具体的には、表示用に解剖学的構造の通路モデルを動的に変形させるためのシステム及び方法に関する。
低侵襲医療技術は、介入処置の間に傷つけられる無関係な組織の量を減らすことを目的とし、したがって患者の回復時間、不快感、及び有害な副作用を減らす。そのような低侵襲技術は、患者の解剖学的構造の自然開口部(natural orifices)を通じて又は1若しくは複数の外科的な切開部(incisions)を通じて行われる場合がある。これらの自然開口部又は切開部を通じて、臨床医は、標的組織位置に達するように介入器具(手術、診断、治療、又は生検器具を含む)を挿入してよい。標的組織位置に達するために、低侵襲介入器具は、肺、結腸、腸、腎臓、心臓、循環系、又は類似物のような解剖学的構造のシステム(anatomical system)内の自然な又は外科的に創り出された通路を進んでよい。遠隔操作介入システムは、介入器具を患者の解剖学的構造の中に挿入し且つ位置決めするために使用される場合がある。介入器具のナビゲーション中、解剖学的構造の通路は、例えば、解剖学的構造の運動(anatomical motion)(例えば、心臓運動、呼吸運動)又は介入器具によって加えられる力に起因して変形する場合がある。実際の患者の解剖学的構造の通路を介入器具で移動している間にユーザへの表示のために解剖学的構造の通路モデルを動的に変更させるためのシステム及び方法が必要とされる。
本発明の実施形態は、詳細な説明に続く特許請求の範囲によって要約される。
1つの実施形態では、解剖学的構造の変形をモデリングする方法が、基準状態(reference state)における分岐した解剖学的構造の構成(branched anatomical formation)の基準三次元モデルを受信するステップを含む。方法はさらに、分岐した解剖学的構造の構成の変形状態の変形三次元モデルを作るために基準三次元モデルに三次元変形場(three dimensional deformation field)を適用するステップ及び分岐した解剖学的構造の構成の変形状態の変形三次元モデルの画像を動的に表示するステップを含む。
他の実施形態では、処理システムが、プロセッサ及びそこに格納されたコンピュータ可読命令を有するメモリを備える。コンピュータ可読命令は、プロセッサによって実行されるとき、システムに、基準状態における分岐した解剖学的構造の構成の基準三次元モデルを受信させる。命令はまた、プロセッサによって実行されるとき、システムに、分岐した解剖学的構造の構成の変形状態の変形三次元モデルを作るために基準三次元モデルに三次元変形場を適用させる。命令はまた、プロセッサによって実行されるとき、システムに、分岐した解剖学的構造の構成の変形状態の変形三次元モデルの画像を動的に表示させる。
本開示の追加の態様、特徴、及び利点は、以下の詳細な説明から明らかになるであろう。
本開示の態様は、添付の図面と併せて読まれるとき、以下の詳細な説明から最も良く理解される。この業界での標準的な慣例に従って、様々な特徴は正確な縮尺で描かれていないことが強調される。実際、様々な特徴の寸法は、議論を明確にするために適宜拡大又は縮小されることがある。また、本開示は、様々な例において参照数字及び/又は文字を繰り返して使用し得る。この繰返しは、簡略化と明瞭化を目的として行われており、説明される様々な実施形態及び/又は構成の間の関係をそれ自体で規定するものではない。
本開示の実施形態による、遠隔介入システムである。 本開示の態様を利用する介入器具システムを示す。 変形状態における解剖学的構造の通路のモデルの動的な表示を生成するための方法を示す。 基準状態における解剖学的構造の通路の三次元立体表現(three dimensional volumetric representation)を示す。 図4の基準モデルに基づくスケルトンツリー(skeletal tree)を示す。 図4の基準モデルに基づく形状モデル(geometric model)を示す。 変形の第1の状態における解剖学的構造の通路の変形の測定を示す。 変形の第2の状態における解剖学的構造の通路の変形の測定を示す。 解剖学的構造の通路の複合変形(composite deformation)に基づくスケルトンツリーを示す。 解剖学的構造の通路の変形を記載する変形場を示す。 複合変形を伴う解剖学的構造の通路の三次元形状モデルを示す。 複合変形を伴ってレンダリングされた図4の解剖学的構造の通路の三次元立体表現を示す。 介入器具を伴う図12の解剖学的構造の通路の変形三次元立体表現を示す。 グラフィック処理ユニットを使用するメッシュモデル変形の方法を示す。 マッピング技法を示す。
本発明の態様の以下の詳細な説明では、開示された実施形態の完全な理解を提供するために、多数の特定の詳細が説明される。しかし、本開示の実施形態は、これらの特定の詳細なしで実施され得ることが当業者には明らかであろう。他の例では、周知の方法、手順、構成要素、及び回路が、本発明の実施形態の態様を不必要に曖昧にしないように詳細に説明されていない。また、説明の不要な繰り返しを避けるために、1つの例示的な実施形態について説明した1又は複数の構成要素又は動作は、他の例示的な実施形態について必要に応じて使用又は省略され得る。
以下の実施形態は、様々な器具及び器具の部分を、三次元空間におけるそれらの状態の観点から、説明する。本明細書で使用される場合、用語「位置」は、三次元空間(例えば、デカルトX,Y,Z座標に沿った並進3自由度)における対象物又は対象物の一部の位置を指す。本明細書で使用される場合、用語「向き」は、対象物又は対象物の一部の回転配置(回転の3自由度−例えば、ロール、ピッチ、及びヨー)を指す。本明細書で使用される場合、用語「姿勢」は、並進自由度の少なくとも1つの自由度における対象物又は対象物の一部の位置、及び回転自由度の少なくとも1つの自由度における対象物又は対象物の一部の向き(合計6つの自由度まで)を指す。本明細書で使用される場合、用語「形状」は、細長い対象物に沿って測定された姿勢、位置、又は向きのセットを指す。
図面の図1を参照すると、例えば、診断、治療、又は生検処置で用いる遠隔ロボット介入システムが、参照数字100によって概して示されている。記載されるように、本開示の遠隔ロボット介入システムは概して、外科医の遠隔操作の制御下にある。しかし、幾つかの処置又は下位処置(sub-procedure)に対して、遠隔ロボット介入システムは、処置又は下位処置を実行するようにプログラムされたコンピュータの部分的な制御下にあってよい。図1に示されるように、遠隔ロボット介入システム100は、概して、患者Pが位置する手術台Oに又は同手術台Oの近くに取り付けられたロボットアセンブリ102を含む。介入器具システム104が、ロボットアセンブリ102に動作可能に結合されている。オペレータ入力システム106は、外科医又は他の種類の臨床医Sが手術部位を見ること及び介入器具システム104の動作を制御することを可能にする。
オペレータ入力システム106は、通常、手術台Oと同じ部屋に位置するような外科医コンソールに配置され得る。しかし、外科医Sは、患者Pとは異なる部屋又は完全に異なる建物に位置し得ることが理解されるべきである。オペレータ入力システム106は、一般的に、介入器具システム104を制御するための1又は複数の制御装置を含む。制御装置(複数可)は、ハンドグリップ、ジョイスティック、トラックボール、データグローブ、トリガーガン、手動操作制御装置、音声認識装置、タッチスクリーン、身体動き又は存在センサ等のような、多数の様々な入力装置を含んでもよい。幾つかの実施形態では、制御装置(複数可)は、テレプレゼンス、又は外科医が器具を直接的に制御する強い感覚を有するよう制御装置(複数可)が器具と一体化されるような知覚を外科医に提供するために、ロボットアセンブリの介入器具と同じ自由度を備える。他の実施形態では、制御装置(複数可)は、関連する介入器具より多い又は少ない自由度を有し得るとともに、依然としてテレプレゼンスを外科医に提供し得る。幾つかの実施形態では、制御装置(複数可)は、6自由度で動く手動入力装置であり、この手動入力装置は、(例えば、把持ジョーを閉じる、電位を電極に印加する、薬物療法を送達する等のための)器具を作動させるための作動可能ハンドルも含み得る。
ロボットアセンブリ102は、介入器具システム104を支持し、1又は複数の非サーボ制御リンク(例えば、所定の位置に手動で位置決めされ且つロックされる1又は複数のリンク、一般的にセットアップ構造と呼ばれる)及びロボットマニピュレータの運動学的構造を有し得る。ロボットアセンブリ102は、介入器具104の入力部を駆動する複数のアクチュエータ(例えば、モータ)を含む。これらのモータは、制御システム(例えば、制御システム112)からのコマンドに応答して、能動的に動く。モータは、介入器具104に結合されるとき、自然に又は手術によって作られた解剖学的開口部に介入器具を前進させ得る及び/又は介入器具の遠位端部を多自由度で動かし得る駆動システムを含み、この多自由度は、3自由度の直線運動(例えば、X,Y,Zデカルト軸に沿った直線運動)及び3自由度の回転運動(例えば、X,Y,Zデカルト軸回りの回転)を含み得る。また、モータは、生検装置等のジョーの中に組織を把持するための器具の関節動作可能(articulable)なエンドエフェクタを駆動するために使用されることができる。
ロボット介入システム100は、ロボットアセンブリの器具に関する情報を受信するための1又は複数のサブシステムを有するセンサシステム108も含む。このようなサブシステムは、位置センサシステム(例えば、電磁(EM)センサシステム);カテーテル先端の及び/又は器具104の可撓性ボディに沿った1又は複数のセグメントの、位置、向き、速度、姿勢、及び/又は形状を判定するための形状センサシステム;並びに/又はカテーテルシステムの遠位端部から画像を取り込むための可視化システムを含み得る。
ロボット介入システム100は、センサシステム108のサブシステムによって生成された手術部位及び介入器具104の画像を表示するための表示システム110も含む。ディスプレイ110及びオペレータ入力システム106は、オペレータが、作業空間を実質的に本当に存在しているかのように視認して、介入器具システム104及びオペレータ入力システム106を制御することができるように向き合せされ得る。本当に存在するとは、表示された組織画像が、オペレータに、オペレータが画像位置に物理的に存在しており且つ画像の視点から組織を直接的に視認しているかのように見えることを意味する。
代替的に又は追加的に、表示システム110は、コンピュータ断層撮影(CT)、磁気共鳴画像診断(MRI)、X線透視法、サーモグラフィ、超音波、光コヒーレンストモグラフィ(OCT)、赤外線画像、インピーダンスイメージング、レーザイメージング、ナノチューブX線イメージング等のようなイメージング技術を使用して手術前又は手術中に記録された及び/又はモデル化された手術部位の画像を提示し得る。提示された手術前又は手術中の画像は、二次元、三次元、又は四次元(例えば、時間ベース又は速度ベースの情報を含む)画像及びモデルを含み得る。
幾つかの実施形態では、表示システム110は、手術器具の先端の位置における内部手術部位の仮想画像を外科医に提供するために、(例えば、動的に参照される)介入器具の実際の位置が手術前又は同時の画像と共に記録される仮想の可視化画像を表示することができる。
他の実施形態では、表示システム110は、手術部位における介入器具の仮想画像を外科医に提示するために、介入器具の実際の位置が(手術前に記録された画像を含む)以前の画像又は同時画像と位置合わせされる仮想可視化画像を表示し得る。介入器具104の一部の画像が、介入器具を制御する外科医を支援するために、仮想画像に重畳され得る。
ロボット介入システム100は、制御システム112も含む。制御システム112は、介入器具システム104、オペレータ入力システム106、センサシステム108、及び表示システム110の間で制御を行うための、少なくとも1つのメモリ及び少なくとも1つのプロセッサ(図示せず)、典型的には複数のプロセッサを含む。制御システム112は、本明細書で説明される方法の一部又は全てを実施するために、プログラムされた命令(例えば、命令を格納するコンピュータ可読媒体)も含む。制御システム112は、図1の簡略化した概略図に単一のブロックとして示されているが、システムは、オプションで、処理の一部がロボットアセンブリ102で又はこれに隣接して実行される、一部がオペレータ入力システム106等で実行される、多数のデータ処理回路を含み得る。多種多様な集中型又は分散型データ処理アーキテクチャのいずれかが用いられ得る。同様に、プログラムされた命令は、多数の別々のプログラム又はサブルーチンとして実装され得る、又はそれらは、本明細書で説明されるロボットシステムの多数の他の態様に組み込まれ得る。1つの実施形態では、制御システム112は、ブルートゥース(登録商標)、IrDA、ホームRF、IEEE802.11、DECT及び無線テレメトリのような無線通信プロトコルをサポートする。
幾つかの実施形態では、制御システム116は、介入器具システム104からオペレータ入力システム106の1又は複数の対応するサーボモータに力及びトルクフィードバックを提供するために、1又は複数のサーボコントローラを含み得る。サーボコントローラ(複数可)は、患者の身体の開口部を介して身体の中の内部手術部位の中に延びる介入器具104を動かすために、ロボットアセンブリ102に命令する信号を送信し得る。任意の適切な従来の又は特殊なサーボコントローラが使用され得る。サーボコントローラは、ロボットアセンブリ102から分離され得る、又はロボットアセンブリ102と一体化され得る。幾つかの実施形態では、サーボコントローラ及びロボットアセンブリは、患者の身体に隣接して位置決めされたロボットアームカートの一部として設けられる。
制御システム112はさらに、介入器具104にナビゲーション支援を提供するために、仮想可視化システムを含み得る。仮想可視化システムを使用する仮想ナビゲーションは、解剖学的通路の三次元構造に関連付けられる取得されたデータセットに対する参照に基づくものである。より具体的には、仮想可視化システムは、コンピュータ断層撮影(CT)、磁気共鳴画像診断(MRI)、X線透視法、サーモグラフィ、超音波、光コヒーレンストモグラフィ(OCT)、赤外線画像、インピーダンスイメージング、レーザイメージング、ナノチューブX線イメージング等のようなイメージング技術を使用して記録された及び/又はモデル化された手術部位の画像を処理する。ソフトウェアが、記録した画像を、部分的な又は全体的な解剖学的臓器又は解剖学的領域の二次元又は三次元モデルに変換するために、使用される。モデルは、通路及びそれら接続部の様々な位置及び形状を示す。モデルを生成するために使用される画像は、臨床処置中に手術前又は手術中に記録され得る。代替実施形態では、仮想可視化システムは、標準的なモデル(すなわち、患者特有ではない)、又は標準モデル及び患者の特有データのハイブリッドを使用し得る。モデル及びこのモデルによって生成された仮想画像は、運動の1又は複数の段階の間に(例えば、肺の吸気/呼気サイクルの間に)変形可能な解剖学的領域の静的な姿勢を表し得る。
仮想ナビゲーション手順の間に、センサシステム108は、患者の解剖学的構造に対する器具のおおよその位置を計算するために使用され得る。位置は、患者の解剖学的構造のマクロレベル追跡画像及び患者の解剖学的構造の内部仮想画像の両方を生成するために使用されることができる。仮想可視化システムからのもののような手術前に記録された手術画像と一緒に介入実装を位置合わせし且つ表示するために光ファイバセンサを使用する様々なシステムが、知られている。例えば、その全体が本明細書に参照により援用される、2011年5月13日に出願された、“Medical System Providing Dynamic Registration of a Model of an Anatomical Structure for Image-Guided Surgery”を開示する米国特許出願第13/107,562号は、1つのこのようなシステムを開示している。
ロボット介入システム100はさらに、照明システム、操向(steering)制御システム、洗浄システム、及び/又は吸引システムのようなオプションのオペレーション及びサポートシステム(図示せず)をさらに含み得る。代替実施形態では、ロボットシステムは、複数のロボットアセンブリ及び/又は複数のオペレータ入力システムを含み得る。マニピュレータアセンブリの正確な数は、他の要因の中でもとりわけ、外科手術及び手術室内の空間的制約に依存する。複数のオペレータ入力システムは併置され得る、又はそれらは別々の位置に配置され得る。複数のオペレータ入力システムは、複数のオペレータが1又は複数のマニピュレータアセンブリを種々の組合せで制御することを可能にする。
図2は、ロボット介入システム100の介入器具システム104として使用され得る介入器具システム200を示す。代替的には、介入器具システム200は、非ロボット診査処置、又は内視鏡検査のような従来の手動操作介入器具を伴う処置で使用され得る。
器具システム200は、器具ボディ204に結合されたカテーテルシステム202を含む。カテーテルシステム202は、近位端部217及び遠位端部218を有する細長可撓性カテーテルボディ216を含む。1つの実施形態では、可撓性ボディ216は、約3ミリメートルの外径を有する。他の可撓性ボディの外径は、これよりも大きくても小さくてもよい。カテーテルシステム202は、遠位端部218におけるカテーテル先端の及び/又はボディ216に沿った1又は複数のセグメント224の、位置、向き、速度、姿勢、及び/又は形状を判定するための形状センサ222を含み得る。遠位端部218と近位端部217との間のボディ216の全長は、セグメント224に効果的に分割され得る。器具システム200がロボット介入システム100の介入器具システム104である場合、形状センサ222は、センサシステム108の構成要素であり得る。器具システム200が手動操作される又は他に非ロボット処置で使用される場合、形状センサ222は、形状センサに問い合わせするとともに受信した形状データを処理する追跡システムに結合され得る。
形状センサシステム222は、可撓性カテーテルボディ216と位置合わせされた(例えば、内部チャネル(図示せず)内に設けられた又は外付けされた)光ファイバを含み得る。1つの実施形態では、光ファイバは、約200μmの直径を有する。他の実施形態では、寸法は、より大きくても小さくてもよい。
形状センサシステム222の光ファイバは、カテーテルシステム202の形状を判定するための光ファイバ曲げセンサを形成する。1つの代替形態では、ファイバブラッグ回折格子(FBGs)を含む光ファイバが、1又は複数の次元における構造のひずみ測定値を提供するために使用される。光ファイバの形状及び相対位置を三次元で監視するための様々なシステム及び方法が、2005年7月13日に出願された、”Fiber optic position and shape sensing device and method relating thereto”を開示する米国特許出願第11/180,389号、2004年7月16日に出願された、”Fiber-optic shape and relative position sensing”を開示する米国仮特許出願第60/588,336号、1998年6月17日に出願された、”Optical Fibre Bend Sensor”を開示する米国特許第6,389,187号に記載されており、これらの文献は、それら全体が参照により本明細書に援用される。他の代替形態では、レイリー散乱、ラマン散乱、ブリルアン散乱、蛍光散乱のような他のひずみ検知技術を用いるセンサが適し得る。他の代替形態では、カテーテルの形状は、他の技術を用いて判定され得る。例えば、カテーテルの遠位先端姿勢の履歴が、ナビゲーション表示を再読み込みする期間又は交互に行う動作(例えば、吸入及び呼気)の期間よりも短い時間間隔に亘って保存される場合に、この姿勢履歴は、その時間間隔に亘ってこの装置の形状を再構成するために使用されることができる。他の例として、過去の姿勢、位置、又は向きデータが、呼吸のような交互に行われる動作のサイクルに従った器具の既知のポイントに関して保存され得る。この保存データは、カテーテルに関する形状情報を発展させるために使用され得る。代替的には、カテーテルに沿って配置されたEMセンサのような一連の位置センサが、形状検出のために使用されることができる。代替的には、手術中の器具上の、EMセンサのような、位置センサからのデータの履歴が、特に解剖学的通路が略静止している場合に、器具の形状を表すために使用され得る。代替的には、外部磁場により制御される位置又は向きを有する無線装置が、形状検出のために使用され得る。その位置の履歴は、進められる通路の形状を判定するために使用され得る。
この実施形態では、光ファイバは、単一クラッド(cladding)の中に複数のコアを含み得る。各コアは、各コアの光が他のコアで搬送される光と殆ど相互作用しないように、十分な距離及びコアを分離するクラッドを持つシングルモードであり得る。他の実施形態では、コアの数は変化し得る、又は各コアは別個の光ファイバに含まれ得る。
幾つかの実施形態では、FBGのアレイが各コア内に設けられる。各FBGは、屈折率の空間的な周期性を生成するように、コアの屈折率の一連の変調を含む。間隔は、各屈折率変化からの部分反射が、狭帯域の波長についてコヒーレントに追加されるように選択されることができ、こうしてより広帯域を通過させながら、この狭帯域の波長のみを反射することができる。FBGの製造中に、変調が既知の距離だけ離間され、こうして既知の帯域幅の波長の反射を引き起こす。しかし、ひずみがファイバコアに誘起されるとき、変調の間隔は、コアのひずみ量に応じて変化する。代替的には、光ファイバの屈曲に伴って変化する後方散乱又は他の光学現象が、各コア内のひずみを決定するために使用されることができる。
こうして、ひずみを測定するために、光がファイバに送られ、戻ってくる光の特性が測定される。例えば、FBGは、ファイバのひずみ及びその温度の関数である反射波長を生成する。このFBG技術は、英国のブラックネルにあるSmart Fibres Ltd.のような様々な供給先から市販されている。ロボット手術用位置センサにおけるFBG技術の使用は、2006年7月20日に出願された、”Robotic Surgery System Including Position Sensors Using Fiber Bragg Gratings”を開示する米国特許第7,930,065号に記載されており、この文献は、その全体が参照により本明細書に援用される。
マルチコア光ファイバに曲げが加えられるとき、光ファイバの曲げは、各コアにおける波長シフトを監視することによって測定されることができるコアのひずみを誘起する。2以上のコアをファイバに軸から外れて配置することにより、光ファイバの曲げは、コアのそれぞれに異なるひずみを誘起する。これらのひずみは、ファイバの曲げの局所的な程度に応じる。例えば、FBGを含むコアの領域が、ファイバが曲げられるポイントに位置する場合に、それによって、これらのポイントでの曲げ量を決定するために使用されることができる。FBG領域の既知の間隔と組み合わされるこれらのデータは、ファイバの形状を再構成するために使用されることができる。このようなシステムは、バージニア州、ブラックスバーグのLuna Innovation. Inc.によって説明されている。
説明したように、光ファイバは、カテーテルシステム202の少なくとも一部の形状を監視するために使用され得る。より具体的には、光ファイバを通過する光は、カテーテルシステム202の形状を検出するために、及び外科処置を支援するためのその形状情報を利用するために処理される。センサシステム(例えば、センサシステム108)は、カテーテルシステム202の形状を決定するために使用される光を生成し且つ検出するための問合せ(interrogation)システムを含み得る。次に、この情報は、介入器具の部品の速度及び加速度のような他の関連する変数を決定するために使用されることができる。検知することは、ロボットシステムによって作動される自由度にだけ制限され得る、又は受動(例えば、ジョイント間の剛性部材の非作動状態の曲げ)及び能動(例えば、器具の作動状態の運動)の両方の自由度に適用され得る。
介入器具システムは、オプションで、位置センサシステム220を含み得る。位置センサシステム220は、外部発生電磁場に曝される1又は複数の導電性コイルを含む電磁(EM)センサシステムであり得る。次に、EMセンサシステム220の各コイルは、外部発生電磁場に対するコイルの位置及び向きに依存する特性を有する誘導電気信号を生成する。1つの実施形態では、EMセンサシステムは、6自由度、例えば3つの位置座標X,Y,Z及び基点のピッチ、ヨー、及びロールを示す3つの方位角、又は5自由度、例えば3つの位置座標X,Y,Z及び基点のピッチ及びヨーを示す2つの方位角を測定するように構成され且つ配置され得る。EMセンサシステムについての更なる説明は、1999年8月11日に出願された、”Six-Degree of Freedom Tracking System Having a Passive Transponder on the Object Being Tracked”を開示する米国特許第6,380,732号に提供され、この文献は、その全体が参照により本明細書に援用される。
可撓性カテーテルボディ216は、補助ツール226を受容するようにサイズ決めされ且つ形成されたチャネルを含む。補助ツールは、例えば、画像取込プローブ、生検装置、レーザアブレーションファイバ、又は他の外科用、診断用、若しくは治療用ツールを含み得る。補助ツールは、メス、ブレード、光ファイバ、又は電極のような単一の作業部材を有するエンドエフェクタを含み得る。他のエンドエフェクタは、例えば、鉗子、把持器、はさみ、又はクリップアプライヤのようなペアの又は複数の作業部材を含み得る。電気的に作動されるエンドエフェクタの例は、電気手術電極、トランスデューサ、センサ等を含む。様々な実施形態では、補助ツール226は、表示のために処理される画像(ビデオ画像を含む)を取り込むために、可撓性カテーテルボディ216の遠位端部218近傍に配置された立体又は単眼カメラを持つ遠位部分を含む画像取込プローブであり得る。画像取込プローブは、取り込まれた画像データを送信するために、カメラに結合されたケーブルを含み得る。代替的には、画像取込器具は、イメージングシステムに結合する、ファイバースコープのような光ファイバ束であり得る。画像取込器具は、例えば、画像データを可視スペクトルで取り込む又は画像データを可視及び赤外又は紫外スペクトルで取り込む、単一又はマルチスペクトルであり得る。
可撓性カテーテルボディ216は、例えば先端部の点線バージョンにより示されるように、遠位端部218を制御可能に曲げる又は回動させるために、器具ボディ204と遠位端部218との間に延びるケーブル、リンク機構、又は他の操向制御装置(図示せず)を収容し得る。器具システム200がロボットアセンブリによって作動される実施形態では、器具ボディ204は、ロボットアセンブリのモータ駆動要素に結合する駆動入力部を含み得る。器具システム200が手動で操作される実施形態では、器具ボディ204は、器具システムの動作を手動で制御するための、把持機構、手動アクチュエータ、及び他の構成要素を含み得る。カテーテルシステムは、操向可能(steerable)であり得る、又は代替的に、器具の曲げのオペレータ制御のための組込機構を伴わずに操向不能であり得る。更に又は代替的に、可撓性ボディ216は、そこを通って介入器具が標的の手術部位で展開され且つ使用され得る、1つ又は複数の管腔を規定することができる。
様々な実施形態では、介入器具システム200は、肺の検査、診断、生検、又は治療に使用するための気管支鏡又は気管支カテーテルのような可撓性気管支用器具を含み得る。システムは、結腸、腸、腎臓、脳、心臓、循環器系等を含む様々な解剖学的構造の系のいずれかにおける、自然に又は外科的に形成された接続通路を経由する、ナビゲーション又は他の組織の治療にも適している。
患者の中で処置を行うために介入器具システム200を使用するとき、本明細書に記載されるように、外科医が処置に関連するデータの様々な形態を同時に利用できることが望ましい場合がある。例えば、呼吸器系のような解剖学的構造の特定の部分を通って介入器具を案内するとき、内視鏡は、介入器具200と平行して解剖学的構造を安全に通るのに適合するには大きすぎる場合がある。このような処置では、外科医は、内視鏡カメラの表示を、上述の種類の手術前又は手術中画像の表示で補う又は置き換えることを望むかもしれない。加えて、外科医は、内視鏡カメラの表示を、解剖学的構造内の処置部位又は特定の標的位置に対する介入器具の場所を示す解剖学的構造の概観表現の表示で補うことを望むかもしれない。
図3は、変形状態における解剖学的構造の通路の三次元立体表現の動的表示を生成するための方法300を示す。302において、患者の解剖学的構造の解剖学的構造の通路の三次元立体表現(すなわち、ソリッドモデル)が、受信される又はコンピュータ断層撮影(CT)、磁気共鳴画像診断(MRI)、X線透視法、サーモグラフィ、超音波、光コヒーレンストモグラフィ(OCT)、赤外線画像、インピーダンスイメージング、レーザイメージング、ナノチューブX線イメージング等のような技術を使用して手術前又は手術中に生成された画像から作られる。図4は、方法300のステップ302で受信される又は作られるような患者の解剖学的通路の三次元立体表現400の少なくとも一部を示す。三次元立体表現400は、患者の呼吸周期の完全に息を吐いた(full exhalation)状態のような、基準状態における様々な肺の通路402を示す。
再び図3を参照すると、方法300はさらに、ステップ304において、基準状態の基準モデルからのノード及びリンク(linkages)の区分的剛体基準スケルトンツリー(piecewise rigid reference skeleton tree)を作ることを含む。図5は、三次元立体表現400に基づくスケルトンツリー420を示し、三次元立体表現400の構造を近似するために、リンク424によって相互接続された複数のノード422を含む。スケルトンツリー420のノード422は、解剖学的構造の通路の分岐に、著しい屈曲又はねじれのポイントに、及び/又は解剖学的構造の通路の任意の他のポイントに位置し得る。ノードは概して、解剖学的構造の通路の中で中心に置かれ得るが、代替実施形態では、通路の壁に沿って又は解剖学的構造の基準構造に対する他の場所に位置し得る。リンク424は、ノードの間を延びる直線のセグメントである。リンクは概して、解剖学的構造の通路の中で中心に置かれ得るが、代替実施形態では、通路の壁に沿って又は解剖学的構造の基準構造に対する他の場所に位置し得る。
再び図3を参照すると、方法300はさらに、ステップ306において、基準形状モデルを作ることを含む。1つの実施形態では、図6に示されるように、形状モデル450は、解剖学的構造の通路の(内部又は外部)表面を表す複数の三角形452から構成されるポリゴンメッシュモデルである。例えば、解剖学的構造の通路の一部のメッシュモデルは、約130,000の三角形を含み得る。代替実施形態では、ポリゴンメッシュモデルは、四辺形又は他の平らな、凸状の、又は凹状のポリゴンを有し得る。メッシュモデル450の各頂点は、スケルトンツリー420のノード422の1つに拘束され得る。したがって、選択されたノード422に拘束されるメッシュモデル450の各頂点は、その選択されたノードに接続されるスケルトンリンク424にも拘束される。
再び図3を参照すると、方法300はさらに、ステップ308において、解剖学的構造の運動に起因する解剖学的構造の通路の少なくとも1つの変形を測定することを含む。患者の解剖学的構造の多くの領域は、通常の機能において動的である(例えば、心臓、肺、腎臓、肝臓、血管)。この実施形態では、解剖学的構造の運動は、例えば、呼吸又は心周期によって生じる肺の周期性の解剖学的構造の運動であり得る。変形は、基準状態の状態と異なる解剖学的構造の周期の少なくとも1つの状態で測定される。例えば、呼吸周期に関する基準状態が完全に息を吐いたこと(full exhalation)である場合、変形状態は、完全に息を吸った(full inhalation)状態であり得る。追加的に又は代替的に、変形状態は、完全に息を吐いたことと完全に息を吸ったこととの間の状態で生じ得る。解剖学的構造の運動が、心周期に起因する運動を含む場合、基準状態は、例えば、初期拡張状態であり得るとともに、変形状態は、心房収縮、等容性心室収縮、心室駆出、又は等容性心室弛緩状態のような心周期の他の相(phase)であり得る。解剖学的構造の通路の変形は、前述のイメージング技術のいずれかを使用する手術前又は手術中画像から、形状センサ測定値から、位置センサ測定値から、又は運動に起因する変形を測定する他の既知の方法から、決定され得る。
310において、方法300は、通路の内部に位置する介入器具(例えば、カテーテル202)によって加えられる力に起因する解剖学的構造の通路の変形を測定することを含む。介入器具の形状は、例えば、光学形状検知ファイバの使用を含む、器具形状検知のための上述の方法のいずれかを使用して検知され得る。
312において、方法300は、解剖学的構造の運動及び介入器具の影響によって変形したスケルトンツリーを作ることを含む。図7は、解剖学的構造の運動に起因した変形状態の解剖学的構造の通路のスケルトンツリー460を示す。この図では、肺通路は、完全に息を吸った変形状態にある。変形スケルトン460では、ノード422の位置並びにリンク424の位置及び向きが、変形状態の画像化された解剖学的構造から解剖学的構造の通路と位置が合うように修正される。図8は、息を吐いた基準状態だが、解剖学的構造の通路の幾つかの中の介入器具472によって加えられる力に起因した変形状態の解剖学的構造の通路のスケルトンツリー470を示す。変形スケルトン470では、ノード422の位置並びにリンク424の位置及び向きは、介入器具472に関する形状測定値に基づいて修正される。介入器具472の形状は、介入器具が位置する通路を直接変形させ得るが、通路を接続する組織に加えられる力に起因して隣接する通路も間接的に変形させ得る。図9は、解剖学的構造の運動(例えば、完全に息を吸った図7)及び介入器具によって加えられた力(図8)に起因した変形状態の解剖学的構造の通路のスケルトンツリー480を示す。様々な代替実施形態では、他の力によって生じる解剖学的構造の通路の変形が測定され得るとともに合成変形スケルトンツリーを作るために使用され得る。
再び図3を参照すると、方法300はさらに、ステップ314において、解剖学的構造の運動及び/又は介入器具の力に起因する測定された変形を記述するために変形場を作ることを含む。例えば、変形場は、完全に息を吐いた基準状態から完全に息を吸った変形状態までの解剖学的構造の通路の変形を基準状態と完全変形状態との間の一連の中間変形状態とともに記述する3次元場ベクトルアレイ(three dimensional field vector array)を含み得る。図10に示されるように、変形場490は、スケルトンツリー420のスケルトンツリー480への3次元変形を記述する三次元場ベクトルアレイを含み得る。
再び図3を参照すると、方法300はさらに、ステップ316において、変形形状モデルを作るために基準形状モデルに変形場を適用することを含む。一般的に、基準メッシュモデル450の各頂点に関して、変形場490の補間が各時間tにおいて実行される。基準メッシュモデル450からの各頂点は次に、変形メッシュモデル(500)の対応する頂点に変換される(図11)。
当業者に知られている、リニアブレンドスキニング(Linear blend skinning)(LBS)技術が、変形メッシュモデルの作成で使用され得る。LBS技術により、メッシュモデル450の各三角形452の各頂点は、頂点を変形させる原因であるスケルトンツリー420に拘束される。LBS技術では、スケルトンのリンクは、「骨」と見なされ、「骨の影響(bone influences)」を提供する。各頂点はまた、頂点に影響を及ぼすスケルトンの各リンクに対する重み(w)を割り当てられ得る。重み付け割り当ては、各重みに関して、0≦w≦1且つΣw=1のようになる。重みは、異なるスケルトンを作ること、そして、メッシュがそれに応じて変形するまで重みを変えることによって、実験的に見つけ出され得る。メッシュモデル450において初期姿勢から各頂点(v)を変形させるために、スケルトンリンクによって変形する頂点の重み付き組合せ(weighted combination)が使用され:

Figure 2020032230


ここでNは、骨の影響の数であり、iはスケルトンの中のリンク、Mは、スケルトン変形を記述する、変形場490のような、絶対リンク変換行列である。
重みを決定するための例示の方法が提供される。メッシュの選択された頂点vに対する2つのリンクの影響(すなわち骨の影響)では、変形式においてN=2である。頂点vに対するw及びwを決定するために、vに対する2つの最も近いリンクが選ばれる。第1の最も近いリンクはlであり、第2の最も近いリンクはlである。vとl(l)との間の距離はd、l(d、l)であり、vとl(l)のポイントとの間の最短ユークリッド距離として定義される。
、l及びd、lを計算するために、ベクトルのドット積(dot product)が、(頂点vにおけるポイントP(point P)とセグメントS(segment S)(すなわち、スケルトンのリンク)との間の最短距離(distance)がPとSの端点の一方との間にあるかどうかテストするために適用される。このテストは以下のように記載される:

Figure 2020032230



アルゴリズムはまた、次のように表され得る:

Figure 2020032230


したがって、w1及びw2は、d、l及びd、lの正規化(normalization)として計算されることができる:

Figure 2020032230


したがって、メッシュの各頂点に対する重み付けが決定されることができ、メッシュにおける各変形した頂点(vdeformed)が決定され得る。グラフィック処理ユニット(GPU)を使用するメッシュモデル変形の実装は、図14に提供される。
図3を再び参照すると、方法300はさらに、318において、図12に示されるような変形三次元立体表現510の画像を生成するために、基準三次元立体表現を変形メッシュと位置が合うように変形させることを含む。
320において、合成画像520(図13)が生成され、介入器具472の画像とともに変形三次元立体表現510又は変形メッシュモデル450を表示する。
変形モデルがほぼリアルタイム表示速度で動的に表示され得るように変形メッシュモデルの作成を速めるために、GPUを使用する並列計算プラットフォームのような、ソフトウェア及び/又はハードウェアベースのアクセラレータが、使用され得る。このような計算プラットフォームを使用して、基準状態から完全変形状態への及び中間変形状態の全てを含む、解剖学的構造の通路の変形画像が表示され得る。GPUは、毎秒約30の異なるフレームの速度で、そして、幾つかの実施形態では、毎秒約50の異なるフレームの速度で、基準及び変形状態画像の表示を可能にし得る。
図4は、GPU620を使用するメッシュモデル変形[例えば、方法300のステップ316]の方法600を示す。604において、基準状態におけるメッシュモデル(例えば、メッシュ450)が、中央処理ユニット(CPU)]606に提供される。CPU606で動作しているローダー608がメッシュモデルをメインメモリ(図示せず)にロードする。メモリから、メッシュモデルがGPU602に転送される。
マッピング段階610もまたCPU上で実行される。図15は、メッシュ空間630(例えば、メッシュモデル450の一部)の間を3Dテクスチャメモリ612に格納された3Dテクスチャ空間632にマッピングするためにマッピング技法を示す。GPU602上の3Dテクスチャメモリは、スケルトンツリーの各ノードのための及びスケルトンノードの間の補間された座標のための剛体変換(rigid transform)を格納する。3Dテクスチャメモリは、スケルトンノードのための剛体変換を格納するための及びノードの間の座標のための変換を補間するための速く且つ便利なフォーマットを提供する。補間の速度は、ほぼリアルタイムでのスケルトンモデルに拘束されるメッシュモデルの変形及び運動を可能にする。スケルトンの多くの構成ノードに対する剛体変換の使用は、全メッシュモデル空間に対する非剛体変換を近似する。3Dテクスチャメモリ空間632における各(T,T,T)テクスチャ空間座標は、メッシュモデル空間630における対応するメッシュ空間座標(M,M,M)にマッピングされる。(M,M,M)に対して、最短のリンクl1(l2)及び重みw1(w2)が、LBS技術に関して上述されたように決定される。(M,M,M)がスケルトンのいずれのリンクからも遠すぎる場合、w=w=0である。メモリ空間を節約するために、マッピング段階610の出力は、w1≠0のとき、且つそのときに限り、5カラムのマッピングテーブル(以下に示す)である。

Figure 2020032230


マッピングテーブルは、各変形に対して1回だけ計算される必要があり得る。マッピングテーブルはGPU602に移動される。
各時間tに対して、非剛体変換614がGPU602に移動される。非剛体変換アルゴリズム614は、どのようにそのノードが変形したスケルトンツリー480に基づいて動くべきかを表すように、スケルトンツリー420の各ノードに対する剛体変換を計算するために使用される。616において、非剛体変換614が、スケルトンツリーの各ノードに対する変換を計算するためにGPU602によって使用される。作られたマッピングテーブルに基づいて、完全変形場が、3Dテクスチャ空間632の各補間座標に対して、変換されたスケルトンツリーノードから、展開される。3Dテクスチャメモリ612は、3Dテクスチャ空間632における各座標に対する変換を格納する。3Dテクスチャメモリ61のフィールドは、GPUによって同時に書き込まれる。GPUの別のスレッド(すなわち、独立して管理されるプログラム命令の小さいシーケンス)が、3Dテクスチャメモリの各座標に対して、上で提供された変形式を使用して、変形値を計算するために働く。GPUの3Dテクスチャメモリは、2つの目的のために働く。第1に、テクスチャの寸法は、モデル空間よりはるかに小さい。例えば、3Dテクスチャメモリは、128×128×128ボクセルアレイを使用することができ、モデル空間は1024×1024×1024ボクセルアレイを使用し得る。第2に、GPUの3Dテクスチャメモリの値を線形補間で取得することは非常に速い。
618において、メッシュモデル450の各頂点に取り組む1つのスレッドにより、スレッドが、初期メッシュモデル450の頂点の位置に対応し且つそれを変形した頂点に変換する3Dテクスチャメモリ612から(マッピングテーブルを使用して)値を取得する。620において、基準状態の頂点のそれぞれに対して作られた変形した頂点により、変形メッシュモデルが生成され且つ表示される。変形メッシュモデルの表示は、患者の解剖学的構造のほぼリアルタイム変形に対応する高表示速度で更新される変形メッシュモデルの表示で動的に提示され得る。例えば、表示の速度は、毎秒約30フレーム以上であり得る。したがって、患者の解剖学的構造を通って介入器具を誘導する臨床医は、患者の解剖学的構造の現在の画像を変形のその現在の状態で提供される。
本発明の実施形態の1又は複数の要素は、制御システム112のようなコンピュータシステムのプロセッサ上で実行するソフトウェアに実装されてもよい。ソフトウェアに実装される場合に、本発明の実施形態の要素は、基本的に、必要なタスクを実行するためのコードセグメントである。伝送媒体又は通信リンクを通じた搬送波に具現化されるコンピュータデータ信号を介してダウンロードしてもよいプログラム又はコードセグメントを、プロセッサ可読記憶媒体又はデバイスに格納することができる。プロセッサ可読記憶装置は、光学媒体、半導体媒体、及び磁気媒体を含む、情報を格納することができる任意の媒体含み得る。プロセッサ可読記憶装置の例は、電子回路、半導体装置、半導体メモリデバイス、読取り専用メモリ(ROM)、フラッシュメモリ、消去可能なプログラマブル読取り専用メモリ(EPROM)、フロッピーディスケット、CD−ROM、光ディスク、ハードディスク、又は他の記憶装置を含む。コードセグメントは、インターネット、イントラネット等のようなコンピュータネットワークを介してダウンロードされ得る。
提示されるプロセス及び表示は、任意の特定のコンピュータ又は他の装置に本質的に関連しなくてもよいことに注意されたい。様々なこれらのシステムに必要な構成は、特許請求の範囲において要素として現れるであろう。また、本発明の実施形態は、特定のプログラミング言語を参照して記載されるわけではない。本明細書に説明されているように、様々なプログラミング言語が、本明細書に記載されるような本発明の教示を実装するために使用することができることが理解されるであろう。
本発明の特定の例示的な実施形態について説明し且つ添付の図面に示してきたが、このような実施形態は、単なる例示であり、広範な本発明に対する限定ではなく、本発明の実施形態は、様々な他の修正が当業者に想起されるので、図示され及び説明された特定の構成及び配置に限定されるものではないことを理解すべきである。
次の付記を記す。
(付記1) 基準状態における分岐した解剖学的構造の構成の基準三次元モデルを受信するステップ、
前記分岐した解剖学的構造の構成の変形状態の変形三次元モデルを作るために前記基準三次元モデルに三次元変形場を適用するステップ、及び
前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデルの画像を動的に表示するステップ、を含む、
方法。
(付記2) 前記基準三次元モデルに前記三次元変形場を適用するステップは、前記基準三次元モデル上のポイントに対して前記三次元変形場を補間するステップを含む、
付記1に記載の方法。
(付記3) 前記基準三次元モデルに前記三次元変形場を適用するステップはさらに、前記基準三次元モデル上の前記ポイントを、前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデル上のポイントに変換するステップを含む、
付記2に記載の方法。
(付記4) 前記基準三次元モデルに前記三次元変形場を適用するステップは、グラフィック処理ユニットで実行される、
付記1に記載の方法。
(付記5) 前記分岐した解剖学的構造の構成の前記変形状態は、少なくとも部分的に、周期的な解剖学的構造の運動によって引き起こされる、
付記1に記載の方法。
(付記6) 前記分岐した解剖学的構造の構成の前記変形状態は、少なくとも部分的に、前記分岐した解剖学的構造の構成の中に位置する介入器具によって引き起こされる、
付記1に記載の方法。
(付記7) 前記分岐した解剖学的構造の構成の中に位置する前記介入器具の画像及び前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデルの前記画像を含む合成画像を表示するステップをさらに含む、
付記6に記載の方法。
(付記8) 前記基準三次元モデルを受信するステップは、三次元メッシュモデルを受信するステップを含む、
付記1に記載の方法。
(付記9) 前記変形三次元モデルは、変形三次元メッシュモデルを含む、
付記1に記載の方法。
(付記10) 前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデルを作るために前記基準三次元モデルに前記三次元変形場を適用するステップは、変形した頂点のセットを作るステップを含み、前記変形三次元メッシュモデルは、前記変形した頂点のセットを含む、
付記9に記載の方法。
(付記11) 前記分岐した解剖学的構造の構成の前記基準状態に関する基準スケルトンツリーを生成するステップ、
前記分岐した解剖学的構造の構成の前記変形状態に関する変形スケルトンツリーを生成するステップ、及び
前記基準状態から前記変形状態への変形を記述する三次元場ベクトルのアレイを生成するステップであって、前記三次元変形場は前記三次元場ベクトルのアレイを含む、ステップ、
によって、前記三次元変形場を生成するステップをさらに含む、
付記1に記載の方法。
(付記12) 前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデルの前記画像を表示するステップは、少なくとも毎秒約30の連続変形画像の速度で、前記分岐した解剖学的構造の構成の中間変形の一連の画像を表示するステップを含む、
付記1に記載の方法。
(付記13) プロセッサ、及び
格納されたコンピュータ可読命令を有するメモリ、を備える、処理システムであって、
前記コンピュータ可読命令は、前記プロセッサによって実行されるとき、前記システムに:
基準状態における分岐した解剖学的構造の構成の基準三次元モデルを受信すること、
前記分岐した解剖学的構造の構成の変形状態の変形三次元モデルを作るために前記基準三次元モデルに三次元変形場を適用すること、及び
前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデルの画像を動的に表示すること、を生じさせる、
処理システム。
(付記14) 前記基準三次元モデルに前記三次元変形場を適用することは、前記基準三次元モデル上のポイントに対して前記三次元変形場を補間することを含む、
付記13に記載の処理システム。
(付記15) 前記基準三次元モデルに前記三次元変形場を適用することはさらに、前記基準三次元モデル上の前記ポイントを、前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデル上のポイントに変換することを含む、
付記14に記載の処理システム。
(付記16) 前記基準三次元モデルに前記三次元変形場を適用することは、グラフィック処理ユニットで実行される、
付記13に記載の処理システム。
(付記17) 前記分岐した解剖学的構造の構成の前記変形状態は、少なくとも部分的に、周期的な解剖学的構造の運動によって引き起こされる、
付記13に記載の処理システム。
(付記18) 前記分岐した解剖学的構造の構成の前記変形状態は、少なくとも部分的に、前記分岐した解剖学的構造の構成の中に位置する介入器具によって引き起こされる、
付記13に記載の処理システム。
(付記19) 前記分岐した解剖学的構造の構成の中に位置する前記介入器具の画像及び前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデルの前記画像を含む合成画像を表示することをさらに含む、
付記18に記載の処理システム。
(付記20) 前記基準三次元モデルを受信することは、三次元メッシュモデルを受信することを含む、
付記13に記載の処理システム。
(付記21) 前記変形三次元モデルは、変形三次元メッシュモデルを含む、
付記13に記載の処理システム。
(付記22) 前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデルを作るために前記基準三次元モデルに前記三次元変形場を適用することは、変形した頂点のセットを作ることを含み、前記変形三次元メッシュモデルは、前記変形した頂点のセットを含む、
付記21に記載の処理システム。
(付記23) 前記コンピュータ可読命令は、前記プロセッサによって実行されるとき:
前記分岐した解剖学的構造の構成の前記基準状態に対する基準スケルトンツリーを生成すること、
前記分岐した解剖学的構造の構成の前記変形状態に対する変形スケルトンツリーを生成すること、及び
前記基準状態から前記変形状態へ変形を記述する三次元場ベクトルのアレイを生成することであって、前記三次元変形場は前記三次元場ベクトルのアレイを含む、アレイを生成すること、
によって、前記システムに前記三次元変形場を生成することをさらに生じさせる、
付記13に記載の処理システム。
(付記24) 前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデルの画像を表示することは、少なくとも毎秒約30の連続変形画像の速度で、前記分岐した解剖学的構造の構成の中間変形の一連の画像を表示することを含む、
付記13に記載の処理システム。

Claims (15)

  1. プロセッサを有する処理システムの作動方法であって、前記方法は:
    前記プロセッサが、基準状態における分岐した解剖学的構造の構成の基準三次元モデルを受信するステップ、
    前記プロセッサが、前記分岐した解剖学的構造の構成の変形状態の変形三次元モデルを作るために前記基準三次元モデルに三次元変形場を適用するステップ、
    前記プロセッサが、前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデルの画像を動的に表示するステップ、及び
    前記プロセッサが、前記三次元変形場を生成するステップであって、前記プロセッサが、前記基準状態から前記変形状態への変形を記述する三次元場ベクトルのアレイを生成するステップによって、前記三次元変形場を生成するステップであって、前記三次元変形場は前記三次元場ベクトルのアレイを含む、ステップ、を含む、
    方法。
  2. 前記プロセッサが、前記基準三次元モデルに前記三次元変形場を適用するステップは、前記プロセッサが、前記基準三次元モデル上のポイントに対して前記三次元変形場を補間するステップを含む、
    請求項1に記載の方法。
  3. 前記プロセッサが、前記基準三次元モデルに前記三次元変形場を適用するステップはさらに、前記プロセッサが、前記基準三次元モデル上の前記ポイントを、前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデル上のポイントに変換するステップを含む、
    請求項2に記載の方法。
  4. 前記分岐した解剖学的構造の構成の前記変形状態は、少なくとも部分的に、周期的な解剖学的構造の運動によって引き起こされる、又は少なくとも部分的に、前記分岐した解剖学的構造の構成の中に位置する介入器具によって引き起こされる、
    請求項1乃至3のいずれか1項に記載の方法。
  5. 前記プロセッサが、前記分岐した解剖学的構造の構成の中に位置する介入器具の画像及び前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデルの前記画像を含む合成画像を表示するステップをさらに含む、
    請求項1乃至4のいずれか1項に記載の方法。
  6. 前記変形三次元モデルは、変形三次元メッシュモデルを含む、
    請求項1乃至5のいずれか1項に記載の方法。
  7. 前記プロセッサが、前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデルを作るために前記基準三次元モデルに前記三次元変形場を適用するステップは、前記プロセッサが、変形した頂点のセットを作るステップを含み、前記変形三次元メッシュモデルは、前記変形した頂点のセットを含む、
    請求項6に記載の方法。
  8. 前記プロセッサが、前記基準状態から前記変形状態への変形を記述する前記三次元場ベクトルのアレイを生成するステップは、
    前記プロセッサによって生成された、前記分岐した解剖学的構造の構成の前記基準状態に関する基準スケルトンツリー;及び
    前記プロセッサによって生成された、前記分岐した解剖学的構造の構成の前記変形状態に関する変形スケルトンツリー;
    に基づく、
    請求項1乃至7のいずれか1項に記載の方法。
  9. プロセッサ、及び
    格納されたコンピュータ可読命令を有するメモリ、を備える、処理システムであって、
    前記コンピュータ可読命令は、前記プロセッサによって実行されるとき、前記システムに:
    基準状態における分岐した解剖学的構造の構成の基準三次元モデルを受信すること、
    前記分岐した解剖学的構造の構成の変形状態の変形三次元モデルを作るために前記基準三次元モデルに三次元変形場を適用すること、
    前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデルの画像を動的に表示すること、並びに
    前記基準状態から前記変形状態への変形を記述する三次元場ベクトルのアレイを生成することであって、前記三次元変形場は前記三次元場ベクトルのアレイを含む、アレイを生成すること、によって、前記システムに前記三次元変形場を生成すること、を生じさせる、
    処理システム。
  10. 前記基準三次元モデルに前記三次元変形場を適用することは、前記基準三次元モデル上のポイントに対して前記三次元変形場を補間することを含む、
    請求項9に記載の処理システム。
  11. 前記基準三次元モデルに前記三次元変形場を適用することはさらに、前記基準三次元モデル上の前記ポイントを、前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデル上のポイントに変換することを含む、
    請求項10に記載の処理システム。
  12. 前記分岐した解剖学的構造の構成の前記変形状態は、少なくとも部分的に、周期的な解剖学的構造の運動によって引き起こされる、又は少なくとも部分的に、前記分岐した解剖学的構造の構成の中に位置する介入器具によって引き起こされる、
    請求項9乃至11のいずれか1項に記載の処理システム。
  13. 前記分岐した解剖学的構造の構成の中に位置する介入器具の画像及び前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデルの前記画像を含む合成画像を表示することをさらに含む、
    請求項9乃至12のいずれか1項に記載の処理システム。
  14. 前記変形三次元モデルは、変形三次元メッシュモデルを含み、
    前記分岐した解剖学的構造の構成の前記変形状態の前記変形三次元モデルを作るために前記基準三次元モデルに前記三次元変形場を適用することは、変形した頂点のセットを作ることを含み、前記変形三次元メッシュモデルは、前記変形した頂点のセットを含む、
    請求項9乃至13のいずれか1項に記載の処理システム。
  15. 前記基準状態から前記変形状態への変形を記述する前記三次元場ベクトルのアレイを生成することは:
    前記プロセッサによって生成された前記分岐した解剖学的構造の構成の前記基準状態に対する基準スケルトンツリー;及び
    前記プロセッサによって生成された前記分岐した解剖学的構造の構成の前記変形状態に対する変形スケルトンツリー;
    に基づく、
    請求項9乃至14のいずれか1項に記載の処理システム。
JP2019201983A 2014-02-04 2019-11-07 介入ツールの仮想ナビゲーションのための組織の非剛体変形のためのシステム及び方法 Active JP6928059B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461935547P 2014-02-04 2014-02-04
US61/935,547 2014-02-04
JP2016549757A JP2017511712A (ja) 2014-02-04 2015-02-03 介入ツールの仮想ナビゲーションのための組織の非剛体変形のためのシステム及び方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016549757A Division JP2017511712A (ja) 2014-02-04 2015-02-03 介入ツールの仮想ナビゲーションのための組織の非剛体変形のためのシステム及び方法

Publications (2)

Publication Number Publication Date
JP2020032230A true JP2020032230A (ja) 2020-03-05
JP6928059B2 JP6928059B2 (ja) 2021-09-01

Family

ID=53778370

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016549757A Pending JP2017511712A (ja) 2014-02-04 2015-02-03 介入ツールの仮想ナビゲーションのための組織の非剛体変形のためのシステム及び方法
JP2019201983A Active JP6928059B2 (ja) 2014-02-04 2019-11-07 介入ツールの仮想ナビゲーションのための組織の非剛体変形のためのシステム及び方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016549757A Pending JP2017511712A (ja) 2014-02-04 2015-02-03 介入ツールの仮想ナビゲーションのための組織の非剛体変形のためのシステム及び方法

Country Status (6)

Country Link
US (6) US10314656B2 (ja)
EP (2) EP3102143A4 (ja)
JP (2) JP2017511712A (ja)
KR (2) KR20210156301A (ja)
CN (1) CN106170265B (ja)
WO (1) WO2015119935A1 (ja)

Families Citing this family (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
JP2017511712A (ja) 2014-02-04 2017-04-27 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 介入ツールの仮想ナビゲーションのための組織の非剛体変形のためのシステム及び方法
WO2015121764A1 (en) * 2014-02-11 2015-08-20 Koninklijke Philips N.V. Spatial visualization of internal mammary artery during minimally invasive bypass surgery
EP3243476B1 (en) 2014-03-24 2019-11-06 Auris Health, Inc. Systems and devices for catheter driving instinctiveness
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US10373719B2 (en) 2014-09-10 2019-08-06 Intuitive Surgical Operations, Inc. Systems and methods for pre-operative modeling
WO2016054256A1 (en) 2014-09-30 2016-04-07 Auris Surgical Robotics, Inc Configurable robotic surgical system with virtual rail and flexible endoscope
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
JP6824967B2 (ja) 2015-09-18 2021-02-03 オーリス ヘルス インコーポレイテッド 管状網のナビゲーション
EP3352648B1 (en) 2015-09-26 2022-10-26 Boston Scientific Scimed Inc. Multiple rhythm template monitoring
CN108140265B (zh) * 2015-09-26 2022-06-28 波士顿科学医学有限公司 用于解剖外壳编辑的系统和方法
US10405766B2 (en) 2015-09-26 2019-09-10 Boston Scientific Scimed, Inc. Method of exploring or mapping internal cardiac structures
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
JP6701232B2 (ja) * 2016-01-08 2020-05-27 オリンパス株式会社 マニピュレータシステムとその駆動方法
US9898858B2 (en) * 2016-05-18 2018-02-20 Siemens Healthcare Gmbh Human body representation with non-rigid parts in an imaging system
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
WO2018122946A1 (ja) 2016-12-27 2018-07-05 オリンパス株式会社 医療用マニピュレータの形状取得方法および制御方法
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
US11793579B2 (en) 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
CN108990412B (zh) 2017-03-31 2022-03-22 奥瑞斯健康公司 补偿生理噪声的用于腔网络导航的机器人系统
US11571262B2 (en) 2017-04-18 2023-02-07 Intuitive Surgical Operations, Inc. Graphical user interface for planning a procedure
EP3621520A4 (en) 2017-05-12 2021-02-17 Auris Health, Inc. BIOPSY APPARATUS AND SYSTEM
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
WO2019005872A1 (en) 2017-06-28 2019-01-03 Auris Health, Inc. INSTRUMENT INSERTION COMPENSATION
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
EP3694412A4 (en) 2017-10-10 2021-08-18 Covidien LP SYSTEM AND METHOD FOR IDENTIFYING AND MARKING A TARGET IN A THREE-DIMENSIONAL FLUOROSCOPIC RECONSTRUCTION
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
EP3684282B1 (en) 2017-12-06 2024-02-21 Auris Health, Inc. Systems to correct for uncommanded instrument roll
JP7322026B2 (ja) 2017-12-14 2023-08-07 オーリス ヘルス インコーポレイテッド 器具の位置推定のシステムおよび方法
WO2019125964A1 (en) 2017-12-18 2019-06-27 Auris Health, Inc. Methods and systems for instrument tracking and navigation within luminal networks
JP6999824B2 (ja) 2018-01-17 2022-01-19 オーリス ヘルス インコーポレイテッド 調節可能なアーム支持体を有する外科用プラットフォーム
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US10893842B2 (en) 2018-02-08 2021-01-19 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
WO2019164271A1 (ko) * 2018-02-20 2019-08-29 (주)휴톰 가상신체모델 생성 방법 및 장치
KR102014385B1 (ko) * 2018-02-20 2019-08-26 (주)휴톰 수술영상 학습 및 학습 기반 수술동작 인식 방법 및 장치
WO2019191143A1 (en) 2018-03-28 2019-10-03 Auris Health, Inc. Systems and methods for displaying estimated location of instrument
WO2019191144A1 (en) 2018-03-28 2019-10-03 Auris Health, Inc. Systems and methods for registration of location sensors
CN110831486B (zh) * 2018-05-30 2022-04-05 奥瑞斯健康公司 用于基于定位传感器的分支预测的系统和方法
WO2019231891A1 (en) 2018-05-31 2019-12-05 Auris Health, Inc. Path-based navigation of tubular networks
EP3801348B1 (en) 2018-05-31 2024-05-01 Auris Health, Inc. Image-based airway analysis and mapping
CN112236083A (zh) 2018-05-31 2021-01-15 奥瑞斯健康公司 用于导航检测生理噪声的管腔网络的机器人系统和方法
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
AU2019326548B2 (en) 2018-08-24 2023-11-23 Auris Health, Inc. Manually and robotically controllable medical instruments
WO2020060750A1 (en) 2018-09-17 2020-03-26 Auris Health, Inc. Systems and methods for concomitant medical procedures
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
EP3856064A4 (en) 2018-09-28 2022-06-29 Auris Health, Inc. Systems and methods for docking medical instruments
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
EP3866718A4 (en) 2018-12-20 2022-07-20 Auris Health, Inc. ROBOT ARM ALIGNMENT AND DOCKING SYSTEMS AND METHODS
AU2019414510A1 (en) 2018-12-28 2021-06-03 Auris Health, Inc. Percutaneous sheath for robotic medical systems and methods
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
WO2020163076A1 (en) 2019-02-08 2020-08-13 Auris Health, Inc. Robotically controlled clot manipulation and removal
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
JP2022527834A (ja) 2019-04-08 2022-06-06 オーリス ヘルス インコーポレイテッド 付随する処置のためのシステム、方法、及びワークフロー
US20200375665A1 (en) * 2019-05-31 2020-12-03 Canon U.S.A., Inc. Medical continuum robot and methods thereof
JP2022544554A (ja) 2019-08-15 2022-10-19 オーリス ヘルス インコーポレイテッド 複数の屈曲部を有する医療デバイス
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
WO2021038495A1 (en) 2019-08-30 2021-03-04 Auris Health, Inc. Instrument image reliability systems and methods
KR20220058569A (ko) * 2019-08-30 2022-05-09 아우리스 헬스, 인코포레이티드 위치 센서의 가중치-기반 정합을 위한 시스템 및 방법
CN114630618A (zh) 2019-09-09 2022-06-14 马格尼司帝有限公司 用于认证三维物体的方法及装置
US11864935B2 (en) 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
US11931111B2 (en) 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
EP4028221A1 (en) 2019-09-10 2022-07-20 Auris Health, Inc. Systems and methods for kinematic optimization with shared robotic degrees-of-freedom
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
WO2021059099A1 (en) 2019-09-26 2021-04-01 Auris Health, Inc. Systems and methods for collision detection and avoidance
EP4084722A4 (en) 2019-12-31 2024-01-10 Auris Health Inc ALIGNMENT INTERFACES FOR PERCUTANE ACCESS
EP4084720A4 (en) 2019-12-31 2024-01-17 Auris Health Inc ALIGNMENT TECHNIQUES FOR PERCUTANE ACCESS
CN114901194A (zh) 2019-12-31 2022-08-12 奥瑞斯健康公司 解剖特征识别和瞄准
US11847730B2 (en) 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
CN111627092B (zh) * 2020-05-07 2021-03-09 江苏原力数字科技股份有限公司 一种从拓扑关系构建高强度的弯曲约束的方法
WO2022003485A1 (en) 2020-06-29 2022-01-06 Auris Health, Inc. Systems and methods for detecting contact between a link and an external object
CN216136534U (zh) * 2020-06-29 2022-03-29 巴德阿克塞斯系统股份有限公司 用于将医疗装置放置入患者身体内的医疗装置系统
US11357586B2 (en) 2020-06-30 2022-06-14 Auris Health, Inc. Systems and methods for saturated robotic movement
WO2022003493A1 (en) 2020-06-30 2022-01-06 Auris Health, Inc. Robotic medical system with collision proximity indicators
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
EP4259026A1 (en) * 2020-12-10 2023-10-18 Magnisity Ltd Dynamic deformation tracking for navigational bronchoscopy
US11475632B1 (en) * 2020-12-17 2022-10-18 Neucures Inc System and method for electro-anatomical mapping (EAM) based on a surface mesh
US20230013884A1 (en) * 2021-07-14 2023-01-19 Cilag Gmbh International Endoscope with synthetic aperture multispectral camera array
WO2023037367A1 (en) * 2021-09-09 2023-03-16 Magnisity Ltd. Self-steering endoluminal device using a dynamic deformable luminal map
WO2023218468A1 (en) * 2022-05-12 2023-11-16 Magnisity Ltd. Curve inductive sensor

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3510025B2 (ja) 1995-11-10 2004-03-22 ジーイー横河メディカルシステム株式会社 超音波撮像装置
US6380732B1 (en) 1997-02-13 2002-04-30 Super Dimension Ltd. Six-degree of freedom tracking system having a passive transponder on the object being tracked
GB9713018D0 (en) 1997-06-20 1997-08-27 Secr Defence Optical fibre bend sensor
JP2000182076A (ja) * 1998-12-16 2000-06-30 Sony Corp データ処理装置およびデータ処理方法、並びに提供媒体
WO2005058137A2 (en) 2003-12-12 2005-06-30 University Of Washington Catheterscope 3d guidance and interface system
WO2005070318A1 (en) 2004-01-20 2005-08-04 Philips Intellectual Property & Standards Gmbh Device and method for navigating a catheter
US7450743B2 (en) 2004-01-21 2008-11-11 Siemens Medical Solutions Usa, Inc. Method and system of affine registration of inter-operative two dimensional images and pre-operative three dimensional images
US7781724B2 (en) 2004-07-16 2010-08-24 Luna Innovations Incorporated Fiber optic position and shape sensing device and method relating thereto
US20060013523A1 (en) 2004-07-16 2006-01-19 Luna Innovations Incorporated Fiber optic position and shape sensing device and method relating thereto
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US7930065B2 (en) 2005-12-30 2011-04-19 Intuitive Surgical Operations, Inc. Robotic surgery system including position sensors using fiber bragg gratings
US20070231779A1 (en) * 2006-02-15 2007-10-04 University Of Central Florida Research Foundation, Inc. Systems and Methods for Simulation of Organ Dynamics
EP2074585B1 (en) 2006-10-03 2018-07-11 Koninklijke Philips N.V. Model-based coronary centerline localization
EP3260042B1 (en) * 2006-11-10 2020-07-15 Covidien LP Adaptive navigation technique for navigating a catheter through a body channel or cavity
WO2008076910A1 (en) 2006-12-15 2008-06-26 The Board Of Trustees Of The Leland Stanford Junior University Image mosaicing systems and methods
US8473030B2 (en) * 2007-01-12 2013-06-25 Medtronic Vascular, Inc. Vessel position and configuration imaging apparatus and methods
US20080193904A1 (en) * 2007-02-14 2008-08-14 University Of Central Florida Research Foundation Systems and Methods for Simulation of Organ Dynamics
WO2009064715A1 (en) * 2007-11-14 2009-05-22 Auckland Uniservices Limited Method for multi-scale meshing of branching biological structures
US8400455B2 (en) * 2008-01-11 2013-03-19 Sony Corporation Method and apparatus for efficient offset curve deformation from skeletal animation
US8219179B2 (en) * 2008-03-06 2012-07-10 Vida Diagnostics, Inc. Systems and methods for navigation within a branched structure of a body
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
WO2010111090A1 (en) 2009-03-26 2010-09-30 Intuitive Surgical Operations, Inc. System for providing visual guidance for steering a tip of an endoscopic device towards one or more landmarks and assisting an operator in endoscopic navigation
US8718338B2 (en) 2009-07-23 2014-05-06 General Electric Company System and method to compensate for respiratory motion in acquired radiography images
JP5586917B2 (ja) * 2009-10-27 2014-09-10 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
CN102970926B (zh) 2010-06-28 2016-08-17 皇家飞利浦电子股份有限公司 Em校准的实时质量控制
WO2012025856A1 (en) 2010-08-23 2012-03-01 Koninklijke Philips Electronics N.V. Mapping system and method for medical procedures
US8900131B2 (en) 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
EP3470003A3 (en) * 2012-05-14 2019-04-24 Intuitive Surgical Operations Inc. Systems for deformation compensation using shape sensing
US10134167B2 (en) * 2013-03-15 2018-11-20 Dreamworks Animation Llc Using curves to emulate soft body deformation
JP2017511712A (ja) 2014-02-04 2017-04-27 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 介入ツールの仮想ナビゲーションのための組織の非剛体変形のためのシステム及び方法

Also Published As

Publication number Publication date
CN106170265B (zh) 2020-06-30
US20210236206A1 (en) 2021-08-05
EP3102143A1 (en) 2016-12-14
JP2017511712A (ja) 2017-04-27
US20190254752A1 (en) 2019-08-22
JP6928059B2 (ja) 2021-09-01
US20220378509A1 (en) 2022-12-01
US11376075B2 (en) 2022-07-05
EP3102143A4 (en) 2017-11-08
KR20210156301A (ko) 2021-12-24
WO2015119935A1 (en) 2015-08-13
US10314656B2 (en) 2019-06-11
KR20160118295A (ko) 2016-10-11
US20170189118A1 (en) 2017-07-06
US20200078095A1 (en) 2020-03-12
US11786311B2 (en) 2023-10-17
CN106170265A (zh) 2016-11-30
US10966790B2 (en) 2021-04-06
US20240065769A1 (en) 2024-02-29
EP3979210A1 (en) 2022-04-06
US10499993B2 (en) 2019-12-10

Similar Documents

Publication Publication Date Title
US11786311B2 (en) Systems and methods for non-rigid deformation of tissue for virtual navigation of interventional tools
US11791032B2 (en) Systems and methods for filtering localization data
US20240041531A1 (en) Systems and methods for registering elongate devices to three-dimensional images in image-guided procedures
US20220378517A1 (en) Systems and methods for intelligently seeding registration
JP6666379B2 (ja) 形状センシングを使用した変形補償のためのシステム及び方法
CN107690302B (zh) 在图像引导的外科手术中的配准补偿的系统和方法
JP6615871B2 (ja) 適応入力マッピングのためのシステム及び方法
KR102214145B1 (ko) 축소된 탐색 공간을 이용하여 의료 장치를 조정하는 시스템 및 방법
US20210259783A1 (en) Systems and Methods Related to Registration for Image Guided Surgery
US11514591B2 (en) Systems and methods related to registration for image guided surgery

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210805

R150 Certificate of patent or registration of utility model

Ref document number: 6928059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150