JP2015530903A - 多数のビジョンシステムのレジストレーションのためのシステム及び方法 - Google Patents

多数のビジョンシステムのレジストレーションのためのシステム及び方法 Download PDF

Info

Publication number
JP2015530903A
JP2015530903A JP2015527518A JP2015527518A JP2015530903A JP 2015530903 A JP2015530903 A JP 2015530903A JP 2015527518 A JP2015527518 A JP 2015527518A JP 2015527518 A JP2015527518 A JP 2015527518A JP 2015530903 A JP2015530903 A JP 2015530903A
Authority
JP
Japan
Prior art keywords
region
tissue structures
image capture
capture probe
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015527518A
Other languages
English (en)
Other versions
JP6301332B2 (ja
Inventor
ザオ,タオ
ショプラ,プラシャント
Original Assignee
インテュイティブ サージカル オペレーションズ, インコーポレイテッド
インテュイティブ サージカル オペレーションズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテュイティブ サージカル オペレーションズ, インコーポレイテッド, インテュイティブ サージカル オペレーションズ, インコーポレイテッド filed Critical インテュイティブ サージカル オペレーションズ, インコーポレイテッド
Publication of JP2015530903A publication Critical patent/JP2015530903A/ja
Application granted granted Critical
Publication of JP6301332B2 publication Critical patent/JP6301332B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/009Flexible endoscopes with bending or curvature detection of the insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Endoscopes (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

方法が、解剖領域のモデルを生成するステップ、及び、解剖領域内に置かれた内視鏡画像キャプチャプローブから本物の画像を受けるステップを含む。当該方法は、本物の画像内の本物の基準領域を同定するステップ、及び、解剖領域のモデル内の複数の仮想的な組織構造体を同定するステップをさらに含む。当該方法は、複数の仮想的な組織構造体の1つを本物の基準領域と一致させるステップ、及び、一致させられた複数の仮想的な組織構造体の1つから、内視鏡画像キャプチャプローブのプローブポーズを決定するステップをさらに含む。

Description

本開示は、最小侵襲手技を行うよう患者の解剖学的形態を進むためのシステム及び方法を対象としており、特に、最小侵襲手技を行う際に使用される多数のビジョンシステムを位置合わせするためのシステム及び方法を対象としている。
最小侵襲医療技術は、介入的手技の間にダメージを受ける組織の量を減らし、その結果、患者の回復時間を短くする、不快感を減らす、及び、有害な副作用を減らすように意図される。そのような最小侵襲技術は、患者の解剖学的形態における自然孔を介して、又は、1つ又は複数の外科的切開を介して行われてもよい。これらの自然孔又は切開を介して、臨床医は、(手術用器具、診断用器具、治療用器具又は生検用器具を含む)介入的器具を挿入して標的組織位置に到達してもよい。標的組織位置に到達するために、最小侵襲介入的器具は、肺、大腸、腸管、腎臓、心臓若しくは循環器系等の解剖学的システム内の自然の又は外科的に作られた通路を進んでもよい。多数のシステムを使用して、解剖学的通路を通って介入的器具を導くことにおいて臨床医を補助してもよい。これらのシステムは、介入的器具の視点からの解剖学的通路の視野を臨床医に表示する可視化システムを含む。
多数の可視化システムを利用して臨床医の介入的器具の位置及びポーズの理解を高めるための改善されたシステム及び方法が必要である。
本発明の実施形態が、以下に続く特許請求の範囲によって要約される。
一実施形態において、方法が、解剖領域のモデルを生成するステップ、及び、解剖領域内に置かれた内視鏡画像キャプチャプローブから本物の画像を受けるステップを含む。当該方法は、本物の画像内の本物の基準領域を同定するステップ、及び、解剖領域のモデル内の複数の仮想的な組織構造体を同定するステップをさらに含む。当該方法は、複数の仮想的な組織構造体の1つを本物の基準領域と一致させるステップ、及び、一致させられた複数の仮想的な組織構造体の1つから、内視鏡画像キャプチャプローブのプローブポーズを決定するステップをさらに含む。
別の実施形態において、医療システムが、可撓性カテーテル本体、カテーテル本体内で延びる画像キャプチャプローブ、及び、解剖領域を描く解剖学的データを記憶するメモリを含む。当該システムは、解剖領域のモデルを生成する、及び、解剖領域内に置かれた画像キャプチャプローブから本物の画像を受けるように構成されるプロセッサをさらに含む。プロセッサは、本物の画像内の本物の基準領域を同定する、及び、解剖領域のモデル内の複数の仮想的な組織構造体を同定するようさらに構成される。プロセッサは、複数の仮想的な組織構造体の1つを本物の基準領域と一致させる、及び、一致させられた複数の仮想的な組織構造体の1つから、画像キャプチャプローブのプローブポーズを決定するようさらに構成される。
解剖学的画像を位置合わせする方法であって、当該方法は、解剖領域の三次元モデルを生成するステップ、及び、解剖領域内に置かれた内視鏡画像キャプチャプローブから本物の画像を受けるステップを含む。当該方法は、本物の画像内の本物の基準領域を同定するステップ、及び、プローブの先端が位置する解剖領域の小領域を同定する位置センサから位置情報を受けるステップをさらに含む。当該方法は、小領域内の複数の仮想的な組織構造体を同定するステップ、小領域内の複数の仮想的な組織構造体の1つを本物の基準領域と一致させるステップ、及び、一致させられた小領域内の複数の仮想的な組織構造体の1つから、内視鏡画像キャプチャプローブのプローブポーズを決定するステップをさらに含む。
本開示の態様は、以下の詳細な説明から、付随の図と共に読まれた場合に最も理解される。当産業における標準的技法に従って、種々の特徴は一定の比例に応じて描かれているのではないということが強調される。実際、種々の特徴の大きさは、考察を明瞭にするため、任意に増やすか又は減らしてもよい。加えて、本開示は、種々の例において参照番号及び/又は文字を繰り返してもよい。この繰り返しは、簡潔性及び明瞭性のためであり、それ自体が、考察される種々の実施形態及び/又は構成間の関係を決定するわけではない。
本開示の実施形態によるロボット介入的システムを示した図である。 本開示の態様を利用した介入的器具システムを例示した図である。 肺内の可視化器具からのサンプルの本物の画像を示した図である。 図3aの本物の画像から抽出された組織構造体の表現を示した図である。 図3aの本物の画像から抽出された組織構造体の階層的表現を示した図である。 図3aの本物の画像から抽出された組織構造体の階層的表現を示した図である。 最小侵襲器具が挿入された肺を描く追跡画像を示した図である。 図3eの追跡画像の小領域の拡大図である。 本物の画像、仮想的な画像、マイクロ追跡画像及びマクロ追跡画像を表示する例証的な表示画面を示した図である。 多数の可視化システムを位置合わせするための方法を例示した流れ図である。 多数の可視化システムを位置合わせするための方法を例示した流れ図である。 多数の可視化システムを位置合わせするための方法を例示した流れ図である。 多数の可視化システムを位置合わせするための方法を例示した流れ図である。
以下の本発明の態様の詳細な説明において、数多くの特定の詳細が明記され、開示される実施形態の完全な理解を提供している。しかし、この開示の実施形態は、これらの特定の詳細を要することなく実行されてもよいということが当業者には明らかになる。他の例において、よく知られた方法、手順、構成要素及び回路は、本発明の実施形態の態様を不必要に不明瞭にしないように詳細に記載されていない。さらに、必要でない説明の繰返しを回避するために、1つの例示的な実施形態に従って記載される1つ又は複数の構成要素若しくは動作は、他の例示的な実施形態から適用可能であるとして使用する又は省くことができる。
以下の実施形態は、種々の器具及び器具の一部を、三次元空間におけるその状態の観点から説明している。本明細書において使用される場合、「位置」という用語は、(例えば、デカルトX、Y、Z座標に沿った3つの並進移動(translational)自由度等)三次元空間における対象又は対象の一部の位置を意味する。本明細書において使用される場合、「方向」という用語は、対象又は対象の一部の回転による配置(3つの回転自由度、例えばロール、ピッチ及びヨー等)を意味する。本明細書において使用される場合、「ポーズ」という用語は、(全部で6つの自由度までで)少なくとも1つの並進移動自由度における対象又は対象の一部の位置、及び、少なくとも1つの回転自由度におけるその対象又は対象の一部の方向を意味する。本明細書において使用される場合、「形状」という用語は、対象に沿って測定されるポーズ、位置又は方向のセットを意味する。
図面の図1を参考にすると、例えば手術、診断、治療又は生検手技において使用するためのロボット介入的システムが、参照番号100によって概して示されている。図1において示されているように、ロボットシステム100は、一般に、患者Pに対して種々の手技を行うことにおいて介入的器具104を操作するための介入的マニピュレーターアセンブリ102を含む。アセンブリ102は、手術台Oに載せられるか又はその近くにある。マスターアセンブリ106は、外科医Sが手術部位を見るのを、及び、スレーブマニピュレーターアセンブリ102を制御するのを可能にする。
マスターアセンブリ106は、手術台Oと同じ室内に通常置かれる外科医のコンソールCに置かれてもよい。しかし、外科医Sは、患者Pとは異なる部屋又は完全に異なる建物に置くことができるということが理解されるべきである。マスターアセンブリ106は、一般に、任意の支持物108、及び、マニピュレーターアセンブリ102を制御するための1つ又は複数の制御装置112を含む。1つ又は複数の制御装置112は、ジョイスティック、トラックボール、データグローブ、トリガーガン、手動操作制御装置、音声認識装置、又は、身体動作若しくは存在センサ等、いかなる数の種々の入力装置を含んでもよい。いくつかの実施形態において、1つ又は複数の制御装置112には、付随の介入的器具104と同じ自由度が提供されて、テレプレゼンス、又は、1つ又は複数の制御装置112が器具104と一体であるという知覚を外科医に提供するため、外科医は、器具104を直接制御しているという強い感覚を有する。他の実施形態において、1つ又は複数の制御装置112は、付随の介入的器具104よりも多い又は少ない自由度を有し、外科医にテレプレゼンスを依然として提供してもよい。いくつかの実施形態において、1つ又は複数の制御装置112は、6つの自由度で動く手動の入力装置であり、(例えば、はさみ口(grasping jaw)を閉じるため、電極に電位を加えるため又は薬物治療を送達するため等)器具を作動させるための作動可能ハンドルも含んでよい。
別の実施形態において、ロボットシステムは、2つ以上のスレーブマニピュレーターアセンブリ及び/又は2つ以上のマスターアセンブリを含んでもよい。マニピュレーターアセンブリの正確な数は、複数の要因の中でも外科手術手技及び手術室内の空間制限次第である。マスターアセンブリは一か所に置かれてもよく、又は、別の位置に置かれてもよい。多数のマスターアセンブリは、二人以上のオペレータが、種々の組み合わせの1つ又は複数のスレーブマニピュレーターアセンブリを制御するのを可能にする。
可視化システム110は、手術部位の同時発生(リアルタイム)画像が外科医コンソールCに提供されるように、内視鏡システムを含んでもよい。同時発生画像は、例えば、手術部位内に置かれた内視鏡プローブによってキャプチャされる二次元又は三次元画像であってもよい。この実施形態において、可視化システム110は、介入的器具104に統合して又は取外し可能に結合されてもよい内視鏡的構成要素を含む。しかし、別の実施形態において、別のマニピュレーターアセンブリに取り付けられた別の内視鏡を使用し、手術部位を画像表示してもよい。或いは、別の内視鏡アセンブリは、ロボット制御を要することなく、ユーザによって直接作動させられてもよい。内視鏡アセンブリは、(例えば遠隔操作ステアリングワイヤを介して等)アクティブステアリング、又は、(例えばガイドワイヤ若しくは直接的なユーザの指導を介して等)パッシブステアリングを含んでもよい。可視化システム110は、1つ又は複数のコンピュータプロセッサと相互作用するか又さもなければ1つ又は複数のコンピュータプロセッサによって実行されるハードウェア、ファームウェア、ソフトウェア又はその組み合わせとして実行されてもよく、1つ又は複数のコンピュータプロセッサは、制御システム116の1つ又は複数のプロセッサを含んでもよい。
表示システム111は、可視化システム110によってキャプチャされた手術部位及び介入的器具の画像を表示してもよい。ディスプレイ111及び1つ又は複数のマスター制御装置112は、スコープアセンブリにおける画像処理装置と介入的器具との相対位置が、外科医の眼と1つ又は複数の手との相対位置と類似するように方向づけられてもよく、従って、オペレータは、実質的に本当に目の前で作業空間を見ているかのように、介入的器具104及び1つ又は複数のマスター制御装置112を操縦することができる。本当に目の前でとは、表示される組織の画像が、イメージャの位置にてオペレータが物理的に存在し且つイメージャの視点からの組織を直接見ているかのようにオペレータのもとに現れるということを意味している。
或いは又は加えて、表示システム111は、コンピュータ断層撮影法(CT)、磁気共鳴画像法(MRI)、蛍光透視法、サーモグラフィー、超音波、光干渉断層撮影法(OCT)、熱画像測定、インピーダンス画像法、レーザー画像法又はナノチューブX線画像法等の画像処理技術を使用して手術前に記録された及び/又はモデリングされた手術部位の画像を示してもよい。示された手術前画像は、二次元、三次元、又は、(例えば時間ベース若しくは速度ベースの情報を含む)四次元の画像を含んでもよい。
いくつかの実施形態において、表示システム111は、介入的器具の実際の位置が、手術前又は同時発生の画像に位置合わせされて(例えば動的に参照されて)手術器具の先端の位置の内部の手術部位の仮想的な画像を外科医Sに与える仮想的な可視化画像を表示してもよい。
他の実施形態において、表示システム111は、介入的器具の実際の位置が、(手術前に記録された画像を含む)前の画像又は同時発生の画像に位置合わせされて、手術部位の介入的器具の仮想的な画像を外科医Sに与える仮想的な可視化画像を表示してもよい。介入的器具の一部の画像を仮想的な画像に重ねて、介入的器具を制御する外科医を補助してもよい。
図1において示されているように、制御システム116は、外科用スレーブマニピュレーターアセンブリ102とマスターアセンブリ106と可視化システム110と表示システム111との間の制御に影響を与えるための少なくとも1つのプロセッサ(図示せず)及び典型的には複数のプロセッサを含む。制御システム116は、本明細書において記載される方法の一部又は全てを実行するプログラムによる命令(例えば、命令を記憶するコンピュータ可読媒体)も含む。制御システム116は、図1の概略図において単一のブロックとして示されているけれども、このシステムは、処理の少なくとも一部が任意で外科用スレーブマニピュレーターアセンブリに隣接して行わる、一部がマスターアセンブリに隣接して行われる等、(例えば、外科用スレーブマニピュレーターアセンブリ102及び/又はマスターアセンブリ106上に)多くのデータ処理回路を含んでもよい。種々様々な集中型又は分散型データ処理アーキテクチャーのいずれも利用してよい。同様に、プログラムによる命令を、多くの別のプログラム若しくはサブルーチンとして実行してもよく、又は、本明細書に記載されるロボットシステムの多くの他の態様に統合させてもよい。一実施形態において、制御システム116は、Bluetooth(登録商標)、IrDA、HomeRF、IEEE802.11、DECT及びWireless Telemetry等の無線通信プロトコルをサポートしてもよい。
いくつかの実施形態において、制御システム116は、介入的器具104からの力及びトルクフィードバックを、1つ又は複数の制御装置112に対する1つ又は複数の対応するサーボモータに提供するために1つ又は複数のサーボコントローラを含んでもよい。1つ又は複数のサーボコントローラは、体内の開口部を介して患者の体内の内部手術部位内に延びる器具を動かすようマニピュレーターアセンブリ102に指示する信号を送ることもできる。いかなる適した従来又は専門のサーボコントローラも使用してよい。サーボコントローラは、マニピュレーターアセンブリ102とは別であってもよく、又は、マニピュレーターアセンブリ102と一体であってもよい。いくつかの実施形態において、サーボコントローラ及びマニピュレーターアセンブリは、患者の体に隣接して置かれるロボットアームカートの一部として提供される。
各マニピュレーターアセンブリ102が介入的器具104をサポートし、さらに、1つ又は複数のノンサーボ制御リンク(例えば、一般的にはセットアップ構造と呼ばれる、しかるべき所に手動で置く及び固定することができる1つ又は複数のリンク)及びロボットマニピュレーターの運動力学的構造を含んでもよい。ロボットマニピュレーターアセンブリ102は、複数の作動装置(例えばモータ等)によって駆動されてもよい。これらのモータは、制御システム116からのコマンドに応答してロボットマニピュレーターを能動的に動かす。モータは、自然に又は外科的に作られた解剖学的孔の中に介入的器具を進めるよう、及び、複数の自由度において介入的器具の遠位端を動かすように介入的器具にさらに結合され、複数の自由度は、(例えばX、Y、Zのデカルト軸に沿った直進運動等の)3つの直線運動度、及び、(例えば、X、Y、Zのデカルト軸を中心とした回転等の)3つの回転運動度を含んでもよい。加えて、モータを使用して、生検装置等のはさみ口において組織をとらえるために、器具のつなげることができるエンドエフェクタを作動させることができる。
図2は、本開示の態様を利用する最小侵襲システム200を例示している。システム200は、システム100等のロボット介入的システム内に組み入れることができる。或いは、システム200は、ロボットなしの調査手技、又は、腹腔鏡検査用器具等の伝統的な手動操作の介入的器具を要する手技に使用することができる。システム200は、本物の可視化のシステム206及び追跡システム208にインターフェースユニット204によって結合されたカテーテルシステム202(例えば器具104の一部)を含む。ナビゲーションシステム210(例えば制御システム116の一部)は、表示システム214(例えば表示システム111の一部)上に表示するために、本物の可視化のシステム206、追跡システム208及び仮想的な可視化のシステム212からの情報を処理する。システム200は、照射システム、ステアリング制御システム、洗浄システム及び/又は吸引システム等、任意の動作及びサポートシステム(図示せず)をさらに含んでもよい。
カテーテルシステム202は、近位端217及び遠位端218を有する細長い可撓体216を含む。一実施形態において、可撓体216は、約3mmの外径を有する。他の可撓体の外径は、より大きいか又はより小さくあってもよい。可撓体216は、画像キャプチャプローブ220を収容する。画像キャプチャプローブ220は、双眼実体カメラ又は単眼実体カメラ222を有する先端部分を含み、双眼実体カメラ又は単眼実体カメラ222は、本物の可視化のシステム206に送られ且つ本物の可視化のシステム206によって処理される(ビデオ画像を含む)画像をキャプチャするために可撓体216の遠位端218の近くに配置されている。画像キャプチャプローブ220は、キャプチャされた画像データを本物の可視化のシステム206に送るために、カメラに結合されるケーブル224も含む。或いは、画像キャプチャ器具は、画像処理システムに結合するファイバースコープ等の光ファイバー束であってもよい。画像キャプチャ器具は、例えば可視スペクトルで画像データをキャプチャするか、又は、可視及び赤外線又は紫外線のスペクトルで画像データをキャプチャする単一又は多スペクトルのものであってもよい。
可撓体216は、例えば点線のバージョンの遠位端によって示されているように遠位端218を制御可能に曲げる又は回転させるために、インターフェース204と先端の遠位端218との間を延びるケーブル、リンケージ又は他のステアリング制御装置(図示せず)も収容している。カテーテルシステムは、操縦可能であってもよく、又或いは、器具の曲りのオペレータ制御に対して統合された機構を有することなく操縦不可能であってもよい。可撓体214は、例えば標的組織の所定の処理に影響を与えるため等、医療作用に対してマニピュレート可能な外科用エンドエフェクタ又は別の作業遠位部分を操作するための制御機構(図示せず)をさらに収容してもよい。例えば、いくつかのエンドエフェクタは、メス、刃、光ファイバー又は電極等、1つの作業部材を有する。他のエンドエフェクタは、例えば、鉗子、捕捉器具、はさみ又はクリップアプライヤー等、一対又は複数の作業部材を含んでもよい。電気活性化エンドエフェクタの例として、電気外科的な電極、トランスデューサー及びセンサ等が挙げられる。さらに、又或いは、可撓体216は、1つ又は複数の管腔を定めることができ、管腔を介して、介入的器具を展開し、さらに、標的手術位置にて使用することができる。
カテーテルシステム202は、任意で、遠位端218並びに可撓体216に沿った1つ又は複数のセグメント230の位置、方向、速度、ポーズ及び/又は形状を決定するために、位置センサシステム226(例えば電磁(EM)センサシステム)及び形状センサシステム228を含む。遠位端218と近位端217との間の可撓体216の全長は、セグメント230へと効果的に分割されてもよい。位置センサシステム226及び形状センサシステム228は、追跡システム208とインターフェースする。追跡システム208は、1つ又は複数のコンピュータプロセッサと相互作用するか又さもなければ1つ又は複数のコンピュータプロセッサによって実行されるハードウェア、ファームウェア、ソフトウェア又はその組み合わせとして実行されてもよく、1つ又は複数のコンピュータプロセッサは、制御システム116のプロセッサを含んでもよい。さらに、又或いは、位置センサシステムはプローブ220に結合されてもよい。例えば、5つの自由度のセンサが、遠位の先端の近くでプローブ220に結合され、より大きな6つの自由度のセンサが、より近位の位置にてカテーテルに結合されてもよい。
位置センサシステム226は、外部で生成される電磁場に供することができる1つ又は複数の導電コイルを含むEMセンサシステムであってもよい。EMセンサシステム226のそれぞれのコイルは、次に、外部で生成される電磁場に対するコイルの位置及び方向に依存する特徴を有する誘導電気信号を生じる。一実施形態において、EMセンサシステムは、例えば、3つの位置座標X、Y、Z、並びに、基点のピッチ、ヨー及びロールを示す3つの配向角度等、6つの自由度を測定するように構成され及び置かれてもよい。EMセンサシステムのさらなる説明が、全内容を本願に援用する“Six−Degree of Freedom Tracking System Having a Passive Transponder on the Object Being Tracked”を開示している1999年8月11日に出願した米国特許第6,380,732号において提供されている。
形状センサシステム228は、(例えば、内部のチャネル(図示せず)内に提供される、又は、外側に載せられる等)可撓体216に合わせられた光ファイバーを含む。追跡システム208は、光ファイバーの近位端に結合されてもよい。一実施形態において、光ファイバーは、約200μmの直径を有する。他の実施形態において、その大きさは、より大きいか又はより小さくてもよい。
形状センサシステム228の光ファイバーは、カテーテルシステム202の形状を決定するための光ファイバー曲げセンサを形成する。別の手段において、ファイバーブラッググレーティング(Fiber Bragg Gratings(FBG))を含む光ファイバーが、1つ又は複数の大きさの構造体におけるひずみ測定を提供するために使用される。三次元における光ファイバーの形状及び相対位置をモニターするための種々のシステム及び方法が、全内容を本願に援用する“Fiber optic position and shape sensing device and method relating thereto”を開示している2005年7月13日に出願した米国特許出願第11/180,389号、“Fiber−optic shape and relative position sensing”を開示している2004年7月16日に出願した米国仮特許出願第60/588,336号、及び、“Optical Fibre Bend Sensor”を開示している1998年6月17日に出願した米国特許第6,389,187号において記載されている。他の手段において、レイリー散乱、ラマン散乱、ブリュアン散乱及び蛍光散乱等、他のひずみ感知技術を利用するセンサが適していてもよい。他の別の実施形態において、カテーテルの形状は、他の技術を使用して決定されてもよい。例えば、カテーテルの遠位の先端のポーズの経緯が、ナビゲーション表示を更新するための期間よりも短いある時間の間、又は、(例えば吸息及び呼息等)変化する動きの間記憶される場合、そのポーズの経緯を使用して、その期間にわたって装置の形状を再現することができる。別の例として、過去のポーズ、位置又は方向のデータは、呼吸等、変化する動きのサイクルに沿った器具の既知のポイントに対して記憶してもよい。この記憶されたデータを使用して、カテーテルに関する形状の情報を開発してもよい。或いは、カテーテルに沿って置かれるEMセンサ等の一連の位置センサを、形状感知のために使用することができる。或いは、特に解剖学的通路が概して静的である場合に、手技の間の器具上のEMセンサ等の位置センサからのデータの経緯を使用して器具の形状を表してもよい。或いは、外部の磁場によって位置又は方向が制御される無線装置を、形状感知のために使用してもよい。その位置の経緯を使用して、ナビゲートされた通路に対する形状を決定してもよい。
この実施形態において、光ファイバーは、1つのクラッド内に複数のコアを含んでもよい。各コアは、各コアにおける光が、他のコアにおいて運ばれている光と著しく相互作用しないように、充分な距離及びコアを隔てるクラッドを持ったシングルモードであってもよい。他の実施形態において、コアの数は変わってもよく、又は、各コアは、別の光ファイバー内に含有されてもよい。
いくつかの実施形態において、FBGのアレイが、各コア内に提供されている。各FBGは、屈折率において空間的周期性を生成するように、一連のコアの屈折率の変調を含む。間隔は、各率の変化からの部分的な反射が、狭帯域の波長に対してコヒーレントに合算され、従って、はるかに広い帯域を通過させながら、この狭帯域の波長のみを反射するように選ばれてもよい。FBGを製作している間に、変調は既知の距離によって間隔があけられ、その結果、既知の域の波長の反射を引き起こしている。しかし、ひずみがファイバーコア上で誘発される場合、変調の間隔は、コア内のひずみの量に応じて変わる。或いは、光ファイバーの曲げと共に変わる後方散乱又は他の光学現象を使用して、各コア内のひずみを決定することができる。
従って、ひずみを測定するために、光がファイバーまで送られ、戻ってくる光の特徴が測定される。例えば、FBGは、ファイバー上のひずみ及びその温度の結果である反射波長を生じる。このFBG技術は、Smart Fibres Ltd.(Bracknell,England)等の種々の供給源から商業的に入手可能である。ロボット手術に対する位置センサにおけるFBG技術の使用は、全内容を本願に援用する“Robotic Surgery System Including Position Sensors Using Fiber Bragg Gratings”を開示している2006年7月20日に出願した米国特許第7,930,065号において記載されている。
マルチコアファイバーに適用される場合、光ファイバーの曲げは、各コア内の波長シフトをモニターすることによって測定することができるコア上のひずみを誘発する。2つ以上のコアをファイバー内に軸外しで配置させることによって、ファイバーの曲げは、コアのそれぞれに異なるひずみを誘発する。これらのひずみは、局所的なファイバーの曲げ度の結果である。例えば、FBGを含有するコアの領域は、ファイバーが曲げられるポイントにて置かれた場合、その結果、それらのポイントでの曲げの量を決定するために使用することができる。既知のFBG領域の間隔と組み合わされたこれらのデータは、ファイバーの形状を再現するために使用することができる。そのようなシステムは、Luna Innovations Inc.(Blacksburg、Va)によって記載されてきた。
上記のように、光ファイバーは、カテーテルシステム202の少なくとも一部の形状をモニターするために使用される。より明確には、光ファイバーを通過する光が、カテーテルシステム202の形状を検出するため、及び、その情報を利用して外科手術手技を補助するために、追跡システム208によって処理される。追跡システム208は、カテーテルシステム202の形状を決定するために使用される光を生成及び検出するための検出システムを含んでもよい。この情報は、次に、介入的器具の一部の速度及び加速度等、他の関連する変数を決定するために使用することができる。これらの変数のうち1つ又は複数の変数の正確な測定値をリアルタイムで得ることによって、コントローラは、ロボット介入的システムの精度を改善する、及び、構成要素部品を駆動させることにおいて導入されるエラーを補うことができる。感知は、ロボットシステムによって作動される自由度のみに限定されてもよく、又は、(例えば、接合間の未作動の堅い部材の曲げ等)受動自由度にも、(例えば、作動された器具の動き等)能動自由度にも適用されてもよい。
上述のように、本物の可視化のシステム206は、プローブ220から受けるリアルタイムの本物の画像を処理する。本物の可視化のシステム206は、現在のプローブの先端の環境に関する役立つ情報を臨床医に提供するが、特定の標的位置までカテーテルをナビゲートするための方向性の指導はほとんど提供しない。さらに、粘膜、血液及び他の身体事項が、プローブに付着することになり、受けた本物の画像の支障を引き起こす。
仮想的な可視化のシステム212は、さらなるナビゲーション補助を提供する。仮想的な可視化のシステムを使用した仮想的なナビゲーションは、解剖学的通路の三次元構造と付随する取得されたデータセットへの参照に基づいている。より明確には、仮想的な可視化のシステム212は、コンピュータ断層撮影法(CT)、磁気共鳴画像法(MRI)、蛍光透視法、サーモグラフィー、超音波、光干渉断層撮影法(OCT)、熱画像測定、インピーダンス画像法、レーザー画像法又はナノチューブX線画像法等の画像処理技術を使用して記録及び/又はモデル化された手術部位の画像を処理する。ソフトウェアが、記憶された画像を、部分的な若しくは全面的な解剖学的器官又は解剖学的領域の二次元又は三次元モデルに変えるために使用される。モデルは、通路の種々の位置及び形状並びにその接続性を描く。モデルを生成するために使用される画像は、手術前又は臨床手技の間に記録されてもよい。別の実施形態において、仮想的な可視化のシステムは、標準的なモデル(すなわち、患者特異的ではないもの)、又は、標準的なモデルと患者特異的なデータとの混成を使用してもよい。モデル、及び、モデルによって生成されたいかなる仮想的な画像も、1つ又は複数の動きの相の間(例えば、肺の吸気/呼気サイクルの間)の変形可能な解剖領域の静的状態を表すことができる。
仮想的なナビゲーション手技の間、センサシステムを使用して、患者の解剖学的形態に対する器具のおおよその位置を算出してもよい。その位置は、患者の解剖学的形態のマクロレベルの追跡画像も、患者の解剖学的形態の仮想的な内部画像も生成するために追跡することができる。仮想的な可視化のシステムからのもの等、手術前に記録された手術画像に介入的器具を位置合わせする及びそれらを共に表示するために光ファイバーセンサを使用するための種々のシステムは既知である。例えば、全内容を本願に援用する“Medical System Providing Dynamic Registration of a Model of an Anatomical Structure for Image−Guided Surgery”を開示している2011年5月13日に出願した米国特許出願第13/107,562号が、そのようなシステムを開示している。
しかし、多くの場合、仮想的な可視化のシステムからの仮想的な画像とプローブの先端を位置あわせするためにセンサシステムのみを使用するということは、完全に十分であるというわけではない。例えば、センサシステムは、プローブの先端の位置及び方向に関する不十分な情報を提供し得る。これは、仮想的な可視化のシステムに、プローブの本物のポーズと仮想的な画像を間違って位置合わせさせ、もしかすると、(例えば、気道ツリーの間違った枝においてプローブを示す等)仮想的な環境内でのプローブの不正確な配置を生じ、不正確な視野角(例えば、本物の可視化のシステムから受けたリアルタイムの本物の画像に一致しない仮想的な画像におけるロール角等)、及び/又は、種々の他のレジストレーションのミスマッチに関連した影響を有した仮想的な画像を描き得る。
本開示の実施形態において、本物の可視化のシステム206及び仮想的な可視化のシステム212からの情報は、任意で追跡システム208からのセンサ情報を用いて、ナビゲーションシステム210によって処理され、本物の可視化画像と位置においても方向においても正確に位置合わせされた仮想的な可視化画像を生成する。本物の画像への仮想的な画像の正確なレジストレーションを達成するために、共通の特徴及び構造体が同定され、さらに、本物の画像においても仮想的な画像においても関連づけられる。2つの画像の正確なレジストレーションは、そのレジストレーションが、プローブの先端の本物の位置及び方向に関する情報を伝えるため、特定の標的位置までカテーテルをナビゲートすることにおいて臨床医にとって有用であり得る。臨床医は、従って、意図されたものではない位置までカテーテルを導く可能性を低くし、時間のかかる且つもしかすると有害なバックトラッキングの必要性を最小限にする。
図3aは、例えば本物の可視化のシステム206によってキャプチャされた気管支通路のサンプルの本物の画像270を示している。本物の画像270から、図3bにおいて描かれた組織構造体(例えば、管腔L1〜L6及び付随の分岐点等)を、構造的態様(例えば、管腔の位置、相対位置、大きさ、輪郭及び形状等)と共に、最大安定極値領域(maximally stable extremal regions)(MSER)分析、又は、他の小塊抽出(blob extraction)等のいかなる技術も使用して同定することができる。解剖学的通路の分岐点が参照されるけれども、この開示の実施形態は、2つの通路の接合部に限定されない。この開示のシステム及び方法は、2つ以上の分枝を有するいかなる分岐に対しても、又は、いかなる他の同定可能な組織構造体に対しても適用可能であるということを理解されたい。各自然な組織構造体(例えば、管腔L1〜L6及び付随の分岐点、又は、他の同定可能な組織構造体等)を基準領域として使用して、仮想的な画像に位置合わせするための自然な参照構造体を提供してもよい。
例えば、図3bにおいて示されているように、管腔L1〜L6の相対的サイズ及び形状が、本物の画像270の水平軸HLに対する、管腔の対L1及びL2によって形成された分岐点の方向(すなわち、角度A1)、及び、管腔の対L3及びL4によって形成された分岐点に対する、管腔の対L1及びL2によって形成された分岐点の方向(すなわち、角度A2)と共に示されている。種々の他の構造的態様を、本物の画像270から抽出することができる。種々の実施形態において、図3bにおいて描かれたもの等の検出された組織構造体の図形表現は、表示のためにレンダリングされているとは限らず、さらに、種々の他の実施形態において、図形表現は、本物の画像270にオーバーレイすることができるということに留意されたい。
本物の画像270における1つ又は複数の組織構造体を含む同定された基準領域は、より効率的な分析のために、物理的配置又は階層に従って特徴づけることもできる。例えば、図3cにおいて示されているように、管腔L1〜L6は、本物の画像270において示された解剖学的形態を表すツリー構造へと組織化することができる。このように、管腔L1及びL2は、最初の分岐点B1から分かれている。次に、管腔L3及びL4が管腔L1内で検出されるため、図3cは、分岐点B1から下流へ分岐点B2にて分かれている管腔B3及びB4を示している。同様に、管腔L5及びL6が、分岐点B1から下流へ分岐点B3にて分かれている。
例証目的でノード・ブランチ棒線図が図3cにおいて描かれているけれども、本物の画像270から抽出された組織構造体の分析表現は、いかなる図形式、数値形式、記号形式及び/又はデータライブラリ形式もとることができるということに留意されたい。いくつかの実施形態において、抽出された管腔の経緯は、プローブ先端の位置を決定するためのさらなる情報を提供するために維持することができるということにさらに留意されたい。例えば、図3dは、患者の解剖学的形態を横切るに従いプローブ/可視化システムによってキャプチャされた前の本物の画像から抽出された管腔HL1〜HL6及び分岐点HB1〜HB3を追加した図3cのツリー構造を示している。
もしかすると一致するモデルの組織構造体の探索空間が、(それと同時に、先立って及び/又は後に)上記の組織構造体の同定と組み合わせて、標的解剖学的形態のモデル内から定められる。例えば、図3eは、最小侵襲器具(例えばカテーテルシステム202等)の画像254と最初に位置合わせされた患者の肺モデル252の二次元の視野を描く例証的な追跡画像251を示している。追跡画像251は、仮想的な可視化のシステム(例えば212等)によって生成することができる。この器具202の画像254の最初のレジストレーションは、EMセンサ等の位置センサ、及び/又は、いかなる他の位置の間接的表示(例えば、数ある中でも運動力学的モデリング、形状感知、RF追跡及び/又は経路履歴等)に基づき得る。
しかし、これらのアプローチ全てが、測定精度の限界及び解剖的動作(例えば、患者の呼吸、又は、手術器具に応じた組織の変形等)による間違いを受けやすい。例えば、EMセンサによって提供される位置情報は、胸部上の参照基準を使用して、肺252に関して誤差約+/−3mmの正確さであり得る。肺の動きが考慮される場合、エラーは、約+/−10mm以上まで増し得る。これらのエラーは、器具の画像254に、肺252の間違った気道に位置合わせされることになるようさせ得る。
このレジストレーションの不確実性を克服するために、本物の画像270から抽出された組織構造体を、手術前の解剖学的形態のモデルからのもしかすると相当する組織構造体と比較して、モデルとキャプチャされた画像との間の最良の一致を同定することができる。いくつかの実施形態において、プローブの先端の位置を、例えば位置センサシステム226からの情報を使用して、推定することができる。図3eにおいて示されているように、肺モデル252内のプローブ220の先端の位置は、小領域256内にあるように推定されており、その詳細な図が、図3fにおいて示されている。
小領域256は、実際の肺の解剖学的形態内の可能なプローブ220の先端の位置に相当する肺モデル252内のいかなる領域としても定めることができる。例えば、いくつかの実施形態において、小領域256は、1つ又は複数のセンサの許容誤差の積重ね、解剖的挙動/変形、及び/又は、プローブ220の先端の位置決めと付随するいかなる他の不確実性の供給源から予想することができる最大の位置偏差を少なくとも表すことができる(積重ねは小領域256の最小の境界を定めることができ、いくつかの実施形態において、小領域256の実際の境界は、それらの最小の境界を超え得るということに留意されたい)。種々の他の実施形態において、小領域256は、過去の経路の分析(すなわち、プローブ220が進められるに従い出くわす全ての分岐点の経過を追って、どの1つ又は複数の分岐点に順々に出くわすかを決定すること)に基づき、プローブ220の先端と付随するあり得る組織構造体のユニヴァース(例えば分岐点等)を表すことができる。減少した空間の小領域256を定めるための上記及び他の技術は、個々に又は組み合わせて使用することができる。
(上記のように)本物の画像270から抽出された組織構造体にもしかすると相当するモデルの組織構造体は、次に、モデル252から小領域256内部から抽出することができる。小領域256の画定は、従って、このモデルの組織構造体抽出のコンピュータ計算の要求を有意に減らすことができる。例えば、肺モデル252から全ての分岐点を抽出することではなく、図3eにおいて示されている分岐点280〜292のみが抽出される必要がある。これらの候補組織構造体(例えば分岐点280〜292等)は、次に、本物の画像の組織構造体(例えば分岐点B1)に対して比較することができる。
いくつかの実施形態において、減少した空間の小領域からの候補組織構造体の、本物の画像の組織構造体に対する最初の「ラフな」照合を行って不一致の候補を明確に取り除くことにより、コンピュータ計算の効率をさらに上げることができる。このラフな照合は、本物の画像及びモデルから容易に識別できる構造的態様を使用して行うことができる。上述のように、肺において、そのような構造的態様は、数ある中でも管腔の位置、相対位置、大きさ、輪郭及び/又は形状を含み得る。
例えば、図3a及び3bにおいて示されているように、分岐点(B2及びB3)は、分岐点B1の(それぞれL1及びL2)どちらの管腔においても可視である。次に、図3eにおいて示された肺モデルの小領域256を参照にすると、分岐点B1の各管腔における可視の下流の分岐点のこの条件は、その分枝の1つにおいて下流の分岐点を示すだけであるモデルの分岐点282によって満たすことはできないということを決定することができる。モデルの分岐点282は、従って、候補組織構造体のリストから排除することができる。モデルの分岐点284及び292も、同様の理由により候補組織構造体のリストからもしかすると排除することができる。類似の様式において、候補組織構造体のリストは、いかなる他のタイプの構造的態様に基づくフィルタリングも介してさらに減らすことができる。
上記の構造的態様照合判定基準を満たす各組織構造体は、次に、本物の画像において同定された本物の画像の構造体とより正確に比較することができる。反復的レンダリング及び画像照合(合成による分析)、特徴のポイントクラウド照合、並びに/又は、示差表面分析等、本物の画像と残りの候補組織構造体との間の最良の一致(類似性の最大化)を決定するためのいかなる技術も使用することができる。
例えば、合成による分析を使用して、各候補組織構造体(例えばモデルの分岐点280、286、288及び290等)の反復的レンダリングが生じ、ここで、各レンダリングは、3D解剖学的モデルからの視野をキャプチャするのに要求されるプローブ先端のポーズと付随する。反復は、本物の画像から抽出された組織構造体(例えば、本物の画像270から抽出された分岐点B1等)と比較され、暫定の類似性の程度を生じ、そこから、「最適な」類似性の程度を同定することができる。この最適な類似性の程度は、本物の画像の組織構造体に最も一致する候補のモデルの組織構造体の視野に対応する。候補のモデルの組織構造体のそれぞれに対する最適な類似性の程度の値から、最大の類似性の程度を選択することができ、その結果、本物の画像の組織構造体に相当する候補のモデルの組織構造体を示すことができる。その候補のモデルの組織構造体及び最適な類似性の程度と付随するプローブ先端のポーズは、次に、仮想的なカメラのプローブ先端から生成された仮想的な画像と本物の画像が最も一致するように、解剖学的モデルを位置合わせするために使用することができる。別の実施形態において、三次元の解剖学的モデルの反復的レンダリングが、組織構造体を抽出することなく本物の画像に比較するために使用される。
類似性の程度を算出することができる、及び、最適な類似性の程度を見つけることができる種々の方法がある。一実施形態において、最適化アルゴリズムが、各候補組織構造体の反復的レンダリング、及び、本物の画像を用いた類似性の程度の算出を営むことになる。別の実施形態において、最適化アルゴリズムは、階層的画像レンダリング及び類似性算出の骨組を営み、ここで、画像の解像度は次第に上げられて、正確な最適度にて止まる機会を最大にし、さらに、類似性の程度の関数空間におけるノイズに抵抗する。
レジストレーション手順を使用して、三次元の解剖学的モデルと付随する情報を本物の画像まで移すことができる。このレジストレーションは、種々の方法で図表を用いて表すことができる。例えば、図3gにおいて、(例えば表示システム111における)ディスプレイ300は、画像のセットを提供する。本物のビジョンの画像302が、仮想的なモデルからの位置合わせされた仮想的な画像304と共に示されている。位置合わせされた画像において、管腔のサイズ及び仮想的な画像304の(ロール角を含む)視野角が、本物の画像302と合わせられる。マイクロ追跡画像306が示されており、マーカー308は、二次元の肺のモデルと位置合わせされたプローブの先端を示している。マクロ追跡画像310が示されており、マーカー312は、三次元の肺のモデルと位置合わせされたプローブの先端を示している。本物の画像と仮想的な(モデルの)視野との種々の他の組み合わせが容易に明らかになる。
一実施形態において、位置合わせされた仮想的な画像(又は、そこから抽出された特徴、例えば、輪郭、縁、特徴ポイント、解剖学的ラベル等)は、画像の一致の質と共に変わる透明度を用いて本物の画像にオーバーレイすることができる。別の実施形態において、位置合わせされた仮想的な画像は、ピクチャーインピクチャーのコーナー画像として、本物の画像上に表示することができる。別の実施形態において、位置合わせされた組織モデルから抽出されたナビゲーションキュー(例えば、計画された方向において、標的までの距離、局所的な直径、撤回のためのリアビューカメラの視野等を指示するグリフ)が、立体的視野の本物のビジョンの画像と並んで又はその上に表示される。さらに別の実施形態において、位置合わせされた本物の画像が、3D気道ツリー表面のメッシュ上の断面又は体積レンダリングされたディスプレイとして表示され、プローブ先端の現在の位置及び方向を示す。別の実施形態において、本物の画像へのオーバーレイは、自動化されたトリガ又はユーザのコマンドに応じてスイッチオン及びオフすることができる。
図4aは、上記のもの等、解剖モデルのレジストレーション方法の流れ図を示している。プローブの画像キャプチャステップ410において、患者の解剖学的形態の本物の画像(例えば画像270等)が、画像キャプチャプローブ220及び付随の本物の可視化のシステム206等の画像処理システムによってキャプチャされる。次に、解剖特徴の同定ステップ420において、図3a及び3bに関して記載されたもの等、関連する組織構造体が本物の画像から抽出される。ステップ420の一部として、抽出された組織構造体の構造的態様(例えば、管腔の位置、相対位置、大きさ、輪郭及び形状等)だけでなく、いかなる他のもしかすると同定する態様も決定することができる。
例えば、図4bは、肺内の気道ツリー又は腎臓内の動脈ネットワーク等、分枝している解剖学的構造体に対して適用可能であるステップ420の特徴同定に対する例証的なアプローチの流れ図を示している。小塊の抽出ステップ421において、(図3a及び3bに関して記載されたもの等)個々の管腔を、本物の画像において検出することができ、次に、同胞の管腔(すなわち、分岐点を形成する管腔)を、管腔構造体の相関ステップ422において決定することができる。最後に、分岐点の同定ステップ423において、検出された分岐点を、(例えば、図3c及び3dにおいて示されているように)ラベルする、及び、(例えば、図3bにおいて示されているように)特徴づけることができる。
図4aに戻ると、最初の数の解剖モデルにおけるもしかすると一致している組織構造体が、モデル一致空間の緻密化ステップ430において定められる。一実施形態において、この最初の画定は、図4cにおける流れ図によって示されているように行うことができる。プローブ位置の感知ステップ431において、計測手段(例えば、EMセンサ、形状センサ、及び/又は、他のモニタリング/追跡要素等)が、画像処理システム(プローブ)先端の位置及び/又は方向を生じるために使用され、さらに、(例えば、図3eに関して記載されているように)関心のある小領域の画定ステップ432において、その感知された情報に基づき、解剖学的モデルの一部が、プローブ先端をもしかすると含有しているとして指摘される。次に、(例えば、図3fに関して記載されているように)小領域内のモデル分岐点のIDステップ433において、その関心のある小領域内のモデルの組織構造体が同定される。
上述のように、本物の画像に対するモデルにおける最良の一致を見つけることができる探索空間を減らすことによって、この技術と付随する計算量を有意に減らすことができる。図4aに戻ると、モデル一致の照合ステップ440において、最初のモデルの候補の一致空間から、見込みのない候補が取り除かれ、さらに、最良の一致の選択ステップ450において、本物の画像の組織構造体に最も近い一致を示す残りのモデルの候補のうちの1つが選択される。ステップ420、430及び440を介して候補一致空間を狭めることによって、照合の精度を維持又は増やしさえもしながら、照合プロセスと付随する計算の負担(従って時間)を、従来の力づくの方法と比較して有意に減らすことができる。
図4dは、肺内の気道ツリー又は腎臓内の動脈ネットワーク等、分枝している解剖学的構造体に対して適用可能であるステップ440及び450の実施形態に対する流れ図を示している。モデル分岐点の選択ステップ441において、候補のモデルの組織構造体(例えば、図3eにおいて示された分岐点280〜292等)のうちの1つが選択され、さらに、本物の画像の分岐点との特徴比較ステップ442において、その候補のモデルの組織構造体の(例えば、図3bに関して記載したような)構造的態様が、本物の画像の組織構造体のものと比較される。次に、一致の閾値内かどうかのステップ443において、一致が可能ではないということが決定された場合、このプロセスは、ステップ441まで折り返し、さらに、異なる候補のモデルの組織構造体が選択される。
しかし、候補のモデルの組織構造体が、構造比較に基づき見込みのある候補のままである場合、レンダリングの反復ステップ443において、より緻密な比較が行われる。例証目的で、(上記の)合成による分析のアプローチが流れ図において描かれており、類似性の程度の計算ステップ452において、本物の画像の組織構造体と比較してレンダリングに対する類似性の程度が最適化されるまで、レンダリング反復のステップ451において、候補のモデルの組織構造体は反復的に変更されて(各変更が異なる仮想的なカメラのポーズを表して)いる。
次に、さらなるモデルの分岐点?のステップ453において、プロセスは、検査されていない候補のモデルの組織構造体がいずれか残っている場合にステップ441まで折り返す。さもなければ、最高の類似性の選択ステップ454において、最大の類似性の程度と付随する候補のモデルの組織構造体が同定される。例証目的で、候補のモデルの組織構造体に対して連続的なプロセスが描かれている(すなわち、ステップ440及び450は、次の候補のモデルの組織構造体に移る前に、1つの候補の組織構造体に対して行われる)けれども、種々の他の実施形態において、ステップ440及び450は、バッチプロセスとして行うことができる(すなわち、ステップ440が全ての候補のモデルの組織構造体に対して行われ、次に、ステップ450が、ステップ440において同定された適切な候補のモデルの組織構造体全てに対して行われる)ということに留意されたい。
図4aに戻ると、最高類似性スコアを有するとしてステップ450において同定された候補のモデルの組織構造体は、次に、本物の画像−モデルのレジストレーションステップ460において、本物の画像及び解剖モデルを位置合わせするために使用される。一実施形態において、表示された仮想的な環境(例えば、図3gにおいて示された仮想的な画像304等)を、ステップ450の出力(例えば、ステップ454において同定された最高の類似性の程度のレンダリング等)と付随するレンダリング/ポーズ情報から生成することができる。他の実施形態において、ステップ460のレジストレーションは、プローブ位置及び/又は軌跡が、解剖学的形態全体の仮想的又は本物の画像(例えば、図3gにおいて示されたマイクロ追跡画像306及び/又はマクロ追跡画像310等の)上にマップされ得るのを可能にする。
本物及び仮想的な画像が位置合わせされ、さらに、ポーズオフセットが算出されると、仮想的な画像及びポーズオフセットを使用して、本物の画像を使用することなくカテーテルを導くことができる。例えば、計算されたポーズの推定及び仮想的なプローブ位置の画像の使用は、カメラが除去された場合、又は、本物のビジョンの画像が、血液若しくは粘膜等の身体物質によって妨害されることになる場合に、解剖学的通路を通ってプローブ及びカテーテルを導くことにおいて臨床医にとって有用であり得る。カテーテルのポーズの推定は、画像キャプチャプローブが除去され、さらに、薬物送達装置等の治療器具、又は、生検装置等の介入的器具と交換される手技の間も有用であり得る。カテーテルのポーズ及び軌跡を知ることによって、カテーテルを介してさらなる手技を行う場合に、より優れた正確さが可能になる。
レジストレーションシステム及び方法が、遠隔操作又は手動の介入的システムに関して本明細書において記載されてきたけれども、これらのレジストレーションシステム及び方法は、正確な器具の画像のレジストレーションが要求される種々の医療器具及び医療以外の器具において応用されることになる。
本開示のシステム及び方法は、肺の連結した気管支通路において使用するために例示されてきたけれども、大腸、腸管、腎臓、脳、心臓又は循環器系等を含む種々の解剖学的システムのいずれにおける自然の又は外科的に作られた連結した通路を介した他の組織のナビゲーション及び処置にも適している。本開示の方法及び実施形態は、非介入的適用にも適している。
本発明の実施形態における1つ又は複数の要素は、制御システム116等のコンピュータシステムのプロセッサ上で行うようにソフトウェアにおいて実行されてもよい。ソフトウェアにおいて実行される場合、本発明の実施形態の要素は、本質的に、必要なタスクを行うコードセグメントである。プログラム又はコードセグメントは、プロセッサ可読記憶媒体又は装置において記憶することができ、伝送媒体又は通信リンクにわたる搬送波で表されるコンピュータデータシグナルとしてダウンロードされてもよい。プロセッサ可読記憶装置は、光媒体、半導体媒体及び磁気媒体を含む、情報を記憶することができるいかなる媒体を含んでもよい。プロセッサ可読記憶装置の例として、電子回路、半導体素子、半導体メモリ素子、読取り専用メモリ(ROM)、フラッシュメモリ、消去プログラム可能読取り専用メモリ(EPROM)、フロッピーディスケット、CD−ROM、光ディスク、ハードディスク又は他の記憶装置が挙げられる。コードセグメントは、インターネット、イントラネット等のコンピュータネットワークを介してダウンロードされてもよい。
示されたプロセス及び表示は、いかなる特定のコンピュータ又は他の装置にも本質的には関連しないということに留意されたい。種々のこれらのシステムに対する要求される構造は、特許請求の範囲における要素として明らかになる。加えて、本発明の実施形態は、いかなる特定のプログラム言語を参考にしても記載されない。種々のプログラム言語を使用して、本明細書において記載される本発明の教示を実行してもよいということが正しく理解されることになる。
本発明の特定の例証的な実施形態が記載され、さらに、付随の図面において示されてきたけれども、そのような実施形態は単に広義の発明を例示したものであって、その広義の発明を限定するのではないということ、及び、本発明の実施形態は、種々の他の修正が当業者に対して生じ得るため、示され且つ記載される特定の構造及び配置に限定されないということを理解されたい。

Claims (27)

  1. 解剖領域内に置かれた内視鏡画像キャプチャプローブから本物の画像を受けるステップ、
    前記本物の画像内の本物の基準領域を同定するステップ、
    前記解剖領域のモデルからの複数の仮想的な組織構造体の1つと前記本物の基準領域を一致させるステップ、及び、
    前記解剖領域のモデルに対して前記内視鏡画像キャプチャプローブの先端を局在化させるステップ、
    を含む方法。
  2. 局在化させるステップは、一致させられた前記複数の仮想的な組織構造体の1つから、前記内視鏡画像キャプチャプローブの先端の位置を決定するステップを含む、請求項1に記載の方法。
  3. 局在化させるステップは、前記一致させられた複数の仮想的な組織構造体の1つから、前記内視鏡画像キャプチャプローブの先端の方向を決定するステップを含む、請求項2に記載の方法。
  4. 前記解剖領域のモデルからの前記一致させられた複数の仮想的な組織構造体の1つを表示するステップをさらに含む、請求項2に記載の方法。
  5. 位置センサシステムから、前記解剖領域に対する前記内視鏡画像キャプチャプローブの位置を示す位置情報を受けるステップ、
    をさらに含む、請求項1に記載の方法。
  6. 前記本物の基準領域を一致させるステップが、前記モデルの小領域内に位置する前記複数の仮想的な組織構造体の第1のサブセットを同定するステップを含み、
    前記小領域が、前記解剖領域に対する前記内視鏡画像キャプチャプローブの位置の周囲の関心のある領域に相当する、請求項5に記載の方法。
  7. 前記関心のある領域が、前記解剖領域に対する内視鏡画像キャプチャプローブの位置の周囲のセンサの許容誤差の積重ね、及び、予想される解剖的挙動のうち少なくとも1つによって定められる、請求項6に記載の方法。
  8. 前記本物の基準領域を一致させるステップが、
    前記本物の基準領域の1つ又は複数の構造的態様を同定するステップ、及び
    前記複数の仮想的な組織構造体の第2のサブセットを同定するステップ、
    をさらに含み、
    前記第1のサブセットは、前記第2のサブセットのそれぞれを含み、さらに、
    前記仮想的な組織構造体の第2のサブセットのそれぞれが、前記本物の基準領域の1つ又は複数の構造的態様を含む、請求項6に記載の方法。
  9. 前記本物の基準領域が1つ又は複数の管腔を含み、さらに、前記1つ又は複数の構造的態様が、管腔の位置、管腔の方向、菅腔の大きさ、管腔の輪郭、管腔の解剖学的ラベル、及び、管腔の形状のうち少なくとも1つを含む、請求項8に記載の方法。
  10. 前記本物の基準領域を一致させるステップが、
    前記複数の仮想的な組織構造体の第2のサブセットのそれぞれに対して、前記本物の基準領域に対する一致の近さを示す最適な類似性の程度を計算するステップ、及び
    前記本物の基準領域に対して最も近い一致を示す前記最適な類似性の程度を示す前記第2のサブセットの1つを同定することによって、前記一致させられた複数の仮想的な組織構造体の1つを選択するステップ、
    をさらに含む、請求項8に記載の方法。
  11. 前記類似性の程度を計算するステップが、
    前記複数の仮想的な組織構造体の第2のサブセットのそれぞれに対する複数の視野を反復的にレンダリングするステップ、
    前記第2のサブセットのそれぞれに対する複数の視野に対して、前記本物の基準領域に対する一致の近さを示す複数の暫定の類似性の程度を計算するステップ、及び、
    第2のサブセットのそれぞれに対する前記複数の暫定の類似性の程度から、前記最適な類似性の程度を選択するステップ、
    を含む、請求項10に記載の方法。
  12. 前記内視鏡画像キャプチャプローブの先端の局在化に基づき、前記本物の画像と前記解剖領域のモデルを位置合わせするステップをさらに含む、請求項1に記載の方法。
  13. 前記解剖領域内に置かれたカテーテル本体から前記内視鏡画像キャプチャプローブを除去するステップ、及び、
    手技を行うために、前記カテーテル本体を通して、追跡される介入的器具を挿入するステップ、
    をさらに含む、請求項1に記載の方法。
  14. 前記本物の基準領域が、解剖学的通路の分岐部である、請求項1に記載の方法。
  15. 前記解剖領域が肺を含む、請求項1に記載の方法。
  16. 解剖領域内で延びるよう大きさが決められた画像キャプチャプローブ、
    プロセッサ、
    を含む医療システムであって、
    前記プロセッサが、
    前記解剖領域のモデルを生成する、
    前記解剖領域内に置かれた前記画像キャプチャプローブから本物の画像を受ける、
    前記本物の画像内の本物の基準領域を同定する、
    前記解剖領域のモデル内の複数の仮想的な組織構造体を同定する、
    前記本物の組織構造体に前記複数の仮想的な組織構造体の1つを一致させる、及び
    前記解剖領域のモデルに対して、前記画像キャプチャプローブの先端を局在化させる、
    ように構成される、医療システム。
  17. 局在化させることは、一致させられた前記複数の仮想的な組織構造体の1つから、前記内視鏡画像キャプチャプローブの先端の位置を決定することを含む、請求項16に記載の医療システム。
  18. 局在化させることは、前記一致させられた複数の仮想的な組織構造体の1つから、前記内視鏡画像キャプチャプローブの先端の方向を決定することを含む、請求項17に記載の医療システム。
  19. 前記プロセッサは、前記解剖領域のモデルからの前記一致させられた複数の仮想的な組織構造体の1つの表示を生じるようさらに構成される、請求項17に記載の医療システム。
  20. 位置センサシステムをさらに含み、
    前記プロセッサが、前記位置センサシステムからプローブの位置情報を受ける、及び、前記プローブの位置情報に基づき、前記モデル内の小領域を定めるようさらに構成され、
    前記複数の仮想的な組織構造体が全て前記小領域に属する、請求項16に記載の医療システム。
  21. 前記プロセッサが、
    前記本物の基準領域の構造的態様を同定する、及び
    前記本物の基準領域の構造的態様に一致している前記複数の仮想的な組織構造体のサブセットを同定する、
    ようさらに構成される、請求項20に記載の医療システム。
  22. 前記プロセッサが、
    前記複数の仮想的な組織構造体のサブセットのそれぞれの反復的レンダリングを行って、前記本物の基準領域に一致させる、
    前記反復的レンダリングに基づき、一致させられた前記複数の仮想的な組織構造体の1つを同定する、
    前記画像キャプチャプローブの先端の局在化に基づき、前記本物の画像に前記解剖領域のモデルを位置合わせする、
    ようさらに構成される、請求項21に記載の医療システム。
  23. 前記プロセッサが、前記画像キャプチャプローブの先端の局在化に基づき、前記本物の画像に前記解剖領域のモデルを位置合わせするようさらに構成される、請求項16に記載の医療システム。
  24. 前記画像キャプチャプローブの先端の局在化に基づき、前記一致させられた複数の仮想的な組織構造体の1つのレンダリングを表示するための表示システムをさらに含む、請求項23に記載の医療システム。
  25. 前記画像キャプチャプローブを受けるよう大きさが決められた可撓性カテーテル、及び、
    前記可撓性カテーテルの遠位領域を操縦するためのステアリングシステム、
    をさらに含み、
    前記可撓性カテーテルが、プローブポーズを制御する、請求項16に記載の医療システム。
  26. 前記画像キャプチャプローブが除去される場合に前記可撓性カテーテルのカテーテルポーズを維持するための制御システムをさらに含む、請求項25に記載の医療システム。
  27. 前記可撓性カテーテルを通して展開される、追跡されるツールをさらに含み、前記追跡されるツールが、表示された仮想的な可視化の画像を参照することによって制御される、請求項25に記載の医療システム。
JP2015527518A 2012-08-14 2013-08-12 多数のビジョンシステムのレジストレーションのためのシステム及び方法 Active JP6301332B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261682966P 2012-08-14 2012-08-14
US61/682,966 2012-08-14
PCT/US2013/054555 WO2014028394A1 (en) 2012-08-14 2013-08-12 Systems and methods for registration of multiple vision systems

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018034155A Division JP6736594B2 (ja) 2012-08-14 2018-02-28 多数のビジョンシステムのレジストレーションのための医療システム

Publications (2)

Publication Number Publication Date
JP2015530903A true JP2015530903A (ja) 2015-10-29
JP6301332B2 JP6301332B2 (ja) 2018-03-28

Family

ID=50100526

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015527518A Active JP6301332B2 (ja) 2012-08-14 2013-08-12 多数のビジョンシステムのレジストレーションのためのシステム及び方法
JP2018034155A Active JP6736594B2 (ja) 2012-08-14 2018-02-28 多数のビジョンシステムのレジストレーションのための医療システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018034155A Active JP6736594B2 (ja) 2012-08-14 2018-02-28 多数のビジョンシステムのレジストレーションのための医療システム

Country Status (6)

Country Link
US (4) US10278615B2 (ja)
EP (2) EP2884879B1 (ja)
JP (2) JP6301332B2 (ja)
KR (2) KR102194463B1 (ja)
CN (2) CN104540439B (ja)
WO (1) WO2014028394A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017518786A (ja) * 2014-04-29 2017-07-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. カテーテルの特定の位置を決定するための装置
JP2019010506A (ja) * 2017-06-21 2019-01-24 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 形状推定をともなう軌道情報による位置合わせの改良
WO2019138864A1 (ja) * 2018-01-12 2019-07-18 キヤノン株式会社 連続体ロボットの制御装置及びその制御方法、並びに、プログラム
WO2019163890A1 (ja) * 2018-02-21 2019-08-29 オリンパス株式会社 医療システムおよび医療システムの作動方法

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US10674968B2 (en) * 2011-02-10 2020-06-09 Karl Storz Imaging, Inc. Adjustable overlay patterns for medical display
US10631712B2 (en) * 2011-02-10 2020-04-28 Karl Storz Imaging, Inc. Surgeon's aid for medical display
US11412998B2 (en) 2011-02-10 2022-08-16 Karl Storz Imaging, Inc. Multi-source medical display
US11064955B2 (en) * 2011-03-31 2021-07-20 Koninklijke Philips N.V. Shape sensing assisted medical procedure
EP2884879B1 (en) 2012-08-14 2020-01-08 Intuitive Surgical Operations, Inc. Systems and methods for registration of multiple vision systems
WO2014058838A1 (en) * 2012-10-12 2014-04-17 Intuitive Surgical Operations, Inc. Determining position of medical device in branched anatomical structure
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
WO2015134277A1 (en) 2014-03-05 2015-09-11 Faxitron Bioptics, Llc System and method for multi-axis imaging of specimens
KR20150128049A (ko) * 2014-05-08 2015-11-18 삼성전자주식회사 수술 로봇 및 그 제어방법
JP6323183B2 (ja) * 2014-06-04 2018-05-16 ソニー株式会社 画像処理装置および画像処理方法
JP6707036B2 (ja) * 2014-07-02 2020-06-10 コヴィディエン リミテッド パートナーシップ アラインメント
US11188285B2 (en) * 2014-07-02 2021-11-30 Covidien Lp Intelligent display
US20160000414A1 (en) * 2014-07-02 2016-01-07 Covidien Lp Methods for marking biopsy location
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9770216B2 (en) * 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
EP3164048B1 (en) 2014-07-02 2022-11-16 Covidien LP Real-time automatic registration feedback
CN110101355A (zh) * 2014-07-28 2019-08-09 直观外科手术操作公司 用于术中分割的系统和方法
KR102328269B1 (ko) * 2014-10-23 2021-11-19 삼성전자주식회사 초음파 영상 장치 및 그 제어 방법
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
WO2016080331A1 (ja) * 2014-11-17 2016-05-26 オリンパス株式会社 医療装置
JP6348078B2 (ja) * 2015-03-06 2018-06-27 富士フイルム株式会社 分岐構造判定装置、分岐構造判定装置の作動方法および分岐構造判定プログラム
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
JP6657933B2 (ja) * 2015-12-25 2020-03-04 ソニー株式会社 医療用撮像装置及び手術ナビゲーションシステム
WO2017114828A1 (en) * 2015-12-29 2017-07-06 Koninklijke Philips N.V. Registration of a surgical image acquisition device using contour signatures
CN107025643A (zh) * 2016-01-28 2017-08-08 王行环 一种窥镜下电外科发生器阻抗与图像智能识别系统
US11612384B2 (en) 2016-06-30 2023-03-28 Intuitive Surgical Operations, Inc. Graphical user interface for displaying guidance information in a plurality of modes during an image-guided procedure
CN109982656B (zh) * 2016-06-30 2022-04-08 皇家飞利浦有限公司 采用光学位置感测的医学导航系统及其操作方法
WO2018005861A1 (en) 2016-06-30 2018-01-04 Intuitive Surgical Operations, Inc. Graphical user interface for displaying guidance information during an image-guided procedure
WO2018085287A1 (en) 2016-11-02 2018-05-11 Intuitive Surgical Operations, Inc. Systems and methods of continuous registration for image-guided surgery
KR102116164B1 (ko) 2017-02-03 2020-05-27 재단법인 아산사회복지재단 카테터의 센싱 정보를 이용한 심장의 3차원 매핑 시스템 및 방법
US11793579B2 (en) 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
JP6745748B2 (ja) * 2017-03-16 2020-08-26 富士フイルム株式会社 内視鏡位置特定装置、その作動方法およびプログラム
WO2018175583A1 (en) * 2017-03-21 2018-09-27 Stryker Corporation Methods and systems to automate surgical interventions
EP3600112A4 (en) 2017-03-22 2020-10-28 Intuitive Surgical Operations Inc. SYSTEMS AND PROCEDURES FOR INTELLIGENT SEEDING A REGISTRATION
CN110621252B (zh) 2017-04-18 2024-03-15 直观外科手术操作公司 用于监测图像引导程序的图形用户界面
US11026747B2 (en) * 2017-04-25 2021-06-08 Biosense Webster (Israel) Ltd. Endoscopic view of invasive procedures in narrow passages
US11350994B2 (en) * 2017-06-19 2022-06-07 Navlab Holdings Ii, Llc Surgery planning
EP3641686A4 (en) 2017-06-23 2021-03-24 Intuitive Surgical Operations, Inc. SYSTEMS AND PROCEDURES FOR NAVIGATION TO A DESTINATION DURING A MEDICAL OPERATION
CN117503384A (zh) 2017-06-28 2024-02-06 直观外科手术操作公司 用于将内窥镜图像数据集映射到三维体积上的系统
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
WO2019036318A2 (en) * 2017-08-16 2019-02-21 Covidien Lp METHOD FOR SPATIAL LOCATION OF POINTS OF INTEREST DURING SURGICAL INTERVENTION
US10506991B2 (en) * 2017-08-31 2019-12-17 Biosense Webster (Israel) Ltd. Displaying position and optical axis of an endoscope in an anatomical image
CN111278384A (zh) * 2017-09-08 2020-06-12 柯惠Lp公司 利用跟踪辅助摄像机对手术部位进行功能成像
US11317881B2 (en) 2017-09-11 2022-05-03 Faxitron Bioptics, Llc Imaging system with adaptive object magnification
EP3694412A4 (en) 2017-10-10 2021-08-18 Covidien LP SYSTEM AND METHOD FOR IDENTIFYING AND MARKING A TARGET IN A THREE-DIMENSIONAL FLUOROSCOPIC RECONSTRUCTION
US10555778B2 (en) * 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
US11224392B2 (en) 2018-02-01 2022-01-18 Covidien Lp Mapping disease spread
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
US11364004B2 (en) 2018-02-08 2022-06-21 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US11464576B2 (en) 2018-02-09 2022-10-11 Covidien Lp System and method for displaying an alignment CT
KR102018565B1 (ko) * 2018-02-20 2019-09-05 (주)휴톰 수술 시뮬레이션 정보 구축 방법, 장치 및 프로그램
WO2019164275A1 (ko) * 2018-02-20 2019-08-29 (주)휴톰 수술도구 및 카메라의 위치 인식 방법 및 장치
US20210259783A1 (en) * 2018-06-19 2021-08-26 Intuitive Surgical Operations, Inc. Systems and Methods Related to Registration for Image Guided Surgery
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
CN108900815A (zh) * 2018-08-04 2018-11-27 广州高通影像技术有限公司 一种基于ar应用技术的智能内窥镜影像系统
CN109087695A (zh) * 2018-08-06 2018-12-25 广州高通影像技术有限公司 一种基于物联网的智能内窥镜影像的数据传输系统
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
CN109766896B (zh) * 2018-11-26 2023-08-29 顺丰科技有限公司 一种相似度度量方法、装置、设备和存储介质
US11877806B2 (en) * 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
WO2020139687A1 (en) * 2018-12-26 2020-07-02 Hologic, Inc. Tissue imaging in presence of fluid during biopsy procedure
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
CN110111374B (zh) * 2019-04-29 2020-11-17 上海电机学院 基于分组阶梯式阈值判断的激光点云匹配方法
KR102177805B1 (ko) * 2019-05-29 2020-11-11 재단법인대구경북과학기술원 수술 항법 시스템
US12089902B2 (en) 2019-07-30 2024-09-17 Coviden Lp Cone beam and 3D fluoroscope lung navigation
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
US12059281B2 (en) 2019-08-19 2024-08-13 Covidien Lp Systems and methods of fluoro-CT imaging for initial registration
TWI762812B (zh) * 2019-08-30 2022-05-01 新視電科技有限公司 內視鏡與內視鏡設備及內視鏡的定位方法
US11864935B2 (en) 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
US11931111B2 (en) 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
CN110946552B (zh) * 2019-10-30 2022-04-08 南京航空航天大学 一种结合光谱和图像的宫颈癌前病变筛查方法
US11847730B2 (en) * 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
CN111343357A (zh) * 2020-02-21 2020-06-26 广东快车科技股份有限公司 新型3d信息传送系统及传送方法
US12064191B2 (en) 2020-06-03 2024-08-20 Covidien Lp Surgical tool navigation using sensor fusion
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
CN113116475B (zh) * 2020-12-31 2023-06-20 杭州堃博生物科技有限公司 经导管的导航处理方法、装置、介质、设备与导航系统
KR102628325B1 (ko) * 2021-07-29 2024-01-24 (주)휴톰 POI 정의 및 Phase 인식 기반의 실제 수술 영상과 3D 기반의 가상 모의 수술 영상을 정합하는 장치 및 방법
CN113456228B (zh) * 2021-08-05 2023-04-07 广东工业大学 辅助手术的组织辨识方法及系统
CN113947633A (zh) * 2021-09-08 2022-01-18 顾力栩 导管末端姿态估计方法、系统及介质
CN114452508B (zh) * 2021-10-20 2024-01-23 上海微创微航机器人有限公司 导管运动控制方法、介入手术系统、电子设备和存储介质
EP4205690A1 (en) * 2021-12-30 2023-07-05 Koninklijke Philips N.V. Endobronchial probe tracking
WO2023126216A1 (en) * 2021-12-30 2023-07-06 Koninklijke Philips N.V. Endobronchial probe tracking
CN116433874B (zh) * 2021-12-31 2024-07-30 杭州堃博生物科技有限公司 支气管镜导航方法、装置、设备及存储介质
CN116416414B (zh) * 2021-12-31 2023-09-22 杭州堃博生物科技有限公司 肺部支气管镜导航方法、电子装置及计算机可读存储介质
KR102697147B1 (ko) * 2022-02-21 2024-08-21 주식회사 프로이드 개선된 수술용 내시경현미경의 영상 획득 시스템의 제어 방법
KR102697146B1 (ko) * 2022-02-21 2024-08-21 주식회사 프로이드 개선된 수술용 내시경현미경의 영상 획득 시스템
CN114332080B (zh) * 2022-03-04 2022-05-27 北京字节跳动网络技术有限公司 组织腔体的定位方法、装置、可读介质和电子设备
CN117710279A (zh) * 2022-09-06 2024-03-15 中国科学院自动化研究所 内窥镜定位方法、电子设备和非暂态计算机可读存储介质
CN115281583B (zh) * 2022-09-26 2022-12-13 南京诺源医疗器械有限公司 一种用于医疗内窥拉曼光谱成像的导航系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005021353A (ja) * 2003-07-01 2005-01-27 Olympus Corp 手術支援装置
JP2005522274A (ja) * 2002-04-17 2005-07-28 スーパー ディメンション リミテッド 内視鏡構造と分岐構造内の標的にナビゲートするための技術
JP2007044488A (ja) * 2005-06-22 2007-02-22 Siemens Corporate Res Inc パスベースのツリーマッチングのためのシステムおよび方法
JP2009056239A (ja) * 2007-09-03 2009-03-19 Olympus Medical Systems Corp 内視鏡装置
JP2010517632A (ja) * 2007-01-31 2010-05-27 ザ ペン ステイト リサーチ ファンデーション 内視鏡の継続的案内のためのシステム
WO2011102012A1 (ja) * 2010-02-22 2011-08-25 オリンパスメディカルシステムズ株式会社 医療機器
WO2011122037A1 (ja) * 2010-03-31 2011-10-06 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2012050606A (ja) * 2010-08-31 2012-03-15 Fujifilm Corp 内視鏡画像処理装置および方法、並びに、プログラム
WO2012035492A1 (en) * 2010-09-15 2012-03-22 Koninklijke Philips Electronics N.V. Robotic control of an endoscope from blood vessel tree images

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2114986A1 (en) 1993-02-08 1994-08-09 Robert T. Frankot Automatic subarea selection for image registration
US6380732B1 (en) 1997-02-13 2002-04-30 Super Dimension Ltd. Six-degree of freedom tracking system having a passive transponder on the object being tracked
GB9713018D0 (en) 1997-06-20 1997-08-27 Secr Defence Optical fibre bend sensor
WO2003070102A2 (en) * 2002-02-15 2003-08-28 The Regents Of The University Of Michigan Lung nodule detection and classification
US7998062B2 (en) * 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
US6892090B2 (en) * 2002-08-19 2005-05-10 Surgical Navigation Technologies, Inc. Method and apparatus for virtual endoscopy
EP1617779A1 (en) * 2003-04-28 2006-01-25 BRACCO IMAGING S.p.A. Surgical navigation imaging system
JP4573517B2 (ja) 2003-10-29 2010-11-04 オリンパス株式会社 挿入支援システム
WO2005058137A2 (en) * 2003-12-12 2005-06-30 University Of Washington Catheterscope 3d guidance and interface system
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US20060013523A1 (en) 2004-07-16 2006-01-19 Luna Innovations Incorporated Fiber optic position and shape sensing device and method relating thereto
US8611983B2 (en) * 2005-01-18 2013-12-17 Philips Electronics Ltd Method and apparatus for guiding an instrument to a target in the lung
US9526587B2 (en) 2008-12-31 2016-12-27 Intuitive Surgical Operations, Inc. Fiducial marker design and detection for locating surgical instrument in images
US7889905B2 (en) 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
US7756563B2 (en) 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
US9289267B2 (en) * 2005-06-14 2016-03-22 Siemens Medical Solutions Usa, Inc. Method and apparatus for minimally invasive surgery using endoscopes
JP4327139B2 (ja) * 2005-09-05 2009-09-09 ザイオソフト株式会社 画像処理方法および画像処理プログラム
US7930065B2 (en) 2005-12-30 2011-04-19 Intuitive Surgical Operations, Inc. Robotic surgery system including position sensors using fiber bragg gratings
US20070179496A1 (en) * 2006-01-31 2007-08-02 Medtronic, Inc. Flexible catheter for ablation therapy
JP4822142B2 (ja) 2006-05-02 2011-11-24 国立大学法人名古屋大学 内視鏡挿入支援システム及び内視鏡挿入支援方法
WO2007129493A1 (ja) 2006-05-02 2007-11-15 National University Corporation Nagoya University 医療画像観察支援装置
WO2007136769A2 (en) * 2006-05-19 2007-11-29 Mako Surgical Corp. Method and apparatus for controlling a haptic device
WO2008111070A2 (en) * 2007-03-12 2008-09-18 David Tolkowsky Devices and methods for performing medical procedures in tree-like luminal structures
US8270694B2 (en) * 2008-04-23 2012-09-18 Aditya Koolwal Systems, methods and devices for correlating reference locations using image data
JP5188879B2 (ja) 2008-05-23 2013-04-24 オリンパスメディカルシステムズ株式会社 医療機器
EP2348954A1 (en) 2008-10-20 2011-08-03 Koninklijke Philips Electronics N.V. Image-based localization method and system
EP2429399A4 (en) * 2009-03-06 2013-04-10 Bio Tree Systems Inc METHOD AND APPARATUS FOR VESSEL TESTING
EP2230641B1 (de) * 2009-03-18 2016-06-29 Brainlab AG Verfahren zur Ermittlung der Lage einer Struktur in einem Körper
US8538109B2 (en) * 2009-03-18 2013-09-17 Siemens Aktiengesellschaft Method and system for dynamic pulmonary trunk modeling and intervention planning
US20120069167A1 (en) * 2009-05-18 2012-03-22 Koninklijke Philips Electronics N.V. Marker-free tracking registration and calibration for em-tracked endoscopic system
CN102711650B (zh) 2010-01-13 2015-04-01 皇家飞利浦电子股份有限公司 用于内窥镜手术的基于图像整合的配准和导航
WO2011094518A2 (en) * 2010-01-28 2011-08-04 The Penn State Research Foundation Image-based global registration system and method applicable to bronchoscopy guidance
JP2012024518A (ja) * 2010-07-28 2012-02-09 Fujifilm Corp 内視鏡観察を支援する装置および方法、並びに、プログラム
CN103313675B (zh) * 2011-01-13 2017-02-15 皇家飞利浦电子股份有限公司 用于内窥镜手术的术中照相机校准
US8900131B2 (en) 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
EP2884879B1 (en) 2012-08-14 2020-01-08 Intuitive Surgical Operations, Inc. Systems and methods for registration of multiple vision systems

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005522274A (ja) * 2002-04-17 2005-07-28 スーパー ディメンション リミテッド 内視鏡構造と分岐構造内の標的にナビゲートするための技術
JP2005021353A (ja) * 2003-07-01 2005-01-27 Olympus Corp 手術支援装置
JP2007044488A (ja) * 2005-06-22 2007-02-22 Siemens Corporate Res Inc パスベースのツリーマッチングのためのシステムおよび方法
JP2010517632A (ja) * 2007-01-31 2010-05-27 ザ ペン ステイト リサーチ ファンデーション 内視鏡の継続的案内のためのシステム
JP2009056239A (ja) * 2007-09-03 2009-03-19 Olympus Medical Systems Corp 内視鏡装置
WO2011102012A1 (ja) * 2010-02-22 2011-08-25 オリンパスメディカルシステムズ株式会社 医療機器
WO2011122037A1 (ja) * 2010-03-31 2011-10-06 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2012050606A (ja) * 2010-08-31 2012-03-15 Fujifilm Corp 内視鏡画像処理装置および方法、並びに、プログラム
WO2012035492A1 (en) * 2010-09-15 2012-03-22 Koninklijke Philips Electronics N.V. Robotic control of an endoscope from blood vessel tree images

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017518786A (ja) * 2014-04-29 2017-07-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. カテーテルの特定の位置を決定するための装置
JP2019010506A (ja) * 2017-06-21 2019-01-24 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 形状推定をともなう軌道情報による位置合わせの改良
JP7154832B2 (ja) 2017-06-21 2022-10-18 バイオセンス・ウエブスター・(イスラエル)・リミテッド 形状推定をともなう軌道情報による位置合わせの改良
WO2019138864A1 (ja) * 2018-01-12 2019-07-18 キヤノン株式会社 連続体ロボットの制御装置及びその制御方法、並びに、プログラム
JP2019122491A (ja) * 2018-01-12 2019-07-25 キヤノン株式会社 連続体ロボットの制御装置及びその制御方法、並びに、プログラム
JP7030530B2 (ja) 2018-01-12 2022-03-07 キヤノン株式会社 連続体ロボットの制御装置及びその制御方法、並びに、プログラム
US11465289B2 (en) 2018-01-12 2022-10-11 Canon Kabushiki Kaisha Apparatus and method for controlling continuum robot, and computer-readable storage medium
WO2019163890A1 (ja) * 2018-02-21 2019-08-29 オリンパス株式会社 医療システムおよび医療システムの作動方法
US20200367733A1 (en) 2018-02-21 2020-11-26 Olympus Corporation Medical system and medical system operating method
JPWO2019163890A1 (ja) * 2018-02-21 2021-02-04 オリンパス株式会社 医療システムおよび医療システムの作動方法
JP6990292B2 (ja) 2018-02-21 2022-01-12 オリンパス株式会社 医療システムおよび医療システムの作動方法
US11800966B2 (en) 2018-02-21 2023-10-31 Olympus Corporation Medical system and medical system operating method

Also Published As

Publication number Publication date
US20220079467A1 (en) 2022-03-17
US10278615B2 (en) 2019-05-07
US20240252057A1 (en) 2024-08-01
CN106562757B (zh) 2019-05-14
CN106562757A (zh) 2017-04-19
US20140051986A1 (en) 2014-02-20
EP2884879A1 (en) 2015-06-24
EP3679881A1 (en) 2020-07-15
US11219385B2 (en) 2022-01-11
JP6736594B2 (ja) 2020-08-05
US20190209043A1 (en) 2019-07-11
CN104540439B (zh) 2016-10-26
US11896364B2 (en) 2024-02-13
KR102301021B1 (ko) 2021-09-13
KR20200143518A (ko) 2020-12-23
EP2884879A4 (en) 2016-04-27
KR102194463B1 (ko) 2020-12-23
EP2884879B1 (en) 2020-01-08
JP2018118068A (ja) 2018-08-02
KR20150043245A (ko) 2015-04-22
WO2014028394A1 (en) 2014-02-20
JP6301332B2 (ja) 2018-03-28
CN104540439A (zh) 2015-04-22

Similar Documents

Publication Publication Date Title
US11896364B2 (en) Systems and methods for registration of multiple vision systems
US11957424B2 (en) Systems and methods for planning multiple interventional procedures
US12082920B2 (en) Systems and methods for deformation compensation using shape sensing
JP7072603B2 (ja) 手術中のセグメンテーションについてのシステム及び方法
EP2849668B1 (en) Systems and methods for registration of a medical device using rapid pose search

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180228

R150 Certificate of patent or registration of utility model

Ref document number: 6301332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250