JP2016511049A - デュアルデータ同期を用いた解剖学的部位の位置の再特定 - Google Patents

デュアルデータ同期を用いた解剖学的部位の位置の再特定 Download PDF

Info

Publication number
JP2016511049A
JP2016511049A JP2015562379A JP2015562379A JP2016511049A JP 2016511049 A JP2016511049 A JP 2016511049A JP 2015562379 A JP2015562379 A JP 2015562379A JP 2015562379 A JP2015562379 A JP 2015562379A JP 2016511049 A JP2016511049 A JP 2016511049A
Authority
JP
Japan
Prior art keywords
exploration
video
subsequent
endoscope
flexible
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015562379A
Other languages
English (en)
Other versions
JP2016511049A5 (ja
JP6348130B2 (ja
Inventor
ニコロー,ステファヌ
ベムーリ,アナント・スーラジ
ソレ,リュック
マレスコー,ジャック
Original Assignee
アンスティテュ・オスピタロ−ユニベルシテール・ドゥ・シルルジー・ミニ−アンバシブ・ギデ・パル・リマージュ
アンスティテュ・ドゥ・ルシェルシュ・シュール・レ・カンセール・ドゥ・ラパレイユ・ディジェスティフ−イ・エール・セ・ア・デ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アンスティテュ・オスピタロ−ユニベルシテール・ドゥ・シルルジー・ミニ−アンバシブ・ギデ・パル・リマージュ, アンスティテュ・ドゥ・ルシェルシュ・シュール・レ・カンセール・ドゥ・ラパレイユ・ディジェスティフ−イ・エール・セ・ア・デ filed Critical アンスティテュ・オスピタロ−ユニベルシテール・ドゥ・シルルジー・ミニ−アンバシブ・ギデ・パル・リマージュ
Publication of JP2016511049A publication Critical patent/JP2016511049A/ja
Publication of JP2016511049A5 publication Critical patent/JP2016511049A5/ja
Application granted granted Critical
Publication of JP6348130B2 publication Critical patent/JP6348130B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/0016Holding or positioning arrangements using motor drive units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)

Abstract

本発明は、デュアルデータ同期を用いた解剖学的部位の位置の再特定のための方法およびシステムに関する。第1または「基準探査」中に既に探査されている特定の位置において、1つまたは複数の連続する管腔内もしくは管腔外のその後のまたは「新しい探査」、または同様の処置中に可撓性内視鏡を場合によっては数回、再位置決めするための方法であって、再位置決めは、人間のユーザによって手動で、あるいは1つまたは複数のスクリーン上に2つの異なるウィンドウ上もしくは内に並行して表示される「新しい探査」可撓性内視鏡ビデオと「基準探査」可撓性内視鏡ビデオとの間の同期処理からまたはそれを使ったロボットシステムによって自動的に実現される。

Description

本発明は、被験者の身体に行われる(一部または全摘出後の)連続する管腔内もしくは管腔外の探査、または同様の処置中に、既に探査されている特定の場所に可撓性内視鏡(また同様の医療デバイス)を迅速かつ正確に再位置決めするための方法およびシステムに関する。
術間での生検部位を位置特定し追跡することは、標的化治療を行うための重要な課題を提起する。本発明は、予め標的化された部位に可撓性内視鏡を正確に再位置決めするために、案内ナビゲーションを医療施術者または外科医に提供する。
本発明は、より詳細には、被験者の幾分柔軟な管状器官、またはこのような被験者の身体内の少なくとも管状の長い通路に位置する標的部位に関する。
第一に、しかし限定的ではないが、予想される器官は、食道および結腸である。
第1の好ましい言及された実施についての本発明の分野に関して、食道腺癌(OAC)が米国および西欧諸国で急速に頻度増加していることが知られている。胃食道逆流性疾患、慢性的な状態として食道に入る胃酸に起因する良性合併症は、バレット食道(BE)を引き起こす。これは、下部食道の細胞の変質形成を指し、ほとんどの場合、OACの前駆物質である。BEの腺癌への進展は、低度から高度の異形成に進行することが認められている。
医療ガイドラインは、年につき最低2回の生検を用いた異形成の程度に応じて異なるレベルの監視間隔を規定している。通常の監視処置は、食道の遠位端の方へ、かつ被疑領域において2cmごとに4象限生検を採用することを必要とする。生検組織は、評価のために病理に送られる。プローブ式共焦点レーザ内視鏡装置などの装置の導入の場合は、リアルタイム可視化および被疑領域の診断が、手術中に行われ得る。また、高解像度狭帯域画像化が、粘膜および上皮下組織の目視探査によって診断および監視のために使用されている。
これらの場合の各々において、追跡診査中に、胃腸の(GI)専門家は、予め生検が実施され精査された箇所を特定することが要求される。この問題は文字通り、位置の再特定問題と称されている。通常、GI専門家は、内視鏡に印刷マーキング(一般に、柔軟な身体に沿って5cmまたは10cmごとに1つのマーク)を使用し、これは、非常に信頼できない場合があり、かつこれは、内視鏡および光学生検プローブを正確に再位置決めする、したがって疾患を効果的に追跡する彼または彼女の能力を制限する。術間でのこの種の位置の再特定を可能にするための決定論的手段を欠くために、GI専門家は、罹患食道領域全体を精査しまたは生検を施さなければならず、それにより、標的化治療が妨げられる。
発明者らの知見によれば、手術中に可撓性内視鏡の位置の再特定のこの問題に取り組む以前の努力または提案はない。しかし、手術中に生検箇所を追跡するいくつかのアプローチが存在し、すなわち、Baptiste Allainら、Biopsy site re−localization based on the computation of epipoler lines from two previous endoscope images、International Conference on Medical Image Computing and Computer−Assisted Intervention(MICCAI)において、12巻、491〜498頁、Springer、Heidelberg、2009年1月;Peter Mountneyら、Optical biopsy mapping for minimally invasive cancer screening、International Conference on Medical Image Computing and Computer Assisted Intervention(MICCAI)において、12巻、483〜490頁、Springer、Heidelberg、2009年1月;Baptiste Allainら、A system for biopsy site re−targeting with uncertainty in gastroenterology and oropharyngeal examinations、International Conference on Medical Image Computing and Computer−Assisted Intervention(MICCAI)において、13巻、514〜521頁、2010年1月、である。
これらの各々は、これらが内視鏡フレームの視野の中におよびその中から移動する際に、生検部位をマッピングし追跡するように、解剖学の3D構造の復元を利用する。これらの知られている解決策は、エピポーラ幾何を用いるか、または同時位置特定およびマッピング(SLAM)に基づく方法を提案している。Selen Atasoyら(「Probabilistic region matching in narrow−band endoscopy for targeted optical biopsy」、International Conference on Medical Image Computing and Computer−Assisted Intervention(MICCAI)において、12巻、499〜506頁、Springer、Heidelberg、2009年1月)は、アフィン変換の不変異方性特徴検出器から得られる特徴一致を用いることによって狭帯域画像における確率的な領域のマッチング法を提案している。
最近になって、Selen Atasoyら(「Endoscopic video manifolds for targeted optical biopsy」、IEEE transactions on medical imaging、31(3):637〜653頁、2012年3月)は、画像マニフォールド学習処理として位置の再特定を定式化することを提案している。低次元空間に内視鏡画像を投影することによって、彼らは、管理可能なセグメントの中に多重干渉中に収集される画像を分類しクラスタ化することを提案しており、彼らが主張することは、生検部位の位置の再特定を助けるであろう。しかし、彼らは、術間で抽出されたセグメントのいかなる空間的関係も提供しておらず、したがって、位置の再特定の臨床状況において十分に彼らの結果の使用を明確にしているわけではない。
本発明者らは、特に、非常に変形しやすい内視鏡シーンと結合される多数の処置にわたる組織テクスチャの経時変化により、多重干渉の全域でマッピングされなければならない、情報抽出のための画像ベース情報のみに依拠することは、非常に信頼できない場合もあり、その場合、特徴の抽出、一致、および追跡の再現性が、重要な課題を提起するという見解を持っている。
また、人体内に器具または内視鏡を位置決めするようにしておく追加の方法およびシステムが、たとえば米国特許第7945310号明細書、米国特許出願公開第2005/0085718号明細書、および米国特許出願公開第2007/0055128号明細書によって知られている。
それにもかかわらず、これらの他の知られている解決策は、外部撮像システムによって提供される手術前の仮想2Dまたは3D画像を利用する。
したがって、これらの解決策は、重要な予備データ処理を必要とし、組織テクスチャの変化、あるいは標的シーンのまたは前記シーンの環境の変形を考慮に入れることができない。
米国特許第7945310号明細書 米国特許出願公開第2005/0085718号明細書 米国特許出願公開第2007/0055128号明細書
Baptiste Allainら、Biopsy site re−localization based on the computation of epipoler lines from two previous endoscope images、International Conference on Medical Image Computing and Computer−Assisted Intervention(MICCAI)において、12巻、491〜498頁、Springer、Heidelberg、2009年1月 Peter Mountneyら、Optical biopsy mapping for minimally invasive cancer screening、International Conference on Medical Image Computing and Computer Assisted Intervention(MICCAI)において、12巻、483〜490頁、Springer、Heidelberg、2009年1月 Baptiste Allainら、A system for biopsy site re−targeting with uncertainty in gastroenterology and oropharyngeal examinations、International Conference on Medical Image Computing and Computer−Assisted Intervention(MICCAI)において、13巻、514〜521頁、2010年1月 Selen Atasoyら、「Probabilistic region matching in narrow−band endoscopy for targeted optical biopsy」、International Conference on Medical Image Computing and Computer−Assisted Intervention(MICCAI)において、12巻、499〜506頁、Springer、Heidelberg、2009年1月 Selen Atasoyら、「Endoscopic video manifolds for targeted optical biopsy」、IEEE transactions on medical imaging、31(3):637〜653頁、2012年3月
本発明の目的は、前に引用された先行技術の限界を克服することである。
これを受けて、本発明の主な目的は、1つまたは複数の連続する管腔内もしくは管腔外のその後のまたは「新しい探査」あるいは同様の処置中に、可撓性内視鏡を、第1または「基準探査」中に既に探査されている特定の位置に場合によっては数回再位置決めするための方法であって、再位置決めが、人間のユーザによって手動で、あるいは1つまたは複数のスクリーン上に2つの異なるウィンドウ上もしくは内に並行して表示される「新しい探査」可撓性内視鏡ビデオと「基準探査」可撓性内視鏡ビデオとの間の同期処理からまたはそれを使ったロボットシステムによって自動的に実現される、方法である。
本明細書において、探査、インターベンション、または処置に関して、用語「第1の」、「以前の」、または「基準」は、等価な意味を有し、同じタイプの「新しい」、「その後の」、または「現在の」探査、インターベンション、または処置に対して通常、予め(遅れずに)行われている探査、インターベンション、または処置を指し、そのデータは、(全体的に、または部分的にのみ)記録され格納されている。
新しい、その後の、または現在の探査、インターベンション、または処置は、ライブの(リアルタイムの現在の)もの、あるいは記録されたデータにまた基づく探査、インターベンション、または処置であってもよく、したがって、必ずしも後刻実施とは限らない。
好ましくは、同期処理は、第1または基準探査と、電磁気、光ファイバー、または任意の他の同様なタイプの追跡デバイスなどの固定された外部基準フレームに従って内視鏡の前記先端の位置および向きを提供する追跡デバイスからのその後のまたは新しい探査との間に記録される可撓性内視鏡の先端の位置およびあるいは向きの位置合わせのみに基づいている。
したがって、たとえば可撓性内視鏡の先端に電磁(EM)センサを取り付けることによって、身体内のその移動は、固定された外部基準フレームに対して追跡され得る。2つの連続するインターベンションについてEMセンサ位置の間の一致を計算することによって、ガイデッドビューが、GI専門家に提供される。このガイデッドビューは、その後の、たとえばライブビューされているインターベンションと最もよく一致する予め記録されたインターベンションから抽出されたマッチング画像から成る。
あるいは、同期処理は、第1または基準探査と、第1または基準探査とその後のまたは新しい探査の両方の間に視認可能な類似の特徴の抽出およびマッチングを行う、リアルタイム内視鏡ビデオ解析によって改善される追跡デバイスからのその後のまたは新しい探査との間に記録される可撓性内視鏡の先端の位置および向きの位置合わせに基づくことができる。
この実施形態と関連して、人は、同期を改善するように特徴記述子を用いることを考えることができる。
基本的な実施は、ビデオ同期を行うように単一のアルゴリズムを利用することができる。このアルゴリズムは、以前の探査の6DOFセンサの記録された位置および向き、およびその後の探査中の前記センサのライブ位置および向きのみを使用する。食道または同様な管状器官がいくらかの変形を受ける場合には、または位置合わせステップが不正確な場合には、同期アルゴリズムは、現時点での技術的水準の技術による画像解析を用いて改善され、よりロバストにされ得る。たとえば、特徴記述子は、David G.Lowe、「Distinctive Image Futures from Scale−Invariant Keypoints」International Journal of Computer Vision、60巻、No.2、2004年、91〜110頁、またはHerbert Bay、Andreas Ess、Tinne Tuytelaas、Luc Van Gool、「SURF:Speed Up Robust Features」、Computer Vision and Image Understanding(CVIU)、110巻、No.3、346〜359頁、2008年、に開示されるものなどの、以前の探査の各記録された画像について記録され得る。次いで、その後の探査中に、最良の特徴記述子が、ライブ画像から抽出され、以前の探査から画像の部分集合に一致されることができ、これは、センサ位置および向き情報のみを用いて選択されている画像に(距離的に)近い。明らかに、いかなる種類の特徴記述子もこのために使用され得る。したがって、一致記述子および一致品質の数の解析は、センサ位置および向き情報のみから本来選択されるものよりも類似して見える画像を選択するように使用され得る。
有利なことに、2つの同期化された可撓性内視鏡ビデオは、特定の対象点を示す仮想タグによって向上され、これらの仮想タグは、ユーザによる対話形式での第1または基準探査可撓性内視鏡ビデオに基づいて、および2つの同期化されたビデオの比較に基づく画像解析により自動的にその後のまたは新しい探査可撓性内視鏡ビデオで定義される。
あるいは、2つの同期化された可撓性内視鏡ビデオは、特定の対象点を示す仮想タグによって向上され、これらの仮想タグは、たとえば解剖学的、病理学的、または外科的な特定の特徴などの、対象の視認可能な点を抽出する自動ビデオ画像解析による自動的な第1または基準探査可撓性内視鏡ビデオに基づいて、およびその後のまたは新しい探査可撓性内視鏡ビデオにおいて対象の同じ視認可能な点を抽出する自動ビデオ画像解析と2つの同期化されたビデオの比較アルゴリズムを組み合わせる画像解析により自動的にその後のまたは新しい探査可撓性内視鏡ビデオで定義される。
たとえば、以前の実施形態に関して、人は、基準探査および新しい探査中に生検部位の自動タグ付けを行うように画像解析および特徴記述子を用いることを考えることができる。
基準探査全体が記録され得るので、これはまた、器具が組織試料を切断し回収するように(または、Maunakea Technologyの共焦点顕微鏡装置を用いて光学試料を実行するように)内視鏡動作チャネルの1つに挿入される生検の方法を含む。現時点での技術的水準の画像解析は、Allan,M.、Ourselin,S.,Thompson,S,、Hawkes,D.J.、Kelly,J.、Stoyanov,D.(2013)、Toward detection and localization of instruments in minimally invasive surgery、IEEE Trans Biomed Eng60(4)、1050〜1058、に開示されるようなビデオ画像において器具位置を追跡することを可能にする。したがって、器具サイズおよびカメラ較正が知られている場合は、カメラフレームに対するその3D位置もまた知られる。これは、(その先端に取り付けられる)センサ(EM)フレームに対するカメラフレームの位置が(たとえば、F.DornaikaおよびR.Horaud、Simultaneous robot−world and hand−eye calibration、Robotics and Automation、IEEE Transactions、14(4):617〜622、1998年、に説明されている方法を用いて)予め較正されていることを条件として、生検部位は、基準探査ビデオの解析から追跡(EM)フレームにおいて自動的に計算され得るということを意味する。
いったん生検部位が基準探査においてすべてタグ付けされていると、この場合、新しい探査においてそれらの位置を推定するように特徴記述子を用いることができる。実際、特徴記述子検出の第1のステップは、生検部位を含む基準探査フレームにおいて行われ得る。次いで、画素座標(u、v)を持つ画像において認識される各生検部位について、同じ画像における検出された記述子に対するその相対位置が記録される。その後、記述子は、新しい探査フレームにおいて検出され、基準探査のものに一致される。生検を含むフレームの記述子と一致される少なくとも3つの記述子を含む新しい探査におけるフレームFexpすべてについて、位置合わせ手法を用いてFexpにおける画素生検部位を推定することができる。この位置合わせステップについて多くの可能性がある。重心座標の使用は、3つの記述子が一致されている場合には標準的な選択肢である。しかし、少なくとも4つの記述子が生検部位の周りに見出されている場合には、同相位置合わせがより関連性のある場合がある(同相は、4つまたそれ以上の点を用いて透視歪みをモデリングすることを可能にする)。
本発明の可能な実施形態によれば、特定の対象点を示す仮想タグによって向上されるかまたはされない、2つの同期化された可撓性内視鏡ビデオは、解剖学的および/または病理学的構造の3D身体モデルの仮想レンダリングを使った拡張現実技術を用いて融合され、この3Dモデルは、被験者の身体のその後のまたは新しい探査前に実現される術前医用画像から抽出される。
拡張現実情報を手術前の3Dモデルから新しい探査画像に加えることは、たとえば、下に説明されるように行われ得る。
術前画像または患者(通常、3D CTスキャンまたはMRI画像)が利用できる場合には、術前画像フレームFpreopと(EM)追跡システムフレームFEMとの間のリンク(回転+並進)を計算することができる。この計算は、たとえば、Fpreopにおける術前画像から手動でまたは自動的に抽出される食道中心線を用いて行われることができ、FEMにおいて新しい探査中に評価される食道の軌道に位置合わせされる。これに関連して、食道の軌道は、両フレームにおいて、食道と胃との間の遷移点、および喉の一部を含まなければならない。
2つのEMマーカーが患者の胸部に貼り付けられる場合は、Fpreopにおける術前画像から、2つのEMマーカーに自動的に対応する2つの点と食道における1つの点とを手動でまた自動的に抽出することは容易である。この場合、これらの3つの点は、フレームFpreopおよびFEMを位置合わせするために予め説明されたように使用され得る。
いったんFpreopおよびFEMの相対位置が知られていると、(その先端に取り付けられる)EMセンサフレームに対するカメラフレームの位置が(たとえば、F.DornaikaおよびR.Horaud、Simultaneous robot−world and hand−eye calibration、Robotics and Automation、IEEE Transactions、14(4):617〜622、1998年、に説明されている方法を用いて)予め較正されていることを条件として、内視鏡ビデオフレームにおいて術前画像(3D表面モデルまたはボリュームレンダリング)から抽出される情報をそのまま重ね合わせる。
本発明の方法の同期処理は、より正確には次の3つのステップ処理、すなわち、
第1のステップ:磁気、光ファイバー、または同様な追跡デバイスなどの固定された外部基準フレームによる内視鏡の先端の位置および向きを提供する追跡システムと、管腔内または管腔外の第1または基準探査中に結合されている可撓性内視鏡ビデオとを用いて、可撓性内視鏡の先端の位置を記録するステップ、
第2のステップ:磁気、光ファイバー、または同様な追跡デバイスなどの固定された外部基準フレームによる内視鏡の先端の位置および向きを提供する追跡システムと、管腔内または管腔外のその後のまたは新しい探査中に結合されている可撓性内視鏡ビデオとを用いて、可撓性内視鏡の先端の位置を処理するステップ、特に位置合わせするステップ、
第3のステップ:リアルタイムのその後の探査と第1の探査との間の可撓性内視鏡の先端位置の位置合わせからまたはそれを用いて、その後のまたは新しい探査ビデオおよび第1または基準探査ビデオを同期させるステップ
から成ることができる。
以前に説明された同期処理の1つまたはいくつかのステップの次の(1から3の)部分的に選択可能な実施形態が予想されることができ、すなわち、
1)同期の第3のステップは、第1の基準探査およびリアルタイムのその後の探査の両方において視認可能な類似の特徴(複数可)を抽出しかつマッチングする、リアルタイム可撓性内視鏡ビデオ解析によって改善される、リアルタイム探査と基準探査との間の可撓性内視鏡の先端位置の位置合わせからまたはそれを用いて、その後のまたは新しい探査ビデオおよび第1または基準探査ビデオを同期させるステップを含む。
2)同期処理は、より正確には、次の4つのステップ処理、すなわち、
第1のステップ;以前に説明されたような、
第2のステップ:探査される被験者の身体において特定の対象点を示す第1または基準探査可撓性内視鏡ビデオの1つまたは複数の画像の対話式の仮想タグ付けを付加するステップであり、この仮想タグ付けが、マウス、パッド、トラックボール、ジョイスティック、または光トラッキングなどの、ビデオの画素または画素のグループを正確に選択するようにしておく任意の相互作用またはヒューマンインターフェース装置を通してビデオの任意の選択された画像にタグを付加するようにしておく特定の第1または基準探査ビデオ読み出しによって実現される、ステップ、
第3のステップ:前に説明された第2のステップと等価なまたは同一のステップ、
第4のステップ:前に説明された第3のステップ(3つのステップ処理)を行うステップであり、位置合わせ処理が、第2のステップでタグ付けされる探査される被験者の身体の同じ特定の対象点をこのビデオで位置特定させるその後のまたは新しい探査ビデオの解析を付加し、かつこれらの仮想タグの重ね合わせによって、同期化されたその後のまたは新しい探査ビデオの同じ位置にこれを付加することによって改善される、ステップから成る。
3)同期処理は、より正確には、次の4つのステップ処理、すなわち、
第1のステップ:前に述べたのと同じ、
第2のステップ:探査される被験者の身体において特定の対象点を示す第1または基準探査可撓性内視鏡ビデオの1つまたは複数の画像に自動的な仮想タグ付けを付加するステップであり、この仮想タグ付けが、好ましくは、たとえば色、輝度、コントラスト、および特徴追跡、ならびに解剖学的、病理学的、または外科的な特定の特徴などの、特徴追跡、対象の視認可能な抽出点に基づく、特定のビデオ解析アルゴリズムを通して自動的に実現される、ステップ、
第3のステップ:前に述べた第2のステップ(3つのステップ処理)と等価なまたは同一のステップ、
第4のステップ:前に述べた第3のステップ(3つのステップ処理)を行うステップであり、位置合わせ処理が、第2のステップでタグ付けされる探査される被験者の身体の同じ特定の対象点をこのビデオで位置特定させるその後の新しい探査ビデオの解析を付加し、かつこれらの仮想タグの重ね合わせによって、同期化されたその後の新しい探査ビデオの同じ位置にこれを付加することによって改善され、第2のステップに使用される対象の点の検出の同じアルゴリズムが、前に説明された第3のステップ(3つのステップ処理)に規定される他の位置合わせアルゴリズムと場合によっては組み合わされる、ステップから成る。
本発明の典型的な用途として、可撓性内視鏡を使った探査は、食道または結腸などの、ヒト被験体の管状器官に行われる。
本発明による方法は、被験者の姿勢が変化していないままであるかまたは以前の探査とその後の探査との間でほぼ再現され得る場合には、いかなる追加のマーカーの使用もなしに実施され得る。
それにもかかわらず、そうでない場合には、本発明は、その位置が使用される追跡システムまたは他の追跡システムによって記録され得る少なくとも2つのマーカーが、予め被験者の所与の解剖学的場所に配置され、探査される管状器官に依存しかつ好ましくは被験者が姿勢を変え得る場合に顕著な変形または変位を受けない前記場所が、好ましくは、少なくとも1つの他の内部の容易に認識可能な解剖学的特徴点と共に以前のおよびその後の探査の基準点を与えるように使用されることを予測することができる。
再配置の正確さを増加させるために、基準点は、フレームを定義し取り付けるのに使用され、または第1のおよびその後の探査において被験者と関連のあることができる。
必要とされる計算資源を制限し、再配置処理を加速するために、本発明による同期処理は、最終探査段階で、すなわち内視鏡の先端が対象の領域に達した場合に集中され得る。したがって、第1のまたは以前の探査中に、限られた数の画像が記録されまたは選択され、これは、好ましくはマーキングされまたはタグ付けされる関連情報を含み、その後の探査中に、現在のまたはライブ内視鏡位置が関連情報を含む画像と関連する位置に近い場合にのみ、ビデオ画像処理および同期ステップが行われ、ガイダンス情報が提供される。
本発明の他の特徴によれば、管状器官が探査される場合に、画像処理が行われ、この画像処理は、その後の探査中にビデオ画像で管腔位置を解析し、同様の管腔位置によってその後のライブ位置に近い位置と関連する以前の探査から画像を選択する。
有利なことに、探査される器官が結腸である場合は、腹壁に取り付けられることが知られている結腸の3つの点または部分は、固定の基準点または場所として使用され、その後の探査中に標的に達することは、逆方向動きを通じて行われることが好ましい。
また、再配置処理は、必要とされる場合には内視鏡の回転を考慮に入れることができる。したがって、可撓性内視鏡の先端の向きは、記録され、その3D位置に加えて追跡システムによって利用されて、基準探査とその後の探査との間の内視鏡の向きの回転差を評価する。
実際的な観点から本発明を考える場合には、人は、可撓性内視鏡の先端の正確な再配置は2つの連続する操作ステップ、すなわち、
前に説明されたように、予め行われた処置で決定される生検部位などの基準点または位置に近い可撓性内視鏡の先端の近似位置決めを行うことによる、全体の位置特定ステップ、
その後のまたは現在のインターベンション時にビデオ画像上への以前の処置中に得られる、標的部位または点のマッピングを参照することによる、精密位置決めステップ
を通して行われると考えることができる。
また、本発明は、以前に本明細書において説明された方法を実施することができる医療システムを含んでいる。
本発明は、その非限定的な実施例として与えられる前記発明の実施形態についでの次の説明および図面によってよりよく理解されるであろう。
人の食道の探査中の、本発明の実施形態による可撓性内視鏡および追跡システムを備える医療システムの概略図である。 人の食道の探査中の、本発明の実施形態による可撓性内視鏡および追跡システムを備える医療システムの概略図である。 本発明の好ましい実施形態による再配置方法の主要なステップを示す概略的な機能図である。 本発明の好ましい実施形態による再配置方法の主要なステップを示す概略的な機能図である。 本発明の好ましい実施形態による再配置方法の主要なステップを示す概略的な機能図である。 第1のまたは以前の探査の前進移動中、前記第1のまたは以前の探査の後退移動中、および管状器官たとえば食道の、たとえばライブのその後の探査中に可撓性内視鏡の先端の異なる軌道(連続する位置)を示す1部分の図式表現の図である。その後の探査位置と以前の探査位置との間の点線がユークリッド距離に基づく同期処理に対応し、その後の探査からの位置を考慮すれば、以前の探査から表示されるビデオフレームが以前の探査から最も近い位置と関連するものである図である。 図4によって行われる前進探査中、および後退探査中に得られる管腔の画像を示す図である。 食道および対応する一致の可撓性内視鏡の先端の以前におよびその後のライブ軌道を示す図である。 ライブビュー(左)の、および以前に記録された探査からの最もよく一致する画像(右)の画像を示し、丸で囲んだ部位が内視鏡の熱傷ツールを用いることによって作られるマーキングを示す図である。 列に配置された複数の内視鏡画像を示し、第1の列がライブビデオからのフレームを示し、第2の列が最も近い一致を示し、列3、列4、および列5が、同期処理から得られる20個の最も良好な一致からランダムに選択されたフレームを示す図である。 (部分的に示される)可撓性内視鏡によって探査を受ける人体の結腸の概略図である。 第1のまたは以前の探査中のロールでの較正および補正を示す、可撓性内視鏡の端部(先端)の部分的な概略図である。 その後のまたは現在の探査(参照のためのx、y、zがカメラのレンズに付けられ、参照のためのx’、y’、z’がセンサに付けられている)中のロールでの較正および補正を示す、可撓性内視鏡の端部(先端)の部分的な概略図である。
図1および図2、および部分的に図9は、被験者7の管状器官に導入されることができ、本発明による方法を実施することができる可撓性内視鏡2を備える、本発明による医療システム1を示している。
より正確には、前記医療システム1は、
i)撮像装置3が少なくとも装備される可撓性内視鏡2、および場合によっては少なくとも1つのツールまたは器具と、
ii)表示手段3’、および前記内視鏡3と結合された移動制御手段3″と、
iii)電磁追跡デバイスまたは可撓性光学追跡デバイスなどの、内視鏡2の先端2’の位置および向きを提供する追跡デバイスまたはシステム4と、
iiii)コンピュータ手段(5)および結合された格納手段と
を主として備え、
内視鏡(2)の前端または先端(2’)には、電磁センサ4’または同様な追跡デバイスが設けられ、前記医療システム1は、以前に説明されたような方法を実施することができる手段、特にコンピュータ手段5内のソフトウェア手段をさらに備える。
可撓性内視鏡2の先端2’に固定されまたは取り付けられるセンサ4’および対応する追跡システム4は、少なくとも3D位置の追跡、好ましくはまた前記先端の向きの追跡を可能にする。
本発明のシステムの第1の実施によれば、かつ図1に示されるように、(たとえば、電磁式または光学式の)いかなる外部マーカーも、以前の探査中のEMフレームとその後の探査中のEMフレームとの間の位置合わせを行うことが必要とされない。実際、本方法は、喉および食道形状推定に完全に依拠することができ、これは、以前のおよびその後の探査中に行われる。しかし、有効であるべきこの技術の場合、以前のおよびその後の探査中の肩に対する患者の頭の向きがほぼ同じであるべきであり、医療専門家は、胃エントリーポイントに到達しなければならず、これは、(たとえば、食道の中間の大きな腫瘍による食道閉塞の場合は)恐らくは拘束しており、またはある患者に対して実行できない場合がある。
この問題を解決するために、本発明は、後に提示され、図2に示される追加のマーカー6を使用することができる。より正確には、少なくとも2つの補足EMマーカーの使用に基づいていることができ、このマーカーは、容易に後方に見出され得る解剖学的特徴点の上の、好ましくは胸骨に沿って患者の胸部に貼り付けられ、これは、以前のおよびその後の探査中に患者が同じ姿勢を有していない場合に重要な変形を受けない(患者は、仰向けになった姿勢に、かつ次いで横方への臥床姿勢に横になることができる)。頸切痕は、胸骨終端点ばかりでなく、著しく静的な解剖学的特徴点でもあったことが分かっている。
これに関連して、以前の探査中に、2つのマーカー6が、好ましくはインターベンション中に患者7に貼り付けられ、そのうえそれらの位置が記録される。記録される位置は、両方の点について1つのみの取得か、または患者がインターベンション中に動かないはずであることが仮定されているので平均された各マーカーについて取得の集合であり得る。次いで、その後の探査中に、2つのマーカー6は、ほぼ同じ解剖学的な位置において患者7に貼り付けられ、それらの位置は記録される。次いで、位置合わせを行うための第1のアプローチが、各探査中に認識される2つの点のトリプレットを用いて、3D/3D点位置合わせ(Arun KS、Huang TS、Blostein SD.「Least−squars fitting of two 3−d point sets」、IEEE transactions on Pattern Analysis and Machine Intelligenceを参照されたい)を行うことになる。このトリプレットは、2つのマーカー位置および食道形状推定時の点Pclosest(これは、ほぼ、患者の喉近傍において湾曲した、ライン形状を持つ点の集合である)であることができ、これは、頸切痕に貼り付けられるマーカーに最も近い。
しかし、本発明者らは、(胸骨に沿って)胸骨終端点を反復して見出す際に、ある不確実性があることに気付いた。そのうえ、本発明者らはまた、頸切痕に最も近い点Pclosestの相対位置が数ミリメートルという以前の探査とその後の探査との間で変化し得ることを認めた。したがって、3D/3D位置合わせは、あまり正確でなく、その代わりとして、以前のおよびその後の探査中に規定され得る次に続くフレームFを位置合わせすることが提案されている。フレームF中心は、頸切痕に貼り付けられるマーカーによって規定され、そのX軸は、頸切痕マーカーと胸骨終端点との間のベクトルMによって規定され、そのY軸は、Mと、頸切痕マーカーとPclosestとの間のベクトルとの間のクロス乗積によって規定され、次いで、そのZ軸は、X軸とY軸との間のクロス乗積から計算される。その分野の専門家は、2つの点トリプレットの代わりに2つのフレームを位置合わせすることが、胸骨マーカー位置のおよび位置合わせ結果のPclosestの、不確実性の影響を劇的に減少させることを容易に理解するであろう。
本発明は、基本的には、以前の探査からフレームを表示することを目的としており、食道および同様な管状器官のその観点は、ライブの/その後の探査の観点に場合によっては近くにある。最も適応したフレームを見出すことは、計算上コストが高い場合もある。より簡単な実施が可能であり、この実施は、今でも医療専門家のための案内ツールを提供するが、記録された画像フレームの小さいまたは減少した集合を使用するのみである。
以前の探査段階中に、医療専門家は、彼が関連すると考える画像に注釈をつける。彼がその上に(矢印または円が関連情報を示すように画像に重ね合わされ得る)関連情報の位置を示す、iが(たとえば、生検情報または病理学情報を含む)範囲[1−50]に属する、約50個の関連画像Riがあると仮定しよう。その後の探査中に、システムは、1つのスクリーンにその後の探査のライブ画像を示し、ライブ内視鏡位置が重ね合わせステップ後に関連画像Riと関連する位置に近い場合(たとえば、内視鏡位置とRiと関連する位置との間の距離が閾値、たとえば3mmの範囲内である場合)にのみ、関連画像Riを表示することになる。また、システムは、(前進または後進の)その方向において内視鏡がRiと関連する点に近づくように移動されるべきであることを示すことができる。この指示は、有向の矢印、文字(たとえば、FまたはB)、あるいは色インジケータによって与えられ得る。
また、本発明は、記録されたフレームの滑らかでない位置を扱う問題を考えることができる。
明らかに、いくつかの関連画像が点と関連しており、これは、非常に密接であり、したがって閾値より小さい距離によって分離される。この場合は、システムは、スクリーンにモザイク表現で関連画像すべてを表示することができ、または、システムは、医療専門家に、彼が到達することを望んでいるいくつかの関連画像の中のその関連画像を尋ねることができる。
以前の探査中に、システムは、処置中に、対応する画像と関連する(EM)センサを介した内視鏡位置を反復して同時に記録する。したがって、多くの対 位置+画像が食道または同様な管状器官における特定の深さについて記録されるが、その結果、前記器官において内視鏡の異なる横方向の位置が生じる。この場合は、かつ本明細書において後ほど説明されるように、その後のライブ探査中に内視鏡の現在の位置に対応する以前の探査からの画像を選択する基本的なアプローチは、医療専門家にとって違和感がある場合がある。実際、時刻tにおける表示される画像は、時刻t+1における画像と非常に異なる場合があり、食道または同様な管状器官における内視鏡の観点は、非常に異なり、この場合、画像流れは、滑らかでない。この現象は、通常、医療専門家が前後探査全体を記録している場合に生じ、図4に示されている。図5で理解できるように、管腔は、同じ探査処置内で、内視鏡の前進運動中にビデオ画像の左側(t−t200)に、および内視鏡の後退運動中にビデオ画像の右側(t200−t400)にあり得る。
また、この現象は、複数の生検が同様な深さにおいてであるが器官の反対の側で行われる場合に生じ得る。この問題を解決するために、画像処理アプローチが採用されることができ、これは、時刻tにおける画像内の管腔位置を解析し、図5に示されるように、同様な管腔位置を持つライブ位置に近い位置と関連する以前の探査から画像を選択する。
本発明によって扱われ得るもう1つの問題は、内視鏡の回転を考慮に入れることである。
実際、その後の探査中に、医療専門家は、以前の探査中の向きと異なり得るその軸を中心とする向き(通常、ロールと呼ばれる)を持つ内視鏡を導入する。経験を積んだ医療専門家は、通常、内視鏡でいくつかの特定のマークを注視することによって、おおよそ以前の探査とその後の探査との間で同じ向きを有することができる。しかし、これは、時間がかかり、初心者医療専門家にとってそう容易なことではない。内視鏡の向きが同じでない場合は、本方法は、もちろん、2つの探査ビデオを同期させることができるが、画像の向きは、同じでないことになり、したがって、両方のビデオに同じ解剖学的構造を認めることは、医療専門家にとってあまり容易でないであろう。
この点について、本発明の方法は、以前の探査とその後の探査との間のライブの向き誤差を計算するように改善され得る。いったん向き誤差が計算されると、システムは、回転誤差が低減されるように内視鏡が回転されるべきであるその方向に、ライブビデオスクリーン上に矢印で指示を出すことができる。また、度での回転誤差が表示され、更新され得る。
いったん向き誤差が計算されると、システムはまた、以前の探査ビデオに対する、またはその後の探査ビデオに対する誤差を補償する回転を自動的に加えることができる。
以下に、以前の探査とその後の探査との間のライブの向き誤差がいかに計算され得るかが、例示として説明される。食道または同様な管状器官内部の可撓性内視鏡を追跡するために、6DOF電磁センサが、内視鏡の先端にセットされる。以前の探査中の記録ステップは、内視鏡先端の3D位置ばかりでなく、その向き(ロール、ヨー、ピッチ)も含む。また、その後の探査中に、内視鏡先端の向きが取得される。
次の2つの場合が起こり得る。すなわち、
内視鏡先端のカメラと6DOFセンサとの間の相対的な向きが以前の探査中とその後の探査中とで同じである(すなわち、以前の探査中に使用されている内視鏡がその後の探査中と同じであるか、または各製造された内視鏡が内視鏡先端のカメラと6DOFセンサとの間で同じ相対的な向きを有することを内視鏡製造業者が保証している)場合には、向き誤差は、ライブ内視鏡位置の6DOFセンサ向きとライブ内視鏡位置に一致されている以前の探査からの位置における記録された6DOFセンサ向きとの間のロール差によって与えられ得る。
これに反して、内視鏡先端のカメラと6DOFセンサとの間の相対的な向きが以前の探査中とその後の探査中とで同じでない場合には、予備較正ステップが、以前の探査中の内視鏡カメラフレーム(そのz軸は、通常、カメラ視点に沿って選択される)と6DOFセンサフレーム(そのz軸は、通常、EMセンサコイルに沿っており、したがってこのような状況ではカメラz軸にほとんど平行である)との間のロール差R1、および、その後の探査中の内視鏡カメラフレームと6DOFセンサフレームとの間のロール差R2を計算するために必要である(これは、図10Aおよび図10Bに示されている)。この場合、R1とR2との差により、カメラと6DOFセンサとの間の同じ相対位置を持つ同じ内視鏡が以前のおよびその後の探査中に使用されていることを模擬することができる。したがって、前に説明された方法は良好に使用され得る。
本発明の実用的な実施形態が、食道探査に関して、例示としてより正確に説明されることになる。
システム構成1は、おおよそ患者7の胸部の上方に配置され、チタニウムアームを用いて適切な位置に固定される適応した作業範囲を持つEM場発生器4から成る。6DOF EMセンサ4’が、可撓性内視鏡2の作業チャネルに挿入され、内視鏡の先端2’に固定される。EMTSおよび内視鏡2は、ラップトップ型のまたは同様なコンピュータ関係5に接続され、これは、データを同期的に記録する。インターベンションの記録は、内視鏡2から捕捉される対応する画像フレームを持つ、EMセンサ姿勢のリスト(内視鏡の先端2’の軌道)から成る。可能なライブのその後の処置中に、以前に行われたインターベンションの記録を考慮すれば、対応する画像が、記録に見出されることができ、これは、食道における内視鏡の現在の位置に空間的に一致する。
図3A〜図3Cは、本発明の方法のワークフローの概観を与えている。使用される処理は、3つの部分または段階に分割される。すなわち、
取得段階:記録されたデータがタグ付けされ、さらなる処理のために格納される段階、
位置合わせ段階:ライブ処置のEMTS基準フレームの位置合わせ、および案内ビューを与えるために選択された以前に記録されたインターベンションを行うための段階、および
同期段階:ライブインターベンションの軌道と以前に位置合わせされた記録との間の空間的同期を行うための段階
である。
取得段階は、図3Aに概略的に示されている。
この段階中に、GI専門家は、インターベンションの記録および関連画像のタグ付けを行う。可撓性内視鏡は、食道を通ってゆっくり案内され、同時に、内視鏡から取得されるEMセンサ姿勢および対応する画像が、データベースに記録される。記録は、バブル、モーションブラー、スペキュラーハイライト、および焦点外画像のある、多くの情報価値のないフレームを含む。第1に、これらの情報価値のないフレームは検出され、M K Basharら、Automatic detection of information frames from wireless capsule endoscopy images、Medical image analysis、14(3):449−70、6月201、に説明されている方法を用いてさらなる処理から除外される。GI専門家は、括約筋が位置合わせ段階においてランドマークとして使用されるので、括約筋を含む画像にタグ付けする。括約筋は、これが安定であり、良好な繰返し精度で到達され得るので解剖学的ランドマークとして使用される。生検処置を含む内視鏡フレームはタグ付けされ、オフラインステップにおいて、専門家は、タグ付けされた生検画像を見直し、処置に最も関連性のある生検画像を選択する。この段階において、専門家は、補足情報を記録の画像に追加するように選択することができ、これは、同期段階中に利用できるであろう。
位置合わせ段階は、図3Bに示されている。
EMTSの構成は常に術間で変更されることになるので、位置合わせは、ライブインターベンションのEMTS基準フレームとガイデッドビューを提供するために選択される以前のインターベンションの記録との間で行われなければならない。好ましくは、オンラインの位置合わせが、手術室に更なる制約を導入することなく使用される。これを達成するために、第1に、GI専門家が内視鏡を食道に導き、括約筋まで内視鏡を案内している時にEMセンサ位置が記録される。食道はかなり直線的であり、非常に最小の横方向移動を示すという関連知識が使用される。したがって、ライブ軌道および以前のインターベンションの軌道の最も大きい主成分が、各軌道についてベクトルZ=[001]に沿って3D方位合わせを得るように使用され得る。次いで、タグ付けされた括約筋位置が、翻訳tを取得するように使用されることができ、Rに加えて、これは、さらなる位置合わせ改良のためにイテラティブ クローゼスト ポイント(ICP)のための初期設定を提供する。
同期段階は、図3Cに示されている。
いったん基準フレームが位置合わせされると、現在のインターベンションからのセンサ位置と以前に記録されたインターベンションとの間の空間的一致が計算される。バイナリツリーとして以前のインターベンションの軌道を分割することによって、現在のセンサ位置に対する(ユークリッドの意味における)最も近い隣接点の探索が行われる。ナビゲーション中の食道の局所的な変形により、軌道は、滑らかでなく、(ベクトルzに沿って、喉を括約筋に接続する)中心食道線からずれを示し(図6)、これは、マーキングされた深さの差との誤一致を引き起こす場合もある。軌道はベクトルzに沿って位置合わせされるので、探索空間は、Δz(およそ2mm)内にあるように拘束される。最も近い隣接点は、以前の処置中に取得される食道における領域の対応する最良のマッチング画像を与える。特に、生検部位の位置を含むようにタグ付けされた一致した画像は、見直しのためにより局所的な領域をGI専門家に提供する。図7は、同期段階の結果を不満に思っている。ICPは、ベクトルzに沿って回転に至るまで変形を見つけ出すが、探索空間はこの方向に沿って拘束されるので、最も近い隣接点の決定は、これによって影響を受けない。
本発明者らは、NDI\coptright Aurora EMTS(所与の作業量において0.5mmの精度)を用いて、本発明の方法およびシステムに基づく実験を行った。
本発明の方法は、各組が4つの記録から成る、異なるブタに生体内での配列の3つの組で試験された。事前のマーキングが、生検部位を模擬するように2cmごとにデュアルナイフを用いて食道に対して行われた。異なる時刻に行われる現実的な手術処置を複製するために、EM場エミッタが、各記録の前にランダムに再位置決めされた。予め説明されたステップは、基準としての第1の記録、および追跡して行う処置を模倣する3つの他の記録を使って行われた。アプローチの品質評価が、同期段階の出力を5人の専門家に提示することによって行われた。
図7に示されるように、2つの画像、すなわちライブストリームをインターベンションから評価するフレームを表示する1つの画像、および対応するマッチングフレームを予め記録されたインターベンションから表示する第2の画像が提示された。デュアルナイフによって行われたマーキングと基準として他の視認可能なランドマークとを用いて、専門家は、本発明者らのアプローチを用いて提示された一致した画像の妥当性および品質を評価した。それらの経験のフィードバックが定量化された。評価実験は、明らかに、本発明のシステムが模擬された生検部位を位置を再特定させるのに非常に有用であることを専門家が見出したことを示している。しかし、一致した画像が必ずしも理想的視点(図8、結果a、b、およびe)を提供したわけではないことが示唆された。加えられた調査時に、発明者らは、20個の最良の隣接点を考えることによって、最良の画像の選択が、最良の視点を受け入れるようにさらに精密にし得ることを認めた。図8は、これらのフレームのサンプルを示している。
このアプローチは、GI専門家に、より進んだガイダンスを既に提供しているが、フレーム選択は、これらの最良の隣接点に対して画像解析を行うことによってさらに改善され得る。
本発明の例示的な実用的な実施形態のこれまでの説明は、より詳細には、食道に対する適用にある。
次に、予め同様に示されているように、本発明の方法およびシステムは、既に探査された特定の場所において、他の管状の幾分変形可能な器官に可撓性内視鏡を迅速かつ正確に再位置決めまたは再配置するように使用され適用され得る。
これは、たとえば、非常に伸張性のあり変形可能であり、また決して形状が真っ直ぐでないことが知られている結腸の場合に当てはまる。
結腸のこの特定の特徴により、本発明の方法は、結腸の解剖について次の情報を考慮に入れる。すなわち、腹壁に取り付けられ、したがって基準ランドマークとして考慮され得る結腸の3つの部分が存在し、すなわち、右および左結腸曲、腸移行の盲腸である。これらの3つの部分は、医療専門家によって容易に認識されることができ、それらの位置は(以前のおよびその後の)探査中に記録されるので、この場合、以前の探査時の各中間軌道のサイズをその後の探査時の対応するものにマッピングすることができる。医療専門家(手術者)は、第1に、現在の探査時の3つの固定点に達し、コンピュータは、以前のおよびその後の探査時の各一致した部分の長さが同じ値を有するように、各部分の長さに対する比率を適用することによって3つの結腸部分を一致させる。次いで、医療専門家は、彼が関連部位に接近していることを本発明の方法が示すまで、内視鏡を僅かに移動することによって以前の探査中に注釈をつけられまたは記録された関連部位に達することができる。医療専門家が結腸において前方に移動させることによって本発明の方法を使用して標的に達しようとする場合に、本システムによって提供される情報は正確であり得ない可能性があることを強調することが重要である。実際、結腸の予測できない弾性変形が、主として、前進運動中に、ほとんど後退運動中ではなく起こることがよく知られている。
これは前述の明細書に由来するように、本発明は、全く単刀直入な方法およびシステムを提案しており、実時間(50Hz〜100Hzでの軌跡マッチング)の作業が、手術室プロトコルに対して最小の変化で使用されることができ、オフラインステップの大半は、容易に自動化され得る。そのうえ、本システムは、時間的にスケーラブルなので、記録が、情報の損失なしでGI専門家の間で共有され得る。最後に、本発明の方法は、画像の品質に依拠していないので、術間での比較について通常の内視鏡画像アーチファクトに対してロバストである。
本発明は、もちろん、本明細書において説明され提示された好ましい実施形態に限定されるものではなく、本発明の範囲を逸脱することなく、変更が行われることができ、または均等物が使用され得る。

Claims (20)

  1. 1つまたは複数の連続する管腔内もしくは管腔外のその後のまたは「新しい探査」あるいは同様の処置中に、可撓性内視鏡を、第1または「基準探査」中に既に探査されている特定の位置に場合によっては数回再位置決めするための方法であって、再位置決めが、人間のユーザによって手動で、あるいは1つまたは複数のスクリーン上に2つの異なるウィンドウ上もしくは内に並行して表示される「新しい探査」可撓性内視鏡ビデオと「基準探査」可撓性内視鏡ビデオとの間の同期処理からまたはそれを使ったロボットシステムによって自動的に実現される、方法。
  2. 同期処理が、第1または基準探査と、電磁気、光ファイバー、または任意の他の同様なタイプの追跡デバイスなどの固定された外部基準フレームに従って内視鏡の前記先端の位置および向きを提供する追跡デバイスからのその後のまたは新しい探査との間に記録される可撓性内視鏡の先端の位置および向きの位置合わせのみに基づいている、請求項1に記載の方法。
  3. 同期処理が、第1または基準探査と、第1または基準探査とその後のまたは新しい探査の両方の間に視認可能な類似の特徴の抽出およびマッチングを行う、リアルタイム内視鏡ビデオ解析によって改善される追跡デバイスからのその後のまたは新しい探査との間に記録される可撓性内視鏡の先端の位置および向きの位置合わせに基づいている、請求項1または2に記載の方法。
  4. 2つの同期化された可撓性内視鏡ビデオが、特定の対象点を示す仮想タグによって向上され、これらの仮想タグが、ユーザによる対話形式での第1または基準探査可撓性内視鏡ビデオに基づいて、および2つの同期化されたビデオの比較に基づく画像解析により自動的にその後のまたは新しい探査可撓性内視鏡ビデオで定義される、請求項1から3のいずれか一項に記載の方法。
  5. 2つの同期化された可撓性内視鏡ビデオが、特定の対象点を示す仮想タグによって向上され、これらの仮想タグが、たとえば解剖学的、病理学的、または外科的な特定の特徴などの、対象の視認可能な点を抽出する自動ビデオ画像解析による自動的な第1または基準探査可撓性内視鏡ビデオに基づいて、およびその後のまたは新しい探査可撓性内視鏡ビデオにおいて対象の同じ視認可能な点を抽出する自動ビデオ画像解析と2つの同期化されたビデオの比較アルゴリズムを組み合わせる画像解析により自動的にその後のまたは新しい探査可撓性内視鏡ビデオで定義される、請求項1から3のいずれか一項に記載の方法。
  6. 特定の対象点を示す仮想タグによって向上されるかまたはされない、2つの同期化された可撓性内視鏡ビデオが、解剖学的および/または病理学的構造の3D身体モデルの仮想レンダリングを使った拡張現実技術を用いて融合され、この3Dモデルが、被験者の身体のその後のまたは新しい探査前に実現される術前医用画像から抽出される、請求項1から5のいずれか一項に記載の方法。
  7. 同期処理が、次の3つのステップ処理、すなわち、
    第1のステップ:磁気、光ファイバー、または同様な追跡デバイスなどの固定された外部基準フレームによる内視鏡の先端の位置および向きを提供する追跡システムと、管腔内または管腔外の第1または基準探査中に結合された可撓性内視鏡ビデオとを用いて、可撓性内視鏡の先端の位置を記録するステップ、
    第2のステップ:磁気、光ファイバー、または同様な追跡デバイスなどの固定された外部基準フレームによる内視鏡の先端の位置および向きを提供する追跡システムと、管腔内または管腔外のその後のまたは新しい探査中に結合された可撓性内視鏡ビデオとを用いて、可撓性内視鏡の先端の位置を処理するステップ、特に位置合わせするステップ、
    第3のステップ:リアルタイムのその後の探査と第1の探査との間の可撓性内視鏡の先端位置の位置合わせからまたはそれを用いて、その後のまたは新しい探査ビデオおよび第1または基準探査ビデオを同期させるステップ
    から成る、請求項2に記載の方法。
  8. 同期の第3のステップが、第1の基準探査およびリアルタイムのその後の探査の両方において視認可能な類似の特徴(複数可)を抽出しかつマッチングする、リアルタイム可撓性内視鏡ビデオ解析によって改善される、リアルタイム探査と基準探査との間の可撓性内視鏡の先端位置の位置合わせからまたはそれを用いて、その後のまたは新しい探査ビデオおよび第1または基準探査ビデオを同期させるステップを含む、請求項7に記載の方法。
  9. 同期処理が、より正確には、次の4つのステップ処理、すなわち、
    第1のステップ:請求項7の場合と同様なステップ、
    第2のステップ:探査される被験者の身体において特定の対象点を示す第1または基準探査可撓性内視鏡ビデオの1つまたは複数の画像の対話式の仮想タグ付けを付加するステップであり、この仮想タグ付けが、マウス、パッド、トラックボール、ジョイスティック、または光トラッキングなどの、ビデオの画素または一群の画素を正確に選択するようにしておく任意の相互作用またはヒューマンインターフェース装置を通してビデオの任意の選択された画像にタグを付加するようにしておく特定の第1または基準探査ビデオ読み出しによって実現される、ステップ、
    第3のステップ:請求項7の第2のステップと等価なまたは同一のステップ、
    第4のステップ:請求項7の第3のステップを行うステップであり、位置合わせ処理が、第2のステップでタグ付けされる探査される被験者の身体の同じ特定の対象点をこのビデオで位置特定させるその後のまたは新しい探査ビデオの解析を付加し、かつこれらの仮想タグの重ね合わせによって、同期化されたその後のまたは新しい探査ビデオの同じ位置にこれを付加することによって改善される、ステップ
    から成る、請求項7または8に記載の方法。
  10. 同期処理が、より正確には、次の4つのステップ処理、すなわち、
    第1のステップ:請求項7の場合と同じステップ、
    第2のステップ:探査される被験者の身体において特定の対象点を示す第1または基準探査可撓性内視鏡ビデオの1つまたは複数の画像に自動的な仮想タグ付けを追加するステップであり、この仮想タグ付けが、好ましくは、たとえば色、輝度、コントラスト、および組織分析、ならびに特徴追跡に基づく、特定のビデオ解析アルゴリズムを通して自動的に実現され、解剖学的、病理学的、または外科的な特定の特徴などの視認可能な対象点を抽出する、ステップ、
    第3のステップ:請求項7の第2のステップと等価なまたは同一のステップ、
    第4のステップ:請求項7の第3のステップを行うステップであり、位置合わせ処理が、第2のステップでタグ付けされる探査される被験者の身体の同じ特定の対象点をこのビデオで位置特定させるその後の新しい探査ビデオの解析を付加し、かつこれらの仮想タグの重ね合わせによって、同期化されたその後の新しい探査ビデオの同じ位置にこれを付加することによって改善され、第2のステップに使用される対象点検出の同じアルゴリズムが、請求項7の第3のステップに規定される他の位置合わせアルゴリズムと場合によっては組み合わされる、ステップ
    から成る、請求項7に記載の方法。
  11. 可撓性内視鏡を使った探査が、食道または結腸などの、ヒト被験体の管状器官に行われる、請求項1から10のいずれか一項に記載の方法。
  12. 使用される追跡システムまたは他の追跡システムによってその位置が記録され得る少なくとも2つのマーカーが、予め被験者の所与の解剖学的場所に配置され、探査される管状器官に依存しかつ好ましくは被験者が姿勢を変え得る場合に顕著な変形または変位を受けない前記場所が、好ましくは、少なくとも1つの他の内部の容易に認識可能な解剖学特徴点と共に以前のおよびその後の探査の基準点を与えるように使用される、請求項1から11のいずれか一項に記載の方法。
  13. 基準点が、フレームを定義し取り付けるように使用され、または第1のおよびその後の探査において被験者と関連のある、請求項12に記載の方法。
  14. 第1のまたは以前の探査中に、限られた数の画像が記録されまたは選択され、これは、好ましくはマーキングされまたはタグ付けされる関連情報を含み、その後の探査中に、現在のまたはライブ内視鏡位置が関連情報を含む画像と関連する位置に近い場合にのみ、ビデオ画像処理および同期ステップが行われ、ガイダンス情報が提供される、請求項1から13のいずれか一項に記載の方法。
  15. 管状器官が探査される場合に、画像処理が行われ、この画像処理は、その後の探査中に時刻tにおけるビデオ画像で管腔位置を解析し、同様の管腔位置によってその後のライブ位置に近い位置と関連する以前のまたは基準探査から画像を選択する、請求項1から14のいずれか一項に記載の方法。
  16. 探査される器官が結腸である場合は、腹壁に取り付けられる結腸の3つの点または部分が、固定の基準点または場所として使用され、その後の探査中に標的に達することが、逆方向動きを通じて行われることが好ましい、請求項1から15のいずれか一項に記載の方法。
  17. 可撓性内視鏡の先端の向きが、記録され、その3D位置に加えて追跡システムによって利用されて、基準探査とその後の探査との間の内視鏡の向きの回転差を評価する、請求項1から16のいずれか一項に記載の方法。
  18. 可撓性内視鏡の先端の正確な位置の再特定が、2つの連続する操作ステップ、すなわち、
    請求項1から17のいずれか一項に記載の、予め行われた処置で決定される生検部位などの基準点または位置に近い可撓性内視鏡の先端の近似位置決めを行うことによる、全体の位置特定ステップ、
    その後のまたは現在のインターベンション時にビデオ画像上への以前の処置中に得られる、標的部位または点のマッピングを参照することによる、精密位置決めステップ
    を通して行われる、請求項1から17のいずれか一項に記載の方法。
  19. i)撮像装置(3)が少なくとも装備される可撓性内視鏡(2)、および場合によっては少なくとも1つのツールまたは器具と、
    ii)表示手段(3’)、および前記内視鏡(3)と結合された移動制御手段(3″)と、
    iii)電磁追跡デバイスまたは可撓性光学追跡デバイスなどの、内視鏡(2)の先端(2’)の位置および向きを提供する追跡デバイスまたはシステム(4)と、
    iiii)コンピュータ手段(5)および結合された格納手段と
    を主として備える医療システムであって、
    内視鏡(2)の前端または先端(2’)には、電磁センサ(4’)または同様な追跡デバイスが設けられ、前記医療システム(1)が、請求項1から17のいずれか一項に記載の方法を実施することができる手段、特にコンピュータ手段(5)内のソフトウェア手段をさらに備える、医療システム。
  20. 可撓性内視鏡(2)の先端(2’)に固定されまたは取り付けられるセンサ(4’)および対応する追跡システム(4)が、少なくとも3D位置の追跡、好ましくはまた前記先端の向きの追跡を可能にする、請求項19に記載のシステム。
JP2015562379A 2013-03-11 2014-03-11 デュアルデータ同期を用いた解剖学的部位の位置の再特定 Active JP6348130B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361775930P 2013-03-11 2013-03-11
US61/775,930 2013-03-11
PCT/IB2014/000838 WO2014140813A1 (en) 2013-03-11 2014-03-11 Anatomical site relocalisation using dual data synchronisation

Publications (3)

Publication Number Publication Date
JP2016511049A true JP2016511049A (ja) 2016-04-14
JP2016511049A5 JP2016511049A5 (ja) 2017-04-06
JP6348130B2 JP6348130B2 (ja) 2018-06-27

Family

ID=50943347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015562379A Active JP6348130B2 (ja) 2013-03-11 2014-03-11 デュアルデータ同期を用いた解剖学的部位の位置の再特定

Country Status (4)

Country Link
US (1) US10736497B2 (ja)
EP (1) EP2996557B1 (ja)
JP (1) JP6348130B2 (ja)
WO (1) WO2014140813A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019524353A (ja) * 2016-10-24 2019-09-05 シーエスエー メディカル, インコーポレイテッド 末梢肺病変の凍結療法を実施するための方法および装置

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10736497B2 (en) * 2013-03-11 2020-08-11 Institut Hospitalo-Universitaire De Chirurgie Mini-Invasive Guidee Par L'image Anatomical site relocalisation using dual data synchronisation
CN105530852B (zh) * 2013-09-27 2017-08-25 奥林巴斯株式会社 内窥镜系统
US20170220743A1 (en) * 2014-02-19 2017-08-03 Indiana University Research And Technology Corporation Tracking real-time assessment of quality monitoring in endoscopy
WO2015124159A1 (en) 2014-02-21 2015-08-27 3Dintegrated Aps A set comprising a surgical instrument
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US9905000B2 (en) * 2015-02-19 2018-02-27 Sony Corporation Method and system for surgical tool localization during anatomical surgery
CN107624192B (zh) 2015-05-11 2020-10-27 西门子公司 通过内窥镜组织分化的外科引导和术中病理的系统和方法
CN108024806B (zh) 2015-07-21 2022-07-01 3D集成公司 套管组装套件、套管针组装套件、套筒组件、微创手术系统及其方法
US11020144B2 (en) 2015-07-21 2021-06-01 3Dintegrated Aps Minimally invasive surgery system
DK178899B1 (en) 2015-10-09 2017-05-08 3Dintegrated Aps A depiction system
EP3361979A4 (en) * 2015-10-14 2019-06-26 Surgical Theater LLC SURGICAL NAVIGATION WITH EXTENDED REALITY
WO2017145270A1 (ja) * 2016-02-23 2017-08-31 オリンパス株式会社 画像処理装置、画像処理方法および内視鏡
WO2018235255A1 (ja) * 2017-06-23 2018-12-27 オリンパス株式会社 医療システムとその作動方法
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
US11514591B2 (en) * 2018-05-11 2022-11-29 Intuitive Surgical Operations, Inc. Systems and methods related to registration for image guided surgery
US10902616B2 (en) * 2018-08-13 2021-01-26 Nvidia Corporation Scene embedding for visual navigation
EP3860426A4 (en) * 2018-10-02 2022-12-07 Convergascent LLC ENDOSCOPE WITH INERTIAL MEASUREMENTS AND/OR HAPTIC INPUT CONTROLS
US11514576B2 (en) * 2018-12-14 2022-11-29 Acclarent, Inc. Surgical system with combination of sensor-based navigation and endoscopy
WO2020193640A1 (en) * 2019-03-26 2020-10-01 Koninklijke Philips N.V. Persistent guide wire identification
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
USD1022197S1 (en) 2020-11-19 2024-04-09 Auris Health, Inc. Endoscope
US11642016B2 (en) * 2021-08-10 2023-05-09 Altek Biotechnology Corporation Image capturing module, endoscope and method of manufacturing image capturing module
US20230100698A1 (en) * 2021-09-29 2023-03-30 Cilag Gmbh International Methods for Controlling Cooperative Surgical Instruments
KR102637484B1 (ko) * 2021-10-26 2024-02-16 주식회사 카이미 인공지능 기반의 내시경 진단 보조 시스템 및 이의 제어방법
CN114191078B (zh) * 2021-12-29 2024-04-26 上海复旦数字医疗科技股份有限公司 一种基于混合现实的内窥镜手术导航机器人系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006513011A (ja) * 2003-01-13 2006-04-20 メディガイド リミテッド 第1座標系に関係する医療情報をmpsシステムを使用する第2座標系において位置合わせする方法及びシステム
US20080097156A1 (en) * 2006-10-23 2008-04-24 Pentax Corporation Camera calibration for endoscope navigation system
JP2009077765A (ja) * 2007-09-25 2009-04-16 Fujifilm Corp 内視鏡システム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5829444A (en) * 1994-09-15 1998-11-03 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
JP2001197485A (ja) * 2000-01-11 2001-07-19 Asahi Optical Co Ltd 電子内視鏡システムおよび電子内視鏡用信号切替装置
WO2003045223A2 (en) * 2001-11-21 2003-06-05 Viatronix Incorporated Imaging system and method for cardiac analysis
US20050085718A1 (en) 2003-10-21 2005-04-21 Ramin Shahidi Systems and methods for intraoperative targetting
US7397364B2 (en) * 2003-11-11 2008-07-08 Biosense Webster, Inc. Digital wireless position sensor
EP1691666B1 (en) * 2003-12-12 2012-05-30 University of Washington Catheterscope 3d guidance and interface system
WO2006005075A2 (en) * 2004-06-30 2006-01-12 Amir Belson Apparatus and methods for capsule endoscopy of the esophagus
WO2007025081A2 (en) 2005-08-24 2007-03-01 Traxtal Inc. System, method and devices for navigated flexible endoscopy
US8248414B2 (en) * 2006-09-18 2012-08-21 Stryker Corporation Multi-dimensional navigation of endoscopic video
US7945310B2 (en) * 2006-09-18 2011-05-17 Stryker Corporation Surgical instrument path computation and display for endoluminal surgery
US8672836B2 (en) * 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
WO2009128055A1 (en) * 2008-04-15 2009-10-22 Provost Fellows And Scholars Of The College Of The Holy And Undivided Trinity Of Queen Elizabeth Near Dublin Endoscopy system with motion sensors
JP2012505695A (ja) * 2008-10-20 2012-03-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像に基づくローカライゼーション方法及びシステム
WO2010065786A1 (en) 2008-12-03 2010-06-10 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for determining the positioin of the tip of a medical catheter within the body of a patient
WO2010128411A1 (en) * 2009-05-08 2010-11-11 Koninklijke Philips Electronics, N.V. Real-time scope tracking and branch labeling without electro-magnetic tracking and pre-operative scan roadmaps
EP2433262B1 (en) * 2009-05-18 2016-07-27 Koninklijke Philips N.V. Marker-free tracking registration and calibration for em-tracked endoscopic system
US10736497B2 (en) * 2013-03-11 2020-08-11 Institut Hospitalo-Universitaire De Chirurgie Mini-Invasive Guidee Par L'image Anatomical site relocalisation using dual data synchronisation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006513011A (ja) * 2003-01-13 2006-04-20 メディガイド リミテッド 第1座標系に関係する医療情報をmpsシステムを使用する第2座標系において位置合わせする方法及びシステム
US20080097156A1 (en) * 2006-10-23 2008-04-24 Pentax Corporation Camera calibration for endoscope navigation system
JP2008104877A (ja) * 2006-10-23 2008-05-08 Pentax Corp スコープナビゲーション装置、方法、およびコンピュータ可読な記憶媒体
JP2009077765A (ja) * 2007-09-25 2009-04-16 Fujifilm Corp 内視鏡システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019524353A (ja) * 2016-10-24 2019-09-05 シーエスエー メディカル, インコーポレイテッド 末梢肺病変の凍結療法を実施するための方法および装置
US10792085B2 (en) 2016-10-24 2020-10-06 Csa Medical, Inc. Method and apparatus for performing cryotherapy of distal lung lesions

Also Published As

Publication number Publication date
WO2014140813A1 (en) 2014-09-18
US20160022125A1 (en) 2016-01-28
EP2996557B1 (en) 2019-05-01
EP2996557A1 (en) 2016-03-23
US10736497B2 (en) 2020-08-11
JP6348130B2 (ja) 2018-06-27

Similar Documents

Publication Publication Date Title
JP6348130B2 (ja) デュアルデータ同期を用いた解剖学的部位の位置の再特定
US11717376B2 (en) System and method for dynamic validation, correction of registration misalignment for surgical navigation between the real and virtual images
JP6976266B2 (ja) 多視点ポーズ推定を使用するための方法およびシステム
EP3463032B1 (en) Image-based fusion of endoscopic image and ultrasound images
EP2811889B1 (en) Invisible bifurcation detection within vessel tree images
WO2017211087A1 (zh) 一种内窥镜手术导航方法和系统
CN108140242A (zh) 视频摄像机与医学成像的配准
WO2017027638A1 (en) 3d reconstruction and registration of endoscopic data
JP2020522827A (ja) 外科ナビゲーションにおける拡張現実の使用
WO2012154786A2 (en) Fluoroscopy-based surgical device tracking method and system
WO2010128411A1 (en) Real-time scope tracking and branch labeling without electro-magnetic tracking and pre-operative scan roadmaps
US20230263573A1 (en) Probes, systems, and methods for computer-assisted landmark or fiducial placement in medical images
US20230009335A1 (en) Guided anatomical manipulation for endoscopic procedures
US20240070883A1 (en) Systems for image-based registration and associated methods
US20220079557A1 (en) System and method for medical navigation
CN117100393A (zh) 一种用于视频辅助外科手术靶标定位的方法、系统和装置
Vemuri et al. Interoperative biopsy site relocalization in endoluminal surgery
Vemuri et al. Inter-operative trajectory registration for endoluminal video synchronization: Application to biopsy site re-localization
EP3788981B1 (en) Systems for providing surgical guidance
US20230360212A1 (en) Systems and methods for updating a graphical user interface based upon intraoperative imaging
US20240225746A9 (en) Image-based seeding for registration and associated systems and methods
US20240130799A1 (en) Image-based seeding for registration and associated systems and methods
Vemuri Inter-operative biopsy site relocalization in gastroscopy: Application to oesophagus
WO2020181498A1 (zh) 体内导航系统和方法
WO2023146902A1 (en) Two-phase instrument guidance for accurate endoscopic surgical procedures

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170303

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180530

R150 Certificate of patent or registration of utility model

Ref document number: 6348130

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250