JP2019507623A - 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法 - Google Patents

画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法 Download PDF

Info

Publication number
JP2019507623A
JP2019507623A JP2018542283A JP2018542283A JP2019507623A JP 2019507623 A JP2019507623 A JP 2019507623A JP 2018542283 A JP2018542283 A JP 2018542283A JP 2018542283 A JP2018542283 A JP 2018542283A JP 2019507623 A JP2019507623 A JP 2019507623A
Authority
JP
Japan
Prior art keywords
fluoroscopic
anatomical structure
patient
model
reference frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018542283A
Other languages
English (en)
Other versions
JP7118890B2 (ja
Inventor
ザオ,タオ
バルバグリ,フェデリコ
キュー ドンホウ,ケイトリン
キュー ドンホウ,ケイトリン
ドゥインダム,ヴィンセント
ディー. パリス,マイケル
ディー. パリス,マイケル
ディー. ソーパー,ティモシー
ディー. ソーパー,ティモシー
ワグナー,オリバー
Original Assignee
インテュイティブ サージカル オペレーションズ, インコーポレイテッド
インテュイティブ サージカル オペレーションズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテュイティブ サージカル オペレーションズ, インコーポレイテッド, インテュイティブ サージカル オペレーションズ, インコーポレイテッド filed Critical インテュイティブ サージカル オペレーションズ, インコーポレイテッド
Publication of JP2019507623A publication Critical patent/JP2019507623A/ja
Priority to JP2022124308A priority Critical patent/JP7503603B2/ja
Application granted granted Critical
Publication of JP7118890B2 publication Critical patent/JP7118890B2/ja
Priority to JP2024075849A priority patent/JP2024096378A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Quality & Reliability (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pulmonology (AREA)
  • Dentistry (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

コンピュータシステムによって実行される方法は、医療器具のある部分が患者の解剖学的構造内に配置されている間に患者の解剖学的構造の蛍光透視画像を受け取るステップを含む。蛍光透視画像は、蛍光透視基準フレームを有する。この部分は、解剖学的構造モデル基準フレームにおいて検知位置を有する。方法はさらに、蛍光透視画像において部分を識別するステップ、及び蛍光透視画像において識別された部分を使用して蛍光透視基準フレームおいてこの部分の抽出位置を識別するステップを含む。方法はさらに、この部分の検知位置及びこの部分の抽出位置に基づいて蛍光透視基準フレームを解剖学的構造モデル基準フレームに位置合わせするステップを含む。

Description

(関連出願)
本特許出願は、2016年2月12日に出願された“SYSTEMS AND METHODS FOR USING FLUOROSCOPY TO ASSIST INSTRUMENT NAVIGATION IN IMAGE-GUIDED SURGERY”と題する米国仮特許出願第62/294,870号、及び2016年2月12日に出願された“SYSTEMS AND METHODS FOR USING REGISTERED FLUOROSCOPIC IMAGES IN IMAGE-GUIDED SURGERY”と題する米国仮特許出願第62/294,879号の優先権及び出願日の利益を主張し、いずれも、それらの全体が本明細書に参照により援用される。
本開示は、画像誘導処置を行うためのシステム及び方法を対象とし、より具体的には、画像誘導処置の間に位置合わせされたリアルタイム透視画像と以前の解剖学的構造の画像を使用するためのシステム及び方法を対象とする。
低侵襲医療技術は、医療処置中に損傷を受けた組織の量を減らし、それによって患者の回復時間、不快感及び有害な副作用を減少させることを意図している。このような低侵襲技術は、患者の解剖学的構造における自然開口部を通って、或いは1つ又は複数の外科的切開部を通って実施されることができる。これらの自然開口部又は切開部を通して、臨床医は、標的組織の位置に達するように低侵襲医療器具(外科的、診断的、治療的、又は生検器具を含む)を挿入することができる。標的組織の位置に到達するのを助けるために、医療器具の位置及び動きは、患者の解剖学的構造の手術前又は以前の手術中の静止画像と関係付けられることがある。イメージに関連付けられた画像誘導器具を用いて、器具は、肺、結腸、腸、腎臓、心臓、循環器系などの解剖学的システム内の自然開口部又は外科的に形成された通路を通り抜けることができる。伝統的に、患者の解剖学的構造の手術前又は手術中の画像は、詳細で、しばしば三次元の画像である。しかし、それらは患者の解剖学的構造の静的な事前の表現である。蛍光透視法(Fluoroscopy)は、患者の解剖学的構造への医療処置中に使用される放射線不透過性器具を含む患者の解剖学的構造のリアルタイム画像を提供するイメージングモダリティ(imaging modality)である。しかし、透視画像は、特定のタイプの組織の高品質画像を捕捉しないことがある。画像誘導手術を行うために向上したナビゲーション情報を提供するように、リアルタイムの透視画像及び以前の静止画像を位置合わせするためのシステム及び方法が必要とされている。
本発明の実施形態は、説明に続く請求項によって要約される。
一実施形態では、コンピュータシステムによって実行される方法は、医療器具のある部分が患者の解剖学的構造内に配置されている間に、患者の解剖学的構造の蛍光透視画像を受け取るステップを含む。蛍光透視画像は、蛍光透視基準フレーム(fluoroscopic frame of reference)を有する。この部分はインジケータ部分とも呼ばれ得るとともに、その部分は、非限定的な例として、医療器具の近位セクション、中間セクション、遠位セクション、及び/又は遠位端部を含む、医療器具の任意の長さを備え得る。この部分は、解剖学的構造モデル(anatomic model)基準フレームおいて検知位置又は別の方法で既知の位置を有する。この方法は、蛍光透視画像において部分の位置を識別するステップ、及び、蛍光透視画像においてこの部分の位置を使用して蛍光透視基準フレームおいてこの部分の抽出位置を識別するステップをさらに含む。この方法は、この部分の検知位置及び部分の抽出位置に基づいて蛍光透視基準フレームを解剖学的構造モデル基準フレームに位置合わせするステップをさらに含む。
別の実施形態では、コンピュータシステムによって実行される方法は、複数の解剖学的構造ランドマークの位置のセットを識別するステップであって、複数の解剖学的構造ランドマークはモデル基準フレーム(model frame of reference)において患者の解剖学的構造の通路の解剖学的構造モデル内でレンダリングされる、ステップと、医療器具のある部分が患者の解剖学的構造の通路内の複数の解剖学的構造ランドマークを通過する(traverses)間に、患者の解剖学的構造の蛍光透視画像データを受け取るステップとを含む。蛍光透視画像データは、蛍光透視基準フレームを有する。この方法は、蛍光透視基準フレームにおいて複数の解剖学的構造ランドマークにおける部分位置のセットを識別するステップと、モデル基準フレームにおける複数の解剖学的構造ランドマークの位置のセット及び蛍光透視基準フレームにおける部分位置のセットを共通基準フレーム(common frame of reference)に位置合わせするステップとをさらに含む。
別の実施形態では、コンピュータシステムによって実行される方法は、モデル基準フレームにおいて患者の解剖学的構造の通路の解剖学的構造モデルについてのモデルポイントのセットを受け取るステップと、医療器具のインジケータ部分が患者の解剖学的構造の通路を通過する間に患者の解剖学的構造の蛍光透視画像データを受け取るステップとを含む。蛍光透視画像データは、蛍光透視基準フレームを有する。この方法は、蛍光透視画像データから、蛍光透視基準フレームにおいてインジケータ部分位置ポイントのセットを識別するステップ、及び一致のセット(set of matches)を生成するようそれぞれのインジケータ部分位置ポイントをモデルポイントのセットにおけるモデルポイントと一致させるステップとをさらに含む。この方法は、一致のセットに基づいて、モデル基準フレームを蛍光透視基準フレームに位置合わせするステップをさらに含む。
別の実施形態では、コンピュータ支援医療システムは、手術座標空間内にある配向面(plane of orientation)を有する蛍光透視撮像装置と、1つ又は複数のプロセッサとを有する。1つ又は複数のプロセッサは:医療器具のある部分が患者の解剖学的構造内のある位置に配置されている間に、患者の解剖学的構造の蛍光透視画像を受け取るステップであって、蛍光透視画像は配向面を有する、ステップを含む方法を実行するように構成される。この方法はまた、医療器具の部分の動きを駆動するコマンドを受信するステップと、部分の作動された動きが蛍光透視画像の配向面に拘束されるように、部分の作動を拘束するステップと、拘束された作動で部分の動きを駆動するステップとを含む。一態様では、システムは、拘束された作動で部分の動きを駆動する間に医療器具からセンサ情報を受信するステップと、受信したセンサ情報から蛍光透視画像の配向面外の部分の動きを認識するステップと、部分を蛍光透視画像の配向面内に調整する信号を受信するステップとを含む。
別の実施形態では、コンピュータシステムによって実行される方法は、患者の解剖学的構造の解剖学的構造モデルを受け取るステップを含み、関心領域が解剖学的構造モデルにおいて識別される。この方法はさらに、患者の解剖学的構造内に配置され且つ解剖学的構造モデルに位置合わせされた器具の器具形状センサから形状センサデータを受け取るステップと、受け取った形状センサデータ及び関心領域に基づいて表示のために蛍光透視画像面を決定するステップとを含む。
前述の一般的な説明及び以下の詳細な説明はいずれも、本質的に例示的且つ説明的なものであり、本開示の範囲を限定することなく本開示の理解を提供することを意図していることが理解されるべきである。その点について、本開示の追加の態様、特徴、及び利点は、以下の詳細な説明から当業者には明らかであろう。
本開示の態様は、添付の図面と併せて読むと以下の詳細な説明から最もよく理解される。業界の標準的な慣例に従って、様々な特徴は一定の縮尺で描かれていないことが強調される。実際、種々の特徴の寸法は、議論の明瞭化のために任意に増減されることがある。加えて、本開示は、様々な例において参照番号及び/又は文字を繰り返すことがある。この繰返しは、簡潔さ及び明瞭さを目的とするものであり、それ自体が議論された様々な実施形態及び/又は構成間の関係を規定するものではない。
本開示の実施形態による、遠隔操作医療システムである。
本開示の態様を用いる医療器具システムを示す。
本開示の実施形態による、伸長された医療器具を持つ図2Aの医療器具システムの遠位端部を示す。
ヒトの肺の中に配置される図2Aの医療器具システムの遠位端部を示す。
本開示の実施形態による画像誘導外科処置において誘導を提供するために使用される方法を示すフローチャートである。
本開示の実施形態による医療器具及び透視イメージングシステムを含む手術座標空間の側面図である。
本開示の実施形態による画像誘導外科処置のフローチャートを示す。
本開示の他の実施形態による画像誘導外科処置のフローチャートを示す。
本開示の他の実施形態による画像誘導外科処置の一部のフローチャートを示す。
本開示の実施形態による透視基準フレームにおいて器具部分位置を決定するための透視画像を示す。
本開示の実施形態による透視基準フレームにおいて器具部分位置を決定するための透視画像を示す。
本開示の実施形態による透視基準フレームにおいて器具部分位置を決定するための透視画像を示す。
本開示の実施形態による位置合わせされた並んだ透視及び解剖学的構造モデル画像が表示されている表示装置である。
本開示の実施形態による透視画像に位置合わせされ且つオーバーレイされた解剖学的構造モデル画像が表示されている表示装置である。
透視と解剖学的基準フレームとの間の関係付けられた解剖学的ランドマークを表す相関表を示す。
透視画像の分割を示す。
透視画像の分割を示す。
本開示の他の実施形態による画像誘導外科処置の一部のフローチャートを示す。
好ましい透視表示面を決定する方法を示す。
2次元透視誘導下で医療器具を駆動するための方法を示す。
本発明の態様に関する以下の詳細な説明において、開示された実施例の十分な理解を提供するために、多くの具体的詳細が説明される。しかし、この開示における実施形態がこれらの具体的詳細が無くとも実施され得ることは当業者にとって明らかである。他の例では、よく知られた方法、手順、構成要素、及び回路は、本発明の実施形態の態様を不必要に分かり難くすることがないよう、詳細には説明されていない。また、不必要な説明の繰り返しを避けるため、1つの実施形態に従って説明された1又は複数の構成要素又は動作は、他の実施形態から適用できるように、使用又は省略されることができる。
以下の実施形態は、様々な器具及び器具の一部を三次元空間におけるそれらの状態の観点から説明する。本明細書で使用されるとき、用語“位置(position)”は、三次元空間における物体又は物体の一部分の場所(位置)(location)(例えばX、Y、Zのデカルト座標に沿った並進の3自由度)を指す。本明細書で使用されるとき、用語“向き、配向(orientation)”は、物体又は物体の一部の回転配置(rotational placement)(例えば、ロール、ピッチ、及びヨーの回転の3自由度)を指す。本明細書で使用されるとき、用語“姿勢、ポーズ(pose)”は、少なくとも1つの並進自由度における物体又は物体の一部の位置、及び少なくとも1つの回転自由度におけるその物体又は物体の一部の向きを指す(合計で6つの自由度まで)。本明細書で使用されるとき、用語“形状(shape)”は、物体に沿って測られた姿勢、位置、又は向きのセットを指す。
図面の図1を参照すると、例えば手術、診断、治療又は生検処置で使用する遠隔操作医療システムが、概して、遠隔操作医療システム100として示されている。図1に示すように、遠隔操作システム100は、概して、患者Pに対して様々な処置を実行する際に医療器具システム104を操作する遠隔操作マニピュレータアセンブリ102を含む。遠隔操作マニピュレータアセンブリ102は、遠隔操作アセンブリ102又はマニピュレータアセンブリ102とも呼ばれ得る。医療器具システム104はまた、医療器具104と呼ばれ得る。マニピュレータアセンブリ102は、手術台Oに又はその近くに取り付けられる。オペレータ入力システム106(「マスタアセンブリ106」とも呼ばれる)は、臨床医又は外科医Sが、介入部位を見るとともにマニピュレータアセンブリ102を制御することを可能にする。
オペレータ入力システム106は、手術台Oと同じ部屋に通常配置される外科医のコンソールに配置されることができる。しかし、外科医Sは、患者Pと異なる部屋又は全く異なる建物に配置され得ることが理解されるべきである。オペレータ入力アセンブリ106は、概して、1つ又は複数のマニピュレータアセンブリ102を制御するための1つ又は複数の制御装置を含む。制御装置は、ジョイスティック、トラックボール、データグローブ、トリガ−ガン、手動操作コントローラ、音声認識装置、体動センサ又は存在センサのような多くの様々な入力装置を含むことができる。いくつかの実施形態では、制御装置は、外科医に、テレプレゼンス、又は外科医が器具104を直接制御している強い感覚を持つよう制御装置が器具104と一体であるという認識を提供するように、関連する医療器具104と同じ自由度を備える。他の実施形態では、制御装置は、関連する医療器具104より多い又は少ない自由度を有し且つ依然として外科医にテレプレゼンスを提供し得る。いくつかの実施形態では、制御装置は、6自由度で動き、器具を作動させる(例えば、把持ジョーを閉じる、電極に電位を印加する、薬物治療を施すなど)ための作動可能なハンドルも含み得る、手動入力装置である。
遠隔操作アセンブリ102は、医療器具システム104を支持し、1つ又は複数の非サーボ制御リンク(例えば、手動で位置決めされ、適所にロックされ得る1つ又は複数のリンク、一般にセットアップ構造と呼ばれる)及び遠隔操作マニピュレータの運動学的構造を含み得る。遠隔操作アセンブリ102は、制御システム(例えば制御システム112)からのコマンドに応答して医療器具システム104への入力を駆動する複数のアクチュエータ又はモータを含む。モータは、医療器具システム104に結合されるとき医療器具を自然に又は外科的に形成された解剖学的開口部の中に進めることができる駆動システムを含む。他のモータ駆動システムは、3自由度の直線運動(例えば、X、Y、Zデカルト軸に沿った直線運動)及び3自由度の回転運動(例えば、X、Y、Zデカルト軸の周りの回転)を含み得る、多自由度で医療器具の遠位端部を動かし得る。加えて、モータは、生検装置などのジョーで組織を把持するために器具の関節運動可能なエンドエフェクタを作動させるために使用されることができる。レゾルバ、エンコーダ、ポテンショメータ、及び他の機構のようなモータ位置センサは、モータ軸の回転及び向きを表すセンサデータを遠隔操作アセンブリに提供することができる。この位置センサデータは、モータによって操作される物体の動きを決定するために使用されることができる。
遠隔操作医療システム100はまた、遠隔操作型アセンブリの器具に関する情報を受信するための1つ又は複数のサブシステムを備えたセンサシステム108を含む。そのようなサブシステムは、位置/場所(ロケーション)センサシステム(例えば、電磁(EM)センサシステム);カテーテル先端部及び/又は医療器具システム104の可撓性ボディに沿った1つ又は複数のセグメントの位置、向き、速さ、速度、姿勢、及び/又は形状を決定するための形状センサシステム;並びに/又はカテーテルシステムの遠位端部から画像を取り込むための可視化システム;を含むことができる。
可視化システム(例えば、図2Aの可視化システム231)は、手術部位の同時又はリアルタイムの画像を記録し、その画像を臨床医又は外科医Sに提供する観察スコープアセンブリ(viewing scope assembly)を含むことができる。同時画像は、例えば、手術部位内に配置された内視鏡によって取り込まれた2次元又は3次元画像であり得る。この実施形態では、可視化システムは、医療器具104に一体的に又は取り外し可能に結合され得る内視鏡構成要素を含む。しかし、代替実施形態では、別個のマニピュレータアセンブリに取り付けられた別個の内視鏡が、手術部位を撮像するために医療器具とともに使用され得る。可視化システムは、制御システム112(以下に説明する)のプロセッサを含み得る1つ又は複数のコンピュータプロセッサと相互作用するか、さもなければその1つ又は複数のコンピュータプロセッサによって実行されるハードウェア、ファームウェア、ソフトウェア、またはこれらの組み合わせとして実装され得る。制御システム112のプロセッサは、本明細書で開示されるプロセスに対応する命令を含む命令を実行し得る。
遠隔操作医療システム100はまた、センサシステム108のサブシステムによって生成された手術部位及び医療器具システム(複数可)104の画像又は表現(representation)を表示するためのディスプレイシステム110(また「ディスプレイ110」)を含む。ディスプレイシステム110及びオペレータ入力システム106は、オペレータがテレプレゼンスの知覚を伴って医療器具システム104及びオペレータ入力システム106を制御できるように方向付けられ得る。
ディスプレイシステム110はまた、視覚化システムによって取り込まれた手術部位及び医療器具の画像を表示し得る。ディスプレイシステム110及び制御装置は、スコープアセンブリ内のイメージング装置と医療器具との相対位置が外科医の目と手の相対位置に類似するように方向付けられるので、オペレータが医療器具104及びハンド制御部を、あたかも実質的に正確な存在で(in substantially true presence)作業空間を見ているかのように、操作できるようになる。正確な存在(true presence)とは、画像の提示が、器具104を身体的に操作しているオペレータの視点をシミュレートする正確な視点画像であることを意味する。
代替的に又は付加的に、ディスプレイシステム110は、コンピュータ断層撮影法(CT)、磁気共鳴画像法(MRI)、蛍光透視法、サーモグラフィ、超音波、光コヒーレンス断層撮影法(OCT)、サーマルイメージング、インピーダンスイメージング、レーザイメージング、ナノチューブX線イメージング等のようなイメージング技術からのイメージングデータを使用して手術前又は手術中に記録された手術部位の画像を提示することができる。手術前又は手術中の画像データは、2次元、3次元、又は4次元(例えば、時間ベース若しくは速度ベースの情報を含む)画像として、あるいは手術前又は手術中の画像データセットから作成されたモデルからの画像として提示されることができる。
いくつかの実施形態では、しばしば画像化された誘導外科処置のために、ディスプレイシステム110は、臨床医又は外科医Sに、器具104の先端の位置の視点からの内部手術部位の仮想画像提示するように、医療器具104の実際の位置が術前画像又は同時画像/モデルと位置合わせされる(すなわち、動的に参照される)仮想ナビゲーション画像を表示し得る。器具104の先端の画像又は他のグラフィカル若しくは英数字のインジケータが、外科医が器具104を制御するのを支援するために仮想画像に重ね合わせられ得る。代替的には、器具104は、仮想画像において見えなくてもよい。
他の実施形態では、ディスプレイシステム110は、臨床医又は外科医Sに外部視点からの手術部位内の医療器具の仮想画像を提示するように、医療器具の実際の位置が手術前画像又は同時画像と位置合わせされる仮想ナビゲーション画像を表示し得る。医療器具の一部の画像又は他のグラフィカル若しくは英数字のインジケータは、外科医が器具104を制御するのを支援するために、仮想画像に重ね合わされ得る。
遠隔操作医療システム100はまた、制御システム112を含む。制御システム112は、医療器具104、オペレータ入力システム106、センサシステム108、及びディスプレイシステム110の間の制御を行うために、少なくとも1つのメモリと、少なくとも1つのコンピュータプロセッサ(図示せず)と、典型的には複数のプロセッサとを含む。制御システム112はまた、ディスプレイシステム110に位置合わせされた画像を提供するための命令を含む、本明細書に開示された態様に従って記載される方法の一部又は全部を実施するためのプログラム命令(例えば、命令を記憶するコンピュータ可読媒体)を含む。制御システム112は、図1の簡略化された概略図において単一のブロックとして示されているが、システムは、処理のある部分がオプションで遠隔操作アセンブリ102上又はそれに隣接して実行され、処理の別の部分が、オペレータ入力システム106において実行される等の2つ以上のデータ処理回路を含み得る。多種多様な集中型又は分散型データ処理アーキテクチャのいずれかが用いられ得る。同様に、プログラムされた命令は、いくつかの別個のプログラム若しくはサブルーチンとして実装されてもよく、又は本明細書に記載の遠隔操作システムのいくつかの他の態様に統合されてもよい。一実施形態では、制御システム112は、Bluetooth(登録商標)、IrDA、HomeRF、IEEE 802.11、DECT、及びワイヤレステレメトリのようなワイヤレス通信プロトコルをサポートする。
いくつかの実施形態では、制御システム112は、医療器具システム104からフォース(力)フィードバック及び/又はトルクフィードバックを受ける1つ又は複数のサーボコントローラを含み得る。フィードバックに応答して、サーボコントローラは、オペレータ入力システム106に信号を送信する。サーボコントローラ(複数可)はまた、遠隔操作アセンブリ102に指示する信号を送信して、体の開口部を介して患者の体内の内部手術部位に延びる医療器具システム(複数可)104を動かし得る。任意の適切な従来の又は専用のサーボコントローラが使用され得る。いくつかの実施形態では、サーボコントローラ及び遠隔操作アセンブリは、患者の体に隣接して配置される遠隔操作アームカートの一部として提供される。
制御システム112は、画像誘導手術処置で使用されるとき、医療器具システム(複数可)104にナビゲーション支援を提供する仮想可視化システムをさらに含み得る。仮想可視化システムを使用する仮想ナビゲーションは、解剖学的通路の取得された手術前又は手術中のデータセットを参照することに基づいている。より具体的には、仮想可視化システムは、コンピュータ断層撮影法(CT)、磁気共鳴画像法(MRI)、蛍光透視法、サーモグラフィ、超音波、光干渉断層撮影法(OCT)、サーマルイメージング、インピーダンスイメージング、レーザイメージング、ナノチューブX線イメージングなどのようなイメージング技術を使用して画像化される手術部位の画像を処理する。単独又は手動入力と組み合わせたソフトウェアが、記録された画像を部分的又は全体的な解剖学的器官若しくは解剖学的領域のセグメント化された2次元又は3次元の複合表現に変換するために、使用される。画像データセットは複合表現に関連付けられる。複合表現及び画像データセットは、通路の様々な位置及び形状並びにそれらの接続性を記述する。複合表現を生成するために使用される画像は、手術前又は医療処置の間の前の時間に手術中に記録され得る。代替実施形態では、仮想可視化システムは、標準表現(すなわち、患者固有ではない)又は標準表現及び患者固有データのハイブリッドを使用し得る。複合表現及び複合表現によって生成された任意の仮想画像は、動きの1つ又は複数の段階中(例えば、肺の吸気/呼気サイクル中)の変形可能な解剖学的領域の静的姿勢を表し得る。
仮想ナビゲーション手順の間に、センサシステム108は、患者の解剖学的構造に対する器具のおおよその位置を計算するために使用され得る。位置は、患者の解剖学的構造のマクロレベル(外部)追跡画像及び患者の解剖学的構造の仮想内部画像の両方を生成するために使用されることができる。仮想可視化システムからのもののような手術前に記録された手術画像と一緒に医療器具を位置合わせ及び表示するために電磁(EM)センサ、光ファイバセンサ、又は他のセンサ使用する様々なシステムが知られている。例えば、参照によりその全体が本明細書に組み込まれる、米国特許出願第13/107,562号(2011年5月13日出願)(“Medical System Providing Dynamic Registration of a Model of an Anatomic Structure for Image-Guided Surgery”を開示する)は、そのようなシステムの1つを開示している。
遠隔操作医療システム100は、照明システム、操縦制御システム、洗浄システム、及び/又は吸引システムのようなオプションの操作及びサポート(support)システム(図示せず)をさらに含み得る。代替実施形態では、遠隔操作システムは、1より多い遠隔操作アセンブリ及び/又は1より多いオペレータ入力システムを含み得る。マニピュレータアセンブリの正確な数は、他の要因の中で特に、手術処置及び手術室内の空間制約に依存する。オペレータ入力システムは、併置されてもよく、又は別々の場所に配置されてもよい。複数のオペレータ入力システムは、1より多いオペレータが1つ又は複数のマニピュレータアセンブリを様々な組み合わせで制御することを可能にする。
図2Aは、遠隔操作医療システム100で行われる画像誘導医療処置において医療器具システム104として使用され得る医療器具システム200(「医療器具200」又は「器具システム200」とも)を示す。代替的には、医療器具システム200は、非遠隔操作の診査手術(exploratory procedure)のために、又は内視鏡のような従来の手動操作される医療器具を伴う手術で使用されてもよい。追加的又は代替的に、医療器具システム200は、患者の解剖学的通路の位置に対応するデータポイントのセットを集める(すなわち、測定する)ために使用されてもよい。
器具システム200は、構成要素を収容するために使用されるとき「ハウジング204」と呼ばれ得る器具ボディ204に結合されたカテーテルシステム202(「カテーテル202」とも)を含む。カテーテルシステム202は、近位端部217及び遠位端部218(カテーテルボディ216の先端部分であるとき、「先端部分218」と呼ばれ得る)を有する細長い可撓性カテーテルボディ216を含む。一実施形態では、可撓性ボディ216は、約3mmの外径を有する。他の可撓性ボディの外径は、より大きくても小さくてもよい。カテーテルシステム202は、遠位端部218におけるカテーテル先端の及び/又はカテーテルボディ216に沿った1つ又は複数のセグメント224の位置、向き、速さ、速度、姿勢、及び/又は形状を決定するための形状センサシステム222(「形状センサ222」とも)をオプションで含み得る。遠位端部218と近位端部217との間のカテーテルボディ216の全長は、セグメント224に効果的に分割され得る。器具システム200が遠隔操作医療システム100医療器具104である場合、形状センサシステム222は、センサシステム108の構成要素であり得る。器具システム200が手動で操作されるか又は非遠隔操作処置のために使用される場合、形状センサシステム222は、形状センサに問い合わせし、受け取った形状データを処理する追跡(トラッキング)システム230に結合され得る。
形状センサシステム222は、可撓性カテーテルボディ216と整列した(例えば、内部チャネル(図示せず)内に設けられる又は外部に取り付けられる)光ファイバを含み得る。一実施形態では、光ファイバは、約200μmの直径を有する。他の実施形態では、寸法はより大きくても小さくてもよい。形状センサシステム222の光ファイバは、カテーテルシステム202の形状を決定するための光ファイバ曲げセンサを形成する。1つの代替例では、ファイバブラッググレーティング(FBG)を含む光ファイバが、1又は複数の次元における構造の歪み測定を提供するために使用される。光ファイバの形状及び相対位置を3次元でモニタするための様々なシステム及び方法が、米国特許出願第11/180,389号(2005年7月13日出願)(“Fiber optic position and shape sensing device and method relating thereto”を開示している);米国特許出願第12/047,056号(2004年7月16日出願)(“Fiber-optic shape and relative position sensing”を開示している);及び米国特許第6,389,187号(1998年6月17日出願)(“Optical Fibre Bend Sensor”を開示している)に記載されており、これらは末B手、その全体が本明細書に参照により組み込まれる。代替実施形態のセンサは、レイリー散乱、ラマン散乱、ブリルアン散乱、及び蛍光散乱のような他の適切な歪み検出技術を使用し得る。他の代替の実施形態では、カテーテルの形状は、他の技術を用いて決定され得る。例えば、カテーテルの遠位先端部姿勢の履歴が、時間間隔にわたるデバイスの形状を再構成するために使用されることができる。別の例として、履歴ポーズ、位置、又は向きのデータが、呼吸のような交互運動のサイクルに沿った器具システムの既知の点について記憶され得る。この記憶されたデータは、カテーテルに関する形状情報を明らかにするために使用され得る。代替的には、カテーテルに沿って配置される、電磁(EM)センサのような一連の位置センサが形状検知のために使用されることができる。代替的には、特に、解剖学的通路が概して静的である場合、処置中に器具システム上のEMセンサのような位置センサからのデータの履歴が器具の形状を表すために使用されてもよい。代替的には、外部磁場によって制御される位置又は向きを有する無線デバイスが形状検知のために使用されてもよい。無線デバイスの位置の履歴は、ナビゲートされる通路の形状を決定するために使用されてもよい。
医療器具システムは、オプションで、位置センサシステム220を含み得る。位置センサシステム220は、外部生成電磁場に曝され得る1つ又は複数の導電性コイルを含むセンサシステム220を持つEMセンサシステムの構成要素であり得る。このような実施形態では、位置センサシステム220を有するEMセンサシステムの各コイルは、外部生成電磁場に対するコイルの位置及び向きに依存する特性を有する誘導電気信号を生成する。一実施形態では、EMセンサシステムは、6自由度、例えば3つの位置座標X、Y、Z並びに基準点のピッチ、ヨー、及びロールを示す3つの配向角、又は5自由度、例えば、3つの位置座標X、Y、Z並びに基点のピッチ及びヨーを示す2つの配向角、を測定するように構成され且つ配置され得る。EMセンサシステムの更なる説明は、米国特許第6,380,732号(1999年8月11日出願)(“Six-Degree of Freedom Tracking System Having a Passive Transponder on the Object Being Tracked”を開示している)に提供されており、これはその全体が本明細書に参照により組み込まれる。いくつかの実施形態では、(患者の固定座標系における)形状センサのベースの位置に関する情報とともにセンサの形状は、遠位先端部を含む形状センサの様々な点の位置が計算されることを可能にするので、形状センサは位置センサとしても機能し得る。
追跡システム230は、遠位端部218及び器具システム200に沿った1つ又は複数のセグメント224の位置、向き、速度、姿勢、及び/又は形状を決定するための位置センサシステム220及び形状センサシステム222を含み得る。追跡システム230は、制御システム116のプロセッサを含み得る、1つ又は複数のコンピュータプロセッサと相互作用するかさもなければそれによって実行されるハードウェア、ファームウェア、ソフトウェア、又はそれらの組み合わせとして実装され得る。
可撓性カテーテルボディ216は、医療器具226を受け入れるようにサイズ決めされ且つ成形されたチャネル221(図2B参照)を含む。医療器具は、例えば、画像キャプチャプローブ、生検器具、レーザアブレーションファイバ、又は他の手術、診断、若しくは治療ツールを含み得る。医療ツールは、メス、ブラントブレード、光ファイバ、又は電極のような単一の作動部材を有するエンドエフェクタを含み得る。他のエンドエフェクタは、例えば、鉗子、把持器、はさみ、又はクリップアプライアを含み得る。電気的に作動するエンドエフェクタの例は、電気手術電極、トランスデューサ、センサなどを含む。
様々な実施形態では、医療器具(複数可)226は、表示するために可視化システム231によって処理される画像(ビデオを含む)をキャプチャするために、可撓性カテーテルボディ216の遠位端部218に又はその近くに立体視又はモノスコープカメラを持つ遠位部分を含む画像キャプチャプローブであり得る。画像キャプチャプローブは、キャプチャされた画像データを送信するためにカメラに結合されるケーブルを含み得る。代替的には、画像キャプチャ器具は、可視化システムに結合するファイバスコープのような光ファイバ束であってもよい。画像キャプチャ器具は、例えば、可視スペクトル、赤外線スペクトル、又は紫外スペクトルのうちの1つ又は複数の画像データをキャプチャする、単一スペクトル又はマルチスペクトルであり得る。
種々の実施形態では、医療器具226は、標的の解剖学的構造の位置からサンプル組織又は細胞のサンプリングを除去するために使用される生検器具である。器具226は、処置を行うためにチャネル221の開口部から前進され、その後、処置が完了すると、チャネルに引き戻され得る。医療器具226は、カテーテル可撓性ボディの近位端部217から又は可撓性ボディに沿った別のオプションの器具ポート(図示せず)から取り外され得る。
医療器具226は、器具の遠位端部を制御可能に曲げるために器具の近位端部と遠位端部との間に延在するケーブル、リンケージ、又は他の作動制御器(図示せず)を収容し得る。操縦可能な器具は、米国特許第7,316,681号(2005年10月4日出願)(“Articulated Surgical Instrument for Performing Minimally Invasive Surgery with Enhanced Dexterity and Sensitivity”を開示している)及び米国特許出願第12/286,644号(2008年9月30日出願)(“Passive Preload and Capstan Drive for Surgical Instruments”を開示している)に詳細に説明されており、これらは、その全体が本明細書に参照により組み込まれる。
可撓性カテーテルボディ216はまた、例えば、遠位端部の破線の描写219によって示されるように、遠位端部を制御可能に曲げるために、ハウジング204と遠位端部218との間に延在するケーブル、リンケージ、又は他の操縦(ステアリング)制御部(図示せず)を収容し得る。操縦可能なカテーテルは、参照によりその全体が本明細書に組み込まれる米国特許出願第13/274,208号(2011年10月14日出願)(“Catheter with Removable Vision Probe”を開示している)に詳細に記載されている。器具システム200が遠隔操作アセンブリによって作動される実施形態では、ハウジング204は、遠隔操作アセンブリのモータ駆動要素に取り外し可能に結合されるとともにそこから電力を受け取る駆動入力部を含み得る。器具システム200が手動で操作される実施形態では、ハウジング204は、把持機構、手動アクチュエータ、又は器具システムの動作を手動で制御するための他の構成要素を含み得る。カテーテルシステムは、操縦可能であることができ、代替的には、システムは、器具が曲がることのオペレータ制御のための統合された機構なしで操縦不能であってもよい。また或いは代替的に、医療器具がそれを通って標的手術部位に展開され且つ使用される1つ又は複数の管腔が、可撓性ボディ216の壁に画定される。
様々な実施形態では、医療器具システム200は、肺の検査、診断、生検、又は治療に使用するための、気管支鏡又は気管支カテーテルのようなフレキシブル気管支器具を含み得る。器具システム200はまた、結腸、腸、腎臓、脳、心臓、循環器系等を含む様々な解剖学的システムのいずれかにおいて、自然に又は外科的に形成された接続通路を介して、ナビゲーション及び他の組織の治療にも適している。
追跡システム230からの情報は、器具システム200の制御で使用するために外科医又は他の操作者にディスプレイシステム110上でリアルタイム位置情報を提供するように、可視化システム231及び/又は手術前に取得されたモデルからの情報と組み合わされるナビゲーションシステム232に送られ得る。制御システム116は、器具システム200を位置決めするためのフィードバックとして位置情報を利用し得る。手術器具を手術画像に位置合わせするために光ファイバセンサを使用する様々なシステムが、“Medical System Providing Dynamic Registration of a Model of an Anatomic Structure for Image-Guided Surgery”を開示する2011年5月13日に出願された米国特許出願第13/107,562号に提供されており、これは、参照によりその全体が本明細書に組み込まれる。
図2Aの実施形態では、器具システム200は、遠隔操作医療システム100内で遠隔操作される。代替実施形態では、遠隔操作アセンブリ102は、直接オペレータ制御に置き換えられてもよい。直接操作の代替では、様々なハンドル及びオペレータインタフェースが器具のハンドヘルド操作のために含まれ得る。
代替実施形態では、遠隔操作システムは、1より多いスレーブマニピュレータアセンブリ及び/又は1より多いマスタアセンブリを含み得る。マニピュレータアセンブリの正確な数は、とりわけ、医療処置及び手術室内の空間の制約などに依存する。マスタアセンブリは、併置されてもよく、又は別々の場所に配置されてもよい。複数のマスタアセンブリは、1人より多いオペレータが1つ又は複数のスレーブマニピュレータアセンブリをさまざまな組み合わせで制御することを可能にする。
図3は、患者の解剖学的構造の解剖学的通路内に配置されたカテーテルシステム202を示す。この実施形態では、解剖学的通路は、人の肺201の気道である。代替実施形態では、カテーテルシステム202は、解剖学的構造の他の通路に使用されてもよい。
図4は、画像誘導手術処置で使用するための一般的な方法300を示すフローチャートである。提供される様々な例は、解剖学的構造内で行われる処置の使用を説明するが、代替実施形態では、本開示の装置及び方法は、解剖学的構造内で使用される必要はなく、むしろ患者の解剖学的構造の外で使用されてもよい。プロセス302において、手術前又は手術中画像データを含む以前の画像データ(prior image data)が、コンピュータ断層撮影法(CT)、磁気共鳴画像法(MRI)、サーモグラフィ、超音波、光干渉断層撮影法(OCT)、サーマルイメージング、インピーダンスイメージング、レーザイメージング、又はナノチューブX線イメージングのようなイメージング技術から得られる。手術前又は手術中画像データは、2次元、3次元、又は4次元(例えば、時間ベース又は速度ベースの情報を含む)画像に対応し得る。例えば、画像データは、図3の人間の肺201を表し得る。
プロセス304において、単独又は手動入力と組み合わせたコンピュータソフトウェアが、記録された画像を部分的又は全体的な解剖学的器官又は解剖学的領域のセグメント化された2次元又は3次元複合表現又はモデルに変換するために、使用される。複合表現及び画像データセットは、通路の様々な位置及び形状並びにそれらの接続性を記述する。より具体的には、セグメント化(segmentation)プロセス中、画像は、色、濃度、強度、及びテクスチャのような特定の特性又は計算された特性を共有するセグメント又は要素(例えば、ピクセル又はボクセル)に分割される。このセグメント化プロセスは、取得された画像に基づく標的の解剖学的構造又は解剖学的構造モデルのモデルを形成する2次元又は3次元再構成をもたらす。モデルを表現するために、セグメント化プロセスは、標的の解剖学的構造を表すボクセルのセットの輪郭を描き(delineate)、次いで、マーチングキューブ関数のような関数を適用して、ボクセルを囲む3D表面を生成し得る。モデルは、メッシュ、ボリューム、又はボクセルマップを生成することによって作成され得る。追加的に又は代替的に、モデルは、モデル化された通路の中心を通って延びる相互接続された線又は点のセットを含む中心線モデルを含み得る。モデルが、相互接続された線の集合を含む中心線モデルを含む場合、それらの線分は、雲(cloud)又は点の集合に変換され得る。線分を変換することによって、相互接続された線分に対応する点の所望の量が手動又は自動で選択されることができる。
プロセス306において、解剖学的構造モデル、医療処置を行うために使用される医療器具(例えば、器具システム200)、及び患者の解剖学的構造は、患者への画像誘導外科処置の前及び/又はその間に共通基準フレームに共に位置合わせされる。共通基準フレームは、例えば、手術環境基準フレーム又は患者基準フレームであり得る。プロセス306は、患者に対して医療器具を位置特定することを含む。プロセス306はまた、患者に対して解剖学的構造モデルを位置合わせすることを含む。一般に、位置合わせは、剛体変換及び/又は非剛体変換を使用して、測定点をモデルの点に一致させることを含む。測定点は、解剖学的構造内のランドマーク、処置中に走査され且つ追跡される電磁コイル、又は形状センサシステムを使用して生成され得る。測定点は、反復最接近点(iterative closest point)(ICP)技術において使用するために生成され得る。ICP及び他の位置合わせ技術は、いずれも2015年8月14日に出願された、米国仮特許出願第62/205,440号及び米国仮特許出願第62/205,433号に記載されておあり、これらは参照によりその全体が本明細書に組み込まれる。プロセス308において、医療処置は、医療器具の動きをガイドするように解剖学的構造モデルデータを使用して行われ得る。
以前の画像データ、例えばCTスキャン(すなわち、コンピュータ断層撮影スキャン)を使用して作成された解剖学的構造モデルは、多くの処置に適した微細な解剖学的詳細を提供するために画像誘導手術で使用される。しかし、以前の画像データに基づくモデルは、位置合わせエラーを受けやすく、周期的又は非周期的な解剖学的運動による変形、医療器具の存在及び医療器具による生体組織の変形、又は以前の画像データが取得されてから生じた可能性のある患者の解剖学的構造に対する他の変更を含む、解剖学的構造のリアルタイム構成を示していない。蛍光透視法は、X線を用いて患者の解剖学的構造のリアルタイム動画像を得る透視イメージングモダリティである。従来の放射線写真は、患者の一部をX線検出器の前に置き、その後短いX線パルスで照射することによって得られるX線画像である。同様の方法で、蛍光透視法は、手術環境内の放射線不透過性医療器具、放射線不透過性染料、及び/又は放射線不透過性基準マーカ(radiopaque fiducial markers)を含む、患者の内部のリアルタイムの動画像を得るために、X線を使用する。蛍光透視システム(Fluoroscopy systems)は、位置の柔軟性を提供し、手動又は自動制御を介して環状(orbital)、水平及び/又は垂直移動が可能なCアームシステムを含み得る。非Cアームシステムは静止しており、低い動きの柔軟性を提供する。蛍光透視システムは、一般に、患者の解剖学的構造の2次元リアルタイム画像を生成するために、イメージインテンシファイア(image intensifier)又はフラットパネル検出器のいずれかを使用する。2平面蛍光透視システム(Bi-planar fluoroscopy systems)は、異なる(多くの場合、直交する)視点からの2つの蛍光透視画像(fluoroscopy image)を同時にキャプチャする。X線画像の質及び有用性は、画像化される組織のタイプに依存して変化し得る。骨や金属のようなより密度の高い材料は、肺の空気で満たされた軟組織よりも一般的にX線画像でより見える。肺の処置の場合、CTモデルは、蛍光透視画像上で識別するのが困難な気道及び腫瘍の解剖学的詳細を提供するが、透視画像は、医療機器及び密度の高い解剖学的組織のリアルタイムの可視化を提供する。したがって、解剖学的構造モデルに位置合わせされた蛍光透視画像は、肺のような解剖学的構造の特定の部分を通り抜けるのに臨床医にとって有用であり得る。
図5は、患者Pがプラットフォーム352上に配置される手術座標系X、Y、Zを有する、いくつかの実施形態による例示の手術環境350を示す。患者Pは、著しい患者の動きが、鎮静作用、拘束又は他の手段によって制限されるという意味で、手術環境内で静止し得る。患者が呼吸運動を一時的に中断しない限り、患者Pの呼吸及び心臓の動きを含む周期的な解剖学的運動が継続し得る。手術環境350内で、医療器具354は器具キャリッジ356に結合される。器具キャリッジ356は、手術環境350内に固定された又は移動可能な挿入ステージ358に取り付けられる。器具キャリッジ356は、挿入運動(すなわち、X方向の運動)及び、オプションで、ヨー、ピッチ、及びロールを含む多方向における器具の遠位端部の動きを制御するために、器具354に結合する遠隔操作マニピュレータアセンブリ(例えば、マニピュレータアセンブリ102)の構成要素であり得る。器具キャリッジ356又は挿入ステージ358は、挿入ステージに沿った器具キャリッジの動きを制御するサーボモータ(図示せず)を含み得る。医療器具354は、近位剛体器具ボディ(proximal rigid instrument body)362に結合された可撓性カテーテル360を含み得る。剛体器具ボディ362は、器具キャリッジ356に対して結合され且つ固定される。光ファイバ形状センサ364が、器具354に沿って延び、固定された又は既知の点366からカテーテル360の部分368までの形状を測定するように動作可能である。図示された実施形態では、部分368は、遠位端部分として示されている。他の実施形態では、部分368は、カテーテルの中央部分を含む、カテーテル360の長さに沿った他の場所に配置されてもよい。部分368は、カテーテル360のインジケータ部分(例えば、部分368が画像データ内で識別され得る)として機能し得るように成形され且つ構成される。医療器具354は、医療器具システム200と実質的に同様であり得る。蛍光透視イメージングシステム370(蛍光透視システム370とも呼ばれる)が、患者Pの近くに配置されて、カテーテル360が患者内に延ばされる間の患者の蛍光透視画像を取得する。システム370は、例えば、移動式Cアーム蛍光透視イメージングシステムであり得る。いくつかの実施形態では、システム370は、ワシントンD.C.のSiemens Corporationからの多軸Artis Zeego蛍光透視イメージングシステムであり得る。
図6は、手術環境350において画像誘導手術を行うための方法450を示すフローチャートである。方法450を含むこの説明の方法は、ブロック、ステップ、動作、又はプロセスのセットとして図6に示されている。例示された列挙された動作の全てが、方法450の全ての実施形態で実行されるわけではない。加えて、方法に明示的に示されていないいくつかの追加の動作が、列挙されたプロセスの前、後、間、又は列挙されたプロセスの一部として含まれていてもよい。この説明の方法のいくつかの実施形態は、メモリに格納された方法のプロセスに対応する命令を含む。これらの命令は、制御システム112のプロセッサのようなプロセッサによって実行され得る。
したがって、方法450のいくつかの実施形態は、手術前又は手術中の画像データを含む以前の画像データが、CT、MRI、サーモグラフィ、超音波、OCT、サーマルイメージング、インピーダンスイメージング、レーザイメージング、又はナノチューブX線イメージングのようなイメージング技術から取得されるプロセス452で開始し得る。以前の画像データは、2次元、3次元、又は4次元(例えば、時間ベース又は速度ベースの情報を含む)画像に対応し得る。上述のように、解剖学的構造モデルは、解剖学的構造モデルの基準フレームにおける以前の画像データから作成される。プロセス454において、医療器具200に含まれる形状センサ222に関連付けられることができる器具センサ基準フレーム(X、Y、Z)が、解剖学的構造モデル基準フレーム(X、Y、Z)に位置合わせされる。モデル及び器具の基準フレームの間のこの位置合わせは、例えば、参照により組み込まれる米国仮特許出願第62/205,440号及び第62/205,433号に記載されているようなポイントベースのICP技術を用いて達成され得る。代替的には、モデル基準フレームがセンサ基準フレームに位置合わせされてもよく、又はモデル及びセンサ基準フレームが別の共通基準フレームに位置合わせされてもよい。共通基準フレームは、例えば、手術環境基準フレーム(X、Y、Z)又は患者基準フレームであり得る。
プロセス456において、図9Bを参照して、(イメージングから決定された形状情報とは対照的に)センサデータが、姿勢情報を計算するために使用される。例えば、様々な例では、患者の解剖学的構造の内部、近傍、隣接した、又は外部の場所Lにおける医療器具の一部分の検知された位置及び向きが、医療器具の姿勢情報を決定するために使用される。検知された位置及び向きは、センサデータから取得され得る、測定され得る、又は計算され得る。この実施形態では、医療器具の部分368は、インジケータ部分と呼ばれ、放射線不透過性遠位端部分を含むことができる。他の実施形態では、蛍光透視画像上で視認可能な医療器具の他の放射線不透過性部分がインジケータ部分であってもよい。インジケータ部分は、蛍光透視画像上で見える任意の長さの医療器具を含むことができる。センサ情報は、光ファイバ形状センサから受信され、センサ基準フレームにおけるインジケータ部分368の検知された位置及び向きを計算するために使用される。プロセス454における解剖学的構造モデル基準フレーム(又は他の共通基準フレーム)への器具センサ基準フレームの位置合わせに基づいて、センサフレームにおけるインジケータ部分の位置及び/又は向き(すなわち、検知された姿勢)が、プロセス458において解剖学的構造モデル基準フレームに変換される。
プロセス460において、蛍光透視システム370は、患者Pの蛍光透視画像データ及び患者内に延ばされたカテーテル360をキャプチャする。蛍光透視画像データからレンダリングされた1つ又は複数の蛍光透視画像が、インジケータ部分368が解剖学的位置Lに位置するか又は解剖学的位置Lに接触している間に取得される。インジケータ部分368が位置Lにある間に取得された画像は、単一の視点からのものであってもよく又は同じ時間及び同じ場所における複数の視点からのインジケータ部分368を示す画像の複数の平面のセット(multi-planar set of images)(2平面画像のセットを含む)であってもよい。いくつかの例では、カテーテル360は、インジケータ部分368が1つ又は複数の蛍光透視画像内の解剖学的構造の位置Lに視覚的に隣接するように患者の外側に配置されることができる。
プロセス462において、インジケータ部分368は、蛍光透視画像データ内で識別され、したがって、蛍光透視基準フレームにおける位置Lの位置も識別される。様々な実施形態では、蛍光透視システム370は、多平面画像を生成することができ、したがって、3次元蛍光透視基準フレーム(X、Y、Z)を提供する。複数の画像の使用はまた、インジケータ部分368の向きの決定を可能にし、したがって、インジケータ部分に関する姿勢情報を提供する。他の実施形態では、蛍光透視システムは、2次元蛍光透視基準フレームを提供し得る。
蛍光透視画像内のインジケータ部分368の位置、したがって蛍光透視基準フレーム内の示された位置Lを抽出するために、様々な技術が使用され得る。一実施形態では、図9A及び図9Bを参照すると、インジケータ部分368は、インジケータ部分368が存在しない画像600を、インジケータ部分368が存在する画像610とを比較することによって、画像データ内で識別されることができる。2つの画像は、例えば制御システム112のコンピュータによって分析されて、2つの画像間のグラフィック上の差異を決定する。画像の患者の解剖学的構造部分は2つの画像において同じであるので、インジケータ部分368を含むカテーテル360は、画像610に固有の構造として識別可能である。識別されたカテーテル360に関連するグラフィック構成要素(例えば画素、ボクセル)を識別することによって、蛍光透視フレーム内のインジケータ部分368の存在及び位置が計算されることができる。インジケータ部分368は位置Lに配置されているので、位置Lの位置もまたインジケータ部分を抽出するグラフィック解析によって決定される。
別の実施形態では、図9B及び図9Cを参照すると、インジケータ部分368は、インジケータ部分368が位置Kにある画像620と、インジケータ部分368が位置Lにある画像610とを比較することによって、画像データ内で識別されることができる。2つの画像は、例えば制御システム112のコンピュータによって分析されて、2つの画像間のグラフィック上の差異を決定する。画像の患者の解剖学的構造部分は2つの画像において同じであるので、インジケータ部分368を含むカテーテル360は、各画像610、620において固有の構造として識別可能である。識別されたカテーテル360の遠位端部に関連するグラフィック構成要素を識別することによって、各画像の蛍光透視フレーム内のインジケータ部分368の存在及び位置が計算されることができる。インジケータ部分368は位置L及びKに配置されているので、位置L及びKの位置もまたインジケータ部分を抽出するグラフィック解析によって決定される。
別の実施形態では、図13Aを参照すると、インジケータ部分368は、器具1002を含む蛍光透視画像1000がユーザに表示される半自動抽出技術によって画像データ内で識別され得る。ユーザは、タッチスクリーン、マウス、トラックボール、又は視線のような入力デバイスを使用して、器具1002の輪郭1004又は遠位先端部のような器具の一部を作成する。ユーザから受信したアウトライン1004入力に基づいて、セグメント化アルゴリズムは、画像1000内の器具1002の特徴(例えば、ピクセルシェーディング、サイズ)を識別し、器具に対応する画像のセグメント(例えば、ピクセル又はボクセル)を分割することに進む。
別の実施形態では、図13Bを参照すると、インジケータ部分368は、器具1022を含む蛍光透視画像1010がユーザに表示される半自動抽出技術によって画像データ内で識別され得る。探索領域1014が、ユーザによって識別されるか、又は、画像内への医療器具の入口点1016を画像内で探索するために事前定義され得る(例えば、画像の左下象限)。セグメント化アルゴリズムは、医療器具の予想される形状(例えば、陰影の予想される連続性又は彩度、予想される幅、予想される長さ、予想される湾曲)に関連する所定の形状を探索し得る。セグメント化アルゴリズムが画像1010内の医療器具を識別した後、アルゴリズムは、器具に対応する画像のセグメント(例えば、画素又はボクセル)を分割することに進む。
別の実施形態では、予想される形状は、形状センサから受け取られる形状情報によって定義され、予想される形状は、半自動抽出技術による使用のための初期探索領域を識別するために使用される。セグメント化アルゴリズムは、時間及び計算リソースを最小限に抑えるために、初期探索領域内の予想される形状をさらに探索し得る。セグメント化アルゴリズムが予想される形状を識別した後、アルゴリズムは、器具に対応する画像のセグメント(例えば、画素又はボクセル)を分割することに進む。
別の実施形態では、インジケータ部分368は、形状センサによって又はカテーテルの端部の所定の(すなわち、予想された又は以前から知られている)形状又はマーカによって測定された形状のような、所定の(すなわち予想された又は以前に既知の)放射線不透過性形状について、キャプチャされた蛍光透視画像をグラフィック上で分析し且つ認識することによって、識別され得る。例えば、カテーテルから伸びる針又はカテーテルの端部の固定具の既知の形状が、発見されることができ、画像から抽出されることができる。蛍光透視画像におけるこれらインジケータ部分のグラフィカルな認識は、蛍光透視フレームにおけるタッチ位置Lの位置を提供する。
再び図6を参照すると、プロセス464において、蛍光透視画像基準フレームが解剖学的モデル基準フレームに位置合わせされる。代替的には、蛍光透視画像基準フレーム及び解剖学的構造モデル基準フレームの両方が、手術基準フレームのような共通基準フレームに位置合わせされる。プロセス462は、蛍光透視画像基準フレーム内の位置Lにおけるインジケータ部分368の位置及び向きを提供し、プロセス458は、モデル基準フレーム内のインジケータ部分368の位置Lの位置及び向きを提供するので、インジケータ部分368のそれぞれのフレーム位置は、フレームを一緒に位置合わせするために相互に関連付けられる(correlated)。プロセス456、458、460、462は、患者の解剖学的構造内の複数の位置におけるインジケータ部分の複数の位置に対して繰り返されてもよい。プロセス464における位置合わせは、それぞれのフレーム内のこれらの複数の位置を関連付け、複数の位置に対応する点の剛体変換又は非剛体変換を実行することによって実行又は向上されることができる。
プロセス466において、図10及び図11を参照すると、カテーテルが患者の解剖学的構造を通過する(traverses)ときに、位置合わせされた基準フレームが表示され、表示画像(複数可)を見る臨床医が、以前の画像(prior-time image)(例えば、CT画像)の解剖学的構造の詳細とともに蛍光透視画像内のリアルタイム器具トラッキングの利点を利用することを可能にする。図10は、蛍光透視基準フレーム(X、Y、Z)を有する蛍光透視画像710及びモデル基準フレーム(X、Y、Z)を有する以前のモデル画像(prior-time model image)720(例えば、限定ではない例として、CT技術によって取得されたCT画像又は任意の他の適切なイメージング技術によって取得された画像など)を表示するディスプレイ700を示す。蛍光透視基準フレーム及びモデル基準フレームは位置合わせされており、位置合わせされた画像が並べて表示される。基準フレームが位置合わせされた状態で、1つの画像からの構造は、臨床医が医療処置を行うのを支援するために、オプションで、他の画像にスーパーインポーズ又はオーバーレイされ(overlaid)得る。例えば、蛍光透視画像710において可視であるカテーテル360は、抽出され、画像710上にオーバーレイされることができる。付加的に又は代替的に、画像720において可視である標的組織730(例えば、腫瘍)が、抽出され、蛍光透視画像720上にオーバーレイされてもよい。
図11は、以前の画像データ820が蛍光透視画像データ830上にオーバーレイされている単一の画像810を表示するディスプレイ800を示す。いくつかの実施形態(図示せず)では、標的組織への経路が、以前のモデル画像データ内で計画され、以前のモデル画像(例えば、CT画像)内に表示され得る。経路はその後抽出され、蛍光透視画像データ上にオーバーレイされ得る。
オプションで、蛍光透視画像データが解剖学的構造モデルに位置合わせされた後、重要な特徴が、蛍光透視画像データ、解剖学的構造モデル、又はその2つの組み合わせから生成された2次元又は3次元画像から見られて分析されることができる。例えば、蛍光透視画像データ内の陰影は、腫瘍を示すことができ、又は解剖学的構造モデルを生成するために使用されるセグメント化されたCTデータ内の腫瘍をどこで探すべきかを示すことができる。
オプションで、蛍光透視画像データが解剖学的構造モデルに位置合わせされた後、仮想蛍光透視図が生成されてもよい。この位置合わせは、モデルに対する蛍光透視画像面を示すので、別のビュー平面(plane of view)からの患者の解剖学的構造の仮想図が生成されてもよい。例えば、実際の蛍光透視画像平面に直交する平面からの仮想図が、解剖学的モデルから生成されて、臨床医に2平面蛍光透視画像に近い経験を提供することができる。
加えて又はオプションで、解剖学的構造モデルに位置合わせされた透視図を用いて、標的組織、腫瘍、又は他の目印のような解剖学的特徴が、蛍光透視画像内で識別され、解剖学的構造モデル内の対応する特徴の位置を特定するために用いられることができる。例えば、腫瘍が、解剖学的構造モデル内の対応する腫瘍を識別するのに役立つように、蛍光透視図において可視であることができる。解剖学的構造モデルにおいて同定されると、腫瘍は標的として標識されることができ、その標的へのナビゲーション経路が解剖学的構造モデル内で計画されることができる。
図7は、手術環境350において画像誘導手術を実行するための別の方法500を示すフローチャートである。方法500を含むこの説明の方法は、ブロック、ステップ、動作、又はプロセスのセットとして図7に示されている。例示された、列挙された動作のすべてが、方法500の全ての実施形態で実行されるわけではない。加えて、方法に明示的に図示されていないいくつかの追加の動作が、列挙されたプロセスの前、後、間、又は列挙されたプロセスの一部として含まれてもよい。この説明の方法のいくつかの実施形態は、メモリに格納された方法のプロセスに対応する命令を含む。これらの命令は、制御システム112のプロセッサのようなプロセッサによって実行され得る。
方法500は、手術前CTスキャンなどの患者の解剖学的構造の以前のイメージングデータを取得する前述のプロセス452と、解剖学的構造モデル基準フレームに器具センサ基準フレームを位置合わせするプロセス454とを含む。一連のプロセス502は、解剖学的構造ランドマークポイントを収集して一致させ、蛍光透視及びモデルの基準フレームを位置合わせするためのサブプロセスを記述する。プロセス508において、蛍光透視システム370は、インジケータ部分368が画像データから生成された蛍光透視画像において可視である解剖学的構造ランドマークに接触するか又は近接して配置されている間に、患者P及びカテーテル360の蛍光透視画像データを取り込む。解剖学的構造ランドマークは、脊柱、胸郭、胸骨、襟骨、横隔膜、血管系、又は気道樹の可視部分のような蛍光透視法で可視である任意の固有の構造であり得る。プロセス510において、インジケータ部分368が透視画像データ内で識別され、したがって、蛍光透視基準フレーム内の示された解剖学的構造ランドマークの位置も識別される。様々な実施形態では、蛍光透視システム370は、多平面画像を生成することができ、したがって、3次元透視基準フレーム(X、Y、Z)を提供することができる。他の実施形態では、蛍光透視システムは、2次元透視基準フレームを提供することができる。蛍光透視画像データからインジケータ部分を抽出する方法は上述されている。プロセス512において、同じ解剖学的構造ランドマークが解剖学的構造モデルにおいて選択され、蛍光透視画像データにおける解剖学的構造ランドマークと互いに関係付けられる。例えば、カテーテルのインジケータ部分が解剖学的構造ランドマークに接触している間(リアルタイム蛍光透視画像において臨床医によって見られるとき)、ユーザは、解剖学的構造ランドマークの位置において、解剖学的構造モデルを表示するタッチスクリーンをタッチすることができる。モデルにおいて解剖学的構造ランドマークの位置を特定するための他のマーキング方法が使用されてもよい。したがって、蛍光透視基準フレームにおける解剖学的構造ランドマークの座標及びモデル基準フレームにおける解剖学的構造ランドマークの座標は互いに関係付けられることができる。図12において、各ランドマーク910を蛍光透視基準フレーム内の位置920及びモデル基準フレーム内の位置930に参照する相関テーブル900がまとめられることができる。プロセス502は、複数の解剖学的構造ランドマークの各々について繰り返されることができる。例えば、3つ以上の解剖学的構造ランドマークを選択することができる。
プロセス514において、蛍光透視画像基準フレームは解剖学的構造モデル基準フレームに位置合わせされる。解剖学的構造ランドマークポイント位置合わせは、参照により本明細書に組み込まれている米国仮特許出願第62/205,440号及び第62/205,433号に記載されている。例えば、蛍光透視画像の解剖学的構造基準ポイントのセットは、モデルにおける解剖学的構造ランドマークポイントと一致する。一致したポイントの1つ又は両方のセットは、次に、蛍光透視及びモデルの基準フレームを位置合わせするために、剛体変換又は非剛体変換によって回転、並進移動又は別の方法で操作される。プロセス516において、図10及び11を参照すると、カテーテルが患者の解剖学的構造を通過するときに、位置合わせされた基準フレームが表示され、表示画像を見る臨床医が以前の画像(例えば、CT画像)の解剖学的構造の詳細とともに蛍光透視画像内のリアルタイム器具トラッキングの利点を利用することを可能にする。
図8は、プロセス502を置換するために方法500で使用され得るサブプロセス550を示すフローチャートである。プロセス552において、インジケータ部分368が患者の解剖学的構造の通路を通過する間に、蛍光透視システム370は、患者P及びカテーテル360の蛍光透視画像データをキャプチャする。プロセス554において、インジケータ部分368の複数のロケーションポイント(location points)が蛍光透視画像データ内で識別され、したがって、蛍光透視基準フレーム内のロケーションポイントの位置も識別される。この実施形態では、蛍光透視システム370は、多平面画像を生成することができ、したがって、3次元蛍光透視基準フレーム(X、Y、Z)を提供することができる。他の実施形態では、蛍光透視システムは、2次元透視基準フレームを提供し得る。蛍光透視画像データからインジケータ部分を抽出する方法は上述されている。プロセス556において、蛍光透視画像基準フレームが解剖学的構造モデル基準フレームに位置合わせされる。ポイントクラウド位置合わせは、参照により本明細書に組み込まれる米国仮特許出願第62/205,440号及び第62/205,433号に記載されている。例えば、蛍光透視画像の解剖学的構造基準ポイントのセットは、解剖学的モデルにおけるモデルポイント(例えば、通路の以前の又は同時のCTスキャンから受信されたモデルポイント)と一致するように剛体又は非剛体変換によって回転、並進移動又はその他の法帆で操作される。ICP又は他のポイント位置合わせ技術により、蛍光透視及びモデルの基準フレームが位置合わせされる。
図14は、手術環境350において画像誘導手術を行うための方法1100を示すフローチャートである。方法1100は、手術前又は手術中の画像データを含む以前の画像データが、CT、MRI、サーモグラフィ、超音波、OCT、サーマルイメージング、インピーダンスイメージング、レーザイメージング、又はナノチューブX線イメージングのようなイメージング技術から取得されるプロセス1102で始まる。以前の画像データは、2次元、3次元、又は4次元(例えば、時間ベース又は速度ベースの情報を含む)画像に対応し得る。上述したように、解剖学的構造モデルは、以前の画像データから作成される。プロセス1104において、医療器具のインジケータ部分が患者の解剖学的構造内の位置Lに位置する間に、形状センサ情報が医療器具から受信される。
プロセス1106において、蛍光透視システム370は、患者P及び患者内に延ばされたカテーテル360の蛍光透視画像データをキャプチャする。蛍光透視画像データからレンダリングされる1つ又は複数の蛍光透視画像が、インジケータ部分368が解剖学的構造の位置Lに位置する又は解剖学的構造の位置Lに接触している間に、取得される。インジケータ部分368が位置Lにある間に取得される画像は、単一の視点からのものであり得る又は同時且つ同じ場所における複数の視点からのインジケータ部分368を示す複数の平面の画像セット(2平面画像のセットを含む)であり得る。
プロセス1108において、カテーテル360の形状が蛍光透視画像データにおいて識別され、したがって、蛍光透視基準フレーム内の(カテーテルの遠位先端部における)位置Lの位置も識別される。様々な実施形態では、蛍光透視システム370は、多平面画像を生成することができ、したがって、3次元蛍光透視基準フレーム(X、Y、Z)を提供する。他の実施形態では、蛍光透視システムは、2次元蛍光透視基準フレームを提供することができる。カテーテルの形状及び/又はインジケータ部分の姿勢を抽出するための様々な実施形態は上述されている。プロセス1110において、プロセス1110からの形状センサ情報は、蛍光透視画像データから決定された形状情報と比較される。形状センサがねじれる又は鋭く曲げられるようになる場合、光ファイバ形状センサから決定される形状情報は、不正確さを含む可能性がある。加えて、誤差は光ファイバ形状センサの長さによって蓄積するので、形状及び遠位先端部位置は、より長い器具ではより不正確になる可能性がある。センサ情報の精度は、複数のソースから受信した器具形状情報を融合することによって改善され得る。プロセス1110において、医療器具からの形状センサ情報は、蛍光透視画像形状情報に基づいて修正される。例えば、形状センサ情報における遠位先端部の位置は、蛍光透視画像形状情報における遠位先端部の位置に調整されてもよい。別の例では、形状情報は、不正確さが予想される部分(例えば、遠位先端部分)に沿ってのみ平均化又は修正されてもよい。
プロセス1112において、修正された器具センサ情報は、先に説明された位置合わせ方法のいずれかを用いて解剖学的構造モデルに位置合わせされる。プロセス1114において、画像誘導医療処置が、器具遠位先端部のより正確な位置特定(localization)を提供する修正されたセンサ情報を伴って、医療用器具を用いて行われる。位置特定された(localized)器具の遠位先端部に基づいて、遠位先端部の視点(位置及び向き)からの患者の解剖学的構造の仮想画像が解剖学的構造モデルから生成され得る。加えて、位置特定された器具の遠位先端部に基づいて、解剖学的構造モデルからの画像上にオーバーレイされた医療器具の仮想画像が、医療器具の動きを誘導する(guide)ために使用され得る。
図15は、好ましい蛍光透視ビュー平面を決定する方法1200を示す。プロセス1202において、手術前又は手術中の画像データを含む以前の画像データが、CT、MRI、サーモグラフィ、超音波、OCT、サーマルイメージング、インピーダンスイメージング、レーザイメージング、又はナノチューブX線イメージングのようなイメージング技術から、取得される。以前の画像データは、2次元、3次元、又は4次元(例えば、時間ベース又は速度ベースの情報を含む)画像に対応し得る。上述のように、解剖学的構造モデルは、以前の画像データから作成される。プロセス1204において、医療器具200の器具センサ222は、方法450のプロセス454について上述したように、解剖学的構造モデルに位置合わせされる。プロセス1206において、好ましい蛍光透視ビュー平面が決定されて、臨床医に、カテーテルの遠位先端部の動き、カテーテルの遠位先端部から出る生検針又は他のツールの動き、及び/又はツールによって係合される(例えば、腫瘍)又はツールによって回避される(例えば、穿孔を避けるための肺胸膜)組織領域を可視化することを可能にする。より具体的には、好ましい蛍光透視平面は、形状センサ情報から器具の遠位先端部分の姿勢を決定することによって選択されることができる。好ましい蛍光透視平面は、器具の遠位先端部の姿勢(例えば、図13Bのビュー平面)に概して平行であり得る。これに加えて又はこれに代えて、好ましい蛍光透視平面は、器具の遠位先端部分と関心のある組織領域との間の距離を測定し、最大距離を提供する蛍光透視ビュー平面を決定することによって、決定されてもよい。この蛍光透視ビュー平面は、器具の遠位先端部分と組織領域との間の軌跡と概して平行であり、従って、生検針が標的組織領域を捕えた(intercepted)かどうか又は患者に怪我をさせるであろう領域を回避したかどうかについて臨床医に最も正確な情報を提供する。
図16は、2次元蛍光透視誘導下で医療器具を駆動するための方法1300を示す。プロセス1302において、手術基準フレーム内の患者の解剖学的構造の蛍光透視画像データが、蛍光透視システム370から取得される。蛍光透視システムの向き、したがってイメージング平面の向きは、外部追跡システム、画像化された基準点、又は方法450について上述したような形状検知データの使用を含む様々な方法により決定され得る。蛍光透視イメージング平面の決定の説明は、その全体が参照により本明細書に組み込まれる、2015年9月10日に出願された、Systems and Methods of Pose Estimation and Calibration of Perspective Imaging System in Image Guided Surgeryを包含する米国仮出願第62/216,494号に見出される。いくつかの例では、蛍光透視システムのグラフィカルレンダリングが、所望の透視画像平面内の蛍光透視画像を取得することを容易にするために、生成され得る。特に、このようなレンダリングは、所望の又は所定の蛍光透視平面内の蛍光透視画像を適切にキャプチャするように、ユーザが蛍光透視システムの要素(例えば、フルオロアーム(fluoro arm)又はX線イメージャ)の位置決めをするのを支援し得る。いくつかの例では、システム又はユーザは、所望の又は所定の蛍光透視画像平面内で蛍光透視画像を取得するためのシステム構成をより良好に達成するために、蛍光透視システムのためのジョイント構成のセットを受け取り得る。プロセス1304において、二次元蛍光透視画像が蛍光透視画像データからの表示のために生成される。表示される画像は、イメージング平面の配向面に基づく配向面を有する。プロセス1306において、制御システム112は、カテーテルシステム202の動きを駆動するコマンドを受信する。プロセス1308において、カテーテルシステム202又はカテーテルの一部の動きは、表示された蛍光透視画像の配向面の平面に拘束される。一実施形態では、カテーテルのインジケータ部分の動きのみが、蛍光透視画像の配向面に拘束されてもよい。カテーテルのインジケータ部分の動きは、遠隔操作システムにおけるオペレータ制御部の動きを制限することによって拘束されることができ、その結果、オペレータは、カテーテルの部分を拘束面から移動させる方向に制御部を動かすことを防止される。追加的または代替的に、カテーテルのインジケータ部分の動きは、遠隔操作マニピュレータアセンブリ内の少なくとも1つのアクチュエータ又は作動ケーブルの動きを制限することによって、拘束されてもよい。上述の開ループ拘束システムにおけるオペレータ制御部又は器具の作動機構に対する拘束にもかかわらず、カテーテルのインジケータ部分は、隣接する組織からの解剖学的構造の力に起因する拘束された平面の外の動きをなお経験する可能性がある。閉ループシステムでは、医療器具の形状、位置、又は他のセンサから受信したセンサ情報は、蛍光透視画像の配向面からのインジケータ部分の動きを認識するために、制御システムによって受信され、分析されることができる。認識された平面外の動きに応答して、制御システムは、インジケータ部分を調整して配向面に戻す信号又はコマンドを提供することができる。いくつかの例では、インジケータ部分を調整するための信号及び/又はコマンドは、オーバーライド又は無視されてもよい。他の例では、インジケータ部分を調節するための信号及び/又はコマンドは、インジケータ部分を自動的に調整して配向面に戻してもよい。様々な実施形態では、1つ又は複数の追加の蛍光透視画像が、拘束面に対する直交面又は他の非平行面から取得されることができ、臨床医が拘束面の外のインジケータ部分の動きを観察することを可能にする。様々な実施形態では、表示された蛍光透視画像の配向面にインジケータ部分の動きを拘束することは、手動スイッチ、音声作動スイッチ、足作動スイッチ、又は別のオペレータ制御機構を含み得るオペレータ制御スイッチの作動によって開始されることができる。追加的に又は代替的に、表示された蛍光透視画像の配向面にインジケータ部分の動きを拘束することは、蛍光透視画像の表示又はオペレータが蛍光透視画像を見ているという認識に応答して制御システム112によって開始されてもよい。
この開示は、遠隔操作システムのための様々なシステム及び方法を記載しているが、それらは、マニピュレータアセンブリ及び器具が直接制御される非遠隔操作システムでの使用も考慮されている。提供される様々な例は、解剖学的構造内で行われる処置の使用を説明するが、代替実施形態では、この開示の装置及び方法は、解剖学的構造内で使用する必要はなく、むしろ患者の解剖学的構造の外で使用されることもできる。
本発明の実施形態における1つ又は複数の要素は、制御システム112のようなコンピュータシステムのプロセッサ上で実行するためにソフトウェアで実装されてもよい。ソフトウェアで実装される場合、本発明の実施形態の要素は、本質的には、必要なタスクを実行するためのコードセグメントである。プログラム又はコードセグメントは、光媒体、半導体媒体、及び磁気媒体を含む情報を格納することができる任意の媒体を含む、非一時的プロセッサ可読記憶媒体又はデバイスに格納されることができる。プロセッサ可読記憶デバイスの例は、電子回路;半導体デバイス、半導体メモリデバイス、読み出し専用メモリ(ROM)、フラッシュメモリ、消去可能プログラマブル読み出し専用メモリ(EPROM);フロッピー(登録商標)ディスケット、CD−ROM、光ディスク、ハードディスク、又は他の記憶装置を含む。コードセグメントは、インターネット、イントラネットなどのようなコンピュータネットワークを介してダウンロードされることができる。
提示されたプロセス及び表示は、本質的に、特定のコンピュータ又は他の装置に関連するものではないことに留意されたい。様々なこれらのシステムに必要な構成は、特許請求の範囲内の要素として現れるであろう。加えて、本発明の実施形態は、特定のプログラミング言語を参照して説明されていない。様々なプログラミング言語が本明細書に記載される本発明の教示を実施するために使用され得ることが理解されるであろう。
本発明のある例示的な実施形態が記載されるとともに添付の図面に示されているが、そのような実施形態は、広範な発明を単に説明するものであって、限定するものではなく、当業者には様々な他の改変が思い浮かび得るので、本発明の実施形態は、図示されるとともに記載された特定の構造及び構成に限定されるものではないことが理解されるべきである。

Claims (41)

  1. コンピュータシステムによって実行される方法であって:
    医療器具のある部分が患者の解剖学的構造内に配置されている間に前記患者の解剖学的構造の蛍光透視画像を受け取るステップであって、前記蛍光透視画像は蛍光透視基準フレームを有し、前記部分は、解剖学的構造モデル基準フレームにおいて検知位置を有する、ステップと;
    前記蛍光透視画像において前記部分を識別するステップと;
    前記蛍光透視画像において識別された前記部分を使用して、前記蛍光透視基準フレームおいて前記部分の抽出位置を識別するステップと;
    前記部分の前記検知位置及び前記部分の前記抽出位置に基づいて前記蛍光透視基準フレームを前記解剖学的構造モデル基準フレームに位置合わせするステップと;
    を含む、方法。
  2. 前記蛍光透視画像において識別された前記部分を使用して、前記蛍光透視基準フレームにおいて前記部分の抽出された向きを識別するステップ、をさらに含み、
    前記部分は、前記解剖学的構造モデル基準フレームにおいて検知された向きを有し、
    前記蛍光透視基準フレームを前記解剖学的構造モデル基準フレームに位置合わせするステップはさらに、前記部分の前記検知された向き及び前記部分の前記抽出された向きに基づく、
    請求項1に記載の方法。
  3. 前記蛍光透視画像において前記部分を識別するステップは、前記蛍光透視画像において前記部分の予想される形状を識別するステップを含む、
    請求項1に記載の方法。
  4. 前記蛍光透視画像において前記部分を識別するステップは、前記医療器具の前記部分が前記患者の解剖学的構造内に配置されている間の前記患者の解剖学的構造の前記蛍光透視画像を、前記医療器具の前記部分が前記患者の解剖学的構造内に配置されていないときに記録された前記患者の解剖学的構造の蛍光透視画像と比べるステップを含む、
    請求項1に記載の方法。
  5. 前記蛍光透視画像において前記部分を識別するステップは、前記医療器具の前記部分が前記患者の解剖学的構造内の第1の位置に配置されている間の前記患者の解剖学的構造の前記蛍光透視画像を、前記医療器具の前記部分が前記患者の解剖学的構造内の第2の位置に配置されているときに記録された前記患者の解剖学的構造の蛍光透視画像と比較するステップを含む、
    請求項1に記載の方法。
  6. 前記解剖学的構造モデル基準フレームにおける前記患者の解剖学的構造の通路の解剖学的構造モデルについてのモデルポイントのセットを受け取るステップをさらに含む、
    請求項5に記載の方法。
  7. 前記通路の解剖学的構造モデルについての前記モデルポイントのセットは、コンピュータ断層撮影から作られる、
    請求項6に記載の方法。
  8. 前記蛍光透視画像のある部分及び前記解剖学的構造モデルのある部分の共に位置合わせされた画像内で前記医療器具の前記部分を表示するステップをさらに含む、
    請求項6に記載の方法。
  9. 前記解剖学的構造モデル内で標的組織を識別するとともに表示するステップと;
    前記蛍光透視画像の前記部分の前記共に位置合わせされた画像において前記標的組織をオーバーレイするステップと;
    をさらに含む、
    請求項8に記載の方法。
  10. 前記解剖学的構造モデルにおける前記標的組織への経路を計画するステップと;
    前記蛍光透視画像の前記部分の前記共に位置合わせされた画像において前記経路をオーバーレイするステップと;
    をさらに含む、
    請求項9に記載の方法。
  11. 前記医療器具の前記部分の前記検知位置を決定するために前記医療器具の位置センサからセンサ位置情報を受け取るステップであって、前記センサ位置情報はセンサ基準フレーム内にある、ステップと;
    前記解剖学的構造モデル基準フレーム及び前記センサ基準フレームを位置合わせするステップであって、前記解剖学的構造モデル基準フレームは、前記患者の解剖学的構造の解剖学的構造通路の解剖学的構造モデルと関連付けられる、ステップと;
    前記解剖学的構造モデル基準フレーム及び前記センサ基準フレームの前記の位置合わせから、前記解剖学的構造モデル基準フレームにおける前記部分の前記検知位置を決定するステップと;
    をさらに含む、
    請求項1に記載の方法。
  12. 前記位置センサは、前記医療器具に沿って延びる光ファイバ形状センサである、
    請求項11に記載の方法。
  13. 前記解剖学的構造モデル基準フレームにおける前記医療器具の前記部分の前記検知位置を決定するステップは、前記センサ基準フレームにおける前記センサ位置情報の座標のセットを前記解剖学的構造モデル基準フレームにおいて対応する座標のセットを用いて参照するステップを含む、
    請求項11に記載の方法。
  14. 前記解剖学的構造モデル基準フレーム及び前記センサ基準フレームを位置合わせするステップは:
    前記解剖学的構造モデルのモデルポイントのセットを受け取るステップと;
    前記解剖学的構造通路の中から収集される測定ポイントのセットを受け取るステップであって、それぞれのポイントは前記センサ基準フレーム内の座標を有する、ステップと;
    一致のセットを生成するよう、前記測定ポイントのセットのうちの前記測定ポイントを、前記モデルポイントのセットのうちの前記モデルポイントに一致させるステップと;
    前記一致のセットに基づいて前記モデルポイントのセットに対して前記測定ポイントのセットを動かすステップと;
    を含む、
    請求項11に記載の方法。
  15. コンピュータシステムによって実行される方法であって:
    複数の解剖学的構造ランドマークの位置のセットを識別するステップであって、前記複数の解剖学的構造ランドマークはモデル基準フレームにおいて患者の解剖学的構造の通路の解剖学的構造モデル内でレンダリングされる、ステップと;
    医療器具のある部分が前記患者の解剖学的構造の前記通路内の前記複数の解剖学的構造ランドマークを通過する間に、前記患者の解剖学的構造の蛍光透視画像データを受け取るステップであって、前記蛍光透視画像データは、蛍光透視基準フレームを有する、ステップと;
    前記蛍光透視基準フレームにおいて前記複数の解剖学的構造ランドマークにおける前記医療器具の前記部分の位置のセットを識別するステップと;
    前記モデル基準フレームにおける前記複数の解剖学的構造ランドマークの前記位置のセット及び前記蛍光透視基準フレームにおける前記複数の解剖学的構造ランドマークでの前記医療器具の前記部分の前記位置のセットを共通基準フレームに位置合わせするステップと;
    を含む、方法。
  16. 前記蛍光透視基準フレームにおいて前記医療器具の前記部分の前記位置のセットを識別するステップは、前記蛍光透視基準フレームにおいて前記医療器具の前記部分の所定の形状を識別するステップを含む、
    請求項15に記載の方法。
  17. 前記蛍光透視基準フレームにおいて前記医療器具の前記部分の前記位置のセットを識別するステップは、前記医療器具の前記部分が前記複数の解剖学的構造ランドマークのうちの少なくとも1つに配置されている間の前記患者の解剖学的構造の前記蛍光透視画像データを、前記医療器具の前記部分が前記患者の解剖学的構造の中に配置されていないときに記録された前記患者の解剖学的構造の蛍光透視画像データと比較するステップを含む、
    請求項15に記載の方法。
  18. 前記蛍光透視基準フレームにおいて前記位置のセットを識別するステップは、前記医療器具の前記部分が前記複数の解剖学的構造ランドマークのうちの少なくとも1つに配置されている間の前記患者の解剖学的構造の前記蛍光透視画像データを、前記医療器具の前記部分が前記患者の解剖学的構造の中の他の場所に配置されているときに記録された前記患者の解剖学的構造の画像と比較するステップを含む、
    請求項15に記載の方法。
  19. 前記蛍光透視画像のある部分、前記解剖学的構造モデルのある部分、及び前記医療器具の前記部分の共に位置合わせされた画像を表示するステップをさらに含む、
    請求項15に記載の方法。
  20. 前記共通基準フレームは、前記モデル基準フレームである、
    請求項15に記載の方法。
  21. 前記共通基準フレームは、前記蛍光透視基準フレームである、
    請求項15に記載の方法。
  22. コンピュータシステムによって実行される方法であって:
    モデル基準フレームにおいて患者の解剖学的構造の通路の解剖学的構造モデルについてのモデルポイントのセットを受け取るステップと;
    医療器具のインジケータ部分が前記患者の解剖学的構造の前記通路を通過する間に前記患者の解剖学的構造の蛍光透視画像データを受け取るステップであって、前記蛍光透視画像データは、蛍光透視基準フレームを有する、ステップと;
    前記蛍光透視画像データから、前記蛍光透視基準フレームにおいてインジケータ部分位置ポイントのセットを識別するステップと;
    一致のセットを生成するようそれぞれの前記インジケータ部分位置ポイントを前記モデルポイントのセットにおけるモデルポイントと一致させるステップと;
    前記一致のセットに基づいて前記モデル基準フレームを前記蛍光透視基準フレームに位置合わせするステップと;
    を含む、方法。
  23. 前記蛍光透視基準フレームにおいて前記インジケータ部分位置ポイントのセットを識別するステップは、前記蛍光透視基準フレームにおいて前記インジケータ部分の予想される形状を識別するステップを含む、
    請求項22に記載の方法。
  24. 前記蛍光透視基準フレームにおいて前記インジケータ部分位置ポイントのセットを識別するステップは、前記医療器具の前記インジケータ部分が配置されている間の前記患者の解剖学的構造の前記蛍光透視画像データを、前記医療器具の前記インジケータ部分が前記患者の解剖学的構造内に配置されていないときに記録された前記患者の解剖学的構造と比較するステップを含む、
    請求項22に記載の方法。
  25. 前記蛍光透視画像データから生成される蛍光透視画像のある部分、前記解剖学的構造モデルのある部分、及び前記医療器具の前記インジケータ部分の共に位置合わせされた画像を表示するステップをさらに含む、
    請求項22に記載の方法。
  26. 前記一致のセットに基づいて記モデル基準フレームを前記蛍光透視基準フレームに位置合わせするステップは、前記一致のセットに基づいて前記モデルポイントのセットに対して前記インジケータ部分位置ポイントのセットを動かすステップを含む、
    請求項22に記載の方法。
  27. コンピュータ支援医療システムであって:
    手術座標空間内の蛍光透視撮像装置と;
    1つ又は複数のプロセッサを含む処理ユニットと;を有し、
    前記処理ユニットは:
    医療器具のある部分が患者の解剖学的構造内の位置に配置されている間に、前記蛍光透視撮像装置から前記患者の解剖学的構造の配向面を有する蛍光透視画像を受け取り;
    前記医療器具の前記部分の動きを駆動するコマンドを受信し;
    前記部分の作動された動きが前記蛍光透視画像の前記配向面に拘束されるように、前記部分の作動を拘束し;
    前記の拘束された作動で前記部分の動きを駆動する;
    ように構成される、
    コンピュータ支援医療システム。
  28. 前記処理ユニットは、前記蛍光透視画像を表示するようにさらに構成される、
    請求項27に記載のコンピュータ支援医療システム。
  29. 前記処理ユニットは、その中で前記部分の作動されていない動きが可視である第2の配向面を有する第2の蛍光透視画像を表示するようにさらに構成される、
    請求項28に記載のコンピュータ支援医療システム。
  30. 前記処理ユニットは:
    前記の拘束された作動で前記部分の前記動きを駆動する間に前記医療器具からセンサ情報を受信し;
    受信した前記センサ情報から前記蛍光透視画像の前記配向面外の前記部分の動きを認識し;
    前記医療器具の前記部分を前記蛍光透視画像の前記配向面内に調整する信号を送信する;
    ようにさらに構成される、
    請求項27に記載のコンピュータ支援医療システム。
  31. 前記センサ情報は、光ファイバ形状センサから受信される、
    請求項30に記載のコンピュータ支援医療システム。
  32. 前記部分の前記作動を拘束することは、遠隔操作制御システムのオペレータ制御装置の動きを拘束することを含む、
    請求項27に記載のコンピュータ支援医療システム。
  33. 前記部分の前記作動を拘束することは、遠隔操作マニピュレータアセンブリの少なくとも1つのアクチュエータの動きを拘束することを含む、
    請求項27に記載のコンピュータ支援医療システム。
  34. 前記部分の前記作動を拘束することは、制御スイッチの作動に応じる、
    請求項27に記載のコンピュータ支援医療システム。
  35. コンピュータシステムによって実行される方法であって:
    患者の解剖学的構造の解剖学的構造モデルを受け取るステップであって、関心領域が前記解剖学的構造モデルにおいて識別される、ステップと;
    前記患者の解剖学的構造内に配置され且つ前記解剖学的構造モデルに位置合わせされた器具の器具形状センサから形状センサデータを受け取るステップと;
    受け取った前記形状センサデータ及び前記関心領域に基づいて表示のために蛍光透視画像面を決定するステップと;
    を含む、方法。
  36. 前記器具形状センサは、前記器具の遠位先端部分に配置され、前記蛍光透視画像面を決定するステップは:
    受け取った前記形状センサデータから前記器具の前記遠位先端部分の姿勢を決定するステップと;
    前記器具の前記遠位先端部分と前記関心領域との間の距離を決定するステップと;
    を含む、
    請求項35に記載の方法。
  37. 前記蛍光透視画像面を決定するステップは、前記器具の前記遠位先端部分と前記関心領域との間の前記距離が最大である前記蛍光透視画像面を決定するステップをさらに含む、
    請求項36に記載の方法。
  38. 前記蛍光透視画像面を決定するステップは、前記遠位先端部分の前記姿勢と平行である前記蛍光透視画像面を決定するステップをさらに含む、
    請求項36に記載の方法。
  39. 前記器具形状センサは、光ファイバ形状センサである、
    請求項35に記載の方法。
  40. 決定された前記蛍光透視画像面において蛍光透視画像を取得するための構成で蛍光透視システムのグラフィカルレンダリングを提供するステップをさらに含む、
    請求項35に記載の方法。
  41. 決定された前記蛍光透視画像面において蛍光透視画像を取得するためのシステム構成を達成するよう蛍光透視システムのためのジョイント構成のセットを提供するステップをさらに含む、
    請求項35に記載の方法。
JP2018542283A 2016-02-12 2017-02-10 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法 Active JP7118890B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022124308A JP7503603B2 (ja) 2016-02-12 2022-08-03 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法
JP2024075849A JP2024096378A (ja) 2016-02-12 2024-05-08 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662294870P 2016-02-12 2016-02-12
US201662294879P 2016-02-12 2016-02-12
US62/294,870 2016-02-12
US62/294,879 2016-02-12
PCT/US2017/017433 WO2017139621A1 (en) 2016-02-12 2017-02-10 Systems and methods for using registered fluoroscopic images in image-guided surgery

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022124308A Division JP7503603B2 (ja) 2016-02-12 2022-08-03 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法

Publications (2)

Publication Number Publication Date
JP2019507623A true JP2019507623A (ja) 2019-03-22
JP7118890B2 JP7118890B2 (ja) 2022-08-16

Family

ID=59563580

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018542283A Active JP7118890B2 (ja) 2016-02-12 2017-02-10 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法
JP2022124308A Active JP7503603B2 (ja) 2016-02-12 2022-08-03 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法
JP2024075849A Pending JP2024096378A (ja) 2016-02-12 2024-05-08 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022124308A Active JP7503603B2 (ja) 2016-02-12 2022-08-03 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法
JP2024075849A Pending JP2024096378A (ja) 2016-02-12 2024-05-08 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法

Country Status (6)

Country Link
US (5) US10896506B2 (ja)
EP (3) EP4049612B1 (ja)
JP (3) JP7118890B2 (ja)
KR (1) KR20180104764A (ja)
CN (2) CN113729977A (ja)
WO (1) WO2017139621A1 (ja)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2086399B1 (en) 2006-11-10 2017-08-09 Covidien LP Adaptive navigation technique for navigating a catheter through a body channel or cavity
WO2009147671A1 (en) 2008-06-03 2009-12-10 Superdimension Ltd. Feature-based registration method
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
KR101703095B1 (ko) 2010-06-17 2017-02-06 워싱톤 유니버시티 정렬된 섬유를 포함하는 생의학용 패치
CA3066269C (en) 2012-09-21 2022-03-29 Washington University Multilayered biomedical structures configured to separate after a predetermined time or upon exposure to an environmental condition
EP3164074B1 (en) 2014-07-02 2024-04-17 Covidien LP Alignment ct
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
JP7118890B2 (ja) 2016-02-12 2022-08-16 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法
US10632228B2 (en) 2016-05-12 2020-04-28 Acera Surgical, Inc. Tissue substitute materials and methods for tissue repair
US11793579B2 (en) 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
US11369440B2 (en) * 2017-04-17 2022-06-28 The John Hopkins University Tactile augmented reality for medical interventions
JP7257331B2 (ja) * 2017-05-09 2023-04-13 ボストン サイエンティフィック サイムド,インコーポレイテッド 手術室デバイス、方法、及びシステム
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
WO2019075074A1 (en) 2017-10-10 2019-04-18 Covidien Lp SYSTEM AND METHOD FOR IDENTIFICATION AND MARKING OF A TARGET IN A THREE-DIMENSIONAL FLUOROSCOPIC RECONSTRUCTION
US10893842B2 (en) 2018-02-08 2021-01-19 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US11464576B2 (en) 2018-02-09 2022-10-11 Covidien Lp System and method for displaying an alignment CT
CN111989022A (zh) 2018-06-19 2020-11-24 直观外科手术操作公司 用于将柔性细长装置保持在姿势中的系统和方法
US11678788B2 (en) 2018-07-25 2023-06-20 Intuitive Surgical Operations, Inc. Systems and methods for use of a variable stiffness flexible elongate device
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US10898276B2 (en) 2018-08-07 2021-01-26 Auris Health, Inc. Combining strain-based shape sensing with catheter control
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
US10973579B2 (en) 2018-12-28 2021-04-13 Industrial Technology Research Institute Optical system
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11925333B2 (en) * 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
DE102019203192A1 (de) * 2019-03-08 2020-09-10 Siemens Healthcare Gmbh Erzeugung eines digitalen Zwillings für medizinische Untersuchungen
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
US11334998B2 (en) * 2019-04-22 2022-05-17 Canon Medical Systems Corporation Medical image processing apparatus, X-ray diagnostic apparatus, and computer-implemented method
US12089902B2 (en) 2019-07-30 2024-09-17 Coviden Lp Cone beam and 3D fluoroscope lung navigation
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
US12059281B2 (en) 2019-08-19 2024-08-13 Covidien Lp Systems and methods of fluoro-CT imaging for initial registration
US11931111B2 (en) 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
US11864935B2 (en) 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
DE102019215001B4 (de) * 2019-09-30 2022-11-03 Siemens Healthcare Gmbh Verfahren zur Bildunterstützung bei der Navigation und System
US12102298B2 (en) 2019-12-10 2024-10-01 Covidien Lp Lymphatic system tracking
EP3838159A1 (en) * 2019-12-17 2021-06-23 Koninklijke Philips N.V. Navigating bronchial pathways
US11847730B2 (en) 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
KR102307919B1 (ko) * 2020-04-22 2021-10-05 한국과학기술연구원 단방향 x선 영상을 이용한 굽힘 가능한 중재의료 기구의 포즈 추정 방법
US12064191B2 (en) 2020-06-03 2024-08-20 Covidien Lp Surgical tool navigation using sensor fusion
CN113926050A (zh) * 2020-06-29 2022-01-14 巴德阿克塞斯系统股份有限公司 用于光纤的自动尺寸参考系
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
EP3944809A1 (en) * 2020-07-28 2022-02-02 Koninklijke Philips N.V. Arrangement and method for determining the position of an invasive device
US11980426B2 (en) 2020-08-03 2024-05-14 Warsaw Orthopedic, Inc. System and method for preliminary registration
US20220133228A1 (en) * 2020-11-03 2022-05-05 Biosense Webster (Israel) Ltd. Identification and visualization of non-navigated objects in medical images
EP4266996A1 (en) * 2020-12-24 2023-11-01 Katholieke Universiteit Leuven KU Leuven Research & Development Method for shape sensing an optical fiber
CN116829089A (zh) * 2020-12-30 2023-09-29 直观外科手术操作公司 用于基于术中成像更新图形用户界面的系统
US11950951B2 (en) 2021-01-29 2024-04-09 Covidien Lp Systems and methods for C-arm fluoroscope camera pose refinement with secondary movement compensation
WO2022240790A1 (en) 2021-05-11 2022-11-17 Intuitive Surgical Operations, Inc. Medical instrument guidance systems and associated methods
US20230068745A1 (en) * 2021-09-02 2023-03-02 Covidien Lp Real-time registration using near infrared fluorescence imaging
CN113796960B (zh) * 2021-09-07 2023-11-21 上海联影医疗科技股份有限公司 导管导航装置、设备和存储介质
US20240324870A1 (en) 2021-10-08 2024-10-03 Intuitive Surgical Operations, Inc. Medical instrument guidance systems, including guidance systems for percutaneous nephrolithotomy procedures, and associated devices and methods
CN114387320B (zh) * 2022-03-25 2022-07-19 武汉楚精灵医疗科技有限公司 医学图像配准方法、装置、终端及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040097805A1 (en) * 2002-11-19 2004-05-20 Laurent Verard Navigation system for cardiac therapies
JP2006110351A (ja) * 2004-10-13 2006-04-27 General Electric Co <Ge> 心臓の解剖学的領域の3dモデルと追尾システムとを介入蛍光透視システムの投影画像を用いて位置合わせするための方法及び装置
JP2009519083A (ja) * 2005-12-15 2009-05-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 電気生理マッピングおよび治療の際の心臓形態可視化のシステムおよび方法
US20140276937A1 (en) * 2013-03-15 2014-09-18 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
JP2017523836A (ja) * 2014-07-28 2017-08-24 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 手術中のセグメンテーションについてのシステム及び方法

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2567149B1 (fr) 1984-07-06 1986-12-05 Solvay Procede pour l'extraction de poly-beta-hydroxybutyrates au moyen d'un solvant a partir d'une suspension aqueuse de micro-organismes
US5792135A (en) 1996-05-20 1998-08-11 Intuitive Surgical, Inc. Articulated surgical instrument for performing minimally invasive surgery with enhanced dexterity and sensitivity
WO1998036236A1 (en) 1997-02-13 1998-08-20 Super Dimension Ltd. Six-degree tracking system
GB9713018D0 (en) 1997-06-20 1997-08-27 Secr Defence Optical fibre bend sensor
DE60015320T2 (de) * 1999-04-22 2005-10-27 Medtronic Surgical Navigation Technologies, Louisville Vorrichtung und verfahren für bildgesteuerte chirurgie
US9833167B2 (en) * 1999-05-18 2017-12-05 Mediguide Ltd. Method and system for superimposing virtual anatomical landmarks on an image
US7599730B2 (en) 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
CN100559397C (zh) * 2004-01-21 2009-11-11 美国西门子医疗解决公司 手术中二维图像与手术前三维图像的仿射配准方法和系统
US7450743B2 (en) 2004-01-21 2008-11-11 Siemens Medical Solutions Usa, Inc. Method and system of affine registration of inter-operative two dimensional images and pre-operative three dimensional images
US20060013523A1 (en) 2004-07-16 2006-01-19 Luna Innovations Incorporated Fiber optic position and shape sensing device and method relating thereto
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
EP1937176B1 (en) 2005-10-20 2019-04-17 Intuitive Surgical Operations, Inc. Auxiliary image display and manipulation on a computer display in a medical robotic system
US8010181B2 (en) * 2006-02-16 2011-08-30 Catholic Healthcare West System utilizing radio frequency signals for tracking and improving navigation of slender instruments during insertion in the body
US9968256B2 (en) * 2007-03-08 2018-05-15 Sync-Rx Ltd. Automatic identification of a tool
JP5639764B2 (ja) * 2007-03-08 2014-12-10 シンク−アールエックス,リミティド 運動する器官と共に使用するイメージング及びツール
CA2683717C (en) * 2007-04-19 2016-10-11 Mako Surgical Corp. Implant planning using captured joint motion information
US8831303B2 (en) * 2007-10-01 2014-09-09 Koninklijke Philips N.V. Detection and tracking of interventional tools
US8384718B2 (en) 2008-01-10 2013-02-26 Sony Corporation System and method for navigating a 3D graphical user interface
US20090192385A1 (en) * 2008-01-25 2009-07-30 Oliver Meissner Method and system for virtual roadmap imaging
US9259274B2 (en) 2008-09-30 2016-02-16 Intuitive Surgical Operations, Inc. Passive preload and capstan drive for surgical instruments
US9554868B2 (en) * 2009-08-07 2017-01-31 DePuy Synthes Products, Inc. Method and apparatus for reducing malalignment of fractured bone fragments
US8494613B2 (en) * 2009-08-31 2013-07-23 Medtronic, Inc. Combination localization system
EP2493411A4 (en) * 2009-10-28 2015-04-29 Imris Inc AUTOMATIC REGISTRATION OF PICTURES FOR IMAGE-CONTROLLED SURGERY
EP2512360B1 (en) * 2009-12-14 2022-08-24 Smith&Nephew, Inc. Visualization guided acl localization system
EP2523621B1 (en) * 2010-01-13 2016-09-28 Koninklijke Philips N.V. Image integration based registration and navigation for endoscopic surgery
US9285246B2 (en) 2010-02-12 2016-03-15 Intuitive Surgical Operations, Inc. Method and system for absolute three-dimensional measurements using a twist-insensitive shape sensor
BR112013009962A2 (pt) * 2010-10-27 2021-05-25 Koninklijke Philips Electronics N.V. sistema,estação de trabalho e método.
CN103379861B (zh) * 2011-02-07 2016-08-10 皇家飞利浦有限公司 用于在血管介入程序中提供支持介入设备的准确定位的图像表示的医学成像设备
US8900131B2 (en) 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
CN103648394B (zh) * 2011-06-27 2016-11-16 皇家飞利浦有限公司 使用外科工具曲线与x-射线图像的配准的实时3d血管造影
US8849388B2 (en) 2011-09-08 2014-09-30 Apn Health, Llc R-wave detection method
US9918681B2 (en) * 2011-09-16 2018-03-20 Auris Surgical Robotics, Inc. System and method for virtually tracking a surgical tool on a movable display
US9452276B2 (en) 2011-10-14 2016-09-27 Intuitive Surgical Operations, Inc. Catheter with removable vision probe
CN104349715B (zh) * 2012-06-08 2018-02-16 皇家飞利浦有限公司 用于对生理特征的参考的分布式感测设备
US10799298B2 (en) * 2012-06-21 2020-10-13 Globus Medical Inc. Robotic fluoroscopic navigation
US10441236B2 (en) 2012-10-19 2019-10-15 Biosense Webster (Israel) Ltd. Integration between 3D maps and fluoroscopic images
US10588597B2 (en) 2012-12-31 2020-03-17 Intuitive Surgical Operations, Inc. Systems and methods for interventional procedure planning
US9629595B2 (en) * 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US9165362B2 (en) * 2013-05-07 2015-10-20 The Johns Hopkins University 3D-2D image registration for medical imaging
US9592095B2 (en) 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
US10779775B2 (en) * 2013-06-26 2020-09-22 Corindus, Inc. X-ray marker guided automated guide wire or working catheter advancement
US11304621B2 (en) 2013-07-09 2022-04-19 Biosense Webster (Israel) Ltd. Radiation-free position calibration of a fluoroscope
JP6266284B2 (ja) * 2013-09-19 2018-01-24 東芝メディカルシステムズ株式会社 X線診断装置
CN106061424B (zh) * 2013-12-20 2019-04-30 皇家飞利浦有限公司 用于跟踪穿刺器械的系统和方法
WO2015101948A2 (en) * 2014-01-06 2015-07-09 Body Vision Medical Ltd. Surgical devices and methods of use thereof
US10433914B2 (en) * 2014-02-25 2019-10-08 JointPoint, Inc. Systems and methods for intra-operative image analysis
US10296707B2 (en) * 2014-04-10 2019-05-21 Siemens Healthcare Gmbh System and method for patient-specific image-based guidance of cardiac arrhythmia therapies
US9808230B2 (en) * 2014-06-06 2017-11-07 W. L. Gore & Associates, Inc. Sealing device and delivery system
US9633431B2 (en) * 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
CA2976391C (en) * 2015-02-26 2023-03-14 Sunnybrook Research Institute System and method for intraoperative characterization of brain function using input from a touch panel device
US10610181B2 (en) * 2015-02-27 2020-04-07 Siemens Healthcare Gmbh Robust calcification tracking in fluoroscopic imaging
US10980519B2 (en) * 2015-07-14 2021-04-20 Duke University Systems and methods for extracting prognostic image features
EP3795061A1 (en) 2015-08-14 2021-03-24 Intuitive Surgical Operations, Inc. Systems and methods of registration for image-guided surgery
EP3334325A4 (en) 2015-08-14 2019-05-01 Intuitive Surgical Operations Inc. SYSTEMS AND METHODS FOR RECORDING FOR IMAGE-GUIDED SURGERY
WO2017044874A1 (en) 2015-09-10 2017-03-16 Intuitive Surgical Operations, Inc. Systems and methods for using tracking in image-guided medical procedure
US10398509B2 (en) * 2015-09-18 2019-09-03 General Electric Company System and method for optimal catheter selection for individual patient anatomy
US10143526B2 (en) * 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
JP7118890B2 (ja) 2016-02-12 2022-08-16 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040097805A1 (en) * 2002-11-19 2004-05-20 Laurent Verard Navigation system for cardiac therapies
JP2006110351A (ja) * 2004-10-13 2006-04-27 General Electric Co <Ge> 心臓の解剖学的領域の3dモデルと追尾システムとを介入蛍光透視システムの投影画像を用いて位置合わせするための方法及び装置
JP2009519083A (ja) * 2005-12-15 2009-05-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 電気生理マッピングおよび治療の際の心臓形態可視化のシステムおよび方法
US20140276937A1 (en) * 2013-03-15 2014-09-18 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
JP2017523836A (ja) * 2014-07-28 2017-08-24 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 手術中のセグメンテーションについてのシステム及び方法

Also Published As

Publication number Publication date
EP4049612A1 (en) 2022-08-31
US20240281976A1 (en) 2024-08-22
JP2024096378A (ja) 2024-07-12
WO2017139621A1 (en) 2017-08-17
US11636597B2 (en) 2023-04-25
EP4349294A2 (en) 2024-04-10
CN113729977A (zh) 2021-12-03
JP2022140730A (ja) 2022-09-27
US10896506B2 (en) 2021-01-19
JP7503603B2 (ja) 2024-06-20
EP3413830A4 (en) 2019-09-04
JP7118890B2 (ja) 2022-08-16
EP4349294A3 (en) 2024-06-19
US20230215007A1 (en) 2023-07-06
CN108024838A (zh) 2018-05-11
CN108024838B (zh) 2021-10-01
EP3413830A1 (en) 2018-12-19
EP4049612B1 (en) 2024-04-10
KR20180104764A (ko) 2018-09-21
US20210073989A1 (en) 2021-03-11
US20200242767A1 (en) 2020-07-30
EP3413830B1 (en) 2022-06-15
US20240289958A1 (en) 2024-08-29

Similar Documents

Publication Publication Date Title
JP7503603B2 (ja) 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法
US20240041531A1 (en) Systems and methods for registering elongate devices to three-dimensional images in image-guided procedures
US20220346886A1 (en) Systems and methods of pose estimation and calibration of perspective imaging system in image guided surgery
US11382695B2 (en) Systems and methods for intelligently seeding registration
US20210100627A1 (en) Systems and methods related to elongate devices
KR20190105107A (ko) 화상 안내식 시술을 위한 정치 시스템 및 방법
JP2018515253A (ja) 画像誘導手術のための位置合わせのシステム及び方法
US11514591B2 (en) Systems and methods related to registration for image guided surgery
US20220142714A1 (en) Systems for enhanced registration of patient anatomy

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180827

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220803

R150 Certificate of patent or registration of utility model

Ref document number: 7118890

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150