JP6828047B2 - 画像誘導手術における透視撮像システムの姿勢推定及び較正のシステム及び方法 - Google Patents

画像誘導手術における透視撮像システムの姿勢推定及び較正のシステム及び方法 Download PDF

Info

Publication number
JP6828047B2
JP6828047B2 JP2018542274A JP2018542274A JP6828047B2 JP 6828047 B2 JP6828047 B2 JP 6828047B2 JP 2018542274 A JP2018542274 A JP 2018542274A JP 2018542274 A JP2018542274 A JP 2018542274A JP 6828047 B2 JP6828047 B2 JP 6828047B2
Authority
JP
Japan
Prior art keywords
reference marker
image
surgical
fluoroscopic
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018542274A
Other languages
English (en)
Other versions
JP2019504714A (ja
Inventor
ディー. ソーパー,ティモシー
ディー. ソーパー,ティモシー
バルバグリ,フェデリコ
キュー. ドンホウィ,ケイトリン
キュー. ドンホウィ,ケイトリン
ドゥインダム,ヴィンセント
ディー. パリス,マイケル
ディー. パリス,マイケル
ワグナー,オリバー
ザオ,タオ
Original Assignee
インテュイティブ サージカル オペレーションズ, インコーポレイテッド
インテュイティブ サージカル オペレーションズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテュイティブ サージカル オペレーションズ, インコーポレイテッド, インテュイティブ サージカル オペレーションズ, インコーポレイテッド filed Critical インテュイティブ サージカル オペレーションズ, インコーポレイテッド
Publication of JP2019504714A publication Critical patent/JP2019504714A/ja
Application granted granted Critical
Publication of JP6828047B2 publication Critical patent/JP6828047B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/025Tomosynthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating thereof
    • A61B6/582Calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00725Calibration or performance testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • A61B2034/207Divots for calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • A61B2090/3735Optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Endoscopes (AREA)

Description

関連出願
本特許出願は、2016年2月12日に出願された、”SYSTEMS AND METHODS OF POSE ESTIMATION AND CALIBRATION OF
PERSPECTIVE IMAGING SYSTEM IN IMAGE GUIDED SURGERY”という表題の米国仮特許出願第62/294,845号、及び2016年2月12日に出願された、”SYSTEMS AND METHODS OF POSE ESTIMATION AND CALIBRATION OF
PERSPECTIVE IMAGING SYSTEM IN IMAGE GUIDED SURGERY”という表題の米国仮特許出願第62/294,857号の優先権及び出願日の利益を主張するものであり、これら両文献は、その全体が参照により本明細書に組み込まれる。
本開示は、画像誘導処置を実施するためのシステム及び方法を対象にしており、より具体的には、透視撮像システムの姿勢推定、較正、及び画像誘導処置中のツールナビゲーションの精度を向上させるようなリアルタイム・トモシンセシスのためのシステム及び方法を対象にする。
低侵襲性医療技術は、医療処置中に損傷を受ける組織の量を減らし、それにより患者の回復時間、不快感、及び有害な副作用を低減させることを意図している。そのような低侵襲性技術は、患者の解剖学的構造の自然オリフィスを介して、或いは1つ又は複数の外科的切開部を介して行うことができる。これらの自然オリフィス又は切開部を介して、臨床医は、(手術用、診断用、治療用、又は生検用器具を含む)低侵襲性医療器具を挿入して標的組織位置に到達させることができる。標的組織位置に到達させるのを支援するために、医療器具の位置及び動きを、患者の解剖学的構造の手術前又は手術中の画像と位置合わせすることができる。画像に位置合わせされた画像誘導器具を用いて、器具は、肺、結腸、腸、腎臓、心臓、循環器系等の解剖学系の自然又は外科的に形成された通路をナビゲートされ得る。いくつかの画像誘導器具は、細長い可撓性器具の形状及びこの器具の先端部の姿勢に関する情報を提供する光ファイバ形状センサを含むことができる。いくつかの実施形態では、透視撮像システムが手術中に使用され、処置中に標的及び/又は器具の位置を特定するのを支援する。撮像データによって医療器具の位置を正確に特定するのを支援するために、撮像システムを手術環境の座標系に正確に位置合わせしなければならない。手術環境に対する撮像システムの姿勢推定及び較正に関連するエラーを最小化するためのシステム及び方法が、医療器具を手術環境内でより確実に位置特定し且つナビゲートするために、必要とされる。
本発明の実施形態は、詳細な説明に続く特許請求の範囲によって要約される。
一実施形態では、コンピュータシステムによって実行される方法は、第1組のパラメータを有する蛍光透視撮像装置から、手術座標空間内の第1の基準マーカの第1の蛍光透視画像データを受信するステップを含む。この方法は、手術座標空間内の第1の基準マーカの構成を受信するステップも含む。この方法は、第1の蛍光透視画像データ及び第1の基準マーカの構成に基づいて、手術座標空間内の蛍光透視撮像装置の第2組のパラメータを決定するステップを含む。一態様では、第2組のパラメータを決定するステップは、第1の蛍光透視画像データ及び第1の基準マーカの構成から手術座標空間における基準マーカの較正モデルを作成するステップを含む。
別の実施形態では、コンピュータ支援医療システムは、1つ又は複数のプロセッサと、手術座標空間内に既知の構成で位置付けされた第1の基準マーカとを有する。基準マーカは形状センサを含む。1つ又は複数のプロセッサは、蛍光透視撮像装置から、手術座標空間内に既知の構成で位置付けされた第1の基準マーカの第1の蛍光透視画像データを受信することと、形状センサから形状情報を受信することと、を含む段階を実行する。この段階はまた、形状情報から手術座標空間内の第1の基準マーカの既知の構成を決定することと、第1の蛍光透視画像データから手術座標空間内の基準マーカの較正モデルを決定することとを含む。この段階は、第1の蛍光透視画像データに基づいて、手術座標空間における蛍光透視撮像装置の姿勢を決定することをさらに含む。
別の実施形態では、コンピュータ支援医療システムは、手術座標空間の全走査範囲を有する蛍光透視撮像装置と、1つ又は複数のプロセッサとを含み、1つ又は複数のプロセッサは、段階を実行するよう構成される。一態様では、この段階は、蛍光透視撮像装置から患者の解剖学的構造の第1の蛍光透視画像データセットを受信することと、全走査範囲よりも実質的に小さい制限範囲で動作する蛍光透視撮像装置から患者の解剖学的構造の少なくとも1つの追加の蛍光透視画像データセットを受信することを含む。この段階はまた、第1の蛍光透視画像データセット及び少なくとも1つの追加の蛍光透視画像データセットから第1の平面断層画像を構築することも含む。
別の実施形態では、局所的な(localized)トモシンセシスの方法は、患者の解剖学的構造の第1の蛍光透視画像データセットを受信するステップを含み、第1の蛍光透視画像データセットは、蛍光透視撮像装置の全走査範囲から取得される。この方法はまた、全走査範囲よりも実質的に小さい制限範囲で動作する蛍光透視撮像装置から患者の解剖学的構造の少なくとも1つの追加の蛍光透視画像データセットを受信するステップも含む。この方法はまた、第1の蛍光透視画像データセット及び少なくとも1つの追加の蛍光透視画像データセットから第1の平面の断層画像を構築するステップも含む。一態様では、この方法はまた、第1の平面の断層画像に基づいて、全走査範囲よりも実質的に小さい第2の制限領域内で蛍光透視撮像装置を動作させるステップも含む。一態様では、この方法はまた、蛍光透視撮像装置が第2の制限領域内にある間に受信された蛍光透視画像データセットから第2の平面断層画像を構築するステップも含む。
別の実施形態では、局所的なトモシンセシスの方法は、蛍光透視撮像装置を制限範囲内の第1の位置に移動させるステップを含み、蛍光透視撮像装置は全走査範囲を有し、制限範囲は全走査範囲よりも実質的に小さい。この方法はまた、第1の位置から患者の解剖学的構造の第1の蛍光透視画像を取得するステップと、蛍光透視撮像装置を制限範囲内の複数の追加の位置に移動させるステップと、複数の追加の位置のそれぞれからの蛍光透視画像を取得するステップと、第1の蛍光透視画像及び複数の追加の位置のそれぞれから得られた蛍光透視画像から第1の平面断層撮影画像を構築するステップを含む。
前述した一般的な説明及び以下の詳細な説明は両方とも、本質的に例示的且つ説明的なものであり、本開示の範囲を限定することなく本開示の理解を与えることを意図していることを理解されたい。その点で、本開示の追加の態様、特徴、及び利点は、以下の詳細な説明から当業者に明らかになるであろう。
本開示の実施形態による遠隔操作医療システムの図である。 本開示の態様を利用する医療器具システムを示す図である。 本開示の実施形態による、延長された医療ツールを含む図2Aの医療器具システムの先端部を示す図である。 人の肺内に位置付けされた図2Aの医療器具システムの先端部を示す図である。 本開示の実施形態による、画像誘導外科的処置においてガイダンスを提供するために使用される方法を示すフローチャートである。 本開示の実施形態による挿入アセンブリに取り付けられた医療器具及び光追跡システムを含む患者座標空間の側面図である。 図5に示される患者座標空間の異なる側面図であり、本開示の実施形態による、患者及び外部追跡システムに対して第1の位置に位置する蛍光透視撮像システムのC字型アームを含む。 図6Aに示される患者座標空間の側面図であり、本開示の実施形態による、患者及び外部追跡システムに対して第2の位置に位置する透視撮像システムのC字型アームを含む。 本開示の様々な実施形態による例示的な基準マーカを示し、1組の特有のマーカ要素を含む例示的な基準マーカを示す。 格子状パターンを含む基準マーカを示す図である。 市松模様パターンを含む基準マーカを示す図である。 本開示の様々な実施形態によるいくつかの例示的な判別可能な基準マーカを示す図である。 本開示の様々な実施形態によるいくつかの例示的な判別可能な基準マーカを示す図である。 本開示の様々な実施形態によるいくつかの例示的な判別可能な基準マーカを示す図である。 本開示の様々な実施形態によるいくつかの例示的な判別可能な基準マーカを示す図である。 本開示の様々な実施形態によるいくつかの例示的な判別可能な基準マーカを示す図である。 本開示の実施形態による、不均一な直線状パターンで配置されたマーカ要素を有する基準マーカを示す図である。 本開示の実施形態による、不均一な直線状パターンで配置されたマーカ要素を有する基準マーカを示す図である。 クロス比及び射影不変性の原理を示す図である。 透視撮像装置が2つの異なる位置から静止した基準マーカを撮像する画像誘導外科的処置における射影不変性の原理を示す図である。 静止した透視撮像装置が2つの異なる位置に配置された基準マーカを撮像する画像誘導外科的処置における射影不変性の原理を示す図である。 本開示の一実施形態による画像誘導医療処置の一部のフローチャートを示す。 手術環境の面から見た患者の解剖学的構造及びトモシンセシスの構成を示す図である。 直交面から見た図14の患者の解剖学的構造及びトモシンセシスの構成を示す図である。 本開示の一実施形態による画像誘導医療処置のフローチャートを示す。
本開示の態様は、添付図面と併せて理解するときに以下の詳細な説明から最もよく理解される。業界の一般的な慣例に従って、様々な特徴を一定の縮尺で描いていないことを強調しておく。実際に、様々な特徴の寸法は、説明を明瞭にするために適宜増減され得る。さらに、本開示は、様々な例において参照符号及び/又は文字を繰り返し得る。この繰返しは、簡潔さ及び明瞭さを目的とするものであり、その繰返し自体が議論される様々な実施形態及び/又は構成の間の関係を規定するものではない。
本発明の態様の以下の詳細な説明では、開示される実施形態の完全な理解を与えるために、多数の特定の詳細が記載される。しかしながら、当業者には、本開示の実施形態がこれらの特定の詳細なしに実施し得ることは明らかであろう。他の例では、本発明の実施形態の態様を不必要に不明瞭にしないために、周知の方法、手順、構成要素、及び回路を詳細に説明していない。また、不必要な説明の繰り返しを避けるために、1つの例示的な実施形態に従って説明される1つ又は複数の構成要素又は動作は、他の例示的な実施形態から適用可能であるものとして、使用又は省略され得る。
以下の実施形態は、3次元空間内の状態の観点から、様々な器具及び器具の部分について説明する。本明細書で使用される場合に、用語「位置」は、3次元空間(例えば、デカルト座標X,Y,Zに沿った並進3自由度)における対象物又は対象物の一部の位置を指す。本明細書で使用される場合に、用語「向き」は、対象物又は対象物の一部の回転配置(例えば、ロール、ピッチ、及びヨーの回転3自由度)を指す。本明細書で使用される場合に、用語「姿勢」は、少なくとも1つの並進自由度における対象物又は対象物の一部の位置、及び少なくとも1つの回転自由度におけるその対象物又は対象物の一部の向き(合計6つの自由度まで)を指す。本明細書で使用される場合に、用語「形状」は、対象物に沿って測定された1組の姿勢、位置、又は向きを指す。
図面の図1を参照すると、例えば手術、診断、治療、又は生検処置で使用する遠隔操作医療システムが、全体的に遠隔操作医療システム100として示される。図1に示されるように、遠隔操作システム100は、一般に、患者Pに対して様々な処置を行う際に医療器具システム104を操作するための遠隔操作可能なマニピュレータセンブリ102を含む。遠隔操作可能なマニピュレータセンブリ102は、「遠隔操作可能なアセンブリ102」又は「マニピュレータアセンブリ102」とも呼ばれる。医療器具システム104は、「医療器具104」とも呼ばれる。このアセンブリ102は、手術台Oに又はその近くに取り付けられる。オペレータ入力システム106(「マスターアセンブリ106」とも呼ばれる)によって、臨床医又は外科医Sが、介入部位を確認し、マニピュレータアセンブリ102を制御することができる。
オペレータ入力システム106は、通常手術台Oと同じ部屋に位置する外科医コンソールに配置することができる。しかしながら、外科医Sは、患者Pとは異なる部屋に又は完全に異なる建物内に位置する可能性があることを理解されたい。オペレータ入力アセンブリ106は、一般に、マニピュレータアセンブリ102を制御するための1つ又は複数の制御装置を含む。制御装置は、ジョイスティック、トラックボール、データグローブ、トリガーガン、手動式制御装置、音声認識装置、身体モーションセンサ又は存在センサ等の多数の様々な入力装置を含むことができる。いくつかの実施形態では、制御装置には、関連する医療器具104と同じ自由度が与えられ、テレプレゼンス、すなわち制御装置が器具104と一体であるという知覚を外科医に与えるので、外科医は器具104を直接的に制御しているという強い感覚を有することになる。他の実施形態では、制御装置は、関連する医療器具104よりも多い又は少ない自由度を有してもよく、依然として外科医にテレプレゼンスを提供することができる。いくつかの実施形態では、制御装置は、6自由度で動く手動入力装置であり、(例えば、把持顎部を閉じる、電極に電位を印加する、又は薬物療法を送達する等のために)器具を作動させるための作動可能ハンドルも含むことができる。
遠隔操作可能なアセンブリ102は、医療器具システム104をサポートしており、1つ又は複数の非サーボ制御リンク(例えば、手動で位置付けされ、適所にロックされる1つ又は複数のリンク、一般にセットアップ構造と呼ばれる)及び遠隔操作可能なマニピュレータの運動学的構造を含むことができる。遠隔操作可能なアセンブリ102は、制御システム(例えば、制御システム112)からのコマンドに応答して、医療器具システム104上の入力部を駆動させる複数のアクチュエータ又はモータを含む。モータが駆動システムを含み、医療器具に結合されたときに、システム104が、医療器具を自然に又は外科的に形成された解剖学的オリフィス内に進めることができる。他の電動駆動システムは、医療器具の先端部を複数の自由度で動かすことができ、その複数の自由度は、3つの直線自由度(例えば、X,Y,Zデカルト軸に沿った直線運動)、及び3つの回転自由度(例えば、X,Y,Zデカルト軸の周りの回転)を含むことができる。さらに、モータを使用して、器具の関節運動可能なエンドエフェクタを作動させ、生検装置の顎部等で組織を把持することができる。レゾルバ(resolver)、エンコーダ、ポテンショメータ、及び他の機構等のモータの位置センサは、モータシャフトの回転及び向きを表すセンサデータを遠隔操作可能なアセンブリに提供することができる。この位置センサデータを使用して、モータによって操作される対象物の動きを決定することができる。
遠隔操作可能な医療システム100は、遠隔操作可能なアセンブリの器具に関する情報を受信するための1つ又は複数のサブシステムを含むセンサシステム108も有する。そのようなサブシステムは、位置/位置特定センサシステム(例えば、電磁(EM)センサシステム);器具システム104の可撓性本体に沿ったカテーテル・チップ及び/又は1つ又は複数のセグメントの位置、向き、速さ、速度、姿勢、及び/又は形状を決定するための形状センサシステム;及び/又はカテーテルシステムの先端部から画像を取り込むための視覚化システムを含むことができる。
視覚化システム(例えば、図2Aの視覚化システム231)は、手術部位の同時(concurrent)又はリアルタイムの画像を記録し、この画像を臨床医又は外科医Sに提供する視野スコープ(viewing scope)アセンブリを含むことができる。同時画像は、例えば、手術部位の外部に位置付けされた透視(perspective)撮像システムによって取り込まれた2次元又は3次元画像であってもよい。いくつかの実施形態では、透視撮像システムは、非限定的な例として、蛍光透視撮像装置、X線撮像装置、又は光学カメラ等の2次元画像を形成する撮像装置を含む。追加的に又は代替的に、同時画像は、例えば、手術部位内に位置付けされた内視鏡によって取り込まれた2次元又は3次元画像であってもよい。この実施形態では、視覚化システムは、医療器具104に一体的に又は取外し可能に結合され得る内視鏡要素を含む。しかしながら、代替実施形態では、別個のマニピュレータアセンブリに取り付けられた別個の内視鏡を医療器具と一緒に用いて、手術部位を撮像することができる。視覚化システムは、1つ又は複数のコンピュータプロセッサと相互作用するか、又は他にそのプロセッサによって実行されるハードウェア、ファームウェア、ソフトウェア、又はこれらの組合せとして実装してもよく、視覚化システムは、制御システム112(後述)のプロセッサを含むことができる。制御システム112のプロセッサは、本明細書に開示されるプロセスに対応する命令を含む命令を実行することができる。
遠隔操作可能な医療システム100は、センサシステム108のサブシステムによって生成された手術部位及び医療器具システム(複数可)104の画像又は表現を表示するための表示システム110も含む。表示システム110及びオペレータ入力システム106は、オペレータがテレプレゼンスの知覚によって医療器具システム104及びオペレータ入力システム106を制御できるように向き合わせしてもよい。
表示システム110は、視覚化システムによって取り込まれた手術部位及び医療器具の画像を表示することもできる。表示システム110及び制御装置は、内視鏡アセンブリ内の撮像装置と医療器具との相対位置が外科医の目や手の相対位置と同様となるように向き合せされ、それによってオペレータが、あたかも実質的に真の存在下で作業空間を見ているかのように医療器具104及びハンド・コントロールを操作することができる。真の存在とは、提示される画像が、器具104を物理的に操作しているオペレータの視点をシミュレートしている真の視点画像であることを意味する。
代替的に又は追加的に、表示システム110は、コンピュータ断層撮影(CT)、磁気共鳴画像法(MRI)、蛍光透視法、サーモグラフィ、超音波、光コヒーレンストモグラフィ(OCT)、熱イメージング、インピーダンスイメージング、レーザーイメージング、又はナノチューブX線イメージング等の撮像技術からの画像データを用いて手術前に又は手術中に記録された手術部位の画像を提示することができる。手術前又は手術中の画像データは、2次元、3次元、又は4次元画像(例えば、時間ベース又は速度ベースの情報を含む)、或いは手術前又は手術中の画像データセットから形成されたモデルからの画像として提示することができる。
いくつかの実施形態では、大抵の場合に画像誘導外科的処置の目的のために、表示システム110は、医療器具104の実際の位置が手術前又は同時画像/モデルに位置合わせ(すなわち、動的に参照)され、器具104のチップ位置の視点からの内部手術部位の仮想画像を臨床医又は外科医Sに提示する仮想ナビゲーション画像を表示することができる。外科医が医療器具を制御するのを支援するために、器具104のチップの画像或いは他のグラフィカルインジケータ又は英数字インジケータを仮想画像に重ね合わせてもよい。あるいはまた、器具104は、仮想画像内で見えないことがある。
他の実施形態では、表示システム110は、医療器具の実際の位置が手術前画像又は同時画像に位置合わせされ、外部視点からの手術部位内の医療器具の仮想画像を臨床医又は外科医Sに提示する仮想ナビゲーション画像を表示することができる。外科医が器具104を制御するのを支援するために、医療器具の一部の画像或いは他のグラフィカルインジケータ又は英数字インジケータを仮想画像に重ね合わせてもよい。
遠隔操作可能な医療システム100は、制御システム112も含む。制御システム20は、少なくとも1つのメモリ及び少なくとも1つのプロセッサ(図示せず)を含み、典型的には医療器具システム104と、オペレータ入力システム106と、センサシステム108と、表示システム110との間で制御を行うための複数のプロセッサを含む。制御システム112は、本明細書に開示される態様に従って説明される方法の一部又は全てを実施するようにプログラムされた命令(例えば、命令を記憶するコンピュータ可読媒体)も含み、この命令には、病理学的情報を表示システム110に提供する命令も含む。制御システム112が、図1の簡略図に単一のブロックとして示されているが、このシステムは、オプションで、処理の一部が遠隔操作可能なアセンブリ102で又はこのアセンブリ102に隣接して実行され、処理の別の部分がオペレータ入力システム106等で実行される2つ以上のデータ処理回路を含むこともできる。多種多様の集中型又は分散型データ処理アーキテクチャを使用してもよい。同様に、プログラムされた命令は、多数の別個のプログラムやサブルーチンとして実装してもよく、又はそれら命令は、本明細書に記載される遠隔操作可能なシステムの多数の他の態様に組み込んでもよい。一実施形態では、制御システム112は、ブルートゥース(登録商標)、IrDA、ホームRF、IEEE802.11、DECT、及び無線テレメトリ等の無線通信プロトコルをサポートする。
いくつかの実施形態では、制御システム112は、医療器具システム104から力及び/又はトルクフィードバックを受け取る1つ又は複数のサーボコントローラを含むことができる。フィードバックに応答して、サーボコントローラは、オペレータ入力システム16に信号を送信する。サーボコントローラ(複数可)は、遠隔操作可能なアセンブリ102に命令する信号を送信して、医療器具システム(複数可)104を移動させ、このシステム104を、患者の身体の開口部を介してこの身体の内部手術部位に延ばすこともできる。任意の適切な従来の又は専用のサーボコントローラを使用してもよい。サーボコントローラは、遠隔操作可能なアセンブリ102とは別にしてもよく、又は一体化してもよい。いくつかの実施形態では、サーボコントローラ及び遠隔操作可能なアセンブリは、患者の身体に隣接して位置付けされた遠隔操作可能なアームカートの一部として提供される。
制御システム112は、画像誘導外科的処置で使用される場合に、医療器具システム(複数可)104にナビゲーション支援を提供する仮想視覚化システムをさらに含むことができる。仮想視覚化システムを使用する仮想ナビゲーションは、解剖学的通路の手術前又は手術中に取得したデータセットを参照することに基づく。より具体的には、仮想視覚化システムは、コンピュータ断層撮影(CT)、磁気共鳴画像法(MRI)、蛍光透視法、サーモグラフィ、超音波、光コヒーレンストモグラフィ(OCT)、熱イメージング、インピーダンスイメージング、レーザーイメージング、ナノチューブX線イメージング等の撮像技術を使用して撮像された手術部位の画像を処理する。ソフトウェアのみ又は手動入力と組み合わされたソフトウェアが、記録された画像を、部分的又は全体的な解剖学的臓器又は解剖学的領域のセグメント化された2次元又は3次元の合成表現に変換するために使用される。画像データセットは、この合成表現に関連付けられる。合成表現及び画像データセットは、通路の様々な位置及び形状、並びにそれらの接続性を表す。合成表現を生成するために使用される画像は、臨床診断中に、手術前に又は手術中に記録してもよい。代替実施形態では、仮想視覚化システムは、標準的な表現(すなわち、患者固有ではない)、又は標準的な表現及び患者固有データのハイブリッドを使用してもよい。合成表現及び合成表現によって生成された任意の仮想画像は、1つ又は複数の動作段階中(例えば、肺の吸気/呼気サイクル中)の変形可能な解剖学的領域の静的姿勢を表すことができる。
仮想ナビゲーション処置の間に、センサシステム108を使用して、患者の解剖学的構造に対する器具のおおよその位置を計算することができる。この位置を使用して、患者の解剖学的構造のマクロレベル(外部)の追跡画像と、患者の解剖学的構造の仮想的な内部画像との両方を生成することができる。仮想視覚化システムからの画像等の手術前に記録された外科的画像と一緒に医療器具を位置合わせして表示するために、電磁(EM)センサ、光ファイバセンサ、又は他のセンサを使用する様々なシステムが知られている。例えば、米国特許出願第13/107,562号(2011年5月13日出願)(”Medical System Providing Dynamic Registration of a Model of an
Anatomical Structure for Image-Guided Surgery”を開示する)は、そのようなシステムの1つを開示しており、この文献は、その全体が参照により本明細書に組み込まれる。
遠隔操作可能な医療システム100は、照明システム、操縦制御システム、洗浄システム、及び/又は吸引システム等のオプションのオペレーション及びサポートシステム(図示せず)をさらに含むことができる。代替実施形態では、遠隔操作可能なシステムは、複数の遠隔操作可能なアセンブリ及び/又は複数のオペレータ入力システムを含んでもよい。マニピュレータアセンブリの正確な数は、数ある要因の中でも、外科的処置及び手術室内の空間的制約に依存するだろう。オペレータ入力システムを併置してもよく、又はそれら入力システムを別々の位置に配置してもよい。複数のオペレータ入力システムによって、複数のオペレータが1つ又は複数のマニピュレータアセンブリを種々の組合せで制御することが可能になる。
図2Aは、医療器具システム200を示しており、このシステム200は、遠隔操作可能な医療システム100を用いて行われる画像誘導医療処置において医療器具システム104として使用され得る。あるいはまた、医療器具システム200は、非遠隔操作の診査的処置、又は内視鏡等の従来の手動操作の医療器具を伴う処置で使用することができる。追加的に又は代替的に、医療器具システム200は、患者の解剖学的通路の位置に対応する1組のデータポイントを収集(すなわち、測定)するために使用してもよい。
器具システム200は、器具ハウジング204に結合されるカテーテルシステム202を含む。カテーテルシステム202は、基端部217及び先端部218(チップ部分218とも呼ばれる)を有する細長い可撓性カテーテル本体216を含む。一実施形態では、可撓性本体216は、約3mmの外径を有する。他の可撓性本体の外径は、これよりも大きくても小さくてもよい。カテーテルシステム202は、必要に応じて、先端部218におけるカテーテル・チップの及び/又は本体216に沿った1つ又は複数のセグメント224の、位置、向き、速さ、速度、姿勢、及び/又は形状を決定するための形状センサシステム222(形状センサ222とも呼ばれる)を含むことができる。先端部218と基端部217との間の本体216の全長を、複数のセグメント224に効果的に分割してもよい。器具システム200が遠隔操作可能な医療システム100の医療器具システム104である場合に、形状センサ222は、センサシステム108の構成要素であってもよい。器具システム200が手動操作される又は他に非遠隔操作処置で使用される場合に、形状センサ222を追跡システム230に結合し、追跡システム230によって、この形状センサに問い合わせし、受信した形状データを処理することができる。
形状センサ222は、可撓性カテーテル本体216と整列した(例えば、内部チャネル(図示せず)内に設けられ又は外付けされた)光ファイバを含んでもよい。一実施形態では、光ファイバは、約200μmの直径を有する。他の実施形態では、この寸法は、それよりも大きくても小さくてもよい。形状センサシステム222の光ファイバは、カテーテルシステム202の形状を決定するための光ファイバの曲げセンサを形成する。1つの代替実施形態では、ファイバブラッグ回折格子(FBGs)を含む光ファイバが、1つ又は複数の次元における構造内の歪み測定を提供するために使用される。光ファイバの形状及び相対位置を3次元で監視するための様々なシステム及び方法が、米国特許出願第11/180,389号(2005年7月13日出願)(”Fiber optic position and shape sensing device and method relating
thereto”を開示する)、米国特許出願第12/047,056号(2004年7月16日出願)(”Fiber-optic
shape and relative position sensing”を開示する)、及び米国特許第6,389,187号(1998年6月17日出願)(”Optical Fibre Bend Sensor”を開示する)に記載されており、これらの文献は、それら全体が参照により本明細書に組み込まれる。代替実施形態では、レイリー散乱、ラマン散乱、ブリルアン散乱、及び蛍光散乱等の他の歪み感知技術を用いるセンサが適している。他の代替実施形態では、他の技術を用いて、カテーテルの形状を決定してもよい。例えば、カテーテルの先端チップの姿勢の履歴を用いて、その時間間隔に亘った装置の形状を再構築することができる。別の例として、過去の姿勢、位置、又は向きデータは、呼吸等の交互に行われる動作サイクルに従った器具システムの既知の点として保存することができる。この保存データを使用して、カテーテルに関する形状情報を求めることができる。あるいはまた、カテーテルに沿って位置付けされた電磁(EM)センサ等の一連の位置センサを、形状感知のために使用することができる。あるいはまた、処置中に器具システム上のEMセンサ等の位置センサからの履歴データを使用して、特に解剖学的通路が略静止している場合には、器具の形状を表すことができる。あるいはまた、外部磁場により制御される位置又は向きを含む無線装置を、形状感知のために使用することができる。無線装置の位置の履歴を使用して、ナビゲートする通路の形状を決定することができる。
医療器具システムは、必要に応じて、位置センサシステム220を含んでもよい。位置センサシステム220は、電磁(EM)センサシステムの構成要素であってもよく、センサ220は、外部で発生した電磁場に曝される1つ又は複数の導電コイルを含む。そのような実施形態では、次に、位置センサシステム220を含むEMセンサシステム220の各コイルは、外部で発生した電磁場に対してコイルの位置及び向きに依存する特性を有する誘導電気信号を生成する。一実施形態では、EMセンサシステムは、6つの自由度、例えば3つの位置座標X,Y,Z及び基点のピッチ、ヨー、及びロールを示す3つの方位角、或いは5つの自由度、例えば3つの位置座標X,Y,Z及び基点のピッチ及びヨーを示す2つの方位角を測定するように構成され且つ位置付けすることができる。EMセンサシステムについての更なる説明は、米国特許第6,380,732号(1999年8月11日出願)(”Six-Degree of Freedom Tracking System Having a Passive Transponder
on the Object Being Tracked”を開示する)に提供されており、この文献は、その全体が参照により本明細書に組み込まれる。いくつかの実施形態では、(患者の固定座標系における)形状センサのベースの位置に関する情報を一緒に含むセンサの形状によって、先端チップを含む形状センサ沿った様々な点の位置を計算できるので、形状センサは、位置センサとして機能することもできる。
追跡システム230は、位置センサシステム220及び形状センサシステム222を含み、先端部218の及び器具システム200に沿った1つ又は複数のセグメント224の位置、向き、速さ、姿勢、及び/又は形状を決定することができる。追跡システム230は、制御システム116のプロセッサを含み得る1つ又は複数のコンピュータプロセッサと対話するか、又は他にそれらコンピュータプロセッサによって実行されるハードウェア、ファームウェア、ソフトウェア、又はこれらの組合せとして実装してもよい。
可撓性カテーテル本体216は、医療器具226を受容するようにサイズ決め及び成形されたチャネル221を含む。医療器具は、例えば、画像取込みプローブ、生検器具、レーザーアブレーション用ファイバ、或いは他の手術用、診断用、又は治療用ツールを含んでもよい。医療ツールは、メス、ブラント(blunt)ブレード、光ファイバ、又は電極等の単一の作動部材を有するエンドエフェクタを含んでもよい。他のエンドエフェクタは、例えば、鉗子、把持器、はさみ、又はクリップアプライアを含み得る。電気的に起動されるエンドエフェクタの例には、電気外科電極、トランスデューサ、センサ等が含まれる。様々な実施形態では、医療ツール226は、画像取込みプローブであり、このプローブは、表示するために視覚化システム231によって処理される画像(ビデオ画像を含む)を取り込むために、可撓性カテーテル本体216の先端部218に又はこの近くに立体視カメラ又はモノスコープカメラを含む先端部分を含む。画像取込みプローブは、取り込んだ画像データを送信するためにカメラに結合されたケーブルを含んでもよい。あるいはまた、画像取込み器具は、視覚化システムに結合するファイバスコープ等の光ファイバ束であってもよい。画像取込み器具は、単一スペクトル又はマルチスペクトルであってもよく、例えば1つ又は複数の可視スペクトル、赤外スペクトル、又は紫外スペクトルで画像データを取り込む。
医療器具226は、器具の基端部と先端部との間に延びるケーブル、リンク機構、又は他の作動制御装置(図示せず)を収容し、器具の先端部を制御可能に曲げることができる。操縦可能な器具は、米国特許第7,316,681号(2005年10月4日出願)(”Articulated Surgical Instrument for Performing Minimally Invasive
Surgery with Enhanced Dexterity and Sensitivity”を開示する)、及び米国特許出願第12/286,644号(2008年9月30日出願)(”Passive Preload and Capstan Drive for Surgical Instruments”を開示する)に詳細に記載されており、これらの文献は、それら全体が参照により本明細書に組み込まれる。
可撓性カテーテル本体216は、ハウジング204と先端部218との間に延びるケーブル、リンク機構、又は他の操縦制御装置(図示せず)も収容し、例えば先端部の破線表現219によって示されるように、先端部218を制御可能に曲げることができる。操縦可能なカテーテルは、米国特許出願第13/274,208号(2011年10月14日出願)(”Catheter with Removable Vision Probe”を開示する)に詳細に記載されており、この文献は、その全体が参照により本明細書に組み込まれる。器具システム200が遠隔操作可能なアセンブリによって作動される実施形態では、ハウジング204は、遠隔操作可能なアセンブリの電動駆動要素に取外し可能に結合され、且つ電動駆動要素から電力を受け取る駆動入力部を含むことができる。器具システム200が手動で操作される実施形態では、ハウジング204は、器具システムの動きを手動で制御するための把持機構、手動アクチュエータ、又は他の構成要素を含んでもよい。カテーテルシステムは、操縦可能であってもよく、あるいはまた、このシステムは、器具の曲げについてオペレータ制御の統合された機構の無い非操縦タイプ(non-steerable)であってもよい。追加的に又は代替的に、1つ又は複数の管腔が、可撓性本体216の壁内に規定され、その管腔を通って、医療器具が標的手術位置で展開され使用される。
様々な実施形態では、医療器具システム200は、肺の検査、診断、生検、又は治療に使用するための、気管支鏡又は気管支カテーテル等の可撓性気管支用器具を含んでもよい。システム200は、結腸、腸、腎臓、脳、心臓、循環系等を含む様々な解剖学系のいずれかにおいて、自然に又は外科的に形成された接続通路を介した他の組織のナビゲーション及び治療にも適している。
追跡システム230からの情報は、ナビゲーションシステム232に送られ、このシステム232では、その情報は視覚化システム231からの情報及び/又は手術前に取得されたモデルと組み合わされて、器具システム200の制御に使用するために、外科医又は他のオペレータにリアルタイム位置情報を表示システム110上に提供することができる。制御システム116は、この位置情報を、器具システム200を位置付けするためのフィードバックとして利用することができる。光ファイバセンサを使用して手術用器具と手術画像とを位置合わせして表示する様々なシステムが、米国特許出願第13/107,562号(2011年5月13日出願)(”Medical System Providing Dynamic Registration of a Model of an
Anatomical Structure for Image-Guided Surgery”を開示する)に提供されており、この文献は、その全体が参照により本明細書に組み込まれる。
光ファイバ形状センサは、それら形状センサが、領域内の金属物体に敏感ではなく、又は閉塞性撮像機器を必要とすることなく、先端チップの姿勢を含む器具の全体形状に関するデータを提供するので、位置特定(localization)センサとして特に有用である。しかしながら、光ファイバ形状センサを使用するときに、光ファイバの基端部での小さな位置及び向きのエラーは、センサの長さ(例えば、約1メートル)によって、センサの先端部に大きな蓄積された位置及び向きエラーを生成する可能性がある。これらのエラーを低減するためのシステム及び方法が、以下で説明され、処置中に手術座標系及び解剖学的モデルに対する光ファイバ、結果として医療器具をさらに正確に位置合わせするために使用することができる。
図2Aの実施形態では、器具システム200は、遠隔操作可能な医療システム100内で遠隔操作される。代替実施形態では、遠隔操作可能なアセンブリ102を、直接的なオペレータ制御に置き換えてもよい。直接的な操作(オペレータ)の代替実施形態では、器具の手持ち式操作ために、様々なハンドル及びオペレータインターフェイスを含めることができる。
代替実施形態では、遠隔操作可能なシステムは、複数のスレーブマニピュレータアセンブリ及び/又は複数のマスターアセンブリを含むことができる。マニピュレータアセンブリの正確な数は、数ある要因の中でも、医療処置及び手術室内の空間的制約に依存するだろう。マスターアセンブリを併置してもよく、又はそれらアセンブリを別々の位置に配置してもよい。複数のマスターアセンブリにより、複数のオペレータが1つ又は複数のスレーブマニピュレータアセンブリを様々な組合せで制御することができる。
図2Bにより詳細に示されるように、手術、生検、焼灼、照明、洗浄、又は吸引等の処置のための医療ツール(複数可)228が、可撓性本体216のチャネル221を通して展開され、解剖学的構造内の標的位置で使用され得る。例えば、ツール228が生検器具である場合に、そのツールを用いて、解剖学的構造の標的位置からサンプル組織又は細胞のサンプルを取り出すことができる。医療ツール228は、可撓性本体216内の画像取込みプローブと共に使用してもよい。あるいはまた、ツール228自体が画像取込みプローブであってもよい。ツール228を、チャネル221の開口部から前進させて処置を行い、その後処置が完了すると、そのチャネル内に再び後退させることができる。医療ツール228は、カテーテル可撓性本体の基端部217から又は別のオプションの器具ポート(図示せず)からその可撓性本体に沿って取り出すことができる。
図3は、患者の解剖学的構造の解剖学的通路内に位置付けされたカテーテルシステム202を示す。この実施形態では、解剖学的通路は、人の肺201の気道である。代替実施形態では、カテーテルシステム202は、解剖学的構造の他の通路で使用してもよい。
図4は、画像誘導外科的処置で使用するための一般的な方法300を示すフローチャートである。プロセス302において、手術前又は手術中の画像データを含む以前の画像データが、コンピュータ断層撮影(CT)、磁気共鳴画像法(MRI)、サーモグラフィ、超音波、光コヒーレンストモグラフィ(OCT)、熱イメージング、インピーダンスイメージング、レーザーイメージング、又はナノチューブX線イメージング等の撮像技術によって取得される。手術前又は手術中の画像データは、2次元、3次元、又は4次元画像(例えば、時間ベース又は速度ベースの情報を含む)に対応し得る。例えば、画像データは、図3の人の肺201を表してもよい。
プロセス304において、コンピュータソフトウェアのみ又は手動入力と組み合わされたコンピュータソフトウェアが、記録された画像を、部分的又は全体的な解剖学的臓器又は解剖学的領域のセグメント化された2次元又は3次元の合成表現又はモデルに変換するために使用される。合成表現及び画像データセットは、通路の様々な位置及び形状、並びにそれらの接続性を表す。より具体的には、セグメント化プロセス中に、画像は、色、密度、強度、及び質感等の特定の特徴又は計算された特性を共有するセグメント又は要素(例えば、画素又はボクセル)に区分けされる。このセグメント化プロセスは、得られた画像に基づいて標的の解剖学的構造のモデルを形成する2次元又は3次元の再構成をもたらす。モデルを表すために、セグメント化プロセスは、標的の解剖学的構造を表す1組のボクセルを描画し、次に、マーチングキューブ関数等の関数を適用して、ボクセルを取り囲む3D表面を生成することができる。メッシュ、ボリューム、又はボクセルマップを生成することによって、モデルを作成することができる。追加的に又は代替的に、モデルは、モデル化された通路の中心を通って延びる相互接続された線分又は点の集合を含む中心線モデルを含んでもよい。モデルが相互接続された線分の集合を含む中心線モデルを含む場合に、それらの線分をクラウド(cloud)又は点の集合に変換することができる。線分を変換することにより、相互接続された線分に対応する所望の量の点を手動又は自動的で選択することができる。
プロセス306において、解剖学的モデルデータ、医療処置を行うために使用される医療器具(例えば、器具システム200)、及び患者の解剖学的構造は、患者に対する画像誘導外科的処置前に及び/又はその処置の過程中に共通の基準フレームに共に位置合わせされる。共通の基準フレームは、例えば、手術環境基準フレーム又は患者基準フレームであってもよい。プロセス306は、患者に対する医療器具の位置特定(localize)を含む。プロセス306は、解剖学的モデルを患者に対して位置合わせすることも含む。一般的に、位置合せは、剛体及び/又は非剛体変換の使用によって測定点とモデルの点とのマッチングを含む。測定点は、解剖学的構造内のランドマーク、処置中に走査され追跡される電磁コイル、又は形状センサシステムを使用して生成してもよい。測定点は、反復最近接点(ICP)法で使用するために生成してもよい。ICP及び他の位置合せ技術は、両方とも2015年8月14日に出願された米国仮特許出願第62/205,440号及び米国仮特許出願第62/205,433号に記載されており、これらの文献は、それらの全体が参照により本明細書に組み込まれる。プロセス308において、解剖学的モデルデータを使用して医療処置を行い、医療器具の動きを誘導することができる。
例えばCTを使用して取得された及び画像誘導外科的処置で使用される以前の画像データは、大抵の場合、多くの処置に適した細かい解剖学的詳細を提供する。しかしながら、以前の画像データは、位置合せエラーの影響を受け、且つ周期的又は非周期的な解剖学的運動に起因する変形、医療器具の存在及び医療器具による組織変形、以前の画像データを取得してから発生し得る患者の解剖学的構造に対する他の変化を含む解剖学的構造のリアルタイム構成を示していない。
画像誘導手術と共に使用される従来の位置合せ方法は、大抵の場合、電磁感知又はインピーダンス感知に基づいた技術の使用を含む。いくつかの例では、手術環境で使用される金属物体又は特定の電子装置は、感知データの質を損なう外乱を生成することがある。追加的に又は代替的に、蛍光透視撮像システム及び/又は光追跡システム等の透視撮像システムを使用して、位置合わせを行ってもよい。本明細書に記載されるいくつかの実施形態では、蛍光透視撮像システム及び/又は光追跡システムを使用して、手術環境の座標系内の医療器具及び患者の解剖学的構造の位置及び向きを決定することができる。提供される様々な例は、解剖学的構造内で行われる処置の使用について説明するが、代替実施形態では、本開示の装置及び方法は、解剖学的構造内で使用する必要はなく、むしろ、患者の解剖学的構造の外部で使用することもできる。
蛍光透視法は、X線を用いて撮像視野内の患者の解剖学的構造、医療器具、及び放射線不透過性基準マーカのリアルタイム動画を取得する撮像モダリティである。この説明では、基準マーカは、基準要素又は基準点と呼ばれることもある。従来のX線写真は、X線検出器の前に患者の一部を配置した後、短いX線パルスでその患者の一部を照射することによって得られたX線画像である。同様に、蛍光透視法は、X線を使用して、手術環境内に放射線不透過性医療器具、造影剤、及び/又は放射線不透過性基準マーカを含む、患者の内部のリアルタイム動画を取得する。蛍光透視システムは、位置の柔軟性を提供し、且つ手動又は自動制御によって軌道、水平方向、及び/又は垂直方向に移動可能なCアームシステムを含むことができる。非Cアームシステムは、静止しており、動きの自由度が低い。蛍光透視システムは、一般に、画像増強器(intensifier)又はフラットパネル検出器のいずれかを使用して、患者の解剖学的構造の2次元リアルタイム画像を生成する。2方面(bi-planar)蛍光透視システムは、2つの蛍光透視画像をそれぞれ異なる(大抵の場合、直交)視点から同時に取り込む。X線画像の質及び有用性は、撮像される組織タイプに依存して変化し得る。骨及び金属等の密度の高い材料は、一般に、肺の空気で満たされる軟組織よりもX線画像においてより視覚化される。肺における処置のために、以前の画像CTデータは、蛍光透視画像上で判別するのが困難になり得る気道及び腫瘍の解剖学的詳細を提供するが、蛍光透視画像は、医療器具及び密度の高い解剖学的組織のリアルタイムの視覚化を提供する。
光追跡システムは、位置センサを使用して、遠隔操作可能なアセンブリ、医療器具、及び/又は患者に取り付けられた赤外線放射又は再帰反射マーカを検出する。位置センサは、位置センサがこれらのマーカから受信する情報に基づいて、遠隔操作可能なアセンブリ、医療器具、及び/又は患者の位置及び向きを計算する。より具体的には、光追跡システムは、画像センサから取り込まれたデータを使用して、重ね合せ(overlapping)投影を提供するように較正されたカメラ同士の間で、遠隔操作可能なアセンブリ、医療器具、及び/又は患者の3次元位置を三角測量する。
こうして、位置合わせされた蛍光透視画像、以前の画像データ、及び/又は光追跡データを、単独で又は運動学的データ及び形状センサデータと組み合わせて使用し、医療器具のより正確な姿勢推定及び位置特定を提供することによって、肺等の解剖学的構造の特定の部分をナビゲートするよう臨床医を支援することができる。特に、手術座標系内の既知の位置及び/又は形状特性を有する基準マーカの蛍光透視データを取得し、且つ蛍光透視データを基準マーカの位置データ又は形状データと組み合わせることにより、遠隔操作可能なシステムは、蛍光透視撮像システムを手術座標系により正確に位置合せすることができ、それにより、外科的処置中の器具ナビゲーションの信頼性が向上する。
図5は、いくつかの実施形態による手術座標系X,Y,Zを含む例示的な手術環境350を示し、その座標系内で、患者Pがプラットフォーム352上に位置付けされる。患者Pは、患者の全体の動きが鎮静剤の投与、拘束、又は他の手段によって制限されるという意味で、手術環境内で静止し得る。患者が呼吸運動を一時的に中断しない限り、患者Pの呼吸及び心臓運動を含む周期的な解剖学的運動は継続することができる。手術環境350内で、医療器具354が、器具キャリッジ356に結合される。この器具キャリッジ356は、手術環境350に固定された又はその手術環境350内で移動可能な挿入ステージ358に取り付けられる。器具キャリッジ356は、器具354に結合する遠隔操作可能なマニピュレータアセンブリ(例えば、アセンブリ102)の構成要素であってもよく、そのアセンブリは、挿入動作(すなわち、X方向の運動)及びオプションで器具の先端部の運動を、ヨー、ピッチ、及びロール運動を含む複数の方向に制御する。器具キャリッジ356又は挿入ステージ358は、挿入ステージに沿った器具キャリッジの動きを制御するサーボモータ(図示せず)を含むことができる。
医療器具354は、基端側剛性器具本体362に結合される可撓性カテーテル360を含むことができる。剛性器具本体362は、器具キャリッジ356に対して結合され且つ固定される。光ファイバ形状センサ364は、器具354に沿って延び、且つ固定又は既知の点366からカテーテル360の先端部分368等の別の点への形状を測定するように動作可能である。医療器具354は、実質的に医療器具システム200と同様であってもよい。
蛍光透視撮像システム370は、カテーテル360を患者内に延ばす間に、患者の蛍光透視画像を取得するために、患者Pの近くに配置される。例えば図6A及び図6Bに示されるように、システム370は、可動式Cアームの蛍光透視撮像システムであってもよい。いくつかの実施形態では、システム370は、ワシントンDCのSiemens Corporation製の多軸Artis Zeego蛍光透視撮像システムであってもよい。
図6A及び図6Bは、図5に示される例示的な手術環境350の別の図を示す。図6Aは、患者P及び外部追跡システム382に対して第1の位置に配置される可動式Cアーム380を含む蛍光透視撮像システム370を示す。図示される実施形態では、Cアーム380は、X線源384及びX線検出器386(「X線撮像装置386」とも呼ばれる)を含む。X線検出器386は、受け取ったX線の強度を表す画像を生成する。典型的に、X線検出器386は、X線を可視光に変換する画像増強器と、可視光をデジタル画像に変換する電荷結合素子(CCD)ビデオカメラとを含む。動作時に、患者Pは、X線源384とX線検出器386との間に位置付けされる。オペレータの又は遠隔操作可能なシステムのコマンド入力に応答して、X線源384から放射されるX線は、患者Pを通過してX線検出器386に入り、患者の2次元画像を生成する。
X線検出器386によって生成された生の画像は、画像増強器に固有の画像歪み及び外部電磁場を含む多くの要因によって引き起こされる望ましくない歪み(例えば、「樽型歪み」及び/又は「S−歪み」)の影響を受ける傾向がある。受け取った画像の画像歪みを補正し、撮像装置の投影幾何学を学習する処理である内部較正は、X線の経路内に基準マーカ400(較正マーカとしても知られている)を配置することを含み、基準マーカは、X線に対して不透明な(opaque)物体である。基準マーカ400は、X線の経路内の1つ又は複数の平面に所定のパターンで堅く配置され、記録された画像に表示される。手術環境における基準マーカ400の真の相対位置(すなわち、歪みのない位置)が既知であるため、制御システム112は、得られた画像内の各画素における歪みの量を計算することができる(ここで画素は画像内の単一の点である)。従って、制御システム112は、元の画像における歪みをデジタル形式で補償し、歪みのない又は少なくとも歪みの改善されたデジタル画像を生成することができる。基準マーカ400の真の相対位置の精度を高めることによって、蛍光透視撮像システム370の姿勢推定を向上させることができ、それにより外科的処置中の器具の姿勢決定及びナビゲーションの精度を高める。
蛍光透視撮像システム370によって撮影された個々の画像は2次元画像であるが、異なる視点から撮影した複数の2次元画像を使用して、手術野内の解剖学的投影又は医療器具の3次元位置を推定することができる。画像の視点を変えるために、例えば図6Bに示されるように、Cアーム380を回転させることができる。Cアーム380を旋回させて、異なる角度から蛍光透視撮像システム370の視野内に位置付けされた患者P及び基準マーカ400のX線画像を撮影することができる。図6Bは、図6Aに示される手術環境350を示しており、蛍光透視撮像システム370のCアーム380が、患者P及び外部追跡システム382に対して第2の位置に配置される。異なる投影角度又は視点から形成された2次元投影画像から3次元断層画像を生成することができる。異なる視点から患者P及び基準マーカ400の複数の2次元画像を撮影することによって、視野内の様々なポイント(例えば、基準マーカ400上の様々なポイント)の3次元位置を決定することができる。
上述したように、基準マーカ400は、蛍光透視撮像システム370の視野内に配置された、手術環境内で既知の構成を有する放射線不透過性物体を含む。基準マーカ400は、蛍光透視画像内で基準又は測定点として使用するために現れる。図示の実施形態では、基準マーカ400は、3次元物体を含む。他の実施形態では、基準マーカは、実質的に1次元又は2次元の物体を含み得る。基準マーカ400は、X線検出器386によって生成された元の画像から歪みを除去する画像変換を取得するか、又は撮像装置の投影幾何学を学習する(すなわち、画像内の画素がどのように3次元空間に投影されるかを判別し、又は基準マーカの2次元画像を既知の3次元モデルにマッピングする)ために、X線撮像経路内の固定された所定の位置に配置することができる。基準マーカ400は、画像内に2次元物体として現れる3次元形状であるが、本質的に2次元のフィルムを使用して基準マーカ400を構成することもできる。非限定的な例として、円、四角形、三角形、矩形、楕円、立方体、球、及び円柱ロッド等の多くの可能な形状を使用して、基準マーカを設計してもよい。球は、2次元画像内に円として現れ、円柱ロッドは線として現れる。様々なタイプの基準マーカの設計は、2009年4月23日に出願された、”Fiducial Marker Design and Detection for Locating Surgical
Instrument in Images”という表題の米国特許出願公開第2010/0168562号に記載されており、この文献は、その全体が参照により本明細書に組み込まれる。
図7A〜図9Bは、様々な例示的な基準マーカを示す。いくつかの実施形態では、図7Aに示されるように、基準マーカ400は、1組の特有のマーカ要素401を含むことができ、各マーカ要素401a〜fは、別のマーカ要素及び背景特徴から区別することができる。図示の実施形態では、各マーカ要素401a〜fは、異なる形状である。追加的に又は代替的に、図7B及び図7Cに示されるように、基準マーカ400は、類似又は非類似のマーカ要素から構成される一意的に識別可能なパターンを含む。例えば図7Bでは、基準マーカ402は、同一の基準要素404から構成される格子状パターンを含み、各格子は、暗い境界に囲まれた白い正方形である。各基準要素が別の基準要素から判別できないかもしれないが、基準マーカ402の格子レイアウトによって、マーカを手術座標系内で一意に識別できる。対照的に、図7Cでは、基準マーカ410は、2つの異なる基準要素から構成される(暗い正方形412及び明るい正方形414が交互配置される)市松模様格子パターンを含む。各基準要素が一意ではないかもしれないが、基準マーカ410の市松模様レイアウトによって、マーカを手術座標系内で一意に識別及び位置特定することができる。格子状パターン及び市松模様パターンにおいて、各四角形は、手術環境において固定された長さ及び幅を有する。
いくつかの実施形態では、基準マーカ400は、テキスト及び/又は1つ又は複数のシンボルを含む判別可能なマーカを含んでもよい。図8A〜図8Eは、いくつかの例示的な判別可能な基準マーカを示しており、各基準マーカ422、426、432、438、及び444は、別個の基準要素の集合を含み、各基準要素が、別個のアルファベット文字を含む。例えば、基準マーカ422及び444は、“Intuitive Surgical”のスペルである異なる文字又は基準要素(例えば、基準要素424は文字”E“から構成される)の集合によって形成される。同様に、基準マーカ426は基準要素428及び430によって形成され、基準マーカ432は基準要素434及び436によって形成され、基準マーカ438は基準要素440及び442によって形成される。基準マーカ434、436、及び444は、それぞれ、異なるデザインパターンで構成され、より詳細な位置特定を可能にする。基準マーカ422、426、432、438、及び444は、それぞれ、図7Cに示される基準マーカ410に対して上述した市松模様マーカデザインのバリエーションを使用する。各基準要素は一意でなくてもよいが、基準マーカ422、426、432、438、及び444の全体的な形状及び市松模様レイアウトによって、その基準要素を手術座標系内で一意に識別し、位置特定することができる。
いくつかの実施形態では、基準マーカ400は、不均一な直線状パターンで配置された同様の一連の基準要素を含むことができる。例えば、図9A及び図9Bでは、基準マーカ450及び460は、不均一な間隔で直線に配置された、同一の一連の基準マーカ452及び462を含む。これらの実施形態では、基準マーカ452、462の不均一な間隔は、基準マーカ452、462をそれぞれ撮像する際に一意に識別可能なコードを形成する。いくつかの実施形態では、そのようなコードは、従来の(1次元)又はマトリックス(2次元)バーコードに似ている。
図示の実施形態では、基準マーカ400は、患者Pの上に位置付けして示される。他の実施形態では、基準マーカ400は、(例えば、プラットフォーム352上の)患者Pの上、側方、又は下に位置付けしてもよい。一実施形態では、例えば、図7Cに示される市松模様の基準マーカ400は、患者Pとプラットフォーム352との間に位置付けしてもよい。さらに他の実施形態では、基準マーカ400は、患者Pの体内に位置付けされる又は体内で見出される。例えば、いくつかの実施形態では、基準マーカ400は、カテーテル360又は形状センサ364自体を含んでもよい。そのような実施形態では、カテーテル360及び/又は形状センサ364は、少なくとも部分的に放射線不透過性である。いくつかの実施形態では、カテーテル360及び/又は形状センサ364は、上述したように、1つ又は複数の放射線不透過性の基準要素を含む。他の実施形態では、カテーテル360及び/又は形状センサ364は、少なくともその先端部分(例えば、蛍光透視撮像システム370によって撮像され得る先端長さ)に沿って連続的に放射線不透過性である。追加的又は代替的に、基準マーカ400は、患者Pの解剖学的ランドマーク(例えば1つ又は複数の特定のリブ)を含んでもよい。他の例では、基準ランドマーク400は、患者Pに摂取又は注入される放射線不透過性物質のコントラストによって規定され得る。形状センサを含む可撓性装置の既知の長さに沿った蛍光透視画像上の複数の識別可能な位置も、基準マーカポイントとして機能することもできる。共通の接地点を含む複数の形状の装置の画像を組み合わせて、より多くの3次元空間をカバーする複数の基準マーカ点を生成し、曖昧さを低減し並びに/若しくは、較正及び/又は姿勢推定の精度を改善することができる。別の実施形態において、装置上の特定の識別可能な位置に放射線不透過性を示すのではなく、装置全体が放射線不透過性であってもよい。姿勢推定は、蛍光透視画像における観察された2次元曲線に対する装置の形状の3次元曲線の逆投影エラーを最小限に抑えることによって行うことができる。同じように、複数の異なる形状の複数の画像を使用して、曖昧さを低減し、並びに/若しくは較正及び/又は姿勢推定の精度を改善することができる。
上述したように、異なる視点からの既知の3次元特性を有する物体(例えば、基準マーカ400)の複数の2次元画像を取得することによって、手術座標空間に対する蛍光透視撮像システム370のより正確な位置合わせが可能になる(すなわち、Cアーム380の姿勢をより正確に推定することによって手術座標空間に対する蛍光透視撮像システム370のより正確な位置合せが可能になり、こうして、得られた2次元画像の視点をより正確に決定することが可能になる)。異なる撮像視点における基準マーカ400の識別及び蛍光透視撮像システムの内部較正は、クロス比を射影不変性として使用することによって行うことができる。図10を参照すると、クロス比は、同一直線上の4つの点、特に投影線上の点のリストに関連付けられた番号である。線上に4つの点A、B、C、及びDが与えられると、そのクロス比は次のように規定される。
Figure 0006828047
ここで、各距離のサイン(sign)によって線の向きが決定され、ユークリッド空間に投影される距離が測定される。図10は、このクロス比原理を示し、点A、B、C、D及びA’、B’、C’、D’が射影変換によって関連付けられ、それらのクロス比(A,B;C,D)と(A’,B’;C’,D’)が等しくなることを実証する。
図11及び図12は、クロス比の原理を使用して、蛍光透視撮像システム370の内部較正の2つの異なる方法を示す。図11において、蛍光透視撮像システム370は、最初にX線撮像装置386が第1の位置P1に位置付けされた状態で2次元蛍光透視画像(平面投影)を投影し、A’及びB’における基準マーカA及びBの位置を取得する。続いて、蛍光透視撮像システム370は、X線撮像装置386が第2の位置P2に位置付けされた状態で別の2次元蛍光透視画像(平面投影)を投影し、A’’及びB’’における基準マーカA及びBの位置を取得する。基準マーカ400が平面較正画像である場合に、図11で示される方法は、撮像装置386が異なる角度から基準マーカ400を検査する場合に、特に有用である。
図12において、蛍光透視撮像システム370のX線撮像装置386は、静止したままであり、基準マーカA及びBが第1の位置P3に位置付けされた状態で第1の2次元蛍光透視画像(平面投影)を投影し、A’及びB’における基準マーカA及びBの位置を取得する。続いて、蛍光透視撮像システム370は、基準マーカA及びBが第2の位置P4に位置付けされた状態で別の2次元蛍光透視画像(平面投影)を投影し、A’’及びB’’における基準マーカA及びBの位置を取得する。両方のシナリオで得られた4つの点A’、B’、A’’、及びB’’を使用して、蛍光透視撮像システム370を本質的に較正することができる。
図13は、手術環境内の医療器具(例えば、遠隔操作可能に制御される器具システム200)の位置特定/追跡と蛍光透視撮像システム370の較正とを略同時にすることを伴う、手術環境350で画像誘導手術を行うための方法490を示すフローチャートである。方法490を含むこの説明の方法は、ブロック、ステップ、操作、又はプロセスのセットとして図13に示されている。例示され列挙された操作の全てが、方法490の全ての実施形態で実行されるわけではない。更に、この方法に明示的に示されていない、いくつかの追加の操作を、列挙されたプロセスの前に、後に、間に、又は一部として含んでもよい。本明細書の方法のいくつかの実施形態は、この方法のプロセスに対応する命令をメモリに記憶された状態で含む。これらの命令は、制御システム112のプロセッサのようなプロセッサによって実行することができる。
上述したように、手術座標空間内の蛍光透視撮像システム370の姿勢(例えば、Cアーム380の位置)は、2次元蛍光透視画像の視点を正確に決定するために使用される。2次元蛍光透視画像を正確に解釈することには、画像歪みを認識して補正することも含まれる。プロセス500は、手術環境内で既知の3次元位置、形状、及びサイズ特性を有する基準マーカを撮像して蛍光透視撮像システムの姿勢を同時に決定しながら、歪みを補正するために蛍光透視撮像システム370を較正する例示的な方法を説明する。較正プロセス及び較正モデルの作成は、器具姿勢の再構成の前に実行してもよい。マーカは、複数の異なる視点から蛍光透視撮像システム370によって撮像してもよい。プロセス502において、蛍光透視撮像システム370は、(図11及び図12に関して上述したように)複数の視点からの又は複数の姿勢における手術環境内の既知の構成(例えば、サイズ、形状、位置)を有する基準マーカ400の蛍光透視画像データを取り込む。以下でさらに説明するが、基準マーカは、手術環境内の柔軟な(Flexible)基準点の形状及び姿勢情報を提供する形状センサを含むことができる。
プロセス504において、制御システム112は、蛍光透視画像データを使用して、蛍光透視撮像システム370の1組の内部(intrinsic)及び外部(extrinsic)パラメータを推定する。例えば、撮像システム370の内部パラメータは、焦点距離、投影中心、及び画素スケール等の撮像装置の較正パラメータを含む。撮像システム370の外部パラメータは、蛍光透視撮像システム370と較正パターン又は基準マーカ400との間の回転及び並進及び剛体変換等の撮像装置の位置パラメータを含む。プロセス506において、制御システム112は、(例えば、図10〜図12に示されるようにクロス比及び射影不変性を用いて)アルゴリズムを解いて、手術環境350に関して蛍光透視撮像システム370の推定3Dモデルを作成する。
(例えば、プロセス502、504、及び506を循環させることにより)異なる視点から基準マーカ400(及び、利用可能な場合に他の基準マーカ)を反復して撮像した後に、プロセス508において、推定されたモデルは、手術環境におけるマーカ(複数可)の最終的なモデルに改良される。較正モデルは、S−歪みを含む歪みを補正又は少なくとも最小限に抑え且つ手術環境内の撮像システムの推定姿勢を提供する、蛍光透視撮像システム370の最適な1組の内部及び外部パラメータに基づく。プロセス500は、基準点の既知の3次元位置推定値と一緒に複数の蛍光透視画像における基準点の2次元位置とを組み合わせて、内部パラメータと外部パラメータとの両方を再構成する。三角測量、バンドル(bundle)調整、又は同時位置特定及びマッピング(SLAM)等のコンピュータビジョンの方法が再構成に使用され得る。プロセス510において、較正モデルは、蛍光透視画像基準フレームを手術用座標フレームに位置合わせし、蛍光透視基準フレームで撮像されたマーカの姿勢を、手術用基準フレームにおいて較正モデルから決定することができる。蛍光透視基準フレームと、手術用基準フレーム及び解剖学的モデル基準フレームとの位置合せが、米国仮特許出願番号62/205,440号及び62/205,433号に記載されており、これらの文献は参照により本明細書に組み込まれる。オプションで、較正プロセス500は、1つ又は複数の他の様々な方法で補足される。例えば、プロセス512は、蛍光透視撮像システム370の位置及び向きを外部から追跡して、手術環境における撮像システム370の姿勢の推定を補足することを含む。図6A及び図6Bを参照して、手術環境350は、外部追跡システム382も含む。一般に、外部追跡システム382は、手術座標系に対する蛍光透視撮像システム370及び/又は基準マーカ400の姿勢を推定するための外部手段を含む。外部追跡システム382が蛍光透視撮像システム370から離れて示されているが、いくつかの実施形態では、外部追跡システム382は、蛍光透視撮像システム370上に配置することができる。例えば、様々な実施形態において、外部追跡システム382は、図6A及び図6Bの点線470で示されるように、Cアーム380の関節上に1つ又は複数のエンコーダを含むことができる。代替的に又は追加的に、外部追跡システム382は、図6A及び図6Bの破線472で示されるように、Cアーム380に取り付けられた1つ又は複数の傾斜計(例えば、関心のある回転自由度あたり1つの傾斜計)を含むことができる。
代替的に又は追加的に、外部追跡システム382は、光追跡システムを含むことができる。図示される実施形態では、光追跡システム382は、赤外線を放射し且つ基準アレイに位置付けされた特別なリフレクタを含む少なくとも1つの光マーカによって反射された赤外光を受け取ることができる1対のカメラを含むセンサ480を含む。いくつかの実施形態では、センサ480は、Cアーム380上に位置付けされた光マーカの位置を追跡することができる。追加的に又は代替的に、センサ480は、患者P及び/又は医療器具(例えば、カテーテル360)に配置された光マーカの位置を追跡することができる。いくつかの実施形態では、基準マーカ400は、光マーカだけでなく放射線不透過性マーカも含む。いくつかの実施形態では、光マーカは、センサ480上の照明器によって放射された赤外光を反射する、球形の再帰反射マーカを含む受動的なマーカであってもよい。いくつかの実施形態では、基準マーカは、電気信号によって活性化される能動的な赤外光放射マーカであってもよい。光追跡システムの更なる説明は、例えば、1999年10月28日に出願された、”System for determining spatial position and/or orientation of one
or more objects”を開示する米国特許第6,288,783号に、及び2015年9月10日に出願された、”Systems And Methods For Using Optical Tacking In Image-Guided
Surgery”を開示する米国仮特許出願第62/216,494号に示されており、これらの文献は、それらの全体が参照により本明細書に組み込まれる。いくつかの実施形態では、図6Aに示されるように、光追跡システム480は、器具本体が可撓性カテーテル360を患者の解剖学的構造の内外に動かすときに、基準マーカ400及び/又は医療器具に取り付けられた1組の光基準マーカを追跡する。他の実施形態では、外部追跡システム382を使用して、プロセス500(基準マーカ400から得られた2次元蛍光透視画像に依存する)に関して上述した内部較正プロセスとは無関係に、蛍光透視撮像システム370の姿勢を推定することができる。
蛍光透視撮像システムが較正され且つマーカが手術環境で位置特定された後に、上述したように、新たな蛍光透視画像を、手術用基準フレームに位置合わせすることができる。プロセス514において、医療処置中に、基準マーカ400及びカテーテル360を含む蛍光透視画像が蛍光透視基準フレームにおいて取り込まれる。プロセス516において、蛍光透視画像により、手術用基準フレームにおけるカテーテルの1つ又は複数の部分(例えば、先端チップ部分)の位置及び姿勢が、蛍光透視基準フレームに対する手術用基準フレームの位置合せから決定される。より具体的には、同じフレーム内に基準マーカ及びカテーテルの先端チップを含む蛍光透視画像を受け取ったときに、蛍光透視システムのオプションの補足姿勢追跡を含む較正モデルが、歪みを補正し、蛍光透視撮像装置の姿勢推定を提供する。較正モデルから、手術用基準フレームにおけるカテーテルの先端チップの姿勢を決定することができる。
図4に関して上述したように、画像誘導外科的処置で使用するための方法300は、手術環境において患者に対して医療器具を位置特定することを含む。こうして、方法490のいくつかの実施形態は、手術前又は手術中画像データを含む以前の画像データが、CT、MRI、サーモグラフィ、超音波、OCT、熱イメージング、インピーダンスイメージング、レーザーイメージング、又はナノチューブX線イメージング等の撮像技術から得られるプロセス492を含むことができる。以前の画像データは、2次元、3次元、又は4次元(例えば、時間ベース又は速度ベースの情報を含む)画像に対応し得る。上述したように、解剖学的モデルは、以前の画像データから作成される。プロセス494において、手術用基準フレーム(X,Y,Z)は、器具センサ基準フレーム(X,Y,Z)に位置合わせされる。モデル基準フレームと器具基準フレームとの間のこの位置合せは、米国仮特許出願第62/205,440及び62/205,433を参照することにより、組み込まれるように記載される、例えば、ポイントベースのICP技術を使用して、達成することができ、それら両文献は、それらの全体が参照により本明細書に組み込まれる。追加的に又は代替的に、モデル基準フレーム及びセンサ基準フレームを別の共通の基準フレームに位置合わせてもよい。共通の基準フレームは、例えば、手術環境基準フレーム(X,Y,Z)又は患者基準フレームであってもよい。例えば、器具センサの基準部分は、手術環境内で固定され、既知にされ、又は追跡され得る。
プロセス518において、ユーザ又は遠隔操作可能なシステムは、モデル基準フレームとセンサ基準フレームとの両方が手術用基準フレーム又は別の共通の基準フレームに位置合わせされているので、誘導のための3次元モデル及び/又は蛍光透視画像データを使用して、医療器具を用いて医療処置を行うことができる。プロセス514〜516は、医療器具が、解剖学的構造及び解剖学的モデルに対する器具に関する現在の位置特定を提供するように、患者の解剖学的構造内に挿入され又は他の方法で移動されるので、医療処置の全体に亘って繰り返してもよい。
オプションで、形状センサ364からの形状センサデータを使用して、プロセス500によって記述される蛍光透視データと内部較正プロセスを補完することができる。形状センサデータは、剛性器具本体上の既知の基準点366と可撓性カテーテル360の先端部との間に延びるセンサの形状を説明することができる。いくつかの実施形態では、上述したように、形状センサデータが、手術用基準フレームに対して既知である先端チップの姿勢を含むセンサ(及びそのセンサが延びるカテーテル)の形状特性を提供するので、形状センサ364自体は、基準マーカ400として機能することができる。既知の3次元形状を有する形状センサ364等の基準マーカ400に関する2次元撮像データを取得することによって、制御システム112が、手術環境350内の基準マーカ400をより正確に位置特定することができる。形状センサが基準マーカとして使用されるときに、基準マーカは、単独の基準マーカとして使用することができ、又は、手術環境中に存在する1次元、2次元、3次元の複数の基準マーカに含めてもよい。いくつかの実施形態では、医療器具又はカテーテル360自体の形状は、少なくとも部分的に放射線不透過性であり、基準マーカ400として機能する。より具体的には、運動学的に及び/又は光追跡センサ480によって追跡されるような、手術環境における基準点366の位置と組み合わされた形状情報は、可撓性カテーテル360の先端チップ及び手術環境内のカテーテルに沿った他の点の位置及び向きを提供する。患者が光追跡センサ480によっても追跡される場合に、患者Pの位置及び向きは、手術環境においても既知である。こうして、可撓性カテーテル360の位置及び向きは、手術環境基準フレームにおける患者の解剖学的構造に関して既知である。
手術環境内の複数の視点(すなわち、蛍光透視撮像装置が複数の位置に間で移動する)からの蛍光透視画像データをコンパイルして、2次元又は3次元の断層画像を生成することができる。デジタル検出器(例えば、フラットパネル検出器)を含む蛍光透視撮像システムを使用するときに、生成され且つコンパイルされた蛍光透視画像データは、トモシンセシス撮影技術に従って平行な面内に平面画像の区分化(sectioning)を可能にする。従来の蛍光透視撮像装置の動きは、平面移動(例えば、直線又は曲線)に限定されていた。例えば、蛍光透視撮像装置は、直線軌道に沿って直線的に移動するように制約され得、Cアームによって規定される軌道運動に制約され得る。本開示による実施形態によれば、手術環境における蛍光透視撮像装置の2次元、3次元の移動は、平面運動に制約された蛍光透視撮像装置によって生成された画像データと比較して、患者の解剖学的領域における関心領域に関するより詳細な情報を提供する蛍光透視画像データを生成する。前述した方法のいずれかに従って追跡された蛍光透視撮像装置の姿勢に関して、蛍光透視撮像装置は、患者の解剖学的構造における関心領域の最適な画像を生成するために断層的に結合される画像データを取り込むために3次元の手術空間の中を移動することができる。
手術環境内の制約(例えば、空間、時間、及びコスト)によって、蛍光透視撮像装置の完全な範囲よりも実質的に小さい範囲からの合成画像を使用する断層撮像技術を使用して断層画像を作成することができる。例えば、Cアームの蛍光透視撮像装置の運動の全走査範囲が自動走査に関して約200°である場合に、遠隔操作可能なシステムの存在による手術環境の空間制限は、画像装置が200°を完全に移動することを制限し得る。しかしながら、有用な断層撮影画像は、200°の範囲よりも実質的に小さい制限範囲(constrained range)(制限された走査領域を規定する)の範囲内で撮像装置を手動で揺動させることによって構築することができる。制限された範囲を使用する一実施形態では、撮像装置は、Cアームの面内軌道とオプションでCアーム軌道の通常面の外部との両方の位置を含む、約30°の範囲内の1つ又は複数の位置に揺動又は他の方法で移動される。
図14は、手術環境の面Xにおける患者の解剖学的構造とトモシンセシス構成550を示す。図15は、図14の手術環境の直交する面Yおける患者の解剖学的構造とトモシンセシス構成550とを示す。X線撮像装置は、患者に関して全走査動作範囲Rを有する。図14に示されるように、患者Pは、全走査範囲Rよりも実質的に小さい制限範囲内で位置C1、C2、C3、C4、及びC5に移動されるX線源で撮像される。この実施形態では、(X面内の)制限範囲は、約30°又は全走査範囲の20%未満である。患者Pは、位置C1で画面I1に対して結像される。X線源は、X面(例えば、第1の移動面)内で位置C2に回転、揺動、又は手動で移動して、患者Pを画面I2に対して結像される。X線源は、X面内で位置C3にさらに回転、揺動、又は手動で移動して、患者Pを画面I3に対して結像される。画像I1、I2、I3は、画像自体を使用するか、又はX線源の推定姿勢と較正内部パラメータとによって一意に規定される平面投影変換(すなわち、ホモグラフィ)を使用することによるフィルタ処理の後に、単一の断層面T1にマッピングされ、累積される。面T1においてスライス画像を生成するために使用される画像再構成アルゴリズムは、面T1の外部の特徴をぼやけさせる、又はそうでなければその特徴を最小化する。断層面T1は、解剖学的構造の関心領域の位置又は医療器具の位置に基づいて選択され得る。画像I1、I2、I3の同じ画像データをマッピング又は交互にマッピングして、面T2又は面T3等の複数の断層面のスライス画像を生成することもできる。この実施形態では、撮像装置の動きを手動で行うことができるが、他の実施形態では、動きをプログラムする、又は他にコンピュータ制御することもできる。図15においてより明確に示されるように、X線源は、制限範囲内でX平面を他の移動面に移動することができる。X線源が位置C4に移動すると、患者は画面I4に対して結像される。X線源が位置C5に移動すると、患者は画面I5に対して結像される。画像I1、I2、I3、I4、I5の画像データのいずれか又は全ては、単一の断層面T4又は単一断層面T5にマッピングすることができる。面T4、T5は、互いに対して斜めにされ且つ面T1に対して斜めにしてもよい。代替実施形態では、位置C4及びC5におけるX線撮像装置は、トモシンセス画像を計算するために、角度範囲に亘って複数の画像を取得するように回転させることができる。画像は離散的な位置で取得することができるが、オプションで、連続的な蛍光透視動画からのフレームを再構成に使用することができる。
図16は、手術環境内の蛍光透視システムの複数の3次元視点から得られた画像からトモシンセシス画像再構成を用いた画像誘導医療介入の方法580を示す。以前に説明したように、手術環境内の蛍光透視システムの姿勢及び位置は、蛍光透視画像内の蛍光透視マーカ及び/又は光追跡システム等の外部追跡器、又は蛍光透視システムの関節の関節追跡器(例えば、エンコーダ)を用いて追跡することができる。こうして、手術環境における蛍光透視撮像装置の現在の又は所望の姿勢が既知であるか、又は指定され得る。方法580を含むこの明細書の方法が、ブロック、ステップ、操作、又はプロセスのセットとして図16に示されている。例示され、列挙された操作の全てが方法580の全ての実施形態で行われるわけではない。さらに、この方法に明示的に示されていない、いくつかの追加の操作を、列挙されたプロセスの前に、後に、間に、又は一部として含んでもよい。本明細書の方法のいくつかの実施形態は、方法のプロセスに対応した命令をメモリに記憶された状態で含む。これらの命令は、制御システム112のプロセッサのようなプロセッサによって実行してもよい。
プロセス582において、患者の解剖学的構造の蛍光透視画像データは、手術座標空間内の位置C1、C2、C3に位置付けされた蛍光透視撮像装置(例えば、撮像システム370)から受信される。プロセス584において、断層画像T1は、蛍光透視画像データから構築される。画像は、患者Pに対する医療処置中にリアルタイムで臨床医に表示することができる。画像が関心領域の十分な詳細を欠いている場合に、追加のトモシンセシス平面画像が有用となり得る。臨床医は、例えば、タッチスクリーン、マウス、又はトラックボール等のオペレータ入力装置を使用して画像の領域を選択することによって、関心領域(例えば、腫瘍が位置する領域)を特定することができる。あるいはまた、更なる平面トモシンセシス画像を生成するための関心領域は、手術環境に位置合わせされた手術前CTにおける関心領域を特定することによって選択することができる。あるいはまた、更なる平面トモシンセシス画像を生成するための関心領域は、位置合わせされた手術環境内の先端チップ等の医療器具の部分の位置とその医療器具の部分から延びる器具(例えば、生検針)の軌道を決定することによって選択することができる。
プロセス586において、特定された関心領域に基づいて、蛍光透視撮像装置を、3次元手術座標空間内の別の姿勢、姿勢のセット、又は撮像角度範囲に移動させるための命令を生成することができる。移動後又は移動中に、蛍光透視撮像装置の姿勢は、蛍光透視画像内の蛍光透視マーカ及び/又は光追跡システム等の外部追跡器、又は蛍光透視システムの関節の関節追跡器(例えば、エンコーダ)を用いて、前述したように、追跡することができる。蛍光透視撮像装置は、単一の面内の動きに限定されるものではない。むしろ、蛍光透視撮像装置の動きは制約されず、撮像装置が最適な撮像データを提供する構成の姿勢になることを可能にする。命令は、蛍光透視撮像装置の制御システムに命令して、蛍光透視撮像装置を手術座標系の指定された姿勢に動かすための制御信号であってもよい。あるいはまた、命令は、蛍光透視撮像装置を手術座標系の指定された姿勢に手動で動かすようにオペレータに表示する、又は他の方法で伝達してもよい。蛍光透視撮像装置は、手術座標系に関して自由に移動可能であり、単一面内の直線又は軌道運動に制約されない。あるいはまた、移動命令は、撮像システム370を再配置する命令、及び再配置された位置から単一面内の複数の蛍光透視画像を取得する命令を含んでもよい。例えば、命令に基づいてCアームを新しい位置に移動させてもよく、Cアームを回転させて、回転面から複数の画像を生成してもよい。
プロセス588において、患者の解剖学的構造の追加の蛍光透視画像データは、手術座標空間内の指定された姿勢又は1組の姿勢に位置付けられた蛍光透視撮像装置から受信することができる。例えば、関心領域が面T4内にあってもよく、それにより撮像装置を位置C4に移動させて、追加の蛍光透視画像を生成してもよい。プロセス590において、第2の平面断層画像を第2の蛍光透視画像データから構築してもよい。第2の蛍光透視画像データは、単一の画像から又は複数の画像から生成してもよい。様々な実施形態では、第2の平面断層画像は、第1の蛍光透視画像データと組み合わされた第2の蛍光透視画像データから構築してもよい。望ましい構造の再構築は、新しい画像を追加し累積させる、繰り返され且つ連続的なプロセスによって達成することができる。こうして、得られたトモシンセシス画像が、腫瘍、カテーテル、又は胸膜の境界等の所望の構造を含むまで、586、588、590と同様の処理ステップを繰り返すことができる。蛍光透視撮像装置の姿勢履歴を追跡し、ユーザが手術環境内のどの角度及び/又は範囲がカバーされるかを認識するように、その履歴を、ディスプレイ又は他のユーザインタフェースを介してユーザに提供することができる。
本開示のシステム及び方法は、肺の気管支接続通路での使用について説明しているが、それらシステム及び方法は、結腸、腸、腎臓、脳、心臓、循環系等を含む様々な解剖学系のいずれかにおいて、天然又は外科的に形成された接続通路を介して、他の組織のナビゲーション及び治療にも適している。
また、本開示は、遠隔操作システムの様々なシステム及び方法を記載しているが、それらシステム及び方法は、マニピュレータアセンブリ及び器具が直接的に制御される非遠隔操作システムでの使用も企図される。提供される様々な例は、解剖学的構造内で行われる処置の使用について記載しているが、代替実施形態では、本開示の装置及び方法は、解剖学的構造内で使用する必要はなく、むしろ患者の解剖学的構造の外部で使用することもできる。
本発明の実施形態の1つ又は複数の要素は、制御システム112等のコンピュータシステムのプロセッサ上で実行するために、ソフトウェアで実現してもよい。ソフトウェアで実現された場合に、本発明の実施形態の要素は、本質的に、必要なタスクを実行するためのコードセグメントである。伝送媒体又は通信リンクを介した搬送波で具現化されるコンピュータデータ信号によってダウンロードしてもよいプログラム又はコードセグメントは、プロセッサ可読記憶媒体又は装置に記憶させることができる。プロセッサ可読記憶装置は、情報を記憶することができる光媒体、半導体媒体、及び磁気媒体を含む任意の媒体を含むことができる。プロセッサ可読記憶装置の例には、電子回路;半導体装置、半導体メモリ装置、読み出し専用メモリ(ROM)、フラッシュメモリ、消去可能なプログラマブル読み出し専用メモリ(EPROM);フロッピー(登録商標)ディスク、CD−ROM、光ディスク、ハードディスク、又は他の記憶装置が含まれる。コードセグメントは、インターネット、イントラネット等のコンピュータネットワークを介してダウンロードしてもよい。
提示されるプロセス及びディスプレイは、本質的に、特定のコンピュータ又は他の装置に関連しなくてもよいことに注意されたい。これらの様々なシステムに必要な構造は、特許請求の範囲の要素として現れる。また、本発明の実施形態は、特定のプログラミング言語を参照して記載していない。様々なプログラミング言語を使用して、本発明の教示を本明細書に記載されるように実現し得ることが理解されるであろう。
本発明の特定の例示的な実施形態が、説明され且つ添付の図面に示されているが、そのような実施形態は、単に例示であり、広範な本発明に対する限定ではなく、本発明の実施形態は、様々な他の修正を当業者に想起させることができるので、図示及び説明された特定の構成及び配置に限定されるものではないことを理解すべきである。

Claims (15)

  1. コンピュータ支援医療システムであって、当該システムは、
    1つ又は複数のプロセッサと、
    手術座標空間内に既知の構成で位置付けされた基準マーカと、を有しており、
    前記基準マーカは形状センサを含み、前記1つ又は複数のプロセッサは、
    第1組のパラメータを有する蛍光透視撮像装置から、前記基準マーカの第1の蛍光透視画像データを受信することと、
    前記形状センサから形状情報を受信することと、
    該形状情報から前記手術座標空間内の前記基準マーカの前記既知の構成を導出することと、
    前記第1の蛍光透視画像データ及び前記形状情報から導出された前記基準マーカの前記既知の構成から、前記手術座標空間における前記基準マーカの較正モデルを作成することと、
    前記較正モデルに基づいて、前記手術座標空間における前記蛍光透視撮像装置の第2組のパラメータを決定することと、
    前記蛍光透視撮像装置の前記第2組のパラメータに基づいて、前記手術座標空間における前記基準マーカの姿勢を決定することと、を含む段階を実行するように構成される、
    システム。
  2. 較正モデルを作成することが、前記蛍光透視撮像装置の内部パラメータ及び外部パラメータを決定することを含む、請求項に記載のシステム。
  3. 前記1つ又は複数のプロセッサによって実行される前記段階は、
    前記蛍光透視撮像装置から前記基準マーカ及び医療器具の一部の第2の蛍光透視画像データを受信することと、
    前記較正モデルを使用して前記第2の蛍光透視画像データにおける歪みを補正することと、
    前記手術座標空間に対する前記蛍光透視撮像装置の前記第2組のパラメータに基づいて、前記医療器具の一部を前記手術座標空間において位置特定することと、さらに含む、請求項に記載のシステム。
  4. 前記形状センサは光ファイバセンサである、請求項に記載のシステム。
  5. 前記第1の蛍光透視画像データは、複数の基準マーカの画像を含み、該複数の基準マーカは前記基準マーカを含み、前記複数の基準マーカは前記手術座標空間において既知の構成を有する、請求項に記載のシステム。
  6. 前記複数の基準マーカはバーコードを含む、請求項に記載のシステム。
  7. 前記複数の基準マーカは格子状パターンを含む、請求項に記載のシステム。
  8. 前記基準マーカは医療器具に含まれ、該医療器具は細長い可撓性本体を含む、請求項に記載のシステム。
  9. 前記形状情報は、前記細長い可撓性本体の異なる形状を含む、請求項8に記載のシステム。
  10. 前記1つ又は複数のプロセッサは、前記細長い可撓性本体の前記異なる形状の前記形状情報に基づいて、前記姿勢を改善するように構成される、請求項9に記載のシステム。
  11. 前記1つ又は複数のプロセッサは、前記基準マーカの前記既知の構成に基づいて、前記基準マーカを前記手術座標空間において位置特定するように構成される、請求項1に記載のシステム。
  12. 前記基準マーカは、1組の基準マーカ要素を含む、請求項11に記載のシステム。
  13. 前記1組の基準マーカ要素の各要素は、互いに異なる、請求項12に記載のシステム。
  14. 前記1組の基準マーカ要素は、一意のパターンを形成する、請求項12に記載のシステム。
  15. 前記1つ又は複数のプロセッサは、前記手術座標空間における前記基準マーカの前記較正モデルを改良するように構成される、請求項1に記載のシステム。
JP2018542274A 2016-02-12 2017-02-10 画像誘導手術における透視撮像システムの姿勢推定及び較正のシステム及び方法 Active JP6828047B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662294857P 2016-02-12 2016-02-12
US201662294845P 2016-02-12 2016-02-12
US62/294,845 2016-02-12
US62/294,857 2016-02-12
PCT/US2017/017391 WO2017139591A1 (en) 2016-02-12 2017-02-10 Systems and methods of pose estimation and calibration of perspective imaging system in image guided surgery

Publications (2)

Publication Number Publication Date
JP2019504714A JP2019504714A (ja) 2019-02-21
JP6828047B2 true JP6828047B2 (ja) 2021-02-10

Family

ID=59564046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018542274A Active JP6828047B2 (ja) 2016-02-12 2017-02-10 画像誘導手術における透視撮像システムの姿勢推定及び較正のシステム及び方法

Country Status (6)

Country Link
US (2) US11399895B2 (ja)
EP (2) EP4375934A3 (ja)
JP (1) JP6828047B2 (ja)
KR (1) KR20180104763A (ja)
CN (2) CN114652441A (ja)
WO (1) WO2017139591A1 (ja)

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US9974525B2 (en) 2014-10-31 2018-05-22 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10448910B2 (en) * 2016-02-03 2019-10-22 Globus Medical, Inc. Portable medical imaging system
US10478143B2 (en) * 2016-08-02 2019-11-19 Covidien Lp System and method of generating and updatng a three dimensional model of a luminal network
WO2018064566A1 (en) 2016-09-30 2018-04-05 Intuitive Surgical Operations, Inc. Systems and methods for entry point localization
AU2017349568B2 (en) * 2016-10-31 2023-06-15 Body Vision Medical Ltd. Jigs for use in medical imaging and methods for using thereof
US11793579B2 (en) 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
WO2019051019A1 (en) * 2017-09-08 2019-03-14 Covidien Lp FUNCTIONAL IMAGING OF OPERATIVE FIELD WITH AN AUXILIARY CAMERA FOLLOWED
WO2019075074A1 (en) * 2017-10-10 2019-04-18 Covidien Lp SYSTEM AND METHOD FOR IDENTIFICATION AND MARKING OF A TARGET IN A THREE-DIMENSIONAL FLUOROSCOPIC RECONSTRUCTION
US11103314B2 (en) * 2017-11-24 2021-08-31 Synaptive Medical Inc. Methods and devices for tracking objects by surgical navigation systems
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US10893842B2 (en) * 2018-02-08 2021-01-19 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
CN111770726B (zh) * 2018-03-09 2024-09-17 香港大学 Mri跟踪装置的设计、制造以及用于mri引导机器人系统的使用方法
US11980507B2 (en) 2018-05-02 2024-05-14 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
EP3809943A1 (en) 2018-06-19 2021-04-28 Intuitive Surgical Operations, Inc. Systems and methods for holding a flexible elongate device in a pose
US11678788B2 (en) 2018-07-25 2023-06-20 Intuitive Surgical Operations, Inc. Systems and methods for use of a variable stiffness flexible elongate device
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
CN118033607A (zh) * 2018-12-12 2024-05-14 美国亚德诺半导体公司 飞行时间深度成像系统的内置校准
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
US11172184B2 (en) * 2018-12-13 2021-11-09 Covidien Lp Systems and methods for imaging a patient
WO2020129034A1 (en) * 2018-12-19 2020-06-25 INDIAN INSTITUTE OF TECHNOLOGY MADRAS (IIT Madras) Robotic surgery systems and surgical guidance methods thereof
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US10867375B2 (en) * 2019-01-30 2020-12-15 Siemens Healthcare Gmbh Forecasting images for image processing
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
US20200297292A1 (en) * 2019-03-21 2020-09-24 Covidien Lp Catheter tip detection in fluoroscopic video using deep learning
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
FR3094889B1 (fr) 2019-04-12 2022-08-19 Quantum Surgical Dispositif et procédé de contrôle de la respiration d’un patient pour un robot médical
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US12089902B2 (en) 2019-07-30 2024-09-17 Coviden Lp Cone beam and 3D fluoroscope lung navigation
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
US12059281B2 (en) 2019-08-19 2024-08-13 Covidien Lp Systems and methods of fluoro-CT imaging for initial registration
US11864935B2 (en) * 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
US11931111B2 (en) 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
TWI708217B (zh) * 2019-10-30 2020-10-21 行政院原子能委員會核能研究所 用於雙軸數位斷層合成造影系統的幾何校正方法及其系統
US12102298B2 (en) 2019-12-10 2024-10-01 Covidien Lp Lymphatic system tracking
EP3838159A1 (en) * 2019-12-17 2021-06-23 Koninklijke Philips N.V. Navigating bronchial pathways
US12106504B2 (en) 2019-12-20 2024-10-01 Unify Medical, Inc. Generation of three-dimensional scans for intraoperative imaging
US11710249B2 (en) * 2019-12-20 2023-07-25 Unify Medical, Inc. Generation of three-dimensional scans for intraoperative imaging
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
US11847730B2 (en) * 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
CN112075994B (zh) * 2020-04-13 2021-08-31 上海复拓知达医疗科技有限公司 用于定位医疗器械的光学标识物和医疗器械组件
KR102307919B1 (ko) * 2020-04-22 2021-10-05 한국과학기술연구원 단방향 x선 영상을 이용한 굽힘 가능한 중재의료 기구의 포즈 추정 방법
US12064191B2 (en) 2020-06-03 2024-08-20 Covidien Lp Surgical tool navigation using sensor fusion
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
US11357461B2 (en) 2020-07-31 2022-06-14 Medtronic Navigation, Inc. G-shaped arm imaging devices, systems, and methods
CN111956329B (zh) * 2020-08-12 2022-04-26 中国科学院深圳先进技术研究院 一种双臂机器人标定方法、系统、终端以及存储介质
US20220076451A1 (en) * 2020-09-08 2022-03-10 Weta Digital Limited Motion capture calibration using a three-dimensional assembly
US20220076452A1 (en) * 2020-09-08 2022-03-10 Weta Digital Limited Motion capture calibration using a wand
GB202103514D0 (en) * 2021-03-14 2021-04-28 Tendomend Ltd Systems methods and computer readable storage media for a set of proximity markers disposed on opposite ends of a gap dense regular connective tissue
WO2022217291A1 (en) 2021-04-09 2022-10-13 Pulmera, Inc. Medical imaging systems and associated devices and methods
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
WO2023004303A1 (en) * 2021-07-20 2023-01-26 Pulmera, Inc. Image guidance for medical procedures
MX2024003480A (es) 2021-09-22 2024-05-23 Qapel Medical Inc Metodos y aparatos para cateteres, puntas adaptables para cateteres, incluso para cateteres de aspiracion, y cateteres de aspiracion con puntas ajustables.
CN114012736A (zh) * 2021-12-08 2022-02-08 北京云迹科技有限公司 一种辅助环境定位用定位物及机器人系统
CN115153782A (zh) * 2022-08-12 2022-10-11 哈尔滨理工大学 一种超声引导下的穿刺机器人空间注册方法
WO2024057210A1 (en) 2022-09-13 2024-03-21 Augmedics Ltd. Augmented reality eyewear for image-guided medical intervention
WO2024075122A1 (en) * 2022-10-03 2024-04-11 Magnisity Ltd. Distortion modeling and compensation in a curve-tracked detector array
US20240216072A1 (en) * 2023-01-03 2024-07-04 Nuvasive, Inc. Calibration for surgical navigation
US11857381B1 (en) 2023-04-25 2024-01-02 Danylo Kihiczak Anatomical localization device and method of use

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2567149B1 (fr) 1984-07-06 1986-12-05 Solvay Procede pour l'extraction de poly-beta-hydroxybutyrates au moyen d'un solvant a partir d'une suspension aqueuse de micro-organismes
DE3441593A1 (de) 1984-11-14 1986-05-22 Ferd. Rüesch AG, St. Gallen Verfahren und vorrichtung zum herstellen von siebdruckgeweben fuer siebdruckzylinder
JP3356356B2 (ja) 1994-07-15 2002-12-16 株式会社日立メディコ X線撮影装置
US5792135A (en) 1996-05-20 1998-08-11 Intuitive Surgical, Inc. Articulated surgical instrument for performing minimally invasive surgery with enhanced dexterity and sensitivity
EP0932829B1 (en) 1996-10-15 2008-09-17 Renner Herrmann S.A. Fluid analysis system and method, for analysing characteristic properties of a fluid
WO1998036236A1 (en) 1997-02-13 1998-08-20 Super Dimension Ltd. Six-degree tracking system
GB9713018D0 (en) 1997-06-20 1997-08-27 Secr Defence Optical fibre bend sensor
US6470207B1 (en) * 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
EP1173105B1 (en) 1999-04-22 2004-10-27 Medtronic Surgical Navigation Technologies Apparatus and method for image guided surgery
US8004229B2 (en) 2005-05-19 2011-08-23 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US6484049B1 (en) 2000-04-28 2002-11-19 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6714810B2 (en) * 2000-09-07 2004-03-30 Cbyon, Inc. Fluoroscopic registration system and method
US7599730B2 (en) * 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US6895076B2 (en) * 2003-06-03 2005-05-17 Ge Medical Systems Global Technology Company, Llc Methods and apparatus for multiple image acquisition on a digital detector
US7147373B2 (en) 2003-08-08 2006-12-12 University Health Network Method and system for calibrating a source and detector instrument
US7097357B2 (en) * 2004-06-02 2006-08-29 General Electric Company Method and system for improved correction of registration error in a fluoroscopic image
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US20060013523A1 (en) 2004-07-16 2006-01-19 Luna Innovations Incorporated Fiber optic position and shape sensing device and method relating thereto
US9526587B2 (en) 2008-12-31 2016-12-27 Intuitive Surgical Operations, Inc. Fiducial marker design and detection for locating surgical instrument in images
US20080132757A1 (en) 2006-12-01 2008-06-05 General Electric Company System and Method for Performing Minimally Invasive Surgery Using a Multi-Channel Catheter
JP5373632B2 (ja) 2007-01-29 2013-12-18 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 侵襲を最小限にする外科システム及び該システムの作動方法
US7957582B2 (en) * 2007-06-21 2011-06-07 General Electric Company Method and system for correction of fluoroscope image distortion
EP2626006B1 (en) * 2007-08-14 2019-10-09 Koninklijke Philips N.V. Robotic instrument systems utilizing optical fiber sensors
US9259274B2 (en) 2008-09-30 2016-02-16 Intuitive Surgical Operations, Inc. Passive preload and capstan drive for surgical instruments
US20100305427A1 (en) 2009-06-01 2010-12-02 General Electric Company Long-range planar sensor array for use in a surgical navigation system
WO2012046202A1 (en) 2010-10-08 2012-04-12 Koninklijke Philips Electronics N.V. Flexible tether with integrated sensors for dynamic instrument tracking
WO2012052929A2 (en) * 2010-10-18 2012-04-26 Activiews Ltd. System and method for facilitating navigation of a tool using a fluoroscope
US8900131B2 (en) 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
WO2013016286A2 (en) 2011-07-23 2013-01-31 Broncus Medical Inc. System and method for automatically determining calibration parameters of a fluoroscope
US9452276B2 (en) 2011-10-14 2016-09-27 Intuitive Surgical Operations, Inc. Catheter with removable vision probe
EP2660776A1 (en) * 2012-05-01 2013-11-06 Universität Bern Image distortion correction and robust phantom detection
JP6633391B2 (ja) 2012-06-28 2020-01-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 血管の視覚化及び監視のための光ファイバセンサ誘導ナビゲーション
WO2014078425A1 (en) 2012-11-14 2014-05-22 Intuitive Surgical Operations, Inc. Smart drapes for collision avoidance
US9014851B2 (en) * 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
EP2968857B1 (en) 2013-03-15 2022-05-04 Intuitive Surgical Operations, Inc. Shape sensor systems for tracking interventional instruments
WO2015010859A1 (en) 2013-07-23 2015-01-29 Koninklijke Philips N.V. Registration system for registering an imaging device with a tracking device
EP3092479A4 (en) * 2014-01-06 2017-11-22 Body Vision Medical Ltd. Surgical devices and methods of use thereof
KR20220065894A (ko) * 2014-07-28 2022-05-20 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 수술중 세그먼트화를 위한 시스템 및 방법
WO2017030913A2 (en) 2015-08-14 2017-02-23 Intuitive Surgical Operations, Inc. Systems and methods of registration for image-guided surgery
US11202680B2 (en) 2015-08-14 2021-12-21 Intuitive Surgical Operations, Inc. Systems and methods of registration for image-guided surgery
WO2018076109A1 (en) * 2016-10-24 2018-05-03 Torus Biomedical Solutions Inc. Systems and methods for producing real-time calibrated stereo long radiographic views of a patient on a surgical table

Also Published As

Publication number Publication date
US20190038365A1 (en) 2019-02-07
CN114652441A (zh) 2022-06-24
EP3413829B1 (en) 2024-05-22
WO2017139591A1 (en) 2017-08-17
EP3413829A1 (en) 2018-12-19
KR20180104763A (ko) 2018-09-21
EP3413829A4 (en) 2019-10-09
EP4375934A2 (en) 2024-05-29
US20220346886A1 (en) 2022-11-03
CN109069217A (zh) 2018-12-21
EP4375934A3 (en) 2024-07-31
US11399895B2 (en) 2022-08-02
CN109069217B (zh) 2022-05-06
JP2019504714A (ja) 2019-02-21

Similar Documents

Publication Publication Date Title
JP6828047B2 (ja) 画像誘導手術における透視撮像システムの姿勢推定及び較正のシステム及び方法
JP7503603B2 (ja) 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法
US20240041531A1 (en) Systems and methods for registering elongate devices to three-dimensional images in image-guided procedures
CN110325138B (zh) 用于智能种子配准的系统和方法
JP7229155B2 (ja) 画像誘導手術のための連続的な位置合せのシステム及び方法
CN110225710B (zh) 用于图像引导的程序的配准的系统和方法
JP6772180B2 (ja) 画像誘導手術における位置合せ補償のシステム及び方法
US20210100627A1 (en) Systems and methods related to elongate devices
US20220392087A1 (en) Systems and methods for registering an instrument to an image using point cloud data
EP3791362A1 (en) Systems and methods related to registration for image guided surgery
US20230360212A1 (en) Systems and methods for updating a graphical user interface based upon intraoperative imaging

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180824

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210120

R150 Certificate of patent or registration of utility model

Ref document number: 6828047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250