CN112890953A - 用于维持通气和/或心动周期期间远侧导管尖端到靶标的定位的方法 - Google Patents

用于维持通气和/或心动周期期间远侧导管尖端到靶标的定位的方法 Download PDF

Info

Publication number
CN112890953A
CN112890953A CN202011374509.4A CN202011374509A CN112890953A CN 112890953 A CN112890953 A CN 112890953A CN 202011374509 A CN202011374509 A CN 202011374509A CN 112890953 A CN112890953 A CN 112890953A
Authority
CN
China
Prior art keywords
catheter
target
location
sensor
fluoroscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011374509.4A
Other languages
English (en)
Inventor
S·格雷曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Covidien LP
Original Assignee
Covidien LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Covidien LP filed Critical Covidien LP
Publication of CN112890953A publication Critical patent/CN112890953A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • A61B5/6852Catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/98Identification means for patients or instruments, e.g. tags using electromagnetic means, e.g. transponders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M25/00Catheters; Hollow probes
    • A61M25/01Introducing, guiding, advancing, emplacing or holding catheters
    • A61M25/0105Steering means as part of the catheter or advancing means; Markers for positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M25/00Catheters; Hollow probes
    • A61M25/01Introducing, guiding, advancing, emplacing or holding catheters
    • A61M25/0105Steering means as part of the catheter or advancing means; Markers for positioning
    • A61M25/0116Steering means as part of the catheter or advancing means; Markers for positioning self-propelled, e.g. autonomous robots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • A61B1/00133Drive units for endoscopic tools inserted through or with the endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • A61B2017/00699Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body correcting for movement caused by respiration, e.g. by triggering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pulmonology (AREA)
  • Anesthesiology (AREA)
  • Hematology (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本公开涉及用于维持通气和/或心动周期期间远侧导管尖端到靶标的定位的方法。一种维持导管在腔网络内的定位的方法和系统。所述方法包含:确定所述导管的远端的定位;确定靶标的定位;以及计算所述导管的所述远端与所述靶标之间的偏移。所述方法进一步包含:监测所述靶标和所述导管的移动;向一个或多个马达发送信号,所述马达与所述导管可操作地连通并且被配置成调整所述导管的远侧部分;以及驱动所述一个或多个马达,使得基本上维持所述导管的所述远端与所述靶标之间的所述偏移。

Description

用于维持通气和/或心动周期期间远侧导管尖端到靶标的定 位的方法
相关申请的交叉引用
本申请要求于2019年12月4日提交的美国临时专利申请序列号62/943,696 的权益和优先权,所述美国临时专利申请的整个内容通过引用并入本文。
技术领域
本公开涉及如活检或消融工具等医疗装置的导航以及维持所述医疗装置相对于靶标的定位的领域。
背景技术
存在几种用于治疗影响器官的各种疾病的通常应用的医疗方法,如内窥镜程序或微创程序,所述器官包含肝脏、大脑、心脏、肺部、胆囊、肾和骨骼。通常,临床医生采用如磁共振成像(MRI)、超声成像、计算机断层摄影(CT) 或荧光透视等一种或多种成像方式,来标识患者体内的所关注的区域和用于活检或治疗的最终靶标并且导航到所关注的区域和最终靶标。在一些程序中,可以利用术前扫描来进行靶标标识和术中引导。然而,可能需要实时成像来获得靶标区域的更准确的且当前的图像。此外,可能需要显示医疗装置相对于靶标的当前位置以及其周围的实时图像数据,来以安全且准确的方式(例如,在不会引起对其它器官或组织的损害的情况下)将医疗装置导航到靶标。
例如,已经证明内窥镜方法在导航到患者体内的所关注的区域时是有用的,并且特别地对于身体的腔网络内的区域(如肺部)也是如此。为了实现内窥镜方法以及更具体地肺部中的支气管镜方法,已经开发了支气管内导航系统,所述支气管内导航系统使用先前获取的MRI数据或CT图像数据来生成特定身体部分(如肺部)的三维(3D)渲染、模型或体积。
可以利用根据MRI扫描或CT扫描所生成的所得体积来创建导航计划,以促进推进导航导管(或其它合适的医疗装置)通过支气管镜和患者的支气管的分支到达所关注的区域。可以将如电磁(EM)跟踪系统等定位或跟踪系统与例如CT数据结合使用,以促进引导导航导管通过支气管的分支到达所关注的区域。在某些情况下,导航导管可以定位在分支腔网络的临近于所关注的区域或位于所关注的区域内的气道中的一个气道内,以提供用于一个或多个医疗仪器的通路。
然而,一旦将导管导航到期望的位置,导管在患者体内的定位就会不断变化。导管的定位的变化可能是由工具通过导管的移动、呼吸期间肺部本身的移动以及由肺部向心脏的靠近而引起的移动引起的,作为心动过程的一部分,肺部向心脏的靠近处于不断运动中。因此,期望改进当前系统。
发明内容
本公开的一个方面涉及一种维持导管的定位的方法,所述方法包含:确定所述导管的远端的定位;确定靶标的定位;计算所述导管的所述远端与所述靶标之间的偏移;监测所述靶标和所述导管的移动。所述方法还包含向一个或多个马达发送信号,所述马达与所述导管可操作地连通并且被配置成调整所述导管的远侧部分。所述方法还包含驱动所述一个或多个马达,使得基本上维持所述导管的所述远端与所述靶标之间的所述偏移。此方面的其它实施例包含各自被配置成执行本文所述的方法和系统的动作的对应的计算机系统、设备和记录在一个或多个计算机存储装置上的计算机程序。
本公开的此方面的实施方案可以包含以下特征中的一个或多个。所述方法进一步包含进行所述导管和所述靶标的局部配准。所述方法进一步包含捕获所述靶标和所述导管的荧光透视图像。所述方法进一步包含将所述荧光透视图像与在所述局部配准期间捕获的荧光透视3D重构的切片进行比较。所述方法包含使用超声可视化检测所述靶标的所述定位。所述方法进一步包含利用传感器检测所述导管的远端的定位。所述方法,其中所述传感器为电磁传感器。所述方法,其中所述靶标的所述定位基于所述导管的所述远端的计算出的偏移和检测到的定位计算。所描述技术的实施方案可以包含硬件、方法或过程或者计算机可存取介质上的计算机软件,包含软件、固件、硬件或安装在所述系统上的在操作中使所述系统执行所述动作的其组合。一个或多个计算机程序可以被配置成借助于包含指令来执行特定操作或动作,所述指令当由数据处理设备执行时使所述设备执行所述动作。
本公开的另外的方面涉及一种将导管导航到腔网络内的期望位置的方法,所述方法包含:接收CT图像数据集;在所述CT图像数据集中标识一个或多个靶标;生成所述腔网络的三维(3D)模型和到达所述一个或多个靶标的路径;将所述3D模型和所述路径与腔网络配准;随着沿所述路径接近所述靶标之一,更新所述导管在所述3D模型中的所述定位;执行局部配准以确定所述导管和所述靶标之一的相对定位;获取所述腔网络的荧光透视图像;确定所述靶标和所述导管在所述荧光透视图像中的定位;检测所述导管的远侧部分上的传感器的定位;计算所述靶标在所述传感器的坐标系中的定位;以及接收来自计算装置的信号,所述信号用于驱动与所述导管可操作地关联的一个或多个马达,以使所述导管定位相对于所述靶标定位维持恒定。此方面的其它实施例包含各自被配置成执行本文所述的方法和系统的动作的对应的计算机系统、设备和记录在一个或多个计算机存储装置上的计算机程序。
本公开的此方面的实施方案可以包含以下特征中的一个或多个。所述方法进一步包含将所述荧光透视图像与在所述局部配准期间捕获的荧光透视3D重构的切片进行比较。所述方法包含使用超声可视化检测所述靶标的所述定位。所述方法,其中所述传感器可操作地连接到导管的远侧部分。所述方法,其中所述传感器为电磁传感器。所述方法进一步包含检测一个或多个参考传感器的定位。所述方法,其中所述荧光透视图像为荧光透视视频,并且所述计算所述靶标在所述传感器的坐标系中的定位通过所述荧光透视视频多次进行。所述方法进一步包含将通过重复确定所述靶标的定位确定的所述靶标的移动与所述一个或多个参考传感器和所述导管的所述远侧部分上的所述传感器的所述移动匹配。所述方法进一步包含当所述一个或多个参考传感器或所述导管的所述远侧部分上的所述传感器的所述移动处于容许范围限制内时,基于用于使所述导管定位相对于所述靶标定位维持恒定的所述接收到的驱动信号驱动所述一个或多个马达。所述方法包含:检测到所述参考传感器或所述导管的所述远侧部分上的所述传感器的所述定位处于容许范围限制之外以及执行第二局部配准以确定所述导管和所述靶标之一的新相对定位;获取所述腔网络的另外的荧光透视图像;确定所述靶标和所述导管在所述荧光透视图像中的新定位;检测所述导管的远侧部分上的传感器的新定位;计算所述靶标在所述传感器的坐标系中的新定位;以及接收来自计算装置的信号,所述信号用于驱动与所述导管可操作地关联的一个或多个马达,以将所述新导管定位相对于所述新靶标定位维持恒定。所述方法,其中所述靶标的所述定位基于所述导管的所述远端的计算出的偏移和检测到的定位计算。所描述技术的实施方案可以包含硬件、方法或过程或者计算机可存取介质上的计算机软件,包含软件、固件、硬件或安装在所述系统上的在操作中使所述系统执行所述动作的其组合。一个或多个计算机程序可以被配置成借助于包含指令来执行特定操作或动作,所述指令当由数据处理设备执行时使所述设备执行所述动作。
本公开的仍另外的方面涉及一种系统,所述系统包含:导管,所述导管包含用于操纵所述导管的远侧部分的驱动机构,所述导管包含其远侧部分上的传感器;计算装置,所述计算装置包含处理器和计算机可读记录介质,所述计算装置被配置成接收来自所述传感器的用于确定所述导管的所述远侧部分的定位的信号。所述系统还包含接收来自一个或多个参考传感器的信号。所述系统还包含接收所述导管接近靶标的荧光透视视频。所述系统还包含在所述荧光透视视频中确定所述导管和所述靶标在多种情况下的相对定位。所述系统还包含计算所述靶标在所述传感器的坐标系中的定位。所述系统还包含生成用于驱动所述导管的所述远侧部分以使所述导管定位相对于所述靶标定位维持恒定的信号。此方面的其它实施例包含各自被配置成执行本文所述的方法和系统的动作的对应的计算机系统、设备和记录在一个或多个计算机存储装置上的计算机程序。
本公开的此方面的实施方案可以包含以下特征中的一个或多个。所述系统,其中所述驱动机构包含可操作地连接到一个或多个拉线并且被配置成接收由所述计算装置生成的所述信号的一个或多个马达。所述系统,其中所述导管的所述远侧部分上的所述传感器为电磁传感器。所述系统,其中所述驱动机构为机器人导管驱动系统的一部分。所描述技术的实施方案可以包含硬件、方法或过程或者计算机可存取介质上的计算机软件,包含软件、固件、硬件或安装在所述系统上的在操作中使所述系统执行所述动作的其组合。一个或多个计算机程序可以被配置成借助于包含指令来执行特定操作或动作,所述指令当由数据处理设备执行时使所述设备执行所述动作。
附图说明
在下文中参考附图描述了本公开的各个方面和实施例,在附图中:
图1是根据本公开的用于通过腔网络导航到软组织靶标的系统的示意图;
图2是根据本公开的各方面的导航程序的用户界面;
图3是根据本公开的各方面的导航程序的用户界面;
图4是根据本公开的各方面的导航程序的用户界面;
图5是根据本公开的各方面的导航程序的用户界面;
图6是根据本公开的各个方面的导航程序的用户界面;
图7是根据本公开的各方面的导航程序的用户界面;
图8是根据本公开的各方面的导航程序的用户界面;
图9是根据本公开的各方面的导航程序的用户界面;
图10是根据本公开的各方面的导航程序的用户界面;
图11是详述根据本公开的方法的流程图;
图12A是根据本公开的机动导管的透视图;
图12B是图12A的机动导管的驱动机构的一部分的具体放大透视;
图13是超声成像应用的用户界面;并且
图14是根据本公开的各方面的计算装置的示意图。
具体实施方式
根据本公开,可以由如CT扫描等先前获取的扫描生成患者的肺部或解剖结构的另一合适部分的3D体积。这些扫描可以用于生成解剖结构的3D模型。3D 模型和相关扫描数据用于标识靶标,例如,用于活检或治疗的潜在病变,并且用于生成穿过解剖结构以到达靶标的路径计划。
一旦生成了路径计划并且临床医生接受了所述路径计划,导航系统就可以利用所述路径计划来沿路径计划驱动导管通过解剖结构以到达期望的靶标。沿路径计划驱动导管可以是手动的,或者其也可以是机器人的,或两者的组合。手动系统包含美敦力公司(Medtronic PLC)销售的ILLUMISITE导航系统,机器人系统包含直觉手术公司(IntuitiveSurgical Inc.)销售的ION系统和Auris健康公司(Auris Health,Inc)销售的MONARCH系统。在单个程序规划中,执行路径计划与患者的配准以及导航,以使医疗装置(例如,导管)能够沿计划的路径被导航以到达靶标(例如,病变),使得可以完成靶标的活检或治疗。
如上所述,无论是手动的还是机器人的,都必须在将导管导航到解剖结构内的靶标可以开始之前,将由程序前扫描数据开发的路径计划和3D模型与患者配准。一旦配准,就可以遵循路径计划将导管或其它工具导航到期望位置。尽管不论采用的配准方法如何,对于路径的一般导航而言,此配准通常更合适,并且存在许多配准方法,但是3D模型和路径计划可能仍无法为导航的“最后一英里”提供允许将医疗装置或仪器引导到靶标以用于活检和治疗的足够的准确性。
在某些情况下,不准确性是由程序期间患者的肺部相对于获取先前获取的CT数据时的肺部的变形引起的。此变形(CT到身体散度)可能是由许多不同的因素引起的,包含例如,当在镇静状态与非镇静状态之间转换时身体的变化、支气管镜改变患者的姿势、支气管镜和导管推动组织、不同的肺部体积(例如, CT扫描是在吸气后的完全屏气期间获取的,而导航通常是在患者呼吸时执行的)、不同的床位、不同的日子等。因此,可以采用另一种成像方式来帮助实时可视化医疗装置和靶标并增强体内导航程序。
在将医疗装置导航到靶标时,临床医生可以使用荧光透视成像来可视化医疗装置相对于靶标的定位。尽管荧光透视图像会显示如金属工具、骨头等高密度物体,以及如心脏等大型软组织物体,但荧光透视图像可能无法清楚地显示如病变等所关注的小型软组织物体。此外,荧光透视图像是二维(2D)投影,这使得确定视图中的深度变得困难。
已经开发了X射线体积重构,以实现对软组织物体的标识并更新靶标和导管在路径计划和3D模型中的相对定位。体积重构是由在与所讨论的组织不同的角度下取得的一系列2D荧光透视图像进行的。在下面更详细地描述的一种方法中,路径计划以及导管和靶标的相对位置的更新可以利用局部配准过程实现。此局部配准过程降低了CT到身体散度。在局部配准过程之后,在一个实施例中,可以从导管中移除可定位引导件(即,具有多个传感器的导管),并且将医疗装置(例如,活检工具)引入到导管中以用于导航到靶标以执行对靶标(例如,病变)的活检或治疗。
然而,即使在3D模型和路径计划中更新了导管和靶标的相对定位的情况下利用局部配准,维持如在局部配准中确认的导管和靶标的对准也可能是有挑战性的。此挑战的来源与身体的两个主要功能有关,即呼吸和心动功能(即,心跳)。
误差的另一个来源是在局部配准可能引起尖端偏斜后工具通过导管传递。当导管包含传感器时,例如,电磁传感器或柔性传感器(感测导管的一部分的形状和朝向),这些类型的移动可以通过图形用户界面(GUI)报告给临床医生,在所述用户界面上会显示导航软件,并且导航软件允许按照路径计划到达靶标。由工具通过导管的传递引起的移动表现为GUI上靶标相对于导管的定位的移动。
本公开的一个实施例涉及一种包含一个或多个拉线的导管。由导航系统感测传感器的移动,并且可以通过操纵拉线对导管的位置进行微调整。可以采用这些相同的拉线来不断地调整导管以及尤其在随着其由于肺部运动而移动时导管的远侧部分的定位,所述肺部运动是由心动周期或通气周期引起的。此调整可以消除临床医生使患者在程序期间进行“屏气”的需要,以至少最小化程序的部分期间肺部的移动。众所周知,屏气花费时间,并且如果屏气保持过长,会给患者带来压力。
拉线使导管改变远侧部分处的形状和曲率,并且可以由临床医生手动地操纵或通过计算机控制的系统(例如,机器人)自动操纵。在计算机控制的情况下,用作机器人的输入的感测到的导管的定位可以产生“锁相”,在锁相的情况下,通过不断操纵拉线,导管和靶标的相对定位保持恒定。
根据本公开的各方面,并且如上所述,医疗装置(例如,活检工具)朝靶标(例如,病变)的体内导航的可视化可以是如电磁导航系统等导航系统的更大工作流程的一部分。图1是用于促进通过肺部的气道将医疗装置(例如,导管)导航到软组织靶标的示例性系统的透视图。系统100可被进一步配置成由 2D荧光透视图像构造靶标区域的基于荧光透视的三维体积数据,以确认到期望位置的导航。系统100可以被进一步配置成促进通过使用电磁导航(EMN)使医疗装置接近靶标区域并且用于确定医疗装置相对于靶标的位置。一种此EMN 系统是当前由美敦力公司销售的ILLUMISITE统,但是用于腔内导航的其它系统也被视为处于如上所述的本公开的范围内。
系统100的一个方面是用于查看已从系统100单独获取的计算断层摄影(CT)图像扫描数据的软件组件。对CT图像数据的查看允许用户标识一个或多个靶标、计划到达所标识的靶标的路径(规划阶段)、使用计算装置122上的用户界面将导管102导航到靶标(导航阶段)以及确认传感器104相对于靶标的放置。靶标可以是在规划阶段期间通过查看CT图像数据所标识的所关注的组织。在导航之后,可将如活检工具或其它工具等医疗装置插入到导管102中,以从位于靶标处或接近于靶标的组织中获得组织样品。
如图1所示,导管102是导管引导组合件106的一部分。在实践中,导管 102插入到支气管镜108中以进入患者P的腔网络。具体地,导管引导组合件 106的导管102可以插入到支气管镜108的工作通道中以导航通过患者的腔网络。包含传感器104的可定位引导件(LG)110(第二导管)被插入到导管102 中并且被锁定到定位处,使得传感器104延伸超过导管102的远侧尖端的期望距离。可以得到电磁场内传感器104相对于参考坐标系的定位和朝向,以及因此导管102的远侧部分的定位和朝向。导管引导组合件106目前由美敦力公司以商品名
Figure RE-GDA0002888629720000091
程序套件或EDGETM程序套件市售和销售,并且被设想为可与本公开一起使用。
系统100通常包含操作台112,所述操作台被配置成支撑患者P;支气管镜 108,所述支气管镜被配置成用于通过患者P的口腔插入到患者P的气道中;监测设备114,所述监测设备联接到支气管镜108(例如,用于显示从支气管镜108 的视频成像系统接收到的视频图像的视频显示器);定位或跟踪系统114,所述定位或跟踪系统包含定位模块116、多个参考传感器18和发射器垫120,所述发射器垫包含多个并入的标记物;以及计算装置122,所述计算装置包含用于促进靶标的标识、到靶标的路径规划、医疗装置到靶标的导航和/或对相对于靶标放置导管102或通过其的合适装置的确认和/或确定的软件和/或硬件。计算装置122可以与图14的工作站1401类似并且可以被配置成执行本公开的包含图11 的方法的方法。
系统100的此特定方面中还包含能够获取患者P的荧光透视或X射线图像或视频的荧光透视成像装置124。由荧光透视成像装置124捕获的图像、系列图像或视频可以存储在荧光透视成像装置124内,或传输到计算装置122以用于存储、处理和显示。另外,荧光透视成像装置124可以相对于患者P移动,使得可以从相对于患者P的不同角度或视角处获取图像,以产生如荧光透视视频等一系列荧光透视图像。荧光透视成像装置124相对于患者P并且在捕获图像时的姿势可以通过与发射器垫120一起并入的标记物来估计。标记物定位在患者P之下、患者P与操作台112之间以及患者P与荧光透视成像装置124的辐射源或感测单元之间。与发射器垫120一起并入的标记物可以是可以以固定的方式联接或可替代地可以被制造为单个单元的两个单独的元件。荧光透视成像装置124可以包含单个成像装置或多于一个成像装置。
计算装置122可以是包含处理器和存储介质的任何合适的计算装置,其中处理器能够执行存储于存储介质上的指令。计算装置122可以进一步包含数据库,所述数据库被配置成存储患者数据、包含CT图像的CT数据集、包含荧光透视图像和视频的荧光透视数据集、荧光透视3D重构、导航计划以及任何其它此类数据。尽管未明确展示,但是计算装置122可以包含输入,或者可以另外被配置成接收CT数据集、荧光透视图像/视频和本文描述的其它数据。另外,计算装置122包含被配置成显示图形用户界面的显示器。计算装置122可以连接到一个或多个网络,通过所述一个或多个网络可以访问一个或多个数据库。
关于规划阶段,计算装置122利用预先获取的CT图像数据来生成并查看患者P的气道的三维模型或渲染,实现对三维模型上的靶标(自动地、半自动地或手动地)的标识,并允许确定通过患者P的气道到达位于靶标处和靶标周围的组织的路径。更具体地,将从先前的CT扫描中获取的CT图像处理并组装成三维CT体积,随后利用所述三维CT体积来生成患者P的气道的三维模型。三维模型可以在与计算装置122相关联的显示器上显示,或以任何其它合适的方式显示。使用计算装置122,呈现了三维模型或由三维模型生成的增强的二维图像的各个视图。增强的二维图像可以具有某些三维能力,因为其是由三维数据生成的。可以操纵三维模型以促进对三维模型或二维图像上的靶标的标识,并且可以进行对通过患者P的气道进入位于靶标处的组织的合适的路径的选择。一旦进行选择,就可以保存路径计划、三维模型以及由其得到的图像并且将其导出到导航系统中以用于在一个或多个导航阶段期间使用。当前由美敦力公司销售的ILLUMISITE软件套件包含一种此规划软件。
关于导航阶段,利用六自由度电磁定位或跟踪系统114或用于确定导管102 的远侧部分的定位和朝向的其它合适的系统来执行图像的配准和导航路径。跟踪系统114包含跟踪模块116、多个参考传感器118和发射器垫120(包含标记物)。跟踪系统114被配置成用于与可定位引导件110以及特别地传感器104一起使用。如以上所描述的,可定位引导件110和传感器104被配置用于穿过导管102插入到患者P的气道中(利用或不利用支气管镜108),并且可通过锁定机构相对于彼此选择性地锁定。
发射器垫120定位在患者P下方。发射器垫120在患者P的至少一部分周围生成电磁场,可以使用跟踪模块116确定所述电磁场内多个参考传感器118 和传感器104的定位。第二电磁传感器126也可以并入到导管102的端部中。第二电磁传感器126可以是五自由度传感器或六自由度传感器。参考传感器118 中的一个或多个附接到患者P的胸部。通常执行配准来协调来自规划阶段的三维模型和二维图像与如通过支气管镜108所观察到的患者P的气道的位置,并允许在知道传感器104的位置的情况下进行导航阶段。
患者P在发射器垫120上的位置的配准可以通过移动传感器104通过患者P 的气道来执行。更具体地,涉及当可定位引导件110移动通过气道时传感器104 的位置的数据使用发射器垫120、参考传感器118和跟踪系统114记录。将由此位置数据产生的形状与在规划阶段中生成的三维模型的传递的内部几何形状进行比较,并且例如利用计算装置122上的软件确定基于比较的形状与三维模型之间的位置相关性。另外,软件标识三维模型中的非组织空间(例如,充满空气的空腔)。软件将表示传感器104的位置的图像与三维模型和/或由三维模型生成的二维图像对准或配准,这是基于记录的位置数据和可定位引导件110仍定位在患者P的气道中的非组织空间中的假设。可替代地,手动配准技术可以通过以下来采用:将具有传感器104的支气管镜108导航到患者P的肺部中的预先指定的位置处,并将来自支气管镜的图像与三维模型的模型数据手动关联。
尽管在本文中关于使用EM传感器的EMN系统进行了描述,但是本公开不限于此,并且可以与柔性传感器、超声传感器结合使用或在没有传感器的情况下使用。另外,本文描述的方法可以与机器人系统结合使用,以使得机器人致动器驱动导管102或支气管镜108接近靶标。
在将患者P与图像数据和路径计划配准后,使用导航软件在计算装置122 上显示如图2中示出的用户界面200,所述用户界面阐述了临床医生将遵循以到达靶标的路径。一旦导管102如图2所示已经成功地被导航接近靶标202,就可以对每个靶标执行局部配准过程以减小CT到身体散度。初始步骤是获取导管 102的2D荧光透视图像,并且如图3所示,例如,通过布置圆,使得导管102 的端部接近所述圆圈的中心来标记导管102的区域。接下来,如图4中所描绘的,通过荧光透视成像装置124捕获一系列例如从AP定位的一侧的约25度到AP定位的另一侧的约25度的荧光透视图像。然后可以由计算装置122生成荧光透视3D重构。荧光透视3D重构的生成基于所述一系列荧光透视图像和与发射器垫120一起并入的标记物的结构在一系列图像上的投影。在生成荧光透视 3D重构之后,如图5所示在计算装置122上的GUI中显示两个荧光透视图像。如图5中的GUI 500所描绘的,导管102的端部需要在这些图像的每个图像中使用标记物502来标记。两个图像是从荧光透视3D重构的不同部分取得的。3D 重构的荧光透视图像可以以可滚动方式呈现在用户界面上,在所述可滚动方式中用户能够在期望时通过连续切片滚动。
接下来,如图6中所描绘的,指导临床医生在GUI 600的荧光透视3D重构中标识和标记靶标。滚动条602允许临床医生通过荧光透视3D重构滚动直到标识出靶标为止。也可以显示CT视图604,以帮助标识靶标的定位。一旦标识出,就将标记物606放置在靶标上。
在GUI 600中标记靶标之后,将要求临床医生在图7的GUI 700中以两个不同的视角标记靶标。再次,滚动条702允许改变所显示的荧光透视图像的深度,使得可以在荧光透视3D重构中找到靶标。第二滚动条704允许通过荧光透视3D重构平移或旋转,以到达要标记靶标的两个视角。荧光透视3D重构的其中要标记靶标的部分由区域标记物706标识。一旦在每个视角中标记了靶标,就显示接近区域标记物706的标记了靶标的所述视角的缩略图图像。一旦完成,就向临床医生呈现图8中的GUI 800,在所述GUI中可以查看整个荧光透视3D重构,以确保靶标或病变通过荧光透视3D重构保留在标记物802内。
在确认在整个荧光透视3D重构的靶标上都存在标记物之后,临床医生可以选择“接受”按钮802,此时局部配准过程结束,并且更新导管102在3D模型和路径计划中的相对定位,以显示导管102的端部和靶标的实际当前相对定位。通过局部配准过程,确定如其在荧光透视3D重构中观察到的靶标与导管102的尖端之间的偏移。通过计算装置122利用所述偏移以校正原始配准过程中的任何误差,并最小化任何CT到身体散度。结果,更新了导航导管在GUI上相对于靶标的位置和/或朝向。此更新对临床医生而言是无缝的,并且在计算机装置 122中呈现如图9中所描绘的GUI 900,其中导管102的位置的更新的相对定位由虚拟导管902和靶标904表示。此时,临床医生对导管102位于相对于如GUI 900中所显示的靶标的位置处具有高置信度。
通过上述过程,在3D荧光透视重构中标记导管102和靶标的相对定位,并确定偏移。另外,在EM场中始终感测导管102的定位以提供其定位的EM坐标,或者如果采用机器人则在机器人坐标中感测所述导管的定位。由于偏移与导管102的定位的检测的组合,因此可以定义靶标的EM场坐标或机器人坐标。
通常在患者处于屏气状态以最小化导管102在荧光透视成像中的移动时,确定如图9所示的导管102和靶标的相对定位。因此,局部配准不考虑由呼吸或心跳引起的导管102或靶标的移动。进一步地,在局部配准过程之后,临床医生或机器人通常会从导管102中移除具有传感器104的LG 110,并且将医疗装置插入在导管102中并朝靶标推进医疗装置。如将理解的,除了呼吸和心跳的影响之外,导管102和靶标的相对定位可能受到LG的移除和其它工具的插入的影响。因此,尽管局部配准是一种进步并且克服了CT到身体散度,但其一定是对导管102和靶标的相对定位的静态更新。
可以使用根据本公开的采用实时荧光透视法的靶标跟踪机构来实时确定导管102和靶标的相对定位。进一步地,可以采用导管102和靶标的此实时确定来生成信号以调整导管102的定位,以维持导管102与靶标之间的相对定位,其中导管包含以下进一步描述的拉线定位机构。
靶标跟踪机构如上关于图7所描述的,在局部配准过程中利用对靶标的标识作为起点。一旦在荧光透视3D重构中标识了靶标,就可以通过在计算装置 122上运行的图像处理应用分析靶标的一般轮廓和形状。
在局部配准之后消除了CT到身体散度的任何点上,可以如参考图11所描述的接合靶标跟踪模块。作为一个实例,靶标跟踪模块可以在移除LG并插入活检工具之后接合。靶标跟踪模块在步骤1102处通过获取如图10中所描绘的实时荧光透视图像开始。接下来,在步骤1104处,在计算装置122上运行的图像处理应用可以将实时荧光透视图像与在生成荧光透视3D重构中并且使用像素比较来标识如图10中示出的实时荧光透视图像中的靶标1002时获取的图像进行比较。接下来,在步骤1106处,图像处理应用可以在图10中的实时荧光透视图像中标识导管102的远侧部分。在步骤1108处,可以计算导管102和靶标在荧光透视图像中的相对定位。从EMN系统中不断获得导管102在EM坐标中的定位。在步骤1110处,利用由图像处理应用确定的导管102和靶标的相对定位以及EM坐标中由EMN系统标识的导管的定位,可以确定靶标在EM坐标中的定位。在实时荧光透视图像是荧光透视视频的情况下,对导管102和靶标的相对定位的此分析和确定可以在荧光透视视频的获取期间以高频率进行。一旦确定了靶标在EM坐标中的实时定位,就可以使用此定位来更新在3D模型(例如图10)中所显示的相对于1112处的检测到的导管的定位的靶标的定位。
在本公开的另一方面,因为在局部配准期间以三个维度标识了靶标的轮廓,所以可以将对任何单个2D荧光透视图像中的靶标的识别与三维靶标的切片匹配。通过将2D荧光透视图像中的靶标与来自局部配准的3D靶标的切片匹配,可以确定整个靶标在EM坐标(即,三个维度)中的定位,以及用于更新靶标在3D模型中相对于导管102的定位的定位。如上所述,此程序可以在程序中的任何点处进行并且可以多次执行。进一步地,只要获取了实时荧光透视图像,就可以随着其由于呼吸而移动并且靶标的EM坐标被不断监测时不断地跟踪图像中靶标的定位。
在本公开的另外的方面,在步骤1114处,可以在指定的时间段(例如,30 秒)监测靶标在EM坐标中的移动。在所述指定的时间段期间,捕获了多个呼吸周期和多个心动周期,并在荧光透视图像中观察到了由于这些身体功能而引起的靶标的移动以及如上文概述的所确定的EM坐标的变化。此监测将需要在指定的时间段内获取实时荧光透视图像(例如,视频)。在此采样期间检测到的靶标的移动可以充当正常呼吸和心动信号期间靶标的基线预期的移动。在此同一时间段期间,可以监测参考传感器118的定位。可以将由于呼吸和心动周期而引起的荧光透视图像中观察到的靶标的移动与参考传感器118的移动匹配。在本公开的一个方面,在匹配之后,如果未检测到参考传感器118的超容许范围移动,则可以假设靶标在呼吸和心动信号期间的定位对应于其在基于检测到的参考传感器118的定位将靶标的定位与参考传感器118的定位匹配时的定位。可以在UI 900上显示此确定的位置。进一步地,如下所述,在步骤1116处,可以使用导管102和靶标在所述时间段内的移动以使得在心动和呼吸周期中的所有时间都维持其之间的偏移的方式来驱动导管102。然而,如果患者咳嗽或存在引起参考传感器118移动超出容许范围的移动或者如在步骤1118处所检测到的,由于导管102中的工具的更换,导管102的其位置超出了容许范围的一些其它事件,计算系统122就可以提醒临床医生基线移动不再有效,并且可能需要靶标的另外的荧光透视视频来准确地确定靶标在EM坐标中的定位。
本公开的仍另外的方面涉及导管102。导管102可以包含可以用于操纵导管的远侧部分的一个或多个拉线。拉线系统是已知的,并且用于包含机器人辅助的外科手术的各种设置。在大多数基于导管的拉线系统中,至少一个但多达六个以及甚至十个拉线并入到导管102中,并且从接近远端延伸到定位在近端处的驱动机构。通过张紧和放松拉线,可以操纵导管的远侧部分的形状。例如,在简单的两拉线系统中,通过放松一根拉线并收回相反的拉线,可以使导管沿收回拉线的方向偏斜。尽管在此详细描述了拉线系统,但是本公开不限于此,并且可以通过各种方式实现对导管102的操纵,所述各种方式包含同心管系统以及使导管102的远端能够移动的其它方式。
在如肺活检和治疗的程序中,确保导管102的远端直接指向靶标是有用的。根据本公开的一个方面,如上所述对靶标的定位进行检测和监测。进一步地,可以由操纵拉线的驱动机构调整导管102的定位,以确保导管始终指向靶标。
根据本公开,驱动机构接收由计算装置122得到的信号以基于由呼吸和心动周期引起的观察到的导管102和靶标的移动驱动导管(例如,延伸和收回拉线)。此装置的一个实例可见于图12A中,所述图描绘了包含三个驱动马达的外壳,所述三个驱动马达用于操纵以5个自由度(例如,左右、上、下和旋转) 从其延伸的导管。在不脱离本公开的范围的情况下,可以采用包含更少个或更多个自由度的其它类型的驱动机构和其它操纵技术。
如上所述,图12描绘了驱动机构1200,所述驱动机构容纳在主体1201中并且安装在与主体1201整体连接的支架1202上。导管102连接到内部壳体1204a 和1204b并且在一个实施例中与所述内部壳体形成集成单元,并且连接到正齿轮1206。在一个实施例中,此集成单元可相对于外壳1201旋转,使得导管102、内部壳体1204a-b和正齿轮1206可以绕轴轴线“z”旋转。导管102和集成内部壳体1204a-b由轴承1208、1210和1212径向支撑。尽管在此详细描述了驱动机构1200,但是在不脱离本公开的范围的情况下,可以采用其它驱动机构来使机器人或临床医生能够将导管驱动到期望位置。
电动马达1214R可以包含用于将机械运动转化成电信号并向计算装置122 提供反馈的编码器。进一步地,电动马达1214R(R指示此马达是否用于诱导导管102的旋转)可以包含用于增加或减小安装在由电动马达1214R驱动的轴上的附接的正齿轮1215的旋转速度的任选齿轮箱。电动马达1214LR(LR指代导管102的铰接部分1217的左右移动)和1214UD(指代铰接部分1217的上下移动),每个马达任选地包含编码器和齿轮箱。相应的正齿轮1216和1218驱动上下和左右转向缆线,如将在下面更详细地描述的。所有三个电动马达1214R、 LR和UD牢固地附接到静止框架1202,以防止其旋转并使正齿轮1215、1216 和1218能够由电动马达驱动。
图12B描绘了引起导管102的铰接部分1217铰接的机构的细节。具体地,以下描绘了在本公开的一个方面中设想了上下铰接的方式。此系统单独与用于驱动正齿轮1216的电动马达1214UD联接将在两线系统中实现如上所述的铰接。然而,在设想四线系统的情况下,可以采用与下文中立即描述的系统相同的第二系统来驱动左右缆线。因此,为了便于理解,在此仅描述了系统之一,其中应理解,本领域的技术人员将容易地理解如何在四线系统中采用第二此系统。本领域的技术人员将认识到,可以采用其它机构来实现导管的远侧部分的铰接,并且在不脱离本公开的范围的情况下,可以采用其它铰接导管。
为了完成导管102的铰接部分1217的上下铰接,可以采用转向缆线1219 a-b。转向缆线1219a-b的远端附接到导管102的远端、位于导管的远端处或在导管的远端附近。转向缆线1219a-b的近端附接到柱1220a和1220b的远侧尖端。如图13所示,柱1220a和1220b纵向地并且沿相反的方向往复运动。柱 1220a的移动导致一个转向缆线1219a加长,并且同时,柱1220b的相反纵向移动导致缆线1219b有效地缩短。转向缆线1219a-b的有效长度的改变的组合影响是使形成导管102的轴的铰接部分1217的接头a在缆线1219b缩短的侧上被压缩并且在转向缆线1219a加长的侧上拉长。
相反的柱1220a和1220b至少在其近端处分别具有内部左手螺纹和内部右手螺纹。如图13所示,容纳在壳体1204b内的是两个螺纹轴1222a和1222b,其中一个是左手旋钮的并且一个是右手螺纹的,以与柱1220a和1220b相对应并配合。轴1222a和1222b具有旋钮到柱1220a和1220a的内部的远端以及具有正齿轮1224a和1224bb的近端。轴1222a和1222b具有绕其轴线旋转的自由。正齿轮1224a和1224b接合行星齿轮1226的内齿。行星齿轮1226也具有与电动马达1214UD的近端上的正齿轮1218的齿接合外齿。
为了沿向上方向铰接导管,临床医生可以通过用于电动马达1214UD的激活开关(未示出)来激活,从而使其旋转正齿轮1218,所述正齿轮进而驱动行星齿轮1226。行星齿轮1226通过内齿轮1224a和1224b连接到轴1222a和1222 b。行星齿轮1226将使齿轮1224a和1224b沿相同方向旋转。轴1222a和1222b 是螺纹的,并且其旋转通过形成于柱1220a和1220b的内部上的配合螺纹传递到柱1220a和1220b的线性运动中。然而,由于柱1220a的内螺纹与柱1220b 的内螺纹相反,因此在行星齿轮1226旋转时,一个柱将向远侧行进,而一个柱将向近侧(即,沿相反方向)行进。因此,上部缆线1219a被向近侧拉动以提升导管102,而下部缆线1219b必须被松弛。如上所述,此同一系统可以用于使用电动马达1214LR、其正齿轮1216、第二行星齿轮(未示出)以及第二组螺纹轴1222和柱1220和连个转向缆线1219来控制端部执行器的左右移动。此外,通过一致地起作用,通过使三个电动马达1214和其相关联的齿轮和转向缆线 1219计算机由计算装置122控制,采用四个转向缆线的系统可以近似于人手腕的移动。
尽管以上关于如驱动机构是手持式导管系统的一部分的情况那样,接收来自临床医生的手动输入进行了总体描述,但是本公开不限于此。在另外的实施例中,驱动机构1200是用于将导管102导航到身体内的期望位置的机器人系统的一部分。根据本公开,在驱动机构是机器人导管驱动系统的一部分的情况下,导管102的远侧部分的定位可以是机器人控制的。在此情况下,计算装置122 确定靶标和导管102的定位。
驱动机构可以接收来自计算装置122或外科医生通过其指定导管102的期望的动作的另一机构的输入。在临床医生控制导管102的移动的情况下,可以通过方向按钮、操纵杆(如拇指操作的操纵杆)、切换键、压力传感器、开关、轨迹球、拨盘、光学传感器以及其任何组合启用此控制。计算装置通过向马达 1214发送控制信号来响应于用户命令。马达1214的编码器将关于马达1214的当前状态的反馈提供给控制单元24。
在本公开的另外的方面,导管102可以包含或被配置成收纳超声成像器 1228。超声成像器1228可以是径向超声换能器、线性超声换能器、电容性微机械超声换能器、压电微机械超声换能器或不脱离本公开的范围的其它超声换能器。根据本公开,在将导管102导航到接近靶标的位置并进行局部配准之后(即,图3-9的步骤),可以接合超声成像应用。通过进行局部配准程序,消除了CT 到身体散度,并且临床医生确信,如导航软件(例如,图9)中显示的导管102 和靶标的相对定位是导管102相对于靶标在体内的放置的准确表示。
超声成像应用在接合时开始捕获超声图像,如图13中示出的图像1300。如果已经进行了局部配准,则导管102和超声换能器1228将指向靶标1302的方向。即使没有进行局部配准,但只要导管102如图2中示出的接近靶标,靶标 1302就应在成像器1228所取得的超声图像1300的视场中。超声成像应用可以请求用户通过例如在靶标周围放置环1304来标识靶标1302。可替代地,超声成像应用可以执行图像图像分析以标识图像中的靶标。在任一情况下,一旦在视场中标识了靶标1302,并且在由传感器104或126提供导管102的定位的情况下,超声成像应用就可以确定在视场中靶标1302定位在哪里,并且可以与计算装置122组合生成用于驱动导管102使得靶标1302在视场中基本上居中的信号。对靶标1304在视场中的位置以及驱动导管102以将靶标保持在超声图像1300 视场中的此图像分析为临床医生提供了信心:尽管有呼吸、心动功能或工具通过导管102传递的影响,导管102的端部也保持与靶标对准。尽管在图12B中示出为形成于导管102上,但是超声换能器1228可以形成于单独的导管上,例如,LG传感器104所定位的导管上。
现在参照图1,所述图为被配置成用于与包含图11的方法的本公开的方法一起使用的系统1400的示意图。系统1400可以包含工作站1401以及任选地荧光透视成像装置或荧光镜1415。在一些实施例中,工作站1401可以例如通过无线通信与荧光镜1415直接地或间接地耦接。工作站1401可以包含存储器1402、处理器1404、显示器1406和输入装置1410。处理器或硬件处理器1404可以包含一个或多个硬件处理器。工作站1401可以任选地包含输出模块1412和网络接口1408。存储器1402可以存储应用1418和图像数据1414。应用1418可以包含可由处理器1404执行以执行包含图11的方法的本公开的方法的指令。
应用1418可以进一步包含用户界面1416。图像数据1414可以包含CT扫描、靶标区域的生成的荧光透视3D重构和/或任何其它荧光透视图像数据和/或 3D重构的生成的一个或多个切片。处理器1404可以与存储器1402、显示器1406、输入装置1410、输出模块1412、网络接口1408和荧光镜1415耦接。工作站1401 可以是如个人计算机等静止计算装置或者如平板计算机等便携式计算装置。工作站1401可以嵌入多个计算机装置。
存储器1402可以包含用于存储包含指令的数据和/或软件的任何非暂时性计算机可读存储介质,所述指令可由处理器1404执行并且控制工作站1401的操作并且在一些实施例中还可以控制荧光镜1415的操作。荧光镜1415可以用于捕获基于其生成荧光透视3D重构的一系列荧光透视图像并且用于捕获根据本公开的实时2D荧光透视视图。在一个实施例中,存储器1402可以包含如固态存储装置等一个或多个存储装置,例如,闪速存储器芯片。可替代地,或除了所述一个或多个固态存储装置之外,存储器1402可以包含通过大容量存储控制器(未示出)和通信总线(未示出)连接到处理器1404的一个或多个大容量存储装置。
尽管本文所含有的计算机可读介质的描述是指固态存储装区,但是本领域的技术人员应当理解,计算机可读存储介质可以是可以由处理器1404存取的任何可用介质。也就是说,计算机可读存储介质可以包含以用于存储如计算机可读指令、数据结构、程序模块或其它数据等信息的任何方法或技术实施的非暂时性、易失性和非易失性、可移动和不可移动介质。例如,计算机可读存储介质可以包含RAM、ROM、EPROM、EEPROM、闪速存储器或其它固态存储技术、CD-ROM、DVD、蓝光或其它光学存储区、磁带盒、磁带、磁盘存储区或其它磁性存储装置,或可以用于存储期望的信息并且可以由工作站1001存取的任何其它介质。
在由处理器1404执行时,应用1418可以使显示器1406呈现用户界面1416。用户界面1416可以被配置成向用户呈现单个屏幕,所述单个屏幕包含来自医疗装置的尖端的视角的靶标的3D模型的三维(3D)视图、示出医疗装置的实时二维(2D)荧光透视视图以及对应于靶标的3D模型、重叠在如图2中示出的实时2D荧光透视视图上靶标标记物。用户界面1416可以被进一步配置成根据医疗装置尖端在三个维度上是否与靶标对准而以不同的颜色显示靶标标记物。
网络接口1408可以被配置成连接到网络,如由有线网络和/或无线网络组成的局域网(LAN)、广域网(WAN)、无线移动网络、蓝牙网络和/或因特网。网络接口1408可以用于在工作站1401与荧光镜1415之间进行连接。网络接口1408 还可以用于接收图像数据1414。输入装置1410可以是用户可以通过其与工作站 1401交互的任何装置,例如鼠标、键盘、脚踏板、触摸屏和/或语音界面。输出模块1412可以包含任何连接端口或总线,例如并行端口、串行端口、通用串行总线(USB)或本领域的技术人员已知的任何其它类似的连接端口。根据上文并且参考各个附图,本领域的技术人员将理解,在不脱离本公开的范围的情况下,还可以对本公开进行某些修改。
尽管本文公开了详述的实施例,但是所公开的实施例仅仅是可以以各种形式并且在方面体现的本公开的实例。例如,本文公开了并入有靶标重叠系统和方法的电磁导航系统的实施例;然而,靶标重叠系统和方法可以应用于本领域的技术人员已知的其它导航或跟踪系统或方法。因此,本文公开的具体结构细节和功能细节不应被解释为限制性的,而仅仅是作为权利要求书的基础并且作为教导本领域的技术人员以实际上任何适当的详细结构来不同地使用本公开的代表性基础。

Claims (20)

1.一种维持导管的定位的方法,所述方法包括:
确定所述导管的远端的定位;
确定靶标的定位;
计算所述导管的所述远端与所述靶标之间的偏移;
监测所述靶标和所述导管的移动;
向一个或多个马达发送信号,所述马达与所述导管可操作地连通并且被配置成调整所述导管的远侧部分;以及
驱动所述一个或多个马达,使得基本上维持所述导管的所述远端与所述靶标之间的所述偏移。
2.根据权利要求1所述的方法,其进一步包括进行所述导管和所述靶标的局部配准。
3.根据权利要求2所述的方法,其进一步包括捕获所述靶标和所述导管的荧光透视图像。
4.根据权利要求3所述的方法,其进一步包括将所述荧光透视图像与在所述局部配准期间捕获的荧光透视3D重构的切片进行比较。
5.根据权利要求1所述的方法,其进一步包括使用超声可视化检测所述靶标的所述定位。
6.根据权利要求1所述的方法,其进一步包括利用传感器检测所述导管的远端的定位。
7.根据权利要求5所述的方法,其中所述靶标的所述定位基于所述导管的所述远端的计算出的偏移和检测到的定位计算。
8.一种将导管导航到腔网络内的期望位置的方法,所述方法包括:
接收CT图像数据集;
在所述CT图像数据集中标识一个或多个靶标;
生成所述腔网络的三维(3D)模型和到达所述一个或多个靶标的路径;
将所述3D模型和所述路径与腔网络配准;
随着沿所述路径接近所述靶标之一,更新所述导管在所述3D模型中的所述定位;
执行局部配准以确定所述导管和所述靶标之一的相对定位;
获取所述腔网络的荧光透视图像;
确定所述靶标和所述导管在所述荧光透视图像中的定位;
检测所述导管的远侧部分上的传感器的定位;
计算所述靶标在所述传感器的坐标系中的定位;以及
接收来自计算装置的信号,所述信号用于驱动与所述导管可操作地关联的一个或多个马达,以使所述导管定位相对于所述靶标定位维持恒定。
9.根据权利要求8所述的方法,其进一步包括使用超声可视化检测所述靶标的所述定位。
10.根据权利要求8所述的方法,其中所述传感器可操作地连接到导管的远侧部分。
11.根据权利要求10所述的方法,其中所述传感器为电磁传感器。
12.根据权利要求10所述的方法,其中所述靶标的所述定位基于所述导管的所述远端的计算出的偏移和检测到的定位计算。
13.根据权利要求11所述的方法,其进一步包括检测一个或多个参考传感器的定位。
14.根据权利要求13所述的方法,其中所述荧光透视图像为荧光透视视频,并且所述计算所述靶标在所述传感器的坐标系中的定位通过所述荧光透视视频多次进行。
15.根据权利要求14所述的方法,其进一步包括将通过重复确定所述靶标的定位确定的所述靶标的移动与所述一个或多个参考传感器和所述导管的所述远侧部分上的所述传感器的所述移动匹配。
16.根据权利要求15所述的方法,其进一步包括当所述一个或多个参考传感器或所述导管的所述远侧部分上的所述传感器的所述移动处于容许范围限制内时,基于用于使所述导管定位相对于所述靶标定位维持恒定的接收到的驱动信号驱动所述一个或多个马达。
17.根据权利要求15所述的方法,其进一步包括检测到所述参考传感器或所述导管的所述远侧部分上的所述传感器的所述定位处于容许范围限制之外;
执行第二局部配准以确定所述导管和所述靶标之一的新相对定位;
获取所述腔网络的另外的荧光透视图像;
确定所述靶标和所述导管在所述荧光透视图像中的新定位;
检测所述导管的远侧部分上的传感器的新定位;
计算所述靶标在所述传感器的坐标系中的新定位;以及
接收来自计算装置的信号,所述信号用于驱动与所述导管可操作地关联的一个或多个马达,以使所述新导管定位相对于所述新靶标定位维持恒定。
18.一种系统,其包括:
导管,所述导管包含用于操纵所述导管的远侧部分的驱动机构,所述导管包含其远侧部分上的传感器;
计算装置,所述计算装置包含处理器和计算机可读记录介质,所述计算装置被配置成:
接收来自所述传感器的用于确定所述导管的所述远侧部分的定位的信号;
接收来自一个或多个参考传感器的信号;
接收所述导管接近靶标的荧光透视视频;
在所述荧光透视视频中确定所述导管和所述靶标在多种情况下的相对定位;
计算所述靶标在所述传感器的坐标系中的定位;并且
生成用于驱动所述导管的所述远侧部分以使所述导管定位相对于所述靶标定位维持恒定的信号。
19.根据权利要求18所述的系统,其中所述驱动机构包含可操作地连接到一个或多个拉线并且被配置成接收由所述计算装置生成的所述信号的一个或多个马达。
20.根据权利要求18所述的系统,其中所述导管的所述远侧部分上的所述传感器为电磁传感器。
CN202011374509.4A 2019-12-04 2020-11-30 用于维持通气和/或心动周期期间远侧导管尖端到靶标的定位的方法 Pending CN112890953A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962943696P 2019-12-04 2019-12-04
US62/943,696 2019-12-04
US17/062,917 2020-10-05
US17/062,917 US20210169583A1 (en) 2019-12-04 2020-10-05 Method for maintaining localization of distal catheter tip to target during ventilation and/or cardiac cycles

Publications (1)

Publication Number Publication Date
CN112890953A true CN112890953A (zh) 2021-06-04

Family

ID=73726648

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011374509.4A Pending CN112890953A (zh) 2019-12-04 2020-11-30 用于维持通气和/或心动周期期间远侧导管尖端到靶标的定位的方法

Country Status (3)

Country Link
US (1) US20210169583A1 (zh)
EP (1) EP3831328A1 (zh)
CN (1) CN112890953A (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220202501A1 (en) * 2020-12-30 2022-06-30 Canon U.S.A., Inc. Real-time correction of regional tissue deformation during endoscopy procedure
WO2024079627A1 (en) * 2022-10-14 2024-04-18 Covidien Lp Systems and methods of detecting and correcting for patient and/or imaging system movement for target overlay
WO2024079584A1 (en) * 2022-10-14 2024-04-18 Covidien Lp Systems and methods of moving a medical tool with a target in a visualization or robotic system for higher yields

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6257371B2 (ja) * 2014-02-21 2018-01-10 オリンパス株式会社 内視鏡システム及び内視鏡システムの作動方法
US10716525B2 (en) * 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10143526B2 (en) * 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US11490782B2 (en) * 2017-03-31 2022-11-08 Auris Health, Inc. Robotic systems for navigation of luminal networks that compensate for physiological noise
US10699448B2 (en) * 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data

Also Published As

Publication number Publication date
EP3831328A1 (en) 2021-06-09
US20210169583A1 (en) 2021-06-10

Similar Documents

Publication Publication Date Title
US11636597B2 (en) Systems and methods for using registered fluoroscopic images in image-guided surgery
CN110225710B (zh) 用于图像引导的程序的配准的系统和方法
CN110087576B (zh) 用于在图像引导的程序中将细长装置配准到三维图像的系统和方法
CN109788992B (zh) 用于图像引导的外科手术的连续配准的系统和方法
JP2020526253A (ja) 電磁場の歪み検出
KR20180104763A (ko) 영상 안내 수술에서 투시 영상화 시스템의 자세 추정 및 보정 시스템 및 방법
JP2023133606A (ja) 細長いデバイスに関するシステム及び方法
EP3831328A1 (en) Method for maintaining localization of distal catheter tip to target during ventilation and/or cardiac cycles
US11701492B2 (en) Active distal tip drive
WO2021033025A2 (en) Devices for use in interventional and surgical procedures and methods of use thereof
WO2022140298A2 (en) Dual articulating catheter
WO2022240790A1 (en) Medical instrument guidance systems and associated methods
CN113710145A (zh) 用于患者解剖体的增强的配准的系统
US20220273189A1 (en) Six degrees of freedom from a single inductive pickup coil sensor
WO2022182770A1 (en) Six degrees of freedom from a single inductive pickup coil sensor
US20220193372A1 (en) Dual articulating catheter
CN117355248A (zh) 管腔内装置的智能关节运动管理
WO2024079584A1 (en) Systems and methods of moving a medical tool with a target in a visualization or robotic system for higher yields

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination