CN108024693A - 在图像引导医疗程序中利用跟踪的系统和方法 - Google Patents

在图像引导医疗程序中利用跟踪的系统和方法 Download PDF

Info

Publication number
CN108024693A
CN108024693A CN201680051701.5A CN201680051701A CN108024693A CN 108024693 A CN108024693 A CN 108024693A CN 201680051701 A CN201680051701 A CN 201680051701A CN 108024693 A CN108024693 A CN 108024693A
Authority
CN
China
Prior art keywords
group
reference point
medical instrument
optical reference
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680051701.5A
Other languages
English (en)
Other versions
CN108024693B (zh
Inventor
V·多文戴姆
F·巴巴格力
T·D·苏珀尔
T·赵
C·Q·登霍欧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intuitive Surgical Operations Inc
Original Assignee
Intuitive Surgical Operations Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intuitive Surgical Operations Inc filed Critical Intuitive Surgical Operations Inc
Publication of CN108024693A publication Critical patent/CN108024693A/zh
Application granted granted Critical
Publication of CN108024693B publication Critical patent/CN108024693B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/009Flexible endoscopes with bending or curvature detection of the insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • A61B1/2676Bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00292Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery mounted on or guided by flexible, e.g. catheter-like, means
    • A61B2017/003Steerable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3614Image-producing devices, e.g. surgical cameras using optical fibre
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pulmonology (AREA)
  • Robotics (AREA)
  • Otolaryngology (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Endoscopes (AREA)
  • Manipulator (AREA)

Abstract

本发明提供一种包括跟踪定位于医疗器械的参照部上的一组光学基准点的方法。该医疗器械包括具有远端的细长柔性主体和包括参照部的刚性近端主体。该方法还包括:接收来自在医疗器械内部在参照部与远端之间延伸的形状传感器的形状信息,以及确定细长柔性主体的一部分相对于患者解剖结构的姿态。

Description

在图像引导医疗程序中利用跟踪的系统和方法
相关申请的交叉引用
本申请要求于2015年9月10日提交的美国临时专利申请序列号62/216,494的优先权,所述临时专利申请通过引用以其整体并入本文中并且在此要求其优先权。
技术领域
本公开涉及用于进行图像引导程序的系统和方法,并且更具体地涉及用于在图像引导程序期间使用跟踪系统的系统和方法。
背景技术
微创医疗技术旨在减少医疗程序期间受损伤的组织的量,由此缩短患者恢复时间,减少不适感和有害副作用。这种微创技术可以通过患者解剖结构中的天然孔道或者通过一个或多个手术切口而执行。通过这些天然孔道或切口,临床医生可以将微创医疗器械(包括手术、诊断、治疗或活检器械)插入以到达目标组织位置。为了协助到达目标组织位置,可以使医疗器械的位置和运动与患者解剖结构的手术前或手术中图像相关联。借助于与图像相关联的图像引导器械,器械可以穿过在解剖学系统(如肺、结肠、小肠、肾脏、心脏、循环系统等)中的天然通道或手术形成的通道。传统的器械跟踪与参照系统可能要求使用电磁传感器,而这些电磁传感器在手术环境中会受到金属物体的干扰。其他跟踪系统可能要求在医疗程序中在摄像头与基准点之间的连续视线,从而妨碍在拥挤手术环境中设备及人员的使用。因此,对于用于在最小临床干扰情况下执行图像引导手术的系统和方法存在着需求。
发明内容
本发明的实施例由随附于说明书的权利要求概括。
在一个实施例中,一种方法包括跟踪定位于患者解剖结构上的一组光学基准点,以及跟踪定位于医疗器械的参照部上的一组光学基准点。该医疗器械包括:具有远端的细长柔性主体和包括参照部的刚性近端主体。该方法还包括接收来自在医疗器械内部在参照部与远端之间延伸的形状传感器的形状信息,以及确定细长柔性主体的一部分相对于患者解剖结构的姿态。
在另一个实施例中,一种方法包括在手术环境中跟踪定位于医疗器械的参照部上的一组光学基准点。该医疗器械包括具有远端的细长柔性主体和包括参照部的刚性近端主体。该方法还包括在手术环境中跟踪定位于远程操作操纵器的插入轨道上的一组光学基准点。医疗器械的刚性近端主体被耦合以沿着插入轨道移动。该方法还包括用在插入轨道上的刚性近端主体的参照部的相应位置对多个插入测量值进行校准,以及确定患者解剖结构在手术环境中的姿态。该方法还包括驱动医疗器械的刚性近端主体沿插入轨道运动到第一位置,以及当刚性近端主体处于沿着插入轨道的第一位置时确定细长柔性主体在手术环境中相对于患者解剖结构的姿态。
在另一个实施例中,一种方法包括当执行第一医疗程序时跟踪远程操作系统中的一组光学基准点,以及确定这组光学基准点在远程操作系统中的运动。所述方法还包括基于所述运动来操作远程操作系统以进行第二医疗程序。
在另一个实施例中,一种远程操作医疗系统包括器械托架、耦合至该器械托架的医疗器械、形状传感器、第一组光学基准点、跟踪传感器和控制系统。该医疗器械包括具有远端的细长柔性主体和刚性近端主体,该刚性近端主体包括参照部。该形状传感器沿着医疗器械在参照部与远端之间延伸。第一组光学基准点被配置为定位于参照部上。该跟踪传感器被配置为跟踪第一组光学基准点。该控制系统被配置为操作光学跟踪传感器以跟踪第一组光学基准点的第一构形,接收来自形状传感器的形状信息,以及确定细长柔性主体的一部分相对于患者解剖结构的姿态。
应当理解的是,前面的概述和以下的详细说明两者在本质上是示例性和说明性的,并且旨在不限制本公开范围的情况下提供对本公开的理解。在这方面,基于以下的详细说明,本公开的其他方面、特征和优点对于本领域技术人员而言将是显而易见的。
附图说明
当参照附图进行阅读时,基于以下的详细说明可以最佳地理解本公开的各方面。应强调的是,根据行业中的标准惯例,各种特征并不是按比例绘制。实际上,为了清楚地描述,可以任意地增大或减小各种特征的尺寸。另外,本公开可以在各种示例中重复使用参照数字和/或字母。所述重复是为了简洁和清楚的目的而本身并不指示所描述各实施例和/或构形之间的关系。
图1是根据本公开的实施例的远程操作医疗系统。
图2A示出了利用本公开各方面的医疗器械系统。
图2B示出了根据本公开的实施例具有延伸的医疗工具的图2A的医疗器械系统的远端。
图3示出了定位于人肺内部的图2A的医疗器械系统的远端。
图4是说明根据本公开的实施例用于在图像引导手术过程中提供引导的方法的流程图。
图5是根据本公开的一个实施例的患者坐标空间的侧视图,该患者坐标空间包括安装在插入轨道上的医疗器械和光学跟踪系统。
图6示出了根据本公开的一个实施例的图像引导手术过程的一部分的流程图。
图7示出了根据本公开的另一个实施例的图像引导手术过程的一部分的流程图。
图8是根据本公开的一个实施例的患者坐标空间的侧视图,该患者坐标空间包括安装在插入轨道上的医疗器械和用于校准程序的光学跟踪系统。
图9是根据本公开的一个实施例的当患者处于非静止状态时的患者坐标空间的侧视图,该患者坐标空间包括安装在插入轨道上的医疗器械和用于医疗程序中的光学跟踪系统。
图10是根据本公开的一个实施例的当患者处于静止状态时的患者坐标空间的侧视图,该患者坐标空间包括安装在插入轨道上的医疗器械和用于医疗程序中的光学跟踪系统。
图11示出了根据本公开的一个实施例的配准技术的显示台。
图12示出了根据本公开的一个实施例的医疗程序的模型化运动部分的流程图。
具体实施方式
在以下对本发明各方面的详细描述中,陈述了许多具体细节从而提供对所公开实施例的透彻理解。然而,对于本领域技术人员显而易见的是,本公开的实施例可以在没有这些具体细节的情况下实施。在其他情况下,对于众所周知的方法、程序、部件和电路未予以详细描述,以免不必要地模糊本发明实施例的各方面。而且,为了避免不必要的重复描述,可以使用或省略适用于其他说明性实施例的根据一个说明性实施例所描述的一个或多个部件或动作。
以下的实施例将借助于在三维空间中的状态来描述各种器械及器械的各部分。本文中所使用的术语“位置”是指物体或物体的一部分在三维空间中的定位(例如,沿笛卡尔X、Y、Z坐标的三个平移自由度)。本文中所使用的术语“取向”是指一个物体或物体的一部分的旋转布置(三个旋转自由度,例如翻滚、俯仰和偏航)。本文中所使用的术语“姿态”是指物体或物体的一部分在至少一个平移自由度中的位置以及物体或物体的一部分在至少一个旋转自由度中的取向(多达六个总自由度)。本文中所使用的术语“形状”是指沿物体所测量的一组姿态、位置或取向。
参照附图的图1,用于例如手术、诊断、治疗或活检程序的远程操作医疗系统总体上由附图标记100标示。如图1中所示,远程操作系统100通常包括用于操作医疗器械104以在患者P上执行各种程序的远程操作操纵器组装件102。操纵器组装件102被安装到手术台O上或在其附近。操作者输入系统106允许操作者(例如临床医生或外科医生或一些其他人员)S观察介入部位并且控制操纵器组装件102作为伺服操纵器组装件。在这些情况下,操作者输入系统也可以被称为主控组装件。图1中示出了单个操纵器组装件102、医疗器械104和操作者输入系统106。然而,应当理解的是,各种远程操作系统可以具有多个操纵器组装件、医疗器械、主控组装件或者其组合。
操作者输入系统106可以位于外科医生的控制台处,该控制台通常位于与手术台O相同的房间。然而,应当理解的是,操作者S可以位于不同的房间或完全不同的建筑物内或者在地理上远离患者P。操作者输入系统106通常包括用于控制操纵器组装件102的一个或多个控制装置。控制装置可以包括任意数量的多种输入装置或传感器,诸如操纵杆、跟踪球、数据手套、触发枪、手动操作控制器、眼睛跟踪装置、语音识别装置、身体运动或存在传感器等。在一些实施例中,将为控制装置提供与一个或多个相关医疗器械系统(如医疗器械104)相同的自由度,从而为操作者提供远程存在感(telepresence),或者控制装置与医疗器械系统成为整体以便操作者具有充分强的直接控制医疗器械系统的感知的知觉。在其他实施例中,控制装置可以具有与一个或多个相关医疗器械系统(如医疗器械104)相比更多或更少或不同的自由度,并且仍然为操作者提供远程存在感。在一些实施例中,控制装置是手动输入装置,该手动输入装置以六个自由度进行运动并且也可以包括用于致动器械(例如,用于闭合抓取爪、向电极施加电位、输送治疗药物等)的可致动手柄。
远程操作操纵器组装件102支撑医疗器械104,并且可以包括一个或多个非伺服控制连杆(例如,可被手动定位且锁定就位的一个或多个连杆,通常被称为组建结构(set-upstructure))和一个远程操作操纵器的运动学结构。远程操作操纵器组装件102包括多个致动器或电机,这些致动器或电机响应于来自控制系统(例如,控制系统112)的命令而驱动医疗器械104上的输入。电机包括驱动系统,这些驱动系统在耦合至医疗器械104时可以将医疗器械104推进到天然形成的或手术形成的解剖学孔口中。其他电机驱动系统可以使医疗器械104的远端以多个自由度运动,这些自由度可以包括三个平移运动自由度(例如,沿着X、Y、Z笛卡尔坐标轴的平移运动)和三个旋转运动自由度(例如,围绕X、Y、Z笛卡尔坐标轴的旋转)。此外,电机可以用于致动器械的可铰接末端执行器,以便将组织抓紧在活检装置的夹爪或类似工具中。电机位置或速度传感器(如解算器、编码器、电位差计及其他机构)可以将传感器数据提供给远程操作组装件,以描述电机轴的旋转和取向。此位置传感器数据可以用于确定由电机操纵的物体的运动。
远程操作医疗系统100还包括具有一个或多个子系统的传感器系统108,所述子系统用于接收关于包括远程操作组装件102的器械在内的远程操作医疗系统100的子组装件的信息。这种子系统可包括:位置(position)/定位(location)传感器系统(例如,电磁(EM)传感器系统);用于确定导管顶端和/或沿着医疗器械104的柔性主体的一个或多个区段的位置、取向、速度、速率、姿态和/或形状的形状传感器系统;用于捕获来自导管系统远端的图像的可视化系统;基于各种传感器技术的其他传感器系统;或者其组合。
可视化系统(例如,图2A的可视化系统231)可以包括观察镜组装件,该观察镜组装件记录手术部位的同步(concurrent)或实时图像并且将该图像提供给操作者(例如,临床医生或外科医生或其他人员)S。该同时图像可以是例如由定位于手术部位内的内窥镜所捕获的二维或三维图像。在此实施例中,可视化系统包括可整体地或可移除地耦合至医疗器械104的内窥镜部件。然而,在替代的实施例中,可以将附接到独立操纵器组装件的独立内窥镜用于医疗器械以便对手术部位成像。可视化系统可以实施为与一个或多个计算机处理器相互作用或者由一个或多个计算机处理器执行的硬件、固件、软件或其组合,所述计算机处理器可以包括控制系统112的处理器(详情如下)。控制系统112的处理器可以执行指令,所述指令包括与本文中所公开的步骤相对应的指令。
远程操作医疗系统100还包括显示系统110,该显示系统110用于显示由传感器系统108的子系统所生成的手术部位和医疗器械系统104的图像或表象。显示器110和操作者输入系统106可以被取向成使得操作者可以利用远程存在感的感知来控制医疗器械104和操作者输入系统106。
显示系统110也可以显示由可视化系统所捕获的手术部位和医疗器械(例如医疗器械104)的图像。显示器110和控制装置可以被取向成使得成像装置在观察镜组装件和医疗器械中的相对位置类似于操作者的眼睛和手的相对位置,因此操作者可以操纵医疗器械104和手控件,如同在基本上真实在场的情况下观察工作空间一样。所谓真实在场,其意味着图像的呈现是模拟正在亲自操纵器械104的操作者的视点的真实透视图像。
可替代地或附加地,显示器110可以利用来自成像技术(如计算机断层扫描(CT)、磁共振成像(MRI)、荧光透视法、热象图成像、超声波、光学相干断层扫描(OCT)、热成像、阻抗成像、激光成像或纳米管X射线成像)的图像数据来提供在手术前或手术中所记录的手术部位图像。手术前或手术中图像数据可以表现为二维、三维或四维(包括例如基于时间或基于速度的信息)图像或者来自基于手术前或手术中图像数据集所创建模型的图像。
在经常用于图像引导手术过程的目的的一些实施例中,显示器110可以显示虚拟导航图像,其中医疗器械104的实际位置与手术前或同步图像/模型配准(即,动态地参照),从而为操作者(例如临床医生或外科医生或其他人员)S提供从器械104顶端位置的视点所看到的内部手术部位的虚拟图像。可以将器械104顶端的图像或者其他图形或字母数字指示物叠加在所述虚拟图像上,以协助控制医疗器械的操作者。可替代地,器械104可以在虚拟图像中不可见。
在其他实施例中,显示器110可以显示虚拟导航图像,其中医疗器械的实际位置与手术前或同步图像配准,从而为临床医生或操作者S提供从外部视点所看见的医疗器械在手术部位内部的虚拟图像。可以将医疗器械的一部分的图像或其他图形或字母数字指示物叠加在该虚拟图像上,以协助正在控制器械104的操作者。
远程操作医疗系统100还包括控制系统112。控制系统112包括至少一个存储器和至少一个计算机处理器(未图示),并且在一些实施例中通常包括多个处理器,这些处理器用于实现在医疗器械104、操作者输入系统106、传感器系统108和显示系统110之间的控制。控制系统112还包括存储于非暂时性处理器可读存储介质中用以执行根据本文中公开的各方面所描述的部分或全部方法的编程指令(例如,存储指令的计算机可读介质),这些编程指令包括用于将病理信息提供给显示系统110的指令。虽然在图1的简化示意图中将控制系统112图示为单个模块,但控制系统112可以包括两个或更多个数据处理电路并且一部分的处理任选地是在远程操作组装件102中或与之相邻的位置处被执行,另一部分的处理是在操作者输入系统106中被执行等。可以采用种类广泛的集中式或分布式数据处理架构中的任一种。类似地,编程指令可以实施为一些独立的程序或子例程,或者可以将它们合并入本文中所描述远程操作系统的一些其他方面。在一个实施例中,控制系统112支持一个或多个有线或无线通信协议。无线通信协议的示例包括例如蓝牙(Bluetooth)、红外数据通讯(IrDA)、家庭射频(HomeRF)、IEEE 802.11、数字增强型无线通信(DECT)和无线遥测(Wireless Telemetry)。
在一些实施例中,控制系统112可以包括接收来自一个或多个医疗器械系统(如医疗器械104)的力和/或转矩反馈的一个或多个伺服控制器。响应于所述反馈,伺服控制器将信号传输至操作者输入系统106。伺服控制器也可以传输信号,这些信号指示远程操作组装件102使经由身体中的开口延伸进入在患者身体内部的内部手术部位的医疗器械系统(如医疗器械104)移动。可以使用任何合适的常规或专用伺服控制器。伺服控制器可以与远程操作组装件102分离或者一体化。在一些实施例中,伺服控制器和远程操作组装件102被提供作为配置为在手术过程期间定位于与患者身体相邻位置处的远程操作臂手推车的一部分。
控制系统112还可以包括虚拟可视化系统,用以当使用于图像引导手术过程时为一个或多个医疗器械系统(例如,医疗器械104)提供导航辅助。使用虚拟可视化系统的虚拟导航基于对所获得的解剖学通道的手术前或手术中数据集的参照。更具体地,虚拟可视化系统对利用成像技术(包括例如计算机断层成像(CT)、磁共振成像(MRI)、荧光透视法、热象图成像、超声波、光学相干断层扫描(OCT)、热成像、阻抗成像、激光成像、纳米管X-射线成像、其组合等的成像技术)而成像的手术部位图像进行处理。软件单独地或结合手动输入用于将所记录的图像转换成部分或整个解剖学器官或解剖学区域的分段的二维或三维合成表象。图像数据集与合成表象相关。合成表象和图像数据集描述通道的各个定位和形状及其连通性。可以在临床程序期间在手术前或手术中记录用于生成合成表象的图像。在一个替代的实施例中,虚拟可视化系统可以使用标准表象(即非患者特异性的)或者标准表象与患者特异性数据的混合体。合成表象和由合成表象所生成的任何虚拟图像可以代表在运动的一个或多个阶段期间内(例如,在肺的吸气/呼气循环期间)的可变形解剖区域的静态体位。
在虚拟导航程序期间,可以利用传感器系统108来计算器械相对于患者解剖结构的近似定位。该定位可以用于生成患者解剖结构的宏观水平(外部)跟踪图像和患者解剖结构的虚拟内部图像。利用电磁(EM)传感器、光纤传感器或其他传感器连同手术前记录的手术图像(例如来自虚拟可视化系统的手术图像)来配准并显示医疗操作的各种系统是已知的。例如,美国专利申请第13/107,562号(提交于2011年5月13日)(公开了“Medical SystemProviding Dynamic Registration of a Model of an Anatomic Structure for Image-Guided Surgery”,所述专利申请的全部内容通过引用并入本文中)公开了一个这种系统。
远程操作医疗系统100还可以包括任选的操作与支持系统(未图示),例如照明系统、转向控制系统、冲洗系统、吸出系统、其他系统或者其组合。在替代的实施例中,远程操作系统100可以包括多于一个远程操作组装件102和/或多于一个操作者输入系统106。远程操作操纵器组装件的确切数量将取决于手术过程以及手术室内部的空间限制等因素。操作者输入系统可以并列设置或者它们可以被定位于在地理上彼此靠近或彼此远离的分离位置。多个操作者输入系统允许多于一个操作者控制在各种组合中的一个或多个操纵器组装件。
图2A示出了根据本公开各方面的医疗器械系统200,其可以用作在用远程操作医疗系统100所执行的图像引导医疗程序中的医疗器械104。可替代地,医疗器械系统200可以用于非远程操作探索性程序或者涉及传统手动操作医疗器械的程序(如内窥镜检查)中。附加地或可替代地,可以利用医疗器械系统200采集(即测量)与在患者解剖学通道内部的位置相对应的一组数据点。
器械系统200包括耦合至器械主体204的导管系统202。导管系统202包括具有近端217和远端或尖端部218的细长柔性导管主体216。在一个实施例中,柔性主体216具有大约3mm的外直径。其他的柔性主体外直径可以更大或更小。导管系统202可以任选地包括形状传感器222,形状传感器222用于确定在远端218处的导管顶端和/或沿主体216的一个或多个片段224的位置、取向、速度、速率、姿态、形状或其他物理特性。在远端218与近端217之间的主体216的全长可以有效地划分为各段224。如果器械系统200是远程操作医疗系统100的医疗器械104,则形状传感器222可以是传感器系统108的一个部件。如果器械系统200被手动地操作或者用于非远程操作程序,则形状传感器222可以耦合至跟踪系统230,跟踪系统230询问形状传感器222并对所接收的形状数据进行处理。
形状传感器222可以包括与柔性导管主体216(例如,设置在内部通道(未图示)中或者安装在外部)对准的光纤。在一个实施例中,该光纤具有大约200μm的直径。在其他实施例中,尺寸可以更大或更小。形状传感器222的光纤形成用于确定导管系统202的形状的光纤弯曲传感器。在一个替代实施例中,包括光纤布拉格光栅(FBG)的光纤被用于提供在一个或多个维度的结构中的应变测量值。用于监测光纤在三个维度中的形状和相对位置的各种系统和方法在美国专利申请第11/180,389号(提交于2005年7月13日)(公开了“Fiberoptic position and shape sensing device and method relating thereto”);美国专利申请第12/047,056号(提交于2004年7月16日)(公开了“Fiber-optic shape andrelative position sensing”);和美国专利第6,389,187号(提交于1998年6月17日)(公开了“Optical Fibre Bend Sensor”)中有所描述,这些专利文件的全部内容通过引用并入本文中。在替代实施例中的传感器可以采用其他合适的应变感测技术,如瑞利散射、拉曼散射、布里渊散射和荧光散射。在其他的替代实施例中,可以利用其他技术来确定导管的形状。例如,导管的远侧尖端姿态的时间历史可以用于在所述时间间隔中重建所述装置的形状。作为另一个示例,可以为沿交替运动(例如呼吸)的一个循环的器械系统的已知点存储历史姿态、位置或取向数据。此存储的数据可以用于产生关于导管的形状信息。可替代地,一系列位置传感器(如沿着导管的多个位置定位的多个电磁(EM)传感器)可以用于形状感测。可替代地,在一个程序期间来自器械系统上的位置传感器(如EM传感器)的数据的历史可以用于表征器械的形状,尤其是在解剖学通道通常为静态的情况下。可替代地,具有受外部磁场控制的位置或取向的无线装置可以用于形状感测。该无线装置的位置的历史可以用于确定被导航的通道的形状。
医疗器械系统200可以任选地包括位置传感器系统220。位置传感器系统220可以是具有传感器220的电磁传感器系统的一个部件,所述传感器包括可以经受外部产生的电磁场的一个或多个传导线圈。在这种实施方式中,电磁传感器系统220的每个线圈随后产生具有取决于线圈相对于外部产生的电磁场的位置和取向的特征的感应电信号。在一个实施例中,该电磁传感器系统可以被配置且定位成测量六个自由度(例如,三个位置坐标X、Y、Z以及表示基点的俯仰、偏航和翻滚的三个取向角)或者五个自由度(例如,三个位置坐标X、Y、Z以及表示基点的俯仰和偏航的两个取向角)。美国专利第6,380,732号(提交于1999年8月11日)(公开了“Six-Degree of Freedom Tracking System Having a PassiveTransponder on the Object Being Tracked”)中提供了对电磁传感器系统的进一步描述,所述专利的全部内容通过引用并入本文中。在一些实施例中,形状传感器也可以起到位置传感器的作用,因为传感器的形状连同关于形状传感器的基部(在患者的固定坐标系统中)的位置的信息允许计算沿着形状传感器的各个点(包括远侧尖端)的位置。
跟踪系统230可以包括位置传感器系统220和形状传感器222,以便确定远端218及沿着器械200的一个或多个片段224的位置、取向、速度、姿态和/或形状。跟踪系统230可以被实施为与一个或多个计算机处理器相互作用或者由一个或多个计算机处理器(其可包括控制系统116的处理器)所执行的硬件、固件、软件或其组合。
柔性导管主体216包括通道221,该通道221的尺寸和形状被设计成接收医疗器械226。医疗器械可以包括例如图像捕获探头、活检器械、激光消融光纤或者其他手术、诊断或治疗工具。医疗工具可以包括具有单个工作构件的末端执行器(如手术刀、钝刀片、光纤或电极)。其他末端执行器可包括例如钳子、抓紧器、剪刀、施夹器等。电动末端执行器的示例包括电外科电极、换能器、传感器等。在各种实施例中,医疗工具226可以是图像捕获探头,该图像捕获探头包括具有在柔性导管主体216的远端218处或其附近的用于捕获图像(包括视频图像)的立体摄像头或单像摄像头的远端部,可视化系统231对所述图像进行处理以便显示。图像捕获探头可以包括耦合至摄像头以便传输所捕获的图像数据的电缆。可替代地,图像捕获器械可以是耦合至可视化系统的光纤束(如纤维镜)。图像捕获器械可以是单光谱或多光谱的,例如用于捕获在可见光、红外光或紫外光谱的一个或多个光谱中的图像数据。
医疗器械226可以容纳在器械的近端与远端之间延伸以便可控地使器械的远端弯曲的电缆、联动机构或其他致动控件(未图示)。美国专利第7,316,681号(提交于2005年10月4日)(公开了“Articulated Surgical Instrument for Performing MinimallyInvasive Surgery with Enhanced Dexterity and Sensitivity”)和美国专利申请第12/286,644号(提交于2008年9月30日)(公开了“Passive Preload and Capstan Drive forSurgical Instruments”)中详细地描述了可控导向器械,这些专利文件的全部内容通过引用并入本文中。
柔性导管主体216也可以容纳在壳体204与远端218之间延伸以便可控地使远端218弯曲的电缆、联动机构或其他转向控件(未图示),例如由远端的虚线219所表示。美国专利申请第13/274,208号(提交于2011年10月14日)(公开了“Catheter with RemovableVision Probe”)中详细描述了可转向导管,所述专利申请的全部内容通过引用并入本文中。在器械系统200由远程操作组装件(如远程操作组装件102)致动的实施例中,壳体204可以包括驱动输入端,所述驱动输入端可移除地耦合至远程操作组装件的电动驱动元件并且从所述电动驱动元件接收动力。在器械系统200被完全地或部分地手动操作的实施例中,壳体204可以包括用于手动地控制器械系统200的运动的夹持特征件、手动致动器或其他构件。导管系统可以是可转向的,或者可替代地,所述系统可以是非可转向的并且不具备用于器械弯曲的操作者控制的集成机构。另外或可替代地,一个或多个管腔(医疗器械可以穿过这些管腔来部署并用于目标手术位置)被限定在柔性主体216的壁中。
在各种实施例中,医疗器械系统200可以包括用于对肺进行检查、诊断、活检或治疗的柔性支气管器械(如支气管镜或支气管导管)。医疗器械系统200也适合于在多种解剖学系统(包括结肠、小肠、肾脏、脑、心脏、循环系统等)中的任一系统中经由天然的或手术形成的连接通道来导航和治疗其他的组织。
可以将来自跟踪系统230的信息发送至导航系统232,其中将所述信息与来自可视化系统231的信息和/或手术前获得的模型相结合,以向外科医生或其他操作者提供关于显示系统110的实时位置信息,以用于控制器械系统200。控制系统116可以将位置信息用作反馈以用于对器械系统200进行定位。在2011年5月13日提交的、公开了“Medical SystemProviding Dynamic Registration of a Model of an Anatomic Structure for Image-Guided Surgery”的美国专利申请第13/107,562号中提供了利用光纤传感器来配准并利用手术图像来显示手术器械的各种系统,所述专利申请的全部内容通过引用并入本文中。
在图2A的实施例中,在远程操作医疗系统100中对器械系统200进行远程操作。在一个替代实施例中,远程操作组装件102可以被直接操作者控件所代替。在直接操作替代实施例中,可以包括用于器械的手持操作的各种手柄和操作者界面。
在替代的实施例中,远程操作系统可以包括多于一个伺服操纵器组装件和/或多于一个主控组装件。操纵器组装件的确切数量将取决于手术室中的医疗程序和空间限制等因素。主控组装件可以被并列设置或者它们可以被定位于分离的位置。多个主控组装件允许多于一个操作者以各种组合形式控制一个或多个伺服操纵器组装件。
如在图2B中更详细地示出,用于这种程序(如手术、活检、消融、照明、冲洗或吸出)的医疗工具(如医疗工具228)可以穿过柔性主体216的通道221来部署并用于解剖结构中的目标位置。例如,如果医疗工具228是活检器械,则它可以用于从目标解剖学位置去除样本组织或者细胞的取样。医疗工具228可以与也在柔性主体216内部的图像捕获探头一同使用。可替代地,医疗工具228自身可以是图像捕获探头。可以从通道221的开口推进医疗工具228以便执行医疗程序,然后当医疗程序完成时将其缩回到通道中。可以从导管柔性主体的近端217或者从沿柔性主体的另一可选的器械端口(未图示)移除医疗工具228。
图3示出了定位于患者解剖结构的解剖学通道内的导管系统202。在该实施例中,解剖学通道是人肺201的气道。在替代的实施例中,可以将导管系统202使用于解剖结构的其他通道。
图4是说明根据本公开实施例的用于图像引导手术过程的一般方法450的流程图。在过程452处,利用成像技术(如计算机断层扫描(CT)、磁共振成像(MRI)、荧光透视法、热象图成像、超声波、光学相干断层扫描(OCT)、热成像、阻抗成像、激光成像、纳米管X射线成像或其他成像技术)来获得手术前或手术中图像数据。手术前或手术中图像数据可以对应于二维、三维或四维(包括例如基于时间或基于速度的信息)图像。例如,所述图像数据可以代表图3的人肺201。
在过程454处,计算机软件单独地或者结合手动输入用于将记录的图像转换成局部或整体解剖学器官或解剖学区域的分段的二维或三维合成表象或模型。合成表象和图像数据集描述了通道的各个位置和形状及其连通性。更具体地,在分段过程期间,图像被划分成共享某些特征或计算的特性(如颜色、密度、强度和纹理)的区段或元素(例如,像素或体素)。此分段过程导致二维或三维重建,该重建基于所获得的图像形成目标解剖结构的模型。为了表征该模型,分段过程可以勾画代表目标解剖结构的多组体素,然后应用函数(例如marching cube函数或其他适当的函数)来生成包围这些体素的3D表面。可以利用任何适当的技术制作该模型。例如,可以通过生成网格、体积或体素图来制作该模型。此外或可替代地,该模型可以包括中心线模型,该中心线模型包括延伸穿过模型化通道的中心的一组互连线段或点。在该模型包括具有一组互连线段的中心线模型的情况下,可以将这些线段转换成云(cloud)或点集。通过转换这些线段,可以手动地或自动地选择与互连线段相对应的期望数量的点。
在过程456处,在对患者进行图像引导手术程序之前和/或期间,将解剖学模型数据、用于执行医疗程序的医疗器械(例如,器械系统200)和患者解剖结构共配准(co-registered)于一个公共参照系中。该公共参照系可以是例如手术环境参照系或患者参照系。过程456包括使医疗器械相对于患者局部化。过程456还包括将解剖学模型相对于患者配准。在过程458处,可以利用解剖学模型数据来执行医疗程序,以便引导医疗器械的运动。
与图像引导手术一起使用的传统配准方法常常涉及使用基于电磁或阻抗感测的技术。在手术环境中使用的金属物体或某些电子装置可能产生降低感测数据的质量的干扰。可替代地,可以利用光学跟踪系统执行配准。可以利用光学跟踪系统来计算医疗器械和患者在手术环境坐标系内的位置和取向。光学跟踪系统利用位置传感器来检测附接到远程操作组装件、医疗器械和/或患者上的发出红外线的或反光的标记。位置传感器基于位置传感器从这些标记接收的信息来计算远程操作组装件、医疗器械和/或患者的位置和取向。更具体地,光学跟踪系统利用从图像传感器捕获的数据对在经校准以提供重叠投影的各摄像头之间的远程操作组装件、医疗器械和/或患者的三维姿态进行三角测量(triangulate)。
光学跟踪系统传统上已经与物理非柔性手术器械一起使用,因为器械的刚性允许基于器械近端的跟踪位置和取向来可靠地计算器械的远侧尖端位置,所述器械近端的位置和取向通常是在患者解剖结构的外部,因此对于光学跟踪系统是可见的。光学跟踪系统通常也要求跟踪摄像头和传感器与基准点标记之间的无障碍视线。这些要求会限制光学跟踪在临床环境中的使用,特别是在挤满人员和设备或者外科医生远离患者的临床环境中。在各种实施例中,本公开所描述的系统允许使用具有柔性器械的光学跟踪系统。此外,在本公开所描述的各种方法中,当患者静止时可以减少光学跟踪的使用或使其最小化,因此减少或消除在大部分的医疗程序期间的视线要求。
图5示出了根据一些实施例的具有手术坐标系XS、YS、ZS的示例性手术环境600,其中患者P位于平台602上。患者P在手术环境内可以是静止的,这是由于利用镇静术、约束带或其他手段限制了总体患者运动。循环解剖学运动(包括患者P的呼吸和心脏运动)可以继续,除非患者暂时地中止呼吸运动。在手术环境600内,医疗器械604被耦合至器械托架606。器械托架606被安装到插入工作台608;在各种实施例中,插入工作台608在手术环境600中可以是固定的或可移动的。器械托架606可以是远程操作操纵器组装件(例如,组装件102)的一个部件,该部件耦合至器械604以控制器械604的插入运动(即利用图5所示的坐标系和构形在XS方向上的运动),并且任选地附加于或代替插入运动,还控制器械远端在一个或多个方向上的运动(包括旋转自由度,如偏航、俯仰和翻滚)。器械托架606或插入工作台608可以包括控制器械托架606沿插入工作台608的运动的伺服电机(未图示)。插入工作台608可以是引导器械托架606的部分或全部运动的任何适当的插入系统,并且可以被称为插入轨道608。
医疗器械604可以包括耦合至近端刚性器械主体612的柔性导管610。在图5所示的实施例中,刚性器械主体612相对于器械托架606被耦合并固定。在图示说明的实施例中,光纤形状传感器614在近侧方向上在光纤形状传感器614的参照点616处被固定在刚性器械主体612上。在一个替代实施例中,传感器614的该点616是沿着刚性器械主体612可移动的,但可以根据该系统的物理构形(例如,经由跟踪传感器或其他跟踪装置的数据、经由来自检测传感器的数据等)来确定参照点616的位置。在这些实施例中,可以确定光纤形状传感器614的参照点616相对于刚性器械主体612的定位。在图5所示的实施例中,形状传感器614测定从参照点616到另一个点(如导管610的远端618)的形状。医疗器械604可以大体上类似于医疗器械系统200。为了便于解释说明,参照点616被称为点;在各种实施例中,参照可以是传感器614的参照部。
当刚性器械主体612沿着插入轴线A在插入工作台608上移动时,位置测量装置620提供关于刚性器械主体612的位置的信息。位置测量装置620可以包括解算器、编码器、电位差计以及确定控制器械托架606的运动并由此控制刚性附接的器械主体612的运动的电机轴的旋转和取向的机构的任意组合。在此实施例中,插入工作台608是线性的,但是在替代实施例中其可以是弯曲的或者具有弯曲段与线性段的组合,从而相关的插入路径包括弯曲段和线性段。任选地,线性轨道可以是可折叠的,例如在美国临时专利申请第62/029,917号(提交于2014年7月28日)(公开了“Guide Apparatus For Delivery Of A FlexibleInstrument And Methods Of Use”)中所描述,该临时专利申请的全部内容通过引用并入本文中。图5示出了处于沿着插入工作台608的缩回位置的器械主体612和托架606。在此缩回位置处,参照点616位于轴线A上的位置L0处。在一些实施例中,在沿着插入工作台608的此位置处,可以将点616的定位的XS分量设定为零或初始值。利用器械主体612和托架606的此缩回位置,可以将导管的远端618仅仅定位于患者P的进入孔口内部。另外,在一些实施例中,在此位置处可以将位置测量装置设定为零或初始值(例如,I=0)。在图9和图10中,已经沿着插入工作台608的线性轨道推进器械主体612和托架606,并且导管610的远端已经被推进到患者P中。在图9和图10所示的此推进位置处,参照点616位于轴线A上的位置L1处。
图5还示出了光学跟踪系统,该光学跟踪系统包括光学跟踪传感器630、定位于患者P上的一组光学基准点标记(基准点)632、定位于插入工作台608上的一组光学基准点标记(基准点)634以及定位于刚性器械主体612上的一组光学基准点标记(基准点)636。各组的基准点632、634、636可以通过直接地或间接地附接到患者P、插入工作台608和刚性器械主体612而分别定位于其上。例如,一组基准点632可以附着至患者,并且各组基准点634、636可以附着或嵌入到插入工作台608或刚性器械主体612中。作为另一个示例,各组基准点632、634、636可以分别通过一个或多个中间部件而定位于患者P、插入工作台608和刚性器械主体612上。
在各种实施例中,各组基准点632、634、636包括定位于参照阵列上的反射器,并且跟踪传感器630包括能够发出并接收由各组基准点632、634、636的反射器所反射的红外线的一对摄像头。在一个实施例中,基准点标记是无源标记,所述无源标记包括反射由跟踪传感器630上的发光体所发出的红外光的球形后向反射标记。在可替代系统中,基准点标记可以是被电信号激活的有源红外光发射标记。在进一步的实施例中,除了红外光之外或代替红外光,跟踪系统还利用电磁光谱的其他可见或不可见部分。图5示出了各组的基准点包括被布置在十字的各端部的四个基准点标记;其他实施例可以使用不同数量和不同排列的基准点。例如于1999年10月28日提交的、公开了“System for determining spatialposition and/or orientation of one or more objects”的美国专利第6,288,783号中提供了光学跟踪系统的进一步描述,该专利的全部内容通过引用整体并入本文中。
如以上针对图4所描述,过程456包括将医疗器械(如器械系统200)相对于患者局部化。图6是说明根据本公开的一个实施例用于在手术环境中将医疗器械相对于患者局部化的方法700的流程图。本说明书的方法包括在图4中示出的过程456和在图6中作为一组模块、步骤、操作或过程而示出的方法700。并非全部的图示说明的所列举操作均可以在过程456或方法700的所有实施例中被执行。另外,方法700参照了图5的系统,然而在各种实施例中比图5中所示的全部基准点更少或更多的基准点可以用于执行方法700。此外,在本公开的方法中未明确说明的一些其他操作可以包括在所列举步骤之前、之后、之间或者作为其中的一部分。本说明书的方法的一些实施例包括与存储在存储器中的方法的过程相对应的指令。这些指令可以由处理器(如控制系统112的处理器)执行。
因此,方法700的一些实施例可以开始于过程702,其中在手术环境600中由光学跟踪传感器630跟踪患者P上的一组光学基准点标记632。亦即,光学跟踪传感器630通过监测物理特性(如一组基准点标记632中的各基准点标记的绝对和相对定位及取向)来监测一组基准点标记632的构形。在过程704处,当器械主体612将柔性导管610移动进入或移动出患者解剖结构时,光学跟踪传感器630跟踪附接到刚性器械主体612上的一组光学基准点标记636。在过程706处,接收来自形状传感器614的形状信息。该形状信息描述在刚性器械主体612上的参照点616与柔性导管610的远端之间延伸的传感器614的形状。过程702、704、706可以同时执行或者按顺序执行。另外,可以在相同的时间段期间执行过程702、704或706达不同次数。在过程708处,在手术环境中将柔性导管610相对于患者解剖结构局部化。更具体地,该形状信息结合在过程704中所跟踪的参照点616在手术环境中的定位被用于确定柔性导管610的远侧尖端和沿着导管610的其他点在手术环境中的位置和取向。在患者P也被光学跟踪传感器630所跟踪(如在过程702中所描述)的情况下,也可以确定患者P在手术环境中的位置和取向。因此,可以确定柔性导管610在手术环境参照系中相对于患者解剖结构的位置和取向。当将相关医疗器械插入患者解剖结构中或者在患者解剖结构内部移动时,在整个医疗程序中可以重复过程702-708,以提供关于医疗器械相对于解剖结构和解剖学模型的当前局部化。
在方法700中,在整个医疗程序中可以使用光学跟踪系统来跟踪医疗器械的运动。然而,在整个医疗程序中在拥挤的手术环境中使用光学跟踪系统会引起混乱,因为在基准点标记与传感器之间的视线必须保持无障碍以便光学跟踪系统准确地操作。
图7示出了根据本公开的一个实施例的、在医疗程序的校准阶段期间使用光学跟踪系统的方法710。在各种实施例中,方法710不要求在整个医疗程序中连续使用光学跟踪系统,而且在各种实施例中可以是间断的或连续的。例如,如果患者在手术环境内保持静止状态或者不需要连续不断的定位信息,则该系统可以按照规则的时间表间断地操作或者以手动控制的方式操作。在替代实施例中,可以在不与医疗程序同时期的制造或组建过程期间执行校准,并且将校准信息存储于系统或器械的存储器中并且视情况将校准信息从存储器中取回。当执行所述程序时,可以使用所存储的校准信息。
图8示出了根据本公开的一个实施例的在校准阶段期间手术环境的布置。在过程712处,当器械主体沿着插入工作台608移动时,光学跟踪传感器630跟踪附接到刚性器械主体612的一组光学基准点标记636。在过程714处,光学跟踪传感器630跟踪位于远程操作操纵器组装件的插入工作台608上的一组光学基准点标记634。在此实施例中,标记634位于靠近患者孔口(在此处导管610进入患者解剖结构内)的插入工作台608的远端处。
在过程716处,执行校准程序以便对传感器参照点616沿着插入路径的相对位置和/或取向进行校准。可以在患者解剖结构到达手术环境之前执行过程716;亦即,在患者存在于手术室中的实际手术操作之前,可以完全地或部分地执行过程716。可替代地,在患者存在于手术室中时,可以执行部分或全部的步骤716。例如,当托架606从点616在位置L0处的缩回插入位置移动到点616在位置L1处的前进插入位置时,可以由光学跟踪基准点标记636确定点616的位置和取向。该校准程序为位置测量装置620(例如,编码器)的多个插入测量值确定点616在手术环境中的位置和取向。在其中插入台608限制托架606到线性路径的运动的该实施例中,校准程序确定点616沿着该线性路径方向的位置和取向。因此,可以为位置测量装置620的子集或每个相应的插入测量值确定点616在手术环境600中的位置和取向。可以例如采用校准表的形式来存储该位置和取向信息。在替代实施例中,插入台可以具有预定的弯曲形状或者其他非线性形状。
在过程718处,确定患者P在手术环境内的位置和取向。可以通过这组基准点632的光学测量或者通过其他测量工具来确定患者P在手术环境中的位置和取向。因此,可以使用任何合适的测量方法来确定位置和取向信息。例如,电机位置可以与刚性近端主体的参照部分何时处于沿着插入轨道的相应位置相关联。作为附加示例,可以使用的其他测量工具包括机械卷尺、激光测距传感器或电磁传感器。
在过程720处,启动涉及将柔性导管插入患者解剖结构内的医疗程序。在该医疗程序期间,可以停用刚性器械主体612上的一组基准点标记636(例如,关闭传感器630、去除或遮盖一组基准点标记636、跟踪被采集但被忽略的一组基准点标记636的数据、即使传感器630正在运行也不利用传感器630跟踪一组基准点标记636等)。如图9所示,如果患者P是可移动的,则可以继续通过光学跟踪传感器620跟踪一组基准点标记632。类似地,如果远程操作操纵器组装件是可移动的,则可以继续通过光学跟踪传感器620跟踪一组基准点标记634。如图10所示,如果患者P和远程操作操纵器组装件在手术环境中是静止的,也可以停用这组基准点标记632(不供电、不被操作以跟踪或者跟踪未使用的信息),并且可以在不导致患者解剖结构相对于插入轨道或由插入轨道所引导的医疗器械的任何变化的情况下确定姿态。因此,当患者P静止时,可以停用光学跟踪系统,从而消除维持在各组基准点标记632、634、636的部分或所有基准点标记与跟踪传感器620之间的无障碍视线的需要。在过程720处,远程操作组装件移动刚性器械主体612,使得参照点616位于轴线A上的位置L1处。在位置L1处,确定来自位置测量装置620的测量值。
在过程721处,当参照点616处于位置L1时,接收来自形状传感器614的形状信息。该形状信息描述在刚性器械主体上的参照点616与柔性导管610的远端之间延伸的形状传感器614的形状。在过程722处,当参照部616处于位置L1时来自位置测量装置620的插入测量值被用于参照在步骤716中所获得的校准信息(例如,校准表)以便确定参照部616在手术环境600中的位置和取向。该形状信息结合参照点616在手术环境中的位置可以用于确定柔性导管610的远侧尖端以及在手术环境中沿着导管610的其他点的位置和取向。
在过程724处,柔性导管610在手术环境中相对于患者解剖结构被局部化。在患者被跟踪或者处于静止状态的情况下,可以确定患者P在手术环境中的位置和/或取向。相对于来自过程722的手术环境参照系,可以确定柔性导管610的位置和取向。在手术环境中的导管远端的姿态和患者的姿态两者已被确定的情况下,可以使器械远端相对于患者解剖结构被局部化。当参照点616处于沿着已校准的轴线A的任意位置时,可以在整个医疗程序中规则地、不规则地重复或者手动地控制过程720-724,以使柔性导管局部化。
在如方法700和710中所描述的使医疗器械局部化到患者解剖结构之后,可以利用来自如上文在图4的过程458中所描述的解剖学模型的图像引导而执行医疗程序。图11示出了根据本公开的一个实施例的显示系统800,该显示系统800显示相对于患者解剖结构的解剖学模型804局部化的医疗器械610的图像。更具体地,显示系统800显示模型化患者肺804的解剖学通道802的渲染图。关于患者解剖结构的解剖学模型804的模型信息可以由控制系统接收或测量。在一些实施例中,控制系统(例如,控制系统112)被配置为利用模型信息生成与患者解剖结构的图像配准的导管的合成图像。在根据已知的模型配准技术将模型参照系配准到手术参照系的情况下,导管610的当前形状和远端618的位置可以被定位于手术参照系中并且与通道802的渲染图同步显示。用于将解剖学模型信息配准到患者和/或手术参照系的方法在例如于2015年5月22日提交的美国临时专利申请第62/165,249号;于2015年8月14日提交的美国临时专利申请第62/205,440号;以及于2015年8月15日提交的美国临时专利申请第62/205,433号中有所描述,所有这些申请的全部内容通过引用并入本文中。此外或可替代地,可以显示从器械远端618的位置和取向的视角看到的模型化解剖结构的视图,从而给临床医生提供从器械远端的视角看到的患者解剖结构的伪内窥镜(pseudo-endoscopic)视图。
图12示出了根据本公开的一个实施例利用图6的光学跟踪系统创建医疗器械的运动模型的方法750。该模型可以用于在医疗程序期间重复一次或多次模型化运动。在过程752处,在医疗器械604移动经过沿着轴线A的一系列位置的程序期间,光学传感器630跟踪一组基准点标记636和/或634的运动。可以在患者P上执行该程序,或者可以在不存在患者的情况下执行该程序。在过程754处,将由跟踪传感器630所观察的运动记录并存储于存储器中。在过程756处,根据记录的运动生成运动模型。该模型可以是可被存储于非暂时性处理器可读存储介质中的一组指令,并且能够由处理器(如控制系统112的处理器)执行以复制所记录的运动。在过程758处,生成控制信号以促使远程操作系统重复模型化运动。
本发明各实施例中的一个或多个要素可以以软件实现,从而在计算机系统(如控制系统112)的处理器上执行。当以软件实现时,本发明实施例的要素包括执行必需任务的代码段。可以将程序或代码段存储于非暂时性处理器可读存储介质或装置中,包括可以存储信息的任何介质,包括光学介质、半导体介质和磁性介质。处理器可读存储装置的示例包括:电子电路;半导体装置、半导体存储装置、只读存储器(ROM)、闪速存储器、可擦除可编程只读存储器(EPROM);软磁盘、CD-ROM、光盘、硬磁盘或其他存储装置。可以通过计算机网络(如互联网、内联网等)下载所述代码段。
需要注意的是,所给出的步骤和显示可能并不固有地与任何具体的计算机或其他装置有关。用于这些系统的各种所需结构将以权利要求的要素形式而出现。另外,本发明的各实施例没有参照任何具体的编程语言来描述。应当理解的是,可以使用多种编程语言来执行如本文中所描述的本发明的教导。
虽然已经在附图中描述并示出了本发明的某些示例性实施例,但应当理解的是这种实施例仅仅是本发明的例证而不是限制,而且本发明的各实施例并不局限于图示和描述出的具体结构和排列,因为本领域普通技术人员可想到各种其他修改。

Claims (23)

1.一种确定医疗器械的一部分相对于患者解剖结构的姿态的方法,所述方法包括:
操作光学跟踪传感器以跟踪第一组光学基准点的第一构形和第二组光学基准点的第二构形,所述第一组光学基准点定位于患者解剖结构上并且所述第二组光学基准点定位于医疗器械的参照部上,所述医疗器械包括具有远端的细长柔性主体和刚性近端主体,所述刚性近端主体包括所述参照部;
接收来自沿着至少一部分所述医疗器械在所述参照部与所述远端之间延伸的形状传感器的形状信息;以及
利用所述第一构形、所述第二构形和所述形状信息来确定所述细长柔性主体的一部分相对于所述患者解剖结构的姿态。
2.根据权利要求1所述的方法,其中所述形状传感器是光纤形状传感器,并且所述细长柔性主体的所述部分的姿态是所述远端的姿态。
3.根据权利要求1所述的方法,其中所述形状传感器包括多个电磁传感器。
4.根据权利要求1所述的方法,其中操作所述光学跟踪传感器以跟踪所述第二组光学基准点的所述第二位置在将所述刚性近端主体耦合至插入轨道时发生,所述刚性近端主体沿着所述插入轨道的运动实质上受限。
5.根据权利要求1所述的方法,其中操作所述光学跟踪传感器以跟踪所述第二组光学基准点的所述第二位置在将所述刚性近端主体耦合至远程操作操纵器的驱动系统,所述远程操作操纵器被配置为移动所述刚性近端主体。
6.根据权利要求1所述的方法,其中确定所述细长柔性主体的所述部分相对于所述患者解剖结构的姿态包括:
利用所述第一构形和所述第二构形来确定所述参照部相对于所述患者解剖结构的位置;以及
利用所述形状信息和所述参照部的所述位置来确定所述细长柔性主体的所述远端相对于所述患者解剖结构的位置。
7.根据权利要求1所述的方法,还包括利用显示系统显示与所述患者解剖结构的图像配准的所述细长柔性主体的合成图像。
8.根据权利要求1所述的方法,其中操作所述光学跟踪传感器以跟踪所述第一组光学基准点的所述第一构形和所述第二组光学基准点的所述第二构形包括:
利用光学跟踪摄像系统监测所述第一组光学基准点和所述第二组光学基准点。
9.一种在手术环境中确定医疗器械的一部分相对于患者解剖结构的姿态的方法,所述方法包括:
跟踪第一组光学基准点以产生第一光学基准点信息,所述第一组光学基准点定位于所述手术环境中的医疗器械的参照部上,所述医疗器械包括具有远端的细长柔性主体和刚性近端主体,其中所述刚性近端主体包括所述参照部;
跟踪第二组光学基准点以产生第二光学基准点信息,所述第二组光学基准点定位于所述手术环境中的远程操作操纵器的插入轨道上,其中所述医疗器械的所述刚性近端主体被耦合以便沿着所述插入轨道移动;
用所述刚性近端主体的所述参照部沿着所述插入轨道的相应位置来校准多个插入测量值;
获得所述患者解剖结构在所述手术环境中的姿态;
驱动所述医疗器械的所述刚性近端主体沿着所述插入轨道运动到第一位置;以及
当所述刚性近端主体处于沿着所述插入轨道的所述第一位置时,基于所述第一位置、经校准的所述多个插入测量值和所述患者解剖结构的姿态,确定所述细长柔性主体在所述手术环境中相对于所述患者解剖结构的姿态。
10.根据权利要求9所述的方法,其中确定所述患者解剖结构在所述手术环境中的姿态包括在所述手术环境中跟踪定位于所述患者解剖结构上的第三组光学基准点。
11.根据权利要求9所述的方法,还包括当驱动所述刚性近端主体沿着所述插入轨道运动时,跟踪所述插入轨道上的所述第二组光学基准点和定位于所述患者解剖结构上的第三组光学基准点。
12.根据权利要求11所述的方法,其中确定所述细长柔性主体相对于所述患者解剖结构的姿态包括:
当所述医疗器械的所述刚性近端主体处于所述第一位置时,接收经校准的所述多个插入测量值中的经校准的第一插入测量值,
当所述刚性主体处于所述第一位置时,接收来自在所述医疗器械内部在所述参照部与所述远端之间延伸的形状传感器的形状信息,
当所述医疗器械的所述刚性近端主体处于所述第一位置时,接收用于所述第三组光学基准点的跟踪信息,以及
当所述医疗器械的所述刚性近端主体处于所述第一位置时,接收用于所述第二组光学基准点的第二光学基准点信息。
13.根据权利要求10所述的方法,其中确定所述细长柔性主体相对于所述患者解剖结构的姿态包括终止跟踪所述第一组光学基准点、所述第二组光学基准点和所述第三组光学基准点中的至少一组光学基准点。
14.根据权利要求9所述的方法,其中确定所述细长柔性主体的姿态还包括接收来自沿着所述医疗器械的至少一部分在所述参照部与所述远端之间延伸的形状传感器的形状信息,其中所述形状传感器包括光纤形状传感器或多个电磁传感器。
15.根据权利要求14所述的方法,其中确定所述细长柔性主体相对于所述患者解剖结构的姿态包括基于所述形状信息和所述参照部在所述第一位置处的姿态来确定所述细长柔性主体的所述远端相对于所述患者解剖结构的姿态。
16.根据权利要求9所述的方法,还包括:
生成与所述患者解剖结构的图像配准的所述细长柔性主体的合成图像;以及
显示所述合成图像。
17.根据权利要求9所述的方法,其中跟踪所述第一组光学基准点和所述第二组光学基准点包括用光学跟踪摄像系统监测所述第一组光学基准点和所述第二组光学基准点。
18.根据权利要求9所述的方法,其中在所述患者解剖结构到达所述手术环境之前执行校准所述多个插入测量值。
19.一种操作远程操作医疗系统的方法,所述方法包括:
当执行第一医疗程序时,跟踪定位于所述远程操作医疗系统的医疗器械的一部分上的一组光学基准点以产生第一光学基准点信息;
基于所述第一光学基准点信息确定所述光学基准点的运动;
基于所述运动操作所述医疗器械以进行第二医疗程序。
20.根据权利要求19所述的方法,其中所述第二医疗程序是所述第一医疗程序的重复,并且其中基于所述运动操作所述医疗器械以进行第二医疗程序包括:
基于所述运动生成所述第一医疗程序的模型;以及
基于所述模型操作所述医疗器械。
21.一种远程操作医疗系统,包括:
器械托架;
耦合至所述器械托架的医疗器械,所述医疗器械包括具有远端的细长柔性主体和刚性近端主体,所述刚性近端主体包括参照部;
沿着所述医疗器械在所述参照部与所述远端之间延伸的形状传感器;
配置为定位于所述参照部上的第一组光学基准点;
配置为跟踪所述第一组光学基准点的跟踪传感器;以及
控制系统,其被配置为:
操作所述光学跟踪传感器以跟踪所述第一组光学基准点的第一构形,
接收来自所述形状传感器的形状信息,以及
利用一组信息确定所述细长柔性主体的一部分相对于患者解剖结构的姿态,所述一组信息包括所述第一构形和所述形状信息。
22.根据权利要求21所述的远程操作医疗系统,还包括:
配置为定位于所述患者解剖结构上的第二组光学基准点,其中所述一组信息还包括所述第二组光学基准点的第二构形。
23.根据权利要求21所述的远程操作医疗系统,还包括:
配置为定位于插入轨道上的第二组光学基准点,所述器械托架被安装到所述插入轨道,其中所述一组信息还包括所述第二组光学基准点的第二构形。
CN201680051701.5A 2015-09-10 2016-09-09 在图像引导医疗程序中利用跟踪的系统和方法 Active CN108024693B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562216494P 2015-09-10 2015-09-10
US62/216,494 2015-09-10
PCT/US2016/051139 WO2017044874A1 (en) 2015-09-10 2016-09-09 Systems and methods for using tracking in image-guided medical procedure

Publications (2)

Publication Number Publication Date
CN108024693A true CN108024693A (zh) 2018-05-11
CN108024693B CN108024693B (zh) 2021-07-09

Family

ID=58240162

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680051701.5A Active CN108024693B (zh) 2015-09-10 2016-09-09 在图像引导医疗程序中利用跟踪的系统和方法

Country Status (3)

Country Link
US (2) US11278354B2 (zh)
CN (1) CN108024693B (zh)
WO (1) WO2017044874A1 (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111096795A (zh) * 2018-10-26 2020-05-05 韦伯斯特生物官能(以色列)有限公司 用于机器人的释放模式
CN111265299A (zh) * 2020-02-19 2020-06-12 上海理工大学 基于光纤形状传感的手术导航方法
CN111281544A (zh) * 2020-02-26 2020-06-16 陕西中医药大学 体内医疗器械自动引导机器人系统及其自动引导方法
CN111658065A (zh) * 2020-05-12 2020-09-15 北京航空航天大学 一种下颌骨切削手术的数字化引导系统
CN111989022A (zh) * 2018-06-19 2020-11-24 直观外科手术操作公司 用于将柔性细长装置保持在姿势中的系统和方法
CN112153948A (zh) * 2018-05-15 2020-12-29 直观外科手术操作公司 导管控制系统的后端机构
CN112261965A (zh) * 2018-06-11 2021-01-22 泰尔茂株式会社 诊断方法、诊断系统及诊断系统的控制方法
CN112804961A (zh) * 2018-10-04 2021-05-14 直观外科手术操作公司 用于设备验证和传感器校准的系统和方法
US20210327294A1 (en) * 2018-09-03 2021-10-21 Kurume University Controller, method for manufacturing controller, simulated experience system, and simulated experience method
CN113966205A (zh) * 2019-11-19 2022-01-21 康坦手术股份有限公司 用于定位医疗机器人的导航方法
CN114366299A (zh) * 2020-10-15 2022-04-19 史赛克欧洲运营有限公司 用于确定器械的末端的球形表面部分的半径的技术
CN114502077A (zh) * 2019-10-07 2022-05-13 波士顿科学国际有限公司 包括第一换能器和第二换能器之间的铰接接头的医疗装置,以及实现该装置的设备和存储装置

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7930065B2 (en) * 2005-12-30 2011-04-19 Intuitive Surgical Operations, Inc. Robotic surgery system including position sensors using fiber bragg gratings
US20080064931A1 (en) 2006-06-13 2008-03-13 Intuitive Surgical, Inc. Minimally invasive surgical illumination
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
WO2017044874A1 (en) 2015-09-10 2017-03-16 Intuitive Surgical Operations, Inc. Systems and methods for using tracking in image-guided medical procedure
CN108024838B (zh) 2016-02-12 2021-10-01 直观外科手术操作公司 用于在图像引导手术中使用配准荧光透视图像的系统和方法
US11219490B2 (en) * 2016-09-30 2022-01-11 Intuitive Surgical Operations, Inc. Systems and methods for entry point localization
US10529088B2 (en) * 2016-12-02 2020-01-07 Gabriel Fine Automatically determining orientation and position of medically invasive devices via image processing
US11793579B2 (en) 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
WO2019075075A1 (en) * 2017-10-10 2019-04-18 Vibronix, Inc. FIBER OPTIC SURGICAL OPTIC SHAPE DETECTION APPARATUS AND METHOD THEREOF
US10893843B2 (en) 2017-10-10 2021-01-19 Covidien Lp System and method for identifying and marking a target in a fluoroscopic three-dimensional reconstruction
US10341456B2 (en) * 2017-11-20 2019-07-02 Marc Berger Caching sticker profiles within a sticker communication system
WO2019106882A1 (ja) * 2017-11-30 2019-06-06 テルモ株式会社 支援システム、支援方法、および支援プログラム
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
US10893842B2 (en) 2018-02-08 2021-01-19 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US11789099B2 (en) * 2018-08-20 2023-10-17 Children's Hospital Medical Center System and method for guiding an invasive device
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
CN112804960A (zh) * 2018-10-04 2021-05-14 直观外科手术操作公司 用于控制可转向装置的系统和方法
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
US11931111B2 (en) 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
US11864935B2 (en) 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
EP4044952A4 (en) * 2019-10-18 2023-10-18 The Brigham and Women's Hospital, Inc. SYSTEM AND METHOD FOR A TISSUE RESECTION MARGIN MEASURING DEVICE
EP3838159A1 (en) * 2019-12-17 2021-06-23 Koninklijke Philips N.V. Navigating bronchial pathways
US11847730B2 (en) 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
US20220079671A1 (en) * 2020-09-14 2022-03-17 Covidien Lp System and methods for insertion depth tracking
CN112263331B (zh) * 2020-10-30 2022-04-05 上海初云开锐管理咨询有限公司 一种体内医疗器械视觉呈现系统及方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070185485A1 (en) * 2004-05-28 2007-08-09 Hauck John A Robotic surgical system and method for automated creation of ablation lesions
US20080200794A1 (en) * 2007-02-19 2008-08-21 Robert Teichman Multi-configuration tracknig array and related method
CN101320005A (zh) * 2008-06-13 2008-12-10 华中科技大学 用于细长腔体的视觉检测装置
US20090137952A1 (en) * 2007-08-14 2009-05-28 Ramamurthy Bhaskar S Robotic instrument systems and methods utilizing optical fiber sensor
US20100030063A1 (en) * 2008-07-31 2010-02-04 Medtronic, Inc. System and method for tracking an instrument
CN101918073A (zh) * 2008-01-16 2010-12-15 导管机器人技术公司 远程控制的导管插入系统
CN201968657U (zh) * 2011-01-31 2011-09-14 广州宝胆医疗器械科技有限公司 一种新型三维立体电子膀胱镜系统
US20130150732A1 (en) * 2010-08-23 2013-06-13 Koninklijke Philips Electronics N.V. Mapping system and method for medical procedures
CN103648361A (zh) * 2011-05-13 2014-03-19 直观外科手术操作公司 提供用于图像引导的外科手术的解剖结构的模型的动态配准的医疗系统

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5792135A (en) 1996-05-20 1998-08-11 Intuitive Surgical, Inc. Articulated surgical instrument for performing minimally invasive surgery with enhanced dexterity and sensitivity
DE69637687D1 (de) 1996-10-15 2008-10-30 Renner Herrmann Sa System und verfahren zur analyse von kennzeichnenden merkmalen einer flüssigkeit
AU1616497A (en) 1997-02-13 1998-09-08 Super Dimension Ltd. Six-degree tracking system
GB9713018D0 (en) 1997-06-20 1997-08-27 Secr Defence Optical fibre bend sensor
US6546277B1 (en) * 1998-04-21 2003-04-08 Neutar L.L.C. Instrument guidance system for spinal and other surgery
US9259280B2 (en) * 1999-09-17 2016-02-16 Intuitive Surgical Operations, Inc. Phantom degrees of freedom in joint estimation and control
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US20060013523A1 (en) 2004-07-16 2006-01-19 Luna Innovations Incorporated Fiber optic position and shape sensing device and method relating thereto
DE502006005876D1 (de) 2006-11-06 2010-02-25 Brainlab Ag Längenbestimmung eines flexiblen, langen Instruments
US8224484B2 (en) * 2007-09-30 2012-07-17 Intuitive Surgical Operations, Inc. Methods of user interface with alternate tool mode for robotic surgical tools
US8740840B2 (en) 2008-01-16 2014-06-03 Catheter Robotics Inc. Remotely controlled catheter insertion system
EP2341973A1 (en) * 2008-09-16 2011-07-13 Koninklijke Philips Electronics N.V. Automated system for the controlled deployment of nested cannula
US9259274B2 (en) 2008-09-30 2016-02-16 Intuitive Surgical Operations, Inc. Passive preload and capstan drive for surgical instruments
WO2011115664A2 (en) * 2010-03-14 2011-09-22 Profound Medical Inc. Mri-compatible motor and positioning system
US20110295267A1 (en) * 2010-05-28 2011-12-01 Hansen Medical, Inc. System and method for automated tissue structure traversal
CN103717164B (zh) * 2011-03-08 2016-12-07 T·J·科亨 具有安全结构的消融导管系统
US9452276B2 (en) 2011-10-14 2016-09-27 Intuitive Surgical Operations, Inc. Catheter with removable vision probe
AU2014231344B2 (en) * 2013-03-15 2018-10-04 Synaptive Medical Inc. Systems and methods for navigation and simulation of minimally invasive therapy
EP4049706A1 (en) * 2013-03-15 2022-08-31 Intuitive Surgical Operations, Inc. Shape sensor systems for tracking interventional instruments and methods of use
EP3179949B1 (en) 2014-07-28 2022-01-19 Intuitive Surgical Operations, Inc. Guide apparatus for delivery of a flexible instrument
KR102479084B1 (ko) * 2015-03-05 2022-12-16 씽크 써지컬, 인크. 공구 축선을 위치설정 및 추적하기 위한 방법
KR102542190B1 (ko) 2015-04-06 2023-06-12 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 영상 안내 수술에서의 정합 보상의 시스템 및 방법
CN107660134B (zh) 2015-05-22 2021-06-29 直观外科手术操作公司 图像引导手术记录的系统和方法
CN108024699B (zh) 2015-08-14 2020-11-03 直观外科手术操作公司 用于图像引导外科手术的配准系统和方法
EP3334324B1 (en) 2015-08-14 2021-01-06 Intuitive Surgical Operations Inc. Systems and methods of registration for image-guided surgery
WO2017044874A1 (en) 2015-09-10 2017-03-16 Intuitive Surgical Operations, Inc. Systems and methods for using tracking in image-guided medical procedure
JP6205528B1 (ja) * 2016-02-25 2017-09-27 オリンパス株式会社 マニピュレータシステムとその作動方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070185485A1 (en) * 2004-05-28 2007-08-09 Hauck John A Robotic surgical system and method for automated creation of ablation lesions
US20080200794A1 (en) * 2007-02-19 2008-08-21 Robert Teichman Multi-configuration tracknig array and related method
US20090137952A1 (en) * 2007-08-14 2009-05-28 Ramamurthy Bhaskar S Robotic instrument systems and methods utilizing optical fiber sensor
CN101918073A (zh) * 2008-01-16 2010-12-15 导管机器人技术公司 远程控制的导管插入系统
CN101320005A (zh) * 2008-06-13 2008-12-10 华中科技大学 用于细长腔体的视觉检测装置
US20100030063A1 (en) * 2008-07-31 2010-02-04 Medtronic, Inc. System and method for tracking an instrument
US20130150732A1 (en) * 2010-08-23 2013-06-13 Koninklijke Philips Electronics N.V. Mapping system and method for medical procedures
CN201968657U (zh) * 2011-01-31 2011-09-14 广州宝胆医疗器械科技有限公司 一种新型三维立体电子膀胱镜系统
CN103648361A (zh) * 2011-05-13 2014-03-19 直观外科手术操作公司 提供用于图像引导的外科手术的解剖结构的模型的动态配准的医疗系统

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112153948A (zh) * 2018-05-15 2020-12-29 直观外科手术操作公司 导管控制系统的后端机构
CN112261965A (zh) * 2018-06-11 2021-01-22 泰尔茂株式会社 诊断方法、诊断系统及诊断系统的控制方法
CN111989022A (zh) * 2018-06-19 2020-11-24 直观外科手术操作公司 用于将柔性细长装置保持在姿势中的系统和方法
US20210327294A1 (en) * 2018-09-03 2021-10-21 Kurume University Controller, method for manufacturing controller, simulated experience system, and simulated experience method
CN112804961A (zh) * 2018-10-04 2021-05-14 直观外科手术操作公司 用于设备验证和传感器校准的系统和方法
CN111096795B (zh) * 2018-10-26 2024-06-07 韦伯斯特生物官能(以色列)有限公司 用于机器人的释放模式
CN111096795A (zh) * 2018-10-26 2020-05-05 韦伯斯特生物官能(以色列)有限公司 用于机器人的释放模式
CN114502077A (zh) * 2019-10-07 2022-05-13 波士顿科学国际有限公司 包括第一换能器和第二换能器之间的铰接接头的医疗装置,以及实现该装置的设备和存储装置
CN113966205A (zh) * 2019-11-19 2022-01-21 康坦手术股份有限公司 用于定位医疗机器人的导航方法
CN113966205B (zh) * 2019-11-19 2024-03-29 康坦手术股份有限公司 用于定位医疗机器人的导航方法
CN111265299B (zh) * 2020-02-19 2023-08-18 上海理工大学 基于光纤形状传感的手术导航系统
CN111265299A (zh) * 2020-02-19 2020-06-12 上海理工大学 基于光纤形状传感的手术导航方法
CN111281544A (zh) * 2020-02-26 2020-06-16 陕西中医药大学 体内医疗器械自动引导机器人系统及其自动引导方法
CN111658065A (zh) * 2020-05-12 2020-09-15 北京航空航天大学 一种下颌骨切削手术的数字化引导系统
CN114366299A (zh) * 2020-10-15 2022-04-19 史赛克欧洲运营有限公司 用于确定器械的末端的球形表面部分的半径的技术

Also Published As

Publication number Publication date
CN108024693B (zh) 2021-07-09
US11278354B2 (en) 2022-03-22
US20220160436A1 (en) 2022-05-26
US20180256262A1 (en) 2018-09-13
US12011232B2 (en) 2024-06-18
WO2017044874A1 (en) 2017-03-16

Similar Documents

Publication Publication Date Title
CN108024693A (zh) 在图像引导医疗程序中利用跟踪的系统和方法
JP7072603B2 (ja) 手術中のセグメンテーションについてのシステム及び方法
US20220378517A1 (en) Systems and methods for intelligently seeding registration
KR102503033B1 (ko) 화상 안내식 시술을 위한 정치 시스템 및 방법
US20210073989A1 (en) Systems and methods for using registered fluoroscopic images in image-guided surgery
CN106714724B (zh) 用于规划多个介入程序的系统和方法
US11116581B2 (en) Systems and methods of registration for image guided surgery
CN105050525B (zh) 用于跟踪介入器械的形状传感器系统以及使用方法
CN104936545B (zh) 设计介入程序的系统和方法
CN104302241B (zh) 用于使用减小的搜索空间的医疗设备的配准系统和方法
CN109715037A (zh) 用于器械弯折检测的系统和方法
KR20230031371A (ko) 영상 안내식 수술을 위한 연속 정치 시스템 및 방법
CN107690302A (zh) 在图像引导的外科手术中的配准补偿的系统和方法
CN107111684A (zh) 用于过滤局部化数据的系统和方法
CN108024698A (zh) 用于图像引导外科手术的配准系统和方法
CN108024699A (zh) 用于图像引导外科手术的配准系统和方法
CN104540439A (zh) 用于多个视觉系统的配准的系统和方法
US11514591B2 (en) Systems and methods related to registration for image guided surgery
US20210267440A1 (en) Systems and methods for detecting an orientation of medical instruments

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant