CN106714724B - 用于规划多个介入程序的系统和方法 - Google Patents
用于规划多个介入程序的系统和方法 Download PDFInfo
- Publication number
- CN106714724B CN106714724B CN201580052079.5A CN201580052079A CN106714724B CN 106714724 B CN106714724 B CN 106714724B CN 201580052079 A CN201580052079 A CN 201580052079A CN 106714724 B CN106714724 B CN 106714724B
- Authority
- CN
- China
- Prior art keywords
- target area
- intervention
- anatomical
- intervention apparatus
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/35—Surgical robots for telesurgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/76—Manipulators having means for providing feel, e.g. force or tactile feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00681—Aspects not otherwise provided for
- A61B2017/00694—Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00743—Type of operation; Specification of treatment sites
- A61B2017/00809—Lung operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2061—Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/301—Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/305—Details of wrist mechanisms at distal ends of robotic arms
- A61B2034/306—Wrists with multiple vertebrae
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
- A61B2034/741—Glove like input devices, e.g. "data gloves"
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
- A61B2034/742—Joysticks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
- A61B2090/3614—Image-producing devices, e.g. surgical cameras using optical fibre
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/71—Manipulators operated by drive cable mechanisms
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Robotics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Endoscopes (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
一种部署介入器械的方法包含在解剖参考系中识别目标结构。该方法进一步包含在解剖参考系中相对于介入器械的当前位置确定目标区域并且记录介入器械在目标区域内的第一接合位置。
Description
相关申请
本申请要求2014年7月28日提交的题为“SYSTEMS AND METHODS FOR PLANNINGMULTIPLE INTERVENTIONAL PROCEDURES”的美国临时专利申请62/029942的申请日的优先权和权益,其通过引用以其整体并入本文。
技术领域
本公开涉及用于导航患者解剖结构以进行微创程序的系统和方法,并且更具体涉及用于规划介入器械的多种部署的程序的系统和方法。
背景技术
微创医疗技术意图减少介入程序期间损伤的组织量,从而减少患者恢复时间、不适和有害副作用。这种微创技术可以通过患者解剖学的自然孔口或通过一个或多个外科切口进行。通过这些自然孔口或切口,临床医生可以插入介入器械(包括外科、诊断、治疗、或活组织检查器械)以到达目标组织位置。为到达目标组织位置,微创介入器械可以通过导航(navigate)解剖学系统如肺、结肠、肠、肾、心脏、循环系统等中的自然或外科生成的通路。为了帮助临床医生导航器械通过通路,利用术前或术中成像来准备通路的模型。用于部署介入器械的目前系统将器械部署位置识别为模型通路内的最靠近目标组织位置的点。目标组织位置可能由于各种原因而是不精确的。例如,解剖结构的位置在移动的患者中与在基于静态术前基于图像的模型中是不同的。位置传感器误差和配准技术的准确性也可能促成确定目标组织位置时的不精确。需要用于进行微创程序以增加进入目标组织位置的概率的改善的系统和方法。
发明内容
随附的权利要求概括了本发明的实施例。
在一个实施例中,一种用于部署介入器械的方法包含在解剖参考系中识别目标结构。该方法进一步包含在解剖参考系中相对于介入器械的当前位置识别目标区域并且记录介入器械在目标区域内的第一接合位置。
在另一实施例中,一种用于执行介入程序的方法包含生成包括用于部署介入器械的目标区域的图像的图形用户界面(GUI)。响应于介入器械的第一接合,GUI被更新以包括第一接合位置标记。响应于介入器械的第一接合,GUI被更新以包括第一修正的目标区域的图像。
在另一实施例中,一种用于规划多个介入程序的方法包含在解剖系中识别目标结构并且在解剖系中确定目标区域。目标结构位于目标区域内。该方法进一步包含在目标区域内识别用于部署介入器械的第一接合位置并且识别用于部署介入器械的第二接合位置。
在另一实施例中,一种系统包含介入器械,所述介入器械包括导管和可从导管部署的工具。该系统还包括控制系统,该控制系统被配置为在解剖参考系中识别目标结构并且在解剖参考系中相对于介入器械的当前位置确定目标区域。目标结构位于目标区域内。控制系统被进一步配置为记录介入器械在目标区域内的第一接合位置并且记录介入器械在目标区域内的第二接合位置。
附图说明
当结合附图阅读时,本公开的方面从以下详细描述中得到最好的理解。应当强调的是,根据本行业中的标准惯例,各种特征未按比例绘制。事实上,为了讨论清晰起见,各种特征的尺寸可以任意增加或减少。此外,本公开可以在各种示例中重复附图标记和/或字母。这种重复是为了简单和清晰的目的并且其自身不指示所讨论的各种实施例和/或配置之间的关系。
图1是根据本公开的实施例的远程操作介入系统。
图2图示使用本公开的方面的介入器械系统。
图3图示具有延伸的介入工具的图2的介入器械系统的远端。
图4是描述用于部署介入器械的方法的流程图。
图5图示在目标位置附近的患者的解剖区域,其中介入器械的远端在部署位置处。
图6是描述用于执行介入程序的方法的流程图。
图7是根据本公开的实施例的患者解剖结构中的目标区域的图像。
图8是描述用于修正目标区域的方法的流程图。
图9是患者解剖结构中的更改的目标区域的图像。
图10是具有编码的目标区域标记的目标区域的图像。
图11和图12是根据本公开的其他实施例的患者解剖结构中的目标区域的图像。
具体实施方式
在下文对本发明方面的详细描述中,提出很多具体细节以提供对本公开的实施例的充分理解。然而,对本领域技术人员来说将是显而易见的是,本公开的实施例可以无需这些具体细节而被实践。在其他实例中,公知的方法、程序、部件和电路未被详细描述,以便不会不必要地模糊本发明的实施例的方面。而且,为避免不必要的重复描述,根据一个示例性实施例描述的一个或多个部件或动作在适用于其他示例性实施例时可以被使用或省略。
下文实施例将根据各种器械在三维空间中的状态来描述这些器械和器械的部分。如本文所用,术语“定位”指对象或对象的部分在三维空间中的位置(例如,沿笛卡儿X、Y、Z坐标的三个平移自由度)。如本文所用,术语“取向”指对象或对象的部分的旋转布置(三个旋转自由度—例如,滚转(roll)、俯仰(pitch)和偏航(yaw))。如本文所用,术语“姿态”指对象或对象的部分在至少一个平移自由度中的定位和该对象或该对象的部分在至少一个旋转自由度(多达总共六个自由度)中的取向。如本文所用,术语“形状”指沿对象测量的一组姿态、定位或取向。
参考附图的图1,用于在例如外科、诊断、治疗或活组织检查程序中使用的远程操作介入系统通常由附图标记100指示。如图1所示,远程操作系统100通常包括介入操纵器组件102,用于操作介入器械104对患者P进行各种程序。组件102安装到操作台O或安装在操作台O的附近。主组件106允许临床医生或外科医生S观看介入部位(site)和控制从操纵器组件102。
主组件106可以位于外科医生的控制台处,所述外科医生的控制台通常与操作台O位于相同的房间。然而,应理解,外科医生S可以与患者P位于不同的房间或完全不同的建筑。主组件106通常包括用于控制操纵器组件102的一个或多个控制装置。控制装置可以包括任意数量的多种输入装置,如操纵杆、轨迹球、数据手套、触发枪、手动操作控制器、语音识别装置、身体动作或存在传感器等。在一些实施例中,控制装置被提供与关联的介入器械104相同的自由度,以提供给外科医生远程呈现、或控制装置与器械104一体的感知,使得外科医生有直接控制器械104的强烈感觉。在其他实施例中,控制装置可以具有比相关联的介入器械104更多或更少的自由度,并且仍提供给外科医生远程呈现。在一些实施例中,控制装置是手动输入装置,其以六个自由度运动,并且其还可以包括用于致动器械(例如,用于闭合抓爪、施加电势至电极、递送药物治疗等)的可致动手柄。
远程操作组件102支撑医疗器械系统104并且可以包括一个或多个非伺服控制的联杆(1ink)(例如,可以手动定位并锁定在适当位置中的一个或多个联杆,通常被称为组建(set-up)结构)的运动学结构和远程操作操纵器。远程操作组件102包括响应于来自控制系统(例如,控制系统112)的命令而驱动医疗器械系统104上的输入的多个致动器或马达。马达包括驱动系统,当所述驱动系统耦接到医疗器械系统104时,所述驱动系统可以将医疗器械推进到自然或外科手术建立的解剖孔口。其他机动化的驱动系统可以以多个自由度移动医疗器械的远端,所述多个自由度可以包括三个线性运动度(例如,沿X、Y、Z笛卡尔轴线的线性运动)和三个旋转运动度(例如,围绕X、Y、Z笛卡尔轴线的旋转)。此外,马达可以用于致动用于在活组织检查设备等的钳口(jaw)中抓取组织的器械的可发音清晰的(articulable)末端执行器。
远程操作医疗系统100还包括具有用于接收关于远程操作组件的器械的信息的一个或多个子系统的传感器系统108。这些子系统可以包括位置传感器系统(例如,电磁(EM)传感器系统);用于确定沿器械系统104的柔性主体的导管尖端和/或一个或多个区段的位置、取向、速度、速率、姿态和/或形状的形状传感器系统;和/或用于从导管系统的远端采集图像的可视化系统。
可视化系统(例如,图2的可视化系统231)可以包括观察视野(scope)组件(在下面更详细地描述),使得外科手术部位的同步或实时图像被提供给临床医生或外科医生S。同步图像可以是例如通过被定位在外科手术部位内的内窥镜采集的二维或三维图像。在该实施例中,可视化系统包括可以被一体地或可移除地耦接到医疗器械104的内窥镜部件。然而,在替代实施例中,被附接到单独操纵器组件的单独内窥镜可以与医疗器械一起被使用以对外科手术部位进行成像。可视化系统可以被实施为与一个或多个计算机处理器相互作用或另外由一个或多个计算机处理器执行的硬件、固件、软件或其组合,所述一个或多个计算机处理器可以包括控制系统112(在下面描述)的处理器。
远程操作医疗系统100还包括显示系统110,用于显示由传感器系统108的子系统生成的外科手术部位和(一个或多个)医疗器械系统104的图像和表示。显示110和操作者输入系统106可以被取向,以便操作者能够在远程呈现的感知的情况下控制医疗器械系统104和操作者输入系统106。
显示系统110还可以显示通过可视化系统采集的外科手术部位和医疗器械的图像。显示器110和控制装置可以被取向使得成像装置在视镜组件和医疗器械中的相对位置类似于外科医生的眼睛和手的相对位置,因此操作者能够仿佛在基本上真实呈现中观察工作空间而操作医疗器械104和手动控制。通过真实呈现,意味着图像的呈现是模拟物理地操纵器械104的操作者的视角的真实透视图像。
替代地或附加地,显示器110可以使用来自成像技术(诸如计算机断层扫描(CT)、磁共振成像(MRI)、荧光镜检查、热敏成像(thermography)、超声波、光学相干断层扫描(OCT)、热成像、阻抗成像、激光成像或纳米管X射线成像)的数据呈现术前记录和/或建模的外科手术部位的图像。呈现的术前图像可以包括二维、三维或四维图像。呈现的术前或术中图像可以包括二维、三维或四维(包括例如基于时间或基于速度的信息)图像和用于重现图像的相关联的图像数据集。
在一些实施例中,显示器110可以显示虚拟的导航图像,在该虚拟的导航图像中医疗器械104的实际位置利用术前或同步图像被配准(即,动态参考),以从器械104的尖端的位置的视角向临床医生或外科医生S呈现内部外科手术部位的虚拟图像。器械104的尖端的图像或其他图形或字母数字指示符可以叠加在虚拟图像上以帮助外科医生控制医疗器械。替代地,器械104在虚拟图像中可以不可见。
在其他实施例中,显示器110可以显示虚拟的导航图像,在该虚拟的导航图像中医疗器械的实际位置利用术前图像或同步图像被配准,以从外部视角向临床医生或外科医生S呈现在外科手术部位内的医疗器械的虚拟图像。医疗器械的部分的图像或其他图形或字母数字指示符可以叠加在虚拟图像上以帮助外科医生控制器械104。
远程操作医疗系统100还包括控制系统112。控制系统112包括至少一个存储器和至少一个处理器(未示出)(并且通常多个处理器),用于实现医疗器械系统104、操作者输入系统106、传感器系统108和显示系统110之间的控制。控制系统112还包括程序化指令(例如,存储指令的计算机可读介质)以实施根据本文中公开的方面所描述的方法的一些或全部。虽然控制系统112在图1的简化示意图中被示出为单个方框,但是该系统可以包括两个或多个数据处理电路,其中一部分处理可选地在远程操作组件102上或邻近远程操作组件102被执行、另一部分处理在操作者输入系统106处被执行等。任何各种各样的集中式或分布式数据处理体系结构可以被利用。类似地,程序化指令可以被实施为数个独立的程序或子程序,或它们可以被集成到本文所描述的远程操作系统的数个其他方面。在一个实施例中,控制系统112支持无线通信协议,诸如蓝牙、IrDA、HomeRF、IEEE802.11、DECT和无线遥测。
在一些实施例中,控制系统112可以包括一个或多个伺服控制器,所述一个或多个伺服控制器从医疗器械系统104接收力和/或扭矩反馈。响应于该反馈,伺服控制器将信号传输给操作者输入系统106。(多个)伺服控制器还可以传输指导远程操作组件102的信号以移动经由身体中的开口延伸到患者身体内的内部外科手术部位的(多个)医疗器械系统104。任何适当的常规或专门的伺服控制器可以被使用。伺服控制器可以与远程操作组件102分开,或与远程操作组件102集成。在一些实施例中,伺服控制器和远程操作组件作为邻近患者身体定位的远程操作臂推车(arm cart)的一部分而被提供。
控制系统112可以进一步包括虚拟可视化系统以为(多个)医疗器械系统104提供导航帮助。使用虚拟可视化系统的虚拟导航基于对获得的与解剖通路的三维结构相关联的数据集的参考。更具体地,虚拟可视化系统处理使用成像技术(诸如计算机化断层显像(CT)、磁共振成像(MRI)、荧光镜检查、热敏成像、超声波、光学相干断层扫描(OCT)、热成像、阻抗成像、激光成像、纳米管X射线成像等)成像的外科手术部位的图像。软件单独或与手动输入结合地被用来将记录的图像转换为部分或整个解剖器官或解剖区域的分割的二维或三维复合表示。图像数据集与复合表示相关联。复合表示和图像数据集描述通路的各种位置和形状以及它们的连通性。被用来生成复合表示的图像可以在临床程序期间术前或术中被记录。在替代实施例中,虚拟可视化系统可以使用标准表示(即,非患者特定的)或标准表示和患者特定数据的混合。复合表示和由该复合表示生成的任何虚拟图像可以表示在运动的一个或多个阶段期间(例如,在肺的吸气/呼气循环期间)可变形的解剖区域的静态姿态。
在虚拟导航程序期间,传感器系统108可以被用来计算器械相对于患者解剖结构的大致位置。该位置可以用于产生患者解剖结构的宏观层跟踪图像和患者解剖结构的虚拟内部图像两者。用于使用光纤传感器配准并显示医疗实施方式和术前记录的外科手术图像(诸如来自虚拟可视化系统的那些图像)的各种系统是已知的。例如,美国专利申请13/107,562(2011年5月13日提交)(公开了“Medical System Providing Dynamic Registrationof a Model of an Anatomical Structure for Image-Guided Surgery”)公开了一种此类系统,该美国专利申请通过引用以其整体并入本文。
远程操作医疗系统100可以进一步包括可选的操作和支撑系统(未示出)诸如照明系统、转向(steering)控制系统、冲洗系统和/或抽吸系统。在替代实施例中,远程操作系统可以包括一个以上的远程操作组件和/或一个以上的操作者输入系统。操纵器组件的准确数目将取决于外科手术程序和手术室内的空间约束等其他因素。操作者输入系统可以被并置(collocated),或它们可以定位在独立的位置中。多个操作者输入系统允许一个以上的操作者控制各种组合中的一个或多个操纵器组件。
图2图示医疗器械系统200,其可以被用作远程操作医疗系统100的医疗器械系统104。替代地,医疗器械系统200可以被用于非远程操作探索性程序或用在涉及传统上手动操作的医疗器械(诸如内窥镜)的程序中。
器械系统200包括耦接到器械主体204的导管系统202。导管系统202包括细长的柔性导管主体216,其具有近端217和远端或尖端部分218。在一个实施例中,柔性主体216具有约3毫米的外直径。其他柔性主体外直径可以更大或更小。导管系统202可以可选地包括形状传感器222,其用于确定导管尖端在远端218处的和/或沿主体216的一个或多个区段224的位置、取向、速度、速率、姿态和/或形状。在远端218和近端217之间的主体216的整个长度可以有效地被划分为区段224。如果器械系统200是远程操作医疗系统100的医疗器械系统104,则形状传感器222可以是传感器系统108的部件。如果器械系统200被手动操作或以其他方式被用于非远程操作程序,则形状传感器222可以耦接到跟踪系统230,该跟踪系统230询问形状传感器并处理接收的形状数据。
形状传感器222可以包括与柔性导管主体216对齐的光纤(例如,在内部通道(未示出)内提供或外部安装)。在一个实施例中,光纤具有大约200微米的直径。在其他实施例中,该尺寸可以更大或更小。形状传感器系统222的光纤形成用于确定导管系统202的形状的光纤弯曲传感器。在一个替代方案中,包括光纤布拉格光栅(FBG)的光纤用于在一个或多个维度上提供结构中的应变测量。在美国专利申请11/180,389(2005年7月13日提交)(公开了“Fiber optic position and shape sensing device and method relating thereto”);美国专利申请12/047,056(2004年7月16日提交)(公开了“Fiber-optic shape andrelative position sensing”);以及美国专利6,389,187(1998年6月17日提交)(公开了“Optical Fibre Bend Sensor”)中描述了用于监测三维度上光纤的形状和相对位置的各种系统和方法,上述美国专利申请和专利通过引用以其整体并入本文。在替代的实施例中的传感器可以采用其他合适的应变感测技术,诸如Rayleigh散射、Raman散射、Brillouin散射和Fluorescence散射。在其他替代实施例中,可以使用其他技术确定导管的形状。例如,导管的远侧尖端姿态的历史可以被用于在时间间隔内重建装置的形状。作为另一个示例,可以存储针对沿交替运动(诸如呼吸)的循环的器械系统的已知点的历史姿态、位置或取向数据。该存储的数据可以被用于开发关于导管的形状信息。替代地,沿导管定位的一系列位置传感器(诸如EM传感器)可以用于形状感测。替代地,来自程序期间在器械系统上的位置传感器(诸如EM传感器)的数据历史可以用于表示器械的形状,尤其是如果解剖通路通常为静态。替代地,具有由外部磁场控制的位置或取向的无线装置可以被用于形状感测。无线装置的位置的历史可以被用于确定导航通路的形状。
在该实施例中,光纤可以包括在单个包层内的多个芯(core)。每个芯可以是具有足够距离和包层的单模(single-mode),所述包层将芯分开使得每个芯中的光不与其他芯中携带的光显著地相互作用。在其他实施例中,芯的数量可以改变,或者每个芯可以被包含在单独的光纤中。
在一些实施例中,在每个芯内提供FBG阵列。每个FBG包括芯的折射率的一系列调制,以便生成在折射率中的空间周期性。间距可以被选择使得来自每个折射率变化的部分反射针对波长的窄频带相干地增加并且因此在穿过更宽广的频带时仅反射波长的该窄频带。在FBG的制造期间,调制被间隔已知距离,从而引起波长的已知频带的反射。然而,当在纤芯上引起应变时,调制的间距将改变,这取决于芯中的应变量。替代地,随光纤弯曲而改变的反向散射或其他光学现象可以被用于确定每个芯内的应变。
因此,为了测量应变,光沿着(down)光纤被发送,并且测量返回光的特性。例如,FBG产生反射波长,其为光纤上的应变及其温度的函数。该FBG技术可以从各种源商购获得,诸如英国Bracknell的Smart Fibres Ltd.。在美国专利7,930,065(2006年7月20日提交)(公开了“Robotic Surgery System Including Position Sensors Using Fiber BraggGratings”)中描述了用于远程操作手术的位置传感器中的FBG技术的使用,该美国专利通过引用以其整体并入本文。光纤可以被用来监测导管系统202的至少一部分的形状。更具体地,穿过光纤的光被处理以检测导管系统202的形状并且利用该信息来辅助手术程序。传感器系统(例如,传感器系统108)可以包括用于生成光和检测光的询问系统,所述光用于确定导管系统202的形状。该信息进而可以被用于确定其他相关的变量,诸如医疗器械系统的各部分的速率和加速度。感测可以仅限于由远程操作系统致动的自由度,或它可以被施加被动自由度(例如,接头(joint)之间的刚性构件的未致动弯曲)和主动自由度(例如,器械的致动移动)两者。
医疗器械系统可以可选地包括位置传感器系统220。位置传感器系统220可以是EM传感器系统的部件,其中传感器220包括可以经受外部生成的电磁场的一个或多个传导线圈。然后EM传感器系统220的每个线圈产生感应的电信号,所述感应的电信号具有取决于线圈相对于外部生成的电磁场的位置和取向的特性。在一个实施例中,EM传感器系统可以被配置和定位以测量六个自由度,例如,三个位置坐标X、Y、Z和指示基点的俯仰、偏航和滚转的三个取向角,或五个自由度,例如三个位置坐标X、Y、Z和指示基点的俯仰和偏航的两个取向角。在美国专利6,380,732(1999年8月11日提交)(公开了“Six-Degree of FreedomTracking System Having a Passive Transponder on the Object Being Tracked”)中提供了EM传感器系统的进一步描述,该专利通过引用以其整体并入本文。
跟踪系统230可以包括用于确定远端218和沿着器械200的一个或多个节段224的位置、取向、速度、姿态和/或形状的位置传感器系统220和形状传感器系统222。跟踪系统230可以被实施为硬件、固件、软件或与一个或多个计算机处理器相互作用或另外由一个或多个计算机处理器执行的其组合,所述一个或多个计算机处理器可以包括控制系统116的处理器。
柔性导管主体216包括被设置尺寸和形状以接收介入器械226的通道221。介入器械可以包括例如图像采集探头(probe)、活组织检查器械、激光消融纤维或其他外科手术、诊断或治疗的工具。介入工具可以包括末端执行器,其具有单个工作构件,诸如解剖刀、钝刀片、光纤或电极。其他末端执行器可以包括例如镊子、抓紧器、剪刀或施夹器(clipapplier)。电激活的末端执行器的示例包括电外科电极、换能器、传感器等。在各种实施例中,介入工具226可以是图像采集探头,所述图像采集探头包括在柔性导管主体216的远端218处或其附近具有用于采集由可视化系统231处理以便显示的图像(包括视频图像)的立体摄像机或单视场摄像机的远端部分。图像采集探头可以包括耦接到摄相机以用于传输所采集的图像数据的电缆。替代地,图像采集器械可以是耦接到可视化系统的光纤束,诸如纤维镜。图像采集器械可以是单光谱或多光谱的,例如采集在可见光、红外光或紫外光谱的一个或多个中的图像数据。
介入器械226可以容纳在器械的近端和远端之间延伸以可控地使器械的远端弯曲的电缆、联动装置(linkage)或其他致动控制装置(未示出)。在美国专利7,316,681(2005年10月4日提交)(公开了“Articulated Surgical Instrument for Performing MinimallyInvasive Surgery with Enhanced Dexterity and Sensitivity”)和美国专利申请12/286,644(2008年9月30日提交)(公开了“Passive Preload and Capstan Drive forSurgical Instruments”)中详细描述了可转向器械,所述美国专利和美国专利申请通过引用以其整体并入本文。
柔性导管主体216也可以容纳在外壳204与远端218之间延伸以如例如通过远端的虚线描绘219所示的可控地使远端218弯曲的电缆、联动装置或其他转向控制装置(未示出)。在美国专利申请13/274,208(2011年10月14日提交)(公开了“Catheter withRemovable Vision Probe”)中详细地描述了可转向导管,所述美国专利申请通过引用以其整体并入本文。在器械系统200由远程操作组件致动的实施例中,外壳204可以包括可移动地耦接到远程操作组件的机动化驱动构件并且从其接收动力的驱动输入装置。在器械系统200被手动操作的实施例中,外壳204可以包括夹紧特征件、手动致动器或用于手动控制器械系统的运动的其他部件。导管系统可以是可操纵的,或替代地,在没有用于操作者控制器械弯曲的集成机构的情况下,该系统可以是不可操纵的。另外或替代地,一个或多个腔被限定在柔性主体216的壁中,医疗器械可以通过所述一个或多个腔在目标外科手术位置处被部署并且被使用。
在各种实施例中,医疗器械系统200可以包括柔性支气管器械,诸如用于在肺的检查、诊断、活组织检查或治疗中使用的支气管镜或支气管导管。系统200也适用于在任何各种解剖系统(包括结肠、肠、肾、大脑、心脏、循环系统等)中经由自然或外科手术创建的连接通路的其他组织的导航和治疗。
来自跟踪系统230的信息可以被发送到导航系统232,其中它与来自可视化系统231的信息和/或术前获得的模型进行组合以在显示系统110上为外科医生或其他操作者提供实时位置信息以用于在器械200的控制中使用。控制系统116可以利用位置信息作为用于定位器械200的反馈。2011年5月13日提交的公开了“Medical System Providing DynamicRegistration of a Model of an Anatomical Structure for Image-Guided Surgery”的美国专利申请13/107,562提供了用于利用光纤传感器来配准和显示具有外科手术图像的外科手术器械的各种系统,该美国专利申请通过引用以其整体并入本文。
在图2的实施例中,器械200在远程操作医疗系统100中被远程操作。在替代实施例中,远程操作组件102可以由直接操作者控制来代替。在直接操作替代方案中,可以包括各种手柄和操作者接口以用于器械的手持操作。
在替代实施例中,远程操作系统可以包括一个以上的从操纵器组件和/或一个以上的主组件。操纵器组件的准确数量将取决于介入程序和手术室内的空间限制以及其他因素。主组件可以被并置(collocated),或它们可以被定位在单独的位置中。多个主组件允许一个以上的操作者以各种组合的方式控制一个或多个从操纵器组件。
如在图3中更详细地示出的,用于诸如外科手术、活组织检查、消融、照明、冲洗或抽吸的程序的(多个)介入工具228可以通过柔性主体216的通道221被部署并且在解剖结构内的目标位置处被使用。介入工具228也可以是图像采集探头。工具228可以从通道221的开口被推进以执行程序并且然后当程序完成时被缩回到通道。介入工具228可以从导管柔性主体的近端217或从另一可选器械端口(未示出)沿着柔性主体被移除。
在使用中,临床医生或控制系统可以在解剖通路内选择规划的部署位置用于停放介入器械的远端以在目标结构上进行介入程序。在2013年12月30日提交的公开了“Systemsand Methods for Interventional Procedure Planning”的美国专利申请14/144,186中描述了用于规划介入程序和导航至规划的部署位置的各种系统和方法,该美国专利申请通过引用以其整体并入本文。与目标结构的位置、患者模型和患者解剖结构的配准和介入器械的导航相关联的不确定度或误差值影响规划的部署位置的识别和程序的有效性。如在下面描述的,由于导航和目标位置不确定度引起的错过目标结构的风险可以通过将目标结构的位置表示为包括目标点的集合或云的概率目标区域来减轻。临床医生或控制系统可以在解剖通路内选择用于停放导管的一个或多个部署位置,并且然后部署工具以从目标区域接合(engage)多个目标点。通过接合目标区域中的多个目标点,可以增加实际上一次或多次接合目标结构的概率。
图4图示用于识别程序部署位置并将介入器械导航到部署位置的方法250。过程252包括获得患者解剖结构的解剖模型。解剖模型可以从与解剖通路的三维结构相关联的获得的数据集发展而来。更具体地,模型可以通过处理使用成像技术(诸如CT、MRI、荧光镜检查、热敏成像、超声波、OCT、DOT、热成像、阻抗成像、激光成像、纳米管X射线成像等)记录的介入部位的图像来获得。软件被用于将记录的图像转换为部分或整个解剖器官或解剖区域的二维或三维模型。该模型描述通路的各种位置和形状以及它们的连接性。被用于生成模型的图像可以在临床程序期间术前或术中被记录。在替代实施例中,标准模型(即,非患者特定的)或标准模型和患者特定数据的混合可以被使用。模型和由模型生成的任何虚拟图像可以表示可变形的解剖区域在运动的一个或多个阶段期间(例如,在肺的吸气/呼气循环期间)的静态姿态。模型具有参考系和相关联的模型坐标系。
在过程254处,模型参考系被配准到患者参考系,使得在模型中识别的解剖结构的位置可以被转换到实际患者和介入器械存在的患者参考系。类似地,介入器械在患者参考系中的位置和取向可以被转换到模型参考系,使得器械相对于建模的解剖结构的移动可以被跟踪。在过程256处,目标结构在模型参考系中被识别并且被转换到患者参考系中的位置。如在图5中示出的,来自模型的虚拟图像300描绘目标结构302,诸如肿瘤和附近的解剖通路304。通路包括通路壁306和隆突308。在该实施例中,解剖通路是肺的支气管通路,但是本公开的系统和方法可以适合于在解剖系统(诸如结肠、肠、肾、心脏、或循环系统)中的其他自然或外科手术产生的通路中使用。虚拟图像300进一步描绘与解剖结构的图像配准的介入器械307的图像。介入器械307包括柔性主体309(大体上类似于柔性主体216)和延伸的介入工具310。介入器械307在患者参考系内的图像的位置和取向可以基于先前描述的传感器系统来确定。
各种误差因素促成了关于目标结构302相对于器械307的真实位置的不确定性。例如,误差因素可以与在模型参考系和患者参考系已经被配准之后患者的移动相关联。作为配准后移动的结果,实际的患者解剖结构可能不再在由模型预测的相同位置或取向中。另一误差因素可能与由例如患者呼吸或心脏运动引起的周期性患者移动相关联。例如,如果模型从在呼吸的呼气循环期间获得的图像获得,如果器械在呼吸的吸气循环期间被部署,则目标结构相对于器械的真实位置将在不同的位置中。误差因素也可能与传感器系统中的误差、成像时间与介入时间之间的解剖结构的变化(例如由于其他介入程序或疾病进展)、以及用于被用于导航器械的控制算法的假设的误差相关联。
再次参考图4,过程258包括确定目标区域,所述目标区域将目标结构302相对于器械的位置表示为目标点的概率集合或云。目标区域可以是患者参考系中的三维区域。在图5中示出了目标区域311的图像。目标区域311由多个目标点312组成。目标点312的分布和因此目标区域的三维形状可以基于如在上面描述的各种因素。例如,目标结构在患者参考系中的位置的概率分布可以有助于点分布。目标结构在患者参考系内的位置可以由于例如在术前成像时间与介入程序时间之间的运动、心脏运动、呼吸运动、与呼吸选通(gating)或感测相关联的误差、以及由介入器械施加到解剖结构的力引起的运动而改变。在患者参考系中的介入器械(导管和/或可延伸工具)的远端的姿态的概率分布也可以有助于目标点分布。例如,与传感器系统相关联的误差分布可以引起器械姿态中的误差。目标结构在患者参考系中的概率分布的其他贡献者可以包括在术前成像时间与介入程序时间之间的运动、与在导航算法中作出的假设相关联的偏差、介入工具的长度的不确定性和可变性、与相比于感测的介入工具的取向的介入工具的取向的变化相关联的不确定性和可变性。与术前模型和图像相比,实际目标结构的体积形状中的变化或改变也可以有助于目标结构在患者参考系中的概率分布。
这些因素中的每个因素有助于目标结构在患者参考系中的概率分布的量可以通过测量或接收关于患者解剖结构和器械的信息而被经验地获得。例如,可以获得关于在术前图像中的吸气与呼气之间的呼吸运动或关于呼吸建模和呼吸保持的准确性的经验数据。也可以获得关于在感测的器械的位置与器械被估计在其中的特定解剖通路之间的差异的经验数据。关于当器械跨越多个呼吸循环或心脏循环其处于静止(例如,未被轴向推进或旋转)时的感测的该器械的位置的统计可以被用于确定概率分布。关于当器械经受不同负荷状况(例如,不同的拉伸量)时的感测的该器械的位置的统计也可以被用于确定概率分布。关于器械和介入工具的形状以及器械和/或工具所经历的弯曲量的经验数据可以被用于确定概率分布。也可以测量或以其他方式获得关于目标结构所位于的解剖结构的位置(例如,周围组织的坚固性或弹性;骨、脉管系统和结缔组织的相对位置)的经验信息。也可以从基于物理的器械和介入工具的建模收集经验数据以确定在周围组织上引起的变形量。可以测量或以其他方式获得关于器械和介入工具的物理性质的经验数据。经验数据也可以从由手术中成像源(诸如光学可视化系统、超声波、CT或荧光透视源)得到的解剖结构和目标结构的图像来获得。
尽管确定目标区域的过程258可以涉及确定包含多个目标点的单个目标区域,但是在其他实施例中,一个以上的点云可以被确定。例如,如果诸如骨或其他刚性组织的障碍物在目标结构的区域中,则两个目标区域–刚性组织的每侧上一个目标区域–可以被确定。多个目标区域可以是完全分开的或可以交叉。
目标区域311可以被图示为目标结构的理论位置(即目标点)周围的有界体积。替代地,目标区域可以是目标点的集合而没有目标点周围的有界体积。目标点云和/或有界体积可以被显示为与目标结构的理论位置周围的概率分布匹配的球状、椭圆体或其他形状的二维体积或三维体积。目标区域的尺寸和形状可以取决于目标结构的解剖结构中的特定位置的性质。不同的性质可以应用于解剖结构的不同部分。例如,由于周期性解剖运动,肺的周边区域可能比更中心区域经历更大的移动。因此,与周边区域中的目标结构相关联的误差分布和目标区域尺寸可能大于与主支气管附近的目标结构相关联的分布和目标区域尺寸。目标区域的尺寸和形状也可以考虑当进行介入程序时所要避免的区域。所要避免的区域可以包括进行介入程序可能对患者造成危险的区域或可能难接近的区域。要避免的区域可以包括血管、骨、肺的边界(例如,胸膜或隔膜附近)或敏感器官,并且因此,这些解剖特征的存在可能影响目标区域的尺寸和形状。目标区域的尺寸和形状还可能受成功程序的概率的影响。例如,成功的活组织检查可以取决于避免具有几乎平行于接近气道的轨迹的目标点,因为这种方法将增加介入工具偏转到气道内而非刺穿壁以实现活组织检查的风险。在一个实施例中,用于识别气道通道或解剖图像中的其他结构的分割过程可以被用于建模目标结构并修改(例如,增长)分割的表面以说明目标结构的位置的概率分布。换言之,目标结构的尺寸和形状可以被扩展或以其他方式被改变以包括目标结构的位置的概率分布。
在一些实施例中,目标结构位置可以被划分成子位置,每个子位置具有相关联的概率目标区域。在一些实施例中,目标结构位置或子位置可以是被生成以适应当活组织检查器械正在被部署时的导管运动或导管或活组织检查器械的其他已知的柔性特性的人工位置。例如,如果活组织检查程序当使用实际目标位置时由于导管移动而不成功,一个或多个人工目标位置可以被创建以补偿导管移动。
再次参考图4,过程260包括在要进行介入程序的目标区域内识别特定目标点。例如,目标区域内的特定点可以是用于对组织取样的活组织检查位置。特定目标点的选择可以进一步受所要进行的程序的总数量的影响。例如,如果仅两个活组织检查在目标区域内被规划,则与如果六个活组织检查在六个不同的目标点处被规划相比,选定的目标点可能更远。特定目标点的选择也可能受先前程序的结果的影响。例如,针对目标区域中的更迟的一组活组织检查的目标点的选择可以基于更早的活组织检查的结果。可以例如基于成功的活组织检查结果的概率、基于患者安全性(例如,考虑附近的脆弱结构)、或基于符合要求的历史样本的概率来对目标点排序或分等级。
再次参考图4,过程262包括识别介入工具可以从其被部署的规划的导管停放位置。在一个实施例中,控制系统112的导航规划模块将规划的部署位置识别为沿着最接近或靠近目标区域或(多个)目标区域内的特定目标点的解剖通路的壁的位置314。如果一个以上的目标区域被识别,则一个以上的部署位置可以被确定。不同的部署位置还可以针对每个目标点被识别。
完全基于到目标区域的接近度选择部署位置可能导致介入器械不能接近或不容易接近的选定的部署位置。例如,介入器械可能不能够在通路内充分弯曲以进入基于接近度的部署位置。此外,选定的部署位置或到部署位置的导航路径可以不考虑解剖学限制,诸如要避免的疤痕或患病组织。作为另一示例,部署位置能够被选择以使组织变形量最小化并且因此使组织损伤的风险最小化。可选地,一个或多个部署位置或目标点可以基于活组织检查样本的期望尺寸来选择。例如,第一活组织检查可以仅基于一些细胞返回阳性细胞学样本。基于阳性细胞学样本,新的(多个)目标点或(多个)部署位置可以被选择以进入(access)用于组织学样本的活组织检查所要跨越的目标结构的更大直径。
在其他实施例中,导航规划模块基于多个因素选择部署位置,在一些实例中,所述多个因素可以是程序特性,诸如到目标区域的距离和/或目标区域相对于其他解剖特征的位置。在其他实施例中,导航规划模块可以附加地或替代地接收并使用关于介入器械的操作能力的信息以确定部署位置。例如,涉及器械的弯曲能力的已知特性的信息可以被考虑,诸如导管材料的柔性和弹性、导管或穿过导管的通道的工具的任何刚度或执行的形状特性、导管或工具的远端的可转向性(例如,导管的远侧尖端可以相对于导管的主轴线被弯曲的程度)、以及沿着导管的长度的曲率。介入器械的其他已知特性也可以被用于确定部署位置,所述特性包括导管的直径、工具的直径、当从导管被延伸时工具的轨迹(例如,弯曲的、直的)、工具的移动(例如,大幅度弯曲(sweeping)、旋转、线性)、工具的轴线与导管的轴线的最大形成角度、工具能够从导管被延伸的最大长度、以及在导管的远侧尖端处提供与通路壁摩擦接触的任何锚固结构。涉及弯曲能力的信息和/或与介入器械的特性有关的信息是能够被用于确定介入器械在解剖通路内的操作能力的示例性因素。
导航规划模块也可以或替代地接收并使用关于患者解剖结构的信息来确定部署位置。此类信息可以包括例如最接近目标区域的解剖通路的隆突的位置和最接近目标区域的通路的尺寸。其他解剖信息可以包括解剖通路的弹性,包括任何疾病过程可能已对通路的弹性造成的影响。导航规划模块也可以考虑周围解剖组织以例如选择减少对周围组织的风险的部署位置。作为一个示例,部署位置使部署的工具大致平行于肺壁(而非朝向它)延伸。这可以最小化利用部署的工具刺穿肺的风险。导航规划模块还可以考虑目标结构的解剖结构以进入目标区域的优选位置。例如,部署位置可以被选择使得活组织检查工具避免肿瘤的钙化部分。目标区域的形状也可以基于目标结构的解剖结构来确定,使得肿瘤的钙化部分的区域被识别为低概率区域并且将不被包括在概率区域中。
导航规划模块也可以考虑关于介入器械与患者解剖结构之间的关系(诸如目标区域或目标区域中的特定目标点相距导管的末端的距离)的信息。导航规划模块也可以考虑介入工具与通路壁之间的接近角。例如,由于通路的小尺寸和导管的远侧尖端的可弯曲性,90°的接近角可能是不可行的。由于介入工具可能擦伤而非穿透通路壁的表面的风险,1°的接近角也可能是不合适的。由于这些原因,导航规划模块可以选择部署位置使得接近角在大约30°与90°之间。在导航规划模块评估与介入器械和患者解剖结构有关的因素之后,解剖通路的壁上的部署位置314被识别。
在过程264处,导航规划模块可以提供用于到规划的部署位置的建议导航路径的指令。然后临床医生能够将介入器械的远端引导到部署位置。临床医生可以基于虚拟或实际图像指引而手动地控制介入器械的导航。替代地,临床医生可以远程操作地控制介入器械的导航或允许介入器械沿着建议导航路径的计算机控制的导航。
图6示出从部署位置处停放的导管部署介入工具的方法400。在过程402处,介入工具(例如工具310)从被停放在部署位置处的导管朝向目标区域中的目标点被延伸。在一些情况下,例如当目标结构位于解剖通路内时,部署位置可以位于通路的内腔内而非位于通路的壁上。目标点可以由临床医生或控制系统预先选择。替代地,目标点可以是当进行介入程序时被工具接合的目标区域内的任何接合点。在过程404处,目标区域内的第一接合点可以被记录。例如,第一接合点可以是第一活组织检查位置。第一接合点可以与预先选择的目标点一致。替代地,记录的第一接合点可以在与预先选择的目标点不同的位置处。在过程406处,介入工具被重新部署到第二接合点,并且目标区域内的第二接合点可以被记录。器械的重新部署可以根据初始部署位置发生。可选地,用于停放导管的部署位置可以在将器械重新部署到第二接合点之前被改变。可选地,介入工具的连续的重新部署的过程可以被重复直至规划的数量或临床医生确定的数量的需要的接合程序被完成。在可选过程408处,目标区域和接合位置可以被显示在图形用户界面(GUI)上。
图7示出用于在显示器(例如,显示110)上呈现描绘表示目标结构(例如目标结构302)的概率分布的目标区域452的GUI 450。目标结构包括多个目标点454。第一接合点P1是第一程序的位置(例如,第一活组织检查位置),并且第二接合点P2是第二程序的位置(例如,第二活组织检查位置)。接合点P1、P2可以与目标点454中的预先选择的目标点一致。替代地,接合点P1、P2可以具有目标区域有界体积,但是可以不对应于预先选择的目标点。接合点都可以用相同的符号标记,或每个接合点可以用不同的符号标记。如果不同的符号被使用,符号中的每个符号可以指示诸如活组织检查程序发生的顺序或针对每个特定接合点的活组织检查的结果的信息。
图8示出从被停放在部署位置处的导管部署介入工具的方法500。在过程502处,介入工具(例如工具310)从被停放在部署位置处的导管朝向目标区域中的目标点被延伸。目标点可以由临床医生或控制系统预先选择。替代地,目标点可以是当进行介入程序时由工具接合的目标区域内的任何接合点。在过程504处,目标区域内的第一接合点可以被记录。例如,第一接合点可以是第一活组织检查位置。第一接合点可以与预先选择的目标点一致。替代地,记录的第一接合点可以在与预先选择的目标点不同的位置处。在过程506处,修正的目标区域基于第一接合点来形成。例如,如果第一接合点旨在与具体目标点一致但是被错过,则目标区域可以动态地被修正。因此,来自记录的第一接合点的信息可以被用于将目标区域更好地调整到实际解剖构造。修正的目标区域也可以基于被采样的组织的类型来开发。例如,如果来自第一接合点的组织样本不包括来自目标结构的组织,则该信息可以用作反馈以调整用于生成修正的目标区域的概率分布。如果由于活组织检查程序中的误差而未获得组织,则相同的位置可以被再次采样。修正的目标区域也可以基于在活组织检查程序期间在第一接合点处进行的附加的手术中成像(例如,光学成像、荧光透视成像)来形成。在过程508处,介入工具被重新部署到修正的目标区域内的第二接合点,并且修正的目标区域内的第二接合点可以被记录。器械的重新部署可以从初始部署位置发生。可选地,过程506和508可以被重复,直至规划的数量或临床医生确定的数量的需要的接合(engagement)程序被完成。可选地,用于停放导管的部署位置可以在将器械重新部署到第二接合点之前被改变。在可选过程510处,动态地调整目标区域和接合位置可以被显示在图形用户界面(GUI)上。
图9大致示出图8的方法。图9示出用于在显示器(例如,显示110)上呈现描绘表示目标结构(例如目标结构302)的初始概率分布的初始目标区域552的GUI 550。第一接合点P1是第一程序的位置(例如第一活组织检查位置)。基于在程序(例如活组织检查)期间在接合点P1处收集的信息,修正的目标区域554和修正的目标点556被确定。第二接合点P2是在修正的目标区域中取得的第二程序的位置(例如,第二活组织检查位置)。接合点P1、P2可以与初始或任何修正的目标区域中的预先选择的目标点一致。替代地,接合点P1、P2可以具有目标区域有界体积,但是可以不对应于预先选择的目标点。接合点都可以用相同的符号标记,或每个接合点可以用不同的符号标记。如果不同的符号被使用,符号中的每个符号可以指示诸如哪个目标区域被用于执行程序、活组织检查程序发生的顺序、或针对每个特定接合点的活组织检查的结果的信息。
部署介入工具的方法的结果可以以各种方式被呈现或被可视化。例如,如在图10中示出的,提供编码的目标点的GUI 600可以被呈现,所述编码的目标点指示目标结构概率。可以用颜色、符号或其他区别标记编码目标点。在该示例中,目标区域602包括具有第一符号编码的目标点604和具有第二符号编码的目标点606。编码的目标点604可以指示与编码的目标点606不同的成功的活组织检查的概率(例如,更高或更低)。编码的目标点也可以指示介入工具先前已经在哪进行过采样和采样是否成功地收集目标结构组织。编码可以基于来自每次接合的结果而动态地改变。目标点编码也可以被用于显示呼吸阶段相对于用于选通(gated)的活组织检查的参考阶段的测量。例如,当呼吸的状态不同于选通的活组织检查阶段时,目标点的颜色可以改变。
图11示出图示具有区域指示符624、626的目标区域622的GUI 620。区域624可以指示成功的活组织检查已经在哪里被执行。区域626可以指示不成功的活组织检查已经在哪里被执行。区域标记可以基于来自每个接合的结果而动态地改变。
图12示出图示由多个体素组成的目标区域642的GUI 640。当对应于体素的接合点被接合(例如,被活组织检查)时,所获得的信息可以允许目标区域被造形成近似实际目标结构的形状。例如,体素646从目标区域642被清除以指示该位置已经被访问并且结果是不成功的(即,未被接合的目标结构)。体素644在目标区域642中被标记以指示该位置已经被访问并且结果是成功的(即,被接合的目标结构)。在替代实施例中,被活组织检查的组织的实际尺寸和形状可以基于临床医生输入、术前分割或术中分割被显示。
一系列多个介入接合的结果可以被存储并且针对随后的介入程序在相同的目标结构或解剖结构的区域上被显示。
尽管已描述用于在肺的连通的支气管通路中使用的本公开的系统和方法,但是它们也适用于在多种解剖学系统(包括结肠、肠、肾、脑、心脏、循环系统等)的任何解剖学系统中经由自然或外科手术产生的连通通路的其他组织的导航和治疗。本公开的方法和实施例也适用于非介入应用。
本发明的实施例中的一个或多个元件可以以软件实施以在计算机系统(诸如控制系统112)的处理器上执行。当以软件实施时,本发明的实施例的元件基本上是代码段以执行必要的任务。程序或代码段可以存储在处理器可读存储介质或设备中,所述程序或代码段可以通过在传输介质或通信链路上的载波中实施的计算机数据信号的方式被已经下载。处理器可读存储设备可以包括能够存储信息的任何介质,包括光学介质、半导体介质和磁介质。处理器可读存储设备示例包括电子电路;半导体设备、半导体存储器设备、只读存储器(ROM)、闪速存储器、可擦除可编程只读存储器(EPROM);软盘、CD-ROM、光盘、硬盘或其他存储设备。代码段可以经由计算机网络(诸如因特网、内联网等)被下载。
注意,呈现的过程和显示可以不与任何特定计算机或其他装置内在地相关。用于各种这些系统的所需结构将在权利要求中作为元件出现。此外,本发明的实施例没有参考任何特定的编程语言来描述。应当认识到,各种编程语言可用于实施如本文所述的本发明的教导。
虽然本发明的某些示例性实施例已被描述并在附图中被示出,但是应该理解的是,这些实施例仅是对广泛发明的说明而非限制,并且本发明的实施例不限于所示出和描述的特定结构和布置,因为本领域普通技术人员可以想到各种其他修改。
Claims (19)
1.一种非暂时性机器可读介质,其包括多个机器可读指令,所述多个机器可读指令在被一个或多个处理器执行时适于使所述一个或多个处理器执行部署包括导管和可从所述导管部署的工具的介入器械的方法,所述方法包含:
在解剖参考系中识别目标结构;
在所述解剖参考系中相对于所述介入器械的当前位置确定目标区域,其中确定所述目标区域包括确定所述目标结构的位置相对于所述介入器械的所述当前位置的概率分布,和其中确定所述目标区域包括确定在术前成像时间与介入程序时间之间的患者解剖姿态的变化、确定解剖运动循环、针对所述介入器械中的传感器确定误差分布、针对从所述导管延伸的所述工具的特性确定不确定度值、确定与目标解剖结构的形状相关联的误差值、以及利用成像装置对目标解剖结构进行可视化中的至少一个;以及
记录所述介入器械在所述目标区域内的第一接合位置。
2.根据权利要求1所述的非暂时性机器可读介质,其中所述目标结构的至少一部分位于所述目标区域内。
3.根据权利要求1所述的非暂时性机器可读介质,其中所述解剖参考系是三维解剖参考系,并且其中识别所述目标结构包括在三维模型参考系中识别模型目标结构并且将所述三维模型参考系配准到所述三维解剖参考系。
4.根据权利要求1所述的非暂时性机器可读介质,其中确定所述目标区域包括确定在术前成像时间与介入程序时间之间的患者解剖姿态的变化、针对解剖运动循环确定误差分布、针对所述介入器械中的传感器确定误差分布、确定与目标解剖结构的形状相关联的误差值、确定与所述目标结构周围的组织的性质相关联的误差值、以及利用成像装置对目标解剖结构进行可视化中的至少一个。
5.根据权利要求1所述的非暂时性机器可读介质,其中所述介入器械包括导管和工具,并且确定所述目标区域包括针对从所述导管延伸的所述工具的已知特性确定不确定度值。
6.根据权利要求1所述的非暂时性机器可读介质,所述方法进一步包含提供指令用于基于周期性解剖运动状态在所述第一接合位置处定时进行第一接合程序。
7.根据权利要求1所述的非暂时性机器可读介质,所述方法进一步包含记录所述介入器械在所述目标区域内的第二接合位置。
8.根据权利要求7所述的非暂时性机器可读介质,所述方法进一步包含提供指令用于基于从所述第一接合位置获得的信息在所述第二接合位置处进行第二接合程序。
9.根据权利要求7所述的非暂时性机器可读介质,所述方法进一步包含:
在记录所述第一接合位置之前确定用于所述介入器械的第一部署位置;以及
在记录所述第二接合位置之前确定用于所述介入器械的第二部署位置,其中所述第一部署位置不同于所述第二部署位置。
10.一种非暂时性机器可读介质,其包括多个机器可读指令,所述多个机器可读指令在被一个或多个处理器执行时适于使所述一个或多个处理器执行用于执行介入程序的方法,所述方法包含:
确定目标区域,其中确定所述目标区域包括确定在术前成像时间与介入程序时间之间的患者解剖姿态的变化、确定解剖运动循环、针对包括导管和可从所述导管部署的工具的介入器械中的传感器确定误差分布、针对从导管延伸的工具的特性确定不确定度值、确定与目标解剖结构的形状相关联的误差值、以及利用成像装置对目标解剖结构进行可视化中的至少一个;
生成包括用于部署介入器械的所述目标区域的图像的图形用户界面即GUI;
响应于所述介入器械的第一接合,更新所述GUI以包括第一接合位置标记;以及
响应于所述介入器械的所述第一接合,更新所述GUI以包括第一修正的目标区域的图像。
11.一种非暂时性机器可读介质,其包括多个机器可读指令,所述多个机器可读指令在被一个或多个处理器执行时适于使所述一个或多个处理器执行用于规划多个介入程序的方法,所述方法包含:
在解剖系中识别目标结构;
在所述解剖系中确定目标区域,其中所述目标结构位于所述目标区域内,和其中确定所述目标区域包括确定在术前成像时间与介入程序时间之间的患者解剖姿态的变化、确定解剖运动循环、针对包括导管和可从所述导管部署的工具的介入器械中的传感器确定误差分布、针对从导管延伸的工具的特性确定不确定度值、确定与目标解剖结构的形状相关联的误差值、以及利用成像装置对目标解剖结构进行可视化中的至少一个;
在所述目标区域内识别用于部署介入器械的第一接合位置;以及
识别用于部署所述介入器械的第二接合位置。
12.一种系统,其包含:
介入器械,其包括导管和可从所述导管部署的工具,以及
控制系统,其被配置为
在解剖参考系中识别目标结构;
在所述解剖参考系中相对于所述介入器械的当前位置确定目标区域,其中确定所述目标区域包括确定所述目标结构的位置相对于所述介入器械的所述当前位置的概率分布,和其中确定所述目标区域包括确定在术前成像时间与介入程序时间之间的患者解剖姿态的变化、确定解剖运动循环、针对所述介入器械中的传感器确定误差分布、针对从所述导管延伸的所述工具的特性确定不确定度值、确定与目标解剖结构的形状相关联的误差值、以及利用成像装置对目标解剖结构进行可视化中的至少一个;
记录所述介入器械在所述目标区域内的第一接合位置;以及
记录所述介入器械在所述目标区域内的第二接合位置。
13.根据权利要求12所述的系统,其中所述目标结构的至少一部分位于所述目标区域内。
14.根据权利要求12所述的系统,其中所述解剖参考系是三维解剖参考系,并且其中识别所述目标结构包括在三维模型参考系中识别模型目标结构并且将所述三维模型参考系配准到所述三维解剖参考系。
15.根据权利要求14所述的系统,其中所述三维模型参考系从患者解剖结构的术前图像被生成。
16.根据权利要求12所述的系统,其中所述解剖运动循环是呼吸循环,并且确定所述目标区域进一步包括基于在术前成像时间处的呼吸状态与在介入程序时间处的呼吸状态的比较确定误差值。
17.根据权利要求12所述的系统,其中所述控制系统被进一步配置为提供指令用于何时基于周期性解剖运动状态在所述第一接合位置处进行第一接合程序。
18.根据权利要求12所述的系统,其中所述控制系统被进一步配置为提供指令用于基于从所述第一接合位置获得的信息在所述第二接合位置处进行第二接合程序。
19.根据权利要求12所述的系统,其中所述控制系统被进一步配置为生成图形用户界面即GUI,所述GUI包括表示所述目标结构的目标标记和表示所述目标区域的一组标记。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462029942P | 2014-07-28 | 2014-07-28 | |
US62/029,942 | 2014-07-28 | ||
PCT/US2015/040994 WO2016018648A1 (en) | 2014-07-28 | 2015-07-17 | Systems and methods for planning multiple interventional procedures |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106714724A CN106714724A (zh) | 2017-05-24 |
CN106714724B true CN106714724B (zh) | 2019-10-25 |
Family
ID=55218186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580052079.5A Active CN106714724B (zh) | 2014-07-28 | 2015-07-17 | 用于规划多个介入程序的系统和方法 |
Country Status (6)
Country | Link |
---|---|
US (3) | US11351000B2 (zh) |
EP (1) | EP3174490B1 (zh) |
JP (1) | JP6716538B2 (zh) |
KR (1) | KR102419094B1 (zh) |
CN (1) | CN106714724B (zh) |
WO (1) | WO2016018648A1 (zh) |
Families Citing this family (82)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7930065B2 (en) | 2005-12-30 | 2011-04-19 | Intuitive Surgical Operations, Inc. | Robotic surgery system including position sensors using fiber bragg gratings |
US9962066B2 (en) | 2005-12-30 | 2018-05-08 | Intuitive Surgical Operations, Inc. | Methods and apparatus to shape flexible entry guides for minimally invasive surgery |
US8062211B2 (en) | 2006-06-13 | 2011-11-22 | Intuitive Surgical Operations, Inc. | Retrograde instrument |
US9096033B2 (en) | 2007-06-13 | 2015-08-04 | Intuitive Surgical Operations, Inc. | Surgical system instrument sterile adapter |
US8218847B2 (en) | 2008-06-06 | 2012-07-10 | Superdimension, Ltd. | Hybrid registration method |
US10842461B2 (en) | 2012-06-21 | 2020-11-24 | Globus Medical, Inc. | Systems and methods of checking registrations for surgical systems |
US11399900B2 (en) | 2012-06-21 | 2022-08-02 | Globus Medical, Inc. | Robotic systems providing co-registration using natural fiducials and related methods |
US10874466B2 (en) | 2012-06-21 | 2020-12-29 | Globus Medical, Inc. | System and method for surgical tool insertion using multiaxis force and moment feedback |
US11045267B2 (en) | 2012-06-21 | 2021-06-29 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
US12004905B2 (en) | 2012-06-21 | 2024-06-11 | Globus Medical, Inc. | Medical imaging systems using robotic actuators and related methods |
US11974822B2 (en) | 2012-06-21 | 2024-05-07 | Globus Medical Inc. | Method for a surveillance marker in robotic-assisted surgery |
US11786324B2 (en) | 2012-06-21 | 2023-10-17 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
US11589771B2 (en) | 2012-06-21 | 2023-02-28 | Globus Medical Inc. | Method for recording probe movement and determining an extent of matter removed |
US11793570B2 (en) | 2012-06-21 | 2023-10-24 | Globus Medical Inc. | Surgical robotic automation with tracking markers |
US11857149B2 (en) | 2012-06-21 | 2024-01-02 | Globus Medical, Inc. | Surgical robotic systems with target trajectory deviation monitoring and related methods |
US11857266B2 (en) | 2012-06-21 | 2024-01-02 | Globus Medical, Inc. | System for a surveillance marker in robotic-assisted surgery |
US11298196B2 (en) | 2012-06-21 | 2022-04-12 | Globus Medical Inc. | Surgical robotic automation with tracking markers and controlled tool advancement |
US11864839B2 (en) | 2012-06-21 | 2024-01-09 | Globus Medical Inc. | Methods of adjusting a virtual implant and related surgical navigation systems |
US11896446B2 (en) | 2012-06-21 | 2024-02-13 | Globus Medical, Inc | Surgical robotic automation with tracking markers |
US10624710B2 (en) | 2012-06-21 | 2020-04-21 | Globus Medical, Inc. | System and method for measuring depth of instrumentation |
US11963755B2 (en) | 2012-06-21 | 2024-04-23 | Globus Medical Inc. | Apparatus for recording probe movement |
US10799298B2 (en) | 2012-06-21 | 2020-10-13 | Globus Medical Inc. | Robotic fluoroscopic navigation |
US11253327B2 (en) | 2012-06-21 | 2022-02-22 | Globus Medical, Inc. | Systems and methods for automatically changing an end-effector on a surgical robot |
US11317971B2 (en) | 2012-06-21 | 2022-05-03 | Globus Medical, Inc. | Systems and methods related to robotic guidance in surgery |
US10758315B2 (en) | 2012-06-21 | 2020-09-01 | Globus Medical Inc. | Method and system for improving 2D-3D registration convergence |
US11864745B2 (en) | 2012-06-21 | 2024-01-09 | Globus Medical, Inc. | Surgical robotic system with retractor |
US10646280B2 (en) | 2012-06-21 | 2020-05-12 | Globus Medical, Inc. | System and method for surgical tool insertion using multiaxis force and moment feedback |
US9603668B2 (en) | 2014-07-02 | 2017-03-28 | Covidien Lp | Dynamic 3D lung map view for tool navigation inside the lung |
US9633431B2 (en) | 2014-07-02 | 2017-04-25 | Covidien Lp | Fluoroscopic pose estimation |
EP3174490B1 (en) * | 2014-07-28 | 2020-04-15 | Intuitive Surgical Operations, Inc. | Systems and methods for planning multiple interventional procedures |
US9986983B2 (en) | 2014-10-31 | 2018-06-05 | Covidien Lp | Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same |
GB2537686A (en) * | 2015-04-24 | 2016-10-26 | Vision Rt Ltd | Patient positioning training apparatus |
US10674982B2 (en) | 2015-08-06 | 2020-06-09 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US10716525B2 (en) | 2015-08-06 | 2020-07-21 | Covidien Lp | System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction |
US10702226B2 (en) | 2015-08-06 | 2020-07-07 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US11883217B2 (en) | 2016-02-03 | 2024-01-30 | Globus Medical, Inc. | Portable medical imaging system and method |
WO2018005842A1 (en) | 2016-06-30 | 2018-01-04 | Intuitive Surgical Operations, Inc. | Graphical user interface for displaying guidance information in a plurality of modes during an image-guided procedure |
WO2018005861A1 (en) | 2016-06-30 | 2018-01-04 | Intuitive Surgical Operations, Inc. | Graphical user interface for displaying guidance information during an image-guided procedure |
US20180049808A1 (en) * | 2016-08-17 | 2018-02-22 | Covidien Lp | Method of using soft point features to predict breathing cycles and improve end registration |
EP3565482B1 (en) | 2017-01-03 | 2021-03-10 | Koninklijke Philips N.V. | Medical navigation system using shape-sensing device and method of operation thereof |
DE102017103198A1 (de) * | 2017-02-16 | 2018-08-16 | avateramedical GmBH | Vorrichtung zum Festlegen und Wiederauffinden eines Bezugspunkts während eines chirurgischen Eingriffs |
US11793579B2 (en) | 2017-02-22 | 2023-10-24 | Covidien Lp | Integration of multiple data sources for localization and navigation |
EP3613057A4 (en) * | 2017-04-18 | 2021-04-21 | Intuitive Surgical Operations, Inc. | GRAPHIC USER INTERFACE FOR PLANNING A PROCEDURE |
JP2020518326A (ja) * | 2017-04-18 | 2020-06-25 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 画像誘導処置を監視するためのグラフィカル・ユーザインターフェイス |
CN110831498B (zh) | 2017-05-12 | 2022-08-12 | 奥瑞斯健康公司 | 活检装置和系统 |
US10699448B2 (en) | 2017-06-29 | 2020-06-30 | Covidien Lp | System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data |
WO2019075074A1 (en) | 2017-10-10 | 2019-04-18 | Covidien Lp | SYSTEM AND METHOD FOR IDENTIFICATION AND MARKING OF A TARGET IN A THREE-DIMENSIONAL FLUOROSCOPIC RECONSTRUCTION |
US11471217B2 (en) | 2017-12-11 | 2022-10-18 | Covidien Lp | Systems, methods, and computer-readable media for improved predictive modeling and navigation |
EP3510927A1 (en) * | 2018-01-10 | 2019-07-17 | Globus Medical, Inc. | Surgical robotic systems with target trajectory deviation monitoring |
US10905498B2 (en) | 2018-02-08 | 2021-02-02 | Covidien Lp | System and method for catheter detection in fluoroscopic images and updating displayed position of catheter |
US10930064B2 (en) | 2018-02-08 | 2021-02-23 | Covidien Lp | Imaging reconstruction system and method |
US10893842B2 (en) | 2018-02-08 | 2021-01-19 | Covidien Lp | System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target |
US10489943B2 (en) | 2018-02-28 | 2019-11-26 | General Electric Company | System and method for sparse image reconstruction |
US11071591B2 (en) | 2018-07-26 | 2021-07-27 | Covidien Lp | Modeling a collapsed lung using CT data |
US11705238B2 (en) | 2018-07-26 | 2023-07-18 | Covidien Lp | Systems and methods for providing assistance during surgery |
US11944388B2 (en) | 2018-09-28 | 2024-04-02 | Covidien Lp | Systems and methods for magnetic interference correction |
US11877806B2 (en) | 2018-12-06 | 2024-01-23 | Covidien Lp | Deformable registration of computer-generated airway models to airway trees |
US11045075B2 (en) | 2018-12-10 | 2021-06-29 | Covidien Lp | System and method for generating a three-dimensional model of a surgical site |
US11617493B2 (en) | 2018-12-13 | 2023-04-04 | Covidien Lp | Thoracic imaging, distance measuring, surgical awareness, and notification system and method |
US11801113B2 (en) | 2018-12-13 | 2023-10-31 | Covidien Lp | Thoracic imaging, distance measuring, and notification system and method |
US11357593B2 (en) | 2019-01-10 | 2022-06-14 | Covidien Lp | Endoscopic imaging with augmented parallax |
US11625825B2 (en) | 2019-01-30 | 2023-04-11 | Covidien Lp | Method for displaying tumor location within endoscopic images |
US11564751B2 (en) | 2019-02-01 | 2023-01-31 | Covidien Lp | Systems and methods for visualizing navigation of medical devices relative to targets |
US11925333B2 (en) | 2019-02-01 | 2024-03-12 | Covidien Lp | System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network |
US11744643B2 (en) | 2019-02-04 | 2023-09-05 | Covidien Lp | Systems and methods facilitating pre-operative prediction of post-operative tissue function |
US11819285B2 (en) | 2019-04-05 | 2023-11-21 | Covidien Lp | Magnetic interference detection systems and methods |
US12089902B2 (en) | 2019-07-30 | 2024-09-17 | Coviden Lp | Cone beam and 3D fluoroscope lung navigation |
US12059281B2 (en) | 2019-08-19 | 2024-08-13 | Covidien Lp | Systems and methods of fluoro-CT imaging for initial registration |
US11269173B2 (en) | 2019-08-19 | 2022-03-08 | Covidien Lp | Systems and methods for displaying medical video images and/or medical 3D models |
US11931111B2 (en) | 2019-09-09 | 2024-03-19 | Covidien Lp | Systems and methods for providing surgical guidance |
US11864935B2 (en) | 2019-09-09 | 2024-01-09 | Covidien Lp | Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures |
US11627924B2 (en) | 2019-09-24 | 2023-04-18 | Covidien Lp | Systems and methods for image-guided navigation of percutaneously-inserted devices |
US12102298B2 (en) | 2019-12-10 | 2024-10-01 | Covidien Lp | Lymphatic system tracking |
US11847730B2 (en) | 2020-01-24 | 2023-12-19 | Covidien Lp | Orientation detection in fluoroscopic images |
US11380060B2 (en) | 2020-01-24 | 2022-07-05 | Covidien Lp | System and method for linking a segmentation graph to volumetric data |
US11514624B2 (en) * | 2020-03-16 | 2022-11-29 | GE Precision Healthcare LLC | Methods and systems for biopsy needle reconstruction error assessment |
US12064191B2 (en) | 2020-06-03 | 2024-08-20 | Covidien Lp | Surgical tool navigation using sensor fusion |
US11950950B2 (en) | 2020-07-24 | 2024-04-09 | Covidien Lp | Zoom detection and fluoroscope movement detection for target overlay |
CN116669651A (zh) | 2020-11-30 | 2023-08-29 | 直观外科手术操作公司 | 用于缩回和调节细长柔性装置的系统和相关方法 |
CN113116475B (zh) * | 2020-12-31 | 2023-06-20 | 杭州堃博生物科技有限公司 | 经导管的导航处理方法、装置、介质、设备与导航系统 |
CN112862955B (zh) * | 2021-02-03 | 2024-06-28 | 北京百度网讯科技有限公司 | 建立三维模型的方法、装置、设备、存储介质和程序产品 |
CN114343899B (zh) * | 2021-12-03 | 2024-07-23 | 苏州微创畅行机器人有限公司 | 呼吸道流体吸取装置及使用方法及牙科机器人及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102640014A (zh) * | 2009-12-11 | 2012-08-15 | 佳能株式会社 | 图像生成装置、图像生成方法和程序 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4984575A (en) | 1987-04-16 | 1991-01-15 | Olympus Optical Co., Ltd. | Therapeutical apparatus of extracorporeal type |
US5792135A (en) | 1996-05-20 | 1998-08-11 | Intuitive Surgical, Inc. | Articulated surgical instrument for performing minimally invasive surgery with enhanced dexterity and sensitivity |
WO1998036236A1 (en) | 1997-02-13 | 1998-08-20 | Super Dimension Ltd. | Six-degree tracking system |
GB9713018D0 (en) | 1997-06-20 | 1997-08-27 | Secr Defence | Optical fibre bend sensor |
US6501981B1 (en) | 1999-03-16 | 2002-12-31 | Accuray, Inc. | Apparatus and method for compensating for respiratory and patient motions during treatment |
US20040152971A1 (en) * | 2003-02-03 | 2004-08-05 | Markus Kukuk | Optimal k-needle placement strategy considering an approximate initial needle position |
JP4323288B2 (ja) * | 2003-10-31 | 2009-09-02 | オリンパス株式会社 | 挿入支援システム |
US7772541B2 (en) | 2004-07-16 | 2010-08-10 | Luna Innnovations Incorporated | Fiber optic position and/or shape sensing based on rayleigh scatter |
US20060013523A1 (en) | 2004-07-16 | 2006-01-19 | Luna Innovations Incorporated | Fiber optic position and shape sensing device and method relating thereto |
US7930065B2 (en) | 2005-12-30 | 2011-04-19 | Intuitive Surgical Operations, Inc. | Robotic surgery system including position sensors using fiber bragg gratings |
JP4875416B2 (ja) * | 2006-06-27 | 2012-02-15 | オリンパスメディカルシステムズ株式会社 | 医用ガイドシステム |
US20080161687A1 (en) | 2006-12-29 | 2008-07-03 | Suri Jasjit S | Repeat biopsy system |
US20090156895A1 (en) | 2007-01-31 | 2009-06-18 | The Penn State Research Foundation | Precise endoscopic planning and visualization |
US7942829B2 (en) | 2007-11-06 | 2011-05-17 | Eigen, Inc. | Biopsy planning and display apparatus |
US9521961B2 (en) * | 2007-11-26 | 2016-12-20 | C. R. Bard, Inc. | Systems and methods for guiding a medical instrument |
US9259274B2 (en) | 2008-09-30 | 2016-02-16 | Intuitive Surgical Operations, Inc. | Passive preload and capstan drive for surgical instruments |
US9861271B2 (en) | 2010-02-18 | 2018-01-09 | Koninklijke Philips N.V. | System and method for tumor motion simulation and motion compensation using tracked bronchoscopy |
EP2912999B1 (en) * | 2010-05-28 | 2022-06-29 | C. R. Bard, Inc. | Apparatus for use with needle insertion guidance system |
US9392960B2 (en) | 2010-06-24 | 2016-07-19 | Uc-Care Ltd. | Focused prostate cancer treatment system and method |
US8900131B2 (en) | 2011-05-13 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery |
US9452276B2 (en) | 2011-10-14 | 2016-09-27 | Intuitive Surgical Operations, Inc. | Catheter with removable vision probe |
US9058647B2 (en) | 2012-01-16 | 2015-06-16 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
US10039473B2 (en) * | 2012-05-14 | 2018-08-07 | Intuitive Surgical Operations, Inc. | Systems and methods for navigation based on ordered sensor records |
TW201438660A (zh) * | 2012-12-20 | 2014-10-16 | Shlomo Ben-Haim | 多點治療探針及其使用方法 |
US10588597B2 (en) | 2012-12-31 | 2020-03-17 | Intuitive Surgical Operations, Inc. | Systems and methods for interventional procedure planning |
EP3174490B1 (en) * | 2014-07-28 | 2020-04-15 | Intuitive Surgical Operations, Inc. | Systems and methods for planning multiple interventional procedures |
-
2015
- 2015-07-17 EP EP15827886.1A patent/EP3174490B1/en active Active
- 2015-07-17 US US15/329,899 patent/US11351000B2/en active Active
- 2015-07-17 JP JP2017505232A patent/JP6716538B2/ja active Active
- 2015-07-17 WO PCT/US2015/040994 patent/WO2016018648A1/en active Application Filing
- 2015-07-17 CN CN201580052079.5A patent/CN106714724B/zh active Active
- 2015-07-17 KR KR1020177005569A patent/KR102419094B1/ko active IP Right Grant
-
2022
- 2022-04-13 US US17/720,151 patent/US11957424B2/en active Active
-
2024
- 2024-03-12 US US18/602,901 patent/US20240245476A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102640014A (zh) * | 2009-12-11 | 2012-08-15 | 佳能株式会社 | 图像生成装置、图像生成方法和程序 |
CN102640014B (zh) * | 2009-12-11 | 2014-07-02 | 佳能株式会社 | 图像生成装置和图像生成方法 |
Also Published As
Publication number | Publication date |
---|---|
US11957424B2 (en) | 2024-04-16 |
US20240245476A1 (en) | 2024-07-25 |
US20170265952A1 (en) | 2017-09-21 |
CN106714724A (zh) | 2017-05-24 |
KR102419094B1 (ko) | 2022-07-11 |
WO2016018648A1 (en) | 2016-02-04 |
EP3174490A1 (en) | 2017-06-07 |
EP3174490B1 (en) | 2020-04-15 |
US20220233265A1 (en) | 2022-07-28 |
JP6716538B2 (ja) | 2020-07-01 |
US11351000B2 (en) | 2022-06-07 |
KR20170039703A (ko) | 2017-04-11 |
JP2017522975A (ja) | 2017-08-17 |
EP3174490A4 (en) | 2018-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106714724B (zh) | 用于规划多个介入程序的系统和方法 | |
JP7072603B2 (ja) | 手術中のセグメンテーションについてのシステム及び方法 | |
US20240041531A1 (en) | Systems and methods for registering elongate devices to three-dimensional images in image-guided procedures | |
US20210073989A1 (en) | Systems and methods for using registered fluoroscopic images in image-guided surgery | |
US20200214664A1 (en) | Systems and methods for interventional procedure planning | |
CN108024693B (zh) | 在图像引导医疗程序中利用跟踪的系统和方法 | |
EP3033132B1 (en) | Graphical user interface for catheter positioning and insertion | |
US20210100627A1 (en) | Systems and methods related to elongate devices | |
US11514591B2 (en) | Systems and methods related to registration for image guided surgery | |
US20220392087A1 (en) | Systems and methods for registering an instrument to an image using point cloud data | |
US20220054202A1 (en) | Systems and methods for registration of patient anatomy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |