CN116421309A - 用于图像引导医疗程序中导航的系统和方法 - Google Patents

用于图像引导医疗程序中导航的系统和方法 Download PDF

Info

Publication number
CN116421309A
CN116421309A CN202310225582.2A CN202310225582A CN116421309A CN 116421309 A CN116421309 A CN 116421309A CN 202310225582 A CN202310225582 A CN 202310225582A CN 116421309 A CN116421309 A CN 116421309A
Authority
CN
China
Prior art keywords
image data
model
dimensional image
medical
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310225582.2A
Other languages
English (en)
Inventor
B·王
赵涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intuitive Surgical Operations Inc
Original Assignee
Intuitive Surgical Operations Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intuitive Surgical Operations Inc filed Critical Intuitive Surgical Operations Inc
Publication of CN116421309A publication Critical patent/CN116421309A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00292Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery mounted on or guided by flexible, e.g. catheter-like, means
    • A61B2017/00296Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery mounted on or guided by flexible, e.g. catheter-like, means mounted on an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Abstract

本文提供了医学成像系统和方法,其无需分割以提供导航和程序规划。一种方法包括由具有至少一个处理装置的医学成像系统接收患者解剖结构的三维图像数据。该方法还包括对三维数据进行滤波以显示与患者解剖结构相关联的三维图像数据的一部分,并且在处理装置处接收来自操作者输入装置的输入。输入包括在由三维图像数据限定的空间内进行虚拟移动的导航方向。该方法还包括跟踪虚拟移动,并且基于跟踪的虚拟移动生成患者解剖结构的第一模型。

Description

用于图像引导医疗程序中导航的系统和方法
本申请是于2017年12月07日提交的名称为“用于图像引导医疗程序中导航的系统和方法”的中国专利申请201780067272.5(PCT/US2017/065162)的分案申请。
相关申请
本专利申请要求于2016年12月8日提交的题为“Systems and Methods forNavigation in Image-Guided Medical Procedures(用于图像引导医疗程序中导航的系统和方法)”的美国临时专利申请US62/431,696的申请日的优先权和权益,该临时专利申请在此通过引用以其整体并入本文。
技术领域
本公开涉及用于控制可转向细长装置的系统和方法。
背景技术
微创医疗技术旨在减少在医疗程序期间受损的组织量,从而减少患者康复时间、不适和有害的副作用。这种微创技术可以通过患者解剖结构中的天然孔口或通过一个或多个外科手术切口来执行。通过这些天然孔口或切口,操作者可以插入微创医疗器械(包括外科手术、诊断、治疗或活组织检查器械)以到达目标组织位置。一种这样的微创技术是使用柔性和/或可转向/可操控(steerable)的细长装置,诸如柔性导管,该细长装置可以被插入解剖通道中并朝患者解剖结构内的感兴趣区域导航。由医务人员控制这种细长装置涉及几个自由度的管理,包括至少管理细长装置的插入和缩回以及装置的转向。此外,还可以支持不同的操作模式。
为了促进这种微创医学技术,成像配准技术可以被用于至少将术前或术中成像的模态与插入的微创医疗器械的方位和/或取向相关联,以相对于患者体内的目标组织位置对器械导航和定位。以这种方式,操作者或其他操作者能够更准确地指导和控制微创医疗器械的操作。
因此,在微创医疗技术期间提供对医学成像的使用的改进将是有利的。
发明内容
通过说明书随附的权利要求充分地总结了本发明的实施例。
与一些实施例一致,一种方法包括由具有至少一个处理装置的医学成像系统接收患者解剖结构的至少一部分的三维图像数据;由处理装置识别与患者解剖结构的该部分相关联的三维图像数据的一部分;在处理装置处接收来自操作者输入装置的输入,该输入包括在由三维图像数据限定的空间内进行虚拟移动的导航方向;跟踪虚拟移动;并且基于跟踪的虚拟移动生成患者解剖结构的该部分的模型。其他实施例包括相应的计算机系统、设备和记录在一个或多个计算机存储装置上的计算机程序,每个计算机程序被配置为执行方法的动作。
与其他实施例一致,提供了一种用于处理医疗图像的系统。该系统可以包括存储器,其存储患者解剖结构的至少一部分的一组三维图像数据;和与存储器通信的处理装置,该处理装置被配置为执行指令以执行操作。操作可以包括接收患者解剖结构的至少一部分的三维图像数据,识别三维图像数据的一部分,以及接收来自操作者输入装置的输入。输入可以限定由三维图像数据的一部分限定的图像空间内的路径。操作还可以包括基于由三维图像数据限定的图像空间内的路径生成患者解剖结构的该部分的模型。该方面的其他实施例包括相应的计算机系统、设备和记录在一个或多个计算机存储装置上的计算机程序,每个计算机程序被配置为执行方法的动作。
与其他实施例一致,提供了一种用于显示医学图像并与医学图像交互的系统。该系统可以包括存储器,其存储患者解剖结构的至少一部分的一组三维图像数据;和与该存储器通信的处理装置。处理装置被配置为执行存储在存储器中的指令以执行操作。操作可以包括在与处理装置通信的显示器中渲染图形用户界面,接收患者解剖结构的至少一部分的三维图像数据,以及识别与患者解剖结构的一部分相关联的三维图像数据的一部分。操作还可以包括接收来自操作者输入装置的输入,该输入限定由三维图像数据限定的图像空间内的路径。该系统还包括基于由三维图像数据限定的图像空间内的路径生成患者解剖结构的该部分的模型。该方面的其他实施例包括相应的计算机系统、设备和记录在一个或多个计算机存储装置上的计算机程序,每个计算机程序被配置为执行方法的动作。
应理解,前面的一般性描述和以下的详细描述实际上都是示例性和解释性的,并且旨在提供对本公开的理解而不限制本公开的范围。在这方面,从以下详细描述中,本公开的其他方面、特征和优点对于本领域技术人员而言将是显而易见的。
附图说明
图1是根据一些实施例的远程操作医疗系统的简化图。
图2A是根据一些实施例的医疗器械系统的简化图。
图2B是根据一些实施例的具有扩展医疗工具的医疗器械的简化图。
图3A和图3B是根据一些实施例的包括安装在插入组件上的医疗器械的患者坐标空间的侧视图的简化图。
图4是根据本公开的一些实施例的示出为图像引导的微创医疗程序提供基于图像的引导的一般方法的流程图。
图5A是根据本公开的一些实施例的用于从三维图像数据生成模型或模型的一部分而不执行分割过程的方法的流程图。
图5B是根据本公开的一些实施例的针对模型生成的一部分使用分割过程以从三维图像数据生成模型或模型的一部分的方法的流程图。
图6A、图6B和图6C是根据本公开的一些实施例的示例性医学图像数据的二维渲染。
图7A、图7B和图7C描绘了根据本公开的一些实施例通过对图6A-6C的图像数据分别进行滤波而获得的滤波图像数据的多个二维视图。
图7D、图7E和图7F是根据本公开的一些实施例的图7A-7C中所示的三维滤波图像数据的正视图。
图8A是根据本公开的一些实施例的示例性医学图像数据的三维渲染。
图8B是具有基于线的导航路径模型的图8A的示例性医学图像数据的三维渲染。
图9A、图9B、图9C和图9D示出了根据本公开的一些实施例的包括与医疗程序的目标对应的数据的示例性图像数据。
图10根据本公开的一些实施例示出了从三维图像数据内的透视图(perspectiveview)指向在图9A-9D中识别的目标的指示箭头。
图11A示出了根据本公开的一些实施例的通过分割图像数据而生成的表面模型的内部视图。
图11B示出了根据本公开的一些实施例的结合了图11A的表面模型与从中获得表面模型的滤波图像数据的视图的内部视图。
图12A、图12B、图12C和图12D示出了根据本公开的一些实施例的产生示例性患者解剖结构的模型的过程。
图13是根据本公开的一些实施例的示例性用户界面。
图14示出了根据本公开的一些实施例的用于在微创医疗程序期间提供基于图像的引导的方法1300的流程图。
通过参考下面的详细描述,可以最佳地理解本公开的实施例及其优点。应当理解,相同的附图标记用于标识在一个或多个附图中示出的相同元件,其中附图中所示的元件用于说明本公开的实施例的目的而不是为了限制本公开的实施例。
具体实施方式
在以下描述中,具体的细节被阐述以描述与本公开一致的一些实施例。阐述了许多具体细节以便提供对实施例的透彻理解。然而,对于本领域技术人员显而易见的是,可以在没有这些具体细节中的一些或全部的情况下实践一些实施例。本文公开的具体实施例是说明性的而非限制性的。本领域技术人员可以意识到,虽然本公开没有具体描述其他元件,但是这些元件也在本公开的范围和精神内。另外,为了避免不必要的重复,结合一个实施例示出和描述的一个或多个特征可以被合并到其他实施例中,除非另外特别描述或者如果一个或多个特征使得实施例不能工作。
在一些情况下,没有详细描述公知的方法、程序、部件和电路,以免不必要地模糊实施例的各方面。
本公开根据各种器械和器械的部分在三维空间中的状态对其进行描述。如本文所用,术语“方位(position)”是指物体或物体的一部分在三维空间中的位置(例如,沿笛卡尔x,y和z坐标的三个平移自由度)。如本文所用,术语“取向”是指物体或物体的一部分的旋转放置(三个旋转自由度——例如,滚转、俯仰和偏摆)。如本文所用,术语“姿势”是指物体或物体的一部分在至少一个平移自由度中的方位以及物体或物体的一部分在至少一个旋转自由度(多达六个总自由度)中的取向。如本文所用,术语“形状”是指沿物体测量的一组姿势、方位或取向。
图1是根据一些实施例的远程操作医疗系统100的简化图。在一些实施例中,远程操作医疗系统100可以适用于例如外科手术、诊断、治疗或活组织检查/活检程序。如图1所示,医疗系统100通常包括远程操作操纵器组件102,其用于操作医疗器械104以对患者P执行各种程序。远程操作操纵器组件102被安装到手术台T或其附近。主控组件106允许操作者O(例如,如图1所示的外科医生、临床医生或医师)观察介入部位并控制远程操作操纵器组件102。
主控组件106可以位于操作者的控制台处,该控制台通常位于与手术台T相同的房间中,诸如在外科手术台的患者P所在一侧。然而,应该理解,操作者O可以位于与患者P不同的房间内或在与患者P完全不同的建筑物中。主控组件106通常包括用于控制远程操作操纵器组件102的一个或多个控制装置。控制装置可以包括任何数量的各种输入装置,诸如操纵杆、轨迹球、数据手套、触发枪、手动控制器、语音识别装置、身体运动或存在传感器和/或类似装置。为了向操作者O提供直接控制器械104的强烈感觉,控制装置可以被提供有与相关联的医疗器械104相同的自由度。以这种方式,控制装置为操作者O提供控制装置与医疗器械104是一体的远程呈现/临场感或感知。
在一些实施例中,控制装置可以具有比相关联的医疗器械104更多或更少的自由度,并且仍然向操作者O提供远程呈现。在一些实施例中,控制装置可以可选地是手动输入装置,其以六个自由度移动并且还可以包括用于致动器械(例如,用于闭合抓握钳口、向电极施加电势、输送药物治疗,和/或类似操作)的可致动手柄。
远程操作操纵器组件102支撑医疗器械104并且可以包括一个或多个非伺服控制连杆的运动学结构(例如,可以被手动定位并锁定在适当位置的一个或多个连杆,通常称为装配结构)和远程操作操纵器。远程操作操纵器组件102可以可选地包括多个致动器或马达,其响应于来自控制系统(例如,控制系统112)的命令而驱动医疗器械104上的输入。致动器可以可选地包括驱动系统,当驱动系统耦连到医疗器械104时,驱动系统可以将医疗器械104推进到自然或外科手术创建的解剖孔口中。其他驱动系统可以以多个自由度移动医疗器械104的远端,所述多个自由度可以包括三个线性运动自由度(例如,沿X,Y,Z笛卡尔轴线的线性运动)和三个旋转运动自由度(例如,围绕X,Y,Z笛卡尔坐标轴的旋转)。另外,致动器可以用于致动医疗器械104的可铰接的末端执行器,用于在活检装置和/或类似物的钳口中抓住组织。诸如解码器、编码器、电位计和其他机构的致动器方位传感器可以向医疗系统100提供描述马达轴的旋转和取向的传感器数据。该方位传感器数据可以用于确定由致动器操纵的物体的运动。
远程操作医疗系统100可以包括具有一个或多个子系统的传感器系统108,所述子系统用于接收关于远程操作操纵器组件102的器械的信息。这种子系统可以包括:方位/位置传感器系统(例如,电磁(EM)传感器系统);形状传感器系统,用于确定沿着可以构成医疗器械104的柔性主体的远端和/或一个或多个区段的方位、取向、速率、速度、姿势和/或形状;和/或用于从医疗器械104的远端捕获图像的可视化系统。
远程操作医疗系统100还包括显示系统110,用于显示由传感器系统108的子系统生成的手术部位和医疗器械104的图像或表示。显示系统110还可以在规划和导航操作期间替换图像数据。显示系统110和主控组件106可以被取向以使得操作者O可以利用远程呈现/远程临场的感知来控制医疗器械104和主控组件106。
在一些实施例中,医疗器械104可以具有可视化系统(下面更详细地讨论),其可以包括观察范围组件,观察范围组件记录手术部位的即时或实时图像并通过医疗系统100的一个或多个显示器(诸如显示系统110的一个或多个显示器)将图像提供给操作者或者操作者O。即时图像(concurrent image)可以是例如由位于手术部位内的内窥镜捕获的二维或三维图像。在一些实施例中,可视化系统包括内窥镜部件,其可以整体地或可拆卸地耦连到医疗器械104。然而,在一些实施例中,附接到单独的操纵器组件的单独的内窥镜可以与医疗器械104一起使用以对手术部位成像。可视化系统可以实现为硬件、固件、软件或其组合,其与一个或多个计算机处理器交互或以其他方式由一个或多个计算机处理器执行,计算机处理器可以包括控制系统112的处理装置114,其可以包括中央处理单元(CPU)和图形处理单元(GPU)。
显示系统110还可以显示由可视化系统捕获的手术部位和医疗器械的图像。在一些示例中,远程操作医疗系统100可以配置医疗器械104和主控组件106的控件,使得医疗器械的相对方位类似于操作者O的眼睛和手的相对方位。以这种方式,操作者O可以操纵医疗器械104和手控件好像在基本上真实临场的情况下观察工作空间。就真实临场而言,它意味着图像的呈现是模拟正在物理操纵医疗器械104的操作者的视点的真实透视图像。
在一些示例中,显示系统110可以使用来自成像技术(诸如,计算机断层摄影术(CT)、磁共振成像(MRI)、荧光检查、温度记录法、超声、光学相干断层摄影术(OCT)、热成像、阻抗成像、激光成像、纳米管X射线成像和/或类似技术)的图像数据来呈现术前或术中记录的手术部位的图像。术前或术中图像数据可以呈现为二维、三维或四维(包括例如基于时间或基于速度的信息)图像和/或作为来自由术前或术中图像数据集创建的模型的图像。
在一些实施例中,通常出于对成像引导外科手术程序的目的,显示系统110可以显示虚拟导航图像,其中医疗器械104的实际位置与术前或即时图像/模型配准(即,动态地参考)。这样做可以从医疗器械104的视点向操作者O呈现内部手术部位的虚拟图像。在一些示例中,视点可以来自医疗器械104的尖端。医疗器械104的尖端的图像和/或其他图形或字母数字指示符可以被叠加在虚拟图像上以帮助操作者O控制医疗器械104。在一些示例中,医疗器械104可以在虚拟图像中不可见。
在一些实施例中,显示系统110可以显示虚拟导航图像,其中医疗器械104的实际位置与术前或即时图像配准,以从外部视点向操作者O呈现医疗器械104在手术部位内的虚拟图像。医疗器械104的一部分的图像或其他图形或字母数字指示符可以被叠加在虚拟图像上,以帮助操作者O控制医疗器械104。如本文所述,可以将数据点的视觉表示呈现给显示系统110。例如,本公开描述的测量数据点、移动数据点、配准数据点和其他数据点可以以视觉表示显示在显示系统110上。数据点可以通过显示系统110上的多个点(point)或圆点(dot)在用户界面中被可视地表示,或者被可视地表示为渲染模型,诸如基于数据点集创建的网格或线模型。在一些示例中,数据点可以根据它们表示的数据进行颜色编码。在一些实施例中,在已经实现每个处理操作以改变数据点之后,可以在显示系统110中刷新视觉表示。
远程操作医疗系统100还可以包括控制系统112。控制系统112包括至少一个存储器116和至少一个处理装置114,用于实现医疗器械104、主控组件106、传感器系统108和显示系统110之间的控制。控制系统112还包括编程指令120(例如,存储指令的非暂时性机器可读介质)以实现根据本文公开的各方面描述的一些或所有方法,包括用于向显示系统110提供信息的指令。虽然控制系统112在图1的简化示意图中示为单个块,但该系统可以包括两个或更多个数据处理电路,其中处理的一部分可选地在远程操作操纵器组件102上或附近被执行,处理的另一部分在主控组件106处被执行,和/或诸如此类。控制系统112的处理装置114可以执行指令120,指令120包括与本文公开的并且在下面更详细地描述的过程对应的指令。可以采用各种集中式或分布式数据处理架构中的任何一种。类似地,编程指令120可以被实现为多个单独的程序或子例程,或者它们可以被集成到本文描述的远程操作系统的许多其他方面中。在一个实施例中,控制系统112支持无线通信协议,诸如蓝牙、IrDA(红外数据通信)、HomeRF(家用射频)、IEEE 802.11、DECT(数位加强式无线通信)和无线遥测。
如本文将更详细地描述的,存储器116可以存储医学图像数据122,其包括从各种医学成像模态获得的数据,包括高分辨率和低分辨率CT成像系统。另外,如本文将更详细描述的,控制系统112的存储器116可以包括一个或多个模型124。这些模型124可以来自图像数据122和/或来自经由主控组件106或者其他输入机构(诸如输入装置130,其可以包括键盘、鼠标、绘图板等)接收的用户输入,由此操作者O可以在图像数据内虚拟地导航和/或在图像数据上绘制,如将如下描述更多细节。例如,在一些实施例中,控制系统112可以是提供界面的医疗工作站,操作者O可以通过该界面规划医疗程序。在一些另外或替代实施例中,控制系统112可以是用于执行医疗程序的微创手术系统的一部分。
在一些实施例中,控制系统112可以从医疗器械104接收力和/或扭矩反馈。响应于反馈,控制系统112可以向主控组件106发送信号。在一些示例中,控制系统112可以发送指示远程操作操纵器组件102的一个或多个致动器移动医疗器械104的信号。医疗器械104可以经由患者P身体中的开口延伸到患者P身体内的内部手术部位。可以使用任何合适的传统和/或专用致动器。在一些示例中,一个或多个致动器可以与远程操作操纵器组件102分离或集成。在一些实施例中,一个或多个致动器和远程操作操纵器组件102被提供作为邻近患者P和手术台T定位的远程操作推车的一部分。
控制系统112可以可选地进一步包括虚拟可视化系统,以在图像引导的外科手术程序期间控制医疗器械104时向操作者O提供导航辅助。使用虚拟可视化系统的虚拟导航可以基于对获取的解剖通道的术前或术中数据集的参考。虚拟可视化系统处理使用成像技术成像的手术部位的图像,所述成像技术诸如计算机断层摄影术(CT)、磁共振成像(MRI)、荧光检查、温度记录法、超声、光学相干断层摄影术(OCT)、热成像、阻抗成像、激光成像、纳米管X射线成像和/或类似技术。与手动输入结合使用的软件被用于将记录的图像转换成部分或整个解剖器官或解剖区域的分割二维或三维复合表示。图像数据集与复合表示相关联。复合表示和图像数据集描述了通道的各种位置和形状及其连接性。用于产生复合表示的图像可以在临床程序期间被术前或术中记录。在一些实施例中,虚拟可视化系统可以使用标准表示(即,不是患者特定的)或标准表示和患者特定数据的混合。复合表示和由复合表示生成的任何虚拟图像可以表示在一个或多个运动阶段期间(例如,在肺的吸气/呼气循环期间)可变形解剖区域的静态姿势。
在虚拟导航程序期间,传感器系统108可以用于计算医疗器械104相对于患者P的解剖结构的近似位置。该位置可以用于产生患者P的解剖结构的宏观层面(外部)跟踪图像和患者P的解剖结构的虚拟内部图像两者。该系统可以实施一个或多个电磁(EM)传感器、光纤传感器和/或其他传感器以配准医疗器械与术前记录的外科手术图像并且将一起显示医疗器械与术前记录的外科手术图像。诸如来自虚拟可视化系统的那些,是已知的。例如,美国专利申请US13/107,562(2011年5月13日提交)(公开了“Medical System ProvidingDynamic Registration of a Model of an Anatomic Structure for Image-GuidedSurgery”)公开了一个这样的系统,该专利申请通过引用以其整体并入本文。远程操作医疗系统100还可以包括可选的操作和支持系统(未示出),诸如照明系统、转向控制系统、冲洗系统和/或抽吸系统。在一些实施例中,远程操作医疗系统100可以包括一个以上的远程操作操纵器组件和/或一个以上的主控组件。远程操作操纵器组件的确切数量将取决于外科手术程序和手术室内的空间限制以及其他因素。主控组件106可以被并置或者它们可以位于不同的位置。多个主控组件允许一个以上操作者以各种组合控制一个或多个远程操作操纵器组件。
图2A是根据一些实施例的医疗器械系统200的简化图。在一些实施例中,医疗器械系统200可以用作利用远程操作医疗系统100执行的图像引导的医疗程序中的医疗器械104。在一些示例中,医疗器械系统200可以用于非远程操作的探索程序或涉及传统的手动医疗器械(诸如内窥镜检查)的程序。可选地,医疗器械系统200可以用于收集(即,测量)对应于患者(诸如患者P)的解剖通道内的位置的数据点集。
医疗器械系统200包括耦连到驱动单元204的细长装置202,诸如柔性导管。细长装置202包括具有近端217和尖端部分或远端的柔性主体216。在一些实施例中,柔性主体216具有大约3mm的外直径。其他柔性主体外直径可以更大或更小。
医疗器械系统200还包括跟踪系统230,其使用一个或多个传感器和/或成像装置来确定沿着柔性主体216的远端218和/或一个或多个区段224的方位、取向、速率、速度、姿势和/或形状,如下面进一步详细描述的。在远端218和近端217之间的柔性主体216的整个长度可以有效地分成段224。如果医疗器械系统200与远程操作医疗系统100的医疗器械104一致,则跟踪系统230。跟踪系统230可任选地实施为硬件、固件、软件或其组合,其与一个或多个计算机处理器交互或另外地通过一个或多个计算机处理器执行,所述计算机处理器可以包括图1中的控制系统112的处理器。
跟踪系统230可以可选地使用形状传感器222来跟踪远端218和/或一个或多个区段224。形状传感器222可以可选地包括与柔性主体216对准的光纤(例如,在内部通道(未示出)内提供)或外部安装)。在一个实施例中,光纤的直径约为200μm。在其他实施例中,尺寸可以更大或更小。形状传感器222的光纤形成用于确定柔性主体216的形状的光纤弯曲传感器。在一个替代方案中,包括光纤布拉格光栅(FBG)的光纤被用于在一个或多个维度中提供结构的应变测量。用于监测光纤在三维中的形状和相对方位的各种系统和方法被描述在以下文献中:美国专利申请US11/180,389(2005年7月13日提交)(公开了“Fiber opticposition and shape sensing device and method relating thereto”);美国专利申请US 12/047,056(2004年7月16日提交)(公开了“Fiber-optic shape and relativeposition sensing”);美国专利US6,389,187(1998年6月17日提交)(公开了“OpticalFiber Bend Sensor”),它们通过引用以其整体并入本文。在一些实施例中,传感器可以采用其他合适的应变传感技术,诸如瑞利散射、拉曼散射、布里渊散射和荧光散射。在一些实施例中,细长装置的形状可以使用其他技术来确定。例如,柔性主体216的远端姿势的历史可以被用于在时间间隔内重建柔性主体216的形状。在一些实施例中,跟踪系统230可以可选地和/或另外地使用方位传感器系统220来跟踪远端218。方位传感器系统220可以是EM传感器系统的部件,其中方位传感器系统220包括可以经受外部产生的电磁场的一个或多个导电线圈。然后,EM传感器系统220的每个线圈产生感应电信号,该感应电信号具有取决于线圈相对于外部产生的电磁场的方位和取向的特性。在一些实施例中,方位传感器系统220可以被配置和定位成测量六个自由度(例如,三个方位坐标X,Y,Z和指示基点的俯仰、偏摆和滚转的三个取向角度)或五个自由度(例如,三个方位坐标X,Y,Z和指示基点的俯仰和偏摆的两个取向角度)。在美国专利US6,380,732(1999年8月11日提交)中提供了方位传感器系统的进一步描述(公开了“Six-Degree of Freedom Tracking System Having aPassive Transponder on the Object Being Tracked”),在此通过引用以其整体并入本公开。
在一些实施例中,跟踪系统230可以替换地和/或另外地依赖于沿着交替运动的循环(诸如呼吸)为器械系统的已知点存储的历史姿势、方位或取向数据。该存储的数据可以用于开发关于柔性主体216的形状信息。在一些示例中,一系列方位传感器(未示出)(诸如类似于方位传感器220中的传感器的电磁(EM)传感器)可以沿着柔性主体216定位,然后被用于形状感测。在一些示例中,在程序期间从这些传感器中的一个或多个获取的数据的历史可以被用于表示细长装置202的形状,特别是在解剖通道通常是静态的情况下。
柔性主体216包括通路221,通路221的尺寸和形状被设计成接收医疗器械226。图2B是根据一些实施例的具有延伸的医疗器械226的柔性主体216的简化图。在一些实施例中,医疗器械226可以用于诸如外科手术、活组织检查、消融、照明、冲洗或抽吸的程序。医疗器械226可以通过柔性主体216的通路221展开并且在解剖结构内的目标位置处使用。医疗器械226可以包括例如图像捕获探针、活组织检查器械、激光消融纤维和/或其他外科手术、诊断或治疗工具。医疗工具可以包括末端执行器,其具有单个工作构件,诸如手术刀、钝刀片、光纤、电极和/或类似物。其他末端执行器可以包括例如镊子、抓紧器、剪刀、施夹器和/或类似物。其他末端执行器还可以包括电激活的末端执行器,诸如电外科电极、换能器、传感器和/或类似物。在各种实施例中,医疗器械226是活检器械,其可以用于从目标解剖位置移除样品组织或细胞取样。医疗器械226也可以与柔性主体216内的图像捕获探针一起使用。
在各种实施例中,医疗器械226可以是图像捕获探针,其包括远端部分,该远端部分在柔性主体216的远端218处或附近具有立体或单视场摄像机,用于捕获由可视化系统231处理的图像(包括视频图像)以显示和/或提供给跟踪系统230以支持跟踪远端218和/或一个或多个区段224。图像捕获探针可以包括耦连到摄像机的用于发送捕获的图像数据的电缆。在一些示例中,图像捕获器械可以是耦连到可视化系统231的光纤束,诸如纤维镜。图像捕获器械可以是单光谱或多光谱的,例如在可见光、红外光谱和/或紫外光谱中捕获一个或多个的图像数据。可替代地,医疗器械226本身可以是图像捕获探针。医疗器械226可以从通路221的开口被推进以执行该程序,然后当程序完成时被缩回到通路中。医疗器械226可以从柔性主体216的近端217移除或者沿着柔性主体216从另一个可选的器械端口(未示出)移除。
医疗器械226可以另外容纳在其近端和远端之间延伸以可控制地弯曲医疗器械226的远端的缆线、联动装置或其他致动控件(未示出)。可转向的器械被描述在美国专利US7,316,681(2005年10月4日提交)(公开了“Articulated Surgical Instrument forPerforming Minimally Invasive Surgery with Enhanced Dexterity andSensitivity”)和美国专利申请US12/286,644(2008年9月30日提交)(公开了“PassivePreload and Capstan Drive for Surgical Instruments”)中,这些文献通过引用以其整体并入本文。
柔性主体216还可以容纳在驱动单元204和远端218之间延伸以可控地弯曲远端218的缆线、联动装置或其他转向控件(未示出),如图所示,例如,通过远端218的虚线描绘部分219。在一些示例中,至少四根缆线被用于提供控制远端218的俯仰的独立的“上下”转向和控制远端281的偏摆的“左右”转向。可转向的细长装置被详细描述在美国专利申请US13/274,208(2011年10月14日提交)(公开“Catheter with Removable Vision Probe”),该专利申请通过引用整体并入本文。在医疗器械系统200由远程操作组件致动的实施例中,驱动单元204可以包括驱动输入,其可拆卸地耦连到远程操作组件的驱动元件(诸如致动器)并从其接收电力。在一些实施例中,医疗器械系统200可以包括夹持特征、手动致动器或用于手动控制医疗器械系统200的运动的其他部件。细长装置202可以是可转向的,或者可替代地,系统可以是不可转向的,其没有集成机构用于使操作者控制远端218的弯曲。在一些示例中,在柔性主体216的壁中限定一个或多个管腔,医疗器械可以通过所述管腔部署并在目标外科手术位置处使用。
在一些实施例中,医疗器械系统200可以包括柔性支气管器械,诸如,用于肺的检查、诊断、活组织检查或治疗的支气管镜或支气管导管。医疗器械系统200还适用于经由各种解剖系统的任一系统中自然或外科手术创建的连接通道对其他组织进行导航和治疗,所述解剖系统包括结肠、肠、肾和肾小管、大脑、心脏、包括脉管系统的循环系统和/或类似物。
来自跟踪系统230的信息可以被发送到导航系统232,在那里它与来自可视化系统231和/或术前获得的模型的信息组合,以向操作者提供实时方位信息。在一些示例中,实时方位信息可以显示在图1的显示系统110上以控制医疗器械系统200。在一些示例中,图1的控制系统112可以将方位信息作为定位医疗器械系统200的反馈。在2011年5月13日提交的美国专利申请US13/107,562中提供了使用光纤传感器来配准和显示外科手术器械与外科手术图像的各种系统,其公开了“Medical System Providing Dynamic Registration ofa Model of an Anatomic Structure for Image-Guided Surgery”,其通过引用整体并入本文。
在一些示例中,医疗器械系统200可以在图1的医疗系统100中远程操作。在一些实施例中,图1的远程操作操纵器组件102可以由直接操作者控件代替。在一些示例中,直接操作者控件可以包括用于器械的手持操作的各种手柄和操作者界面。
图3A和图3B是根据一些实施例的包括安装在插入组件上的医疗器械的患者坐标空间的侧视图的简化图。如图3A和3B所示,外科手术环境300包括定位在平台302上的患者P。患者的总体运动受到镇静,束缚和/或其他手段的限制,从这个意义上说,患者P可以在外科手术环境中静止。包括患者P的呼吸和心脏运动的循环解剖学运动可以继续,除非要求患者屏住他或她的呼吸以暂时中止呼吸运动。因此,在一些实施例中,可以在呼吸的特定阶段收集数据,并用该阶段标记和识别数据。在一些实施例中,可以从患者P采集的生理信息推断采集数据的阶段。在外科手术环境300内,医疗器械304被耦连到器械托架306。在一些实施例中,医疗器械304可以使用EM传感器、形状传感器和/或采集表征医疗器械304的方位、取向和/或形状信息的其他传感器模态。器械托架306被安装到固定在手术环境300内的插入台308上。可替代地,插入台308可以是可移动的但在手术环境300内(例如,经由跟踪传感器或其他跟踪设备)具有已知位置。器械托架306可以是远程操作操纵器组件(例如,远程操作操纵器组件102)的部件,远程操作操纵器组件耦连到医疗器械304以控制细长装置310的远端318的插入运动(即,沿A轴线的运动),并且可选地控制细长装置310的远端318在包括偏摆、俯仰和滚转的多个方向上的运动。器械托架306或插入台308可以包括致动器,诸如伺服马达(未示出),其控制器械托架306沿插入台308的运动。
细长装置310被耦连到器械主体312。器械主体312被耦连到器械托架306并相对于器械托架306固定。在一些实施例中,光纤形状传感器314被固定在器械主体312上的近侧点316处。在一些实施例中,光纤形状传感器314的近侧点316可以沿着器械主体312移动,但是近侧点316的位置可以是已知的(例如,经由跟踪传感器或其他跟踪装置)。形状传感器314测量从近侧点316到另一点(诸如细长装置310的远端318)的形状。医疗器械304可以基本上类似于医疗器械系统200。
当方位测量装置320沿插入轴线A在插入台308上移动时,方位测量装置320提供关于器械主体312的方位的信息。方位测量装置320可以包括解码器、编码器、电位计和/或确定控制器械托架306的运动并因此控制器械主体312的运动的致动器的旋转和/或取向的其他传感器。在一些实施例中,插入台308是线性的。在一些实施例中,插入台308可以是弯曲的或具有弯曲和线性部分的组合。
图3A示出了器械主体312和器械托架306沿着插入台308处于缩回方位。在该缩回方位,近侧点316位于轴线A上的方位L0。在沿着插入台308的该方位,近侧点316的位置的分量A可以被设置为零和/或其他参考值,以提供基准参考来描述器械托架306在插入台308上的方位,并因此描述近侧点316在插入台308上的方位。在器械主体312和器械托架306的这种缩回方位下,细长装置310的远端318可以恰好位于患者P的进入孔口内。同样在该方位,方位测量装置320可以被设置为零和/或其他参考值(例如,I=0)。在图3B中,器械主体312和器械托架306沿着插入台308的线性轨道被推进,并且细长装置310的远端318已被推进到患者P中。
图4是示出用于启用图像引导的微创医疗程序的一般方法400的流程图。方法400可以提供医学图像和器械(如图2的细长装置202和/或图3A和图3B的医疗器械304)之间的配准。方法400被示为一系列步骤或操作。方法400的实施例可以包括在枚举的操作之前、之后、之间或作为枚举的操作的一部分的附加或替代操作。在本公开的一些实施例中,一组指令可以被存储在计算机可读介质上,在处理器执行该指令时将使得具有处理器的机器执行方法400的实施例。
因此,方法400可以在操作402处开始,其中术前或术中图像数据从成像系统获得,所述成像系统使用计算机断层摄影术(CT)、磁共振成像(MRI)、荧光检查、温度记录法、超声、光学相干断层摄影术(OCT)、热成像、阻抗成像、激光成像、纳米管X射线成像或其他合适的成像模态以提供图像数据。在一些实施例中,图像数据是通过从存储器检索而获得的存储图像数据。在各种实施例中,术前或术中图像数据可以对应于二维、三维或四维(包括例如基于时间或基于速度的信息)图像。例如,图像数据可以是表示患者P的一部分的低分辨率或低剂量的三维CT数据。图像数据可以表示患者P的上部或下部躯干并且包括表示患者P的心脏、肺部、胃、肝、肠、肋骨、肌肉等的数据。其他实施例可以包括来自患者P的任何其他区域的图像数据。图像数据可以是存储在图1的存储器116中的图像数据122。
在操作404处,单独的计算机软件或与手动输入组合的计算机软件用于将记录的图像转换成部分或整个解剖器官或解剖区域的二维或三维复合表示或模型。用于从图像数据生成模型的一些方法可以包括分割过程(segmentation process),其识别模型的某些特征(诸如肺中支气管通道的曲率)、提取曲率、并使用曲率来生成表示支气管通道的中心线模型。该分割依赖于人工智能来生成模型,诸如中心线模型。但是,当图像质量不足或出于其他原因时,分割可能会失败。因为图像质量对于分割是至关重要的,所以可能使用和/或需要更高剂量的成像剂和/或辐射来提供足够质量的图像数据用于自动分割。因此,如本文所述,成像数据到模型的转换可以在不分割图像数据的情况下完成,而不应用分割过程,在操作404处,来自操作者O的输入可以被接收并且被用于生成模型。例如,输入可以包括由从一个或多个输入装置130接收的图像数据所限定的空间内的虚拟移动的导航方向。导航方向可以用于代替中心线模型或作为中心线模型,类似于可以从分割过程中获得的中心线模型。
在操作406处,当患者P在手术台T上时,从操作者输入获得的模型可以用于将图像数据配准到患者P,如图1和图3A-图3B所示。通过将获得的模型和相关联的图像数据配准到患者P,图像数据可以用于在患者P内对微创器械导航和定位以执行图像引导的程序。通常,配准涉及通过使用刚性和/或非刚性变换将测量点匹配到从模型获得的点。可以通过将微创器械驱动到解剖结构中的界标,并且在程序期间使用电磁线圈扫描和跟踪或使用形状传感器系统来跟踪器械的方位,而生成测量点。测量点可以被生成以在迭代最近点(ICP)中使用,或者另外的点集配准方法也可以用于本公开范围内的配准过程。点云配准技术的一些适当示例可以在2015年8月14日提交的题为“SYSTEMS AND METHODS OF REGISTRATION FORIMAGE-GUIDED SURGERY”的美国临时专利申请US62/205440和在2016年8月11日提交的名称为“SYSTEMS AND METHODS OF REGISTRATION FOR IMAGE-GUIDED SURGERY”的PCT/US16/046633中找到,上述文献的公开内容通过引用整体并入本文。在其他实施例中可以使用其他配准技术。
图5A是在不执行分割过程的情况下从三维图像数据生成模型或模型的一部分的方法500的流程图。方法500的一些实施例可以被理解为图4的操作404的实施例。方法500被描绘为一系列枚举的操作。方法500的实施例可以包括在如图5A所示的方法500之前、之后、之间或作为其一部分的附加或替代操作。方法500的一些实施例可以省略一个或多个枚举的操作。另外,方法500的一些实施例包括存储在计算机可读介质上的一组指令,类似于存储在图1的存储器116中的指令120。处理装置可以执行该组指令以使得医疗系统(如图1的系统100)或其组件执行方法500的操作。
如图所示,方法500可以在操作502处开始,其中具有至少一个处理装置的医疗系统接收患者解剖结构的至少一部分的三维图像数据。例如,控制系统112的处理装置114可以接收图像数据。三维图像数据可以是CT数据,包括低剂量CT数据,或者从不同成像模态获得的其他图像数据。图像数据可以将成像的组织和解剖结构表示为位于三维图像空间或图像参考系内的一组体素。每个体素可以包括密度值(诸如辐射密度值)或可以用于区分图像空间内的不同类型的组织、流体、结构等的其他值。例如,当图像数据是CT图像数据时,以Hounsfield(亨斯菲尔德)单位/亨氏单位测量的Hounsfield值可以与每个体素相关联。在其他实施例中可以使用其他辐射密度值。图6A-图6C示出了可以在操作502处使用的示例性医学图像数据。
在操作504处,处理装置可以识别与患者解剖结构的成像部分中的一个或多个解剖通道相关联的三维图像数据的一部分。图7A-图7F示出了通过对图像数据进行滤波而获得的滤波图像数据的二维和三维视图。作为识别一部分三维图像数据的部分,处理装置可以根据每个体素的Hounsfield值对图像数据进行滤波。例如,处理装置可以使用较低的Hounsfield值阈值和/或较高的Hounsfield值阈值来对图像数据滤波,以识别图像空间内的特定特征。在一些示例中,解剖结构或组织的密度可以根据结构或组织类型而不同,与高或低Hounsfield值互相关。例如,因为肺的解剖通道内的空气密度很低,所以可以将相应低的Hounsfield值滤波器应用于图像数据,以有效地隔离肺的解剖通道中的空气。以这种方式,处理装置可以在图像数据内识别肺内的解剖通道的边界。
另外,一个或多个阈值可以被自适应地应用,使得不同区域的三维图像数据经历不同的阈值。例如,为了识别图像数据内的结构,可以应用识别图像数据内的主要气道的第一阈值。可以在数据的第一次通过(pass)期间应用该第一阈值。此后,可以应用数据滤波器的第二次通过。第二次通过可以包括第二阈值,其更好地识别在三维图像数据中包括的气道中的较小分支。以这种方式和其他方式,自适应气道阈值可以被用来识别图像数据中的解剖通道。在一些实施例中,第二阈值可以基于在第一次通过中识别的终端体素而被应用。在其他实施例中,包括三维图像数据的复制数据集可以经历不同的阈值,然后被组合在一起。这样的过程可以解决图像数据中出现的一定量的噪声。
在其他实施例中,处理装置可以对图像数据滤波以识别形成肺的支气管通道的实际壁的组织或恰好位于肺的支气管壁外部的血管。在一些实施例中,用户输入可以在显示特定类型的组织的请求中被接收,或者作为使Hounsfield值滤波器适应特定设置或特定调整的请求而被接收。可以识别和选择性显示的一些其他类型的组织或材料包括:骨骼、肌肉、血管、支气管壁、胸膜、肿瘤、病变和诸如血液的流体。如本文所述,可以使用本文所述的特征和处理来分析除肺之外的器官,使得其他组织和材料可以被显示。经滤波的图像数据可以在显示器(诸如显示系统110)中呈现给操作者O,并且操作者O可以与控制系统112交互以调整应用于数据的一个或多个滤波器。
在操作506处,在显示器中显示经滤波的图像数据之后,处理装置可以从操作者输入装置(诸如图1的输入装置130之一)接收输入。输入可以限定经滤波的图像数据的图像空间内的虚拟移动的导航方向。图8A示出了在导航并向操作者输入装置提供输入时操作者可以查看的经滤波的图像数据的图像空间。在该示例中,操作者O可以操纵经滤波的图像数据,使得图像数据的透视图/视角(perspective)集中在气管的上部开口上,操作者O可以在图像数据中可视地识别该开口。一旦设置了视角(perspective),操作者O就可以使用输入装置130在经滤波的图像数据内移动,同时更新显示器以在接收到每个输入之后显示经滤波的图像数据的新视角。例如,操作者O可以使用具有箭头键的键盘、鼠标、滚轮、追踪球、三维输入装置和/或任何其他合适的输入装置来在经滤波的图像数据内进行导航。
可选地,在操作507处,处理装置可以从操作者输入装置接收指定图像数据的一部分作为目标(例如,图9B-图9D中的目标800)的输入。
在操作508处,处理装置可以将输入作为图像空间内的虚拟移动进行跟踪。例如,处理装置可以生成相对于图像空间的接收命令的列表或历史,使得由从一个或多个输入装置130接收的输入所限定的路径可以由处理装置114生成。当操作者O在图像空间内移动并且处理装置跟踪虚拟移动时,虚拟移动可以提供关于虚拟导航的解剖通道的模型的信息。在操作510处,跟踪路径可以用于生成患者解剖结构的导航部分的模型。例如,跟踪路径可以形成在三维空间中具有一条或多条线的线性模型。通过在虚拟导航通过所显示的解剖通道的同时保持解剖通道内的透视图/视角(perspective),操作者O可以在三维图像空间内生成这些线。然后,线或路径可以限定类似于中心线模型的模型,其中该中心线模型将由分割过程产生。然而,导航路径在不使用图像数据的分割的情况下获得。操作者O可以与输入装置130相互作用以指示导航路径是否在解剖通道内大致居中或者是否靠近解剖通道的底部或顶部边缘设置。图8B示出了基于线的导航路径模型604。一个或多个模型可以使用与导航通道相关联的直径从导航路径产生。
可选地,在操作511,处理装置可以提供引导信息以帮助引导操作者到指定目标(例如,图9B-图9D中的目标800)。
在一些实施例中,由操作者O提供的输入可以生成整个模型,其可以随后在配准过程中使用。在另一个实施例中,如图5B所描述的,混合技术使用可用的分割信息来补充方法500。图5B是用于从三维图像数据生成混合模型或模型的一部分的方法520的流程图,其中模型的一些部分利用分割过程生成,并且模型的一些部分在不执行分割过程的情况下生成。方法520的一些实施例可以被理解为图4的操作404的实施例。方法520被描绘为一系枚举的操作。方法520的实施例可以包括在如图5B所示的方法520之前、之后、之间或作为其一部分的附加或替代操作。方法520的一些实施例可以省略一个或多个枚举的操作。另外,方法520的一些实施例包括存储在计算机可读介质上的一组指令,类似于存储在图1的存储器116中的指令120。处理装置可以执行该组指令以使得医疗系统(如图1的系统100)或其部件执行方法500的操作。
如图所示,方法520可以在操作502处开始,如先前针对方法500所描述的。在操作522处,分割算法可以被用来分割三维图像数据。分割识别模型的某些特征,诸如肺中支气管通道的曲率,以提取曲率。在操作524处,从分割过程提取的特征用于生成表示支气管通道的中心线模型和/或表面模型(例如,网格模型)。例如,分割算法可以用于生成限定肺的气管和主支气管的中心线模型。中心线模型可以与CT图像数据一起显示在显示系统110中。在操作526处,可选地,处理装置可以接收来自操作者输入装置的输入,以通过或沿着由分割生成的模型导航。例如,操作者O可以沿着中心线模型导航,直到到达中心线模型部分的远端。在操作528处,由分割生成的模型的终止点被识别,并且可以用作基于用户输入生成模型的起点。因此,分割算法可以用于生成患者解剖结构的一部分的中心线模型,然后由操作者O提供的输入可以用于继续模型,增强模型,或者将患者解剖结构的缺失部分添加到该模型。
在到达分割模型的末端之后,该方法可以继续到操作506,如前所述,其中处理装置可以从操作者输入装置(诸如图1的输入装置130之一)接收输入。输入可以限定经滤波的图像数据的图像空间内的虚拟移动的导航方向。可选地,处理装置可以检测中心线模型的末端,并且在操作者导航超出经滤波的图像数据内的中心线模型时处理装置可以自动开始跟踪操作者O的导航移动。如上所述,当图像质量降低到阈值以下时,分割可能会失败。例如,低剂量CT图像数据可以为肺内较大通道的分割算法提供足够的信息,但是当通道变窄时并且当限定更远侧通道的体素的数量或分辨率降低时,可能会失败。然而,操作者O能够在显示系统110中示出的滤波图像数据中可视地确定这些远侧通道的近似边界。在分割失败的情况下,操作者O可以虚拟地导航(即,在图像空间内导航)通过图像数据以限定可以用于扩充分割模型的路径。在操作508处,处理装置可以将输入作为图像空间内的虚拟移动进行跟踪。因此,在该示例中,由操作者虚拟驱动的超出肺的气管和主支气管的跟踪导航移动可以提供输入数据,该输入数据可以用于将中心线模型扩展到肺中的次支气管和更多分生支气管(generation),进而提供更完整的患者解剖模型。在操作510处,由分割数据和跟踪路径生成混合模型。例如,混合模型可以包括从分割获得的至少一个中心线和从操作者接收的虚拟导航输入获得的至少一个导航路径。因此,一个示例性模型可以包括从分割获得的近侧中心线模型部分,其具有连接到导航路径模型部分的远端,该导航路径模型部分又具有连接到从分割获得的远侧中心线模型部分的远端。
在一些情况下,解剖通道的一部分的独特方面可能导致该特定部分处的分割失败。例如,病变、肿瘤、阻塞或伤口可能存在于解剖通道的该部分处并且以通过分割算法不能解析或难以解析的方式使解剖通道变形。在一些实施例中,操作者O可以虚拟地导航通过未分割的特定部分。然后,操作者O可以通过输入装置130请求以下操作,即可以基于由虚拟导航限定的路径的远端来恢复分割算法的操作。因为导致分割失败的问题可能不会远离特定部分而存在,所以分割算法能够在操作者O已经导航超出特定问题部分之后继续。
现在参考图6A、图6B和图6C,其中示出了可以在不执行分割过程的情况下生成模型的方法(例如方法500、520)中使用的示例性医学图像数据的渲染。图6A示出了在轴向平面中拍摄的患者P的胸部区域的前视图;图6B是在冠状平面内拍摄的胸部区域的侧视图,以及图6C是在矢状平面中拍摄的胸部区域的正视图。图6A-6C所示的视图是从三维数据获得的截面图。这些视图是显示三维图像数据内的二维平面的“切片”。图6A-6C中的肺中的空气被描绘为黑色。
现在参考图7A、图7B和图7C中,这些图描绘了通过对图6A-6C中的图像数据进行滤波而获得的滤波图像数据的多个轴上视图。图7A-7C突出显示具有Hounsfield值的体素700,该值可以与肺的解剖通道中的空气相关联。患者P的肺内的空气可以是患者P的最不密集部分,并且可以通过密度值滤波以隔离解剖通道。图7A-7C是横截面切片,其描绘的体素在患者P的肺中的气管和其他通道内具有空气密度。这些体素可以通过根据Hounsfield值进行滤波而被识别并且与其他体素不同地进行渲染以将解剖通道突出显示给操作者O。在一些实施例中,可以滤波图像数据以将肺的解剖通道中的空气显示为独特的颜色,以便提供通道的模型。
图7D、图7E和图7F是图7A-7C中所示图像数据的正交视图,该图像数据被进一步滤波,以突出或描绘包括在图像数据中的患者解剖结构的特定方面。图7D基于Hounsfield值被滤波,以描绘患者P的骨骼702和围绕患者P的肺的支气管壁706的脉管系统704部分。通过用户界面,操作者O可以从可选择组织的菜单中选择用于在用户界面中渲染的特定组织并且选择脉管系统704。基于选择,图7E可以被呈现到位。图7E示出了脉管系统704和支气管壁706。操作者O还可以与用户界面交互以仅选择支气管壁706用于显示,如图7F所见。基于每个体素的特征而不是其位置来对成像数据进行选择性滤波可以向操作者O提供期望的渲染。此外,当操作者O虚拟导航通过数据以作为规划过程的一部分生成模型时,通过滤波图像数据,计算资源(CPU和/或GPU资源)需要渲染数据并更新数据视图。如下面结合图13的用户界面1200所描述的那样,操作者O可以与用户界面元素交互以选择性地将滤波器应用到图像数据并修改滤波器。
图8A从相对于图像数据内的解剖通道的特定视角描绘了图6A-6C和图7A-7D的三维图像数据。更具体地,图8A从驱动视角(例如从被导航通过解剖通道的装置(诸如内窥镜)的视角)示出了解剖通道的三维渲染。图8A中肺中的空气被渲染为透明的,使得操作者O可以看到支气管通道的内部。通过使肺内的空气透明,图8A的三维视图为操作者提供CT图像数据的可导航透视图。如图8A所示,图像数据被滤波以使空气渲染为透明,同时渲染具有肺壁600的Hounsfield值的体素。以这种方式,肺壁600的内表面被呈现给操作者O以使操作者O能够虚拟地在壁600内导航。图8A中所示的透视图由图6A-6C和图7A-7C中所示的竖直准线和水平准线指示(竖直准线和水平准线在图8A的透视点处相交),并且指向患者P的肺的主隆突。如图8A所示,从气管向远侧看,存在左支气管602A和右支气管602B。
图8B是具有基于线条的导航路径模型的图8A的示例性医学图像数据的三维渲染。图8B示出了导航路径604,其已经通过执行先前描述的方法(诸如方法500)而被生成。导航路径604可以通过跟踪操作者O在图像空间内的虚拟移动来生成。如图8B所示,操作者O已经沿右支气管602B导航,形成导航路径604,并已返回气管。然后,操作者O可以沿左支气管602A导航,进一步执行方法500的过程506、508和510,这将生成另一个导航路径,如导航路径604。该另一个导航路径可以连接到导航路径604,并且组合成患者P的肺的单个基于线条的模型。当操作者O在图像空间内虚拟地导航时,基于从操作者O接收的导航输入生成基于线条的模型。
现在参考图9A、9B、9C和9D,其中所示的是图像数据,类似于图6A-6C和图7A-7F中所示的图像数据,诸如包括与医疗程序的目标800对应的数据的CT图像数据。例如,目标800可以是肿瘤,诸如肺肿瘤。在一些实施方式中,通过密度滤波CT数据可以利于识别肿瘤的位置和形状。在方法500的一些实施例中,处理装置114可以识别目标800或者对目标800进行初步识别。这可以使用与图像数据的体素相关联的Hounsfield值和/或基于不包括目标或包括不同尺寸的目标的患者解剖结构的存储CT数据的比较来完成。例如,可以通过比较在不同时间收集的图像数据来促进对目标800的识别。一些实施例,例如如方法500的可选过程507、511中所描述的,可以经由用户界面从操作者O接收指定图像数据的一部分作为目标800的输入。例如,操作者O可以在显示屏110上提供显示图9B-图9D的二维切片中的每一个的输入。在三个视图中的每一个上接收的输入可以用于产生目标识别区域,该目标识别区域以图9A中的三维透视图所示的三维图像空间中的方位为中心。目标识别区域还可以包括围绕中心方位形成的三维形状。例如,三维形状802可以包括如图9A所示的椭圆形、立方体等。操作者O可以与UI(用户界面)元素交互以控制三维形状802的尺寸和形状。在已经接收到三维形状802的方位和形状之后,三维形状802可以用作目标800,或者处理装置可以识别构成目标800的形状802内的体素。
图10示出了在图5A的方法500的操作502处获得的图像数据的一部分。在已经在图像数据内识别出目标800之后,处理装置可以确定图像数据内的当前视角/透视图(perspective)与目标800的三维方位之间的矢量。如图10所示,当前视角/透视图可以来自肺隆突处的气管。在该示例中,目标800被识别为位于特定的叶(例如,左叶)内,使得矢量提供目标位置的方向指示。矢量可以在用户界面中渲染为箭头900,或表示矢量的另一用户界面元素以向操作者O显示目标800相对于三维数据内的导航方位的位置。可替代地,图像数据的部分可以被显示为指示目标位置的不同颜色、阴影、纹理或透明度。
在一些实施例中,在已经在图像数据内识别出目标800之后,处理装置可以确定一些建模通道不提供目标的入口。例如,处理装置可以确定某些通道在距目标800的预定阈值距离内没有点。作为另一个示例,处理装置可以确定在距离目标800的阈值距离内具有至少一个点的建模通道的子集。阈值距离可以在约0.5cm至约5cm的范围内。在一些实施例中,阈值距离可以在约1.5cm至约3cm的范围内。在处理装置确定哪些建模通道可以提供目标800的入口之后,处理装置可以阻止沿不提供目标800的入口的通道中的任一个的导航。如图10所示,标记902可以与图像数据一起被渲染,以向操作者传达图10中的图像右侧所示的通道不提供目标800的入口。虽然在一些实施例中,处理装置可以显示标记902而不阻止操作者沿相应的模型通道的导航,但是其他实施例可以显示标记902并且防止导航超出与标记902相关联的三维位置。
现在参考图11A和图11B所示,方法500的一些实施例可以另外包括分割图像数据以根据在过程502中接收的图像数据产生表面模型和/或产生与表面模型或图像数据相关联的中心线模型的步骤。如图11A所示,表面模型1000的内部透视图可以在图1的显示系统110中被呈现。表面模型1000可以通过任何适当的分割过程而被获得。然而,如上所述,分割可能无法提供部分分割的表面模型。因此,如图11B所示,医生O可以请求在显示系统110中同时显示表面模型1000和经经滤波的图像数据1002。此外,操作者O可以与用户界面元素交互以在表面模型1000的显示和经滤波的图像数据1002的显示之间进行选择。图11B中提供给操作者的信息视图可以允许操作者可视化表面模型1000和相关联的经滤波图像数据1002之间的任何差异。然后,操作者O可以继续过程504至510以补充部分分割的表面模型并产生更完整的分割表面模型。
另外,在方法500的一些实施例中,可以首先使用分割过程来生成具有相关联的中心线模型的第一表面模型。然而,因为分割过程可能在远离目标(诸如图9A-9D的目标800)一定距离处失败,操作者O然后可以提供输入以产生进一步延伸到患者解剖结构中的模型,使得完整的模型可用于图像引导的医疗程序。换句话说,从操作者O接收的输入可以用于扩充分割模型。
因此,图12A、图12B、图12C和图12D示出了图5A中所示的方法500的一些实施例的一些步骤,这些步骤在初始分割模型距目标一定距离处失败时提供初始分割模型的扩充。图12A示出了一组经滤波的图像数据1102,其包括从术前或术中成像数据创建的一组解剖通道。在该实施例中,通道是人肺的气道,但是方法500不限于任何特定的解剖结构。为了便于说明,经滤波的图像数据1102被描绘为二维的。这样,所描绘的图像数据1102可以被理解为图7F的三维支气管壁706的二维表示。该组经滤波的图像数据1102还可以包括与目标1104(诸如,如本文关于图9A-9D所述的目标800)对应的图像数据。由于图像数据1102的质量或者由于解剖通道的结构中的异常,从图1的处理装置114执行的分割过程不能产生表面模型和/或不能产生通过解剖通道从气管延伸到目标1104的中心线模型,如图11A所示。例如,图12B描绘了可以在图5A的方法500的一些实施例中使用的分割过程的结果。图12B示出了以实线示出的示例性表面模型1106的轮廓。图12B还通过虚线示出了解剖通道的没有被分割过程分割的未分割部分1108。因为目标1104只能经由解剖通道的未分割部分1108进入,所以仅使用表面模型1106在目标1104的部位处执行微创医疗程序可能是不可能或困难的。
在生成表面模型1106的初始分割过程之后,可以生成中心线分割模型1110,如图12C所示。中心线分割模型1110可以包括一组曲线和/或直线,其在三维空间中延伸并且对应于分割模型1106中包含的通道的近似中心。模型的分辨率越高,模型1110中的该组直线或曲线将越准确地对应于通道的中心。用中心线分割模型1110表示肺可以提供较小的数据组,与表示通道壁的分割模型1106的数据组相比,较小的数据组可以被一个或多个处理器或处理内核更高效地处理。以这种方式,可以改进控制系统112的功能。如图12C所示,中心线分割模型1110包括若干分支点,其中一些分支点被突出显示以便可见。分支点A、B、C、D和E被显示在几个分支点中的每一个处。分支点A可以表示模型1110中气管分成左主支气管和右主支气管的点。右主支气管可以在中心线分割模型1110中被识别为位于分支点A和B之间。类似地,次支气管由分支点B和C识别并且在分支点B和E之间。其他分生支气管可以被限定在分支点C和D之间,这些分生支气管中的每一个可以与对应通道的内腔直径的表示相关联。在一些实施例中,中心线模型1110可以包括每个分割的分生支气管的平均直径值。平均直径值可以是患者特定值或来自多个患者的更通用的值。另外,中心线模型1110包括终端点,其示例性终端点F、G和H在图12C中标记。终端点F、G和H表示分割过程结果的限制。如图12C所示,中心线模型1110不延伸超出未分割部分1108到达目标1104。
如上面结合图5A的方法500的操作506所讨论的那样,操作者O可以经由输入装置130或控制系统112可以使用的另一个操作者输入装置提供输入,以扩充中心线模型1110,如图12D所示。图12D示出了扩充的模型1112。扩充的模型1112包括中心线模型1110和基于输入的模型1114。结合操作506的描述,操作者O可以经由输入装置130提供导航方向,以在图像空间内并且超出中心线分割模型1110进行虚拟导航,同时可视化至少一些图像数据1102,诸如具有与支气管壁706相关联的Hounsfield值的体素。根据所接收的虚拟移动,控制系统112可以跟踪和记录移动以识别解剖通道的未分割部分以扩展中心线分割模型1110进而创建基于输入的模型1114。
另外,图1的输入装置130的一些实施例可以允许操作者O在绘图板上或在可以是触摸屏的显示系统110上“绘制”以限定线条或路径。可以将绘制的线条添加到中心线模型1110以生成扩充的模型1112。例如,操作者O可以在图像数据的多个视图中的每一个(诸如图6A-6C中所示的横截面平面)上绘制线条。控制系统112可以处理多条线条以生成三维线条以添加到中心线模型1110。在一些过程中,操作者O可以能够选择终端点F、G或H中的一个。然后,操作者O可以选择能够在解剖通道内虚拟导航的内部透视图,以从所选择的终端点开始生成基于输入的模型或模型部分。可替代地或另外地,可以向操作者O呈现图像数据的多个横截平面,在该多个横截平面上绘制多个二维线条,然后将这些二维线条解码为单个三维线条以生成基于输入的模型1114。
在其他实施例中,操作者O能够选择中心线模型1110上的任何点以提供虚拟导航或用于扩充中心线模型的绘制。例如,操作者可以在中心线模型1110上选择中间点I。此后,操作者O可以从点I开始进行虚拟导航并绘制从点I延伸的线条以生成基于输入的线条1116。操作者O可以提供指示基于输入的线条1116的末端的附加输入,基于输入的线条1116的末端被示为终端点J。在操作者结束基于输入的线条1116之后,操作者可以请求控制系统112尝试分割图像数据。分割过程可以在终端点J处开始并且自动地分割图像数据1102以生成中心线模型部分1118。
这些方法的组合可以被用于基于用户与图像数据1102的交互来生成解剖通道的完整或部分模型。在一些实施例中,基于分割的建模技术和基于非分割的建模技术的组合(诸如,虚拟导航或中心线绘图)可以用于生成模型,如扩充的模型1112,其然后可以在医疗程序期间被配准到插入患者解剖结构内的医疗器械。通过将扩充的模型1112与医疗器械(诸如图2A和图2B的细长装置202)配准,与模型1112和细长装置202相关联的图像数据可以被带入共同的参照系,以用于图像引导的医疗程序。随后,可以在显示系统110中呈现配准的细长装置202的图形表示以及配准的图像数据。
在其他实施例中,分割模型1106可以用于产生中心线分割模型1110或包括点云、点集或点集合的另一合适模型。当分割模型1106包括表示一个或多个通道的内表面的网格时,可以使用在包括模型1106的存储数据文件中表示的网格的顶点子集。可替代地,网格或表面的几何中心可以用于表示分割模型1106中的体积或通道。
在一些实施例中,中心线分割模型1110在数据中被表示为三维空间中的点云、点集、点的3D模型或点集合,而不是连续线条。在中心线分割模型1110被生成并作为点集被存储在数据中之后,中心线分割模型1110可以从数据存储中检索以用于图像引导外科手术程序。为了在图像引导的外科手术程序中使用中心线分割模型1110,模型1110可以被配准以将模型1110中的建模通道与存在于外科手术环境中的患者的实际解剖结构相关联。在点集配准中使用模型1110包括使用从模型1110中获得的点集或组成模型1110的点集。此外,包括从虚拟导航或从绘图获得的部分的扩充模型1112可以被表示为在点集配准算法中使用的点集。
现在参考图13,其中示出了在显示器1202中渲染的示例性用户界面1200。显示器1202可以是图1的显示系统110的一部分,或者可以是图1的显示系统110。用户界面1200包括在其中可以渲染图像数据的主视图1204。如图12所示,主视图1204包括来自例如装置的视点的解剖通道的内部透视图,该解剖通道的内部透视图被包括在术前或术中三维图像数据中。用户界面1200还包括辅助视图1206,辅助视图1206可以包括图像数据的一个或多个显示。如图13所示,辅助视图包括CT图像数据的三个二维切片。在一些实施例中,主视图1204和辅助视图1206可以被显示在分开的显示屏幕上。
如图13中所示,用户界面1200处于虚拟导航模式,并且因此在主视图1204中包括内部透视图并且在辅助视图1206中包括三个二维切片。在右边,用户界面1200包括用户界面选项1208,其包括虚拟导航选项1210、绘制选项1220和滤波器选择项1230。
虚拟导航选项1210包括用户界面元素1212A、1212B和1212C。通过选择开始导航元素1212A,操作者O可以开始虚拟导航,使得用于汇编(assembly)的导航输入被记录为生成模型(如基于输入的模型1114)的路径。通过选择暂停导航元素1212B,操作者O可以暂时停止虚拟导航的记录,并且操作者O可以在三维图像空间内移动而不记录导航输入。通过选择恢复导航元素1212C,操作者O能够继续记录用于汇编(如模型1114)的导航输入。在一些实施例中,透视图/视角(perspective)(即,三维图像数据内的方位和取向)可以选择性地返回到最后记录的透视图/视角,或者透视图/视角可以保留在未记录的导航之后的任何地方。
当操作者O打算绘制线条或路径以生成或添加到解剖通道的基于线条的模型时,可以使用绘制模式选项1220。在一些实施例中,当用户从绘制模式选项1220中选择元素时,在操作者O在每个视图上绘制之后,主视图1204可以按顺序填充有图像数据的第一二维视图,然后是第二二维视图,然后是第三二维视图。当显示器1202是触摸屏显示器时,操作者O可以在显示器1202上进行绘制。在其他实施例中,操作者O可以使用鼠标、键盘或其他输入机构在图像数据的多个透视图上绘制线条,然后将这些线条组合以生成可以包括在基于线条的解剖通道模型中的三维线条或曲线。
另外,用户界面选项1208包括滤波器选项1230。滤波器选择项1230中包括的用户界面元素可以基于工作流程,例如,如果操作者O使用输入装置130与控制系统112通信,并且要执行的程序是肺活组织检查,则控制系统112可以用适合于肺活组织检查的用户界面元素预先填充滤波器选择项1230。例如,如图所示,滤波器选择项1230包括支气管壁元素1232A、相邻血管元素1232B和骨元素1232C。操作者O可以与元素1232A-1232C交互以在关联范围内打开和关闭具有Hounsfield值的CT数据的显示。在一些实施例中,元素1232A-1232C可以各自具有连续输入元素,其提供不同程度的透明度/不透明度。另外,当正在执行的过程不涉及肺时,滤波器选择项1230可以包括其他元素。
用户界面1200的许多不同变体被包括在本公开的范围内。例如,可以包括其他用户界面选项和用户界面控件,诸如分割图像数据的选项或者继续分割图像数据的选项,如上面结合图12A-12D所讨论的。
现在参考图14,其中示出了在微创医疗程序期间提供基于图像的引导的方法1300的流程图。像本文描述的其他方法一样,方法1300被描绘为一系列操作。方法1300的实施例可以包括附加或替代操作和/或可以省略一个或多个枚举操作。方法1300的一些实施例可以包括控制系统112或处理装置114可读的指令,以使控制系统112执行方法1300的操作。
方法1300的一些实施例可以在操作1302处开始,其中处理装置(诸如控制系统112的处理装置114)接收患者解剖结构的至少一部分的三维图像数据。例如,控制系统112可以接收示出患者P的躯干(包括患者P的肺)的CT图像数据,。在其他实施例中,图像数据可以从患者解剖结构的另一部分获得。
在操作1304处,处理装置可以将三维图像数据与外科手术环境配准。在一些实施例中,通过将包含在图像数据内的基准标记配准到外科手术环境中的相应基准标记,可以将图像数据与外科手术环境配准。在操作1306处,处理装置将耦连到远程操作医疗系统的医疗器械与外科手术环境配准,例如通过以下步骤进行:通过在患者解剖结构的部分内驱动医疗器械,并捕获与医疗器械的跟踪方位相关联的测量点。在一些实施例中,操作1304和操作1306可以被组合成单个配准操作,该操作直接将三维图像数据与医疗器械配准。包括在方法1300的配准过程可以包括以下操作:从接收到的图像数据生成模型,或基于由图像数据所限定的空间内的操作者O的跟踪虚拟移动命令产生这种模型的一部分,如以上结合图5A的方法500描述的。在操作1304和操作1306之后,控制系统112将使用医疗器械获得的信息与三维图像数据相关联。例如,控制系统112可以使得在医疗器械的远端处的摄像机获得实时视图被显示在从医疗器械的远端的视角观看的一部分图像数据的旁边。例如,用户界面1200的主视图1204可以包括具有来自摄像机的实时馈送的拆分视图和图像数据的透视图。
在操作1308,处理装置可以将滤波器应用于三维图像数据,以改变三维图像数据的一个或多个体素的渲染。例如,当从医疗器械的远端的视角显示图像数据时,图像数据的一些部分可以被滤波以提供图像数据的期望呈现。例如,图像数据可以根据与体素相关联的Hounsfield值来滤波。操作者O可以选择性地使得某些组织完全透明或部分透明地显示,或者控制系统112可以自动地使得某些组织完全透明或部分透明地显示,以使某些方面更容易可视化。例如,具有与空气相关的Hounsfield值的体素可以被透明地渲染,而限定支气管通道的组织被半透明地渲染,并且支气管通道周围的血管可以被不透明地渲染。作为另一个例子,包含在图像数据内的目标可以被渲染为不透明的块,而所有的组织被半透明地渲染。可以使用其他组合来允许操作者O可视化在任何特定情况下被判断为最有用的信息。另外,除了某些组织的透明度之外,滤波器还可以提供不同的着色。
在操作1310,处理装置可以从与医疗器械相关联的视角在显示器中渲染三维图像数据。如上所述,这可以在显示屏的第一部分或第一显示屏中完成,而来自相同视角或来自不同视角的实时视频被提供在显示屏的第二部分或第二显示屏中。以这种方式,如果来自医疗器械的实时视频被阻挡,则操作者O可以使用CT数据来继续导航。另外,操作者O可以将在实时视图中示出的组织、流体等与包括在图像数据中的相同对象之间进行比较。在其他实施例中,可以将其他成像模态(术中或术前)与CT图像数据进行比较。操作者O可以在用户界面(如图12的用户界面1200)中进行选择,以提供组织类型的选择和/或将与每种组织类型相关联的渲染设置接收到控制系统112。例如,当操作者O选择支气管壁元素1232A时,用户界面1200可以呈现额外的用户界面选项,诸如滑块或输入区域,由此操作者O可以输入与支气管壁元素1232A相关联的透明度设置和/或颜色设置。然后可以将设置应用于与支气管壁的Hounsfield值相关联的体素。
在方法1300的一些实施例中,当控制系统112检测到医疗器械的方位变化时,可以更新观察图像数据的视角以反映医疗器械的方位变化,使得发送以转向/定位医疗器械的导航命令同时被用于图像数据的虚拟导航。
本公开的实施例可以提供图像引导的医疗程序的显著改进。例如,一些实施例可以允许使用较低分辨率的CT扫描以用于生成患者解剖结构的模型。通过改善这种较低分辨率CT扫描的效用,可以减少患者暴露于用于获得图像数据的放射性成像剂。一些实施例可以允许使用分割和用户输入两者来生成患者解剖结构的混合模型,这可以提高生成允许配准的这种解剖模型的效率和准确性。另外,本公开的实施例可以利于在医疗程序期间同时查看图像数据以及实时视频数据。
本文描述的方法和系统的实施例包括计算机可读存储介质,诸如CD-ROM、DVD、闪存和其他存储介质,其上存储有机器可读指令。处理装置,诸如包括在图1的控制系统112中的处理装置。本公开的另外的实施例包括具有一个或多个处理装置(诸如CPU和GPU)的系统(诸如工作站)以及存储指令的存储器,当该指令被处理装置读取时,该指令使得系统执行方法400、500和1300之一的实施例。另外,可以组合关于本公开的各种实施例描述的特征。例如,关于方法1300讨论的操作可以包括在方法500的实施例中。此外,可以对本公开的实施例做出对于本领域普通技术人员显而易见的变化和修改,而不脱离本公开范围。虽然已经关于患者的肺描述了一些更具体的实施例,但是可以通过利用本公开的实施例对其他解剖通道、结构和器官进行成像、配准和观察及治疗。这些器官可以包括心脏、消化道、肾脏和其他器官。因此,通过参考随附的权利要求可以充分地理解本公开的范围和精神。

Claims (8)

1.一种包括多个机器可读指令的非暂时性计算机可读介质,当由一个或多个处理器执行时,所述多个机器指令适于使所述一个或多个处理器执行一种促进图像引导的医疗程序的方法,所述方法包括:
通过具有至少一个处理装置的远程操作医疗系统接收患者解剖结构的至少一部分的三维图像数据;
通过将耦连到所述远程操作医疗系统的医疗器械配准到外科手术环境并将所述三维图像数据与所述外科手术环境配准,将所述医疗器械与所述三维数据配准;
将辐射密度滤波器应用于所述三维图像数据,以改变所述三维图像数据的一个或多个体素的渲染;并且
从与所述医疗器械相关联的视角在显示器中渲染所述三维图像数据。
2.根据权利要求1所述的非暂时性计算机可读介质,其中将所述辐射密度滤波器应用于所述三维图像数据使得具有第一辐射密度值的体素被透明地渲染。
3.根据权利要求1所述的非暂时性计算机可读介质,其中所述指令还使得所述一个或多个处理器执行:将所述三维图像数据中的体素分配给多种组织类型中的一种。
4.根据权利要求3所述的非暂时性计算机可读介质,其中所述指令还使得所述一个或多个处理器执行:
经由包括在用户界面中的组织类型选择元素接收对所述多种组织类型的组织类型的选择;
接收与所述组织类型选择元素相关联的透明设置;并且
将所述透明设置应用于分配给所选择的组织类型的体素。
5.一种用于处理医学图像的系统,所述系统包括:
存储器;和
处理装置,其与所述存储器通信,所述处理装置被配置为执行指令以执行以下操作,包括:
通过具有至少一个处理装置的远程操作医疗系统接收患者解剖结构的至少一部分的三维图像数据;
通过将耦连到所述远程操作医疗系统的医疗器械配准到外科手术环境并将所述三维图像数据与所述外科手术环境配准,将所述医疗器械与所述三维数据配准;
将辐射密度滤波器应用于所述三维图像数据,以改变所述三维图像数据的一个或多个体素的渲染;并且
从与所述医疗器械相关联的视角在显示器中渲染所述三维图像数据。
6.根据权利要求5所述的系统,其中将所述辐射密度滤波器应用于所述三维图像数据使得具有第一辐射密度值的体素被透明地渲染。
7.根据权利要求5所述的系统,其中所述处理装置被进一步配置为执行指令以执行:将所述三维图像数据中的体素分配给多种组织类型中的一种。
8.根据权利要求7所述的系统,其中所述处理装置被进一步配置为执行指令以执行:
经由包括在用户界面中的组织类型选择元素接收对所述多种组织类型的组织类型的选择;
接收与所述组织类型选择元素相关联的透明设置;并且
将所述透明设置应用于分配给所选择的组织类型的体素。
CN202310225582.2A 2016-12-08 2017-12-07 用于图像引导医疗程序中导航的系统和方法 Pending CN116421309A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662431696P 2016-12-08 2016-12-08
US62/431,696 2016-12-08
CN201780067272.5A CN109922753B (zh) 2016-12-08 2017-12-07 用于图像引导医疗程序中导航的系统和方法
PCT/US2017/065162 WO2018106950A1 (en) 2016-12-08 2017-12-07 Systems and methods for navigation in image-guided medical procedures

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201780067272.5A Division CN109922753B (zh) 2016-12-08 2017-12-07 用于图像引导医疗程序中导航的系统和方法

Publications (1)

Publication Number Publication Date
CN116421309A true CN116421309A (zh) 2023-07-14

Family

ID=62492338

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201780067272.5A Active CN109922753B (zh) 2016-12-08 2017-12-07 用于图像引导医疗程序中导航的系统和方法
CN202310225582.2A Pending CN116421309A (zh) 2016-12-08 2017-12-07 用于图像引导医疗程序中导航的系统和方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201780067272.5A Active CN109922753B (zh) 2016-12-08 2017-12-07 用于图像引导医疗程序中导航的系统和方法

Country Status (4)

Country Link
US (2) US11547490B2 (zh)
EP (1) EP3551114A4 (zh)
CN (2) CN109922753B (zh)
WO (1) WO2018106950A1 (zh)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US11793579B2 (en) 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
WO2018195221A1 (en) * 2017-04-18 2018-10-25 Intuitive Surgical Operations, Inc. Graphical user interface for planning a procedure
US10881482B2 (en) * 2017-05-09 2021-01-05 Boston Scientific Scimed, Inc. Operating room devices, methods, and systems
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
WO2019075074A1 (en) 2017-10-10 2019-04-18 Covidien Lp SYSTEM AND METHOD FOR IDENTIFICATION AND MARKING OF A TARGET IN A THREE-DIMENSIONAL FLUOROSCOPIC RECONSTRUCTION
CN110809453B (zh) * 2017-12-18 2023-06-06 奥瑞斯健康公司 用于腔网络内的器械跟踪和导航的方法和系统
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
US10893842B2 (en) 2018-02-08 2021-01-19 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US10685439B2 (en) * 2018-06-27 2020-06-16 General Electric Company Imaging system and method providing scalable resolution in multi-dimensional image data
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
US11931111B2 (en) 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
US11864935B2 (en) 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
JP7444569B2 (ja) * 2019-09-18 2024-03-06 ザイオソフト株式会社 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
EP3838159A1 (en) * 2019-12-17 2021-06-23 Koninklijke Philips N.V. Navigating bronchial pathways
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
US11847730B2 (en) 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
EP4138710A4 (en) * 2020-04-19 2023-10-18 Xact Robotics Ltd. OPTIMIZING CHECKPOINT LOCATIONS ALONG A MEDICAL INSTRUMENT INSERTION PATH USING DATA ANALYSIS
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
EP3944834A1 (en) * 2020-07-30 2022-02-02 Koninklijke Philips N.V. Navigation operation instructions
DE112022002005T8 (de) * 2021-04-07 2024-02-22 Intuitive Surgical Operations, Inc. Systeme, Verfahren und Medium enthaltend Instruktion zum Verbinden von Modellstrukturen, die anatomische Wege darstellen
US11515041B1 (en) * 2021-09-02 2022-11-29 Omniscient Neurotechnology Pty Limited Display of subset brain graph by shading nodes

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6113946A (en) * 1992-04-03 2000-09-05 The Regents Of The University Of California Self-assembling polynucleotide delivery system comprising dendrimer polycations
US5611025A (en) * 1994-11-23 1997-03-11 General Electric Company Virtual internal cavity inspection system
US5792135A (en) 1996-05-20 1998-08-11 Intuitive Surgical, Inc. Articulated surgical instrument for performing minimally invasive surgery with enhanced dexterity and sensitivity
US6380732B1 (en) 1997-02-13 2002-04-30 Super Dimension Ltd. Six-degree of freedom tracking system having a passive transponder on the object being tracked
GB9713018D0 (en) 1997-06-20 1997-08-27 Secr Defence Optical fibre bend sensor
US6246784B1 (en) * 1997-08-19 2001-06-12 The United States Of America As Represented By The Department Of Health And Human Services Method for segmenting medical images and detecting surface anomalies in anatomical structures
US7998062B2 (en) * 2004-03-29 2011-08-16 Superdimension, Ltd. Endoscope structures and techniques for navigating to a target in branched structure
WO2005039391A2 (en) * 2003-10-21 2005-05-06 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for intraoperative targetting
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US20060013523A1 (en) 2004-07-16 2006-01-19 Luna Innovations Incorporated Fiber optic position and shape sensing device and method relating thereto
GB2416944A (en) 2004-07-30 2006-02-08 Voxar Ltd Classifying voxels in a medical image
US20070092864A1 (en) 2005-09-30 2007-04-26 The University Of Iowa Research Foundation Treatment planning methods, devices and systems
US7907772B2 (en) 2006-03-30 2011-03-15 Accuray Incorporated Delineation on three-dimensional medical image
WO2008125910A2 (en) * 2006-11-10 2008-10-23 Superdimension, Ltd. Adaptive navigation technique for navigating a catheter through a body channel or cavity
US10039613B2 (en) 2007-03-01 2018-08-07 Surgical Navigation Technologies, Inc. Method for localizing an imaging device with a surgical navigation system
US20090105579A1 (en) 2007-10-19 2009-04-23 Garibaldi Jeffrey M Method and apparatus for remotely controlled navigation using diagnostically enhanced intra-operative three-dimensional image data
US9259274B2 (en) 2008-09-30 2016-02-16 Intuitive Surgical Operations, Inc. Passive preload and capstan drive for surgical instruments
US8819591B2 (en) 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment
US8900131B2 (en) 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
US9452276B2 (en) 2011-10-14 2016-09-27 Intuitive Surgical Operations, Inc. Catheter with removable vision probe
EP2785270B1 (en) * 2011-12-03 2019-05-01 Koninklijke Philips N.V. Automatic depth scrolling and orientation adjustment for semi-automated path planning
US8920368B2 (en) * 2011-12-22 2014-12-30 St. Jude Medical, Atrial Fibrillation Division, Inc. Multi-user touch-based control of a remote catheter guidance system (RCGS)
EP4056111A3 (en) 2012-02-22 2022-12-07 Veran Medical Technologies, Inc. Systems, methods, and devices for four dimensional soft tissue navigation
US10588597B2 (en) * 2012-12-31 2020-03-17 Intuitive Surgical Operations, Inc. Systems and methods for interventional procedure planning
EP2953532B1 (en) 2013-02-08 2020-01-15 Covidien LP System for lung denervation
US9639666B2 (en) 2013-03-15 2017-05-02 Covidien Lp Pathway planning system and method
US9301723B2 (en) * 2013-03-15 2016-04-05 Covidien Lp Microwave energy-delivery device and system
WO2014176207A1 (en) 2013-04-22 2014-10-30 University Of Washington Through Its Center For Commercialization Patient-specific guides to improve point registration accuracy in surgical navigation
US10433911B2 (en) * 2013-09-18 2019-10-08 iMIRGE Medical INC. Optical targeting and visualization of trajectories
MX2016012038A (es) * 2014-03-22 2017-01-19 Endocare Inc Sistemas y metodos para planificacion de tratamiento de ablacion y actualizaciones de posicion intraoperativa de dispositivos de ablacion.
US9770216B2 (en) * 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
EP3185769B1 (en) * 2014-08-29 2021-03-31 CardioInsight Technologies, Inc. Method and system for localization of an electrical source
CA2971277A1 (en) * 2014-12-31 2016-07-07 Covidien Lp System and method for treating copd and emphysema
US11116581B2 (en) 2015-05-22 2021-09-14 Intuitive Surgical Operations, Inc. Systems and methods of registration for image guided surgery
WO2017030913A2 (en) 2015-08-14 2017-02-23 Intuitive Surgical Operations, Inc. Systems and methods of registration for image-guided surgery

Also Published As

Publication number Publication date
EP3551114A1 (en) 2019-10-16
US11547490B2 (en) 2023-01-10
EP3551114A4 (en) 2020-07-22
CN109922753A (zh) 2019-06-21
US20190350659A1 (en) 2019-11-21
US20230088056A1 (en) 2023-03-23
WO2018106950A1 (en) 2018-06-14
CN109922753B (zh) 2023-04-14

Similar Documents

Publication Publication Date Title
CN109922753B (zh) 用于图像引导医疗程序中导航的系统和方法
US20240041531A1 (en) Systems and methods for registering elongate devices to three-dimensional images in image-guided procedures
US11636597B2 (en) Systems and methods for using registered fluoroscopic images in image-guided surgery
US11864856B2 (en) Systems and methods of continuous registration for image-guided surgery
CN110325138B (zh) 用于智能种子配准的系统和方法
US20210259783A1 (en) Systems and Methods Related to Registration for Image Guided Surgery
US11514591B2 (en) Systems and methods related to registration for image guided surgery
US20220054202A1 (en) Systems and methods for registration of patient anatomy
US20220142714A1 (en) Systems for enhanced registration of patient anatomy

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination