CN109452930B - 用于使用减小的搜索空间的医疗设备的配准系统和方法 - Google Patents
用于使用减小的搜索空间的医疗设备的配准系统和方法 Download PDFInfo
- Publication number
- CN109452930B CN109452930B CN201811154341.9A CN201811154341A CN109452930B CN 109452930 B CN109452930 B CN 109452930B CN 201811154341 A CN201811154341 A CN 201811154341A CN 109452930 B CN109452930 B CN 109452930B
- Authority
- CN
- China
- Prior art keywords
- instrument
- point
- image
- position information
- surgical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/065—Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/065—Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
- A61B5/066—Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00743—Type of operation; Specification of treatment sites
- A61B2017/00809—Lung operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/108—Computer aided selection or customisation of medical implants or cutting guides
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2061—Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/301—Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
Abstract
本发明公开了用于使用减小的搜索空间的医疗设备的配准系统和方法,涉及一种方法,该方法包括,识别在患者解剖结构的存储图像中的连接的解剖结构,并且生成表示连接的解剖结构的多个柱形联动单元。该方法也包括接收对应于器械上的点的跟踪数据,其中该器械安置在连接的解剖结构中的至少一个内;以及使器械上的点与多个柱形联动单元中的一个匹配。
Description
本申请是申请日为2013年5月13日、名称为“用于使用减小的搜索空间的医疗设备的配准系统和方法”的中国专利申请201380025128.7的分案申请。
技术领域
本公开涉及用于在医疗程序期间跟踪在患者解剖结构内的医疗设备的系统和方法,并且更具体地涉及减小的搜索空间有效跟踪患者解剖结构内的医疗设备的系统和方法。
背景技术
微创医疗技术旨在减少在诊断或手术程序期间受损的组织量,从而缩短患者的恢复时间、减轻患者的不适并且减少有害的副作用。此类微创技术可以通过在患者解剖结构中的自然孔口,或通过一个或多个手术切口执行。通过这些自然孔口或切口,临床医生可以将手术器械插入到达靶组织位置。为到达靶组织位置,微创手术器械可以在解剖系统中的自然的或手术创建的连通通道中导航,其中解剖系统诸如肺、结肠、肠、肾脏、心脏、循环系统等。导航辅助系统帮助临床医生按路线传送手术器械,并且避免对解剖结构的损伤。这些系统可以结合位置和形状传感器的使用,以更准确地描述手术器械在真实空间中的形状、姿态和位置或手术器械相对于术前图像或者并行/同步(concurrent)图像的形状、姿态和位置。在动态解剖系统中和/或在布满许多解剖通道的解剖区域中,将微创器械准确配准到解剖系统中是一项耗时且计算机处理密集的任务。需要改善的系统和方法,以便提高将微创器械配准到解剖系统的系统和方法的准确性和效率。
发明内容
该发明的实施例由所附的权利要求概括。
在一个实施例中,方法包括识别在患者解剖结构的存储图像中的连接解剖结构,并且生成表示该连接解剖结构的多个联动单元。该方法也包括接收对应于器械上的点的追踪数据,其中该器械安置在该连接解剖结构中的至少一个内;以及使器械上点与多个联动单元中的一个匹配。
在另一个实施例中,医疗系统包括柔性器械,该柔性器械包括适合于提供器械上的点的追踪数据的传感器和存储患者解剖结构的图像的存储器。该系统也包括处理器,该处理器识别在患者解剖结构的存储图像中的连接解剖结构,并且生成表示该连接解剖结构的多个联动单元。该处理器也接收对应于器械上的点的追踪数据,并且使器械上的点与多个联动单元中的一个匹配,其中所述器械安置在该连接解剖结构中的至少一个内。
在另一个实施例中,方法包括生成患者解剖结构的一组连接通道的图像,并且接收器械上的点的位置信息,该位置信息指示所述点相对于连接通道的位置。该方法也包括生成所述点的调整位置信息,包括将患者解剖结构的该组连接通道模拟为联接柱体的结构,并且用调整位置信息创建调整器械图像。该方法也包括生成合成图像,该合成图像包括该组连接通道的图像和该调整器械图像。
附图说明
当与附图一起阅读时,本公开的各方面从以下详细描述中最优理解。要强调的是,依照在行业中的标准惯例,各种特征未按比例画出。实际上,为使讨论清晰,各种特征的尺寸可以随意增大或减小。此外,在各种示例中,本公开可以重复标识号和/或字母。这种重复是为了简单且清晰的目的,并不自身决定所讨论的各种实施例和/或配置之间的关系。
图1为依照本公开的实施例的机器人手术系统。
图2示出利用本公开的方面的手术器械系统。
图3a为与微创器械的图像配准的人肺的图像。
图3b为从微创器械的角度描绘人肺区域的人肺的内部图像。
图4为肺的支气管通道的一部分的图示。
图5为表示图4的支气管通道的多个柱形联动单元的图示。
图6为柱形联动单元的图示。
图7为示出用于将器械的点对齐到解剖通道的方法的流程图。
图8为柱形联动单元的图示。
图9为投射到柱形联动单元的中心线的器械点的图示。
具体实施方式
在本发明的实施例的下列具体实施方式中阐述许多具体细节,以便提供对公开的实施例的透彻理解。然而,对本领域中的技术人员显而易见的是,该公开的实施例可以在没有这些具体细节的情况下实践。在其他实例中,未详细描述众所周知的方法、程序、部件和电路,以便不会不必要地模糊该发明的实施例的各方面。
以下实施例将在各种器械和器械部分的三维空间下的状态方面对其进行描述。如在此所使用,术语“位置”涉及对象或对象的一部分在三维空间(例如,沿着笛卡尔X、Y、Z坐标的三个平移自由度)中的位置。如在此所使用,术语“取向”指的是对象或对象的一部分的旋转布置(三个旋转自由度——例如,滚动、俯仰和偏摆)。如在此所使用,术语“取向”指的是对象或对象的一部分在至少一个平移自由度中的位置,以及对象或对象的一部分在至少一个旋转自由度中的取向(多达六个总自由度)。如在此所使用,术语“形状”指的是沿着对象测量的一组姿态、位置或取向。
参考图中的图1,机器人手术系统一般由参考标记100指示。如图1所示,机器人系统100一般包括对患者P执行各种程序时操作手术器械104的手术操纵器组件102。组件102被安装到或靠近操作台O。主控组件106允许外科医生S查看手术部位并且控制操纵器组件102。
在可替代的实施例中,机器人系统可以包括不止一个操纵器组件。除其他因素之外,操纵器组件的确切数量将取决于手术室内的手术程序和空间限制。
主控组件106可以位于外科医生的控制台C,该控制台C通常位于与操作台O同一个房间中。然而,应该清楚,外科医生S可以位于与患者P不同的房间中或完全不同的建筑中。主控组件106一般包括可选的支持物108和用于控制操纵器组件102的一个或多个控制设备112。控制设备112可以包括任何数量的各种输入设备,诸如操纵杆、跟踪球、手套、触发手枪、手动操作的控制器、语音识别设备等。在一些实施例中,(多个)控制设备112将具有与相关手术器械104一样的自由度,以提供给外科医生远程呈现,或(多个)控制设备112与器械104成为一体的感知,从而使得外科医生具有直接控制器械104的强烈感觉。在一些实施例中,控制设备112为可以六个自由度移动的手动输入设备,并且其也可以包括用于致动器械的致动手柄(例如,用于关闭抓取钳、应用电势到电极、输送药物处理等)。
可视化系统110可以包括(在以下更详细描述的)可见范围组件,从而使得手术部位的并行/同步图像或实时图像被提供给外科医生控制台C。同步图像可以例如是由安置在手术部位内的内窥镜捕获的两维或三维图像。在该实施例中,可视化系统100包括可整体耦连到或可移除地耦连到手术器械104的内窥镜部件。然而,在可替代的实施例中,附接到单独的操纵器组件的单独的内窥镜可以和手术器械一起使用,以对手术部位成像。可视化系统110可以作为硬件、固件、软件或其组合实现,其与一个或多个计算机处理器交互,或由一个或多个计算机处理器另外执行,其中计算机处理器包括控制系统116(以下描述)的处理器。
显示系统111可以显示由可视化系统110捕获的手术部位和手术器械的图像。显示器111和主控制设备112可以被取向从而使得在范围组件和手术器械中的成像设备的相对位置与外科医生的眼睛和手的相对位置类似,因此操作者能够犹如观察在基本真实存在的工作空间一样来操纵手术器械104和手动控制。通过真实的存在,就意味着图像的呈现是模拟物理操纵手术器械104的操作者的视角的真实透视图像。
可替代地或另外地,监控器111可以呈现使用成像技术的术前记录和/或建模的手术部位的图像,成像技术诸如计算机断层扫描(CT)、磁共振成像(MRI)、荧光镜检查、热敏成像、超声、光学相干断层扫描(OCT)、热成像、阻抗成像、激光成像或纳米管X射线成像。所呈现的术前图像可以包括二维图像、三维图像或四维图像。
在一些实施例中,监控器111可以显示虚拟导航图像,在该图像中手术器械的实际位置与术前图像或同步图像配准(即,动态参考),以将手术器械尖端位置处的内部手术部位的虚拟图像呈现给外科医生S。手术器械尖端的图像或其他图形或字母数字指示符可以被叠加在虚拟图像上,以辅助外科医生控制手术器械。可替代地,手术器械在虚拟图像中不可见。
在其他实施例中,监控器111可以显示虚拟导航图像,在该图像中手术器械的实际位置与术前图像或同步图像配准,以从外部视角将在手术部位内的手术器械的虚拟图像呈现给外科医生S。手术器械的一部分的图像或其他图形或字母数字指示符可以被叠加在虚拟图像上,以辅助外科医生控制手术器械。
如图1所示,控制系统116包括至少一个处理器,并且通常包括多个处理器,用于实现在手术操纵器组件102、主控组件106和图像与显示系统110之间的控制。控制器系统116也包括实施在此描述的一些方法或全部方法的软件编程指令。虽然控制系统116在图1的简化视图中被示为单个方框,但该系统可以包括若干数据处理电路(例如,在手术操纵器组件102上和/或在主控组件106上),其中至少一部分处理可选地邻近输入设备执行,一部分邻近操纵器执行,等等。可以使用各种集中式数据处理架构或分步式数据处理架构中的任何一种。类似地,编程代码可以作为若干单独的程序或子程序实施,或可以集成到若干在此描述的机器人系统的其他方面。在一个实施例中,控制系统116可以支持无线通信协议,诸如蓝牙、IrDA、家庭射频、IEEE802.11、DECT和无线遥测。
在一些实施例中,控制系统116可以包括伺服控制器,以将来自手术器械104的力和转矩反馈提供给用手操作的控制设备112。可以使用任何适当的常规或专用伺服控制器。伺服控制器可以与操纵器组件102分离,或与操纵器组件102一体。在一些实施例中,伺服控制器和操纵器组件作为邻近患者身体安置的机器人臂车的一部分提供。伺服控制器传输指示操纵器组件移动器械的信号,其中器械经由身上的开口延伸到在患者体内的内部手术部位。
支持手术器械104的操纵器组件102中的每个可以包括一系列通常称为安装关节的手动可铰接联动装置以及机器人操纵器。机器人操纵器组件102可以由一系列致动器(例如,马达)驱动。这些马达响应于来自控制系统116的命令主动移动机器人操纵器。马达进一步耦连到手术器械,以便将手术器械推进到自然解剖结构孔口或手术创建的解剖结构孔口,并且将手术器械的远端以多自由度移动,其中所述自由度可以包括三个直线运动自由度(例如,X,Y,Z直线运动)和三个旋转自由度(例如,滚动、俯仰和偏摆)。另外,马达可以用于致动器械的可铰接的末端执行器,用于抓取在活检设备等的钳口中的组织。
图2示出跟踪器械系统118,其包括手术器械系统104及其接口系统。手术器械系统104包括由接口122耦连到操纵器组件102和可视化系统110的柔性器械120。器械120具有柔性主体124、在其远端128处的尖端126和在其近端130处的接口122。主体124容纳在接口122和尖端126之间延伸的缆线、联动装置或其他转向控制装置(未示出),以便可控制地弯曲或转动尖端,例如由弯曲的尖端126的虚线版本所示的,并且在一些实施例中控制可选的末端执行器132。柔性器械可以是可转向的,包括前述的转向控制,或可以是不可转向的,其中没有用于器械弯曲的操作者控制的集成机构。末端执行器可以是对于医疗功能可操纵的工作远侧部分,例如,用于实现靶组织的预定处理。例如,一些末端执行器具有单个工作构件,诸如手术刀、刀片或电极。诸如在图2的实施例中所示的其他末端执行器具有一对或多个工作构件,诸如,例如镊子、抓紧器、剪刀或施夹器。电激活的末端执行器的示例包括电外科电极、换能器、传感器等。末端执行器也可以包括传送液体、气体或固体的管道,以执行,例如要求液体输送、附件导入、活检提取等的抽吸、吹气、冲洗处理。在其他实施例中,柔性主体124可以限定一个或多个腔,手术器械可以通过该腔在靶手术部位处部署和使用。
器械120也可以包括图像捕获元件134,该图像捕获元件134可以包括设置在远端128处的立体相机或单视场相机,用于捕获传输到可视化系统110并且由可视化系统110处理的图像,用于由显示系统111显示。可替代地,图像捕获单元134可以是耦连到在器械120近端上的成像及处理系统的相干光纤束,诸如光纤镜。图像捕获单元134可以是单光谱或多光谱,用于在可视光谱或红外/紫外光谱中捕获图像数据。
跟踪系统135包括电磁(EM)传感器系统136和形状传感器系统138,用于沿着器械120确定远端128和一个或多个节段137的位置、取向、速度、姿态和/或形状。跟踪系统也可以用于配准患者解剖结构的存储图像和固定到患者的在参考系中的形状传感器。可替代地,配准可以使用不利用EM传感器系统的其他技术执行,正如由本领域的技术人员所理解的。尽管图2仅描绘出一组示例节段137,但在远端128和近端130之间的并且包括尖端126的器械120的整体长度可以被有效地划分成节段。跟踪系统135可以作为硬件、固件、软件或其组合实施,其可以与一个或多个计算机处理器交互,或由一个或多个计算机处理器另外执行,其中一个或多个计算机处理器可以包括控制系统116的处理器。
EM传感器系统136包括可经受外部生成的电磁场的一个或多个导电线圈。然后,EM传感器系统136中的每个线圈产生感应的电信号,该电信号具有取决于线圈相对于外部生成的电磁场的位置和取向的特征。在一个实施例中,EM传感器系统可以被配置和设置以测量六个自由度,例如,三个位置坐标X、Y、Z和指示基点的俯仰、偏摆和滚动的三个取向角。EM传感器系统的进一步描述被提供在于1999年8月11日提交的美国专利号US6380732中,其公开“Six-Degree of Freedom Tracking System Having a Passive Transponder on theObject Being Tracked(在被跟踪的对象上具有被动式转发器的六自由度跟踪系统)”,其全部内容通过引用而并入本文。
传感器系统138包括与柔性主体124对准的光纤140(例如,在内部通道(未示出)内提供或外部安装)。跟踪系统135被耦连到光纤140的近端。在该实施例中,光纤140具有约200μm的直径。在其他实施例中,该尺寸可以更大或更小。
光纤140形成光纤弯曲传感器,用于确定器械120的形状。在一个替代方式中,包括光纤光栅(FBG)的光纤用于提供在一个或多个维度下的结构中的应变测量。用于监测三维光纤的形状和相对位置的各种系统和方法被描述在2005年7月13日提交的美国专利申请US11/180389中,其公开“Fiber optic position and shape sensing device and methodrelating thereto(光纤位置和形状感测设备及其相关方法)”;2004年6月16日提交的美国临时专利申请号US60/588336中,其公开“Fiber-optic shape and relative positionsensing(光纤形状和相对位置感测)”;以及1998年6月17日提交的美国专利US6389187中,其公开“Optical Fibre Bend Sensor(光纤弯曲传感器)”,以上文献的全部内容通过引用的方式并入本文。在其他的替代中,使用其他的应变感测技术的传感器可以是合适的,其他的应变感测技术诸如瑞利散射、拉曼散射、布里渊散射和荧光散射。在其他可替代的实施例中,器械120的形状可以通过使用其他技术来确定。例如,如果器械尖端姿态的历史以小于更新导航显示的周期或往复运动(吸入和呼出)的周期的时间间隔储存,则姿态历史记录可以用于在该时间间隔上重建设备的形状。作为另一个示例,针对沿着往复运动(诸如呼吸)的周期的器械的已知点,历史的姿态、位置或取向数据可以被储存。这个储存的数据可以用于开发关于器械的形状信息。可替代地,沿着器械安置的一系列位置传感器(诸如EM传感器)可以用于形状感测。可替代地,来自在程序期间在器械上的位置传感器(诸如EM传感器)的数据历史记录可以用于表示器械的形状,特别是如果解剖通道一般为静态。可替代地,具有外部磁场控制的位置或取向的无限设备可以用于形状感测。其位置的历史可以用于确定导航通道的形状。
在该实施例中,光纤140可以包括在单个包层146内的多个芯。每个芯可以是具有足够距离和将芯分开的包层的单模,从而使得在每个芯中的光与在其他芯中携带的光无显著的相互影响。在其他实施例中,芯的数量可以变化,或者每个芯可以包含在单独的光纤中。
在一些实施例中,FBG阵列在每个芯内都提供。每个FBG包括一系列芯折射率/折射指数的调制,以便生成在折射率/折射指数中的空间周期性。间隔可以被选择,以便来自每个指数变化的部分反射相干地添加波长的窄带,并且因此,当穿过更宽的频带时仅反射波长的该窄带。在FBG的制造期间,调制由已知的距离隔开,从而引起波长的已知频带的反射。然而,当在光纤芯上引起应变时,调制的间隔将根据芯中的应变的量而变化。可替代地,随着光纤的弯曲而变化的反向散射或其他光学现象能够用于确定每个芯内的应变。
因此,为测量应变,将光沿着光纤向下发送并且测量返回的光的特征。例如,FBG产生反射的波长,该波长为在光纤上的应变及其温度的函数。这种FBG技术可以从各种来源商购到,诸如英格兰Bracknell的Smart Fibres Ltd.。FBG技术在用于机器人手术的位置传感器中的使用被描述在2006年7月20日提交的美国专利US7930065中,公开了“RoboticSurgery System Including Position Sensors Using Fiber Bragg Gratings(包括使用光纤光栅的位置传感器的机器人手术系统)”,其全部内容通过引用的方式并入本文。
当应用到多芯光纤时,光纤的弯曲引起芯上的应变,该应变可以通过监测每个芯中的波长位移测量。通过具有在光纤中偏轴设置的两个或多个芯,光纤的弯曲引起每个芯上的不同应变。这些应变是光纤的局部弯曲程度的函数。例如,如果包含FBG的芯的区域位于光纤弯曲的点,则该芯的区域可以用于确定在那些点处弯曲的量。与FBG区域的已知间隔结合的这些数据可以用于重建光纤的形状。弗吉尼亚州Blacksburg的Luna Innovations,Inc.已经描述了此类系统。
如所描述的,光纤140用于监测器械120的至少一部分的形状。更具体地,穿过光纤140的光由跟踪系统135处理,用于检测手术器械120的形状,并且用于利用该信息辅助手术程序。跟踪系统135可以包括生成和检测用于确定器械120的形状的光的检测系统。该信息又可用于确定其他相关的变量,诸如手术器械的一部分的速度和加速度。通过实时获得这些变量中的一个或多个的准确测量,控制器可以提高机器人手术系统的准确性并且补偿在驱动部件部分中引入的误差。感测仅可被限制于由机器人系统致动的自由度,或可应用到被动自由度(例如,在关节之间的刚性构件的未致动弯曲)和主动自由度(例如,器械的致动运动)两者。
来自跟踪系统135的信息可以被发送到导航系统142,在导航系统142中,来自跟踪系统135的信息与来自可视化系统110和/或术前得到的图像结合,以在显示系统111上给外科医生或其他操作者提供实时的位置信息,用于在器械120的控制中使用。控制系统116可以利用位置信息作为安置器械120的反馈。使用光纤传感器配准并显示手术器械与手术图像的各种系统被提供在2011年5月13日提交的美国专利申请US13/107562中,其公开了“Medical System Providing Dynamic Registration of a Model of an AnatomicalStructure for Image-Guided Surgery(提供用于图像引导手术的解剖结构模型的动态配准的医疗系统)”,其全部内容通过引用的方式并入本文。
在图2的实施例中,器械104在机器人手术系统100中远程操作。在可替代的实施例中,操纵器组件可以由直接操作者控制取代。在直接操作的替代中,可以包括各种手柄和操作者接口,用于器械的手持操作。
图3a描绘了合成图像150,其包括从肺的外部视角的人肺152的图像151,图像151与柔性器械诸如柔性器械120的器械图像154配准。肺152的图像151可以从术前记录的图像中生成,或者可以在手术程序期间同步生成。合成图像150可以经由显示系统111显示。当器械120被推进通过肺152的支气管通道156时,来自跟踪系统135和/或可视化系统110的信息用来将器械图像154与肺图像151配准。肺152的图像151可以改变,例如,以描绘在吸气或呼气状态下的肺。器械图像154可以改变以描绘器械120通过支气管通道156的推进或收回。偶尔,合成图像150可能错误地融合器械图像154,从而使得器械图像154'的一部分在支气管通道的外面。以下描述了用于校正器械图像的系统和方法,使得器械位于支气管通道内。
图3b描绘从器械120的视角描绘肺区域的人肺152的内部图像160。图像160可以是当器械120位于所描绘的肺152的部分中时,由器械120在手术程序期间获得的同步图像。更具体地,该图像可以由可视化系统110捕获。可替代地,如由跟踪系统135所确定的,图像160可以是基于器械120尖端的位置选择的术前记录的图像。
包括EM传感器系统136和形状传感器系统138的跟踪系统135通常可以计算器械尖端126或者器械120在解剖通道外部的一个或多个节段137的位置。这可能指示出微小的测量误差(假设解剖通道的壁还未被破坏)。此类误差可以由诸如肺或心脏的某些解剖结构的动态性质造成。例如,吸入和呼出改变肺的支气管通道的位置和大小。可替代地,该误差可以由手术器械在解剖通道内的存在而导致的组织变形造成。为了在器械的图像和患者解剖结构的图像共同配准和显示时校正器械的位置并且将器械的一个或多个点准确定位在通道内,器械的选择点可以对齐(snapped)或者图形化配准到在解剖通道的壁上的位置,或者图形化配准到解剖通道的内腔。
在一个实施例中,将器械上的点对齐到解剖通道以建模/模拟解剖通道的存储图像开始。图4为如在术前图像捕获的肺的支气管结构202一部分的三维模型200。支气管结构202包括离散的支气管通道204-216。通过支气管通道204-216的一系列中心点形成解剖中心线218。图像200可以是由多个术前图像形成的合成图像。图5是表示支气管通道204-216的柱形联动单元304-316的三维联接结构302的图示300。如将在以下详细所述,连接的柱形联动单元304-316由解剖中心线218确定。将支气管结构202表示为联接的柱形结构302可以减少用于确定器械点位于其中的具体支气管通道的搜索空间。尽管时常参考分岔的支气管通道,但本申请的系统和实施例也可应用到将单个通道模拟为一系列联接的柱体。这在通道弯曲或直径延其长度改变的情况下特别有用。
图6为圆柱形联动单元304的图示。圆柱形联动单元304围绕解剖中心线218的分枝320形成。分枝320包括在分枝相反末端处的基点BP0和基点BP1。圆柱体中心线322跨越基点BP0和基点BP1之间的最短距离。圆柱形联动单元304的总半径RT可以将半径R1和半径R2的长度结合。半径R1为解剖中心线218和圆柱体中心线322之间的最大偏差。因此,在中心线之间的偏差越大,总的圆柱体半径的近似值就越大。半径R2为支气管通道204的平均半径,例如,如从模型200获得的。在一个实施例中,圆柱形联动单元304可以包括球形末端324、326。球形末端324,326的重叠可以简化与模拟联动单元304相关的计算负担,并且可以提供与邻近的联动单元的直观“接头”单元。然而,在各种其他实施例中,圆柱形联动单元304可以具有任何配置(例如,平的、有角度的、有小面的或任何其他模拟配置)的末端。
注意到,在各种其他实施例中,总半径RT能够以各种可替代的方式限定,以提供分枝320的期望的表示水平。例如,在一些实施例中,总半径RT可以简单地等效于支气管通道204的平均半径(即,半径R2),支气管通道204的最大半径或支气管通道204的任何其他适当的特征。在其他实施例中,半径R1(或任何其他调整因子,诸如预定的“缓冲”距离,乃至沿着圆柱形联动单元304的变化的半径)可以被添加到以上任何支气管通道相关的半径。
图7为示出用于将器械154的三维点P对齐到支气管通道的方法的流程图400。例如,如图3a所示,当包括来自形状传感器和/或EM传感器的信息的追踪系统信息将包括点P的器械的一部分安置在支气管通道外部时,该方法可以用于校正器械在点P的图像。最初,确认连接的解剖结构在患者解剖结构的存储图像中。连接的解剖结构包括分岔的解剖通道,其中每个通道连接到至少一个其他通道。如上所述,多个柱形联动单元被生成,以表示连接的解剖结构。
在步骤402,确认点P对齐到支气管通道。点P已被确认为在支气管器械上的点,其中该支气管器械已经被追踪到支气管通道的外部的位置。在一些实施例中,点P可以是支气管器械的远端的尖端,但在可替代的实施例中,点P可以是沿着在支气管通道内的器械的任何点。在步骤404,确定到点P最接近的柱形联动单元304-316。例如,为确定点P和每个柱形联动单元304-316之间的距离,首先确定点P相对于柱形联动单元的大体位置。因为要计算的距离为点P和每个单元的圆柱体中心线上的最接近点之间的距离,所以要考虑点P相对于柱形联动单元中的每个单元的大体位置,其中所述点包括基点BP0和BP1。
参考图8,点P可以是相对于柱形联动单元304的三个位置中的其中之一。第一,点P可以是在区域A中靠近BP0的PA。第二,点P可以是在区域B中在BP0和BP1之间的PB。第三,点P可以是在区域C中靠近BP1的PC。为确定点P位于其中的区域,计算从BP0到BP1的单位方向向量V和从BP0到P的向量的内积。如果内积小于零,则P最靠近BP0(区域A)。如果内积在BP0和BP1之间,则P靠近BP1(区域C)。如果内积是其他情况,则P大约在BP0和BP1之间的中点处。在点P相对于柱形联动单元304的位置确定之后,计算从P到中心线322上的最接近点的距离。对于柱形联动单元304-316中的每个均执行点P位置和距离的确定。具有到P最短距离的柱形联动单元304-316被认为是最接近的柱形联动单元。进一步的处理仅对这些最接近的柱形联动单元执行。在一个实施例中,可以选择最接近的五个柱形联动单元,但在其他实施例中,更多或更少的单元可以是合适的。
在步骤406处,针对到点P最接近的柱形联动单元,执行搜索以便为最接近的柱形联动单元中的每个确认解剖中心线上的最接近点。在为最接近的柱形联动单元中的每个确定解剖中心线上的最接近的点之后,选择具有最接近的整体解剖中心线点Pi的柱形联动单元。
在步骤408处并且参考图9,确定沿着最接近的柱形联动单元的解剖中心线的最终点Pf。更具体地,执行精细计算以确定最终点Pf是否在两个中心线点Pi和Pi+1之间,或是否在Pi和Pi-1之间。在最终点Pf确定之后,点P沿着直线朝向Pf投射,直到其符合围绕Pf的球体,其中该球体的半径近似等于支气管通道在Pf处的直径。点PS表示点P将对齐的支气管通道的壁上的位置。
在步骤410,估计点P以确定其是在柱形联动单元的外部还是在柱形联动单元的内部。如果点P在柱形联动单元的内部,则在步骤412处,器械图像上的点P的渲染图像保持在共同配准的肺的图像上的支气管通道内。如果点P在柱形联动单元的外部,则在步骤414,器械图像上的点P的渲染图像被调整或对齐到沿P和Pf之间的投射的点PS,在PS投射与支气管通道的壁相交。在步骤416,准备描绘人肺152的图像151的校正图像合成图像150,其中人肺152的图像151与校正的器械图像154配准。在校正的图像中,点P被对齐到支气管通道而不是延伸到支气管壁外部。
与“蛮力”方法相比,所描述的系统和方法可以节省时间和计算机处理资源,其中蛮力方法试图通过全面考虑沿着支气管通道壁的每个点或在沿着支气管通道的中心线的每个点,直接将点P对齐到正确的支气管通道。例如,与使用蛮力方法的210μs的对齐过程时间相比,使用本公开方法的对齐过程的时间可以约为35μs。
用于将柔性器械的至少一部分的图像配准到解剖系统图像的可替代的系统和方法被公开在披露了“使用形状传感的变形补偿的系统和方法(Systems and Methods forDeformation Compensation Using Shape Sensing)”的美国专利申请(参考编号ISRG04300)和披露了“使用快速姿态搜索的医疗设备配准的系统和方法(Systems andMethods for Registration of a Medical Device Using Rapid Pose Search)”的美国专利申请(参考编号ISRG03740)中,以上两个专利的全部内容通过引用的方式并入本文。通过引用的系统和方法被并入的方面可以与以上公开的系统和方法一起使用,以提供将柔性器械的至少一部分的图像与解剖系统的图像准确配准的可替代的方法。
尽管本文已经关于远程操作手术系统或手动操作手术系统描述了配准系统和方法,但这些配准系统和方法将在各种医疗器械或非医疗器械中获得应用,否则在医疗器械或非医疗器械中准确的器械图像配准就太耗费时间或者计算机处理太密集。
尽管本公开的系统和方法已经示出用于在肺的连接支气管通道中使用,但在包括结肠、肠、肾脏、大脑、心脏、循环系统等的各种解剖系统中的任何一个中经由自然的连接通道或手术创建的连接通道,它们也适合于其他组织的导航和处理。本公开的方法和实施例也适合于非手术应用。
在该发明的实施例中的一个或多个元件可以以软件实施,以在诸如控制系统116的计算机系统的处理器上执行。当以软件实施时,该发明的实施例的元件本质上为执行必要任务的代码段。程序或代码段可以被存储在处理器可读存储介质或设备中,该程序或代码段已经通过计算机数据信号的方式被下载,其中计算机数据信号体现为在传输介质或通信链路上的载波。处理器可读存储设备可以包括能够储存包括光介质、半导体介质和磁介质信息的任何介质。处理器可读存储设备示例包括电子电路、半导体设备、半导体存储器设备、只读存储器(ROM)、闪存、可擦除可编程只读存储器(EPROM);软磁盘、CD-ROM、光盘、硬盘或其他存储设备。代码段可以经由诸如互联网、内联网等的计算机网络下载。
注意,所提出的过程和显示不可与任何特定的计算机或其他装置内在地相关。依照本文的教导,各种通用的系统可以与程序一起使用,或其可以证明便于构建更专用的装置,以执行所描述的操作。用于各种这些系统的所需结构在权利要求中将表现为元件。此外,该发明的实施例未参考任何特定的编程语言描述。应该清楚,如在本文所述的,各种编程语言均可以用于实施该发明的教导。
虽然已经描述并且在附图中示出了本发明的某些示例性实施例,但应该明白,此类实施例仅为说明的目的而非限制广泛的发明,并且由于本领域的技术人员可以想到各种其他的修改,所以本发明的实施例并非限于示出和描述的构造和布置。
尽管上述实施例使用柱形联动装置来模拟解剖结构,但本领域的技术人员应该了解如何在不脱离本发明精神的情况下使用具有良好限定表面的额外边界表面联动装置。例如,可以使用椭圆体联动装置、双曲线联动装置、类球体联动装置。通常,边界包络型的良好限定表面可以用于以上实施例中的任何一个。
Claims (5)
1.一种医疗系统,其包括:
包括传感器的柔性器械,所述传感器适于提供所述器械上的点的追踪数据;
存储患者解剖结构的图像的存储器;以及
处理器,其被配置用于:
生成所述患者解剖结构的一组连接通道的图像;
将所述患者解剖结构的所述一组连接通道建模为联接的有界表面单元的结构;
接收所述器械上的所述点的位置信息,该位置信息指示所述点相对于所述连接通道的位置;
生成所述点的调整位置信息,包括在联接的有界表面单元的结构中识别与所述点最接近的联接有界表面单元;
用所述调整位置信息创建调整的器械图像;以及
生成合成图像,该合成图像包括该组连接通道的图像和所述调整的器械图像。
2.根据权利要求1所述的系统,其中生成该组连接通道的所述图像的步骤包括将术前医疗图像接收到所述存储器中。
3.根据权利要求1所述的系统,其中接收所述器械上的所述点的位置信息的步骤包括接收来自定位所述器械上的所述点的传感器的位置信息,其中所述器械在所述患者解剖结构的所述连接通道中的每个通道的外部。
4.根据权利要求1所述的系统,其中接收所述器械上的所述点的位置信息的步骤包括接收来自定位所述器械上的所述点的传感器的位置信息,其中所述器械在所述连接通道中的一个连接通道内。
5.根据权利要求1所述的系统,其中生成所述点的调整位置信息的步骤进一步包括将所述点的所述位置信息改变到在所述最接近的联接的有界表面单元的壁上的位置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261646654P | 2012-05-14 | 2012-05-14 | |
US61/646,654 | 2012-05-14 | ||
CN201380025128.7A CN104302241B (zh) | 2012-05-14 | 2013-05-13 | 用于使用减小的搜索空间的医疗设备的配准系统和方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380025128.7A Division CN104302241B (zh) | 2012-05-14 | 2013-05-13 | 用于使用减小的搜索空间的医疗设备的配准系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109452930A CN109452930A (zh) | 2019-03-12 |
CN109452930B true CN109452930B (zh) | 2021-10-29 |
Family
ID=49549153
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811154341.9A Active CN109452930B (zh) | 2012-05-14 | 2013-05-13 | 用于使用减小的搜索空间的医疗设备的配准系统和方法 |
CN201380025128.7A Active CN104302241B (zh) | 2012-05-14 | 2013-05-13 | 用于使用减小的搜索空间的医疗设备的配准系统和方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380025128.7A Active CN104302241B (zh) | 2012-05-14 | 2013-05-13 | 用于使用减小的搜索空间的医疗设备的配准系统和方法 |
Country Status (6)
Country | Link |
---|---|
US (6) | US10299698B2 (zh) |
EP (2) | EP3524184B1 (zh) |
JP (1) | JP6386998B2 (zh) |
KR (1) | KR102214145B1 (zh) |
CN (2) | CN109452930B (zh) |
WO (1) | WO2013173227A1 (zh) |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8218847B2 (en) | 2008-06-06 | 2012-07-10 | Superdimension, Ltd. | Hybrid registration method |
US10299698B2 (en) | 2012-05-14 | 2019-05-28 | Intuitive Surgical Operations, Inc. | Systems and methods for registration of a medical device using a reduced search space |
US10039473B2 (en) | 2012-05-14 | 2018-08-07 | Intuitive Surgical Operations, Inc. | Systems and methods for navigation based on ordered sensor records |
EP3470003A3 (en) | 2012-05-14 | 2019-04-24 | Intuitive Surgical Operations Inc. | Systems for deformation compensation using shape sensing |
US20140267330A1 (en) * | 2013-03-14 | 2014-09-18 | Volcano Corporation | Systems and methods for managing medical image data for multiple users |
US9592095B2 (en) | 2013-05-16 | 2017-03-14 | Intuitive Surgical Operations, Inc. | Systems and methods for robotic medical system integration with external imaging |
US9763741B2 (en) * | 2013-10-24 | 2017-09-19 | Auris Surgical Robotics, Inc. | System for robotic-assisted endolumenal surgery and related methods |
JP6431678B2 (ja) * | 2014-03-20 | 2018-11-28 | オリンパス株式会社 | 挿入形状検出装置 |
US10912523B2 (en) | 2014-03-24 | 2021-02-09 | Intuitive Surgical Operations, Inc. | Systems and methods for anatomic motion compensation |
US9633431B2 (en) | 2014-07-02 | 2017-04-25 | Covidien Lp | Fluoroscopic pose estimation |
US9603668B2 (en) | 2014-07-02 | 2017-03-28 | Covidien Lp | Dynamic 3D lung map view for tool navigation inside the lung |
US9974525B2 (en) | 2014-10-31 | 2018-05-22 | Covidien Lp | Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same |
EP3037056B1 (en) | 2014-12-23 | 2021-04-21 | Stryker European Holdings I, LLC | System for reconstructing a trajectory of an optical fiber |
US10674982B2 (en) | 2015-08-06 | 2020-06-09 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US10702226B2 (en) | 2015-08-06 | 2020-07-07 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US10716525B2 (en) | 2015-08-06 | 2020-07-21 | Covidien Lp | System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction |
US9652862B1 (en) * | 2015-10-23 | 2017-05-16 | Wisconsin Alumni Research Foundation | System and method for dynamic device tracking using medical imaging systems |
US10827930B2 (en) * | 2016-02-26 | 2020-11-10 | Niramai Health Analytix Pvt Ltd | Privacy booth for breast cancer screening |
US20180049808A1 (en) * | 2016-08-17 | 2018-02-22 | Covidien Lp | Method of using soft point features to predict breathing cycles and improve end registration |
US11350995B2 (en) | 2016-10-05 | 2022-06-07 | Nuvasive, Inc. | Surgical navigation systems and methods |
EP3576663A4 (en) * | 2017-02-01 | 2020-12-23 | Intuitive Surgical Operations Inc. | IMAGE GUIDED PROCEDURE RECORDING SYSTEMS AND METHODS |
US11793579B2 (en) | 2017-02-22 | 2023-10-24 | Covidien Lp | Integration of multiple data sources for localization and navigation |
JP6745748B2 (ja) * | 2017-03-16 | 2020-08-26 | 富士フイルム株式会社 | 内視鏡位置特定装置、その作動方法およびプログラム |
US10699448B2 (en) | 2017-06-29 | 2020-06-30 | Covidien Lp | System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data |
CN111163697B (zh) | 2017-10-10 | 2023-10-03 | 柯惠有限合伙公司 | 用于在荧光三维重构中识别和标记目标的系统和方法 |
US11116420B2 (en) * | 2017-12-26 | 2021-09-14 | Biosense Webster (Israel) Ltd. | Monitoring distance to selected anatomical structures during a procedure |
WO2019134898A1 (en) | 2018-01-02 | 2019-07-11 | Koninklijke Philips N.V. | Animated position display of an oss interventional device |
US10930064B2 (en) | 2018-02-08 | 2021-02-23 | Covidien Lp | Imaging reconstruction system and method |
US10893842B2 (en) | 2018-02-08 | 2021-01-19 | Covidien Lp | System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target |
US10905498B2 (en) | 2018-02-08 | 2021-02-02 | Covidien Lp | System and method for catheter detection in fluoroscopic images and updating displayed position of catheter |
US11373330B2 (en) * | 2018-03-27 | 2022-06-28 | Siemens Healthcare Gmbh | Image-based guidance for device path planning based on penalty function values and distances between ROI centerline and backprojected instrument centerline |
WO2019222395A1 (en) * | 2018-05-16 | 2019-11-21 | Intuitive Surgical Operations, Inc. | System and method for hybrid control using eye tracking |
KR20210018858A (ko) * | 2018-05-31 | 2021-02-18 | 아우리스 헬스, 인코포레이티드 | 관상 네트워크의 경로-기반 내비게이션 |
US11705238B2 (en) | 2018-07-26 | 2023-07-18 | Covidien Lp | Systems and methods for providing assistance during surgery |
US11071591B2 (en) | 2018-07-26 | 2021-07-27 | Covidien Lp | Modeling a collapsed lung using CT data |
US11944388B2 (en) | 2018-09-28 | 2024-04-02 | Covidien Lp | Systems and methods for magnetic interference correction |
US11877806B2 (en) | 2018-12-06 | 2024-01-23 | Covidien Lp | Deformable registration of computer-generated airway models to airway trees |
US11045075B2 (en) | 2018-12-10 | 2021-06-29 | Covidien Lp | System and method for generating a three-dimensional model of a surgical site |
US11617493B2 (en) | 2018-12-13 | 2023-04-04 | Covidien Lp | Thoracic imaging, distance measuring, surgical awareness, and notification system and method |
US11801113B2 (en) | 2018-12-13 | 2023-10-31 | Covidien Lp | Thoracic imaging, distance measuring, and notification system and method |
US10973579B2 (en) | 2018-12-28 | 2021-04-13 | Industrial Technology Research Institute | Optical system |
US11357593B2 (en) | 2019-01-10 | 2022-06-14 | Covidien Lp | Endoscopic imaging with augmented parallax |
US11625825B2 (en) | 2019-01-30 | 2023-04-11 | Covidien Lp | Method for displaying tumor location within endoscopic images |
US11925333B2 (en) | 2019-02-01 | 2024-03-12 | Covidien Lp | System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network |
US11564751B2 (en) | 2019-02-01 | 2023-01-31 | Covidien Lp | Systems and methods for visualizing navigation of medical devices relative to targets |
US11744643B2 (en) | 2019-02-04 | 2023-09-05 | Covidien Lp | Systems and methods facilitating pre-operative prediction of post-operative tissue function |
US11819285B2 (en) | 2019-04-05 | 2023-11-21 | Covidien Lp | Magnetic interference detection systems and methods |
US11269173B2 (en) | 2019-08-19 | 2022-03-08 | Covidien Lp | Systems and methods for displaying medical video images and/or medical 3D models |
US11864935B2 (en) | 2019-09-09 | 2024-01-09 | Covidien Lp | Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures |
US11931111B2 (en) | 2019-09-09 | 2024-03-19 | Covidien Lp | Systems and methods for providing surgical guidance |
US11627924B2 (en) | 2019-09-24 | 2023-04-18 | Covidien Lp | Systems and methods for image-guided navigation of percutaneously-inserted devices |
CN111685895B (zh) * | 2019-10-29 | 2021-07-20 | 成都博恩思医学机器人有限公司 | 一种手术机器人的手术器械类型自动识别系统 |
US11380060B2 (en) | 2020-01-24 | 2022-07-05 | Covidien Lp | System and method for linking a segmentation graph to volumetric data |
US11847730B2 (en) | 2020-01-24 | 2023-12-19 | Covidien Lp | Orientation detection in fluoroscopic images |
US11950950B2 (en) | 2020-07-24 | 2024-04-09 | Covidien Lp | Zoom detection and fluoroscope movement detection for target overlay |
WO2022146996A1 (en) * | 2020-12-30 | 2022-07-07 | Intuitive Surgical Operations, Inc. | Systems for updating a graphical user interface based upon intraoperative imaging |
US20230053189A1 (en) * | 2021-08-11 | 2023-02-16 | Terumo Cardiovascular Systems Corporation | Augmented-reality endoscopic vessel harvesting |
WO2023183806A1 (en) * | 2022-03-24 | 2023-09-28 | Intuitive Surgical Operations, Inc. | Systems for planning and providing navigation guidance for anatomic lumen treatment |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1612708A (zh) * | 2002-07-31 | 2005-05-04 | 奥林巴斯株式会社 | 内窥镜装置 |
CN1874716A (zh) * | 2003-10-31 | 2006-12-06 | 奥林巴斯株式会社 | 插入支持系统 |
WO2009064715A1 (en) * | 2007-11-14 | 2009-05-22 | Auckland Uniservices Limited | Method for multi-scale meshing of branching biological structures |
EP2123216A1 (en) * | 2008-05-23 | 2009-11-25 | Olympus Medical Systems Corporation | Bronchoscope |
CN101809618A (zh) * | 2007-10-01 | 2010-08-18 | 皇家飞利浦电子股份有限公司 | 对介入工具的探测和跟踪 |
WO2012035492A1 (en) * | 2010-09-15 | 2012-03-22 | Koninklijke Philips Electronics N.V. | Robotic control of an endoscope from blood vessel tree images |
CN102883651A (zh) * | 2010-01-28 | 2013-01-16 | 宾夕法尼亚州研究基金会 | 可应用于支气管镜引导的基于图像的全局配准系统和方法 |
CN102949240A (zh) * | 2011-08-26 | 2013-03-06 | 高欣 | 一种影像导航肺部介入手术系统 |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5920319A (en) * | 1994-10-27 | 1999-07-06 | Wake Forest University | Automatic analysis in virtual endoscopy |
WO1998036236A1 (en) | 1997-02-13 | 1998-08-20 | Super Dimension Ltd. | Six-degree tracking system |
GB9713018D0 (en) | 1997-06-20 | 1997-08-27 | Secr Defence | Optical fibre bend sensor |
DE10117751A1 (de) | 2001-04-09 | 2002-11-21 | Siemens Ag | Modellierung von Momentanzuständen medizinischer Objekte in Abhängigkeit von zumindest einer Messgröße |
CN1658789A (zh) | 2002-04-17 | 2005-08-24 | 超级测量有限公司 | 内窥镜结构和用于引导到分枝组织中一目标的技术 |
US6892090B2 (en) | 2002-08-19 | 2005-05-10 | Surgical Navigation Technologies, Inc. | Method and apparatus for virtual endoscopy |
EP1643906A2 (en) | 2003-06-12 | 2006-04-12 | University of Utah Research Foundation | Apparatus, systems and methods for diagnosing carpal tunnel syndrome |
US7822461B2 (en) * | 2003-07-11 | 2010-10-26 | Siemens Medical Solutions Usa, Inc. | System and method for endoscopic path planning |
US20070274579A1 (en) * | 2003-11-26 | 2007-11-29 | Viatronix Incorporated | System And Method For Optimization Of Vessel Centerlines |
US7901348B2 (en) | 2003-12-12 | 2011-03-08 | University Of Washington | Catheterscope 3D guidance and interface system |
WO2005084542A1 (en) * | 2004-03-04 | 2005-09-15 | Agency For Science, Technology And Research | Apparatus for medical and/or simulation procedures |
US20060013523A1 (en) | 2004-07-16 | 2006-01-19 | Luna Innovations Incorporated | Fiber optic position and shape sensing device and method relating thereto |
DE102004043695B4 (de) * | 2004-09-09 | 2006-09-28 | Siemens Ag | Verfahren zur einfachen geometrischen Visualisierung tubulärer anatomischer Strukturen |
EP1820156B1 (en) | 2004-11-29 | 2017-09-13 | Koninklijke Philips N.V. | Multi-component vessel segmentation |
CN101065052B (zh) * | 2004-12-27 | 2010-12-22 | 奥林巴斯株式会社 | 医疗图像处理装置和医疗图像处理方法 |
WO2006078678A2 (en) | 2005-01-18 | 2006-07-27 | Traxtal Inc. | Method and apparatus for guiding an instrument to a target in the lung |
US7970189B2 (en) * | 2005-02-11 | 2011-06-28 | Koninklijke Philips Electronics N.V. | Method of automatic extraction of the pulmonary artery tree from 3D medical images |
US7646903B2 (en) * | 2005-06-22 | 2010-01-12 | Siemens Medical Solutions Usa, Inc. | System and method for path based tree matching |
US7930065B2 (en) | 2005-12-30 | 2011-04-19 | Intuitive Surgical Operations, Inc. | Robotic surgery system including position sensors using fiber bragg gratings |
JP4822142B2 (ja) | 2006-05-02 | 2011-11-24 | 国立大学法人名古屋大学 | 内視鏡挿入支援システム及び内視鏡挿入支援方法 |
US8270693B2 (en) | 2007-04-03 | 2012-09-18 | M2S | Anatomical visualization and measurement system |
ES2511033T3 (es) * | 2008-02-12 | 2014-10-22 | Covidien Lp | Sistema de orientación de perspectiva controlada |
US8219179B2 (en) * | 2008-03-06 | 2012-07-10 | Vida Diagnostics, Inc. | Systems and methods for navigation within a branched structure of a body |
US8270694B2 (en) * | 2008-04-23 | 2012-09-18 | Aditya Koolwal | Systems, methods and devices for correlating reference locations using image data |
JP5836267B2 (ja) * | 2009-05-18 | 2015-12-24 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 電磁追跡内視鏡システムのためのマーカーなし追跡の位置合わせおよび較正のための方法およびシステム |
US8675940B2 (en) * | 2009-10-27 | 2014-03-18 | Siemens Aktiengesellschaft | Generation of moving vascular models and blood flow analysis from moving vascular models and phase contrast MRI |
WO2011102012A1 (ja) | 2010-02-22 | 2011-08-25 | オリンパスメディカルシステムズ株式会社 | 医療機器 |
US8526699B2 (en) * | 2010-03-12 | 2013-09-03 | Siemens Aktiengesellschaft | Method and system for automatic detection and classification of coronary stenoses in cardiac CT volumes |
JP6099562B2 (ja) | 2010-07-29 | 2017-03-22 | シンク−アールエックス,リミティド | 管腔内データおよび管腔外画像化の併用 |
US8764683B2 (en) * | 2010-12-29 | 2014-07-01 | Mediguide Ltd. | Medical device guidewire with a position sensor |
US8900131B2 (en) | 2011-05-13 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery |
US8827934B2 (en) | 2011-05-13 | 2014-09-09 | Intuitive Surgical Operations, Inc. | Method and system for determining information of extrema during expansion and contraction cycles of an object |
WO2013029644A1 (en) | 2011-08-26 | 2013-03-07 | Brainlab Ag | Method or determining the shape of a surgical instrument and surgical instrument having a deformable body |
US8948487B2 (en) | 2011-09-28 | 2015-02-03 | Siemens Aktiengesellschaft | Non-rigid 2D/3D registration of coronary artery models with live fluoroscopy images |
US10299698B2 (en) | 2012-05-14 | 2019-05-28 | Intuitive Surgical Operations, Inc. | Systems and methods for registration of a medical device using a reduced search space |
EP2849668B1 (en) | 2012-05-14 | 2018-11-14 | Intuitive Surgical Operations Inc. | Systems and methods for registration of a medical device using rapid pose search |
EP3470003A3 (en) | 2012-05-14 | 2019-04-24 | Intuitive Surgical Operations Inc. | Systems for deformation compensation using shape sensing |
US10039473B2 (en) | 2012-05-14 | 2018-08-07 | Intuitive Surgical Operations, Inc. | Systems and methods for navigation based on ordered sensor records |
US11471082B2 (en) | 2017-12-13 | 2022-10-18 | Medtronic Minimed, Inc. | Complex redundancy in continuous glucose monitoring |
-
2013
- 2013-05-13 US US13/892,871 patent/US10299698B2/en active Active
- 2013-05-13 KR KR1020147030358A patent/KR102214145B1/ko active IP Right Grant
- 2013-05-13 US US13/893,040 patent/US10154800B2/en active Active
- 2013-05-13 CN CN201811154341.9A patent/CN109452930B/zh active Active
- 2013-05-13 WO PCT/US2013/040775 patent/WO2013173227A1/en active Application Filing
- 2013-05-13 CN CN201380025128.7A patent/CN104302241B/zh active Active
- 2013-05-13 EP EP19164298.2A patent/EP3524184B1/en active Active
- 2013-05-13 JP JP2015512720A patent/JP6386998B2/ja active Active
- 2013-05-13 EP EP13791626.8A patent/EP2849670B1/en active Active
-
2018
- 2018-11-16 US US16/193,997 patent/US11375919B2/en active Active
-
2019
- 2019-05-03 US US16/402,531 patent/US11266327B2/en active Active
-
2022
- 2022-02-01 US US17/590,667 patent/US11737682B2/en active Active
-
2023
- 2023-06-21 US US18/339,178 patent/US20240049980A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1612708A (zh) * | 2002-07-31 | 2005-05-04 | 奥林巴斯株式会社 | 内窥镜装置 |
CN1874716A (zh) * | 2003-10-31 | 2006-12-06 | 奥林巴斯株式会社 | 插入支持系统 |
CN101809618A (zh) * | 2007-10-01 | 2010-08-18 | 皇家飞利浦电子股份有限公司 | 对介入工具的探测和跟踪 |
WO2009064715A1 (en) * | 2007-11-14 | 2009-05-22 | Auckland Uniservices Limited | Method for multi-scale meshing of branching biological structures |
EP2123216A1 (en) * | 2008-05-23 | 2009-11-25 | Olympus Medical Systems Corporation | Bronchoscope |
CN102883651A (zh) * | 2010-01-28 | 2013-01-16 | 宾夕法尼亚州研究基金会 | 可应用于支气管镜引导的基于图像的全局配准系统和方法 |
WO2012035492A1 (en) * | 2010-09-15 | 2012-03-22 | Koninklijke Philips Electronics N.V. | Robotic control of an endoscope from blood vessel tree images |
CN102949240A (zh) * | 2011-08-26 | 2013-03-06 | 高欣 | 一种影像导航肺部介入手术系统 |
Also Published As
Publication number | Publication date |
---|---|
US10299698B2 (en) | 2019-05-28 |
US11375919B2 (en) | 2022-07-05 |
US20190175060A1 (en) | 2019-06-13 |
US20240049980A1 (en) | 2024-02-15 |
EP2849670A1 (en) | 2015-03-25 |
US11266327B2 (en) | 2022-03-08 |
US10154800B2 (en) | 2018-12-18 |
JP2015519130A (ja) | 2015-07-09 |
US20130303890A1 (en) | 2013-11-14 |
US20220151508A1 (en) | 2022-05-19 |
US20190320937A1 (en) | 2019-10-24 |
EP3524184B1 (en) | 2021-02-24 |
KR20150017326A (ko) | 2015-02-16 |
WO2013173227A1 (en) | 2013-11-21 |
US20130303894A1 (en) | 2013-11-14 |
US11737682B2 (en) | 2023-08-29 |
CN109452930A (zh) | 2019-03-12 |
CN104302241B (zh) | 2018-10-23 |
EP2849670B1 (en) | 2019-03-27 |
EP2849670A4 (en) | 2016-08-17 |
CN104302241A (zh) | 2015-01-21 |
KR102214145B1 (ko) | 2021-02-09 |
JP6386998B2 (ja) | 2018-09-05 |
EP3524184A1 (en) | 2019-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11737682B2 (en) | Systems and methods for registration of a medical device using a reduced search space | |
US11896364B2 (en) | Systems and methods for registration of multiple vision systems | |
JP7072603B2 (ja) | 手術中のセグメンテーションについてのシステム及び方法 | |
JP6666379B2 (ja) | 形状センシングを使用した変形補償のためのシステム及び方法 | |
US10376178B2 (en) | Systems and methods for registration of a medical device using rapid pose search | |
JP2020022865A (ja) | 介入器具を追跡するための形状センサーシステム及びこのシステムの使用方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |