CN110192917B - 用于执行经皮导航规程的系统和方法 - Google Patents

用于执行经皮导航规程的系统和方法 Download PDF

Info

Publication number
CN110192917B
CN110192917B CN201910141175.7A CN201910141175A CN110192917B CN 110192917 B CN110192917 B CN 110192917B CN 201910141175 A CN201910141175 A CN 201910141175A CN 110192917 B CN110192917 B CN 110192917B
Authority
CN
China
Prior art keywords
needle assembly
trackable needle
surgical instrument
trackable
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910141175.7A
Other languages
English (en)
Other versions
CN110192917A (zh
Inventor
W·S·克里姆斯基
J·B·斯托派克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Covidien LP
Original Assignee
Covidien LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Covidien LP filed Critical Covidien LP
Publication of CN110192917A publication Critical patent/CN110192917A/zh
Application granted granted Critical
Publication of CN110192917B publication Critical patent/CN110192917B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/018Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor for receiving instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • A61B1/051Details of CCD assembly
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • A61B1/053Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion being detachable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3614Image-producing devices, e.g. surgical cameras using optical fibre
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • Human Computer Interaction (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Surgical Instruments (AREA)

Abstract

本发明题为“用于执行经皮导航规程的系统和方法”。本发明提供了一种用于执行经皮导航规程的方法。跟踪超声传感器的位置。可跟踪针组件被导航到目标并且跟踪所述可跟踪针组件的所述位置。接收来自能够操作地耦合到所述可跟踪针组件的相机的图像。跟踪插入穿过所述可跟踪针的内腔的外科器械的位置。所述超声传感器、所述可跟踪针组件和所述外科器械中的每一者的所跟踪的位置相对于彼此显示。

Description

用于执行经皮导航规程的系统和方法
背景技术
技术领域
本公开涉及用于规划和执行经皮导航规程或外科手术的系统、方法和设备,并且更具体地,涉及用于使用可跟踪针组件作为端口执行经皮导航规程或外科手术的系统和方法。
相关领域
对患者的身体的超声扫描通常用于确认外科工具在患者的身体内的治疗位置处的放置。然而,一旦开始治疗或外科手术,就无法预测或确认外科工具相对于患者的身体内的治疗位置的放置。本公开提供了系统和方法,所述系统和方法为用户提供了确认/可视化外科工具相对于患者的身体内的治疗位置的放置的能力。
发明内容
本发明提供了一种用于执行经皮导航规程的方法。跟踪超声传感器的位置。将可跟踪针组件导航到目标并且跟踪可跟踪针组件的位置。接收来自能够操作地耦合到可跟踪针组件的相机的图像。插入穿过可跟踪针的内腔的外科器械的位置被跟踪或者从可跟踪针组件的位置信息导出。超声传感器、可跟踪针组件和外科器械中的每一者的所跟踪的位置相对于彼此显示。
跟踪超声传感器、可跟踪针组件和外科器械的位置包括生成电磁场并感测来自超声传感器、可跟踪针组件和外科器械中的每一者的电磁信号。
在本公开的一个方面,随着超声相对于患者的身体移动,更新超声传感器的所跟踪的位置。此外,随着可跟踪针组件相对于患者的身体移动,更新可跟踪针组件的所跟踪的位置。随着外科器械相对于患者的身体移动,还更新外科器械的所跟踪的位置。导航可跟踪针组件包括将可跟踪针组件经由皮肤插入到患者的身体中。
在本公开的另一方面,用于执行经皮导航规程的方法还包括加载与治疗规划相关的数据。
在本公开的又一方面,用于执行经皮导航规程的方法还包括显示引导以在患者的身体的实时超声图像上将可跟踪针组件定位到与目标的期望接近度。
用于执行经皮导航规程的方法还包括显示引导以在患者的身体的实时超声图像上将外科器械导航到目标。
用于执行经皮导航规程的方法还包括显示用于治疗目标的指令。
在本公开的一个方面,用于执行经皮导航规程的方法还包括显示从能够操作地耦合到可跟踪针组件的相机所接收的图像。当可跟踪针组件被导航时,从能够操作地耦合到可跟踪针组件的相机所接收的图像的显示被连续更新。
用于执行经皮导航规程的系统包括可跟踪针组件、外科器械、超声传感器和计算设备。可跟踪针组件包括设置在其上的跟踪传感器,并且限定穿过其中的内腔。相机,该相机附接到可跟踪针组件,该相机被配置为捕获视频或图像。外科器械包括设置在其上的跟踪传感器,并且被配置为插入穿过可跟踪针组件的内腔。计算设备被配置为跟踪超声传感器、可跟踪针组件和外科器械中的每一者的位置,并显示每一者相对于彼此的位置。
计算设备被配置为在超声传感器、可跟踪针组件和外科器械中的每一者移动时更新其相对于彼此的所显示的位置。
在本公开的一个方面,计算机设备被配置为接收由相机捕获的视频或图像并显示所接收的视频或图像。随着可跟踪针组件的导航,相机的所显示的视频或图像被连续更新。在一个实施方案中,可跟踪针组件的相机与可跟踪针组件一体地形成。在另一个实施方案中,可跟踪针组件的相机可拆卸地连接到可跟踪针组件。可跟踪针组件包括多个相机引导特征结构,所述多个相机引导特征结构被配置为将相机连接到可跟踪针组件。
在本公开的另一方面,电磁场发生器被配置为生成电磁场,该电磁场将由可跟踪针组件的传感器、外科器械的传感器和超声传感器的跟踪元件感测。
在不脱离本公开的范围的情况下,可以组合或修改本公开的任何上述部件、方面和/或实施方案。
附图说明
在参照附图阅读其各种实施方案的描述时,本发明所公开的系统和方法的目的和特征对于本领域的普通技术人员而言将变得显而易见,其中:
图1是根据本公开的用于执行经皮导航规程的系统的透视图,该系统包括可跟踪针组件;
图2A是根据本公开的一个方面的可跟踪针组件的透视图;
图2B是根据本公开另一方面的可跟踪针组件的透视图;
图2C是图2B中的可跟踪针组件沿图2B中所示的截面2C-2C截取的横截面;
图3是根据本公开的形成图1的系统的一部分的计算设备的示意图;
图4是根据本公开的呈现视图的用户界面的例示,该视图示出了经皮导航规程的规程阶段的设置步骤;
图5是根据本公开的呈现视图的用户界面的例示,该视图示出了经皮导航规程的规程阶段的引导步骤;
图6A是根据本公开的示出用于规划和执行经皮导航规程的方法的流程图,该经皮导航规程包括治疗规划阶段和治疗规程阶段;
图6B是根据本公开的示出用于规划和执行经皮导航规程的方法的流程图,该经皮导航规程包括治疗规划阶段和治疗规程阶段;
图7是根据本公开的呈现用于查看治疗规划的3D模型的视图的用户界面的图示;
图8是图7的用户界面的例示,示出了在3D模型上渲染的患者的皮肤的表示;
图9是根据本公开的实施方案的呈现视图的用户界面的例示,该视图示出了在3D模型中渲染的患者的肺部的表示并且包括沿着访问路线定位的可跟踪针组件的表示。
图10是示出根据本公开的治疗方法的流程图,该治疗方法包括规划阶段和规程阶段;
图11是根据本公开的呈现视图的用户界面的例示,该视图示出了在规程阶段期间可跟踪针组件的引导。并且
图12是根据本公开的呈现视图的用户界面的例示,该视图示出了在规程阶段期间外科器械的引导。
具体实施方式
本公开涉及一种增强外科部位的地理分布的系统和方法,并且有助于规划和执行经皮导航规程。可跟踪针组件的使用为临床医生提供了最佳地放置可跟踪针组件并确认可跟踪针组件的最终放置的帮助。该系统为临床医生呈现了一种改进的治疗规划方法,从最初的患者选择到目标识别和选择、目标大小设定、可跟踪针组件放置规划、路线选择的过程以创建通往目标的途径,以及查看治疗规划。然后,在执行规程期间,在放置可跟踪针组件期间可以将治疗规划用作引导,其中该系统用于跟踪可跟踪针组件在患者内的定位,并且为临床医生提供可跟踪针组件相对于目标和朝向目标的预先规划路径的定位的实时视图。
在下面的描述中,将参考经皮规程描述执行规程的系统和方法;然而,本领域的技术人员将理解,这些系统和方法可用于采用任何经皮方法执行其他类型的外科手术。本公开的范围由本公开所附的权利要求书限定。
根据本公开,经皮规程通常分为两个阶段:(1)治疗规划阶段,和(2)规程阶段。治疗规划阶段在Bharadwaj等人于2015年8月10日提交的名称为“TREATMENT PROCEDUREPLANNING SYSTEM AND METHOD”的美国专利公开No.2016/0038248中有更全面的描述,其全部内容以引用方式并入本文。下面将更全面地描述规划和规程阶段。
根据本公开的规划和规程系统可以是被配置为执行规划阶段和规程阶段两者的单一系统,或者该系统可包括用于各种阶段的单独设备和软件程序。后者的示例可以是在规划阶段期间使用具有一个或多个专用软件程序的第一计算机设备的系统,并且具有一个或多个专用软件程序的第二计算设备可从第一计算设备导入数据以在规程阶段期间使用。
现在参考图1,本公开整体涉及外科系统10,其包括包含显示器110并且定位在微波发生器102上的计算设备100、平台120、外科器械140、可跟踪针组件200和连接到超声工作台150的超声传感器130。
计算设备100可以是例如膝上型计算机、台式计算机、平板计算机或其他类似设备。计算设备100可被配置为控制电外科发生器、蠕动泵、电源和/或与系统10相关或形成该系统的一部分的任何其他附件和外围设备。显示器110被配置为输出与规程的执行相关的指令、用户界面、图像和消息。尽管显示器110被示出为计算设备100的集成部件,但是显示器110可以是与计算设备100分开的单独部件。
平台120可以是例如操作台或其他在外科规程中适用的平台。在一个方面,平台120包括结合到其中的电磁(EM)场发生器122。在另一方面,EM场发生器122是能够操作地耦合到平台120的单独部件。EM场发生器122用于在经皮规程期间生成EM场,并且形成EM跟踪系统的一部分,该EM跟踪系统用于跟踪超声传感器130、可跟踪针组件200和外科器械140相对于患者的身体的定位。EM场发生器122可包括各种部件,诸如具体设计的垫子,从而被放置于操作台或病床之下或整合至其中。此类EM跟踪系统的示例是Northern Digital Inc.所售的AURORATMEM跟踪系统。
可跟踪针组件200包括主体部分202、相机210和跟踪传感器212。主体部分202包括近侧端部204和远侧端部208。主体部分202限定内腔206,该内腔被配置为允许外科器械140穿过其中。另外,主体部分202可包括柔性部分203a和刚性部分203b。刚性部分203b可定位在柔性部分203a的远侧,并且足够刚性以允许可跟踪针组件200经皮插入到患者中。柔性部分203a可以是足够柔性的,以允许外科器械140在被插入在可跟踪针组件200内时移动。相机210可位于邻近主体部分202的远侧端部208。相机210连接到计算设备100以显示由相机210捕获的视频和/或图像。相机210可由多个光纤电缆具体体现,其中至少一个光纤电缆能够投射光并接收光以捕获图像。相机210可以是电荷耦合器件(CCD)相机,互补金属氧化物半导体(CMOS)相机或任何其他适当的相机。传感器212可位于邻近主体部分202的远侧端部208。传感器212连接到EM场发生器122和计算设备100,以跟踪和显示可跟踪针组件200在患者内的位置。
超声传感器130(诸如超声棒)可用于在经皮规程期间对患者的身体成像,以使可跟踪针组件200和外科器械140在患者的身体内的位置可视化。超声传感器130包括嵌入在超声传感器130内或附接到该超声传感器的EM跟踪元件131,例如,夹式传感器或贴式传感器。如下面进一步描述的,超声传感器130可相对于可跟踪针组件200定位,使得可跟踪针组件200相对于超声图像平面成一角度,从而使临床医生能够使可跟踪针组件200与超声图像平面和被成像对象的空间关系可视化。超声工作台150可用于配置、操作以及检视由超声传感器130所捕获的图像。
外科系统10另外包括外科器械140,该外科器械还可由计算设备100经由EM场发生器122跟踪。为此,外科器械140包括可跟踪元件,该可跟踪元件与同超声传感器130和可跟踪针组件200一起使用的可跟踪元件不同。外科器械140可通过可跟踪针组件200定位,以获得对外科部位的访问。外科器械140可以是任何类型的治疗剂、治疗或外科设备,包括例如消融设备、活检设备、标记放置设备或任何其他此类设备。
现在转到图2A至图2C,可跟踪针组件200的实施方案被示出并描述为可跟踪针组件200A(图2A)和可跟踪针组件200B(图2B)。
可跟踪针组件200A包括与其一体地形成的相机210a。相机210a可位于邻近主体202a的远侧端部208a。
可跟踪针组件200B包括相机210b和相机引导特征结构214。相机210b经由相机引导特征结构214附接到主体202b,使得相机210b邻近主体202b的远侧端部208b。相机引导特征结构214沿着可跟踪针组件200B的主体202b定位。相机引导特征结构214可以是U形按扣特征结构,其被配置为将相机210b固定到可跟踪针组件200B的主体202b(图2C)。相机引导特征结构214可以彼此均匀地间隔开以及/或者可以彼此不均匀地间隔开。
可在外科规程期间跟踪可跟踪针组件200在患者的身体内的位置。尽管示出并描述为与一个可跟踪针组件(和一个外科器械)一起使用,但应当理解,多个可跟踪针组件可与外科系统10一起使用,并且可显示多个可跟踪针组件(和外科器械)。跟踪可跟踪针组件200的位置的示例性方法是通过使用EM跟踪系统122(图1),该EM跟踪系统通过跟踪附接到或结合在可跟踪针组件200中的跟踪传感器212来跟踪可跟踪针组件200的位置。可使用各种类型的传感器,诸如印制传感器,其构造和用途在共同未决的美国专利公开No.2016/0174873(标题为“MEDICAL INSTRUMENT WITH SENSOR FOR USE IN A SYSTEM AND METHODFOR ELECTROMAGNETIC NAVIGATION”,由Greenburg等人于2015年10月22日提交)中有更全面的描述,其全文以引用方式并入本文。
图3描绘了外科系统10(图1)的计算设备100的系统图。计算设备100可包括:存储器302、处理器304、显示器306(或显示器110)、网络接口308、输入设备310以及/或者输出模块312。
存储器302包括能够由处理器304执行的用于存储数据和/或软件(例如,应用程序316)的任何非暂态计算机可读存储介质,并且其控制着计算设备100的操作。在实施方案中,存储器302可包括一个或多个固态存储设备,诸如闪存存储器芯片。存储器302可存储应用程序316和/或CT数据314。当由处理器304执行时,应用程序316可引起显示器306和/或显示器110(图1)呈现用户界面,诸如图4、图5、图7至图9、图11和图12中所示的用户界面。
处理器304可以是通用处理器,被配置为执行特定图形处理任务,同时释放通用处理器以执行其他任务的专用图形处理单元(GPU)和/或任何数量的此类处理器或此类处理器的组合。
显示器306可以是触敏的和/或声控的,使显示器306能够充当输入和输出设备。另选地,可以采用键盘(未示出)、鼠标(未示出)或其他数据输入设备。
网络接口308可被配置为连接至网络,诸如由有线网络和/或无线网络组成的局域网(LAN)、广域网(WAN)、无线移动网络、蓝牙网络以及/或者互联网。例如,计算设备100可从服务器(例如,医院服务器、互联网服务器或其他类似服务器)接收患者的计算机断层扫描(CT)图像数据314,以在规划规程阶段期间使用。还可经由可移除存储器(未示出)将患者CT图像数据314提供给计算设备100。计算设备100可经由网络接口308接收对其软件(例如,应用程序316)的更新。计算设备100还可以在显示器306上显示软件更新可用的通知。
输入设备310可以是用户可依靠其与计算设备100进行交互的任何设备,诸如例如,鼠标、键盘、脚踏板、触摸屏以及/或者语音界面。
输出模块312可包括任何连接端口或总线,诸如例如,并行端口、串行端口、通用串行总线(USB)或本领域的技术人员已知的任何其他类似的连接端口。
应用程序316可以是存储在存储器302中并且能够由计算设备100的处理器304执行的一个或多个软件程序。如下面将更详细描述的,在规划阶段期间,应用程序316引导临床医生通过一系列步骤来识别目标、目标的大小,并且/或者确定到目标的访问路线以供稍后在规程阶段期间使用。
在一些实施方案中,应用程序316被加载到操作室或执行外科规程的其他设施中的计算设备上,并且用作引导临床医生执行外科规程的平面图或地图,但没有来自规程中使用的可跟踪针组件200的任何反馈来指示可跟踪针组件200相对于平面图的位置。在其他实施方案中,系统10诸如通过EM跟踪向计算设备100提供关于可跟踪针组件200在患者的身体内的位置的数据,应用程序316然后可使用该EM跟踪来指示可跟踪针组件200在平面上的位置。应用程序316可直接安装在计算设备100上,或者可以安装在另一计算机例如中央服务器上,并且经由网络接口308在计算设备100上打开和操作。
已经描述了图1至图3中描绘的外科系统10的部件,图4至图12的以下描述提供了使用外科系统10的部件及其用户界面的示例性工作流程。本文描述的系统和方法可用于可视化患者的特定目标区域并将电磁可跟踪针组件导航到其位置。虽然方法在本文被示出和描述为按照特定次序进行且需要特定步骤,但这些方法中的任何方法可包括一些或所有这些步骤并且可按照未具体描述的任何次序具体实施。另外,尽管所述方法被描述为由计算设备100执行,但是计算设备100或外科系统10的任何部件可执行以下方法中描述的任何或所有步骤。
现在转向图4,示出了可以在显示器306和/或显示器110上显示的示例性用户界面,并且在本文中将其称为用户界面400。用户界面400示出了表示经皮规程过程的指示符402。用户界面400还包括列表404,该列表指示应该针对规程连接的各种系统部件,以及这些部件的状态。当系统部件被连接以测试该部件的功能时,提供按钮406。用户界面400还示出了表示系统、可跟踪针组件200和外科器械140的配置参数的指示符408。
现在参考图5,示例性用户界面500可以在可跟踪针组件200和/或所选择的外科器械140的引导步骤期间显示在显示器306上,或者由临床医生在任何时间选择以调整系统10的特征结构。用户界面500示出了系统现在在引导步骤中操作的指示符502。用户界面500还提供按钮504,从而允许临床医生放大和缩小显示器110上显示的模型和路径。用户界面500还提供按钮506,其使阴影条能够覆盖在显示器110上显示的路径上,其指示可跟踪针组件200和/或所选择的外科器械140的轨迹是在显示器110上显示的引导视图内的超声图像平面的前面还是后面。这使临床医生能够可视化可跟踪针组件200和/或所选择的外科器械140的投射轨迹,以及可跟踪针组件200和/或所选择的外科器械140的轨迹在超声图像平面内或与超声图像平面相关的相互作用。
用户界面500还包括按钮508,从而允许临床医生旋转显示器110上显示的引导视图。用户界面500还包括按钮510,从而允许临床医生在模型的视图与路径和实时超声图像视频馈送之间切换。用户界面500还包括按钮512,从而允许临床医生切换模型上的可跟踪针组件200和/或所选择的外科器械140的规划路径的显示,以及按钮514,从而允许临床医生切换模型上的投影治疗区相对于可跟踪针组件200和/或所选择的外科器械140的显示,以使临床医生能够相对于可跟踪针组件200和/或所选择的外科器械140可视化治疗区。治疗区也可以覆盖在超声图像上,从而允许临床医生在超声平面内可视化治疗区。治疗区可以在2D和3D治疗区模型中呈现给临床医生。
现在转到图6,示出了使用可跟踪针组件200和患者模型执行经皮规程的方法,并且将其称为方法600。方法600开始于步骤602,其中将治疗规划加载到计算设备100中。在步骤602中加载的治疗规划包括患者的身体的模型(例如,三维模型),并且可以另外包括通往一个或多个目标的路径、可能的规程以及在规程中可用的可能的外科器械。此外,在步骤602中加载的治疗规划包括根据可能的规程供可跟踪针组件200到达一个或多个目标的进入点,以及可用于该规程的可能的外科器械。
在步骤602中加载到计算设备100中的模型和治疗规划都在规划阶段期间生成。可基于在患者的CT扫描期间获取的CT图像数据生成模型,但是也可以设想其他成像模态。临床医生使用该模型在经皮规程期间选择一个或多个治疗目标。临床医生还使用该模型来选择将在经皮规程期间用于治疗的规程和外科器械。此后,计算设备100生成从每个所选择的目标到其中可以插入可跟踪针组件200的患者的身体上的进入点的路径。该路径和进入点也以避开患者的身体内任何骨骼、重要器官或其他关键结构的方式生成。在计算设备100上加载治疗规划之后,临床医生可以检视和修改治疗规划。临床医生可以进一步配置该规程的系统设置。例如,临床医生可以预先配置与在规程期间使用的各种工具相关的参数。
在步骤604,在显示器306的用户界面400(图4)上显示用于设置和配置经皮治疗系统的指令。指令可以是视觉的和/或听觉的,并且可以提供针对正确与不正确的系统配置的反馈。当已经为规程配置了系统时,临床医生可以通过选择用户界面400的按钮406来开始该规程、停止该规程、暂停该规程、恢复该规程,以及/或者重置该规程(图4)。在选择按钮406时,计算设备100开始一个或多个系统部件和/或操作。例如,应用程序316可以自动开始蠕动泵、电外科发生器和/或电源。然后,在显示器306上显示用于将可跟踪针组件200插入到患者的身体中的指令。此后,在步骤606,具有通往在规划阶段中生成的目标的路径的患者的身体的模型显示在显示器306上。
在一个实施方案中,治疗阶段类似于Medtronic目前销售的
Figure BDA0001978598240000101
系统所采用的治疗阶段,其中患者在磁场中的定位与来自规划阶段的图像配准。另外,可跟踪针组件200在电磁场中的位置参考规划的路径和患者的定位,并且更具体地关于在模型中识别和显示的目标进行检测和显示。在另一个实施方案中,显示器可显示由可跟踪针组件200的相机210捕获的实时视频。可由临床医生同时显示和考虑电磁场中的可跟踪针组件200的实时视频和跟踪。
在步骤608中,当可跟踪针组件200由临床医生导航时,可跟踪针组件200相对于患者的身体的位置由计算设备100跟踪。具体地,计算设备100利用由可跟踪针组件200的电磁发射器122(图1)和传感器212生成的定位数据来确定可跟踪针组件200的相对定位。
在步骤610中,可跟踪针组件200的位置(在步骤608中跟踪)显示在患者的身体的模型上,该模型在步骤602中被加载到计算设备100中。另外,矢量被投射为从可跟踪针组件200的端部延伸,以向临床医生提供沿着可跟踪针组件200的轨迹的交叉组织的指示。这样,临床医生可以改变插入可跟踪针组件200的方法,以便以最小量的创伤优化放置。显示器110和/或显示器306可以是分屏显示器,其中可跟踪针组件200在患者的身体模型上的所跟踪的位置(在步骤608中生成)显示在用户界面的一部分中,并且由可跟踪针组件200的相机210捕获的实时视频显示在同一用户界面的另一部分上。
此外,在步骤610中,当可跟踪针组件200沿着路径导航到目标时,计算设备100迭代地更新可跟踪针组件200在患者的身体模型上的所显示的位置。
当可跟踪针组件200已到达与目标的期望接近度时,计算设备100可自动检测可跟踪针组件200的一部分何时在距目标的给定距离内并且可将这种检测通知给临床医生。
在步骤612,从可跟踪针组件200的相机210接收视频和/或图像。相机210可在插入可跟踪针组件200之前开始捕获视频和/或图像,并且可在可跟踪针组件200移动邻近目标区域时继续捕获视频和/或图像。此后,在步骤614,计算设备100显示所接收的视频和/或图像。可以与在步骤608中生成的患者的身体的模型同时检视这些视频和/或图像。
在步骤616,计算设备100显示用于所选择的规程的指令,包括所选择的规程的步骤列表和执行所选择的规程的每个步骤所需的所选择的器械的列表。此后,在步骤618,再次显示具有通往在规划阶段中生成的目标的路径的患者的身体的模型。
在步骤620中,在导航所选择的外科器械140时,跟踪外科器械140的位置。在步骤622中,所选择的外科器械140的所跟踪的位置(来自步骤620)显示在步骤602中加载的患者的身体的模型上。另外,矢量被投射为从所选择的外科器械140的端部延伸,以沿着所选择的外科器械140的轨迹向临床医生指示交叉组织。这样,临床医生可以改变将外科器械140过渡到目标的方法,以在可跟踪针组件200的远侧端部208未到达目标的情况下使创伤最小化。
此外,在步骤622,当所选择的外科器械140沿着路径导航到目标时,所选择的外科器械140的位置被迭代地更新并显示在患者的身体的模型上。
在步骤624,当临床医生检测到所选择的外科器械140已到达目标时,用于所选择的规程的指令,包括由临床医生预先设置的用于治疗所显示的目标的所选择的外科器械140的参数,并且临床医生可选择“开始治疗”按钮以治疗目标。例如,当临床医生选择“开始治疗”时,外科器械140可以消融、提取样本,或对目标执行任何其他适当的治疗。当选择“开始治疗”按钮时,系统10可以自动开始其他相关附件和/或外围设备,诸如相关的蠕动泵。相机210的视频和/或图像以及可跟踪针组件200、外科器械140的所跟踪的位置,以及在步骤608中生成的患者的身体的模型可以在目标治疗的整个持续时间内连续更新并同时检视。
此后,在步骤626,确定治疗规划中是否还存在基于规划规程尚未治疗的目标。如果确定为是,则该过程返回到步骤618,其中更新所显示的路径以反映通往下一个目标的路径。如果确定为否,则在步骤628,显示用于从患者的身体移除所选择的外科器械140的指令。在步骤630,显示用于从患者的身体移除可跟踪针组件200的指令。在所选择的规程期间,连续存储与可跟踪针组件200、所选择的外科器械140和所选择的规程的参数相关的数据,诸如插入程度、距目标的距离、最佳三角测量、功率、时间设置和温度。另外,应用程序316可向临床医生呈现与同所选择的规程相关联的协议相关的指令,诸如工作流。
图7、图8和图10示出了可以在经皮规程期间在显示器110上显示的用户界面700的示例。3D模型702向临床医生提供患者解剖结构的表示,并且在示例性实施方案中,提供患者胸部和胸腔的表示,如图7所示。3D模型702向临床医生呈现患者解剖结构的多个层,包括例如患者的皮肤、肌肉、血管、骨骼、气道、肺部、其他内部器官或患者解剖结构的其他特征结构的表示。例如,如图7所示,患者胸腔的3D模型702,其中外层被剥离、移除或调整以向临床医生呈现包括患者肋骨704的层和包括患者内部解剖结构的其他解剖特征结构706的层。层704、706可以不同的不透明度或透明度水平呈现,以允许临床医生相对于目标区域查看患者躯干的内部。可以通过激活用户输入来旋转3D模型702,以允许临床医生以各种角度和方向检视治疗规划。临床医生还可以激活用户输入以剥离、移除或调整3D模型的每一层的不透明度和半透明度,以便为临床医生提供相对于在患者的身体内周围关键结构通往目标区域的规划进入路线的视觉表示。
如图8所示,以3D模型702呈现患者的胸部,该模型包括覆盖在患者胸腔704(图7)和其他解剖学特征结构706(图7)上的患者的皮肤707的表示,使得端点712和进入路线标记710被示出为离开患者的身体的表示。端点712和进入路线标记710还可以呈现为可跟踪针组件200、所选择的外科器械140的表示,如图9所示。
在一些实施方案中,可以在不使用在经皮规程的规划阶段期间生成的模型的情况下操作系统10。在此类实施方案中,通过使用超声图像诸如由超声传感器130生成的超声图像,引导可跟踪针组件200的放置和所选择的外科器械140的导航。在经皮规程的引导步骤期间,可跟踪针组件200、所选择的外科器械140和一个或多个目标的位置覆盖在由超声传感器130生成的超声图像上。这样,可相对于超声图像平面检视可跟踪针组件200和所选择的外科器械140的位置,以可视化可跟踪针组件200和所选择的外科器械140的轨迹。可跟踪针组件200和所选择的外科器械140的位置可由EM跟踪系统122跟踪,而一个或多个目标的位置基于在规划阶段期间生成的数据来确定。还可以从可跟踪针组件200的顶端显示矢量,示出可跟踪针组件200的轨迹并允许临床医生将可跟踪针组件200对准目标。另外,还可以从所选择的外科器械140的顶端显示矢量,示出所选择的外科器械140的轨迹并且允许临床医生将所选择的外科器械140与目标对准。下面参考图10描述根据该实施方案的执行经皮规程的示例性方法。
现在参考图10,示出了根据本公开的实施方案的用于执行经皮规程的示例性方法的流程图,并且将其称为方法1000。方法1000开始于步骤1002,其中临床医生可以使用计算设备100将与治疗规划相关的数据加载到应用程序316中。该数据可包括在患者的身体内的一个或多个目标的位置,以及通往一个或多个目标的路径。
在步骤1004,在显示器306的用户界面400(图4)上显示用于设置和配置经皮规程以及将可跟踪针组件200插入到患者的身体中的指令。另外,在显示器306的用户界面400上显示可执行以治疗患者的适当的规程的列表,以及临床医生可以在执行所选择的规程时使用的适当的外科器械的列表。可以在规划阶段期间选择规程和外科器械两者,并且将与治疗规划相关的其他数据加载到应用程序316中。另选地,可在步骤1004中选择规程和外科器械两者。在配置系统时,临床医生可经由用户界面400选择规程和外科器械。
在步骤1006中,计算设备100显示引导以将可跟踪针组件200定位到与由超声传感器130在显示器306的用户界面400上生成的超声图像上的目标的期望接近度。所显示的引导可包括用于插入不止一个可跟踪针组件200以访问一个或多个目标的指令和/或可以覆盖到超声图像上的一个或多个目标的图形图或路径。
在步骤1008中,通过计算设备110跟踪超声传感器130相对于患者的身体的位置。具体地,计算设备100利用由超声传感器130的电磁发射器122(图1)和跟踪元件131生成的定位数据来确定超声传感器130的相对定位。
在步骤1010中,超声传感器130的位置和相对定位(在步骤1008中跟踪)显示在用户界面1100上。当超声传感器130相对于患者的身体移动时,用户界面1100的显示器显示超声传感器130的更新位置和相对定位。
在步骤1012中,可跟踪针组件200由临床医生导航到与目标的期望接近度,并且跟踪患者的身体内的可跟踪针组件200的位置。在步骤1014,计算设备100在由超声传感器130生成的患者的身体的超声图像上显示可跟踪针组件200的所跟踪的位置。当可跟踪针组件200被导航到目标时,计算设备100在超声图像上显示和迭代地更新可跟踪针组件200的位置。
在步骤1016中,显示在由超声传感器130生成的超声图像上将外科器械140导航到目标的引导。所显示的引导可包括用于将外科器械140导航到一个或多个目标的指令和/或可以覆盖在超声图像上的通往一个或多个目标的图形地图或路径。
在步骤1018中,临床医生将所选择的外科器械140导航到目标。在导航所选择的外科器械140时,跟踪外科器械140在患者的身体内的位置。在步骤1020中,计算设备100在由超声传感器130生成的患者的身体的超声图像上显示外科器械140的所跟踪的位置。当外科器械140被导航到目标时,计算设备100在超声图像上显示并迭代地更新外科器械140的位置。
在步骤1022,从可跟踪针组件200的相机210接收视频和/或图像。相机210可在插入可跟踪针组件200之前开始捕获视频和/或图像,并且可在可跟踪针组件200移动邻近目标区域时继续捕获视频和/或图像。相机210的视频和/或图像可通过提供目标区域的可视化来帮助临床医生评估治疗的进展。此后,在步骤1024,计算设备100显示所接收的视频和/或图像。可与超声传感器130生成的超声图像同时检视这些视频和/或图像。
在步骤1026,当所选择的外科器械140的所跟踪的位置到达目标时,计算设备100显示用于治疗目标的指令。此后,在步骤1028,确定治疗规划中是否还存在基于规划规程尚未治疗的目标。如果步骤1028中的确定为是,则该过程返回到步骤1016,其中更新所显示的路径以反映通往下一个目标的路径。如果步骤1028中的确定为否,则计算设备100显示用于从患者的身体移除所选择的外科器械140的指令(步骤1030)。在步骤1032,应用程序显示用于从患者的身体移除可跟踪针组件200的指令。在所选择的规程期间,连续存储与可跟踪针组件200、所选择的外科器械140和所选择的规程的参数相关的数据,诸如插入程度、距目标的距离、最佳三角测量、功率、时间设置和温度。另外,可向临床医生呈现与同所选择的规程相关联的协议相关的指令,诸如工作流。
图11和图12示出了可在规程期间在显示器110上显示的示例性用户界面1100。用户界面1100包括在规程期间捕获的实时2D超声图像的视图1102。用户界面1100还示出了用于可跟踪针组件200和所选择的外科器械140的状态指示符1104以及用于超声传感器130的状态指示符1104。用户界面1100还包括视图1108,用于显示与经皮规程相关的状态消息,诸如可跟踪针组件200的插入角度、可跟踪针组件200与规划路径的未对准程度、可跟踪针组件200的深度、所选择的外科器械140的参数、所选择的规程的持续时间和/或至所选择的规程完成剩余的时间、所选择的规程的进展、来自温度传感器的反馈,以及在所选择的规程期间使用的治疗区图表(图11)。用户界面1100还包括视图1110,用于显示与经皮规程相关的瞬时消息,诸如由选择由用户界面400提供的按钮引起的变化,如上所述。用户界面1100还显示导航视图1112,其包括可跟踪针组件200(图11)的表示1114和所选择的外科器械140(图12)的表示1214,以及表示可跟踪针组件200的一部分的阴影指示符1114a(图11)和表示位于超声成像平面下方的所选择的外科器械140的部分的阴影指示符1214a(图12),分别表示可跟踪针组件200和所选择的外科器械140的轨迹的矢量线1116、1216。
进一步讨论上述描述,系统10显示临床医生/用户可见的虚拟和实时体积的创建,由此该显示可基于规程前和/或规程内成像。成像数据(甚至静态数据)可以三维显示,其中几个可跟踪工具(或可跟踪针组件)然后实时地叠加在那些图像上。这将进一步允许临床医生/用户评估诸如与其他关键结构的接近度之类的事情,或者可以进行临床评估以确认是否需要某些工具,或者由系统10向临床医生提出建议,给出用于实现规程或治疗可能需要的各种定位和角度的不同工具的几何形状。
虽然出于例示和描述的目的,已参考附图详细地描述了各种实施方案,但应当理解,本发明的方法和设备不应视为受限的。对于本领域的普通技术人员将显而易见的是,在不脱离本公开的范围的情况下可以对前述实施方案作出各种修改。

Claims (8)

1.一种用于执行经皮导航规程的系统,所述系统包括:
可跟踪针组件,所述可跟踪针组件包括设置在其上的传感器,并且限定穿过其中的内腔;
相机,所述相机附接到所述可跟踪针组件,所述相机被配置为捕获视频或图像;
外科器械,所述外科器械包括设置在其上的传感器,所述外科器械被配置为插入穿过所述可跟踪针组件的所述内腔;
超声传感器,所述超声传感器包括设置在其上的跟踪元件;以及
计算设备,所述计算设备被配置为:
跟踪所述超声传感器、所述可跟踪针组件和所述外科器械中的每一者的位置;并且
显示所述超声传感器、所述可跟踪针组件和所述外科器械中的每一者相对于彼此的所述位置,
其中在经皮导航规程期间,可跟踪针组件、所述外科器械和一个或多个目标的位置覆盖在由超声传感器生成的超声图像上。
2.根据权利要求1所述的用于执行经皮导航规程的系统,其中所述计算设备被配置为:
接收由所述相机捕获的视频或图像;并且
显示所接收的视频或图像。
3.根据权利要求2所述的用于执行经皮导航规程的系统,其中当所述可跟踪针组件被导航时,所述相机的所显示的视频或图像被连续更新。
4.根据权利要求1所述的用于执行经皮导航规程的系统,还包括电磁场发生器,所述电磁场发生器被配置为生成电磁场,所述电磁场将由所述可跟踪针组件的所述传感器、所述外科器械的所述传感器和所述超声传感器的所述跟踪元件感测。
5.根据权利要求1所述的用于执行经皮导航规程的系统,其中所述计算设备被配置为当所述超声传感器、所述可跟踪针组件和所述外科器械中的每一者移动时,更新所述超声传感器、所述可跟踪针组件和所述外科器械相对于彼此的所显示的位置。
6.根据权利要求1所述的用于执行经皮导航规程的系统,其中所述可跟踪针组件的所述相机与所述可跟踪针组件一体地形成。
7.根据权利要求1所述的用于执行经皮导航规程的系统,其中所述可跟踪针组件的所述相机可拆卸地连接到所述可跟踪针组件。
8.根据权利要求7所述的用于执行经皮导航规程的系统,其中所述可跟踪针组件包括多个相机引导特征结构,所述多个相机引导特征结构被配置为将所述相机连接到所述可跟踪针组件。
CN201910141175.7A 2018-02-26 2019-02-26 用于执行经皮导航规程的系统和方法 Active CN110192917B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/904,744 US20190262082A1 (en) 2018-02-26 2018-02-26 System and method for performing a percutaneous navigation procedure
US15/904,744 2018-02-26

Publications (2)

Publication Number Publication Date
CN110192917A CN110192917A (zh) 2019-09-03
CN110192917B true CN110192917B (zh) 2022-03-01

Family

ID=65576263

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910141175.7A Active CN110192917B (zh) 2018-02-26 2019-02-26 用于执行经皮导航规程的系统和方法

Country Status (3)

Country Link
US (1) US20190262082A1 (zh)
EP (1) EP3530221B1 (zh)
CN (1) CN110192917B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020033208A1 (en) * 2018-08-07 2020-02-13 Intuitive Surgical Operations, Inc. Multi-modal visualization in computer-assisted tele-operated surgery
CN112601495A (zh) * 2018-08-22 2021-04-02 皇家飞利浦有限公司 用于约束介入声学成像中的传感器跟踪估计的系统、设备和方法
WO2020092804A1 (en) * 2018-11-01 2020-05-07 Centaur Analytics, Inc. Predictive post-harvest stored commodity management methods
CN113952031A (zh) 2020-07-21 2022-01-21 巴德阿克塞斯系统股份有限公司 磁跟踪超声探头及生成其3d可视化的系统、方法和设备
EP4185209A1 (en) * 2020-08-04 2023-05-31 Bard Access Systems, Inc. System and method for optimized medical component insertion monitoring and imaging enhancement
US20230414297A1 (en) * 2020-10-05 2023-12-28 Costanzia S.R.L. Ultrasound image processing system and method
US20230240790A1 (en) * 2022-02-03 2023-08-03 Medtronic Navigation, Inc. Systems, methods, and devices for providing an augmented display

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7927272B2 (en) * 2006-08-04 2011-04-19 Avantis Medical Systems, Inc. Surgical port with embedded imaging device
US9179985B2 (en) * 2008-03-03 2015-11-10 Koninklijke Philips N.V. Biopsy guidance by electromagnetic tracking and photonic needle
US8670816B2 (en) * 2012-01-30 2014-03-11 Inneroptic Technology, Inc. Multiple medical device guidance
US20130250081A1 (en) * 2012-03-21 2013-09-26 Covidien Lp System and method for determining camera angles by using virtual planes derived from actual images
US9439622B2 (en) * 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US9498182B2 (en) * 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
JP6517817B2 (ja) * 2014-01-02 2019-05-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波イメージングプレーンと器具のアライメント及び追跡
WO2015193479A1 (en) * 2014-06-19 2015-12-23 KB Medical SA Systems and methods for performing minimally invasive surgery
US10643371B2 (en) 2014-08-11 2020-05-05 Covidien Lp Treatment procedure planning system and method
US10869650B2 (en) * 2014-11-06 2020-12-22 Covidien Lp System for tracking and imaging a treatment probe
WO2016081321A2 (en) * 2014-11-18 2016-05-26 C.R. Bard, Inc. Ultrasound imaging system having automatic image presentation
US20160174873A1 (en) 2014-12-22 2016-06-23 Covidien Lp Medical instrument with sensor for use in a system and method for electromagnetic navigation
US20160317231A1 (en) * 2015-04-30 2016-11-03 Covidien Lp Methods for microwave ablation planning and procedure using a three-dimensional model of a patient
DK178899B1 (en) * 2015-10-09 2017-05-08 3Dintegrated Aps A depiction system
WO2017189781A1 (en) * 2016-04-27 2017-11-02 Csa Medical, Inc. Vision preservation system for medical devices
US20200100776A1 (en) * 2017-02-09 2020-04-02 Intuitive Surgical Operations, Inc. System and method of accessing encapsulated targets

Also Published As

Publication number Publication date
EP3530221B1 (en) 2020-12-16
CN110192917A (zh) 2019-09-03
EP3530221A1 (en) 2019-08-28
US20190262082A1 (en) 2019-08-29

Similar Documents

Publication Publication Date Title
CN110192917B (zh) 用于执行经皮导航规程的系统和方法
US11793389B2 (en) Intelligent display
JP6796600B2 (ja) マイクロ波アブレーション計画及び処置システム
US11622815B2 (en) Systems and methods for providing proximity awareness to pleural boundaries, vascular structures, and other critical intra-thoracic structures during electromagnetic navigation bronchoscopy
US11596475B2 (en) Systems and methods for ultrasound image-guided ablation antenna placement
CN112040875A (zh) 基于图像的导航系统和使用相同的导航系统的方法
US20160128669A1 (en) System for tracking and imaging a treatment probe
EP3783568A2 (en) Systems and methods of fluoro-ct imaging for initial registration
WO2020257004A1 (en) Ultrasound image-based guidance of medical instruments or devices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant