CN111278381B - 对定位跟踪的介入设备的自动视场更新 - Google Patents

对定位跟踪的介入设备的自动视场更新 Download PDF

Info

Publication number
CN111278381B
CN111278381B CN201880070258.5A CN201880070258A CN111278381B CN 111278381 B CN111278381 B CN 111278381B CN 201880070258 A CN201880070258 A CN 201880070258A CN 111278381 B CN111278381 B CN 111278381B
Authority
CN
China
Prior art keywords
image
tracking
display
interventional
interventional device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880070258.5A
Other languages
English (en)
Other versions
CN111278381A (zh
Inventor
A·托尔耶森
M·L·弗莱克斯曼
T·M·比德隆
A·潘斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of CN111278381A publication Critical patent/CN111278381A/zh
Application granted granted Critical
Publication of CN111278381B publication Critical patent/CN111278381B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00292Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery mounted on or guided by flexible, e.g. catheter-like, means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • A61B2090/3764Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT] with a rotating C-arm having a cone beam emitting source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound

Abstract

一种用于介入设备(50)的定位跟踪器驱动的显示系统,所述介入设备包括一个或多个定位跟踪器和一个或多个介入工具的集成。所述定位跟踪器驱动的显示系统采用监视器(121)和显示控制器(110),所述显示控制器用于控制对图示所述介入设备(50)的跟踪节点在解剖区域内的导航的跟踪图像在所述监视器(121)上的实时显示。所述显示控制器(110)基于指示至少一个定位跟踪器在所述解剖区域内的定位的定位跟踪数据来在图示图像空间内的所述解剖区域的多幅配准的空间图像之中自主地选择所述跟踪图像。所述显示控制器(110)根据如由所述定位跟踪数据指示的所述介入设备(50)的所述跟踪节点相对于所述图像空间的定位来导出对所述跟踪图像的所述自主选择。

Description

对定位跟踪的介入设备的自动视场更新
技术领域
本公开的发明总体上涉及基于指示介入设备在解剖区域内的定位(即,位置和/或取向)的定位跟踪技术对图示解剖区域内的介入设备的图像的实时显示。
本公开的发明更具体涉及基于介入设备在解剖区域内的定位的定位跟踪技术信息来自动更新对图示介入设备在解剖区域内的导航的图像的实时显示。
背景技术
血管内程序通常在整个程序期间依赖于荧光透视成像来跟踪介入工具在解剖区域内的定位(即,位置和/或取向),其中荧光透视成像视场在整个程序期间被手动地更新以将介入工具保持在荧光透视成像视场内。
例如,图1A图示了如被实时显示在监视器10上的血管结构12的荧光透视图像11a。随着远端部13在血管结构12内被导航,血管介入工具的远端部13(图1B)改变,其中在荧光透视图像11a中图示远端部13在荧光透视图像11a的视场内的当前定位,例如,如在图1B中图示的远端部13在荧光透视图像11a的视场内的定位的图示。相反,在荧光透视图像11a中未示出远端部13超出荧光透视图像11a的视场的定位,如在图1C中示范性地示出的。因此,当远端部13被移动超出荧光透视图像11a的视场时,荧光透视源和探测器的成像定位必须被手动地调整,以实现远端部13在更新的荧光透视图像的视场内的图示,例如,如在图1D中示出的远端部13在更新的荧光透视图像11b的视场内的定位的图示。
作为荧光透视成像跟踪的备选或补充,如在本公开的领域中已知的定位跟踪技术可以用于跟踪介入工具在解剖区域内的定位(即,位置和/或取向)。
例如,光学形状感测(OSS)技术使用沿着单芯或多芯光纤的光用于在外科手术介入期间的设备定位和导航。所涉及的原理利用在光纤中使用特征瑞利背向散射或可控光栅图案的分布式应变测量结果。沿着光纤的形状在沿着传感器的特定点(被称为起始点或z=0)处开始,并且光纤的随后的形状位置和取向是相对于该点的。
OSS光纤可以被集成到介入工具(例如,血管工具、腔内工具和矫形工具)内,以由此在微创程序(例如,血管内程序)期间经由对介入工具的监视提供实况视觉引导,其中集成的OSS光纤提供介入工具的部分或全部的定位(即,位置和/或取向)。
光纤的形状感测的关键特征在于其提供关于具有被嵌入在其中的光纤的设备的整体形状的三维(“3D”)信息。挑战是如何恰当地可视化并将光学形状感测的介入工具的3D信息通信到介入工具的导航器,而无需被操作为对程序进行成像的解剖成像模态的迭代手动调整。
而且通过范例,电磁感测(EM)技术使用场生成器来生成用于跟踪一个或多个EM线圈传感器相对于场生成器的定位的电磁场。更具体地,电磁场诱发(一个或多个)EM线圈传感器中的电流,其中电流的大小取决于(一个或多个)EM线圈传感器相对于场生成器的定位。
如同OSS光纤,(一个或多个)EM线圈传感器可以被集成到介入工具(例如,血管工具、腔内工具和矫形工具)内,以由此在微创程序(例如,血管内程序)期间经由对介入工具的监视提供实况视觉引导,其中(一个或多个)集成的EM线圈传感器提供介入工具的部分或全部的定位(即,位置和/或取向)。此外,挑战是如何恰当地可视化并将电磁感测的介入工具通信到介入工具的导航器,而无需被操作为对程序进行成像的解剖成像模态的迭代手动调整。
通过另外的范例,原位技术使用一个或多个原位传感器(例如,超声传感器)来感测解剖区域内的成像能量(例如,在解剖区域内发射超声能量的超声探头)。更具体地,如通过原位传感器感测的成像能量的参数取决于原位传感器在解剖区域内的定位(例如,超声能量到超声传感器的飞行时间)。
如同OSS光纤,(一个或多个)原位传感器可以被集成到介入工具(例如,血管工具、腔内工具和矫形工具)内,以由此在微创程序(例如,血管内程序)期间经由对介入工具的监视提供实况视觉引导,其中(一个或多个)集成的原位传感器提供介入工具的部分或全部的定位(即,位置和/或取向)。此外,挑战是如何恰当地可视化并将原位感测的介入工具通信到介入工具的导航器,而无需被操作为对程序进行成像的解剖成像模态的迭代手动调整。
如在题为“Image Guided Surgery for Brain Tumors copy”的视频中阐述的,用于解决对被操作为对程序进行成像的解剖成像模态的迭代手动调整的需要的一种已知方法涉及基于介入设备的跟踪节点在图像空间中的定位跟踪来自动更新对图示介入设备在解剖区域内的导航的跟踪图像的实时显示,其中跟踪图像的视图沿轴向方向被固定在图像空间中或根据介入设备的规划路径被固定在图像空间内。
发明内容
为了改进用于在任何类型的介入程序期间显示介入工具在解剖区域内导航的现有系统、控制器和方法,本公开提供了用于基于介入设备在解剖区域内的定位(即,位置和/或取向)的定位跟踪技术信息来自动更新对图示介入设备在解剖区域内的导航的图像的实时显示的发明。
本公开的发明的一个实施例是一种用于显示介入设备的定位跟踪器驱动的显示系统,所述介入设备包括一个或多个定位跟踪器(例如,OSS传感器、(一个或多个)EM传感器和/或(一个或多个)原位传感器)和一个或多个介入工具(例如,导丝和/或导管)的集成。
所述定位跟踪器驱动的显示系统采用监视器和显示控制器,所述显示控制器用于控制对图示所述介入设备的跟踪节点在解剖区域内的导航的跟踪图像在所述监视器上的实时显示。
所述显示控制器基于指示所述(一个或多个)定位跟踪器在所述解剖区域内的定位的定位跟踪数据来在图示图像空间内的所述解剖区域的多幅配准的空间图像之中自主地选择所述跟踪图像。
所述显示控制器根据由所述定位跟踪数据指示的所述介入设备的所述跟踪节点相对于所述图像空间的定位来导出对所述跟踪图像的所述自主选择。
本公开的发明的第二实施例是一种用于显示介入设备的定位跟踪器驱动的显示方法,所述介入设备包括一个或多个定位跟踪器(例如,OSS传感器、(一个或多个)EM传感器和/或(一个或多个)原位传感器)和一个或多个介入工具(例如,导丝和/或导管)的集成
所述定位跟踪器驱动的显示方法涉及显示控制器基于指示所述(一个或多个)定位跟踪器在所述解剖区域内的定位的定位跟踪数据来在图示图像空间内的所述解剖区域的多幅配准的空间图像之中自主地选择跟踪图像。
所述显示控制器根据由所述定位跟踪数据指示的所述介入设备的跟踪节点相对于所述图像空间的定位来导出对所述跟踪图像的所述自主选择。
所述定位跟踪器驱动的显示方法还涉及所述显示控制器控制对图示所述介入设备的所述跟踪节点在解剖区域内的导航的所述跟踪图像在监视器上的实时显示。
出于描述并请求保护本公开的发明的目的:
(1)包括但不限于“探测器”、“成像模态”、“配准”和“实时”的本公开的领域的术语应如在本公开的领域中已知和在本公开中示范性描述的那样进行解读;
(2)术语“解剖区域”宽泛地涵盖如在本公开的领域中已知和在本公开中示范性描述的一个或多个解剖系统,其中每个解剖系统具有用于介入设备在其中的导航的自然或外科手术结构配置。解剖区域的范例包括但不限于表皮系统(例如,皮肤和附属物)、骨骼系统、肌肉系统、神经系统、内分泌系统(例如,腺和胰腺)、消化系统(例如,胃、肠和结肠)、呼吸系统(例如,气道和肺)、循环系统(例如,心脏和血管)、淋巴系统(例如,淋巴结)、泌尿系统(例如,肾)和生殖系统(例如,子宫);
(3)术语“介入工具”应被宽泛地解读为如本公开的领域中已知的,包括在本公开之前已知和之后构想的介入工具。介入工具的范例包括但不限于血管介入工具(例如,导丝、导管、支架鞘、球囊、粥样斑切除导管、IVUS成像探头、部署系统等)、腔内介入工具(例如,内窥镜、支气管镜等)和矫形介入工具(例如,克氏针(K-wire)和螺丝刀);
(4)术语“定位跟踪器”宽泛地涵盖如在本领域中已知和在下文中构想的用于跟踪介入工具在解剖区域内的定位的所有设备。定位传感器的范例包括但不限于OSS传感器、EM传感器和原位传感器;
(5)术语“OSS传感器”宽泛地涵盖如在本领域中已知和在下文中构想的被配置用于提取光纤的高密度应变测量结果的光纤,所述测量结果是根据发射到光纤中并且传播通过光纤并且在传播的光的相反方向上在光纤内反射回来和/或在传播的光的方向上从光纤透射的光而导出的。OSS传感器的范例包括但不限于:在光频域反射计(OFDR)的原理下配置的光纤,其用于经由光纤内的可控光栅图案(例如,光纤布拉格光栅)、光纤的特征背向散射(例如,瑞利背向散射)或嵌入、蚀刻、压印或以其他方式形成在光纤中的(一个或多个)反射节点元件和/或(一个或多个)透射节点元件的任何其他布置来提取光纤的高密度应变测量结果,所述测量结果是根据发射到光纤中并且传播通过光纤并且在传播的光的相反方向上在光纤内反射回来和/或在传播的光的方向上从光纤透射的光而导出的;
(6)术语“EM传感器”宽泛地涵盖如在本领域中已知和在下文中构想的被配置用于感测电磁场的任何设备;
(7)术语“原位传感器”宽泛地涵盖如在本领域中已知和在下文中构想的被配置用于感测成像能量(例如,超声波)的任何设备;
(8)“一个或多个定位跟踪器和一个或多个介入工具的集成”宽泛地涵盖如在本公开的领域中理解和在本公开中示范性地描述的为了形成介入设备对(一个或多个)定位跟踪器到(一个或多个)介入工具中的任何类型的组合、邻接、附接、安装、插入、混合或否则集成。这种集成的范例包括但不限于(一个或多个)定位跟踪器在导管的通道内的固定插入和包含(一个或多个)定位跟踪器的导丝;
(9)术语“跟踪节点”宽泛地涵盖介入设备的任何部分或全部;
(10)术语“跟踪图像”宽泛地涵盖图示介入设备在解剖区域内的跟踪节点的任何二维(2D)图像或三维(3D)图像。跟踪图像的范例包括但不限于(a)图示介入设备在解剖区域内的跟踪节点的解剖区域的2D或3D图像和(b)根据图示介入设备在解剖区域内的跟踪节点的解剖区域的3D图像而生成的解剖区域的3D模型;
(11)术语“图像空间”宽泛地涵盖包围对解剖区域的部分或全部的成像的任何XYZ坐标系。成像空间的范例包括但不限于(a)包围对解剖区域的部分或全部的成像的XYZ坐标系和(b)包围根据解剖区域的3D图像而生成的解剖区域的3D模型的部分或全部的成像的XYZ坐标系;
(12)术语“空间图像”宽泛地涵盖图像空间的任何二维(2D)图像切片或任何三维(3D)图像切片;
(13)术语“配准的空间图像”宽泛地涵盖被单独地配准到OSS传感器的形状的空间图像;
(14)术语“定位跟踪驱动的显示系统”宽泛地涵盖如在本领域中已知和在下文中构想的在介入程序中使用的包含用于基于介入设备在解剖区域内的定位(即,位置和/或取向)的定位跟踪技术信息来自动更新对图示介入设备在解剖区域内的导航的图像的实时显示的本公开的发明原理的所有介入系统。这样的介入系统的范例包括如在本公开的领域中已知的在下文中包含本公开的发明原理的在商业上被提供用于由飞利浦售卖的所有介入系统;
(12)术语“定位跟踪驱动的显示方法”宽泛地涵盖如在本领域中已知和在下文中构想的在介入程序中使用的包含用于基于介入设备在解剖区域内的定位(即,位置和/或取向)的定位跟踪技术信息来自动更新对图示介入设备在解剖区域内的导航的图像的实时显示的本公开的发明原理的所有介入方法。这样的介入方法的范例包括如在本公开的领域中已知的在下文中包含本公开的发明原理的在商业上被提供用于由飞利浦售卖的所有介入方法;
(13)术语“控制器”宽泛地涵盖用于控制与如随后在本公开中示范性描述的基于介入设备在解剖区域内的定位(即,位置和/或取向)的光学形状感测(OSS)技术信息来自动显示对图示介入设备在解剖区域内的导航的图像的实时显示相关的本公开的各种发明原理的应用的专用主板或专用集成电路的所有结构配置。所述控制器的结构配置可以包括但不限于(一个或多个)处理器、(一个或多个)计算机可用/计算机可读存储介质、操作系统、(一个或多个)应用模块、(一个或多个)外围设备控制器、(一个或多个)接口、(一个或多个)总线、(一个或多个)槽和(一个或多个)端口。如本公开中用于术语“控制器”的标记“OSS传感器”、“OSS形状”和“显示”出于识别的目的将特定控制器与如本文所描述和要求保护的其他控制器区分开,而不指定或暗示对术语“控制器”的任何额外限制。
(14)术语“应用模块”宽泛地涵盖包括用于执行特定应用的电子电路和/或可执行程序(例如,被存储在(一个或多个)非瞬态计算机可读介质上的可执行软件和/或固件)的控制器的部件。本文中用于术语“模块”的标记“形状重建器”、“图像选择器”和“图像显示器”出于识别的目的将特定模块与如本文所描述和要求保护的其他模块区分开,而不指定或暗示对术语“模块”的任何额外限制;以及
(15)术语“信号”、“数据”和“命令”宽泛地涵盖如在本公开的领域中理解和如在本公开中示范性描述的用于传递支持应用如随后在本公开中描述的本公开的各种发明原理的信息和/或指令的所有形式的可检测物理量或脉冲(例如,电压、电流或磁场强度)。本公开的部件之间的信号/数据/命令通信可以涉及如在本公开的领域中已知和在下文中构想的任何通信方法,包括但不限于通过任何类型的有线或无线介质/数据链路对信号/数据/命令发送/接收和对被上传到计算机可用/计算机可读存储介质的信号/数据/命令的读取。
结合附图阅读本公开的发明的各种实施例的以下详细描述,本公开的发明的前述实施例和其他实施例以及本公开的发明的各种特征和优点将变得进一步显而易见。详细描述和附图仅仅说明本公开的发明而非限制,本公开的发明的范围由随附权利要求及其等价方案限定。
附图说明
图1A-1D图示了如在本公开的领域中已知的图示介入设备在解剖区域内的导航的图像的示范性显示。
图2A-2C图示了根据本公开的发明原理的解剖区域的示范性空间图像。
图3A-3G图示了根据本公开的发明原理的图示OSS介入设备在解剖区域内的导航的图像的示范性显示。
图4A-4C图示了如在本公开的领域中已知的OSS传感器的示范性实施例。
图5图示了如在本公开的领域中已知的OSS介入设备的示范性实施例。
图6A和图6B图示了如在本公开的领域中已知的对OSS传感器到导丝中的集成的示范性实施例。
图7图示了根据本公开的发明原理的OSS驱动的显示系统的示范性实施例。
图8图示了表示根据本公开的发明原理的OSS驱动的显示的流程图的示范性实施例。
图9A图示了如在本公开的领域中已知的EM感测的介入设备的示范性实施例。
图9B图示了如在本公开的领域中已知的对(一个或多个)EM传感器到导丝中的集成的示范性实施例。
图10A图示了如在本公开的领域中已知的原位感测的介入设备的示范性实施例。
图10B图示了如在本公开的领域中已知的对(一个或多个)原位传感器到导丝中的集成的示范性实施例。
具体实施方式
作为对图示介入设备在解剖区域内的导航的图像的现有显示的改进,本公开的发明以生成图示图像空间内的解剖区域的多个空间图像为前提,其中OSS介入设备的跟踪节点相对于图像空间的光学形状感测的定位决定对用于显示的空间图像之一的自主选择,并且可以进一步决定所选择的空间图像的自主显示格式。
为了促进对本公开的各种发明的理解,出于根据本发明的发明原理显示OSS介入设备在解剖区域内的导航的目的,对图2A-3G的以下描述概念上教导了对图示图像空间内的解剖区域和OSS介入设备的节点相对于图像空间的定位跟踪的多幅空间图像的生成。从对图2A-3G的描述,本领域普通技术人员将会意识到本公开的发明原理。
参考图2A-2C,图像空间20是包围对由球体表示的解剖区域的成像的XYZ坐标系。本公开的发明以优选地沿轴向方向将图像空间20切片成可以被单独地显示为二维(2D)图像或三维图像的一系列空间图像为前提。
空间图像作为2D图像的显示可以包括但不限于沿Z-方向的空间图像的XY平面视图、沿Y-方向的空间图像的XZ平面图像和或沿X-轴方向观察的空间图像的YZ平面图像。
空间图像作为3D图像的显示可以包括但不限于沿X-轴方向、Y-轴方向或Z-轴方向观察的空间视图的XYZ体积图像。
例如,如在图2A中示出的,图像空间20可以沿X-轴方向被切片成可以被单独地显示为2D图像或3D图像的一系列空间图像21a-21e。
通过另一范例,如在图2B中示出的,图像空间20可以沿Y-轴方向被切片成可以被单独地显示为2D图像或3D图像的一系列空间图像22a-22e。
通过又一范例,如在图2C中示出的,图像空间可以沿Z-轴方向被切片成可以被单独地显示为2D图像或3D图像的一系列空间图像23a-23d。
在实践中,图像空间的切片的轴向深度取决于如在本公开中进一步示范性描述的自动更新分辨率的期望程度。
而且在实践中,图像空间的切片的轴向深度可以是恒定的或可变的。
仍然参考图2A-2C,本公开的发明还以介入设备的跟踪节点在解剖区域的图像空间内的光学形状感测的定位决定对用于显示的空间图像之一的自主选择为前提。
在实践中,介入设备的跟踪节点的光学形状感测的定位可以由跟踪节点相对于图像空间的XYZ位置来定义,其中与XYZ位置相关联的空间图像被自主地选择用于显示。
例如,如在图2A中示出的,跟踪节点15的XYZ位置在空间图像21a内,并且因此空间图像21a被自动选择用于显示为2D图像或3D图像。
例如,如在图2B中示出的,跟踪节点15的XYZ位置在空间图像22b内,并且因此空间图像22b被自动选择用于显示为2D图像或3D图像。
通过另外的范例,如在图2C中示出的,跟踪节点15的XYZ位置在空间图像23d内,并且因此空间图像23d被自动选择用于显示为2D图像或3D图像。
同时,如将会在本公开中进一步描述的,介入设备的跟踪节点的光学形状感测的定位可以通过跟踪节点在图像空间内的αβγ取向来定义,其中基于跟踪节点在图像空间内的XYZ位置而自主地选择的空间图像可以被显示在最适合于观察跟踪节点在图像空间内的αβγ取向的平面视图中。例如,跟踪节点在图像空间内的αβγ取向可以与X-轴平行,其中所选择的空间图像的YZ平面视图将适合于观察跟踪节点在图像空间内的αβγ取向的前视图或后视图,或者其中所选择的空间图像的XY平面视图或ZY平面视图将适合于观察跟踪节点在图像空间内的αβγ取向的侧视图。
备选地,介入设备的跟踪节点的光学形状感测的定位可以通过跟踪节点相对于图像空间的αβγ取向来定义,其中空间图像最适合于观察跟踪节点相对于图像空间的αβγ取向(例如,如位于一幅空间图像中的跟踪节点在图像空间内的αβγ取向被引导到被自主地选择用于显示的相邻空间图像)。
在实践中,介入设备的跟踪节点的光学形状感测的定位可以在图像空间外部。对于跟踪节点的这种外部定位,最靠近跟踪节点或最适合于跟踪节点的取向视图的空间图像可以被选择用于显示。
而且在实践中,OSS介入设备的跟踪节点可以被定位在两幅或更多幅空间图像内。对于跟踪节点的这种定位,包围跟踪节点的大部分、跟踪节点的最高程度或跟踪节点的指定部分/点的空间图像可以被选择用于显示。
另外在实践中,出于便于对显示的空间图像之一的自主选择的目的,每幅空间图像被单独地配准到OSS介入设备,如将在本公开中进一步描述的。
仍然参考图2A-2C,本公开的发明实施涉及基于OSS介入设备的跟踪节点在图像空间内的移动来自动更新从之前选择的空间图像到新选择的空间图像的实时显示的图像替换方案。
例如,如在图3A中示出的,图示血管结构12的中心线视图的空间图像14a是基于介入设备的跟踪节点15在空间图像14a内或指向该空间图像的光学形状感测的定位的在时间t0处用于显示在监视器10上的选择的空间图像,其中在随后的时间t1处基于介入设备的跟踪节点15在空间图像14b内或指向该空间图像的光学形状感测的定位上的重新定位来由图示血管结构12的偏离中心线视图的新选择的空间图像14b自动地替换空间图像14a用于显示在监视器10上。
通过另外的范例,如在图3B中示出的,图示血管结构12的下部视图的空间图像14c是基于介入设备的跟踪节点15在空间图像14c内或指向该空间图像的光学形状感测的定位在时间t0处用于显示在监视器10上的选择的空间图像,其中在随后的时间t1处基于介入设备的跟踪节点15在空间图像14d内或指向该空间图像的光学形状感测的定位上的重新定位来由图示血管结构12的上部视图的新选择的空间图像14d自动地替换空间图像14d用于显示在监视器10上。
仍然参考图2A-2C,本公开的发明可以还以OSS介入设备的跟踪节点相对于解剖区域的图像空间的光学形状感测的定位还决定对所选择的空间图像的自主显示格式为前提。
在缺省显示实施例中,选择的空间图像可以沿着缺省X-轴方向、缺省Y-轴方向或缺省Z-轴方向被显示。
在旋转实施例中,选择的空间图像可以被显示在最适合于观察跟踪节点在图像空间内的αβγ(例如欧拉角)取向的平面视图中。例如,图3C图示了空间图像14a从介入设备的跟踪节点15的侧平面视图到跟踪节点15的后平面视图的九十(90)度旋转。
在移位实施例中,当OSS介入设备的跟踪节点的光学形状感测的定位在图像空间外部时,选择的空间图像可以被显示在横向移位的视图中。
例如,图3D图示了当OSS介入设备的跟踪节点15的光学形状感测的定位在图像空间下方时的空间图像14a的向上移位的视图14f,其中空间图像14a随着跟踪节点15接近图像空间而被向下移位,并且图3E图示了当OSS介入设备的跟踪节点15的光学形状感测的定位在图像空间上方时的空间图像14a的向下移位的视图14g,其中空间图像14a随着跟踪节点15离开图像空间而被向下移位。
在缩放实施例中,选择的空间图像可以被显示在主要窗口中,而介入设备的跟踪节点或介入设备的感兴趣的任何非跟踪节点的放大视图可以被显示在次要窗口中。非跟踪节点可以包括但不限于经历任何类型的导航错误(例如,介入设备的屈曲、不期望的弯曲或扭转)的介入设备的节点。
例如,图3F图示了空间图像14a在监视器10的主要窗口中的显示以及跟踪节点15的放大视图在次要窗口16中的显示。
通过另外的范例,图3G图示了空间图像14在监视器10的主要窗口中的显示以及屈曲节点17在次要窗口16中的显示。
为了促进对本公开的各种发明的进一步理解,对图4A-6B的以下描述描述了OSS介入设备的示范性实施例。从对图4A-4B的描述,本领域普通技术人员将会意识到如何实践OSS介入设备的许多和各种实施例。
参考图4A,可应用于本公开的发明的OSS传感器30包括作为单芯光纤(例如,如在图4B中示出的具有单个芯32的光纤31a)或多芯光纤(例如,如在图4C中示出的具有多个芯32b、32c和32e的多芯光纤31b)的光纤31。光纤31的芯具有可控光栅图案(例如,光纤布拉格光栅)、特征背向散射(例如,瑞利背向散射)或在光纤31中嵌入、蚀刻、压印或以其他方式形成的反射元件和/或透射元件的任何其他布置。在实践中,以可控光栅、特征背向散射或反射/透射元件形式的OSS节点可以沿着光纤31的任何节段或整体延伸,如通过从近端31p(或图6A和6B中的导丝近端41p)延伸到远端31d(或图6A和6B中的导丝远端41d)的虚线32象征性所示的。而且在实践中,OSS传感器30可以包括两(2)个或更多个个体光纤31,其可以是或可以不是螺旋形的。
在实践中,OSS传感器30的光纤31可以部分地或全部地由任何玻璃、二氧化硅、磷酸盐玻璃或其他玻璃制成,或由玻璃和塑料或由塑料制成,或由用于制造光纤的其他材料制成。为了在经由手动或机器人插入而引入到患者解剖结构中时阻止对OSS传感器30的任何损坏,OSS传感器30的光纤31可以如在本领域中已知的那样通过保护套被永久地环绕。
在实践中,所述保护套可以由具有指定硬度的任何柔性材料制成,所述材料包括但不限于:尼龙弹性体、镍钛合金、分束管和绞合金属管。而且在实践中,所述保护套可以包括以交叠和/或顺序的布置的具有相同或不同程度的柔性和硬度的两个或更多个管状部件。
OSS传感器30可以还包括用于将光纤31连接到另一光纤的光学连接器33、发射器或光源(例如,光学积分器),如将在本公开中进一步描述的。
参考图5,本公开的发明提供了OSS传感器30和一个或多个介入工具40的集成51,以将OSS介入设备50配置用于执行涉及OSS介入设备50在一个或多个解剖区域(例如,心血管系统的心脏和血管、呼吸系统的气道和肺、消化系统的胃和肠、以及肌肉骨骼系统的孔)内的导航的介入程序。
介入工具40的范例包括但不限于血管介入工具(例如,导丝、导管、支架鞘、球囊、粥样斑切除导管、IVUS成像探头、部署系统等)、腔内介入工具(例如,内窥镜、支气管镜等)和矫形介入工具(例如,克氏针(K-wire)和螺丝刀)。
在实践中,OSS传感器30和介入工具40的集成可以处于适合于特定介入程序的任何配置。
另外在实践中,OSS介入设备50的近侧设备节点52p可以是OSS传感器30的近侧OSS节点32p。备选地,OSS介入设备50的近侧设备节点52p可以是经由如在本公开的领域中已知的近侧OSS节点32p与近侧工具节点42p之间的机械关系映射或基于形状模板的映射而被映射到OSS传感器30的近侧OSS节点32p的近侧工具节点42p。
类似地,在实践中,OSS介入设备50的远侧设备节点52d可以是OSS传感器30的远侧OSS节点32d。备选地,OSS介入设备50的远侧设备节点52d可以是经由如在本公开的领域中已知的远侧OSS节点32d与远侧工具节点42d之间的机械关系映射或基于形状模板的映射而被映射到OSS传感器30的远侧OSS节点32d的远侧工具节点42d。
例如,图6A图示了被轴向地嵌入在导丝40a内以配置如在本公开的领域中已知的OSS导丝50a形式的OSS介入设备50的OSS传感器30。OSS导丝50a可以被包含到涉及导丝的使用的任何介入程序中,其中OSS导丝50a可以根据需要在解剖区域内经由如在本公开的领域中已知的OSS传感器30的形状重建能力被导航。
OSS介入设备50a的近侧设备节点52p可以是OSS传感器30的近侧OSS节点32p。备选地,OSS介入设备50a的近侧设备节点52p可以是经由如在本公开的领域中已知的近侧OSS节点32p与近侧工具节点42p之间的机械关系映射或基于形状模板的映射而被映射到OSS传感器30的近侧OSS节点32p的近侧工具节点42p。
OSS介入设备50a的远侧设备节点52d可以是OSS传感器30的远侧OSS节点32d。备选地,OSS介入设备50a的远侧设备节点52d可以是经由如在本公开的领域中已知的远侧OSS节点32d与远侧工具节点42d之间的机械关系映射或基于形状模板的映射而被映射到OSS传感器30的远侧OSS节点32d的远侧工具节点42d。
通过另外的范例,图6B图示了如图所示的OSS传感器30或OSS导丝50a可以被暂时或永久地插入在导管40b的通道内以配置如在本公开的领域中已知的通用导管50b形式的OSS介入设备50。通用导管50b可以被包含到涉及导管40b的工作通道41的使用的任何介入程序中,其中通用导管40b可以根据需要在(一个或多个)解剖区域内经由如在本公开的领域中已知的OSS传感器30的形状重建能力被导航。
OSS介入设备50b的近侧设备节点52p可以是OSS传感器30的近侧OSS节点32p。备选地,OSS介入设备50b的近侧设备节点52p可以是经由如在本公开的领域中已知的近侧OSS节点32p与近侧工具节点42p之间的机械关系映射或基于形状模板的映射而被映射到OSS传感器30的近侧OSS节点32p的近侧工具节点42p。
OSS介入设备50b的远侧设备节点52d可以是OSS传感器30的远侧OSS节点32d。备选地,OSS介入设备50b的远侧设备节点52d可以是经由如在本公开的领域中已知的远侧OSS节点32d与远侧工具节点42d之间的机械关系映射或基于形状模板的映射而被映射到OSS传感器30的远侧OSS节点32d的远侧工具节点42d。
回来参考图5,出于本公开的发明的目的,OSS介入设备50的跟踪节点包括在近侧设备节点52d与远侧设备节点52d之间的OSS介入设备50的任何固定或动态点或部分、或OSS介入设备50的全部。
例如,OSS介入设备50的跟踪节点可以是位于远侧设备节点52d处的介入工具的远端部。
通过另外的范例,OSS介入设备50的跟踪节点可以是与治疗设备(例如,球囊或支架)相关联的在近侧设备节点52p与远侧设备节点52d之间的OSS介入设备50的部分。
通过另外的其他范例,OSS介入设备50的跟踪节点可以是延伸到解剖区域中的在近侧设备节点52p与远侧设备节点52d之间的OSS介入设备50的任何部分。
通过另外的其他范例,OSS介入设备50的跟踪节点可以是被定位在解剖区域的图像空间中的在近侧设备节点52d与远侧设备节点52d之间的OSS介入设备50的任何部分。
为了促进对本公开的发明的进一步理解,对图7和图8的以下描述描述了包含本公开的发明原理的OSS驱动的显示系统和方法的示范性实施例。从对图7和图8的该描述,本领域普通技术人员将会意识到如何应用本公开的发明原理来实践包含本公开的发明原理的OSS驱动的显示系统和方法的许多和各种实施例。
参考图7,本公开的OSS驱动的显示系统采用OSS介入设备50(图5)、成像系统70和控制网络90,所述控制网络包括被安装在工作站120上的OSS形状控制器100和显示控制器110。OSS介入系统提供根据之前在本公开中结合图2A-3G描述的本公开的发明原理的基于OSS介入设备50在患者P的解剖区域内的光学形状感测的定位(即,位置和/或取向)来自动更新由工作站120对图示OSS介入设备50在患者P的解剖区域内的导航的图像的实时显示。
在实践中,OSS介入设备50包括如之前在本公开中结合图4A-6B描述的OSS传感器30和一个或多个介入工具40的集成。例如,OSS介入设备50可以是OSS导丝50a(图6A)或通用导管40b(图6A)。
在实践中,成像系统70可以实施用于生成患者P的(一个或多个)解剖区域的(一幅或多幅)体积图像的任何类型的成像模态(例如,X-射线系统、MRI系统、CT系统、超声系统等)。
在实践中,OSS形状控制器100和显示控制器110可以包含用于根据本公开的发明原理的自动更新由工作站120对图示OSS介入设备50在患者P的解剖区域内的导航的图像的实时显示的硬件、软件、固件和/或电子电路的任何装置。
在一个实施例中,OSS形状控制器100和显示控制器110可以包括经由一个或多个系统总线互相连接的处理器、存储器、用户接口、网络接口和存储设备。
处理器可以是如在本公开的领域中已知或在下文中构想的能够执行被存储在存储器或存储设备中的指令或否则处理数据的任何硬件设备。在非限制性范例中,处理器可以包括微处理器、现场可编程门阵列(FPGA)、专用集成电路(ASIC)或其他类似的设备。
存储器可以包括如在本公开的领域中已知或在下文中构想的各种存储器,包括但不限于L1、L2或L3高速缓冲存储器或系统存储器。在非限制性范例中,存储器可以包括静态随机存取存储器(SRAM)、动态RAM(DRAM)、闪速存储器、只读存储器(ROM)或其他类似的存储器设备。
操作者接口可以包括如在本公开的领域中已知或在下文中构想的用于实现与诸如管理员的用户通信的一个或多个设备。在非限制性范例中,操作者接口可以包括可以经由网络接口被呈现给远程终端的命令行接口或图形用户接口。
网络接口可以包括如在本公开的领域中已知或在下文中构想的用于实现与其他硬件设备的通信的一个或多个设备。在非限制性范例中,网络接口可以包括被配置为根据以太网协议进行通信的网络接口卡(NIC)。此外,网络接口可以实施用于根据TCP/IP协议进行通信的TCP/IP堆栈。用于网络接口的各种备选的或额外的硬件或配置将是显而易见的。
存储设备可以包括如在本公开的领域中已知或在下文中构想的一个或多个机器可读存储介质,包括但不限于只读存储器(ROM)、随机存取存储器(RAM)、磁盘存储介质、光学存储介质、闪速存储器设备或类似的存储介质。在各种非限制性实施例中,存储设备可以存储用于由处理器执行的指令或处理器可以对其进行操作的数据。例如,存储设备可以存储用于控制硬件的各种基本操作的基本操作系统。存储设备可以以可执行软件/固件的形式进一步存储一个或多个应用模块。
更具体地,仍然参考图7,OSS形状控制器100的应用模块是如在本公开的领域中已知和在本公开中进一步示范性描述的用于响应于形状感测数据82而重建介入工具40的形状的部分或全部的形状重建器101。
另外,显示控制器110的应用模块包括如将在本公开中进一步示范性描述的根据本公开的发明原理的用于在多幅空间图像之中自主地选择跟踪图像的图像选择器111和如将在本公开中进一步示范性描述的根据本公开的发明原理的用于控制对所选择的跟踪图像的显示的图像显示器112。
仍然参考图7,工作站120包括监视器121、键盘122和计算机123的已知装置。
在实践中,控制网络90可以备选地或同时地被安装在其他类型的处理设备(包括但不限于平板电脑或可由工作站和平板电脑访问的服务器)上,或可以跨支持涉及OSS介入设备50的介入程序的执行的网络被分布。
而且在实践中,OSS形状控制器100和显示控制器110可以是控制网络90的集成的部件、分开的部件或逻辑分区的部件。
仍然参考图7,在操作中,成像系统70术前和/或术中生成体积图像数据71,以用于显示患者P的(一个或多个)对象解剖区域的体积图像。体积图像数据71被通信给控制网络90(例如,体积图像数据71的流传输或上传),其中图像显示器112可以控制如在本公开的领域中已知的OSS介入设备50的重建形状在患者P的(一个或多个)解剖区域的体积图像上的叠加显示。例如,图7图示了在监视器121上对OSS介入设备50的重建形状在患者P的血管结构的体积图像上的叠加显示。
OSS介入设备50从起始点61向远侧延伸,该起始点邻接患者床PB的床栏,如所示的,或备选地邻接患者床PB旁边的推车(未示出),或备选地邻接工作站(例如,工作站100或平板电脑(未示出))。光纤60从起始点61向近侧延伸到光学积分器81。在实践中,光纤60可以是在起始点61处被连接到OSS介入设备50的OSS传感器30的单独的光纤,或是延伸通过起始点61的OSS传感器30的近端延伸。
如在本公开的领域中已知的,OSS控制器80控制通过光学询问器81经由光纤60向OSS传感器30中周期性发射光,其中光传播通过OSS传感器30到OSS介入设备50的远端部,以由此生成指示OSS介入设备50相对于用作固定参考位置的起始点61的形状的形状感测数据82。在实践中,OSS传感器30的远端部可以是闭合的,特别是对于OSS传感器30的光反射实施例而言;或可以是开放的,特别是对于OSS传感器30的光透射实施例而言。
形状感测数据82充当定位跟踪数据,其中OSS传感器控制器80控制对如在本公开的领域中已知的形状感测数据82的时间帧序列到OSS形状控制器100的通信。更具体地,每个帧包括OSS传感器30的应变传感器(例如,光纤布拉格光栅或瑞利背向散射)的单个询问循环,其中形状重建器101如在本公开的领域中已知的那样在时间帧基础上重建OSS传感器30的形状,这提供了对根据OSS传感器30和(一个或多个)介入工具40的特定集成导出的OSS介入设备50的形状的部分或全部的重建。
在实践中,形状重建器101可以实施如在本公开的领域中已知的用于重建OSS介入设备50的形状的部分/全部的任何重建技术。
在一个重建实施例中,形状重建器101执行在时间帧基础上经由形状感测数据82对OSS介入设备50的形状的部分/全部的姿态在对应于光学询问器81的坐标系内的描绘。
在第二重建实施例中,形状重建器101执行对光学询问器81的坐标系到成像系统70的坐标系的配准,其中形状重建器101可以定位和取向在时间帧基础上经由形状感测数据82对OSS介入设备50的形状的部分/全部在成像系统70的坐标系内的描绘。
图8图示了表示通过图7的OSS驱动的显示系统实施的本公开的OSS驱动的显示方法的流程图130。
在流程图130的执行之前或期间,空间图像通过OSS形状控制器100或显示控制器110被单独地配准到OSS介入设备50内的OSS传感器30(图5)的三维(3D)形状。
在一个实施例中,OSS传感器30的3D形状被配准到空间图像的图像空间,以由此生成用于每幅空间图像的个体配准矩阵。OSS传感器30可以使用适合于对象医学程序的任何空间配准方法,包括例如目标特征检测、标记检测、基于点的配准或外部跟踪方法。
参考图7和图8,流程图130的阶段S132包含形状重建器101响应于如在本公开的领域中已知的形状感测数据82而重建OSS介入设备50的部分/全部。
在一个示范性实施例中,形状重建器101可以重建在近侧设备节点52p与远侧设备节点52d之间的OSS介入设备50的整个形状。
在第二示范性实施例中,形状重建器101可以重建在近侧设备节点52p与远侧设备节点52d之间的OSS介入设备50的部分。
在第三示范性实施例中,形状重建器101可以重建在中间设备节点与远侧设备节点52d之间的OSS介入设备50的部分,其中中间设备节点被识别为如在本公开的领域中已知的解剖区域AR的入口点处的节点。
在第四示范性实施例中,形状重建器101可以重建在中间设备节点与远侧设备节点52d之间的OSS介入设备50的部分,其中中间设备节点被识别为配准的空间图像的图像空间的入口点处的节点。
在第五示范性实施例中,形状重建器101可以重建在近侧工具节点42p与远侧工具节点42d之间的包围治疗设备(例如,球囊、支架、腔内移植物等)的OSS介入设备50的部分。
回来参考图7和图8,流程图130的阶段S134包含对在配准的空间图像之中选择的跟踪图像的实时显示。
跟踪图像选择。具有其相应配准矩阵的空间图像被保存在数据库中,其中图像选择器111可以基于OSS介入设备50的跟踪节点相对于配准的空间图像的图像空间的定位来实施本公开的图像选择方案,以由此。
更具体地,对于阶段S134的初始执行,图像选择器111处理形状感测数据82,以由此经由个体配准矩阵将OSS传感器30的形状配准到每幅空间图像来确定介入设备的跟踪节点相对于每幅空间图像的XYZ位置和/或αβγ取向。如本文之前描述的,图像选择器111将选择用于由图像显示器112显示的最佳地对应于介入设备的跟踪节点的XYZ位置和/或αβγ取向的配准的空间图像。
对于阶段S134的每次随后执行,图像选择器111经由个体配准矩阵将OSS传感器30的形状重新配准到每幅空间图像来确定介入设备的跟踪节点相对于每幅空间图像的XYZ位置和/或αβγ取向,以由此选择用于显示的最佳地对应于介入设备的跟踪节点的XYZ位置和/或αβγ取向的配准的空间图像。因此,OSS介入设备50在解剖区域内被导航,当前正由图像显示器112显示的配准的空间图像可以由新选择的配准的空间图像替换。
例如,如果形状感测数据82指示OSS介入设备50的跟踪节点的XYZ位置已经被移动超出当前正被显示的配准的空间图像的边界进入相邻的配准的空间图像,那么图像选择器111将选择相邻的配准的空间图像作为用于由图像显示器112显示的替换图像。
通过另外的范例,如果形状感测数据82指示OSS介入设备50的跟踪节点的αβγ取向已经改变在当前正被显示的配准的空间图像内的方向,那么图像选择器111可以选择相邻的配准的空间图像作为用于由图像显示器112显示的最适合于观察OSS介入设备50的跟踪节点的αβγ取向的替换图像。
图像显示格式化。对于阶段S134的初始执行,如果图像选择器111确定OSS介入设备50的跟踪节点在配准的空间图像的成像空间外部,那么图像显示器112将控制跟踪节点在背景(例如,简单背景)内的显示,图示OSS介入设备50的跟踪节点的叠加。
随着OSS介入设备50的跟踪节点接近配准的空间图像的图像空间的边界,那么图像显示器112显示OSS介入设备50的跟踪节点的叠加和/或当前被图像选择器111选择的配准的空间图像朝向彼此的移位,例如如之前在本公开中结合图3D描述的。
在OSS介入设备50的跟踪节点完全在当前被图像选择器111选择的配准的空间图像的边界内之前或之后,图像显示器112可以执行如之前在本公开中结合图3C描述的当前选择的配准的空间图像的图像旋转和/或如之前在本公开中结合图3F和3G描述的OSS介入设备50的跟踪节点或非跟踪节点的图像缩放。
更具体地对于图像旋转,当前被图像选择器111选择的配准的空间图像根据需要被图像显示器112旋转,以最佳地示出OSS介入设备50的跟踪节点在解剖区域内的导航的解剖背景。为此目的,图像显示器112可以处理旋转信息,包括但不限于OSS介入设备50的端部的αβγ旋转、OSS介入设备50的任何部分的形状旋转/模板、和/或OSS介入设备50的治疗设备的旋转,以由此确定当前被图像选择器111选择的配准的空间图像的最佳观察角度。
更具体地对于图像缩放,OSS介入设备50的感兴趣区域可以通过沿着OSS介入设备50的形状点击任何节点或通过从预定位置列表(例如,导管端部、导丝端部、治疗设备基准)中选择来选择。缺省的主要图像窗口将示出当前选择的配准的空间图像,并且机械或软件按钮可以被推动以便在程序期间切换到OSS介入设备50的预先选择的感兴趣区域的缩放图像窗口。
图像显示器112将基于预先选择的感兴趣区域的当前XYZ位置以及主要图像窗口和缩放图像窗口两者的尺寸来对齐次要缩放窗口以叠加OSS介入设备50的预先选择的感兴趣区域的放大图像。备选地,图像显示器112可以设置缩放图像窗口以出现在不同的位置中。
图像显示器112可以随着OSS介入设备50移动缩放图像窗口,其中缩放图像窗口叠加在主要图像窗口的预先选择的感兴趣区域上保持居中。缩放图像窗口可以保持在显示器上直至用户再次推动按钮以返回到仅仅主要图像窗口,或缩放图像窗口可以被显示直至OSS介入设备50离开缩放区域,在此情况下图像回复到仅仅主要图像窗口。
备选地,当在程序的背景下相关时,图像显示器112可以仅显示缩放图像窗口。例如,当导航困难经由屈曲、扭转等被检测到时、当设备到达感兴趣区域时和当治疗设备的部署开始(例如,球囊膨胀、腔内移植物/支架扩展)时,缩放图像窗口可以被显示。
感兴趣区域缩放也能够被应用于当前视图之外的位置。例如,如果由形状重建器101根据形状感测数据82确定在主要观察窗口内部或之外已经存在导航错误(例如,屈曲、扭转或不期望的弯曲),那么次要缩放窗口可以出现,示出错误发生的位置,并且能够继续跟踪图像的该区域直至错误已经清除。次要缩放窗口也可以用来显示备选成像平面,诸如‘飞过’图像,其能够基于OSS介入设备50的跟踪节点相对于图像空间的定位而被自动更新。
此外,OSS介入设备50的跟踪节点可以离开配准的空间图像的图像空间。如果这种情况发生,那么图像显示器112将根据需要移位当前选择的配准的空间图像同时维持OSS介入设备50的跟踪节点的视图在背景(例如,简单背景)内,例如如之前在本公开中结合图3E描述的。此外,图像显示器112可以提供包围OSS介入设备50的跟踪节点的新图像采集窗口,以由此促进对(一幅或多幅)额外的空间图像的采集。
成像系统调整。介入设备的跟踪节点相对于图像空间的定位也可以用来自动调整成像系统70的视场。例如在成像系统70是X-射线系统的情况下,图像显示器112自动移动C型臂,以由此跟随OSS介入设备50在解剖区域内的导航,从而总是将跟踪节点保持在X-射线探测器的中心处。图像显示器112可以将用于X-射线探测器的定位和围绕患者P的旋转的命令直接通信到C型臂。当前形状发送数据82(例如,位置和取向)以及患者解剖结构的术前重建的3D模型能够用来确定X-射线探测器要被定位在的最佳角度以观察OSS介入设备50以及感兴趣解剖区域两者。因此,如果需要对(一幅或多幅)额外的空间图像的采集,那么C型臂已经在适当位置中并且准备好采集(一幅或多幅)这样的空间图像。
该技术也适于其他成像模态。例如,如果成像系统70采用外部超声探头,那么图像显示器112可以控制探头的自动移动以跟随形状感测的OSS介入设备50,因此OSS介入设备50总是在探头的视场内以便采集任何(一幅或多幅)额外的空间图像。
阶段S132和S134在介入程序期间被重复,其中空间图像可以根据需要被替换、移位、旋转和缩放以促进对介入程序的最佳观察。
参考图9和图10,本公开的发明提供了定位跟踪驱动的系统和方法的额外形式。
在EM实施例中,参考图9A,本公开的发明提供了X数量个EM传感器33(X≥1)和一个或多个介入工具40的集成53以将EM感测的介入设备52配置用于执行涉及EM感测的介入设备52在一个或多个解剖区域(例如,心血管系统的心脏和血管、呼吸系统的气道和肺、消化系统的胃和肠、以及肌肉骨骼系统内的孔)内的导航的介入程序。
此外,介入工具40的范例包括但不限于血管介入工具(例如,导丝、导管、支架鞘、球囊、粥样斑切除导管、IVUS成像探头、部署系统等)、腔内介入工具(例如,内窥镜、支气管镜等)和矫形介入工具(例如,克氏针(K-wire)和螺丝刀)。
在实践中,(一个或多个)EM传感器33和(一个或多个)介入工具40的集成53可以处于适合于特定介入程序的任何配置。更具体地,(一个或多个)EM传感器33被设置在介入工具40内以勾画介入设备52的一个或多个跟踪节点。
例如,图9B图示了被同轴地嵌入在导丝40a内以配置如在本公开的领域中已知的EM感测的导丝52a的形式的EM感测的介入设备52的三(3)个EM传感器33a、33b和33c。EM感测的导丝52a可以被包含到涉及导丝的利用的任何介入程序中,其中EM感测的导丝52a可以根据需要在解剖区域内经由如在本公开的领域中已知的EM传感器33的电磁场感测被导航。
对于该范例,EM传感器33a、33b和33c被设置在导丝40a的远端41d中以勾画介入设备52a的远侧跟踪节点。
参考图7和图8,本公开的EM驱动的显示系统和方法涉及用EM感测的介入设备52代替OSS介入设备50,其中添加的EM场生成器诱发对如在本公开的领域中已知的指示EM感测的介入设备52的跟踪节点的定位的EM感测数据形式的定位跟踪数据的生成。
在原位实施例中,参考图10A,本公开的发明提供了X数量个原位传感器34(例如,超声传感器)(X≥1)和一个或多个介入工具40的集成55以将原位感测的介入设备54配置用于执行涉及原位感测的介入设备54在一个或多个解剖区域(例如,心血管系统的心脏和血管、呼吸系统的气道和肺、消化系统的胃和肠、以及肌肉骨骼系统内的孔)内的导航的介入程序。
此外,介入工具40的范例包括但不限于血管介入工具(例如,导丝、导管、支架鞘、球囊、粥样斑切除导管、IVUS成像探头、部署系统等)、腔内介入工具(例如,内窥镜、支气管镜等)和矫形介入工具(例如,克氏针(K-wire)和螺丝刀)。
在实践中,(一个或多个)原位传感器34和(一个或多个)介入工具40的集成55可以处于适合于特定介入程序的任何配置。更具体地,(一个或多个)原位传感器34被设置在介入工具40内以勾画介入设备54的一个或多个跟踪节点。
例如,图10B图示了被同轴地嵌入在导丝40a内以配置如在本公开的领域中已知的原位感测的导丝54a的形式的原位感测的介入设备54的三(3)个原位传感器34a、34b和34c。原位感测的导丝54a可以被包含到涉及导丝的利用的任何介入程序内,其中原位感测的导丝54a可以根据需要在解剖区域内经由如在本公开的领域中已知的通过原位传感器34的成像能量感测被导航。
对于该范例,原位传感器34a、34b和34c被设置在导丝40a的远端41d中以勾画介入设备54a的远侧跟踪节点。
参考图7和图8,本公开的原位驱动的显示系统和方法涉及利用原位感测的介入设备54代替OSS介入设备50,其中成像系统70或除了成像系统70之外的成像设备(例如,超声探头)诱发对如在本公开的领域中已知的指示原位感测的介入设备54的跟踪节点的定位的原位感测数据形式的定位跟踪数据的生成。
参考图1-10,本领域普通技术人员将意识到本公开的许多益处,包括但不限于通过提供基于介入设备在解剖区域内的定位(即,位置和/或取向)的定位跟踪技术信息来自动更新对图示介入设备在解剖区域内的导航的图像的实时显示对用于实施介入程序的现有系统、控制器和方法的改进。
此外,如本领域普通技术人员鉴于本文中提供的教导将意识到的,在本公开/说明书中描述的和/或在附图中描绘的特征、元件、部件等等均可以被实施为电子部件/电路、硬件、可执行软件与可执行固件的各种组合,并提供可以被组合在单个元件或多个元件中的功能。例如,可以通过使用专用硬件以及能够与合适的软件相关联地运行软件的硬件来提供在附图中示出/图示/描绘的各个特征、元件、部件等等的功能。当由处理器提供时,所述功能可以由单个专用处理器、由单个共享处理器或由多个个体处理器(它们中的一些可以是共享和/或复用的)提供。而且,对术语“处理器”或“控制器”的明确使用不应被解释为专指能够运行软件的硬件,并且能够暗含地包括但不限于数字信号处理器(“DSP”)硬件、存储器(例如用于存储软件的只读存储器(“ROM”)、随机存取存储器(“RAM”)、非易失性存储器,等等)以及能够(和/或可配置为)执行和/或控制过程的几乎任意手段和/或机器(包括硬件、软件、固件、电路、其组合,等等)。
而且,本文中详述本发明的原理、方面及实施例,以及其具体范例的所有记载,均意图涵盖其结构性和功能性的等同。额外地,目的是这样的等同包括目前已知的等同以及未来发展的等同两者(例如所开发的能够执行相同或基本相似的功能的任意元件,而无论其结构)。因此,例如鉴于本文提供的教导,本领域普通技术人员将认识到,本文提供的任意框图均可以表示实现本发明的发明原理的示范性系统部件和/或电路的概念性视图。类似地,鉴于本文提供的教导,本领域普通技术人员应认识到,任意流程图、作业图等等均能表示各种过程,所述过程基本上能被表示在计算机可读存储介质中,并由具有处理能力的计算机、处理器或其他设备如此运行,而无论是否明确示出这样的计算机或处理器。
此外,本公开的示范性实施例可以采取可从计算机可用和/或计算机可读存储介质访问的计算机程序产品和应用模块的形式,所述存储介质提供由例如计算机或任意指令执行系统使用或与所述计算机或任意指令执行系统相连的程序代码和/或指令。根据本公开,计算机可用或计算机可读存储介质可以为任意这样的设备,所述设备能够(例如)包括、存储、传递、传播或输送由指令执行系统、装置或设备使用或与所述指令执行系统、装置或设备相连的程序。这样的示范性介质可以为例如电子、磁性、光学、电磁、红外或半导体系统(或装置或设备)或传播介质。计算机可读介质的范例包括例如半导体或固态存储器、磁带、可移除计算机磁盘、随机存取存储器(RAM)、只读存储器(ROM)、闪存(驱动)、刚性磁盘和光盘。光盘的当前范例包括紧凑盘-只读存储器(CD-ROM)、紧凑盘-读/写(CD-R/W)和DVD。另外,应理解,以后可能开发出的任何新的计算机可读介质也均应被视为根据本公开和公开内容的示范性实施例可以使用或涉及到的计算机可读介质。
已经描述了新颖的且有创造性的定位跟踪驱动的显示系统、控制器和方法的优选的且示范性的实施例(这些实施例意图为说明性的而非限制性的),值得注意的是,本领域普通技术人员鉴于本文(包括附图)中提供的教导能够进行修改和变型。因此,应理解,可以对本公开的优选的且示范性的实施例进行改变,所述改变在本文公开的实施例的范围内。
此外,应预见到,包含和/或实施所述设备或诸如可以在根据本公开的设备中使用/实施的对应的和/或相关的系统也被预见并认为在本公开的范围内。此外,用于制造和/或使用根据本公开的设备和/或系统的对应的和/或相关的方法也被预见并被认为在本公开的范围内。

Claims (14)

1.一种用于显示介入设备(50)的定位跟踪器驱动的显示系统,所述介入设备包括至少一个定位跟踪器和至少一个介入工具的集成,所述定位跟踪器驱动的显示系统包括:
监视器(121);以及
显示控制器(110),其用于控制对图示所述介入设备(50)的跟踪节点在解剖区域内的导航的跟踪图像在所述监视器(121)上的实时显示,
其中,所述显示控制器(110)被配置为基于指示所述至少一个定位跟踪器在图像空间中的所述解剖区域内的位置和取向的定位跟踪数据来在图示所述图像空间内的所述解剖区域的多幅配准的空间图像之中自主地选择一幅空间图像,作为所述跟踪图像,
其中,所述显示控制器(110)根据由所述定位跟踪数据指示的所述介入设备(50)的所述跟踪节点相对于所述图像空间的位置和取向来导出对所述跟踪图像的自主选择,并且
其中,所述显示控制器(110)被配置为以基于所述介入设备(50)的所述跟踪节点的所述取向选择的方向视图来显示自主选择的跟踪图像。
2.根据权利要求1所述的定位跟踪器驱动的显示系统,
其中,所述显示控制器(110)还被配置为根据由所述定位跟踪数据指示的所述介入设备(50)的所述跟踪节点相对于所述图像空间的位置来控制对所述跟踪图像的轴向方向视图在所述监视器(121)上的所述实时显示。
3.根据权利要求1所述的定位跟踪器驱动的显示系统,
其中,所述显示控制器(110)还被配置为根据由所述定位跟踪数据指示的所述介入设备(50)的所述跟踪节点相对于所述图像空间的位置和取向来控制对所述跟踪图像的非轴向方向视图在所述监视器(121)上的所述实时显示。
4.根据权利要求1所述的定位跟踪器驱动的显示系统,
其中,所述显示控制器(110)还被配置为控制对在所述跟踪图像内图示的所述介入设备(50)的所述跟踪节点的放大图像的显示。
5.根据权利要求1所述的定位跟踪器驱动的显示系统,
其中,所述显示控制器(110)还被配置为控制对由所述定位跟踪数据指示的所述介入设备(50)的非跟踪节点相对于所述跟踪图像的放大图像的显示。
6.根据权利要求1所述的定位跟踪器驱动的显示系统,
其中,所述显示控制器(110)还被配置为控制对邻近所述跟踪图像的至少一幅空间图像的实时显示。
7.根据权利要求1所述的定位跟踪器驱动的显示系统,还包括:
成像系统,其能操作用于生成所述解剖区域的介入图像;
其中,所述显示控制器(110)被配置为控制所述成像系统相对于所述解剖区域的定位;并且
其中,所述显示控制器(110)根据由所述定位跟踪数据指示的所述介入设备(50)的所述跟踪节点相对于所述配准的空间图像的图像空间的所述定位来导出所述成像系统相对于所述解剖区域的所述定位。
8.根据前述权利要求中的任一项所述的定位跟踪器驱动的显示系统,还包括介入设备(50),其包括至少一个定位跟踪器和至少一个介入工具的集成。
9.根据权利要求8所述的定位跟踪器驱动的显示系统,
其中,所述至少一个定位跟踪器包括以下中的至少一个:光学形状传感器、电磁传感器和原位传感器。
10.一种存储有程序代码的计算机可读介质,所述程序代码用于实施用于介入设备(50)的定位跟踪器驱动的显示方法,所述介入设备包括至少一个定位跟踪器和至少一个介入工具的集成,所述定位跟踪器驱动的显示方法包括:
显示控制器(110)基于指示所述至少一个定位跟踪器在解剖区域内的定位的定位跟踪数据来在图示图像空间内的所述解剖区域的多幅配准的空间图像之中自主选择一幅空间图像,作为跟踪图像,
其中,所述显示控制器(110)根据由所述定位跟踪数据指示的所述介入设备(50)的跟踪节点相对于所述图像空间的取向来导出对所述跟踪图像的所述自主选择;以及
所述显示控制器(110)控制对图示所述介入设备(50)的所述跟踪节点在所述解剖区域内的导航的所述跟踪图像在监视器(121)上的实时显示,
其中,所述显示控制器(110)被配置为以基于所述介入设备(50)的所述跟踪节点的所述取向选择的方向视图来显示自主选择的跟踪图像。
11.根据权利要求10所述的计算机可读介质,
其中,所述显示控制器(110)根据由所述定位跟踪数据指示的所述介入设备(50)的所述跟踪节点相对于所述图像空间的位置来控制对所述跟踪图像的轴向方向视图在所述监视器(121)上的所述实时显示。
12.根据权利要求10所述的计算机可读介质,
其中,所述显示控制器(110)根据由所述定位跟踪数据指示的所述介入设备(50)的所述跟踪节点相对于所述图像空间的位置和取向来控制对所述跟踪图像的非轴向方向视图在所述监视器(121)上的所述实时显示。
13.根据权利要求10所述的计算机可读介质,
其中,所述显示控制器(110)还被配置为控制对以下中的至少一个的显示:
在所述跟踪图像内图示的所述介入设备(50)的所述跟踪节点的放大图像;以及
由所述定位跟踪数据指示的所述介入设备(50)的非跟踪节点相对于所述跟踪图像的放大图像。
14.根据权利要求10所述的计算机可读介质,
其中,所述显示控制器(110)控制成像系统相对于所述解剖区域的定位,所述成像系统能操作用于生成所述解剖区域的介入图像;并且
其中,所述显示控制器(110)根据由所述定位跟踪数据指示的所述介入设备(50)的所述跟踪节点相对于所述图像空间的所述定位来导出所述成像系统相对于所述解剖区域的所述定位。
CN201880070258.5A 2017-08-28 2018-08-23 对定位跟踪的介入设备的自动视场更新 Active CN111278381B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762550710P 2017-08-28 2017-08-28
US62/550,710 2017-08-28
PCT/EP2018/072738 WO2019042854A1 (en) 2017-08-28 2018-08-23 AUTOMATIC VISUAL FIELD UPDATE OF A POSITION FOLLOW-UP INTERVENTION DEVICE

Publications (2)

Publication Number Publication Date
CN111278381A CN111278381A (zh) 2020-06-12
CN111278381B true CN111278381B (zh) 2024-04-09

Family

ID=63364068

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880070258.5A Active CN111278381B (zh) 2017-08-28 2018-08-23 对定位跟踪的介入设备的自动视场更新

Country Status (5)

Country Link
US (1) US20200253668A1 (zh)
EP (1) EP3675763B1 (zh)
JP (1) JP7319248B2 (zh)
CN (1) CN111278381B (zh)
WO (1) WO2019042854A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7320625B2 (ja) * 2019-05-31 2023-08-03 ティーブイエー メディカル, インコーポレイテッド 血管の血管内治療のためのシステム、方法、およびカテーテル
WO2022048984A1 (en) * 2020-09-02 2022-03-10 Koninklijke Philips N.V. Medical intervention control based on device type identification

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016108110A1 (en) * 2014-12-31 2016-07-07 Koninklijke Philips N.V. Relative position/orientation tracking and visualization between an interventional device and patient anatomical targets in image guidance systems and methods
CN105873521A (zh) * 2014-01-02 2016-08-17 皇家飞利浦有限公司 相对超声成像平面的仪器对准和跟踪
CN105992996A (zh) * 2014-04-04 2016-10-05 外科手术室公司 外科手术环境中的动态和交互式导航
CN106061424A (zh) * 2013-12-20 2016-10-26 皇家飞利浦有限公司 用于跟踪穿刺器械的系统和方法
CN106102585A (zh) * 2015-02-16 2016-11-09 深圳迈瑞生物医疗电子股份有限公司 三维成像数据的显示处理方法和三维超声成像方法及系统
WO2017055976A1 (en) * 2015-10-02 2017-04-06 Koninklijke Philips N.V. Electromagnetic navigation device for guiding and tracking an interventional tool

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4476430B2 (ja) 2000-04-25 2010-06-09 東芝メディカルシステムズ株式会社 カテーテルまたは細径プローブの位置を検出可能な超音波診断装置
US7346381B2 (en) 2002-11-01 2008-03-18 Ge Medical Systems Global Technology Company Llc Method and apparatus for medical intervention procedure planning
JP2005111110A (ja) 2003-10-10 2005-04-28 Pentax Corp 内視鏡システム
US8682413B2 (en) * 2006-11-15 2014-03-25 General Electric Company Systems and methods for automated tracker-driven image selection
US20100030063A1 (en) * 2008-07-31 2010-02-04 Medtronic, Inc. System and method for tracking an instrument
RU2013124010A (ru) * 2010-10-27 2014-12-10 Конинклейке Филипс Электроникс Н.В. Адаптивное формирование изображений и оптимизация частоты кадров на основе распознавания формы медицинских инструментов в режиме реального времени
EP2744389B1 (en) * 2011-08-21 2019-10-30 M.S.T. Medical Surgery Technologies Ltd. Device for assisting laparoscopic surgery - rule based approach
EP3089670A4 (en) * 2014-01-02 2017-10-11 Metritrack, Inc. System and method for tracking completeness of co-registered medical image data
JP2015150206A (ja) 2014-02-14 2015-08-24 株式会社日立メディコ X線撮像装置
US20150305650A1 (en) * 2014-04-23 2015-10-29 Mark Hunter Apparatuses and methods for endobronchial navigation to and confirmation of the location of a target tissue and percutaneous interception of the target tissue
US9848799B2 (en) * 2014-06-25 2017-12-26 Biosense Webster (Israel) Ltd Real-time generation of MRI slices
US11188285B2 (en) * 2014-07-02 2021-11-30 Covidien Lp Intelligent display
CN106659477A (zh) * 2014-07-14 2017-05-10 皇家飞利浦有限公司 用于介入流程的网格校准系统
KR101636876B1 (ko) * 2014-11-03 2016-07-06 삼성전자주식회사 의료 영상 처리 장치 및 방법
SE542045C2 (en) * 2016-05-15 2020-02-18 Ortoma Ab Calibration object, system, and method calibrating location of instrument in a navigation system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106061424A (zh) * 2013-12-20 2016-10-26 皇家飞利浦有限公司 用于跟踪穿刺器械的系统和方法
CN105873521A (zh) * 2014-01-02 2016-08-17 皇家飞利浦有限公司 相对超声成像平面的仪器对准和跟踪
CN105992996A (zh) * 2014-04-04 2016-10-05 外科手术室公司 外科手术环境中的动态和交互式导航
WO2016108110A1 (en) * 2014-12-31 2016-07-07 Koninklijke Philips N.V. Relative position/orientation tracking and visualization between an interventional device and patient anatomical targets in image guidance systems and methods
CN106102585A (zh) * 2015-02-16 2016-11-09 深圳迈瑞生物医疗电子股份有限公司 三维成像数据的显示处理方法和三维超声成像方法及系统
WO2017055976A1 (en) * 2015-10-02 2017-04-06 Koninklijke Philips N.V. Electromagnetic navigation device for guiding and tracking an interventional tool

Also Published As

Publication number Publication date
WO2019042854A1 (en) 2019-03-07
JP7319248B2 (ja) 2023-08-01
EP3675763B1 (en) 2023-07-26
US20200253668A1 (en) 2020-08-13
JP2020531180A (ja) 2020-11-05
EP3675763A1 (en) 2020-07-08
CN111278381A (zh) 2020-06-12

Similar Documents

Publication Publication Date Title
CN109996511B (zh) 用于引导进程的系统
EP3170456B1 (en) Systems and methods for ultrasound image-guided ablation antenna placement
CN105050525B (zh) 用于跟踪介入器械的形状传感器系统以及使用方法
US20190231436A1 (en) Anatomical model for position planning and tool guidance of a medical tool
JP7350470B2 (ja) 解剖学的画像における内視鏡の位置及び光軸の表示
US9282915B2 (en) Method and system for generating and/or repairing a surface model of a geometric structure
CN106901719B (zh) 用于使工具可视化的坐标系统之间的配准
EP3193765B1 (en) Processing system arranged to cooperate with an optical-shape-sensing-enabled interventional device
EP2696770A1 (en) Ultrasound guided positioning of cardiac replacement valves with 3d visualization
CN105828721B (zh) 用于微创介入的形状感测的机器人超声
US11602396B2 (en) OSS foreshortening detection systems, controllers and methods
JP6869715B2 (ja) ツールを可視化するための位置及び配向の確認
CN112312856A (zh) 用于执行和评估程序的系统和方法
CN111278381B (zh) 对定位跟踪的介入设备的自动视场更新
US11887236B2 (en) Animated position display of an OSS interventional device
CN112236099A (zh) 执行和评估程序的系统和方法
WO2022048984A1 (en) Medical intervention control based on device type identification
US20230360212A1 (en) Systems and methods for updating a graphical user interface based upon intraoperative imaging

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant