CN114727848A - 用于ent规程的可视化系统和方法 - Google Patents

用于ent规程的可视化系统和方法 Download PDF

Info

Publication number
CN114727848A
CN114727848A CN202080074110.6A CN202080074110A CN114727848A CN 114727848 A CN114727848 A CN 114727848A CN 202080074110 A CN202080074110 A CN 202080074110A CN 114727848 A CN114727848 A CN 114727848A
Authority
CN
China
Prior art keywords
image
patient anatomy
patient
orientation
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080074110.6A
Other languages
English (en)
Inventor
J·帕卢施
I·巴斯坦
N·拉彻利
I·方
A·帕帕达基斯
V·格利纳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Biosense Webster Israel Ltd
Acclarent Inc
Original Assignee
Biosense Webster Israel Ltd
Acclarent Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Biosense Webster Israel Ltd, Acclarent Inc filed Critical Biosense Webster Israel Ltd
Publication of CN114727848A publication Critical patent/CN114727848A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/24Surgical instruments, devices or methods, e.g. tourniquets for use in the oral cavity, larynx, bronchial passages or nose; Tongue scrapers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles

Abstract

可视化系统可与图像引导外科手术导航系统一起实施,以供在ENT规程期间使用。相关数据集诸如外科手术路径和术前图像切片可与该导航系统的坐标系相关,以供在规程期间参考。外科医生可佩戴具有透明屏幕的头戴式显示器(“HMD”),通过该透明屏幕可查看患者解剖结构。该头戴式显示器相对于该患者解剖结构的取向和距离可使用磁位置跟踪、对由该HMD的相机捕获的图像的图像分析或两者来确定。然后可基于该相对距离和取向来变换相关数据集,并且可经由该透明屏幕显示以叠加直接查看的患者解剖结构。一些具体实施可包括与患者跟踪组件集成的光学基准,以帮助跟踪该患者并确定该HMD的视角。

Description

用于ENT规程的可视化系统和方法
优先权
本申请要求2019年10月24日提交的名称为“Visualization System and Methodfor ENT Procedures”的美国临时专利申请No.62/925,441的优先权,其公开内容以引用方式并入本文。
背景技术
在外科手术规程期间使用图像引导外科手术导航系统,以提供外科手术部位或其他患者解剖结构的附加信息和视觉视角。这可包括从各种视角显示外科手术部位的术前图像(例如,CT图像),并且还可包括将标记叠加到此类显示图像上以指示静态信息,诸如外科手术器械在规程期间将采取的计划路径,以及动态信息,诸如外科手术器械的远侧末端的当前位置。此类信息可用于提高外科手术器械导航到患者体内特定位置的准确性和安全性。
考虑到在图像引导外科手术期间可用的附加信息的广度,外科医生或其他从业者有时可能会在外科手术部位视图之间切换时或在直接查看患者解剖结构和查看患者解剖结构的模拟图像之间切换时变得空间迷失方向。例如,在一些情况下,外科医生可能会在图像引导外科手术导航系统的显示器上查看患者头部轴向视图的CT切片,同时还会偶尔直接查看患者头部。在此类情况下,外科医生可能变得迷失方向,并且无法确定其直接感知和轴向视图之间的空间和定向对应关系,这可能导致外科手术器械在患者头部内的错误移动。
虽然已研制出若干系统和方法并用于ENT手术,但是据信,本发明人之前尚未有人研制出或使用所附权利要求书中所描述的发明。
附图说明
并入本说明书中并构成本说明书的一部分的附图示出了本发明的实施方案,并且与上面给出的本发明的一般描述以及下面给出的实施方案的详细描述一起用于解释本发明的原理。
图1示出了在坐在示例性医疗手术椅中的患者上使用的示例性手术导航系统的示意图;
图2A示出了放置在图1的患者身上的示例性患者跟踪器的示意图;
图2B示出了诸如图2A所示的示例性患者跟踪器的透视图;
图3示出了可与图1的外科手术导航系统一起使用的示例性查看装置的示意图;
图4示出了图3中所示的一个示例性查看装置的透视图;
图5示出了可用图1的外科手术导航系统执行的示例性步骤集的流程图,以提供用于ENT规程的可视化;
图6A示出了示例性界面,其示出了可在用于ENT规程的可视化期间提供的患者面部的正视图;
图6B示出了示例性界面,其示出了可在用于ENT规程的可视化期间提供的患者面部的侧视图;
图6C示出了示例性界面,其示出了可在用于ENT规程的可视化期间提供的患者面部的透视图;
图7A示出了可与图1的外科手术导航系统一起使用的示例性计算机断层扫描(CT)图像;
图7B示出了示例性界面,其示出了可在用于ENT规程的可视化期间提供的叠加了CT图像的患者面部的前视图;
图7C示出了示例性界面,其示出了可在用于ENT规程的可视化期间提供的叠加了CT图像的患者面部的侧视图;
图7D示出了示例性界面,其示出了可在用于ENT规程的可视化期间提供的叠加了CT图像的患者面部的透视图;并且
图8示出了示出相机和患者头部在三维坐标系内的相对位置和取向的示意图。
附图并非旨在以任何方式进行限制,并且可以设想本发明的各种实施方案可以多种其它方式来执行,包括那些未必在附图中示出的方式。并入本说明书中并构成其一部分的附图示出了本发明的若干方面,并与说明书一起用于解释本发明的原理;然而,应当理解,本发明并不限于所示出的明确布置方式。
具体实施方式
本发明的某些示例的以下说明不应用于限定本发明的范围。根据以举例的方式示出的以下说明,本发明的其他示例、特征、方面、实施方案和优点对于本领域的技术人员而言将是显而易见的,一种最佳方式被设想用于实施本发明。如将认识到,本发明能够具有其它不同且明显的方面,所有这些方面均不脱离本发明。因此,附图和说明应被视为实质上是例示性的而非限制性的。
为公开的清楚起见,术语“近侧”和“远侧”在本文中是相对于握持具有远侧外科端部执行器的外科器械的外科医生或其他操作者定义的。术语“近侧”是指元件更靠近外科医生布置的位置,并且术语“远侧”是指元件更靠近外科器械的外科端部执行器且更远离外科医生布置的位置。此外,在本文中参照附图来使用空间术语诸如“上部”、“下部”、“竖直”、“水平”等的程度,应当理解,此类术语仅用于示例性描述目的,并且不旨在是限制性的或绝对的。就这一点而言,应当理解,外科器械诸如本文所公开的那些可以不限于本文所示和所述的那些取向和位置的多种取向和位置使用。
如本文所用,针对任何数值或范围的术语“约”和“大约”表示允许零件或多个部件的集合执行如本文所述的其指定用途的合适的尺寸公差。
I.示例性图像引导外科手术导航系统
当在患者(P)的头部(H)内执行医疗规程时,可能期望的是获得关于器械在患者(P)的头部(H)内位置的信息,尤其是在器械处于难以或不可能获得器械的工作元件在患者(P)的头部(H)内的内窥镜视图的位置时。图1示出了使得能够利用图像引导执行ENT规程的示例性IGS导航系统(10)。除了具有本文所述的部件和可操作性之外或者代替本文所述的部件和可操作性,IGS导航系统(10)可根据以下专利的教导内容中的至少一些来构造和操作:2010年5月18日公布的名称为“Methods and Devices for Performing Procedureswithin the Ear,Nose,Throat and Paranasal Sinuses”的美国专利7,720,521,其公开内容以引用方式并入本文;以及2014年12月11日公布的名称为“Systems and Methods forPerforming Image Guided Procedures within the Ear,Nose,Throat and ParanasalSinuses”的美国专利公布2014/0364725(现撤销),其公开内容以引用方式并入本文。
本示例的IGS导航系统(10)包括场发生器组件(20),该场发生器组件包括集成到马蹄形框架(22)中的一组磁场发生器(24)。场发生器(24)可操作以围绕患者(P)的头部(H)生成不同频率的交变磁场,以产生IGS导航系统(10)将坐标系与之相关联的跟踪区域。在该示例中,导航导丝(40)被插入到患者(P)的头部(H)中。导航导丝(40)可为独立装置或者可定位在端部执行器或医疗器械(诸如外科切割器械或扩张器械)的其他位置上。在本示例中,将框架(22)安装到座椅(30),其中患者(P)坐在座椅(30)中,使得框架(22)位于患者(P)的头部(H)附近。仅以举例的方式,座椅(30)和/或场发生器组件(20)可根据2020年2月18日公布的名称为“Apparatus to Secure Field Generating Device to Chair”的美国专利10,561,370的教导内容中的至少一些来构造和操作,其公开内容以引用方式并入本文。
本示例的IGS导航系统(10)还包括处理器(12),该处理器控制场发生器(24)和IGS导航系统(10)的其他元件。例如,处理器(12)能够操作以驱动场发生器(24)生成交变电磁场;以及处理来自导航导丝(40)的信号,以确定传感器在患者(P)的头部(H)内的导航导丝(40)中的位置。处理器(12)包括与一个或多个存储器通信的处理单元(例如,被布置成使用组合逻辑电路或其他类似电路评估和执行软件指令的电子电路集合)。本示例的处理器(12)安装在控制台(18)中,该控制台包括操作控件(14),该操作控件包括键盘和/或指向装置,诸如鼠标或轨迹球。在执行外科规程时,医师使用操作控件(14)与处理器(12)进行交互。
导航导丝(40)包括响应于在场发生器(24)所生成的交变磁场内定位的传感器(未示出)。耦合单元(42)固定到导航导丝(40)的近侧端部并且被配置成在控制台(18)和导航导丝(40)之间提供数据和其他信号的通信。耦合单元(42)可提供数据和其他信号的有线或无线通信。
在本示例中,导航导丝(40)的传感器包括位于导航导丝(40)的远侧端部处的至少一个线圈。当此类线圈定位在场发生器(24)所生成的交变电磁场内时,交变磁场可在线圈中生成电流,并且此电流可沿着导航导丝(40)中的电导管传送,并且经由耦合单元(42)进一步传送到处理器(12)。该现象可以使IGS导航系统(10)能够确定导航导丝(40)的远侧端部或其他医疗器械(例如,扩张器械、外科切割器械等)在三维空间内(即,在患者(P)的头部(H)内等)的位置。为了实现这一点,处理器(12)执行算法以根据导航导丝(40)中线圈的位置相关信号计算导航导丝(40)的远侧端部的位置坐标。虽然在该示例中位置传感器位于导丝(40)中,但是此类位置传感器可集成到各种其他类型的器械中,诸如扩张导管、引导导管、导轨、抽吸器械、指针器械、配准探针、刮器、患者跟踪器和其他器械,包括下文更详细地描述的那些。
处理器(12)使用存储在处理器(12)的存储器中的软件来校准和操作IGS导航系统(10)。此类操作包括驱动场发生器(24)、处理来自导航导丝(40)的数据、处理来自操作控件(14)的数据以及驱动显示屏(16)。在一些具体实施中,操作还可包括监视以及强制执行IGS导航系统(10)的一个或多个安全特征结构或功能。处理器(12)可进一步操作以经由显示屏(16)提供实时视频,该显示屏示出导航导丝(40)的远侧端部相对于患者头部(H)的相机图像、患者头部(H)的CT扫描图像和/或患者鼻腔内及患者鼻腔附近的解剖结构的计算机生成的三维模型的位置。显示屏(16)可在外科手术期间同时地和/或彼此叠加地显示此类图像。此类显示图像还可包括插入患者头部(H)中的器械(诸如导航导丝(40))的图形表示,使得操作者可实时查看器械在其实际位置的虚拟渲染。仅以举例的方式,显示屏(16)可根据2019年11月5日公布的名称为“Guidewire Navigation for Sinuplasty”的美国专利10,463,242的教导内容中的至少一些来提供图像,其公开内容以引用方式并入本文。在操作者还使用内窥镜的情况下,也可在显示屏(16)上提供内窥镜图像。
当器械结合导航导丝(40)时,通过显示屏(16)提供的图像可帮助引导操作者在患者头部(H)内调转和另外操纵此类器械。还应当理解,如下所述的外科器械和其他种类的外科器械的其他部件可结合传感器(如导航导丝(40)的传感器)。
在一些具体实施中,IGS导航系统(10)可包括患者跟踪组件(50),该患者跟踪组件可放置在患者头部(H)或患者(P)的另一适当部分上,如图2A所示。通过与导丝(40)分开但在相同坐标系内跟踪头部(H),可在规程期间确定导丝(40)和头部(H)相对于彼此的位置和取向。这在头部(H)被配准以确定其在坐标系内的初始位置但随后在规程期间移动的情况下可能是有利的。通过独立地跟踪头部(H),可检测旋转或其他移动,并且可更新初始配准以考虑头部(H)的新位置。这样,在规程期间使用的任何图像引导导航特征,诸如显示具有指示导丝(40)在头部(H)内的位置的叠加标记的CT图像切片,可响应于这种移动而自动更新。患者跟踪组件(50)的具体实施可根据2017年12月14日提交的名称为“Mounted PatientTracking Component for Surgical Navigation System”的美国专利公布2019/0183582的任何教导与IGS导航系统(10)一起构造和操作,其公开内容以引用方式并入本文中。
作为患者跟踪组件(50)的一个示例,图2B示出了可容易地结合到IGS导航系统(10)中的患者跟踪组件(200)。患者跟踪组件(200)包括一次性部分(210)和可重复使用部分(250)。一次性部分(210)被配置成附接到患者的头部(H)或患者的另一合适部分(例如,使用柔性粘结垫),并且被配置成选择性地与可重复使用部分(250)的耦合块(220)耦合,使得可重复使用部分(250)在示例性使用期间相对于患者(P)的头部或另一部分固定;而可重复使用部分(250)被配置成与处理器(12)通信以便跟踪患者(P)的头部(H)的位置。
可重复使用部分(250)包括从耦合组件(254)向近侧延伸的线缆(252)和传感器(255)。在使用期间,耦合组件(254)适于将可重复使用部分(250)与一次性部分(210)耦合。当与一次性部分(210)正确耦合时,传感器(255)可与处理器(12)一起使用以确定所跟踪解剖结构的位置,使得在示例性使用期间处理器(12)可准确地显示导航导丝(40)(或任何其他合适的器械)相对于患者(P)的解剖结构的位置。线缆(252)被配置成在示例性使用期间提供用于传感器(255)和处理器(12)之间的通信的导管。因此,线缆(252)可直接连接,使得传感器(255)经由线缆(252)与处理器(110)有线通信。另选地,线缆(252)可将传感器(255)与和处理器(12)无线通信的无线通信装置连接,类似于耦合单元(42)如何在导航导丝(40)和处理器(12)之间建立无线通信。
II.用于ENT规程的示例性可视化系统
图3示出了可与IGS导航系统(10)一起实施以便在外科手术规程期间提供附加信息和图像导航视图的可视化系统(60)。具体地,可视化系统(60)可提供在增强现实视图中显示信息的导航视图,该增强现实视图叠加在近实时的规程期间捕获的患者的图像上。这可有利地减少外科医生在规程期间查看显示屏(16)或另一显示器而不是查看患者的频率和需要,并且还可帮助外科医生在物理世界和由IGS导航系统(10)提供的图像导航视图之间进行空间定位。
在图像引导外科手术规程期间,通过配置头戴式显示器(“HMD”)(100)、手持式显示器(“HHD”)(101)或与IGS导航系统(10)通信的另一类似装置中的一者或多者,可视化系统(60)可与IGS导航系统(10)一起实施,如将在下文更详细地描述的。图4示出了HMD(100)的透视图,其包括可佩戴在外科医生或与图像引导外科手术规程相关的其他用户的面部上的框架(102)。壳体(108)被示出为安装到框架(102),但也可被佩戴或安装在其他地方并且经由到那些装置的有线或无线连接与安装在框架(102)上的装置耦合。壳体(108)包括视角传感器(110),其可操作以提供指示HMD(100)的视角、位置或两者的空间信息。视角传感器(110)例如可包括陀螺仪、加速度计或位置传感器(例如,诸如导丝(40)的传感器)中的一者或多者。来自视角传感器(108)的信息可用于确定安装到框架(102)的相机(106)的视觉视角的一个或多个方面,该一个或多个方面可包括确定相机(106)的光轴的取向(例如,一个或多个轴线的旋转坐标)、相机的位置(106)相对于IGS导航系统(10)的坐标系(例如,一个或多个轴线的位置坐标),或两者,如下文将更详细地描述。
壳体(108)还包括通信装置(112)以及处理器和存储器(114),该通信装置可以是能够与处理器(12)或其他装置通信的有线或无线收发器,该处理器和存储器被配置成处理和存储数据并执行与HMD(100)的功能相关的功能。还可包括电源(116),其是电池或到外部电源的连接,并且被配置成向处理器和存储器(114)、通信装置(112)、相机(106)、显示器(104)和HMD(100)的其他部件提供电力。
当佩戴时,框架(102)定位安装到框架(102)和/或壳体(108)的相机(106),使得当佩戴者直视前方时,其光轴基本上平行于佩戴者眼睛的光轴。当本文使用时,术语“中性光轴”可以指当HMD(100)的佩戴者基本上直视前方时(例如,眼睛的瞳孔在眼眶或眼眶内基本上垂直和水平居中)佩戴者眼睛的光轴。这样,相机(106)捕获具有与HMD(100)的佩戴者相似的视场的图像。例如,当佩戴者直视前方时,相机(106)可捕获包括佩戴者右眼的视场的一些或全部视场的图像,相机(106)最靠近该视场。相机(106)可以能够捕获图像、视频和音频,这些图像、视频和音频可由处理器和存储器(114)存储,经由通信装置(112)传输到处理器(12),或者传输到另一个装置并在另一个装置上显示或呈现,这对于本领域技术人员根据本公开将是显而易见的。由相机(106)捕获的图像数据还可用于计算机视觉和其他分析,该计算机视觉和其他分析可包括例如识别捕获图像的对象或其他视觉特性。这种分析可由处理器(114)、处理器(12)或两者执行,或者也可使用各种云计算或边缘处理技术来执行,这对于本领域技术人员根据本公开将是显而易见的。
显示器(104)也安装到框架(102)和/或壳体(108)并且被定位成位于HMD(100)的佩戴者的视场内。在一些具体实施中,显示器(104)如果不是透明的则至少是部分半透明的,并且可由处理器(114)操作以渲染看起来叠加在佩戴者的视场上的图像。例如,显示器(104)可显示由相机(106)捕获的图像,这可能会阻挡佩戴者最近眼睛的视场的一些或全部视场,但在其他方面看起来与佩戴者对该眼睛的正常视场相似。又如,可对捕获图像执行图像分析以识别该图像内的感兴趣对象(例如,在外科手术导航的背景下、人面部或人解剖结构的另一个部分),并且显示器(104)可操作以渲染视觉标记,该视觉标记对于佩戴者来说看起来叠加在他们对所识别的对象的直接视图(例如,通过显示器(104)的透明部分查看)上。在以上的一些具体实施中,可将光学标记或其他基准标记放置在感兴趣对象上,以便提供具有由于其反射率、形状或其他视觉特性易于识别的对象的图像数据,使得放置在人面部上的光学标记而不是人面部本身可被识别。
又如,显示器(104)可操作以基于代替图像分析或机器视觉或除了图像分析或机器视觉之外的其他输入来渲染叠加佩戴者的视场的直接视场的视觉标记。例如,这可包括基于来自视角传感器(110)、处理器(12)、患者跟踪器(50)(例如,通过与处理器(12)通信)和其他装置的信息来渲染视觉标记。这可包括渲染提供与HMD(100)的旋转视角相关联的信息的视觉标记(例如,基于视角传感器(100)的陀螺仪特征)。又如,这可包括基于与外科手术器械和HMD(100)相关联的跟踪信息来渲染叠加外科手术器械(例如,导丝(40))的视觉标记。换句话讲,当处理器(12)能够跟踪和确定外科手术器械和HMD(100)的相对位置并且可确定HMD(100)的取向(例如,使用视角传感器(110))时,可经由显示器(104)确定所跟踪对象相对于彼此的位置和比例并且产生为渲染标记。
对于本领域技术人员根据本公开将是显而易见的,还可使用处显示器(104)之外的其他显示器来执行上述特征中的一些或全部特征。例如,在一些具体实施中,单独的显示器(例如,显示屏(16)或对整个房间可见的壁装式显示器)可被配置成接收和显示从相机(106)捕获的图像以及任何可添加的标记、渲染或其他叠加数据。在此类具体实施中,显示器(104)可仅渲染叠加图像,而单独的显示器可渲染由相机(106)捕获的图像和任何对应的叠加图像的组合。除了HMD(100)的佩戴者之外,这可允许规程中的其他参与者查看附加导航视图。在一些此类具体实施中,HMD(100)可不包括显示器(104),并且可在显示屏(16)或定位在患者附近的另一个显示器上查看捕获图像和渲染叠加的组合。
HHD(101)可共享HMD(100)的一些或全部能力,并且可以是例如智能手机、平板电脑、专有装置或具有能力诸如处理和存储数据、执行功能、发送和接收数据、捕获图像、提供空间信息(例如,取向、位置或两者)的其他手持式计算装置。HHD(101)的显示器通常可以是LED或LCD显示器,并且因此可能无法像诸如显示器(104)那样将渲染标记叠加到直接查看对象的透明表面上。在一些具体实施中,HMD(100)或HHD(101)可被修改以包括附加能力。例如,HMD(100)的一些具体实施可能不包括相对于IGS导航系统(10)的坐标系自定位的能力。在这种情况下,传感器可安装(例如,外部或内部)在HMD(100)上,该HMD允许其与IGS导航系统(10)交互并被该IGS导航系统跟踪,类似于导丝(40)和患者跟踪组件(50)。因此,视角传感器(110)的能力可包括默认情况下存在于HMD(100)中的那些以及以后可添加的那些,无论它们是在壳体(108)内还是外部安装在HMD(100)上。
在一些具体实施中,指示HMD(100)的取向和位置的信息可从多个来源获得。作为一个示例,视角传感器(110)可包括能够确定旋转取向的陀螺仪特征,可包括或结合能够由IGS导航系统(10)跟踪的三轴传感器以确定旋转取向,并且可被配置成识别存在于由相机(106)捕获的图像内的光学基准。在此类示例中,处理部件(例如,处理器(114)、处理器(12)或其他处理器)可被配置成通过平衡性能和准确性以各种方式确定取向或位置,这对于本领域技术人员根据本公开将是显而易见的。例如,一些具体实施可仅基于来自HMD(100)本身的陀螺仪信息或来自IGS导航系统(10)的跟踪信息来确定取向或位置以强调性能,而其他具体实施可能会使用陀螺仪、磁跟踪和图像分析信息的组合,目标是以一些性能的潜在代价(例如,HMD(100)的取向或位置改变和完成新的取向或位置的确定之间的延迟,如果有的话)实现更高的准确性。
可视化系统(60)允许在外科手术导航期间收集和使用附加输入和信息,以便向HMD(100)或HHD(101)的用户或者被配置成显示来自相机(106)的图像和任何对应叠加渲染的其他显示器的查看者提供附加导航视图和其他反馈。在不存在可视化系统(60)的情况下,IGS导航系统(10)可获得的有用信息的范围很大程度上局限于在术前图像的背景下使用或显示(例如,由术前成像、CT、MRI或超声图像集产生的3-D患者模型)。
例如,IGS导航系统(10)可允许外科医生在规程之前查看患者的CT图像集,并且绘制出外科医生在规程期间将导航一个或多个外科手术器械的外科手术计划或外科手术路径。在规程期间,外科手术路径然后可叠加在CT图像集上并经由显示屏(16)显示,从而允许外科医生在有限数量的视图(例如,轴向、冠状、矢状)和可能需要的切片之间进行切换。又如,在规程期间,还可跟踪外科手术器械(例如,导丝(40)),并且类似地显示在CT图像集中。当一起显示时,外科医生可能会发现查看显示外科手术器械的跟踪位置和计划的外科手术路径彼此相关的CT图像是有益的。
虽然有用,但上述功能可能会分散外科医生对患者的注意力,因为他们可能需要将视线从患者身上移开才能查看附近的显示装置。当在轴向、冠状和矢状视图之间进行切换时,也可能会迷失方向,因为外科医生相对于患者的实际位置没有改变。例如,外科医生可能正在查看患者头部的轴向平面CT图像,并且在将他们的视野返回到患者时,可能正在查看患者头部的矢状平面。为了利用显示在CT图像上的信息,诸如外科手术器械的位置和取向、外科手术路径和附近解剖腔和结构,外科医生必须首先在思想上变换或将他们对轴向平面的空间理解与矢状平面联系起来,以便知道在哪个方向上导航外科手术器械。这个过程可能会耗费大量精力,可能会在规程期间消耗宝贵的时间,并且还可能导致外科手术器械的错误导航。
为了解决这个问题,可视化系统(60)提供了用于将坐标系和相关联信息与HMD(100)的佩戴者感知到的物理世界相关的框架。此类相关联信息可包括例如CT图像、经配置外科手术路径、实时外科手术器械跟踪、实时患者跟踪、指示应研究或避免的区域的经配置感兴趣的点,以及可与用于IGS导航的坐标系相关的其他类似信息,这些信息在本文中可统称为相关数据集。
一旦相关,这些相关数据集就可经由显示器(104)显示,使得当直接看患者时它们是可用的,而不是仅仅显示在显示屏(16)或另一个附近的显示器上。除了减少指代外部显示器的需求之外,这种具体实施允许HMD(100)的佩戴者通过改变其相对于患者的视角来浏览或导航相关数据集,而不是使用鼠标或键盘对图像切片进行步进、在可视平面之间进行切换或旋转3-D模型。例如,在跟踪的外科手术器械位置和外科手术路径的情况下,外科医生可通过从不同角度移动和观察来从不同视角查看患者头部内的外科器械位置和外科手术路径的渲染叠加,而不是局限于使用鼠标或键盘界面在CT图像切片和CT图像平面之间进行步进。
作为上述示例性具体实施,图5示出了步骤集(300),其可与可视化系统(60)一起执行以经由HMD(100)或另一个查看装置渲染和显示相关数据集,而图6A至图6C和图7A至图7C示出了可以用可视化系统(60)显示或查看的示例性界面。在为规程定位患者之后,可对患者进行配准(框302),并且在包括患者跟踪组件(50)的具体实施中,在IGS导航坐标系内进行跟踪。患者的配准可包括使用配准探针或其他装置来向坐标系提供对应于患者解剖结构的多个位置,可包括放置、校准和使用患者跟踪组件(50)或两者,或者可包括其他配准技术。配准(框302)还可包括配准和跟踪其他装置和器械,诸如导丝(40)和其他可跟踪外科手术器械。配准(框302)还可包括配准和跟踪HMD(100),其中它能够被IGS导航系统(10)进行位置跟踪。
IGS导航系统(10)也可接收(框304)与患者和规程相关联的一个或多个相关数据集,该一个或多个相关数据集可包括患者解剖结构的术前图像(例如,CT、MRI和超声图像集)、预先配置的外科手术计划和外科手术路径,以及可与IGS导航坐标系相关联的其他预先配置或术前捕获或生成的数据集。接收到的(框304)相关数据集还可包括在规程期间实时捕获然后与坐标系相关联的数据,诸如指示导丝(40)和其他跟踪的外科手术器械的位置的位置跟踪数据,以及指示HMD(100)的位置的位置跟踪数据。
当HMD(100)或另一个装置(例如,HHD(102))与可视化系统(60)一起使用时,可由相机(106)捕获图像(框306),如已经描述的。在一些具体实施中,将基于相机(106)的经配置帧速率不断地捕获图像(框306),使得每个后续图像可基于HMD(100)的佩戴者的移动而较之前的图像略微改变。捕获(框306)的图像可由处理器和存储器(114)存储并可被传输到处理器(12)或另一个装置。
当捕获图像(框306)时,可视化系统(60)可重复地确定(框308)HMD(100)相对于解剖结构的取向并重复确定(框310)HMD(100)相对于解剖结构的距离。这些确定(框308、框310)可连续地和独立地进行,或者可针对每个捕获(框306)的图像以一对一的基础(例如,在相机(106)每秒捕获三十个图像或帧的情况下,可视化系统(60)将以每秒三十次确定取向(框308)和距离(框310),每个图像一次)或一些其他对应关系(例如,可视化系统可被配置成每三个捕获(框306)的图像确定一次取向(框308)和距离(框310))进行,这对于本领域技术人员根据本公开将是显而易见的。
可以不同的方式确定取向(308)和距离(310),如已经描述的。例如,在一些具体实施中,HMD(100)和患者头部(H)中的每一者可由IGS导航系统(10)在位置和取向上进行跟踪,并且可使用IGS导航坐标系来确定距离和取向。在一些具体实施中,可使用HMD(100)的视角传感器(110)来确定取向和/或距离。
在一些具体实施中,可使用对捕获(框306)的图像的图像分析来确定取向和/或距离,以识别特定对象(例如,光学基准)或患者解剖结构(例如,眼睛)。例如,特别是在具有可预测大小、形状和其他特征的光学基准的情况下,对包含光学基准的图像的图像分析可指示查看光学基准的距离和视角。参考图6A,可看到患者跟踪组件(200)放置在患者的头部(H)上。一个或多个光学基准(230,232)可放置在患者跟踪组件(200)上或其他地方,如可能期望的。
图像中光学基准(230)的出现提供了图像被捕获的视角(例如,当如图6A所示查看时,光学基准(230)可能呈现为圆形,但当查看者向左或向右移动时可能呈现为椭圆形)以及距离的指示(例如光学基准可能具有2cm的直径)。在光学基准(230)具有足够复杂的不对称形状的情况下,或者在光学基准(230)的表面具有足够复杂的图案或其他可见特征的情况下,单个基准可提供足够的信息来完全确定取向和距离。
另外,在使用若干光学基准(230,232)的情况下,诸如图6A中所示,每个基准相对于其他基准的表观位置可用作取向的指示。因此,将两个或更多个光学基准放置在跟踪组件(200)或头部(H)上可能是有利的。在一些具体实施中,一个或多个基准可在制造时集成到跟踪组件(200)的表面上,这可有利地指示彼此之间的静态和已知定位和距离,这可用于帮助后续基于基准的取向和距离确定。
如已经描述的,具体实施可在用于确定取向(框308)和距离(框310)的特定方法中有所不同,并且虽然一些具体实施可能完全依赖于跟踪IGS导航坐标系内的每个感兴趣的对象,但其他具体实施可将这种跟踪与对光学基准的图像分析或其他技术相结合,以便改善结果的准确性、性能或其他特征。因此,应当理解,所公开的方法和其他方法的各种组合存在并且将为确定取向(框308)和距离(框310)提供不同的优势,并且此类组合对于本领域技术人员基于本公开将是显而易见的。
一旦确定,然后就可使用相对于所查看解剖结构的距离和取向来变换相关数据集,使得它可经由显示器(104)显示为所查看解剖结构的渲染叠加,或经由另一个装置显示为捕获图像的渲染叠加。相关数据集变换可包括,例如,变换(框312)外科手术路径以匹配所捕获(框306)图像的比例和视角,变换(框314)CT图像或其他图像类型以匹配所捕获(框306)图像的比例和视角,变换(框315)外科手术工具远侧末端的跟踪位置以匹配所捕获(框306)图像的比例和视角,以及其他变换。虽然在图5的背景下讨论了它们,但是应当理解,外科手术路径、CT图像和跟踪的外科手术工具不需要存在于接收到的(框304)相关数据集中。
相关数据集的变换将根据相关数据集中表示的特定数据而有所不同。例如,参考图8,在系统被配置成在患者头部(H)上叠加CT图像切片中的一些或全部CT图像切片的情况下,视角点(502)(例如,相机(106)的镜头)和查看点(504)(例如,与相机(106)的光轴相交的坐标系内的第一点、体素或其他对象)之间的距离(506)可用于确定和应用缩放因子以变换和控制经由显示器(104)显示CT图像切片的比例。随着HMD(100)的佩戴者朝向头部(H)移动,距离(506)将减小并且所显示的CT图像切片的比例将增加。类似地,远离头部(H)的移动将增加距离(506)并且减小所显示的CT图像切片的比例。这样,缩放因子可被配置成基于距离(506)提供对应于在该距离处的头部(H)的感知大小的CT图像的适当大小的渲染。
继续上述示例,在三维坐标系(501)内,视角点(502)相对于查看点(504)的位置可用于确定要渲染的适当CT图像切片,并且可用于变换适当的CT图像切片,使得它可叠加在头部(H)上。例如,在一些具体实施中,根据查看头部(H)的视角,可选择头部(H)的CT图像切片并将其渲染为叠加,使得头部(H)上方的视角可能会显示轴向视图,头部(H)前方的视角可能会显示冠状视图,并且头部侧面的视角可能会显示矢状视图,并且当HMD(100)的佩戴者在视角之间移动时,这些视图可自动切换。
又如,在一些具体实施中,可变换CT图像切片以创建具有二维输入图像的外观的新图像,如同它被固定在适当位置并从不同的视角(例如,二维图像视角变换)查看。这样,显示在头部(H)上的二维CT图像切片可随着HMD(100)的佩戴者在视角之间移动而进行视角变换。
作为又一变换示例,在包含外科手术路径的相关数据集的情况下,外科手术路径的坐标可被渲染并作为点、线或虚线集叠加在头部(H)上。距离(506)可用于变换外科手术路径的比例,使得当叠加在头部(H)上时,外科手术路径的每个坐标相对于头部(H)适当地定位。视角点(502)相对于查看点(504)在坐标系(501)内的位置可用于在(HMD)的佩戴者在视角之间移动时变换外科手术路径。如上所述,这样的变换可作为视角变换来执行,或者可使用其他三维旋转和深度变换来执行,这对于本领域技术人员基于本文的本公开将是显而易见的。
在每个相关数据集被变换(例如,缩放、视角变换等)之后,它们可在一个或多个查看装置上渲染或显示(框316),这可包括经由显示器(104)将渲染标记显示为叠加,经由HHD(101)或另一个显示器将渲染标记显示为捕获图像上的叠加,或两者。对于佩戴HMD(100)的用户,渲染标记可能看起来叠加了通过透明显示器(104)查看的其视场内的对象(例如,患者的头部或其他解剖结构)。对于HHD的用户(101)或壁装式显示器或其他装置的查看者,可用叠加在其上的渲染标记显示捕获图像。如已经描述的,捕获图像、确定视角和变换相关数据集的步骤可随着图像被捕获而连续重复,使得用户可在接收到叠加信息的连续更新时正常移动并环视规程区域。
例如,在查看到的解剖结构发生移动(框318)或者HMD(100)、HHD(101)或其他查看装置发生移动(框320)的情况下,将接收下一个捕获(框306)的图像,并且将重新确定取向(框308)和距离(框310)。然后,新确定的取向和距离将用于一个或多个变换,并且新产生的叠加将考虑自先前图像以来发生的任何移动或变化。
图6A至图6C示出了包括渲染和变换的外科手术路径的界面(400)的示例,诸如可经由显示器(104)显示并叠加在直接查看的患者头部(H)上,或者诸如可叠加在头部(H)的捕获图像上并显示。在图6A中,从前面查看头部(H)(例如,冠状平面的视图),并且渲染标记已经经由显示器(104)或直接叠加在捕获图像上。渲染标记包括指示外科手术工具应遵循的路径的外科手术路径(402),指示涉及该规程的解剖结构的目的地或部分的目标标记(404),和指示跟踪的外科手术器械的当前位置的工具标记(406)。已经基于确定的距离确定了标记的比例(310),使得外科手术路径(402)准确地叠加患者头部(H),并且看起来就像在冠状平面CT图像切片上直接查看的那样,而不是经由显示器(104)或其他设备渲染的叠加。标记的位置和取向也已经基于所确定的取向来确定(308)。
图6B示出了从侧面查看的头部(H)(例如,矢状平面的视图)。基于视角的变化,每个标记都以新位置和取向渲染。例如,在图6A中,外科手术路径(402)被看到沿头部(H)的冠状平面横穿。冠状平面在图6B中不可见,并且可看到外科手术路径(402)沿矢状平面横穿。类似地,目标标记(404)和工具标记(406)的位置和取向各自从图6A改变,并且可确定它们位于头部(H)内的深度。图6C示出了从第三视角查看的头部(H),诸如当查看者在图6A的视图和图6B的视图之间移动时可能查看的。当查看者在图6A和图6B的视图之间移动时,或移动到可查看头部(H)的其他视角,这些标记中的每一者均可更新和重新渲染,以提供附加信息和背景,而不仅限于CT图像集提供的那些视角,并且无需将视线从头部(H)移到显示屏(16)或其他显示器上,如已经描述的,这可能会分散注意力并迷失方向。
作为可由可视化系统(60)提供的界面的另一个示例,图7A示出了从CT图像集中选择的图像(430),并且图7B至图7D示出了界面(440)的示例,该界面包括图像(430)和外科手术路径(402)的渲染叠加,诸如可经由显示器(104)显示并叠加在直接查看的患者头部(H)上,或者诸如可叠加在头部(H)的捕获图像上并显示。图像(430)、外科手术路径(402)和目标标记(404)可在规程之前作为相关数据集接收(304)。
在图7B中,从与图6A相同的视角查看头部(H)。图像(430)在变换之后也叠加在头部(H)上,使得图像(430)的比例对应于头部(H)的感知大小(例如,与太大使得图像(430)延伸超出头部(H)相反)。刀具标记(406)、外科手术路径(402)和目标标记(404)也可与CT图像(430)叠加并可见,并且每个均可以不同程度的透明度进行渲染,以完全混淆通过渲染对头部(H)的直接查看,或者允许一定程度的透明度。虽然可视化系统(60)的不同具体实施可提供诸如图6A至图6C或图7B至图7D所示的界面,但一些具体实施可提供两者,并且例如可允许根据需要启用或禁用某些层。例如,这可包括根据需要启用或禁用图像(430)在头部(H)上的叠加。
图7C和图7D各自从不同视角示出头部(H),与图6B和图6C中所示的匹配。图像(430)被模拟为阴影区域,并且其他渲染标记各自被变换以说明改变的视角。如已经描述的,图7B可将冠状平面的基本未改变的CT图像示出为图像(430),而图7C可将矢状平面的基本未改变的CT图像示出为图像(430)。在一些具体实施中,图7D可示出来自冠状平面或矢状平面的变换CT图像,这取决于查看者的视角是否更接近冠状平面或矢状平面。
应当理解,图6A至图7C的界面代表当相关数据集被渲染并叠加在通过显示器(104)的透明部分可见的对象上时可显示的界面。例如,参考图6A,头部(H)不是经由显示器(104)渲染的,而是增强现实界面的可见部分,因为它是通过显示器(104)的透明部分被观看到的。图6A至图7C的界面也代表了当相关数据集被渲染并叠加在经由相机(106)捕获的图像上时可显示的界面,诸如可通过显示屏(16)显示,或者可经由HHD(101)显示。利用此类界面,头部(H)也将基于捕获图像渲染在显示器上。
III.示例性组合
以下实施例涉及本文的教导内容可被组合或应用的各种非穷尽性方式。应当理解,以下实施例并非旨在限制可在本专利申请或本专利申请的后续提交文件中的任何时间提供的任何权利要求的覆盖范围。不旨在进行免责声明。提供以下实施例仅仅是出于例示性目的。预期本文的各种教导内容可按多种其他方式进行布置和应用。还设想到,一些变型可省略在以下实施例中所提及的某些特征。因此,下文提及的方面或特征中的任一者均不应被视为决定性的,除非另外例如由发明人或关注发明人的继承者在稍后日期明确指明如此。如果本专利申请或与本专利申请相关的后续提交文件中提出的任何权利要求包括下文提及的那些特征之外的附加特征,则这些附加特征不应被假定为因与专利性相关的任何原因而被添加。
实施例1
一种用于ENT可视化的系统,包括:(a)图像引导外科手术(“IGS”)导航系统,所述IGS导航系统能够操作以:(i)维持对应于跟踪区域的坐标系,(ii)用所述坐标系跟踪一个或多个位置传感器,以及(iii)将患者解剖结构的位置与所述坐标系配准;(b)头戴式显示器(“HMD”),所述HMD包括可佩戴框架和显示器,其中所述显示器被定位在所述可佩戴框架上以与所述佩戴者的中性光轴相交;(c)传感器,所述传感器能够操作以产生指示所述HMD相对于所述患者解剖结构的视角的视角数据集;和(d)处理器;其中所述处理器被配置成:(i)接收一个或多个相关数据集,其中所述一个或多个相关数据集中的每一者包括与所述坐标系相关联的数据,(ii)当从当前视角查看所述患者解剖结构时,基于所述视角数据集来确定所述中性光轴相对于所述患者解剖结构上的查看点的取向,(iii)基于所述视角数据集来确定所述中性光学轴线的原点和所述查看点之间的距离,(iv)基于所述取向和所述距离来变换所述一个或多个相关数据集以产生与所述当前视角下的所述患者解剖结构对应的叠加图像,以及(v)经由所述显示器渲染所述叠加图像。
实施例2
根据实施例1所述的系统,其中,所述一个或多个相关数据集包括:(i)外科手术路径,所述外科手术路径指示外科手术器械在所述患者解剖结构内的计划路线,和(ii)远侧末端位置,所述远侧末端位置指示与所述一个或多个位置传感器的位置传感器相关联的远侧末端的当前位置。
实施例3
根据实施例2所述的系统,其中,所述一个或多个相关数据集进一步包括选自所述患者解剖结构的术前图像集的图像切片。
实施例4
根据实施例1至2中任一项或多项所述的系统,所述系统进一步包括定位在所述患者解剖结构上的患者跟踪组件,其中:(i)所述患者跟踪组件包括所述一个或多个位置传感器的位置传感器,并且(ii)所述IGS导航系统被配置成基于所述位置传感器的移动来利用所述坐标系更新所述患者解剖结构的位置。
实施例5
根据实施例4所述的系统,其中,所述传感器安装在所述HMD上并且是所述一个或多个位置传感器中的一者,并且其中所述处理器被进一步配置成当确定所述中性光轴相对于所述查看点的所述取向时:(i)基于所述坐标系来确定所述中性光轴的取向,(ii)基于所述坐标系来确定所述患者解剖结构的取向,以及(iii)基于所述坐标系来将所述中性光轴的所述取向与所述患者解剖结构的所述取向相关。
实施例6
根据实施例4至5中任一项或多项所述的系统,其中,所述传感器安装在所述HMD上并且是所述一个或多个位置传感器中的一者,并且其中所述处理器被进一步配置成当确定所述原点和所述查看点之间的距离时:(i)基于所述坐标系来确定所述原点的位置,(ii)基于所述坐标系来确定所述患者解剖结构的位置,以及(iii)基于所述坐标系来确定所述原点的所述位置和所述患者解剖结构的所述位置之间的所述距离。
实施例7
根据实施例1至6中任一项或多项所述的系统,其中,所述处理器被进一步配置成当变换所述一个或多个相关数据集时:(i)基于所述原点和所述查看点之间的所述距离来确定缩放因子,(ii)基于所述中性光轴相对于所述查看点的所述取向来确定视角变换,以及(iii)产生包括由所述缩放因子确定的比例和由所述视角变换确定的视角的所述叠加图像。
实施例8
根据实施例7所述的系统,其中,所述显示器包括透明屏幕,并且其中所述处理器被进一步配置成在所述透明屏幕上渲染所述叠加图像,使得所述叠加图像出现在所述患者解剖结构的直接查看部分上。
实施例9
根据实施例1至8中任一项或多项所述的系统,其中,所述处理器被进一步配置成:(i)重复重新确定所述距离和所述取向,以及(ii)随着所述距离和取向的变化,经由所述显示器更新和渲染所述叠加图像。
实施例10
根据实施例1至9中任一项或多项所述的系统,其中,所述传感器包括定位在所述可佩戴框架上并具有与所述中性光轴平行且能够所述中性光轴静态偏移的光轴的相机,并且其中所述处理器被进一步配置成当确定所述取向和所述距离时:(i)存储指示对象的一个或多个可见特征并且指示所述坐标系内的所述对象和所述查看点之间的关系的对象数据集,(ii)从所述相机接收包含所述对象的图像,以及(iii)基于所述对象数据集和所述图像来确定所述取向和所述距离。
实施例11
根据实施例10所述的系统,所述系统进一步包括邻近所述患者解剖结构定位的一个或多个光学基准,其中由所述对象数据集描述的所述对象是所述一个或多个光学基准。
实施例12
根据实施例11所述的系统,所述系统进一步包括定位在所述患者解剖结构上的患者跟踪组件,其中:(i)所述患者跟踪组件包括所述一个或多个位置传感器的位置传感器,(ii)所述IGS导航系统被配置成基于所述位置传感器的移动来利用所述坐标系更新所述患者解剖结构的所述位置,以及(iii)所述一个或多个光学基准被定位在所述患者跟踪组件的表面上。
实施例13
根据实施例1至12中任一项或多项所述的系统,其中,所述传感器包括定位在所述可佩戴框架上并具有与所述中性光轴平行且从所述中性光轴静态偏移的光轴的相机,并且其中所述处理器被进一步配置成除了经由所述显示器渲染所述叠加图像之外,还:(i)从所述相机接收图像并且基于已知的静态偏移值来将所述图像与所述叠加图像相关,(ii)将所述叠加图像添加到所述图像以产生增强图像,以及(iii)在除所述显示器之外的一个或多个显示器上显示所述增强图像。
实施例14
根据实施例1至13中任一项或多项所述的系统,其中:(i)所述处理器包括所述IGS导航系统的第一处理器和所述HMD的第二处理器中的一者或多者,(ii)所述传感器包括与所述HMD耦合的陀螺仪传感器、安装在所述HMD上的相机和安装在所述HMD上的所述一个或多个位置传感器的位置传感器中的一者或多者,并且(iii)所述视角数据集包括陀螺仪取向数据集、与所述坐标系相关联的位置坐标集、与所述坐标系相关联的取向坐标集和由所述相机捕获的图像中的一者或多者。
实施例15
一种方法,包括:(a)配置图像引导外科手术(“IGS”)导航系统以:(i)维持对应于跟踪区域的坐标系,以及(ii)用所述坐标系跟踪一个或多个位置传感器;(b)将患者解剖结构的位置与所述坐标系配准;(c)接收一个或多个相关数据集,其中所述一个或多个相关数据集中的每一者包括与所述坐标系相关联的数据;(d)在佩戴包括可佩戴框架和显示器的头戴式显示器(“HMD”)时从当前视角查看所述患者解剖结构,其中所述显示器被定位在所述可佩戴框架上以与所述佩戴者的中性光轴相交;(e)基于从所述HMD的传感器接收的视角数据集来确定所述中性光轴相对于所述患者解剖结构上的查看点的取向;(f)基于所述视角数据集来确定所述中性光轴的原点和所述查看点之间的距离;(g)基于所述取向和所述距离来变换所述一个或多个相关数据集以产生与所述当前视角下的所述患者解剖结构对应的叠加图像;以及(h)经由所述显示器渲染所述叠加图像。
实施例16
根据实施例15所述的方法,其中,接收所述一个或多个相关数据集包括:(i)接收指示外科手术器械在所述患者解剖结构内的计划路线的外科手术路径,(ii)接收指示与所述一个或多个位置传感器的位置传感器相关联的远侧末端的当前位置的远侧末端位置,以及(iii)接收选自所述患者解剖结构的术前图像集的图像切片。
实施例17
根据实施例15至16中任一项或多项所述的方法,其中,所述传感器包括定位在所述可佩戴框架上并具有与所述中性光轴平行且从所述中性光轴静态偏移的光轴的相机,所述方法进一步包括:(a)将患者跟踪组件放置在所述患者解剖结构上,其中所述患者跟踪组件包括:(i)所述一个或多个位置传感器的位置传感器,和(ii)一个或多个光学基准;(b)存储指示所述一个或多个光学基准的一个或多个可见特征并且指示所述坐标系内的所述一个或多个光学基准和所述查看点之间的关系的对象数据集;(c)从所述相机接收包含所述一个或多个光学基准的图像;以及(d)基于所述对象数据集和所述图像来确定所述取向和所述距离。
实施例18
根据实施例17所述的方法,其中,所述传感器包括所述一个或多个位置传感器的第二位置传感器,所述方法进一步包括基于所述对象数据集、所述图像和所述坐标系来确定所述取向和所述距离。
实施例19
一种用于ENT可视化的系统,包括:(a)图像引导外科手术(“IGS”)导航系统,所述IGS导航系统能够操作以:(i)维持对应于跟踪区域的坐标系,(ii)用所述坐标系跟踪一个或多个位置传感器,以及(iii)将患者解剖结构的位置与所述坐标系配准;(b)手持式显示器(“HHD”),所述HHD包括相机和显示器;(c)传感器,所述传感器能够操作以产生指示所述HHD相对于所述患者解剖结构的视角的视角数据集;和(d)处理器;其中所述处理器被配置成:(i)接收一个或多个相关数据集,其中所述一个或多个相关数据集中的每一者包括与所述坐标系相关联的数据,(ii)当所述HHD从当前视角指向所述患者解剖结构时,接收来自所述相机的图像,(iii)基于所述视角数据集来确定所述相机的光轴相对于所述患者解剖结构上的查看点的取向,(iv)基于所述视角数据集来确定所述光轴的原点和所述查看点之间的距离,(v)基于所述取向和所述距离来变换所述一个或多个相关数据集以产生与所述图像中的所述患者解剖结构对应的叠加图像,以及(vi)基于所述叠加图像和所述图像来经由所述显示器显示增强图像。
实施例20
根据实施例19所述的系统,其中:(i)所述传感器是所述一个或多个位置传感器的位置传感器,(ii)所述一个或多个位置传感器的第二位置传感器被定位在所述患者解剖结构上,并且(iii)所述一个或多个相关数据集包括:(A)外科手术路径,所述外科手术路径指示外科手术器械在所述患者解剖结构内的计划路线,和(B)远侧末端位置,所述远侧末端位置指示与所述一个或多个位置传感器的第三位置传感器相关联的远侧末端的当前位置。
IV.杂项
应当理解,本文所述的教导内容、表达、实施方案、示例等中的任何一者或多者可与本文所述的其他教导内容、表达、实施方案、示例等中的任何一者或多者进行组合。因此,上述教导内容、表达、实施方案、示例等不应被视为彼此孤立。参考本文的教导内容,本文的教导内容可进行组合的各种合适方式对于本领域的技术人员而言将显而易见。此类修改和变型旨在包括在权利要求书的范围内。
应当理解,据称以引用方式并入本文的任何专利、专利公布或其他公开材料,无论是全文或部分,仅在所并入的材料与本公开中所述的现有定义、陈述或者其他公开材料不冲突的范围内并入本文。因此,并且在必要的程度下,本文明确列出的公开内容代替以引用方式并入本文的任何冲突材料。据称以引用方式并入本文但与本文列出的现有定义、陈述或其他公开材料相冲突的任何材料或其部分,将仅在所并入的材料与现有的公开材料之间不产生冲突的程度下并入。
上文所述的型式的装置可被设计为单次使用后丢弃,或者它们可被设计为可多次使用。在任一种情况下或两种情况下,可对这些型式进行修复以在至少一次使用之后重复使用。修复可包括以下步骤的任意组合:拆卸装置,然后清洁或替换特定零件以及随后进行重新组装。具体地,可拆卸一些型式的装置,并且可以任何组合来选择性地替换或移除装置的任意数量的特定零件或部分。在清洁和/或更换特定部件时,所述装置的一些型式可在修复设施处重新组装或者在即将进行手术之前由用户重新组装以供随后使用。本领域的技术人员将会了解,装置的修复可利用多种技术进行拆卸、清洁/更换、以及重新组装。此类技术的使用以及所得的修复装置均在本申请的范围内。
仅以举例的方式,本文描述的型式可在手术之前和/或之后消毒。在一种消毒技术中,将所述装置放置在闭合且密封的容器诸如塑料袋或TYVEK袋中。然后可将容器和装置放置在可穿透容器的辐射场中,诸如γ辐射、x射线、或高能电子。辐射可杀死装置上和容器中的细菌。然后可将经消毒的装置储存在无菌容器中,以用于以后使用。还可使用本领域已知的任何其它技术对装置进行消毒,所述技术包括但不限于β辐射或γ辐射、环氧乙烷或蒸汽。
已经示出和阐述了本发明的各种实施方案,可在不脱离本发明的范围的情况下由本领域的普通技术人员进行适当修改来实现本文所述的方法和系统的进一步改进。已经提及了若干此类可能的修改,并且其他修改对于本领域的技术人员而言将显而易见。例如,上文所讨论的实施例、实施方案、几何形状、材料、尺寸、比率、步骤等均是例示性的而非必需的。因此,本发明的范围应根据以下权利要求书来考虑,并且应理解为不限于说明书和附图中示出和描述的结构和操作的细节。

Claims (20)

1.一种用于ENT可视化的系统,所述系统包括:
(a)图像引导外科手术(“IGS”)导航系统,所述IGS导航系统能够操作以:
(i)维持对应于跟踪区域的坐标系,
(ii)用所述坐标系跟踪一个或多个位置传感器,以及
(iii)将患者解剖结构的位置与所述坐标系配准;
(b)头戴式显示器(“HMD”),所述HMD包括可佩戴框架和显示器,其中所述显示器被定位在所述可佩戴框架上以与所述佩戴者的中性光轴相交;
(c)传感器,所述传感器能够操作以产生指示所述HMD相对于所述患者解剖结构的视角的视角数据集;和
(d)处理器;
其中所述处理器被配置成:
(i)接收一个或多个相关数据集,其中所述一个或多个相关数据集中的每一者包括与所述坐标系相关联的数据,
(ii)当从当前视角查看所述患者解剖结构时,基于所述视角数据集来确定所述中性光轴相对于所述患者解剖结构上的查看点的取向,
(iii)基于所述视角数据集来确定所述中性光轴的原点和所述查看点之间的距离,
(iv)基于所述取向和所述距离来变换所述一个或多个相关数据集以产生与所述当前视角下的所述患者解剖结构对应的叠加图像,以及
(v)经由所述显示器渲染所述叠加图像。
2.根据权利要求1所述的系统,其中,所述一个或多个相关数据集包括:
(i)外科手术路径,所述外科手术路径指示外科手术器械在所述患者解剖结构内的计划路线,和
(ii)远侧末端位置,所述远侧末端位置指示与所述一个或多个位置传感器的位置传感器相关联的远侧末端的当前位置。
3.根据权利要求2所述的系统,其中,所述一个或多个相关数据集进一步包括选自所述患者解剖结构的术前图像集的图像切片。
4.根据权利要求1所述的系统,所述系统进一步包括定位在所述患者解剖结构上的患者跟踪组件,其中:
(i)所述患者跟踪组件包括所述一个或多个位置传感器的位置传感器,并且
(ii)所述IGS导航系统被配置成基于所述位置传感器的移动来利用所述坐标系更新所述患者解剖结构的所述位置。
5.根据权利要求4所述的系统,其中,所述传感器安装在所述HMD上并且是所述一个或多个位置传感器中的一者,并且其中所述处理器被进一步配置成当确定所述中性光轴相对于所述查看点的所述取向时:
(i)基于所述坐标系来确定所述中性光轴的取向,
(ii)基于所述坐标系来确定所述患者解剖结构的取向,以及
(iii)基于所述坐标系来将所述中性光轴的所述取向与所述患者解剖结构的所述取向相关。
6.根据权利要求4所述的系统,其中,所述传感器安装在所述HMD上并且是所述一个或多个位置传感器中的一者,并且其中所述处理器被进一步配置成当确定所述原点和所述查看点之间的所述距离时:
(i)基于所述坐标系来确定所述原点的位置,
(ii)基于所述坐标系来确定所述患者解剖结构的位置,以及
(iii)基于所述坐标系来确定所述原点的所述位置和所述患者解剖结构的所述位置之间的所述距离。
7.根据权利要求1所述的系统,其中,所述处理器被进一步配置成当变换所述一个或多个相关数据集时:
(i)基于所述原点和所述查看点之间的所述距离来确定缩放因子,
(ii)基于所述中性光轴相对于所述查看点的所述取向来确定视角变换,以及
(iii)产生包括由所述缩放因子确定的比例和由所述视角变换确定的视角的所述叠加图像。
8.根据权利要求7所述的系统,其中,所述显示器包括透明屏幕,并且其中所述处理器被进一步配置成在所述透明屏幕上渲染所述叠加图像,使得所述叠加图像出现在所述患者解剖结构的直接查看部分上。
9.根据权利要求1所述的系统,其中,所述处理器被进一步配置成:
(i)重复重新确定所述距离和所述取向,以及
(ii)随着所述距离和取向的变化,经由所述显示器更新和渲染所述叠加图像。
10.根据权利要求1所述的系统,其中,所述传感器包括定位在所述可佩戴框架上并具有与所述中性光轴平行且从所述中性光轴静态偏移的光轴的相机,并且其中所述处理器被进一步配置成当确定所述取向和所述距离时:
(i)存储指示对象的一个或多个可见特征并且指示所述坐标系内的所述对象和所述查看点之间的关系的对象数据集,
(ii)从所述相机接收包含所述对象的图像,以及
(iii)基于所述对象数据集和所述图像来确定所述取向和所述距离。
11.根据权利要求10所述的系统,所述系统进一步包括邻近所述患者解剖结构定位的一个或多个光学基准,其中由所述对象数据集描述的所述对象是所述一个或多个光学基准。
12.根据权利要求11所述的系统,所述系统进一步包括定位在所述患者解剖结构上的患者跟踪组件,其中:
(i)所述患者跟踪组件包括所述一个或多个位置传感器的位置传感器,
(ii)所述IGS导航系统被配置成基于所述位置传感器的移动来利用所述坐标系更新所述患者解剖结构的所述位置,以及
(iii)所述一个或多个光学基准被定位在所述患者跟踪组件的表面上。
13.根据权利要求1所述的系统,其中,所述传感器包括定位在所述可佩戴框架上并具有与所述中性光轴平行且从所述中性光轴静态偏移的光轴的相机,并且其中所述处理器被进一步配置成除了经由所述显示器渲染所述叠加图像之外,还:
(i)从所述相机接收图像并且基于已知的静态偏移值来将所述图像与所述叠加图像相关,
(ii)将所述叠加图像添加到所述图像以产生增强图像,以及
(iii)在除所述显示器之外的一个或多个显示器上显示所述增强图像。
14.根据权利要求1所述的系统,其中:
(i)所述处理器包括所述IGS导航系统的第一处理器和所述HMD的第二处理器中的一者或多者,
(ii)所述传感器包括与所述HMD耦合的陀螺仪传感器、安装在所述HMD上的相机和安装在所述HMD上的所述一个或多个位置传感器的位置传感器中的一者或多者,并且
(iii)所述视角数据集包括陀螺仪取向数据集、与所述坐标系相关联的位置坐标集、与所述坐标系相关联的取向坐标集和由所述相机捕获的图像中的一者或多者。
15.一种方法,包括:
(a)配置图像引导外科手术(“IGS”)导航系统,以:
(i)维持对应于跟踪区域的坐标系,以及
(ii)用所述坐标系跟踪一个或多个位置传感器;
(b)将患者解剖结构的位置与所述坐标系配准;
(c)接收一个或多个相关数据集,其中所述一个或多个相关数据集中的每一者包括与所述坐标系相关联的数据;
(d)在佩戴包括可佩戴框架和显示器的头戴式显示器(“HMD”)时从当前视角查看所述患者解剖结构,其中所述显示器被定位在所述可佩戴框架上以与所述佩戴者的中性光轴相交;
(e)基于从所述HMD的传感器接收的视角数据集来确定所述中性光轴相对于所述患者解剖结构上的查看点的取向;
(f)基于所述视角数据集来确定所述中性光轴的原点和所述查看点之间的距离;
(g)基于所述取向和所述距离来变换所述一个或多个相关数据集以产生与所述当前视角下的所述患者解剖结构对应的叠加图像;以及
(h)经由所述显示器渲染所述叠加图像。
16.根据权利要求15所述的方法,其中,接收所述一个或多个相关数据集包括:
(i)接收指示外科手术器械在所述患者解剖结构内的计划路线的外科手术路径,
(ii)接收指示与所述一个或多个位置传感器的位置传感器相关联的远侧末端的当前位置的远侧末端位置,以及
(iii)接收选自所述患者解剖结构的术前图像集的图像切片。
17.根据权利要求15所述的方法,其中,所述传感器包括定位在所述可佩戴框架上并具有与所述中性光轴平行且从所述中性光轴静态偏移的光轴的相机,所述方法进一步包括:
(a)将患者跟踪组件放置在所述患者解剖结构上,其中所述患者跟踪组件包括:
(i)所述一个或多个位置传感器的位置传感器,和
(ii)一个或多个光学基准;
(b)存储指示所述一个或多个光学基准的一个或多个可见特征并且指示所述坐标系内的所述一个或多个光学基准和所述查看点之间的关系的对象数据集;
(c)从所述相机接收包含所述一个或多个光学基准的图像;以及
(d)基于所述对象数据集和所述图像来确定所述取向和所述距离。
18.根据权利要求17所述的方法,其中,所述传感器包括所述一个或多个位置传感器的第二位置传感器,所述方法进一步包括基于所述对象数据集、所述图像和所述坐标系来确定所述取向和所述距离。
19.一种用于ENT可视化的系统,包括:
(a)图像引导外科手术(“IGS”)导航系统,所述IGS导航系统能够操作以:
(i)维持对应于跟踪区域的坐标系,
(ii)用所述坐标系跟踪一个或多个位置传感器,以及
(iii)将患者解剖结构的位置与所述坐标系配准;
(b)手持式显示器(“HHD”),所述HHD包括相机和显示器;
(c)传感器,所述传感器能够操作以产生指示所述HHD相对于所述患者解剖结构的视角的视角数据集;和
(d)处理器;
其中所述处理器被配置成:
(i)接收一个或多个相关数据集,其中所述一个或多个相关数据集中的每一者包括与所述坐标系相关联的数据,
(ii)当所述HHD从当前视角指向所述患者解剖结构时,接收来自所述相机的图像,
(iii)基于所述视角数据集来确定所述相机的光轴相对于所述患者解剖结构上的查看点的取向,
(iv)基于所述视角数据集来确定所述光轴的原点和所述查看点之间的距离,
(v)基于所述取向和所述距离来变换所述一个或多个相关数据集以产生与所述图像中的所述患者解剖结构对应的叠加图像,以及
(vi)基于所述叠加图像和所述图像来经由所述显示器显示增强图像。
20.根据权利要求19所述的系统,其中:
(i)所述传感器是所述一个或多个位置传感器的位置传感器,
(ii)所述一个或多个位置传感器的第二位置传感器被定位在所述患者解剖结构上,并且
(iii)所述一个或多个相关数据集包括:
(A)外科手术路径,所述外科手术路径指示外科手术器械在所述患者解剖结构内的计划路线,和
(B)远侧末端位置,所述远侧末端位置指示与所述一个或多个位置传感器的第三位置传感器相关联的远侧末端的当前位置。
CN202080074110.6A 2019-10-24 2020-10-20 用于ent规程的可视化系统和方法 Pending CN114727848A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962925441P 2019-10-24 2019-10-24
US62/925441 2019-10-24
US17/037,809 US20210121238A1 (en) 2019-10-24 2020-09-30 Visualization system and method for ent procedures
US17/037809 2020-09-30
PCT/IB2020/059863 WO2021079271A1 (en) 2019-10-24 2020-10-20 Visualization system and method for ent procedures

Publications (1)

Publication Number Publication Date
CN114727848A true CN114727848A (zh) 2022-07-08

Family

ID=75585296

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080074110.6A Pending CN114727848A (zh) 2019-10-24 2020-10-20 用于ent规程的可视化系统和方法

Country Status (6)

Country Link
US (1) US20210121238A1 (zh)
EP (1) EP4048173A1 (zh)
JP (1) JP2022553385A (zh)
CN (1) CN114727848A (zh)
IL (1) IL292344A (zh)
WO (1) WO2021079271A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720521B2 (en) 2004-04-21 2010-05-18 Acclarent, Inc. Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses
US20070208252A1 (en) 2004-04-21 2007-09-06 Acclarent, Inc. Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses
US8648897B2 (en) * 2006-10-10 2014-02-11 Exelis, Inc. System and method for dynamically enhancing depth perception in head borne video systems
US20140276004A1 (en) * 2013-03-15 2014-09-18 Medtronic Navigation, Inc. Navigated Surgical Instrument
WO2015164402A1 (en) * 2014-04-22 2015-10-29 Surgerati, Llc Intra-operative medical image viewing system and method
US10463242B2 (en) 2014-07-09 2019-11-05 Acclarent, Inc. Guidewire navigation for sinuplasty
WO2018049196A1 (en) * 2016-09-09 2018-03-15 GYS Tech, LLC d/b/a Cardan Robotics Methods and systems for display of patient data in computer-assisted surgery
ES2912332T3 (es) * 2016-11-23 2022-05-25 Clear Guide Medical Inc Sistema para navegación de instrumentos de intervención
US10561370B2 (en) 2017-04-26 2020-02-18 Accalrent, Inc. Apparatus to secure field generating device to chair
CN110650703B (zh) * 2017-05-05 2023-05-12 史赛克欧洲运营有限公司 手术导航系统
US10888382B2 (en) 2017-12-14 2021-01-12 Acclarent, Inc. Mounted patient tracking component for surgical navigation system
KR102274982B1 (ko) * 2018-05-28 2021-07-09 전남대학교산학협력단 기계적 혈전절제술을 위한 가이드-와이어 결합 나선형 마이크로로봇 시스템
US20190388157A1 (en) * 2018-06-21 2019-12-26 Acclarent, Inc. Surgical navigation system with pattern recognition for fail-safe tissue removal

Also Published As

Publication number Publication date
JP2022553385A (ja) 2022-12-22
US20210121238A1 (en) 2021-04-29
WO2021079271A1 (en) 2021-04-29
EP4048173A1 (en) 2022-08-31
IL292344A (en) 2022-06-01

Similar Documents

Publication Publication Date Title
US20220296208A1 (en) Loupe display
US11800970B2 (en) Computerized tomography (CT) image correction using position and direction (P and D) tracking assisted optical visualization
US7774044B2 (en) System and method for augmented reality navigation in a medical intervention procedure
JP2020511239A (ja) ナビゲーション手術における拡張現実ディスプレイのためのシステム及び方法
US8414476B2 (en) Method for using variable direction of view endoscopy in conjunction with image guided surgical systems
EP3395282B1 (en) Endoscopic view of invasive procedures in narrow passages
US20210121238A1 (en) Visualization system and method for ent procedures
JP2019115664A (ja) 医療手技におけるナビゲーションを補助するための拡張現実の使用
US20050054895A1 (en) Method for using variable direction of view endoscopy in conjunction with image guided surgical systems
US20040254454A1 (en) Guide system and a probe therefor
US10955657B2 (en) Endoscope with dual image sensors
US20230259248A1 (en) Method for real time update of fly-through camera placement
Adams et al. An optical navigator for brain surgery
US20230165640A1 (en) Extended reality systems with three-dimensional visualizations of medical image scan slices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination