CN114845655A - 3d路径探测可视化 - Google Patents

3d路径探测可视化 Download PDF

Info

Publication number
CN114845655A
CN114845655A CN202080090017.4A CN202080090017A CN114845655A CN 114845655 A CN114845655 A CN 114845655A CN 202080090017 A CN202080090017 A CN 202080090017A CN 114845655 A CN114845655 A CN 114845655A
Authority
CN
China
Prior art keywords
virtual
path
virtual cameras
medical instrument
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080090017.4A
Other languages
English (en)
Inventor
M·列维
V·格莱纳
A·布门迪尔
Y·帕尔蒂
R·贝坦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Biosense Webster Israel Ltd
Original Assignee
Biosense Webster Israel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Biosense Webster Israel Ltd filed Critical Biosense Webster Israel Ltd
Publication of CN114845655A publication Critical patent/CN114845655A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

在一个实施方案中,一种设备包括医疗器械、跟踪所述器械在身体中的通路中的坐标的位置跟踪系统、处理器,所述处理器用于将所述系统和所述身体的至少一部分的3DCT图像配准、找到所述器械通过所述通路的路径、计算所述路径的区段、响应于所计算的区段计算沿着相应虚拟相机的所述路径的相应位置、响应于所述跟踪坐标选择所述相应虚拟相机以用于渲染相应虚拟内窥镜图像、计算所述相应虚拟相机的相应取向、以及渲染并显示从所述相应虚拟相机的所述相应位置和取向观察到的所述身体中的所述通路的基于所述3DCT图像的虚拟内窥镜图像,包括根据所述跟踪坐标定位在所述相应虚拟内窥镜图像中的所述器械的动画表示。

Description

3D路径探测可视化
技术领域
本发明涉及医疗系统,并且具体地但并非排他性地涉及路径可视化。
背景技术
在图像引导的外科手术(IGS)中,执业医生使用身体内实时跟踪的器械,使得在外科规程中可将器械的位置和/或取向呈现在患者解剖结构的图像上。在许多IGS情况下,以一种模式(诸如,磁共振成像(MRI)或计算机断层摄影(CT))准备患者的图像,并且器械跟踪使用的是不同的模式,例如电磁跟踪。为了使跟踪有效,两种模式的参照系必须相互配准。
Bronstein等人的美国专利公布2011/0236868描述了一种执行图像引导的规程的计算机化模拟的方法。该方法可包括接收特定患者的医学图像数据。可以基于医学图像数据生成特定患者的解剖结构的基于患者特定数字图像的模型。可以使用基于数字图像的模型来执行图像引导的规程的计算机化模拟。可以同时显示医学图像数据、基于图像的模型和模拟医疗工具模型。
Walker等人的美国专利公布2017/0151027描述了用于利用机器人辅助将柔性医疗器械驱动到解剖空间中的目标的系统和方法。柔性器械可以具有嵌入其中的跟踪传感器。可以提供相关联的机器人控制系统,其被配置成使用来自跟踪传感器的数据将柔性器械与解剖图像配准,并且识别适于将器械朝所识别的目标导航的一次或多次移动。在一些实施方案中,机器人控制系统驱动或辅助将柔性器械驱动到目标。
Averbuch等人的美国专利公布2016/0174874描述了一种配准方法,由此使用基于传感器的方法进行初始配准,并且由此在开始导航内窥镜时,使用基于图像的配准方法以更准确地维持内窥镜位置与先前获取的图像之间的配准。将六自由度位置传感器置于探针上,以便减少必须与从内窥镜获得的实时图像进行比较的先前获取的图像数量。
Bitter等人的美国专利公布2005/0228250描述了一种用户界面,该用户界面包括被分成多个视图的图像区域,用于查看解剖区域的对应的2维图像和3维图像。可以同时打开并访问工具控制面板。分割面板使得能够在用户指定的强度范围内或基于预定强度自动分割所显示图像的部件。
Dachille等人的美国专利公布2007/0276214描述了一种用于医学图像的自动分割和可视化的成像系统,并且包括使用识别图像数据中的目标对象并且根据指定的协议处理图像数据的一组指令来自动处理图像数据的图像处理模块、用于基于指令中的一个或多个指令来自动生成目标对象的一个或多个图像的渲染模块、以及用于存储一个或多个生成的图像的数字档案。图像数据可以是DICOM格式化图像数据,其中成像处理模块提取并处理图像数据的DICOM域中的元数据以识别目标对象。图像处理模块引导分割模块以使用由指令中的一个或多个指令指定的处理参数来分割目标对象。
授予Yanof等人的美国专利5,371,778描述了一种CT扫描仪,其非侵入性地检查受试者的体积区域并生成指示该体积区域的体积图像数据。对象存储器存储对应于体积区域的每个体素的数据值。仿射变换算法在体积区域的可见面上操作以将面从对象空间转换成图像空间中的观察平面上的面的投影。操作员控制台包括操作员控件,用于选择体积区域相对于观察平面(即,视频显示器的平面)的投影图像的角取向。光标定位轨迹球输入图像空间中的i和j坐标位置,这些坐标位置被转换为在投影图像上的光标十字线显示。确定在垂直于观察平面的观察方向上的观察平面与体积区域之间的深度尺寸k。光标的(i,j,k)图像空间位置通过反转所选转换来操作,用于识别对象空间中对应的(x,y,z)光标坐标。在对象空间中的光标坐标被转换为对象存储器的对应地址,用于穿过体积区域的横切平面、冠状平面和矢状平面。
授予Gliner等人的美国专利10,188,465描述了一种方法,该方法包括接收患者身体的至少一部分的计算机断层摄影扫描,以及识别扫描体素,该扫描体素对应于由插入其中的探针可穿过的体内区域。该方法还包括在屏幕上显示扫描,并且在其上为探针标记所选的起点和终点。处理器找到从起点到终点的路径,该路径由连续的一组已识别体素组成。处理器还使用扫描生成身体外表面的表示,并在屏幕上显示该表示。然后,处理器渲染围绕在显示的表示中局部透明的路径的外表面区域,以便在屏幕上使在路径附近的身体内部结构可见。
Altmann等人的美国专利公布2018/0303550描述了一种用于可视化的方法,该方法包括在共同参照系内使患者身体的至少一部分的位置跟踪系统和三维(3D)计算机断层摄影(CT)图像配准。至少一个虚拟相机的位置和取向在共同参照系内指定。使用位置跟踪系统跟踪在身体中的通路内移动的医疗工具的坐标。从指定位置和取向渲染并显示身体中的通路的基于3D CT图像的虚拟内窥镜图像,包括根据跟踪坐标定位在虚拟内窥镜图像中的医疗工具的动画表示。
发明内容
根据本公开的一个实施方案还提供了一种医疗设备,其包括被配置成在患者的身体内的通路内移动的一种医疗器械、被配置成跟踪医疗器械在身体内的坐标的位置跟踪系统、显示屏、和处理器,该处理器被配置成将位置跟踪系统和身体的至少一部分的三维(3D)计算机断层摄影(CT)图像在共同参照系内配准,找到医疗器械通过从给定起点到给定终点的通路的3D路径,计算3D路径的区段,响应于所计算的区段计算沿着相应虚拟相机的3D路径的相应不同位置,响应于医疗器械的跟踪坐标和相应虚拟相机在共同参照系内的相应位置来选择相应虚拟相机以用于渲染相应虚拟内窥镜图像,计算相应虚拟相机的相应取向,以及在显示屏上渲染并显示从相应虚拟相机的相应位置和取向观察到的身体中的通路的基于3D CT图像的虚拟内窥镜图像,包括根据跟踪坐标定位在相应虚拟内窥镜图像中的医疗器械的动画表示。
还根据本公开的实施方案,处理器被配置成找到3D路径中高于阈值转向的转向点,并且响应于找到的转向点而计算3D路径的区段和沿着相应虚拟相机的3D路径的相应不同位置。
还根据本公开的实施方案,处理器被配置成响应于虚拟相机中的相邻虚拟相机之间的距离超过限值而将虚拟相机中的至少一个虚拟相机定位在区段中的一个区段的中间。
另外,根据本公开的实施方案,处理器被配置成检查虚拟相机中的两个相邻虚拟相机之间的视线,以及响应于视线被阻挡而将虚拟相机中的至少一个虚拟相机定位在两个相邻虚拟相机之间。
此外,根据本公开的实施方案,处理器被配置成基于n-维多线段简化来计算区段。
还根据本公开的实施方案,n-维多线段简化包括Ramer–Douglas–Peucker算法。
还根据本公开的实施方案,处理器被配置成计算虚拟相机的相应虚拟相机的相应二等分线,并且响应于医疗器械的跟踪坐标相对于最靠近跟踪坐标的虚拟相机中的相应虚拟相机的二等分线中的相应二等分线落在哪一侧,来选择相应虚拟相机以用于渲染相应虚拟内窥镜图像。
另外,根据本公开的实施方案,处理器被配置成将相应二等分线计算为在3D路径上的虚拟相机中的相应虚拟相机的位置中的相应位置处垂直于3D路径的相应平面。
此外,根据本公开的实施方案,处理器被配置成计算从虚拟相机中的相应虚拟相机的位置中的相应位置到沿着3D路径的不同点的向量的平均方向,并且响应于所计算的平均方向来计算虚拟相机中的相应虚拟相机的取向中的相应取向。
还根据本公开的实施方案,处理器被配置成使虚拟相机中的相应虚拟相机的位置中的相应位置在与所计算的平均方向相反的方向上偏移。
还根据本公开的实施方案,处理器被配置成基于连续渲染从设置在虚拟相机中的两个相应相邻虚拟相机之间的相应附加虚拟相机的相应位置观察到的身体内通路的相应过渡虚拟内窥镜图像,在显示屏上渲染和显示在虚拟相机中的两个相应相邻虚拟相机的虚拟内窥镜图像中的两个相应虚拟内窥镜图像之间的过渡。
另外,根据本公开的实施方案,位置跟踪系统包括电磁跟踪系统,该电磁跟踪系统包括定位在身体部分周围的一个或多个磁场发生器和医疗器械的远端处的磁场传感器。
根据本公开的另一个实施方案还提供了一种医疗方法,该方法包括使用位置跟踪系统跟踪医疗器械在患者的身体内的坐标,该医疗器械被配置成在患者的身体中的通路内移动,将位置跟踪系统和身体的至少一部分的三维(3D)计算机断层摄影(CT)图像在共同参照系内配准,找到医疗器械通过从给定起点到给定终点的通路的3D路径,计算3D路径的区段,响应于所计算的区段计算沿着相应虚拟相机的3D路径的相应不同位置,响应于医疗器械的跟踪坐标和相应虚拟相机在共同参照系内的相应位置来选择相应虚拟相机以用于渲染相应虚拟内窥镜图像,计算相应虚拟相机的相应取向,以及在显示屏上渲染并显示从相应虚拟相机的相应位置和取向观察到的身体中的通路的基于3D CT图像的相应虚拟内窥镜图像,包括根据跟踪坐标定位在相应虚拟内窥镜图像中的医疗器械的动画表示。
此外,根据本公开的实施方案,该方法包括找到3D路径中高于阈值转向的转向点,并且其中响应于找到的转向点而计算3D路径的区段和沿着相应虚拟相机的3D路径的相应不同位置。
还根据本公开的实施方案,该方法包括响应于虚拟相机中的相邻虚拟相机之间的距离超过限值而将虚拟相机中的至少一个虚拟相机定位在区段中的一个区段的中间。
还根据本公开的实施方案,该方法包括检查虚拟相机中的两个相邻虚拟相机之间的视线,以及响应于视线被阻挡而将虚拟相机中的至少一个虚拟相机定位在两个相邻虚拟相机之间。
另外,根据本公开的实施方案,该方法包括基于n-维多线段简化来计算区段。
此外,根据本公开的实施方案,n-维多线段简化包括Ramer–Douglas–Peucker算法。
还根据本公开的实施方案,该方法包括计算虚拟相机的相应虚拟相机的相应二等分线,并且其中选择包括响应于医疗器械的跟踪坐标相对于最靠近跟踪坐标的虚拟相机中的相应虚拟相机的二等分线中的相应二等分线落在哪一侧,来选择相应虚拟相机以用于渲染相应虚拟内窥镜图像。
还根据本公开的实施方案,计算相应二等分线包括将相应二等分线计算为在3D路径上的虚拟相机中的相应虚拟相机的位置中的相应位置处垂直于3D路径的相应平面。
另外,根据本公开的实施方案,该方法包括计算从虚拟相机中的相应虚拟相机的位置中的相应位置到沿着3D路径的不同点的向量的平均方向,并且其中计算相应取向包括响应于所计算的平均方向来计算虚拟相机中的相应虚拟相机的取向中的相应取向。
此外,根据本公开的实施方案,该方法包括使虚拟相机中的相应虚拟相机的位置中的相应位置在与所计算的平均方向相反的方向上偏移。
还根据本公开的实施方案,该方法包括基于连续渲染从设置在虚拟相机中的两个相应相邻虚拟相机之间的相应附加虚拟相机的相应位置观察到的身体内通路的相应过渡虚拟内窥镜图像,在显示屏上渲染和显示在虚拟相机中的两个相应相邻虚拟相机的虚拟内窥镜图像中的两个相应虚拟内窥镜图像之间的过渡。
仍根据本公开的另一个实施方案还提供了一种软件产品,其包括非暂态计算机可读介质,在该非暂态计算机可读介质中存储程序指令,这些指令在被中央处理单元(CPU)读取时,致使CPU使用位置跟踪系统跟踪医疗器械在患者的身体内的坐标,该医疗器械被配置成在患者的身体中的通路内移动,将位置跟踪系统和身体的至少一部分的三维(3D)计算机断层摄影(CT)图像在共同参照系内配准,找到医疗器械通过从给定起点到给定终点的通路的3D路径,计算3D路径的区段,响应于所计算的区段计算沿着相应虚拟相机的3D路径的相应不同位置,响应于医疗器械的跟踪坐标和相应虚拟相机在共同参照系内的相应位置来选择相应虚拟相机以用于渲染相应虚拟内窥镜图像,计算相应虚拟相机的相应取向,以及在显示屏上渲染并显示从相应虚拟相机的相应位置和取向观察到的身体中的通路的基于3DCT图像的相应虚拟内窥镜图像,包括根据跟踪坐标定位在相应虚拟内窥镜图像中的医疗器械的动画表示。
附图说明
根据以下详细说明结合附图将理解本发明,其中:
图1是根据本发明的实施方案构造和操作的医疗系统的部分示意的部分框图视图;
图2是根据本发明的实施方案的包括在图1的设备中使用的三维路径可视化的方法中的步骤的流程图;
图3为包括使用图1的设备找到通过通路的路径的方法的步骤的流程图。
图4-图9为示出图3的流程图的方法的步骤的示意图;
图10为包括使用图1的设备计算路径区段并计算虚拟相机沿该路径的位置的方法中的步骤的流程图;
图11和图12是示出图10的流程图的方法的步骤的示意图;
图13为包括使用图1的设备选择相机的方法中的步骤的流程图;
图14和图15是示出图13的流程图的方法的步骤的示意图;
图16为包括使用图1的设备计算取向并偏移虚拟相机位置的方法中的步骤的流程图;
图17和图18是示出图16的流程图的方法的步骤的示意图;
图19为包括使用图1的设备渲染过渡的方法中的步骤的流程图;
图20为示出图19的流程图的方法的步骤的示意图;并且
图21-图23是由图1的设备渲染和显示的示意性虚拟内窥镜图像。
具体实施方式
概述
在鼻腔通道内的医疗规程(诸如鼻窦扩张手术)期间,如果不将内窥镜插入到鼻窦中就不可能直接观察到鼻窦中的情况。然而,因为所涉及的紧密空间以及内窥镜的额外成本,内窥镜的插入存在问题。此外,用于鼻腔通道的内窥镜通常是刚性器械,其无法转向或提供从鼻窦腔返回到鼻窦开口的视图。
本文描述的本发明的实施方案通过由虚拟相机生成规程的虚拟内窥镜视图来解决这个问题,类似于定位在鼻腔通道内的虚拟相机位置处的实际内窥镜将看到的视图。虚拟内窥镜视图显示解剖结构以及移动通过解剖结构的医疗器械。随着医疗器械沿通路移动,用于生成虚拟内窥镜视图的虚拟相机响应于医疗器械的跟踪坐标从一个虚拟相机传递到另一个虚拟相机。
这些虚拟内窥镜视图可用于例如可视化导丝相对于解剖结构以及其他器械如吸入工具或剃刮工具(清创器)的位置和取向。
从一个虚拟相机移动到另一个虚拟相机提供了比将虚拟相机置于医疗器械的远侧末端上(由此虚拟相机始终“移动”)更稳定的解剖结构视图,因为远侧末端的移动导致解剖结构的视频跳动或断断续续,这是很难跟踪的。
此外,尽管下文公开的实施方案专门涉及鼻腔通道内的可视化,但是本发明的原理可以类似地应用于身体的其他空间内,特别是在其中实际光学内窥镜不可用或难以使用的狭窄通道内。
在医疗规程之前,获取包括鼻窦的患者头部的CT图像、以及与CT图像配准的位置跟踪系统,例如电磁跟踪系统。将位置传感器附接到导丝或其他器械的远端,并且因此在将远端插入到鼻窦中时,跟踪远端相对于配准的CT图像的位置和取向。对头部的CT图像进行处理以生成并显示鼻腔通道的3D体积的图像。
在该3D体积内,成像系统的操作员(诸如执行鼻窦扩张术规程的外科医生)可以选择沿着其导航医疗器械的3D路径的起点和终点。从起点到终点的合适的3D路径例如使用路径找到算法和来自CT图像的数据来计算,指示CT图像的哪些体素包括适于穿过的材料,例如空气或液体。
计算的3D路径被自动分成区段,并且区段之间的转向点高于阈值转向值。虚拟相机定位在这些转向点周围。如果在定位在转向点处的虚拟相机之间没有视线和/或在转向点之间的距离超过给定值,则可以自动定位另外的虚拟相机。
计算每个虚拟相机的光轴的取向。可以使用任何合适的方法来计算取向。在一些实施方案中,可以基于从虚拟相机到沿路径直到下一个虚拟相机的位置的向量的平均方向来计算取向。在其他实施方案中,取向可以计算为与相应虚拟相机位置处的路径平行的方向。虚拟相机的视野可以是固定的,例如,固定到90度或任何合适的值,或者根据相应虚拟相机所服务的路径的相关区段的外部限制来设定,其具有额外的公差以允许与路径偏离。
在一些实施方案中,虚拟相机的位置可以在与所计算的平均方向相反的方向上向后偏移。虚拟相机可以向后偏移任何合适的距离,例如,直到相机向后偏移到固体材料,例如组织或骨。使虚拟相机向后偏移可以产生在相应虚拟内窥镜图像内医疗器械的更好视图,特别是当医疗器械非常靠近相应的虚拟相机时,并且可以产生周围解剖结构的更好视图。
随着医疗工具移动通过通路,根据相机选择方法来选择相应虚拟相机以用于渲染和显示相应的虚拟内窥镜图像。在一些实施方案中,相机选择方法包括找到与医疗器械的跟踪坐标最近的相机,然后找到跟踪坐标落在与最近的相机相关联的二等分线(平面)的哪一侧。如果跟踪坐标落在距最近相机的所计算的路径(在医疗器械的行进方向上)更下游的二等分线一侧,则选择最近的相机进行渲染。如果跟踪坐标落在最近的当前虚拟相机的二等分线一侧,则当前虚拟相机继续提供其内窥镜图像。与最近相机相关联的二等分线可以定义为垂直于最近相机的点处的所计算的路径的平面。在其他实施方案中,通路可以基于区段而被分成多个区域,其中虚拟相机根据其中设置有跟踪坐标的区域来选择。
两个虚拟相机之间的过渡以及因此相关联的虚拟内窥镜图像之间的过渡可以是平滑过渡或急剧过渡。在一些实施方案中,在两个相应虚拟相机之间的平滑过渡可以通过在两个虚拟相机之间的路径上找到附加虚拟相机的位置、然后连续渲染从另外的虚拟相机位置观察到的相应过渡虚拟内窥镜图像来进行。
系统描述
现在参见图1,该图是根据本发明的实施方案构造和操作的医疗设备20的部分示意的部分框图视图。在以下描述中,假设设备20的医疗器械21用于对患者22执行医疗规程。医疗器械21被配置成在患者22的身体中的通路内移动。
医疗设备20包括位置跟踪系统23,该位置跟踪系统被配置成跟踪医疗器械21在身体内的坐标。在一些实施方案中,位置跟踪系统23包括电磁跟踪系统25,该电磁跟踪系统包括定位在身体部分周围的一个或多个磁场发生器26和医疗器械21的远端处的一个或多个磁场传感器32。在一个实施方案中,磁场传感器32包括单轴线圈和双轴线圈,该单轴线圈和双轴线圈充当磁场传感器并且在规程期间由电磁跟踪系统25跟踪。为了使跟踪有效,在设备20中,将患者22的CT(计算机断层摄影)图像与电磁跟踪系统25的参照系进行配准,更详细的描述参见图2和图3。虽然CT图像通常可包括磁共振成像(MRI)图像或荧光透视图像,但是在本文的描述中,以举例的方式,图像被假设为包括荧光透视CT图像。在一些实施方案中,位置跟踪系统23可以使用任何合适的跟踪方法,例如基于在体表电极上的电流或阻抗分布、或基于超声换能器来跟踪医疗器械21的坐标。
在窦手术之前和期间,包括在电磁跟踪系统25中的磁辐射器组件24定位在患者的头部下方。磁辐射器组件24包括磁场发生器26,该磁场辐射器被固定在适当位置并将交变磁场传输到患者22的头部所位于的区域30中。由区域30中的磁场传感器32的单轴线圈响应于磁场而生成的电位使得能够在磁跟踪系统的参照系中测量单轴线圈的位置和取向。位置可在三个线性维度(3D)上测量,并且取向可针对与单轴线圈的对称轴正交的两个轴线来测量。然而,单轴线圈相对于其对称轴的取向不能由线圈生成的电位确定。
对于磁场传感器32的双轴线圈的两个线圈中的每个线圈也是如此。即,对于每个线圈,3D上的位置可被测量,相对于与线圈对称轴正交的两个轴线的取向也可被测量,但线圈相对于其对称轴的取向不能被确定。
以举例的方式,组件24的辐射器26被布置成在患者22的头部周围的大致马蹄形状。然而,组件24的辐射体的另选构型对于本领域的技术人员将是显而易见的,并且所有这样的构型都被认为包括在本发明的范围内。
在手术之前,可通过将磁传感器定位在图像的已知位置(诸如患者的鼻子的末端)处来执行磁跟踪系统的参照系与CT图像的配准。然而,如参见图2更详细描述的,可以使用用于参照系配准的任何其他方便的系统。
包括辐射器26和磁场传感器32的设备20的元件在系统处理器40的总体控制下。处理器40可安装在控制台50中,该控制台包括操作控件58,该操作控件通常包括小键盘和/或指向装置,诸如鼠标或轨迹球。控制台50经由一根或多根缆线60和/或无线地连接到辐射器和磁场传感器32。医生54使用操作控件58以与处理器40交互,同时使用设备20来执行医疗规程。在执行该规程时,处理器可在显示屏56上呈现该规程的结果。
处理器40使用存储在存储器42中的软件来操作设备20。该软件可例如通过网络以电子形式下载到处理器40,或者另选地或除此之外,该软件可被提供和/或存储在非临时性有形介质诸如磁存储器、光学存储器或电子存储器上。
现在参见图2,其为根据本发明的实施方案的包括在图1设备20中使用的三维路径可视化方法中的步骤的流程图70。
位置跟踪系统23(图1)被配置成跟踪(框72)医疗器械21(图1)的远端在身体内的坐标。处理器40(图1)将位置跟踪系统23和身体的至少一部分的三维(3D)计算机断层摄影(CT)图像在共同参照系内配准(框74)。配准可以通过任何合适的配准技术执行。例如但不限于美国专利公布2017/0020411或2019/0046272中描述的配准方法。如后一个专利公布所述,例如,处理器40可以分析CT图像以识别图像中患者眼睛的相应位置,从而限定连接这些相应位置的线段。此外,处理器40识别沿着平行于第一线段的第二线段以及垂直于第一线段的第三线段覆盖头部的骨部分的CT中的体素子集。医师54将探针定位在骨部分附近,并且因此测量覆盖骨部分的头部表面上的位置。处理器40计算CT图像中这些测量位置与体素子集之间的对应关系,并且因此将磁跟踪系统25与CT图像配准。
处理器40被配置成找到(框76)医疗器械21通过从给定起点到给定终点的通路的3D路径。框76的步骤参考图3-图9的路径寻找方法进行了更详细的描述。
处理器40被配置成计算(框78)所计算的3D路径的区段。处理器40被配置成响应于所计算的区段,计算(框80)沿着相应虚拟相机的3D路径的相应不同位置。框78和框80的步骤参考图10-图12进行了更详细的描述。
处理器40被配置成响应于医疗器械21的跟踪坐标和相应虚拟相机在共同参照系内的相应位置来选择(框82)相应虚拟相机以用于渲染相应虚拟内窥镜图像。当医疗器械21沿着3D路径移动时(其可以距离路径的任一侧一定距离,因为医疗器械21未被锁定到该路径),根据医疗器械21的跟踪坐标选择提供虚拟内窥镜图像的虚拟相机,并且当医疗器械21沿路径移动时控制从一个虚拟相机到另一个虚拟相机连续传递。框82的步骤可以间歇重复,例如,每次新跟踪坐标以例如在10毫秒至100毫秒之间的范围内被接收,如50毫秒。框82的步骤参考图13-图15进行了更详细的描述。
处理器40被配置成计算(框84)相应虚拟相机的相应取向。相机的取向通常是3D取向并且相对于相应虚拟相机的相应光轴限定。换句话说,相机的取向是对相机面对光学目标的方向的测量。虚拟相机的位置也可以如参见图16和图18所详细描述的那样向后偏移。可以作为选择相机的过程的一部分,在选择相机之前或者当医疗器械21离开当前提供虚拟内窥镜图像的虚拟相机视野时计算取向和/或向后移动。
处理器40被配置成在显示屏56(图1)上渲染和显示(框86)从相应虚拟相机的相应位置和取向观察的身体中的通路的基于3D CT图像的相应的虚拟内窥镜图像,包括根据跟踪坐标定位在相应虚拟内窥镜图像中的医疗器械21的动画表示。换句话说,基于医疗器械21的位置和取向和预先获取的CT数据,处理器40在框86的步骤处将相应图像在它们被相应的虚拟相机捕获时渲染并在显示屏56上呈现图像。由任何给定选择的虚拟相机渲染的图像是从相机位置处将可见的3D体积的一部分在相机的虚拟图像平面上的投影。框86的步骤参考图21-图23进行了更详细的描述。
现在参见图3,其为包括使用图1的设备20找到通过通路的路径的方法的步骤的流程图90。图4-图9为示出图3的流程图的方法的步骤的示意图。参见流程图90描述的预计划部件通常在对患者22(图1)执行侵入性外科规程之前实施,并且确定规程中后续侵入性医疗器械21(图1)的最佳路径。假设预计划由医师54执行(图1)。
在初始步骤(流程图90的框100)中,执行患者22鼻窦的计算机断层摄影(CT)X射线扫描,并且由处理器40获取来自扫描的数据。如本领域已知的,扫描包括患者22的二维X-射线“切片”,并且切片的组合产生三维体素,每个体素具有Hounsfield单位,该Hounsfield单位是由CT扫描确定的放射强度的量度。
在图像生成步骤(框102)中,医师54(图1)在显示屏56上显示扫描结果(图1)。如本领域已知的,结果可以显示为一系列二维(2D)切片,通常沿着平行于患者22的矢状面、冠状面和/或横切平面的平面,但其他平面也是可能的。平面的方向可由医师54来选择。
所显示的结果通常是灰度色标图像,并且在图4中提供了示例,其是平行于患者22的冠状平面的切片。从黑色到白色的灰度值可以与对应体素的Hounsfield单位(HU)相关,使得当应用于图4的图像时,具有HU=-1000的空气可以被分配为黑色,并且具有HU=3000的致密骨可以被分配为白色。
如本领域已知的,除了空气和水的值(其按定义分别为-1000和0)之外,任何其他物质或物种(如致密骨)的Hounsfield单位的值尤其取决于用于产生本文所提及的CT扫描的辐照X射线的光谱。继而,X射线的光谱取决于许多因素,包括施加到X射线发生器的电势(以千伏(kV)计),以及发生器的阳极的组成。为清楚起见,在本公开中,特定物质或物种的Hounsfield单位值如下表I中给出。
物种/物质 Hounsfield单位
空气 -1000
软组织 -300至-100
脂肪 -50
0
血液 +30至+45
致密骨 +3000
然而,表I中给出的特定物种(除空气和水之外)的HU的数值应理解为纯粹是示例性的,并且本领域的普通技术人员将能够根据用于生成本文所提及的CT图像的物种和X射线机来修改这些示例性值,而无需过度实验。
通常,HU值和灰度值之间的平移被编码到DICOM(医学数字成像和通信)文件中,该文件是来自给定CT机器的CT扫描输出。为清楚起见,在下文描述中,使用了HU=-1000与黑色的相关性,HU=3000与白色的相关性,以及中间HU值与对应的中间灰度水平的相关性,但是应当理解,这种相关性仅是任意的。例如,该相关性可以是“相反的”,即,HU=-1000可被分配给白色,HU=3000分配给黑色,并且中间HU值分配给对应的中间灰度水平。因此,本领域的普通技术人员将能够调整本文的描述以包括在Hounsfield单位与灰度水平之间的其他关联,并且假定所有此类关联包含在本发明的范围内。
在标记步骤(框104)中,医师54(图1)标记预期的起点,其中他/她将医疗器械21(图1)插入患者22(图1)中,并且标记预期的终点,其中医疗器械21的远端将停止。两个点可以在同一2D切片上。另选地,每个点可以在不同切片上。通常但不一定的,两个点均在空气中,即,其中HU=-1000,并且终点通常但不一定在空气与切片中所示的液体或组织的接合部处。终点不处于此类接合部处的示例是当该点可以在空气填充腔的中间时。
图5示出了由医师标记在相同2D切片上的起点150和终点152,并且为清楚起见,除非另有说明,否则假设这些点是在流程图的剩余描述中使用的点。通常,起点和终点以非灰度色标颜色显示,例如红色。
在许可路径限定步骤(框106)中,医师限定了在找到从起点150到终点152的路径时由路径找到算法(下文提及)用作可接受的体素值的Hounsfield单位的范围。限定范围通常包括等于-1000的HU,对应于路径中的空气或空隙;限定范围还可包括大于-1000的HU,例如,该范围可以被定义为由表达式(1)给出:
{HU|-1000≤HU≤U} (1)
其中U是医师选择的值。
例如,U可以设置为+45,使得所采取的路径可以包括水、脂肪、血液、软组织以及空气或空隙。在一些实施方案中,该范围可由处理器40(图1)设置,无需医师干预。
不需要限定的值范围是连续范围,并且该范围可以是不相交的,包括一个或多个子范围。在一些实施方案中,可以选择子范围以包括特定类型的材料。不相交的范围的示例由表达式(2)给出:
{HU|HU=-1000或A≤HU≤B} (2)
其中A、B是医师选择的值。
例如,A和B可分别设置为等于-300和-100,使得所采取的路径可包括空气或空隙和软组织。
选择HU范围的方法可包括任何合适的方法,包括但不限于数字和/或材料名称和/或灰度色标。例如,在通过灰度进行选择的情况下,医师54(图1)可以选择CT图像的一个或多个区域,并且所选区域的灰度值的等同HU包含在可接受的HU范围内,用于通过路径找到算法确定路径的体素。
在通过名称选择的情况下,可以向医师展示命名物种的表。所展示的表通常类似于表I,但没有提供以Hounsfield为单位的值的列。医师可以从表中选择一个或多个命名的物种,在这种情况下,所选择的命名物种的等同HU包含在可接受的HU范围内,用于待通过路径找到算法确定路径的体素。
在路径找到步骤(框108)中,处理器40(图1)实施路径找到算法以在起点150与终点152之间找到医疗器械21(图1)将按其行进的一个或多个最短路径。该算法假设路径中的可穿过体素包括具有在框106的步骤中限定的HU范围内的HU的任何体素,并且具有在该限定范围之外的HU值的体素充当所发现的任何路径中的屏障。虽然所使用的路径找到算法可以是能够确定三维迷宫内的最短路径的任何合适的算法,但是发明人已经发现,泛洪填充算法(Flood Fill algorithm)、狄克斯特拉算法(Dijkstra's algorithm)或例如A*算法的扩展在计算速度和确定最短路径的准确性方面提供比其他算法(例如弗洛伊德算法(Floyd's algorithm)或其变体)更好的结果。
在一些实施方案中,路径找到步骤包括考虑医疗器械21的机械特性和尺寸(图1)。例如,在所公开的实施方案中,医疗器械21当其弯曲时可能被限制在可能的曲率半径范围内。在确定医疗器械21之后的可能路径时,处理器40(图1)确保路径的任何部分都不限定小于这一半径范围的半径。
在另一个公开的实施方案中,处理器40(图1)考虑医疗器械21(图1)的机械特性,这些机械特性允许医疗器械21的不同部分具有不同的曲率半径范围。例如,可能路径的端部可以具有比医疗器械21的近侧部分的可能曲率半径更小的曲率半径。然而,医疗器械21的远端可以比近侧部分更具柔性,并且可以具有足够的柔性以容纳较小的曲率半径,使得可能的路径是可接受的。
在考虑医疗器械21(图1)的可能曲率半径和可能路径的不同曲率半径的情况下,处理器40(图1)考虑了在医疗器械21的远端从起点150移动到终点152时,需要由医疗器械21的不同部分穿过路径的哪些部分、以及医疗器械21可达到的曲率半径。
在另一个公开的实施方案中,处理器40(图1)确保路径直径D始终大于医疗器械21的测量直径d。如本领域已知的,确认可以至少部分地例如由处理器40使用侵蚀/膨胀算法来实施,从而找到在框106的步骤中限定的范围内的体素。
在叠加步骤(框110)中,在框108的步骤中发现的最短路径叠加在显示在显示屏56上的图像上。图6示出在起点150与终点152之间已经叠加在图5的图像上的最短路径154。通常,路径154以非灰度色标颜色显示,其可以具有或可以不具有与起点和终点的颜色相同的颜色。在框108的步骤找到多于一个最短路径的情况下,所有此类路径可以叠加在图像上,通常以不同的非灰度色标颜色叠加。
通常,发现的路径穿过多于一个2D切片,在这种情况下,可以通过将发现的路径结合到相关的所有2D切片中,即,路径穿过的所有2D切片,来实施叠加。另选地或除此之外,可以从扫描2D切片生成至少部分透明的3D图像,并且发现的路径可以叠加在3D图像上。至少部分透明的3D图像可以在患者22的外表面的表示上形成,如下文更详细地描述。
图7是根据本发明的实施方案的患者22的外表面180的表示。处理器40(图1)使用在框100的步骤中获取的CT扫描数据,用于通过使用空气的HU值为-1000的事实而产生外表面的表示,而皮肤具有与其显著不同的HU值。举例来说,假设表示180在平行于患者22的冠状平面的平面上形成,即,平行于由患者22限定的参照系184的x-y平面,其轴线也在图7和图8中绘制。
图8示意性地展示了根据本发明的实施方案的边界平面190和边界区域192。在从医师54(图1)看来的方向上,处理器40(图1)任选地描绘待渲染为透明的表示180的区域,以及将保留为“原样”的那些区域。为了执行描绘,医生使用区域192的边界周边194在边界平面中限定边界平面190和边界区域192。
为清楚起见,下文描述假设边界平面平行于参照系184的x-y平面,如图8示意性地示出,并且其具有下文给出的等式:
z=zbp (3)
如下所述,处理器40使用边界平面和边界区域192来确定表面180的哪些元件被渲染为局部透明,并且哪些元件将不被如此渲染。
处理器40确定表面180的元件(图7),其具有z>zbp的值,并且当沿z-轴投影时位于边界区域192内。然后,处理器40将元件渲染为透明,因此使得这些元件在表面180中不再可见。例如在图8中,患者22的鼻尖196具有值z>zbp,因此患者的鼻尖附近的虚线198示出当表面的图像呈现在显示屏56上时不再可见的外表面180的部分(图1)。
因为上文所述的元件被渲染为透明的,具有值z<zbp并且当沿着z-轴投影时位于边界区域192内的表面180的元件现在是可见的,因此显示在图像中。在局部透明渲染之前,“现在可见”元件是不可见的,因为它们被表面元件遮挡。现在可见的元件包括最短路径154的元件,如图9所示。
图9示意性地示出在边界区域192内的表面的元件的局部透明渲染之后(图8),在显示屏56(图1)上显示的表面180。为了清楚起见,对应于边界周边194(图8)的虚线圆194A已经叠加在图像上,并且参照系184也在图中绘制。由于圆194A内的元件的透明渲染,在圆内的区域200现在显示患者22的从框100的步骤中接收到的CT断层摄影数据导出的内部结构(图1)。
图9还绘制了最短路径154。由于圆194A内的元件的透明渲染,路径的一部分现在在表面180的图像中可见,并且已被绘制为白色实线202。由于其被表面180的尚未透明渲染的元件遮挡而不可见的路径的部分以白色虚线204表示。
应当理解,在图7和图9所示的情况下,显示屏56上示出的图像是沿着x-y平面的z轴观察的患者22的视图。
上文描述提供了应用局部透明以查看从断层摄影数据导出的最短路径的一个示例,在这种情况下,局部透明相对于与患者22的冠状平面平行的平面形成。应当理解,由于断层摄影数据的三维性质,可以操纵数据使得本发明的实施方案可以使用相对于穿过患者22的基本上任何平面形成的局部透明来查看最短路径154,并且可以在参照系184中限定。
在形成局部透明时,可以改变边界平面190和边界区域192的尺寸和位置,以使医生54(图1)也能够查看最短路径154和在路径154附近的内部结构。
医生54可以改变边界平面190的方向,例如用于增强特定内部结构的可见度。虽然边界平面190通常平行于呈现在显示屏56上的图像的平面,但这不是必需的,因此如果例如医生54想要看到特定结构的更多细节,则她/他可以旋转边界平面190,使得其不再平行于图像平面。
在一些情况下,在框106的步骤中选择的HU值/灰度范围包括除空气之外的区域,例如对应于软组织和/或黏液的区域。在框108的步骤中找到的路径154可以包括此类区域,并且在这种情况下,对于经过路径154的医疗器械21(图1),可能必须清除这些区域,例如通过清创。在任选的警告步骤(框112)中,医生54(图1)得到存在不在空气中的路径154区域的通知,例如通过突出显示路径154的相关部分和/或通过其他视觉或听觉提示来通知。
虽然上文描述假定CT扫描为X射线扫描,但是应当理解,本发明的实施方案包括使用MRI(磁共振成像)断层摄影图像找到最短路径。
因此,重新参见流程图90,在MRI图像的情况下,其中Hounsfield值可能不再直接适用,在步骤106中,医生54(图1)定义了灰度值(MRI图像的灰度值)的范围,路径找到算法使用该范围作为找到从起点150到终点152的路径时可接受的体素值。在框108的步骤中,路径找到算法假设路径中的可穿过体素包括具有在框106的步骤中限定的灰度范围内的灰度的任何体素,并且具有在该限定范围之外的灰度值的体素充当所找到的任何路径中的屏障。对用于适应使用MRI图像而非X射线CT图像的上文描述的其他改变,对于本领域普通技术人员来说将是显而易见的,并且所有此类改变都应视为包含在本发明的范围内。
现在参见图10-图12。图10为包括使用图1的设备20计算路径154的区段并计算虚拟相机320沿路径154的位置的方法中的步骤的流程图300。图11和图12为示出图10的流程图300的方法的步骤的示意图。
处理器40(图1)被配置成在3D路径154中找到(框302)高于阈值转向的转向点324,并且响应于找到的转向点324而计算3D路径154的区段322和沿着相应虚拟相机320的3D路径154的相应不同位置,如图11所示。
现在在下文描述框302的步骤的子步骤。
处理器40(图1)被配置成基于n-维多线段简化来计算(框304)区段322。在一些实施方案中,以举例的方式,n-维多线段简化包括Ramer–Douglas–Peucker算法、Visvalingam–Whyatt算法或Reumann-Witkam。可以使用将n-维多线段简化为尺寸更小的多线段的任何合适的算法。算法通常分析移除小转向点的路径154,同时留下较大转向点,使得较大转向点324限定在转向点324之间的区段322。可以通过配置所使用的算法的参数来设置对应于从路径154移除的转向点的阈值转向值。例如,Ramer–Douglas–Peucker算法的输入参数可以设置为约0.08。
在其他实施方案中,处理器40被配置成使用任何合适的算法来计算区段322,使得低于阈值转向值的转向点被去除。
处理器40(图1)被配置成将虚拟相机320定位(框306)在区段322之间的转向点324处或其周围,以及在路径154的起点150处并且任选地在终点152处。图11示出了通路328中的路径154已经用一个转向点324和两个区段322进行了简化。三个虚拟相机320已经分别置于路径154上的起点150、转向点324和终点152处。通过n-维多线段简化去除路径154上的小转向点(使用虚线椭圆形326指示)以留下转向点324。
处理器40被配置成检查(框308)两个相邻虚拟相机320之间的视线,以及响应于视线被阻挡而将一个或多个虚拟相机320定位在两个相邻虚拟相机320之间。可以通过检查3DCT图像的体素来检查视线,从而确定是否存在阻挡相邻虚拟相机320之间的视线的材料。认为是阻挡或不阻挡视线的材料类型可以与当计算如参考图3的框106的步骤所述的路径154时相同。在一些实施方案中,可使用不同的标准。例如,医生54可以将阻挡视线的材料设置为骨和硬组织,从而将空气、液体和软组织限定为不阻挡视线的材料。在一些情况下,医生54可以将阻挡视线的材料设置为骨、硬组织和软组织。另选地,医生54可以设置不阻挡视线的材料,例如空气或液体,而不是指定阻挡视线的材料。在一些实施方案中,处理器40被配置成检查两个相邻虚拟相机320之间的直接视线未被阻挡。在其他实施方案中,处理器40可以被配置成检查在两个相邻虚拟相机320之间的直接视线未被阻挡,包括检查在两个虚拟相机320之间的视线周围的给定公差未被阻挡。视线周围的给定公差可以具有任何合适的值。例如,图11示出了在虚拟相机320-2与沿着区段322-2的虚拟相机320-3之间的视线被组织330的一部分阻挡。图12示出了另一个虚拟相机320-4已经被加在虚拟相机320-2和虚拟相机320-3之间。图11还示出了尽管虚拟相机320-1和虚拟相机320-2之间的直接视线未被阻挡,但是当考虑到围绕视线的给定公差时,由给定公差扩展的视线被组织332的一部分阻挡。图12示出了另一个虚拟相机320-5已经被加在虚拟相机320-1和虚拟相机320-2之间。一旦已经添加了另外的虚拟相机320,处理器40就可以基于初始虚拟相机320加上另外的虚拟相机320来检查相邻虚拟相机320之间的视线(或扩展的视线)。
处理器40任选地被配置成响应于现有虚拟相机320之间的距离超过限值而定位(框310)在一个或多个区段322中间的一个或多个附加虚拟相机320。图12示出了虚拟相机320-6和虚拟相机320-7已经响应于现有虚拟相机320之间的距离超过限值而被添加到区段322-1中。限值可以是任何合适的限值,例如但不限于在1mm至20mm的范围内,例如4mm。附加相机320通常在现有虚拟相机320之间均匀地间隔开。
现在参考图13-图15。图13为包括使用图1的设备20选择相机的方法中的步骤的流程图340。图14和图15为示出如图13的流程图340的方法的步骤的示意图。
处理器40(图1)被配置成针对虚拟相机320中的相应虚拟相机计算(框342)相应二等分线350(图14)。在一些实施方案中,处理器40被配置成将相应二等分线350计算为在3D路径154上的相应虚拟相机320的相应位置处垂直于3D路径154的相应平面。图14示出了每个虚拟相机320的二等分线350。二等分线350可以在已经计算路径154之后的任何时间计算,直到当医疗器械21紧邻相应虚拟相机320时,如下文框344的步骤所述。
处理器40被配置成响应于医疗器械21的跟踪坐标和虚拟相机320的已知位置而找到(框344)到医疗器械21的远端最近的虚拟相机320(例如,虚拟相机320-7)(图1)。处理器40被配置成找到(框346)跟踪坐标落在最近虚拟相机320(例如,虚拟相机320-7)的二等分线350的哪一侧。处理器40被配置成基于医疗器械21的跟踪坐标相对于最近虚拟相机320(例如,虚拟相机320-7)的二等分线350落在哪一侧来选择(框348)虚拟相机320中的一个以用于渲染虚拟内窥镜图像。如果跟踪坐标落在二等分线350的更靠近当前虚拟相机320(例如,虚拟相机320-6)的一侧上,则仍然使用当前虚拟相机(例如,虚拟相机320-6)。如果跟踪坐标落在二等分线350的更远离当前虚拟相机320(例如,虚拟相机320-6)的一侧上,则选择沿着路径的下一个虚拟相机320(即,虚拟相机320(例如,虚拟相机320-7))作为新虚拟相机320。间歇重复框344-346的步骤。
框344-348的步骤在图15中示出。图15示出两个虚拟相机320-6和320-7。虚拟相机320-6是用于渲染和显示通路328的虚拟内窥镜图像的当前虚拟相机。相对于医疗器械21的行进方向,虚拟相机320-7与虚拟相机320-6相比在路径154的更下游。换句话说,虚拟相机320-7比虚拟相机320-6更靠近终点152(图11)。图15示出了医疗器械21的远端的各种可能的示例位置352。所有位置352比虚拟相机320-6更靠近虚拟相机320-7。因此,对于如图15所示的所有位置352,将发现虚拟相机320-7是框344的步骤中最接近的虚拟相机320。一旦找到最接近的虚拟相机320-7,在框346的步骤中检查医疗器械21的远端相对于最近虚拟相机320-7的二等分线350的位置。在图15的示例中,位置352-6位于与虚拟相机320-6(当前虚拟相机)最接近的二等分线350的一侧(用箭头354指示),并且位置352-7位于更远离当前虚拟相机320-6的二等分线350的另一侧(用箭头356指示)。在图15的示例中,根据框348的步骤,如果医疗器械21的远端的跟踪坐标处于位置352-6或类似位置中的任一位置,则当前虚拟相机320-6将保持为所选虚拟相机。如果医疗器械21的远端的跟踪坐标处于位置352-7或类似位置中的任一位置,则选择虚拟相机320-7作为新虚拟相机。
因此,处理器40被配置成响应于医疗器械21(图1)的跟踪坐标(位置352)相对于最接近跟踪坐标的相应虚拟相机320的相应二等分线350落在哪一侧,来选择相应虚拟相机320以用于渲染相应虚拟内窥镜图像。
在其他实施方案中,通路可以基于区段322分成多个区域,其中虚拟相机320根据其中设置有跟踪坐标的区域来选择。
现在参见图16,其为包括使用图1的设备20计算取向并偏移一个虚拟相机320位置的方法中的步骤的流程图360。还参见图17和图18,它们为示出图16的流程图360的方法的步骤的示意图。
计算每个虚拟相机320的光轴的取向。可以在已经计算虚拟相机320的位置之后的任何时间计算取向。在一些实施方案中,虚拟相机320的取向可以在选择每个虚拟相机320用作沿路径154移动的医疗器械21(图1)时进行计算。现在如下所述计算一个虚拟相机320的取向的一种方法。
处理器40(图1)被配置成选择(框362)从一个虚拟相机320-2到另一个虚拟相机320-4的路径154上的位置370,如图17所示。可选择位置370以包括或不包括虚拟相机320-4的位置。可以通过将虚拟相机320-2和虚拟相机320-4之间的区段322分成子区段来选择位置370。另选地,可以通过测量沿着路径154从虚拟相机320-2到每个位置370的给定距离来选择位置370。在一些实施方案中,当生成路径154时,可以使用限定路径154的点来选择位置370。处理器40(图1)被配置成限定从虚拟相机320-2到位置370的向量372,并且计算(框364)如图17所示的向量372的平均方向374。因此,处理器40被配置成计算沿着3D路径154从虚拟相机320-2的位置到不同的点(例如,位置370)的向量的平均方向。处理器40(图1)被配置成响应于所计算的平均方向374来计算(框366)虚拟相机320-2的取向。换句话讲,将虚拟相机320的光轴的取向计算为平均方向374。在其他实施方案中,取向可以计算为与相应虚拟相机320-2位置处的路径平行的方向。
在一些实施方案中,相应虚拟相机320(例如,虚拟相机320-2)的相应位置可以例如在相反方向376上向后偏移到相应虚拟相机320的相应平均方向374,如图18所示。使虚拟相机320向回偏移可以产生在相应虚拟内窥镜图像内医疗器械21的更好视图,特别是当医疗器械21非常接近相应的虚拟相机320时,并且可以产生周围解剖结构的更好视图。因此,处理器40(图1)被配置成将虚拟相机320-2的位置在与所计算的平均方向374相反的方向376上偏移(框368)到新位置380,如图18所示。偏移的程度可以是固定的,例如,预定数量的毫米,例如在0.2mm和2mm之间的范围内,例如1.3mm。另选地,偏移的程度可能受到周围解剖结构378的限制,使得相机320-2尽可能多地向后偏移,只要它未被推到骨或组织中即可,这由医生54来定义。“周围解剖结构”所考虑的材料类型可以为与如参见图3的框106的步骤所述,用于限定阻挡医疗器械21的路径的材料标准相同或不同。
相应虚拟相机320的视野可以设置为任何合适的相应值。每个虚拟相机320的视野可以是固定的,例如,在25度-170度之间的值的范围内,例如90度。任何一个虚拟相机320的视野可以根据路径254的区段322的外部限制来设置,该虚拟相机320覆盖(例如,从图17的向量372偏离或通过找到区段322的外部限制)该虚拟相机320的附加公差(诸如给定的角度公差,例如给外部限制增加X度,其中X可以是任何合适的值,例如在5度与90度之间的范围内)。在一些实施方案中,通过分析围绕区段322的周围解剖结构378,视野可以设置为覆盖区段322中的所有解剖结构,直到下一个虚拟相机。“周围解剖结构”所考虑的材料类型可以为与如参见图3的框106的步骤所述,用于限定阻挡医疗器械21的路径的材料标准相同或不同。
现在参见图19,其为包括用于图1的系统20中的渲染过渡方法中的步骤的流程图390。现在参见图20,其为示出图19的流程图390的方法的步骤的示意图。
两个虚拟相机320之间的过渡以及因此相关联的虚拟内窥镜图像之间的过渡可以是平滑过渡或急剧过渡。在一些实施方案中,可以通过执行以下步骤来进行两个相应虚拟相机之间的平滑过渡。通过示例在虚拟相机320-2和虚拟相机320-4之间描述过渡。
处理器40(图1)被配置成找到(框392)在当前虚拟相机320-2与下一个虚拟相机320-4之间添加的附加虚拟相机396的位置,如图20所示。可以以与参见图16和图17描述的位置370的选择类似的方式找到附加虚拟相机396的位置。可以选择任何合适数量的附加虚拟相机396。较大数量的附加虚拟相机396通常将产生更平滑的过渡。
处理器40(图1)被配置成基于连续渲染从设置在两个相邻虚拟相机320-2、320-4之间的相应附加虚拟相机396的相应位置观察到的身体内通路328的相应过渡虚拟内窥镜图像(图20),在显示屏56(图1)上渲染并显示(框394)在两个相应的相邻虚拟相机320-2、320-4的两个相应虚拟内窥镜图像之间的过渡。过渡虚拟内窥镜图像中的每一个可以在显示屏56上显示达任何合适的持续时间,例如,在20毫秒至40毫秒范围内的持续时间。
现在参见图21-图23,它们是由图1的设备20渲染和显示的示意性虚拟内窥镜图像398。如先前参见图2所提及的,处理器40(图1)被配置成在显示屏56(图1)上渲染和显示从相应虚拟相机320(图11)的相应位置和取向观察到的身体中的通路328的基于3D CT图像的相应虚拟内窥镜图像398,包括根据医疗器械21的跟踪坐标定位在相应虚拟内窥镜图像398中的医疗器械21(图1)的动画表示400
图21-图22示出从一个虚拟相机320的位置观看的虚拟内窥镜图像398-1。医疗器械21的表示400在图21中,在通路328中沿着路径154的一个位置显示,并且在图22中,在通路328中沿着路径154的一个更靠前的位置显示。使用箭头表示仍保持被穿过的路径154,其在医疗器械21沿着路径154移动时消失。可以使用任何合适的线或符号来表示路径154。图23示出从另一个虚拟相机320的位置观看的虚拟内窥镜图像398-2。
虚拟内窥镜图像398可以使用体积可视化技术来渲染,该体积可视化技术从组织图像数据(例如,基于3D CT扫描的体素的HU)生成在3D视见体(例如从相关虚拟相机320的位置向外投影的锥体)中的虚拟内窥镜图像398。图像398可以基于组织的已知颜色来渲染。可将某些材料如液体或甚至软组织选择为透明的,而所有其他密度更高的材料可以根据密度更高材料的天然颜色来渲染。另选地,甚至可以根据相应材料的天然颜色来渲染带有密度更高的材料的液体和软组织。在一些实施方案中,医生54(图1)可以设置上文讨论的虚拟内窥镜图像398的渲染参数。在一些实施方案中,可以渲染周围解剖结构378,而其他解剖结构可以忽略。“周围解剖结构”所考虑的材料类型可以为与如参见图3的框106的步骤所述,用于限定路径154不能穿过的材料标准相同或不同。
仅出于说明的目的呈现上文图像398,并且可以根据本发明的原理同样渲染和显示其他种类的图像。
如本文所用,针对任何数值或范围的术语“约”或“大约”指示允许部件或元件的集合实现如本文所述的其预期要达到的目的的合适的尺寸公差。更具体地,“约”或“大约”可指列举值的值±20%的范围,例如“约90%”可指从72%到108%的值范围。
为清晰起见,在独立实施方案的上下文中描述的本发明的各种特征部也可在单个实施方案中组合提供。相反地,为简明起见,本发明的各种特征部在单个实施方案的上下文中进行描述,也可单独地或以任何合适的子组合形式提供。
上述实施方案以举例的方式被引用,并且本发明不受上文具体示出和描述的内容的限制。相反,本发明的范围包括上述各种特征部的组合和子组合以及它们的变型和修改,本领域的技术人员在阅读上述说明时应当想到该变型和修改,并且该变型和修改并未在现有技术中公开。

Claims (24)

1.一种医疗设备,包括:
医疗器械,所述医疗器械被配置成在患者的身体中的通路内移动;
位置跟踪系统,所述位置跟踪系统被配置成跟踪所述医疗器械在所述身体内的坐标;
显示屏;以及
处理器,所述处理器被配置成:
将所述位置跟踪系统和所述身体的至少一部分的三维(3D)计算机断层摄影(CT)图像在共同参照系内配准;
找到所述医疗器械通过从给定起点到给定终点的所述通路的3D路径;
计算所述3D路径的区段;
响应于所计算的区段而计算沿着相应虚拟相机的所述3D路径的相应不同位置;
响应于所述医疗器械的跟踪坐标和所述相应虚拟相机在所述共同参照系内的相应位置来选择所述相应虚拟相机以用于渲染相应虚拟内窥镜图像;
计算所述相应虚拟相机的相应取向;以及
在所述显示屏上渲染和显示从所述相应虚拟相机的所述相应位置和取向观察到的所述身体中的所述通路的基于所述3D CT图像的所述相应虚拟内窥镜图像,包括根据所述跟踪坐标定位在所述相应虚拟内窥镜图像中的所述医疗器械的动画表示。
2.根据权利要求1所述的设备,其中,所述处理器被配置成:找到所述3D路径中高于阈值转向的转向点;以及响应于所找到的转向点而计算所述3D路径的区段以及沿着所述相应虚拟相机的所述3D路径的所述相应不同位置。
3.根据权利要求2所述的设备,其中,所述处理器被配置成响应于所述虚拟相机中的相邻虚拟相机之间的距离超过限值而将所述虚拟相机中的至少一个虚拟相机定位在所述区段中的一个区段的中间。
4.根据权利要求2所述的设备,其中,所述处理器被配置成:检查所述虚拟相机中的两个相邻虚拟相机之间的视线;以及响应于所述视线被阻挡而将所述虚拟相机中的至少一个虚拟相机定位在所述两个相邻虚拟相机之间。
5.根据权利要求2所述的设备,其中,所述处理器被配置成基于n-维多线段简化来计算所述区段。
6.根据权利要求5所述的设备,其中,所述n-维多线段简化包括Ramer–Douglas–Peucker算法。
7.根据权利要求1所述的设备,其中,所述处理器被配置成:
计算所述虚拟相机的相应虚拟相机的相应二等分线;以及
响应于所述医疗器械的所述跟踪坐标相对于最靠近所述跟踪坐标的所述虚拟相机中的相应虚拟相机的所述二等分线中的相应二等分线落在哪一侧,来选择所述相应虚拟相机以用于渲染相应虚拟内窥镜图像。
8.根据权利要求7所述的设备,其中,所述处理器被配置成将所述相应二等分线计算为在所述3D路径上的所述虚拟相机中的相应虚拟相机的所述位置中的相应位置处垂直于所述3D路径的相应平面。
9.根据权利要求1所述的设备,其中,所述处理器被配置成:
计算从所述虚拟相机中的相应虚拟相机的所述位置中的相应位置到沿着所述3D路径的不同点的向量的平均方向;以及
响应于所计算的平均方向来计算所述虚拟相机中的相应虚拟相机的所述取向中的相应取向。
10.根据权利要求9所述的设备,其中,所述处理器被配置成使所述虚拟相机中的相应虚拟相机的所述位置中的相应位置在与所计算的平均方向相反的方向上偏移。
11.根据权利要求1所述的设备,其中,所述处理器被配置成基于连续渲染从设置在所述虚拟相机中的两个相应相邻虚拟相机之间的相应附加虚拟相机的相应位置观察到的所述身体中的所述通路的相应过渡虚拟内窥镜图像,在所述显示屏上渲染和显示在所述虚拟相机中的所述两个相应相邻虚拟相机的所述虚拟内窥镜图像中的两个相应虚拟内窥镜图像之间的过渡。
12.根据权利要求1所述的设备,其中,所述位置跟踪系统包括电磁跟踪系统,所述电磁跟踪系统包括定位在所述身体的一部分周围的一个或多个磁场发生器和所述医疗器械的远端处的磁场传感器。
13.一种医疗方法,包括:
使用位置跟踪系统来跟踪医疗器械在患者的身体内的坐标,所述医疗器械被配置成在所述患者的所述身体中的通路内移动;
将所述位置跟踪系统和所述身体的至少一部分的三维(3D)计算机断层摄影(CT)图像在共同参照系内配准;
找到所述医疗器械通过从给定起点到给定终点的所述通路的3D路径;
计算所述3D路径的区段;
响应于所计算的区段,计算沿着相应虚拟相机的所述3D路径的相应不同位置;
响应于所述医疗器械的跟踪坐标和所述相应虚拟相机在所述共同参照系内的相应位置来选择所述相应虚拟相机以渲染相应虚拟内窥镜图像;
计算所述相应虚拟相机的相应取向;以及
在显示屏上渲染和显示从所述相应虚拟相机的所述相应位置和取向观察到的所述身体中的所述通路的基于所述3D CT图像的所述相应虚拟内窥镜图像,包括根据所述跟踪坐标定位在所述相应虚拟内窥镜图像中的所述医疗器械的动画表示。
14.根据权利要求13所述的方法,还包括找到所述3D路径中高于阈值转向的转向点,并且其中所述计算所述区段包括响应于所找到的转向点而计算所述3D路径的所述区段和沿着所述相应虚拟相机的所述3D路径的所述相应不同位置。
15.根据权利要求14所述的方法,还包括响应于所述虚拟相机中的相邻虚拟相机之间的距离超过限值而将所述虚拟相机中的至少一个虚拟相机定位在所述区段中的一个区段的中间。
16.根据权利要求14所述的方法,还包括:检查所述虚拟相机中的两个相邻虚拟相机之间的视线;以及响应于所述视线被阻挡而将所述虚拟相机中的至少一个虚拟相机定位在所述两个相邻虚拟相机之间。
17.根据权利要求14所述的方法,还包括基于n-维多线段简化来计算所述区段。
18.根据权利要求17所述的方法,其中,所述n-维多线段简化包括Ramer–Douglas–Peucker算法。
19.根据权利要求13所述的方法,还包括计算所述虚拟相机中的相应虚拟相机的相应二等分线,并且其中所述选择包括响应于所述医疗器械的所述跟踪坐标相对于最靠近所述跟踪坐标的所述虚拟相机中的相应虚拟相机的所述二等分线中的相应二等分线落在哪一侧,来选择所述相应虚拟相机以用于渲染相应虚拟内窥镜图像。
20.根据权利要求19所述的方法,其中,所述计算所述相应二等分线包括将所述相应二等分线计算为在所述3D路径上的所述虚拟相机中的相应虚拟相机的所述位置中的相应位置处垂直于所述3D路径的相应平面。
21.根据权利要求13所述的方法,还包括计算从所述虚拟相机中的相应虚拟相机的所述位置中的相应位置到沿着所述3D路径的不同点的向量的平均方向,并且其中计算所述相应取向包括响应于所计算的平均方向来计算所述虚拟相机中的相应虚拟相机的所述取向中的相应取向。
22.根据权利要求21所述的方法,还包括使所述虚拟相机中的相应虚拟相机的所述位置中的相应位置在与所计算的平均方向相反的方向上偏移。
23.根据权利要求13所述的方法,还包括基于连续渲染从设置在所述虚拟相机中的两个相应相邻虚拟相机之间的相应附加虚拟相机的相应位置观察到的所述身体中的所述通路的相应过渡虚拟内窥镜图像,在所述显示屏上渲染和显示在所述虚拟相机中的所述两个相应相邻虚拟相机的所述虚拟内窥镜图像中的两个相应虚拟内窥镜图像之间的过渡。
24.一种软件产品,包括非暂态计算机可读介质,在所述非暂态计算机可读介质中存储程序指令,所述指令在被中央处理单元(CPU)读取时,致使所述CPU:
使用位置跟踪系统来跟踪医疗器械在患者的身体内的坐标,所述医疗器械被配置成在所述患者的所述身体中的通路内移动;
将所述位置跟踪系统和所述身体的至少一部分的三维(3D)计算机断层摄影(CT)图像在共同参照系内配准;
找到所述医疗器械通过从给定起点到给定终点的所述通路的3D路径;
计算所述3D路径的区段;
响应于所计算的区段而计算沿着相应虚拟相机的所述3D路径的相应不同位置;
响应于所述医疗器械的跟踪坐标和所述相应虚拟相机在所述共同参照系内的相应位置来选择所述相应虚拟相机以用于渲染相应虚拟内窥镜图像;
计算所述相应虚拟相机的相应取向;以及
在显示屏上渲染和显示从所述相应虚拟相机的所述相应位置和取向观察到的所述身体中的所述通路的基于所述3D CT图像的所述相应虚拟内窥镜图像,包括根据所述跟踪坐标定位在所述相应虚拟内窥镜图像中的所述医疗器械的动画表示。
CN202080090017.4A 2019-12-24 2020-11-25 3d路径探测可视化 Pending CN114845655A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/726,661 US11596481B2 (en) 2019-12-24 2019-12-24 3D pathfinder visualization
US16/726661 2019-12-24
PCT/IB2020/061127 WO2021130572A1 (en) 2019-12-24 2020-11-25 3d pathfinder visualization

Publications (1)

Publication Number Publication Date
CN114845655A true CN114845655A (zh) 2022-08-02

Family

ID=74095912

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080090017.4A Pending CN114845655A (zh) 2019-12-24 2020-11-25 3d路径探测可视化

Country Status (6)

Country Link
US (2) US11596481B2 (zh)
EP (1) EP4081154A1 (zh)
JP (1) JP2023508397A (zh)
CN (1) CN114845655A (zh)
IL (1) IL293951A (zh)
WO (1) WO2021130572A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12023106B2 (en) * 2020-10-12 2024-07-02 Johnson & Johnson Surgical Vision, Inc. Virtual reality 3D eye-inspection by combining images from position-tracked optical visualization modalities
US20220319031A1 (en) * 2021-03-31 2022-10-06 Auris Health, Inc. Vision-based 6dof camera pose estimation in bronchoscopy

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5371778A (en) 1991-11-29 1994-12-06 Picker International, Inc. Concurrent display and adjustment of 3D projection, coronal slice, sagittal slice, and transverse slice images
WO2003045222A2 (en) 2001-11-21 2003-06-05 Viatronix Incorporated System and method for visualization and navigation of three-dimensional medical images
EP1694208A2 (en) 2003-11-26 2006-08-30 Viatronix Incorporated Systems and methods for automated segmentation, visualization and analysis of medical images
US20080071141A1 (en) * 2006-09-18 2008-03-20 Abhisuek Gattani Method and apparatus for measuring attributes of an anatomical feature during a medical procedure
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US10580325B2 (en) 2010-03-24 2020-03-03 Simbionix Ltd. System and method for performing a computerized simulation of a medical procedure
US9301723B2 (en) 2013-03-15 2016-04-05 Covidien Lp Microwave energy-delivery device and system
US10638954B2 (en) 2015-07-23 2020-05-05 Biosense Webster (Israel) Ltd. Surface registration of a CT image with a magnetic tracking system
US10188465B2 (en) 2015-08-26 2019-01-29 Biosense Webster (Israel) Ltd. Automatic ENT surgery preplanning using a backtracking maze problem solution
KR102661990B1 (ko) 2015-09-18 2024-05-02 아우리스 헬스, 인크. 관형 조직망의 탐색
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US11986252B2 (en) 2017-08-10 2024-05-21 Biosense Webster (Israel) Ltd. ENT image registration
US11026747B2 (en) 2017-04-25 2021-06-08 Biosense Webster (Israel) Ltd. Endoscopic view of invasive procedures in narrow passages
US11446095B2 (en) * 2019-12-24 2022-09-20 Biosense Webster (Israel) Ltd. 2D pathfinder visualization

Also Published As

Publication number Publication date
US20230113035A1 (en) 2023-04-13
US11596481B2 (en) 2023-03-07
US20210186619A1 (en) 2021-06-24
JP2023508397A (ja) 2023-03-02
EP4081154A1 (en) 2022-11-02
WO2021130572A1 (en) 2021-07-01
IL293951A (en) 2022-08-01

Similar Documents

Publication Publication Date Title
US11026747B2 (en) Endoscopic view of invasive procedures in narrow passages
US10492867B2 (en) Automatic ENT surgery preplanning using a backtracking maze problem solution
US8160676B2 (en) Method for planning a surgical procedure
US20230039532A1 (en) 2d pathfinder visualization
US20230113035A1 (en) 3d pathfinder visualization
EP3673854B1 (en) Correcting medical scans
KR101464330B1 (ko) 수술전 호흡 레벨과 수술장 호흡 레벨을 비교하는 방법
JP7172086B2 (ja) 手術シミュレーション装置及び手術シミュレーションプログラム
US20210401500A1 (en) Efficient automatic finding of minimal ear-nose-throat (ent) path for probe
JP7504942B2 (ja) 拡張現実のグラフィック表現を表示するための表現装置
Maddah 3D visualization and interactive image manipulation for surgical planning in robot-assisted surgery
KR20140128136A (ko) 수술전 호흡 레벨과 수술장 호흡 레벨을 비교하는 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination