CN111163837B - 用于混合现实环境中手术规划的方法和系统 - Google Patents

用于混合现实环境中手术规划的方法和系统 Download PDF

Info

Publication number
CN111163837B
CN111163837B CN201880063855.5A CN201880063855A CN111163837B CN 111163837 B CN111163837 B CN 111163837B CN 201880063855 A CN201880063855 A CN 201880063855A CN 111163837 B CN111163837 B CN 111163837B
Authority
CN
China
Prior art keywords
virtual
patient
organ
needle
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880063855.5A
Other languages
English (en)
Other versions
CN111163837A (zh
Inventor
魏国庆
曾小兰
臧晓南
范黎
钱建中
梁正中
董家鸿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EDDA Technology Inc
Original Assignee
EDDA Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EDDA Technology Inc filed Critical EDDA Technology Inc
Publication of CN111163837A publication Critical patent/CN111163837A/zh
Application granted granted Critical
Publication of CN111163837B publication Critical patent/CN111163837B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2008Assembling, disassembling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Architecture (AREA)
  • Geometry (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本教导涉及用于对准虚拟解剖模型的方法和系统。所述方法生成患者的器官的虚拟模型,其中所述虚拟模型包括至少三个虚拟标记。生成与虚拟标记的数量相等数量的虚拟球,其中所述虚拟球被放置在所述患者的所述器官的所述虚拟模型上并与所述虚拟标记相关联。记录所述虚拟球和所述虚拟标记的第一位置。将所述虚拟球放置成与设置在所述患者身上的物理标记重合并记录所述虚拟球的第二位置。基于所述第一和第二位置计算所述虚拟球和所述虚拟标记的变换,并基于所述计算的变换将所述器官的所述虚拟模型与所述患者对准。

Description

用于混合现实环境中手术规划的方法和系统
相关申请的交叉引用
本申请要求于2017年7月28日提交的美国临时专利申请第62/538,479号的优先权,该临时专利申请通过引用全文并入本文。
背景技术
1.技术领域
本公开总体上涉及用于在医疗应用中的混合现实环境中计算定量信息以及使虚拟患者与真实患者对准的方法和系统。具体而言,本公开提供了用于混合现实环境中手术规划的有效机制。
2.相关技术描述
混合现实技术的最近进展,诸如Microsoft HoloLens,已经促使这样的技术在医疗应用中广泛使用。可从患者图像(诸如CT或MRI图像)创建三维(3D)模型。这样的3D模型可以以某种格式表示,例如Filmbox(FBX)格式,并随后加载到应用(即APP)中以运行在混合现实设备中,诸如Microsoft HoloLens。可从360度在3D空间中以类全息图的方式观察3D模型。这可以或者用于教育目的,或者覆盖到手术室中的真实患者身上以帮助了解解剖结构和做手术规划并引导手术。
目前,混合现实应用只提供具有有限的用户交互的观察功能,有限的用户交互诸如3D对象模型的旋转、平移和缩放。但是,在医疗应用中,定量信息是极其重要的。例如,当捐赠者捐赠他/她的肝脏时,剩余肝脏的体积必须维持总肝脏体积的30%。同样在肿瘤消融中,如果靠近消融区处有直径3毫米或更大的血管,则热库效应将减小有效消融区的尺寸。在这样的情景下,重要的是在手术期间实时地获取定量信息,并配准和对准混合现实3D解剖模型与经受手术的真实患者,从而可以使用混合现实模型来引导手术过程。因此,非常需要为手术规划在配准的混合现实环境中提供定量信息。
发明内容
根据本公开的一个方面,公开了一种在计算设备上实现的用于对准虚拟解剖模型的方法,所述计算设备具有至少一个处理器、存储设备和能够连接到网络的通信平台。所述方法包括以下步骤:生成患者的器官的虚拟模型,其中所述虚拟模型包括至少三个虚拟标记;生成与虚拟标记的数量相等数量的虚拟球,所述虚拟球被放置在所述患者的所述器官的所述虚拟模型上并与所述虚拟标记相关联;记录所述虚拟球和所述虚拟标记的第一位置;将所述虚拟球放置成与设置在所述患者身上的物理标记重合;记录所述虚拟球的第二位置;基于所述第一和第二位置计算所述虚拟球和所述虚拟标记的变换;以及基于所述计算的变换将所述器官的所述虚拟模型与所述患者对准。
在一个示例中,公开了一种用于对准虚拟解剖模型的系统。所述系统包括通过处理器实现的解剖模型生成单元和配准单元。所述解剖模型生成单元被配置用于生成患者的器官的虚拟模型,其中所述虚拟模型包括至少三个虚拟标记。所述配准单元被配置用于:生成与虚拟标记的数量相等数量的虚拟球,所述虚拟球被放置在所述患者的所述器官的所述虚拟模型上并与所述虚拟标记相关联;记录所述虚拟球和所述虚拟标记的第一位置;将所述虚拟球放置成与设置在所述患者身上的物理标记重合;记录所述虚拟球的第二位置;基于所述第一和第二位置计算所述虚拟球和所述虚拟标记的变换;以及基于所述计算的变换将所述器官的所述虚拟模型与所述患者对准。
通过另一个示例,公开了一种非瞬态机器可读介质,其上记录有用于手术过程协助的信息,其中所述信息,当被机器读取时,使机器执行如下步骤:生成患者的器官的虚拟模型,其中所述虚拟模型包括至少三个虚拟标记;生成与虚拟标记的数量相等数量的虚拟球,所述虚拟球被放置在所述患者的所述器官的所述虚拟模型上并与所述虚拟标记相关联;记录所述虚拟球和所述虚拟标记的第一位置;将所述虚拟球放置成与设置在所述患者身上的物理标记重合;记录所述虚拟球的第二位置;基于所述第一和第二位置计算所述虚拟球和所述虚拟标记的变换;以及基于所述计算的变换将所述器官的所述虚拟模型与所述患者对准。
额外的新颖特征将部分地在以下的描述中阐明,并且对于本领域技术人员,在研究下文和随附附图后,部分新颖特征将变得显而易见,或者可通过示例的生产或操作学到。本教导的新颖特征可通过实践或使用在以下讨论的详细示例中阐述的方法、手段和组合的各种方面来实现和达到。
附图说明
本文中要求保护和/或描述的发明将根据示例性实施例进一步描述。这些示例性实施例将参考附图被详细描述。这些实施例是非限制性的示例性实施例,其中类似的附图标记贯穿附图的数个视图表示类似的结构,并且其中:
图1示出了根据各种实施例的在混合现实中计算定量信息和配准虚拟模型与真实患者的示例性系统图;
图2图示出了根据各种实施例的用于对准虚拟模型与真实患者并用于提供定量混合现实的示例性流程图;
图3图示出了根据各种实施例的在混合现实中基于虚拟选择的模型与患者配准的示例性流程图;
图4示出了根据各种实施例的用于提供定量信息的示例性流程图;
图5根据各种实施例的用于介入程序的手术模拟的示例性流程图;以及
图6示出了根据各种实施例的在混合现实中基于移动场景的飞越(flythrough)的示例性流程图。
具体实施方式
本发明总体上针对在手术规划过程中提供定量信息,并用于在医疗应用中的混合现实环境中对准虚拟模型与真实患者。
图1示出了根据当前教导的实施例的在混合现实中促进定量信息的计算以及虚拟模型与真实患者的配准的示例性系统图100。在一个实施例中,系统100包括基于患者的术前图像102生成的患者解剖模型提取和手术规划模型生成单元104、FBX格式生成单元106、器官掩膜(mask)生成单元108、混合现实设备110、混合现实与患者配准单元113、定量单元114、手术过程规划和模拟单元116、以及基于移动场景的飞越单元118。
患者解剖模型提取和手术规划模型生成单元104可被配置成从诸如CT或MRI之类的患者图像分割感兴趣的患者解剖结构。它还可以基于所分割的解剖结构生成手术计划。混合现实格式模型生成单元106可以将解剖模型和规划模型转换成混合现实格式,例如FBX格式。器官掩膜生成单元108可被配置为生成一个或多个掩膜文件以编码每个器官。用户112可以将混合现实格式文件和掩膜文件加载到混合现实设备110中。混合现实与患者配准单元113可被配置为将混合现实环境与真实患者进行配准,包括比例、尺寸、位置和/或取向。之后,混合现实环境和显示与经受手术的真实患者被良好对准。
定量单元114可被配置为提供关于在对准的混合现实环境中的患者器官的定量信息的计算。手术过程规划和模拟单元116可被配置为提供用户交互以在对准的混合现实环境中规划和模拟手术过程。基于移动场景的飞越单元118可被配置为在对准的混合现实环境中提供所选血管结构内的飞越模拟。
系统100可以进一步包括由用户112操作的一个或多个输入设备,诸如计算机鼠标、键盘、触控笔、一个或多个传感器、3D操纵手套、或任何其他合适的输入设备、或其任何组合。此外,系统100和/或输入设备也可以对应独立设备,诸如但不限于移动设备(例如智能电话、平板电脑、个人数字助理、膝上型计算机等)或计算设备(例如台式计算机、相机等)。系统除其他特征外还可以包括一个或多个处理器、存储器、通信电路和显示器。处理器可以包括任何能够控制系统的操作和功能的任何合适的处理电路。在一些实施例中,处理器可以包括中央处理单元(“CPU”)、图形处理单元(“GPU”)、一个或多个微处理器、数字信号处理器、或任何其他类型的处理器、或其任何组合。在一些实施例中,处理器的功能可以由一个或多个硬件逻辑部件执行,包括但不限于现场可编程门阵列(“FPGA”)、专用集成电路(“ASIC”)、专用标准产品(“ASSP”)、片上系统式系统(“SOC”)和/或复杂可编程逻辑器件(“CPLD”)。此外,处理器可以包括它们自己的本地存储器,本地存储器可储存程序系统、程序数据和/或一个或多个操作系统。然而,处理器可以运行操作系统(“OS”)和/或一个或多个固件应用、媒体应用和/或驻留其上的应用。在一些实施例中,处理器可以运行本地客户端脚本,用于读取和呈现自一个或多个网站接收的内容。例如,处理器可以运行本地JavaScript客户端,用于呈现HTML或XHTML内容。
存储器可包括以任何合适方式实现来存储数据的一个或多个类型的存储介质,诸如任何易失性或非易失性存储器、或者任何可移除或不可移除存储器。例如,可使用计算机可读指令、数据结构和/或程序系统来存储信息。各种类型的存储设备/存储器可包括,但不限于硬盘驱动器、固态驱动器、闪存存储器、永久性存储器(例如ROM)、电可擦除可编程只读存储器(“EEPROM”)、CD-ROM、数字多用途盘(“DVD”)或其他光学存储介质、盒式磁带、磁带、磁盘存储或其他磁性存储设备、RAID存储系统、或任何其他存储类型,或其任何组合。此外,存储器304可以被实现为计算机可读存储介质(“CRSM”),它可以是处理器可访问以执行存储器内储存的一个或多个指令的任何可用的物理介质。
通信电路可包括允许或使系统的一个或多个组件能够与彼此和/或与一个或多个额外设备、服务器和/或系统通信的任何电路。在一些实施例中,通信电路可以促进通过网络(诸如互联网)的通信。例如,通信电路可使用传输控制协议和互联网协议(“TCP/IP”)(例如,在TCP/IP诸层的每一层中使用的任何协议)、超文本传输协议(“HTTP”)、WebRTC、SIP和无线应用协议(“WAP”)来访问网络,这些协议是可用于促进通信的各种类型的协议中的一些。在一些实施例中,使用HTTP的网页浏览器可被用于通信。可用于促进通信的各种额外的通信协议可包括,但不限于Wi-Fi(例如802.11协议)、蓝牙、射频系统(例如900MHz、1.4GHz和5.6GHz通信系统)、蜂窝网络(例如GSM、AMPS、GPRS、CDMA、EV-DO、EDGE、3GSM、DECT、IS-136/TDMA、iDen、LTE或任何其他合适的蜂窝网络协议)、红外、BitTorrent(比特流)、FTP、RTP、RTSP、SSH和/或VOIP。
在一个实施例中,显示器可以是与处理器、存储器和/或通信电路中的一个或多个通信的任何合适类型的显示器。各种类型的显示器可包括,但不限于液晶显示器(“LCD”)、单色显示器、彩色图形适配器(“CGA”)显示器、增强图形适配器(“EGA”)显示器、可变图形阵列(“VGA”)显示器、或任何其他类型的显示器,或前述各项的任何组合。更进一步,在一些实施例中,触摸屏可对应于包括能够识别其上触摸输入的电容感测面板的显示设备。在一些实施例中,显示器可以是任选组件。
图2示出了根据本教导的一个实施例的用于提供定量混合现实和用于对准虚拟模型与真实患者的示例性流程图。在步骤202,可从患者图像分割感兴趣的患者解剖结构。该分割可以是自动或半自动的。患者图像可以是CT或MRI、或任何其他形式。在步骤204,可从所分割的解剖结构生成手术规划模型。这可包括病灶切除计划、移植计划、或介入计划。在步骤206,患者解剖结构和手术计划两者都可被转换成混合现实格式。这样的混合现实格式可以是FBX或可容易地加载到混合现实设备中的任何其它格式。在步骤208,所分割的解剖结构可被编码成掩膜文件。例如,可使用每像素8字节的格式对8个器官编码,其中每个比特用于代表一个器官。在一个实施例中,如果该比特的值是1,则意味着该器官存在于那个像素处。否则,该器官不存在于那个像素处。在步骤210,将混合现实格式文件和掩膜文件加载到混合现实设备中。在步骤212,可将混合现实格式文件用于显示器官和手术计划,同时可将掩膜文件加载到设备的存储器中,但掩膜文件可不被显示。
在步骤213,包括患者解剖结构、手术计划、以及模拟场景的混合现实环境可以同经受手术的真实患者对准。
在步骤214,用户交互可在对准的混合现实环境中调用定量信息的计算。然后,用户可以操纵混合现实设备在有/无参考患者解剖结构3D模型和手术计划的显示的情况下在真实患者身上测量某些信息(例如距离、角度、直径、体积、尺寸等)。系统可基于器官掩膜以及混合现实与真实患者的对准来计算某些定量信息,并实时显示所希望的信息。在步骤216,可由用户交互式地规划手术计划。手术规划可包括,但不限于肿瘤切除、移植、消融和活组织检查等。规划的手术(例如切除表面、针路径、消融区域、跨血管路径等)连同外科医生所希望的相应定量信息和警告信息可在对准的混合现实环境中的真实患者身上显示。一旦已经制定了手术计划,在步骤217,用户就可以交互地在真实患者身上显示的对准的混合现实环境中模拟和实践手术过程。可将模拟的过程和手术计划进行比较。
在步骤218,可以基于用户选择的血管结构执行基于移动场景的飞越。与常规的飞越不同,可使模型的场景移动以创建飞越效果。
图3示出了根据本教导的一个实施例的基于虚拟选择的模型与患者配准单元113的示例性流程图。具体而言,在一个实施例中,模型与患者配准单元113在混合现实环境中配准虚拟解剖模型与真实患者。为实现这个,在步骤302,可在患者身体上放置多个基准标记。替代地,可使用解剖标志。这种情况下,可不需要在患者身体上放置外部基准标记。解剖基准标记可包括,但不限于乳头、肚脐和血管分叉(用于开放手术)。在步骤304,可进行对患者的扫描。在一个实施例中,对基准标记的要求是可在患者扫描中识别它们。在步骤306,基准标记和解剖器官(包括解剖基准标记)一起,可被从扫描图像分割,并且可被转换成FBX格式并在步骤308加载到混合现实设备中。在步骤310,可在观察器坐标系(即虚拟坐标系)中的已知位置生成多个虚拟球。可以用不同数字或用有区别的颜色来给球贴标签。在步骤312,用户可将球移动到和患者身体上的真实基准标记或解剖标志相同的位置。在步骤313,可基于球的有区别的标识(通过颜色或数字)来指定球与虚拟基准标记的对应关系。然后,可在步骤314记录球在世界坐标系(即虚拟环境)中的位置。还可在步骤316记录虚拟基准标记的世界坐标(即虚拟坐标)。在步骤318,虚拟基准标记与虚拟球的这些坐标及其间的对应关系可用于计算模型坐标系与患者坐标系之间的严格变换。然后在步骤320,可基于计算出的变换来移动虚拟模型以与真实患者对准。也可能将球放置在有区别的表面上,例如放置在开放手术中的肝脏表面上。然后可将在表面上的球的坐标用于配准虚拟模型中的相同表面以计算虚拟模型与真实患者之间的变换。在步骤322,可在对准的虚拟解剖模型上执行定量过程。此后,在步骤324,可在对准的解剖模型的管状结构上执行飞越效果操作。有关定量过程(步骤322)和飞越效果(步骤324)的细节接下来分别参考图4和图6描述。
上面的患者对准方法可用不同方式扩展以对准不同坐标系。作为示例性实施例,它可用于对准磁跟踪系统与混合现实环境。若基准标记是磁性传感器,或它们的位置可通过使用磁性传感器探针(例如通过触摸它)来获得,则基准标记在传感器坐标系中的坐标可用于计算传感器坐标系与混合现实中世界坐标系之间的变换。作为另一个示例性实施例,机器人可通过由机器人的末端执行器触摸或由相机依据立体视觉而感知患者身上的基准标记。以这种方式,可计算机器人与混合现实中世界坐标系之间的坐标变换。混合现实环境与第三应用坐标系之间的变换可用于使来自第三坐标系的用户动作协调并显示到混合现实环境中。
图4示出了根据本教导的一个实施例的定量单元114的示例性流程图。将虚拟模型与真实患者对准后,用户可对虚拟解剖结构的表面上的一个或多个点贴标签。可通过光标点与FBX网格(mesh)的碰撞检测找到表面点。这在步骤402处执行。在步骤404,可变换表面点以在编码的掩膜文件中找到对应点。可提供不同模式的定量以供用户选择。在直径模式中,可需要一个光标点来计算掩膜的标签点处的直径。在步骤406,可计算与血管结构的中心线正交的掩膜的横截面的直径。在步骤408,还可从掩膜文件计算被光标点命中的解剖结构的体积。在步骤410,在距离模式中,可用两个标签点来计算掩膜文件中的点之间的距离。类似地,在角度模式中,在步骤412,可将表面上的三个标签点映射到掩膜以计算通过连接第一点和第二点、以及连接第二点和第三点而形成的两条线之间的角度。
图5示出了根据本教导的一个实施例的用于介入程序的手术模拟单元116的示例性流程图。以下示例基于消融或活组织检查模拟。可类似地执行其它手术模拟,诸如肿瘤切除或移植。在步骤502,可以将虚拟针放入病灶。然后在步骤504,可将针的针尖固定并可将针的针柄移动以找到合适的针路径。在步骤506,在调整针的同时,可实时计算某些定量信息并将该定量信息显示给用户。这可包括,但不限于皮肤进入点到针尖之间的距离、从针尖到所有相交器官表面的距离、针的方位角和仰角。因为模拟是在配准的混合现实与真实患者下执行,所以它可用于帮助外科医生理解过程的复杂性。
图6示出了根据本教导的一个实施例的基于移动场景的飞越单元118的示例性流程图。在常规的飞越中,可将视口(或虚拟相机)放置在血管的(管状的)结构内并沿该管的中心线移动。在混合现实中,视口是人眼,且不可能将其放在管内。下面描述的是用于实现飞越效果的基于移动场景的飞越方法。在步骤602,可由用户选择虚拟管状解剖结构,诸如气道或输尿管,以供执行飞越。在步骤604,可将虚拟模型放大,例如放大到40倍。这以相同因数放大管状解剖结构。此外,可确定所选解剖结构的中心线(轴),例如管状结构的中心线(即位于管状结构的纵轴上的线)。在步骤606,可将场景放置在靠近观察器的地方,使得管状解剖结构的中心线就是观察器的中心(步骤606)并且中心线的切线方向与观察方向对准(步骤608)。在步骤610,可沿中心线将场景朝向观察器移动。然后,飞越效果可被创建。
尽管前文已经描述了被认为构成本教导和/或其它示例的内容,但是应该理解,可以对其做出各种修改,并且本文中所公开的主题可以以各种形式和示例来实现,并且教导可以应用于许多应用中,仅其中的一些已在本文中被描述。此外,必须意识到,流程图中记载的步骤可以以任何顺序实现,并且不以任何方式受限于图中所描绘的顺序。所附权利要求旨在要求保护落入本教导的真实范围内的任何和所有应用、修改和变型。

Claims (15)

1.一种在计算设备上实现的用于混合现实环境中手术规划的方法,所述计算设备具有至少一个处理器、存储设备和能够连接到网络的通信平台,所述方法包括:
生成患者的器官的虚拟模型,其中所述虚拟模型包括至少三个虚拟标记;
生成与虚拟标记的数量相等数量的虚拟球,所述虚拟球被放置在所述患者的所述器官的所述虚拟模型上并与所述虚拟标记相关联;
记录所述虚拟球和所述虚拟标记的第一位置;
将所述虚拟球放置成与设置在所述患者身上的物理标记重合;
记录所述虚拟球的第二位置;
基于所述第一和第二位置计算所述虚拟球和所述虚拟标记的变换;
基于计算的变换将所述器官的所述虚拟模型与所述患者对准;
在对准的虚拟模型上执行定量过程;以及
在所述对准的虚拟模型的管状结构上执行飞越效果操作。
2.根据权利要求1所述的方法,其中生成所述患者的所述器官的所述虚拟模型的步骤进一步包括:
获得对所述患者的所述器官的扫描图像,所述扫描图像包括设置在所述患者身上的所述物理标记;以及
基于获得的扫描图像分割所述物理标记和所述患者的所述器官。
3.根据权利要求1所述的方法,进一步包括:
将虚拟针放置在病灶中,所述病灶被包括在所述器官的对准的虚拟模型中;
相对于所述病灶操纵所述虚拟针;以及
显示至少与所述虚拟针和所述患者的所述器官有关的定量信息。
4.根据权利要求3所述的方法,其中操纵所述虚拟针的步骤进一步包括:
确定所述虚拟针的要被固定的针尖;以及
基于用户交互,相对于所述针尖移动所述虚拟针的针柄。
5.根据权利要求4所述的方法,其中所述定量信息至少包括:所述患者的皮肤的表面与所述虚拟针的所述针尖之间的第一距离、所述虚拟针的所述针尖与所述患者的相交器官表面之间的第二距离、和所述虚拟针的取向。
6.根据权利要求1所述的方法,其中将患者的所述器官的所述虚拟模型和所述患者同时地显示给用户。
7.根据权利要求1所述的方法,进一步包括:
选择所述患者的所述器官的所述虚拟模型中的管状结构;
提取选择的管状结构的轴;
放大所述选择的管状结构;
在沿提取的轴的方向上朝向用户移动所述选择的管状结构。
8.一种用于混合现实环境中手术规划的系统,所述系统包括:
解剖模型生成单元,所述解剖模型生成单元通过处理器实现并被配置用于生成患者的器官的虚拟模型,其中所述虚拟模型包括至少三个虚拟标记;
配准单元,所述配准单元通过处理器实现并被配置用于:
生成与虚拟标记的数量相等数量的虚拟球,所述虚拟球被放置在所述患者的所述器官的所述虚拟模型上并与所述虚拟标记相关联,
记录所述虚拟球和所述虚拟标记的第一位置,
将所述虚拟球放置成与设置在所述患者身上的物理标记重合,
记录所述虚拟球的第二位置,
基于所述第一和第二位置计算所述虚拟球和所述虚拟标记的变换,以及
基于计算的变换将所述器官的所述虚拟模型与所述患者对准;
定量单元,所述定量单元通过处理器实现并被配置用于在对准的虚拟模型上执行定量过程;以及
基于移动场景的飞越单元,所述基于移动场景的飞越单元通过处理器实现并被配置用于在所述对准的虚拟模型的管状结构上执行飞越效果操作。
9.根据权利要求8所述的系统,其中所述解剖模型生成单元被进一步配置用于:
获得对所述患者的所述器官的扫描图像,所述扫描图像包括设置在所述患者身上的所述物理标记;以及
基于获得的扫描图像分割所述物理标记和所述患者的所述器官。
10.根据权利要求8所述的系统,进一步包括:
手术规划单元,所述手术规划单元通过所述处理器实现并被配置用于:
将虚拟针放置在病灶中,所述病灶被包括在所述器官的对准的虚拟模型中,以及
相对于所述病灶操纵所述虚拟针;以及
定量单元,所述定量单元通过所述处理器实现并被配置用于显示至少与所述虚拟针和所述患者的所述器官有关的定量信息。
11.根据权利要求10所述的系统,其中所述手术规划单元被进一步配置用于:
确定所述虚拟针的要被固定的针尖;以及
基于用户交互,相对于所述针尖移动所述虚拟针的针柄。
12.根据权利要求11所述的系统,其中所述定量信息至少包括:所述患者的皮肤的表面与所述虚拟针的所述针尖之间的第一距离、所述虚拟针的所述针尖与所述患者的相交器官表面之间的第二距离、和所述虚拟针的取向。
13.根据权利要求8所述的系统,其中将患者的所述器官的所述虚拟模型和所述患者同时地显示给用户。
14.根据权利要求8所述的系统,进一步包括移动场景飞越单元,所述移动场景飞越单元通过所述处理器实现并被配置用于:
选择所述患者的所述器官的所述虚拟模型中的管状结构;
提取选择的管状结构的轴;
放大所述选择的管状结构;
在沿提取的轴的方向上朝向用户移动所述选择的管状结构。
15.一种非瞬态机器可读介质,其上记录有用于手术过程协助的信息,其中所述信息,当被机器读取时,使所述机器执行如下步骤:
生成患者的器官的虚拟模型,其中所述虚拟模型包括至少三个虚拟标记;
生成与虚拟标记的数量相等数量的虚拟球,所述虚拟球被放置在所述患者的所述器官的所述虚拟模型上并与所述虚拟标记相关联;
记录所述虚拟球和所述虚拟标记的第一位置;
将所述虚拟球放置成与设置在所述患者身上的物理标记重合;
记录所述虚拟球的第二位置;
基于所述第一和第二位置计算所述虚拟球和所述虚拟标记的变换;
基于计算的变换将所述器官的所述虚拟模型与所述患者对准;
在对准的虚拟模型上执行定量过程;以及
在所述对准的虚拟模型的管状结构上执行飞越效果操作。
CN201880063855.5A 2017-07-28 2018-07-26 用于混合现实环境中手术规划的方法和系统 Active CN111163837B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762538479P 2017-07-28 2017-07-28
US62/538,479 2017-07-28
PCT/IB2018/055600 WO2019021236A1 (en) 2017-07-28 2018-07-26 METHOD AND SYSTEM FOR SURGICAL PLANNING IN A MIXED REALITY ENVIRONMENT

Publications (2)

Publication Number Publication Date
CN111163837A CN111163837A (zh) 2020-05-15
CN111163837B true CN111163837B (zh) 2022-08-02

Family

ID=65041148

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880063855.5A Active CN111163837B (zh) 2017-07-28 2018-07-26 用于混合现实环境中手术规划的方法和系统

Country Status (4)

Country Link
US (1) US10679417B2 (zh)
EP (1) EP3658233A4 (zh)
CN (1) CN111163837B (zh)
WO (1) WO2019021236A1 (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
EP3490482B1 (en) * 2016-07-26 2023-09-06 7D Surgical ULC System and method for verification of fiducial correspondence during image-guided surgical procedures
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
EP3810008A2 (en) 2018-06-19 2021-04-28 Tornier, Inc. Mixed reality-aided depth tracking in orthopedic surgical procedures
EP3637374A1 (en) * 2018-10-09 2020-04-15 Siemens Healthcare GmbH Method and system for visualising a spatial surface curvature of a 3d-object, computer program product, and computer-readable storage medium
US11786307B2 (en) * 2018-10-19 2023-10-17 Canon U.S.A., Inc. Visualization and manipulation of results from a device-to-image registration algorithm
CN114929145A (zh) * 2019-10-23 2022-08-19 医达科技公司 计划通过线性切割吻合器手术切除病变的系统和方法
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
CN111228656A (zh) * 2020-01-15 2020-06-05 于金明 基于虚拟智能医疗平台的放疗外照射治疗实施质控系统及方法
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
CN113648056B (zh) * 2021-08-18 2022-08-23 上海电气集团股份有限公司 混合现实显示设备及手术导航系统
CN113842227B (zh) * 2021-09-03 2024-04-05 上海涞秋医疗科技有限责任公司 医疗辅助三维模型定位匹配方法、系统、设备及介质
CN114581635B (zh) * 2022-03-03 2023-03-24 上海涞秋医疗科技有限责任公司 一种基于HoloLens眼镜的定位方法及系统
CN115054367A (zh) * 2022-06-20 2022-09-16 上海市胸科医院 基于混合现实的病灶定位方法、装置和电子设备
CN115115810B (zh) * 2022-06-29 2023-06-02 广东工业大学 一种基于空间姿态捕捉的多人协同病灶定位与增强展示方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102999902A (zh) * 2012-11-13 2013-03-27 上海交通大学医学院附属瑞金医院 基于ct配准结果的光学导航定位系统及其导航方法
GB2534359A (en) * 2015-01-15 2016-07-27 Corin Ltd System and method for patient implant alignment
CN105796177A (zh) * 2010-12-23 2016-07-27 巴德阿克塞斯系统股份有限公司 用于引导医疗器械的系统和方法
CN105992996A (zh) * 2014-04-04 2016-10-05 外科手术室公司 外科手术环境中的动态和交互式导航
CN106913380A (zh) * 2012-05-22 2017-07-04 科维蒂恩有限合伙公司 外科规划系统和导航系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US225192A (en) 1880-03-02 Apparatus for cooling air
US324580A (en) 1885-08-18 Edwaed mijephy
WO2005043465A2 (en) * 2003-11-03 2005-05-12 Bracco Imaging S.P.A. Stereo display of tube-like structures and improved techniques therefor ('stereo display')
CA2572019A1 (en) * 2004-06-24 2006-01-05 Calypso Medical Technologies, Inc. Systems and methods for treating a lung of a patient using guided radiation therapy or surgery
JP5291619B2 (ja) * 2006-05-24 2013-09-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 座標系レジストレーション
WO2011150376A1 (en) 2010-05-28 2011-12-01 C.R. Bard, Inc. Apparatus for use with needle insertion guidance system
JP5864917B2 (ja) 2011-07-05 2016-02-17 デンカ株式会社 水中不分離性増粘剤組成物
US10307079B2 (en) 2014-01-27 2019-06-04 Edda Technology, Inc. Method and system for surgical instrument guidance and tracking with position and orientation correction
US10013808B2 (en) * 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US20160324580A1 (en) * 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105796177A (zh) * 2010-12-23 2016-07-27 巴德阿克塞斯系统股份有限公司 用于引导医疗器械的系统和方法
CN106913380A (zh) * 2012-05-22 2017-07-04 科维蒂恩有限合伙公司 外科规划系统和导航系统
CN102999902A (zh) * 2012-11-13 2013-03-27 上海交通大学医学院附属瑞金医院 基于ct配准结果的光学导航定位系统及其导航方法
CN105992996A (zh) * 2014-04-04 2016-10-05 外科手术室公司 外科手术环境中的动态和交互式导航
GB2534359A (en) * 2015-01-15 2016-07-27 Corin Ltd System and method for patient implant alignment

Also Published As

Publication number Publication date
EP3658233A1 (en) 2020-06-03
WO2019021236A1 (en) 2019-01-31
US20190035156A1 (en) 2019-01-31
US10679417B2 (en) 2020-06-09
EP3658233A4 (en) 2021-01-20
CN111163837A (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
CN111163837B (zh) 用于混合现实环境中手术规划的方法和系统
US11657329B2 (en) Augmenting image data of medically invasive devices having non-medical structures
US20200188028A1 (en) Systems and methods for augmented reality guidance
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
JP6730938B2 (ja) 医学画像表示装置、医学画像表示システム、医学画像表示装置を動作させる方法
Müller et al. Mobile augmented reality for computer-assisted percutaneous nephrolithotomy
EP3544538B1 (en) System for navigating interventional instrumentation
Choi et al. A portable surgical navigation device to display resection planes for bone tumor surgery
JP2024508080A (ja) 拡張現実ディスプレイにおける医療画像の位置合わせ
JP6493877B2 (ja) 基準点評価装置、方法およびプログラム、並びに位置合せ装置、方法およびプログラム
WO2022241321A1 (en) Method and system of depth determination with closed form solution in model fusion for laparscopic surgical guidance
JP2021049198A (ja) 手術支援装置及び手術ナビゲーションシステム
Wang et al. A HoloLens based augmented reality navigation system for minimally invasive total knee arthroplasty
KR101903996B1 (ko) 의료 영상 시뮬레이션 방법 및 그 방법을 이용한 장치
US11071589B2 (en) Method and system for interactive laparoscopic ultrasound guided ablation planning and surgical procedure simulation
CN115105204A (zh) 一种腹腔镜增强现实融合显示方法
JP2023523561A (ja) ビデオにおけるコンピュータ支援の標識または基準配置のシステムおよび方法
TW202207242A (zh) 用於增強現實脊柱手術之系統及方法
US10716626B2 (en) Method and system for interactive 3D scope placement and measurements for kidney stone removal procedure
Inácio et al. Augmented Reality in Surgery: A New Approach to Enhance the Surgeon's Experience
Yano et al. Measurement and Evaluation of Organ Shifts in Real-Life Surgery
Ukimura et al. Augmented reality for computer-assisted image-guided minimally invasive urology
Lee et al. Collaborative diagnosis in mixed-reality using deep-learning networks and RE-WAPICP algorithm
Nguyen et al. Image-guided simulation of tissue deformation using a mechanical model on a surgical application
Guo et al. Augmented Reality Guidance System for Ultrasound-Guided Puncture Surgery Training

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant