CN115211962A - 用于外科手术期间的计算机辅助导航的外科系统 - Google Patents

用于外科手术期间的计算机辅助导航的外科系统 Download PDF

Info

Publication number
CN115211962A
CN115211962A CN202210404950.5A CN202210404950A CN115211962A CN 115211962 A CN115211962 A CN 115211962A CN 202210404950 A CN202210404950 A CN 202210404950A CN 115211962 A CN115211962 A CN 115211962A
Authority
CN
China
Prior art keywords
fiducial
camera
representation
radiological
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210404950.5A
Other languages
English (en)
Inventor
D·莱格尔
N·约翰逊
G·施米塔
T·卡洛韦
D·维什涅夫斯基
D·厄尔
R·费希尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Globus Medical Inc
Original Assignee
Globus Medical Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Globus Medical Inc filed Critical Globus Medical Inc
Publication of CN115211962A publication Critical patent/CN115211962A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • A61B2034/207Divots for calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/258User interfaces for surgical systems providing specific settings for specific users
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30052Implant; Prosthesis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Robotics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

一种用于外科手术期间的计算机辅助导航的外科系统,该外科系统包括至少一个处理器,该至少一个处理器获得患者的目标解剖结构和配准夹具的基准集的3D放射学表示。操作尝试将该3D放射学表示中的该基准集的位置配准到由相机跟踪系统跟踪的3D成像空间。基于确定该基准集中的一个基准具有未成功配准到该3D成像空间的位置,进行以下操作:显示该3D放射学表示的至少一个视图,该至少一个视图具有指示该基准未成功配准到该3D成像空间的图形叠层;接收标识该基准在该3D放射学表示中位于何处的用户提供的位置信息;并且基于该用户提供的位置信息将该基准的该位置配准到该3D成像空间。

Description

用于外科手术期间的计算机辅助导航的外科系统
相关申请
本申请要求提交于2021年4月19日的美国临时专利申请序列号63/176,424的权益,该美国临时专利申请的公开内容据此全文以引用方式并入本文。
技术领域
本公开涉及外科手术期间的设备和操作的计算机辅助导航。
背景技术
外科手术室可容纳多种多样的医疗设备,这些医疗设备可包括计算机辅助外科导航系统、医学成像装置(例如,计算机断层摄影(CT)扫描仪、荧光透视成像等)、外科机器人等。
计算机辅助外科导航系统可向外科医生提供外科工具的当前姿态相对于患者解剖结构的医学图像的计算机化可视化。用于计算机辅助外科导航的相机跟踪系统通常使用一组相机来跟踪外科工具上的参考阵列相对于附接到患者的患者参考阵列(也称为“动态参考基座”(DRB))的姿态,外科工具由外科医生在外科手术期间定位。参考阵列使相机跟踪系统能够确定外科工具相对于由患者的医学图像成像的解剖结构以及相对于患者的姿态。因此,外科医生可使用姿态的实时视觉反馈在患者的外科手术期间导航外科工具。
许多使用计算机辅助外科导航系统的外科工作流程在外科手术期间需要图像扫描,诸如CT扫描或磁共振成像扫描。可使用垂直扫描切片(轴向、矢状和冠状),以使操作者能够与手术器械的相对姿态并排地可视观察患者的解剖结构。在外科手术环境的时间限制和其他压力下,外科医生和其他外科团队成员在回忆、解释和遵循外科工作流程方面可能具有挑战性。需要改进的外科工作流程和计算机实现的操作,以减少外科团队的工作量并确保遵循流程和最佳实践。
发明内容
本公开的一些实施方案涉及一种用于外科手术期间的计算机辅助导航的外科系统。该外科系统包括至少一个处理器,该至少一个处理器操作用于获得患者的目标解剖结构和配准夹具的基准集的三维(3D)放射学表示。操作尝试将3D放射学表示中的基准集的位置配准到由相机跟踪系统跟踪的3D成像空间。基于确定基准集中的一个基准具有未成功配准到3D成像空间的位置,进行以下操作:显示3D放射学表示的至少一个视图,该至少一个视图具有指示该基准未成功配准到3D成像空间的图形叠层;接收标识该基准在3D放射学表示中位于何处的用户提供的位置信息;并且基于该用户提供的位置信息将该基准的位置配准到3D成像空间。
在一些另外的实施方案中,尝试将3D放射学表示中的基准集的位置配准到由相机跟踪系统跟踪的3D成像空间的操作包括从相机跟踪系统的至少一个相机获得固定到患者的参考阵列的光学图像。参考阵列包括能够由3D成像空间中的相机跟踪系统的至少一个相机检测到的光学标记集。操作尝试将光学标记集的图案的位置配准到3D放射学表示中的基准集的图案的位置,并且标识参考阵列的光学标记中的未成功配准到配准夹具的基准中的任一个基准的任一个光学标记。
在一些另外的实施方案中,操作包括将虚拟植入装置显示为目标解剖结构的3D放射学表示的视图上的叠层。操作显示虚拟植入装置的轨迹的图形指示,该图形指示表示虚拟植入装置进入目标解剖结构的植入轨迹。操作更新显示在3D放射学表示的视图中的虚拟植入装置轨迹的图形指示的姿态,以跟踪通过外科系统的用户界面接收的操纵输入。操作将轨迹的图形指示的姿态中的用户指定姿态存储为虚拟植入装置的所计划轨迹。
在一些另外的实施方案中,在获得患者的目标解剖结构和配准夹具的基准集的3D放射学表示之前,操作包括从相机跟踪系统的至少一个相机获得固定到患者的参考阵列和附接到放射成像装置的配准夹具的光学图像。参考阵列包括能够由3D成像空间中的相机跟踪系统的至少一个相机检测到的光学标记的第一集,并且配准夹具包括能够由3D成像空间中的相机跟踪系统的至少一个相机检测到的光学标记的第二集。操作获得患者的目标解剖结构和配准夹具的基准集的荧光透视图像。操作基于由3D成像空间中的相机跟踪系统的至少一个相机检测到的第一集中的光学标记的限定数目来确定是否满足第一条件。操作基于由3D成像空间中的相机跟踪系统的至少一个相机检测到的第二集中的光学标记的限定数目来确定是否满足第二条件。操作基于能够在荧光透视图像中看见的配准夹具的基准集的限定数目来确定是否满足第三条件。当不满足第一条件、第二条件和第三条件中的一者时,操作显示不满足第一条件、第二条件和第三条件中的一者的指示,并且阻止放射成像过程捕获患者的目标解剖结构和配准夹具的基准集的3D放射学表示。相反,当满足第一条件、第二条件和第三条件中的每一者时,操作使放射成像过程能够捕获患者的目标解剖结构和配准夹具的基准集的3D放射学表示。
在阅读以下附图和详细描述之后,根据本发明主题的实施方案的其他外科系统、方法和计算机程序产品对于本领域的技术人员而言将显而易见或将变得显而易见。所有此类外科系统、方法和计算机程序产品旨在包括在本说明书中,包括在本发明主题的范围内,并且受到所附权利要求书的保护。此外,本文公开的所有实施方案旨在可单独实现或以任何方式和/或组合进行组合。
附图说明
为了进一步理解本公开而包括在内的并且构成本申请的一部分的附图示出了本发明概念的某些非限制性实施方案。在附图中:
图1示出了根据一些实施方案的ExcelsiusHub部件;
图2示出了根据一些实施方案的CONFIGURE(配置)选项卡在程序设置期间的示例性用户界面;
图3示出了根据一些实施方案的WORKFLOW(工作流程)选项卡在程序设置期间的示例性用户界面;
图4示出了根据一些实施方案的VERIFY(验证)选项卡在程序设置期间的示例性用户界面;
图5示出了根据一些实施方案的使用验证凹坑进行的器械验证;
图6示出了根据一些实施方案的器械验证期间的示例性用户界面;
图7示出了根据一些实施方案的用于将动态参考基座(DRB)固定到患者附接器械的过程;
图8示出了根据一些实施方案的使用夹钳驱动器拧紧DRB旋钮的过程;
图9示出了根据一些实施方案的DRB和监视标记的放置;
图10示出了根据一些实施方案的用于利用移除工具来移除Quattro尖钉的过程;
图11示出了根据一些实施方案的用于将枢转臂星放射状部(starburst)固定在配准夹具上的过程;
图12示出了根据一些实施方案的用于将配准夹具固定到患者附接器械柱的过程;
图13示出了根据一些实施方案的完整术中CT配准组件和释放按钮;
图14示出了根据一些实施方案的IMAGE(成像)选项卡在术中CT成像工作流程期间的示例性用户界面;
图15示出了根据一些实施方案的手动配准屏幕在术中CT成像工作流程期间的示例性用户界面;
图16示出了根据一些实施方案的PLAN(计划)选项卡在术中CT成像工作流程期间的示例性用户界面;
图17示出了根据一些实施方案的NAVIGATE(导航)选项卡在术中CT成像工作流程期间的示例性用户界面;
图18示出了根据一些实施方案的IMAGE选项卡在术前CT成像工作流程期间的示例性用户界面;
图19示出了根据一些实施方案的PLAN选项卡在术前CT成像工作流程期间的示例性用户界面;
图20示出了根据一些实施方案的NAVIGATE选项卡在术前CT成像工作流程期间的示例性用户界面;
图21示出了根据一些实施方案的附接到图像增强器的荧光透视配准夹具;
图22示出了根据一些实施方案的术前CT成像工作流程期间的成像采集的示例性用户界面;
图23示出了根据一些实施方案的术前CT成像工作流程期间的节段选择之后的示例性用户界面;
图24示出了根据一些实施方案的术前CT成像工作流程期间的成功配准之后的示例性用户界面;
图25示出了根据一些实施方案的术前CT成像工作流程期间的实时器械/植入物轨迹和所导航的器械的示例性用户界面;
图26示出了根据一些实施方案的IMAGE选项卡在荧光透视成像工作流程期间的示例性用户界面;
图27示出了根据一些实施方案的荧光透视成像工作流程期间的图像采集的示例性用户界面;
图28示出了根据一些实施方案的PLAN选项卡在荧光透视成像工作流程期间的示例性用户界面;
图29示出了根据一些实施方案的NAVIGATE选项卡在荧光透视成像工作流程期间的示例性用户界面;
图30是手术室中在外科手术期间任选地佩戴扩展现实(XR)头戴式耳机的人员的俯视图,该手术室包括用于所导航的外科手术的相机跟踪系统和用于机器人辅助的外科机器人系统并且根据一些实施方案进行配置;
图31示出了外科系统的框图,该外科系统包括相机跟踪系统和导航系统,并且还任选地包括根据一些实施方案各自可操作的外科机器人和XR头戴式耳机;并且
图32至图34示出了根据一些实施方案可由外科系统执行的操作。
具体实施方式
提供以下讨论以使本领域的技术人员能够实现和使用本公开的实施方案。对例示的实施方案进行的各种修改对本领域的技术人员而言将显而易见,并且在不脱离本公开实施方案的情况下本文的原理可应用于其他实施方案和应用。因此,实施方案不旨在限于所示出的实施方案,而是应具有符合本文所公开的原理和特征的最宽泛范围。参考附图阅读以下详细描述,在不同的附图中类似的要素具有类似的附图标记。附图未必按比例绘制,描绘了所选择的实施方案并且不旨在限制实施方案的范围。本领域的技术人员将认识到,本文提供的示例具有许多有用的另选形式并且落入实施方案的范围。
系统概述
Globus Medical,Inc.(以下称为“Globus Medical”或“Globus”)的ExcelsiusHub能够使用放射学患者图像进行实时外科导航和可视化,并且基于植入计划将兼容的外科器械引导至精确位置和轨迹或提供可视化以辅助徒手导航。软件对在外科手术之前或外科手术期间采集的患者特定CT图像或者在外科手术期间采集的荧光透视图像进行重新格式化,并且基于优选视角将其显示在屏幕上。在手术之前,外科医生可相对于在CT图像中捕获的患者解剖结构创建、存储、访问和模拟器械及其他轨迹。在外科手术期间,系统识别使用中的器械并通过徒手导航帮助用户以一致的准确度放置植入物。ExcelsiusHub跟踪外科器械在患者解剖结构中或上的位置并且持续更新这些图像上的器械位置。外科手术由外科医生使用各种Globus Medical专用外科器械进行。
尽管在对Excelsius系统产品和其他Globus Medical产品进行操作扩展的上下文中描述了各种实施方案,但这些和其他实施方案不限于此并且可与任何外科手术导航系统一起使用。
装置描述
ExcelsiusHub是能够使用放射学患者图像(例如,术前CT、术中CT和/或荧光透视)、患者动态参考基座和高级相机跟踪系统实现实时外科可视化的外科手术导航系统。该系统基于虚拟患者(患者图像上的点)与实体患者(患者解剖结构上的对应点)之间的配准进行映射。一旦创建了该配准,软件便在患者图像上显示所跟踪的器械的相对位置。该可视化可帮助指导外科医生针对植入物放置和其他外科手术进行计划和入路。患者扫描结合配准在独立使用系统进行徒手导航时为外科医生提供引导辅助,或者在与ExcelsiusGPS机器人系统一起使用时可提供机器人引导并对准端部执行器。在外科手术期间,系统使用相机跟踪系统跟踪兼容的器械(包括机器人臂上的端部执行器)在患者解剖结构中或上的位置,并且利用光学跟踪持续更新患者图像上的器械位置。系统软件可负责导航功能、数据存储、网络连接、用户管理、病例管理和安全功能。ExcelsiusHub外科器械通常为可手动操作的非无菌的可重复使用的器械。
ExcelsiusHub徒手器械包括配准器械、患者参考器械和植入物专用外科器械。系统还可与包括主动跟踪式端部执行器的ExcelsiusGPS机器人系统一起使用。配准器械结合有反射标记阵列,用于跟踪患者解剖结构以及外科器械和植入物。部件包括验证探头、监视标记、外科器械阵列、术中CT配准夹具、荧光透视配准夹具和动态参考基座(DRB)。将患者参考器械夹紧或驱动到任何适当的刚性解剖结构中,这些刚性解剖结构被认为是安全的并为DRB提供刚性固定点。外科器械用于准备植入部位或将装置植入,并且包括锥子、钻、驱动器、丝锥和探头。
使用适应症
ExcelsiusHub可用作在开放式手术或经皮手术中精确定位解剖结构和在外科手术期间精确定位兼容的外科器械或植入物的辅助。ExcelsiusHub适用于其中使用立体定向外科手术可能是合适的并且其中对刚性解剖结构(诸如脊柱或骨盆)的参考可相对于基于CT、X射线和/或MRI的解剖模型进行标识的任何医学状况。ExcelsiusHub支持术前CT、术中CT和/或术中荧光透视规程。
进一步的系统概述
ExcelsiusHub可视化系统为之前获批的后入路固定和椎间植入物放置提供独立导航和指导。ExcelsiusHub可与ExcelsiusGPS机器人系统一起工作,以提供相机和跟踪系统功能。ExcelsiusHub还可为术中移动CT系统提供通用观察站和配准操作。Excelsius使能技术可通过可为手术室提供所需一体式部件的ExcelsiusHub来支持和通信。
硬件
根据一些实施方案,ExcelsiusHub部件的相机跟踪系统200可如图1所示分为三个子组件:相机臂组件100、显示器组件120和外壳基座组件130。相机臂组件100包括间隔开的立体相机102和铰接臂104。外壳基座组件130包括具有至少一个处理器和存储器的处理平台、输入和/或输出用户界面,以及被配置为通过有线(例如,连接器面板107)和/或无线连接与其他系统部件通信的通信电路。与处理平台一起工作的相机102被配置为检测器械、患者(例如,动态参考基座(DRB))、外科机器人等上的标记(例如,反射性标记)的姿态。
器械
导航器械
ExcelsiusHub与所有先前存在的Globus导航的阵列器械一起工作。这包括用于放置Globus螺钉的钻、锥子、探头、丝锥和驱动器,以及用于导航放置Globus椎间体的扩张器、椎间盘准备器械(刮匙、骨膜剥离器(Cobb elevator)、锉刀、刮刀等)、试模和插入器。每个器械由相机识别的唯一阵列图案标识。
患者附接和配准器械
ExcelsiusHub可与现有的患者固定器械和当前的DRB一起使用。
配准夹具
ExcelsiusHub可与现有的术中配准夹具和荧光透视配准一起使用。
系统软件
与ExcelsiusHub一起工作的软件可包括ExcelsiusGPS机器人系统上可用的现有脊柱软件。该系统软件可负责导航功能、数据存储、网络连接、用户管理、病例管理和安全功能。
应用
ExcelsiusHub系统支持脊柱外科手术。CONFIGURE选项卡显示手术类型。脊柱手术步骤与ExcelsiusGPS机器人系统中的情况相同,因为两个硬件上的软件相同。
脊柱手术
ExcelsiusHub系统支持的各种脊柱外科手术列于下表中。
所支持的脊柱手术
手术 患者位置
后入路颈椎 俯卧位
后入路胸椎 俯卧位
前外侧入路胸椎 侧位
后入路腰椎 俯卧位
侧入路腰椎 侧位
侧入路腰椎椎间融合术 侧位
椎间孔入路腰椎椎间融合术 俯卧位
后入路腰椎椎间融合术 俯卧位
与ExcelsiusHub系统兼容的Globus脊柱植入系统包括下表中列出的那些。
兼容的脊柱植入系统
CREO稳定系统
REVERE稳定系统
REVOLVE稳定系统
ELLIPSE枕颈胸脊柱系统
QUARTEX枕颈胸脊柱系统
SUSTAIN间隔件(斜置,小号)(后入路椎间)
ALTERA可扩张间隔件(后入路椎间)
RISE可扩张间隔件(后入路椎间)
CALIBER可扩张间隔件(后入路椎间)
RISE-L间隔件(侧入路椎间)
CALIBER-L可扩张间隔件(侧入路椎间)
ELSA一体式可扩张间隔件(侧入路椎间)
手术设置
CONFIGURE选项卡
选择病例之后,CONFIGURE选项卡显示在监视器上。图2示出了根据一些实施方案的示例性用户界面。使用CONFIGURE选项卡从注册外科医生列表中选择外科医生,并选择成像模态和手术类型。成像模态可包括术中CT、荧光透视和术前CT。点击右箭头以前进到下一个选项卡。
WORKFLOW选项卡
使用WORKFLOW选项卡,按照所需的操作顺序(例如,首先是椎间)选择所需的手术阶段(例如,椎间或螺钉)。对于每个阶段,选择解剖模型上的成像模态、椎间植入系统和所需的椎间节段,这可包括颈椎、胸椎、腰椎和骶髂关节。通过点击“Add Stage(添加阶段)”按钮将阶段添加到工作流程中。点击“Verify Instruments(验证器械)”以前进到下一个选项卡。图3示出了根据一些实施方案的示例性用户界面。
VERIFY选项卡
VERIFY选项卡显示导航详细信息,包括在WORKFLOW选项卡上选择的器械的可见性、位置和验证状态。验证用于指示一个或多个器械是否可能损坏,例如在抓握期间。应在使用前对所有具有阵列的器械进行验证,视情况而定,使用验证适配器、器械、植入物或扩张器。
图4示出了根据一些实施方案的示例性用户界面。VERIFY选项卡显示CAMERA VIEW(相机视图)和列出一组已标识的器械的INSTRUMENT STATUS(器械状态)。
CAMERA VIEW可以在操作上从相机的角度实时更新,例如,显示指示器械位置的彩色圆圈。可显示实心彩色圆圈以指示对应的器械对相机102可见,而空心圆圈指示它对相机102不可见。可动态地更新彩色圆圈的大小以改变大小来指示距物理相机102的距离。在一个实施方案中,圆圈的大小适于随着器械移近相机102而变大并且随着器械移离相机102而变小。根据一些实施方案,距相机102的理想距离可以是约2米或6英尺。
INSTRUMENT STATUS列出每个器械及其验证状态,用相应的彩色圆圈标识每个器械。根据一些实施方案,图4示出了验证状态符号。
器械验证
参考图5,根据一些实施方案,可通过以下方式来验证每个器械:将器械的顶端放置到在另一件设备上(例如,在已配准的器械阵列上或在外科机器人系统的已配准的机器人臂上)的已知位置处提供的验证点中,或将有待验证的验证适配器放置到在器械上的已知位置处提供的验证凹坑中。可在所导航的器械阵列上的限定位置处形成用于验证器械的凹坑。如果使用ExcelsiusGPS机器人系统,则凹坑也可位于端部执行器的顶部表面上或可由相机102跟踪的其他已知位置。接下来,确保两个器械都对相机102可见并保持稳定。弹出式屏幕随后显示在VERIFY选项卡上,以指示验证进程的操作。
如图6所示,根据一些实施方案,一旦验证完成,便在屏幕上指示验证状态,其中顶端误差以mm显示。如果验证失败,则显示对应的指示600,例如,显示红色打叉的圆圈,并且可重复验证操作,直至成功完成验证。相反,成功的验证由另一个所显示的指示601(例如绿色圆圈)来指示。当所有器械均成功验证时,用户可点击右箭头以前进到下一个选项卡。
患者附接器械
患者附接器械固定到手术部位附近的刚性骨解剖结构上。用户选择所需的器械。根据一些实施方案,患者附接器械应放置在距离手术部位中心不超过185mm处以保持准确度。骨夹钳夹在解剖结构上,诸如棘突、髂嵴、长骨或任何可安全夹持的刚性骨结构。将Quattro尖钉插入髂嵴或长骨。将杆附件固定到现有脊柱杆上,例如直径为4.5mm至6.35mm。根据一些实施方案,各种患者附接器械的示例性建议解剖位置描述于下表中。
患者附接器械-建议的解剖位置
Figure BDA0003601426070000111
动态参考基座插入
用户将动态参考基座(DRB)上的压缩夹钳定位在患者附接器械上方并拧紧旋钮,如根据一些实施方案在图7中所示。如果需要,可使用夹钳驱动器来进一步拧紧DRB旋钮,如根据一些实施方案在图8中所示。用户在相机102的方向上将反射标记定位在DRB上。应注意患者参考器械的初始放置,以免干扰外科手术。导航后,移除患者附接器械。
监视标记
监视标记被插入到刚性骨解剖结构中,以使相机跟踪系统能够使用相机102来跟踪到DRB的相对距离,例如,以在手术期间标识DRB中的不期望的移位。图9示出了根据一些实施方案的与监视标记902间隔开的DRB900的放置。
监视标记可插入髂嵴或长骨中,或可使用骨夹钳附接到棘突。用户验证夹钳是否刚性固定。在一些实施方案中,监视标记应被放置在距离动态参考基座不超过185mm的位置。根据一些实施方案,各种监视标记的示例性建议解剖位置描述于下表中。
监视标记-建议的解剖位置
Figure BDA0003601426070000121
用户将一次性反射标记附接到监视标记902的标记柱。用户将被设计成配合在反射标记球904上方的压紧帽附接到监视标记902上。用户将监视标记902插入手术部位附近的刚性骨解剖结构中并且可用木槌轻轻击打。用户移除压紧帽。用户在使用移除工具之前移除反射标记904。为了将骨夹钳与标记一起使用,用户将一次性标记附接到骨夹钳的顶端上。用户可使用夹钳驱动器来固定骨夹钳。用户随后验证夹钳是否刚性固定。
移除
手动或使用移除工具从骨解剖结构移除Quattro尖钉和监视标记。通过用夹钳驱动器松开夹钳,附接移除工具并提起骨夹钳来移除骨夹钳,如根据一些实施方案在图10中所示。
术中CT成像工作流程
术中CT配准夹具设置
将枢转臂星放射状部1100放置在配准夹具1110的配准夹具柱1102的星放射状部柱上并旋转90°以固定,如根据一些实施方案在图11中所示。将配准夹具1110定位在患者附接器械柱1202上并且拧紧压缩夹钳1200旋钮,如根据一些实施方案在图12中所示。如果需要,可使用夹钳驱动器来进一步拧紧压缩夹钳1200上的旋钮。图13示出了根据一些实施方案的完成的组件。为了释放枢转臂,推动夹具上的释放按钮1300,将枢转臂旋转90°并向上拉。术中CT配准夹具具有六个自由度,并且可通过调节三个关节中的一个关节进行移动,以使其稳定并悬停在手术部位上方。只有嵌入夹具中的金属基准才需要在3D扫描中(非反射标记)。术中CT配准夹具在图像采集和执行解剖结构界标检查之间不移动可能在操作上是有帮助的或有必要的。
加载图像
图14中所示的IMAGE选项卡的选择显示了根据一些实施方案加载CT扫描图像所需的步骤。可从例如USB驱动器、硬盘驱动器和/或联网装置加载图像。如果图像经由以太网传输,则当传输完成时,图像可自动出现在硬盘驱动器上。
为了查看USB驱动器上的图像,将USB驱动器插入连接器面板107上的USB端口中。为了触发图像的加载,可选择硬盘驱动器或USB驱动器图标,然后选择所需的患者图像。可选择右箭头来加载患者图像并前进到下一个选项卡。
手动配准
当加载图像时,可执行自动配准。然而,如果自动配准操作失败或者说是不能使用,则可显示手动配准屏幕以允许手动配准,如根据一些实施方案在图15中所示。配准屏幕左侧面板上的图像是具有术中CT的描绘的全扫描。
在配准夹具的一些实施方案中,夹具和七个基准在图像下方应该是可见的。操作者需要调整未配准的基准。在屏幕上,选择尚未配准的基准;从而使该图像随后出现在右边。用户在屏幕上移动彩色圆圈1500,直至用户确定其环绕所显示的基准标记。图15中右侧面板底部所示的三个小方框1510示出了基准的x方向、y方向和z方向,并且所有这些方框都应被调整,直至蓝色圆圈居中。在图15的示例性实施方案中,已配准的基准1500被显示为具有实色填充的中心,系统不可见的另一个基准1504被显示为具有未填充的中心,并且系统部分可见的又一个基准1502被显示为具有部分填充的中心。
通过查看术中配准夹具的3D模型来确保正确标识全部七个基准。可通过选择右侧面板上的删除图标来删除基准。点击右箭头,以确认基准已被正确标识,之后才进入下一步。
现在在图32的上下文中描述可执行的对应操作。图32示出了根据一些实施方案可由外科系统执行的操作。外科系统包括可驻留在计算机平台3600的部件中的至少一个处理器,该部件诸如为相机跟踪系统10和/或导航系统3604。参见图32,操作包括获得3200患者的目标解剖结构(例如CT扫描和/或荧光透视扫描)和配准夹具的基准集(例如图9中的900和/或图21中的2100)的三维(3D)放射学表示。操作尝试3202将3D放射学表示中的基准集的位置配准到由相机跟踪系统(例如图31中的系统10)跟踪的3D成像空间。配准可包括尝试将3D放射学表示中的基准的姿态(例如位置和定向)的集与在3D成像空间中检测到的光学标记的姿态相关联。基于确定3204基准集中的一个基准具有未成功配准到3D成像空间的位置,进行以下操作:显示3206 3D放射学表示的至少一个视图,该至少一个视图具有指示该基准未成功配准到3D成像空间的图形叠层;接收3208标识该基准在3D放射学表示中位于何处的用户提供的位置信息;并且基于该用户提供的位置信息将该基准的位置配准到32103D成像空间。
接收3208标识该基准在3D放射学表示中位于何处的用户提供的位置信息的操作可包括在3D放射学表示和/或3D成像空间中显示该基准的三个正交视图,并且在三个正交视图中显示叠加在初始位置上的图形对象。操作响应于用户通过用户界面的输入而移动图形对象显示在三个正交视图中的位置,并且基于图形对象显示在三个正交视图中的位置来确定基准在3D放射学表示和/或3D成像空间中的位置。将基准的位置配准到3D成像空间的操作基于基准在3D放射学表示中的所确定位置。
接收3208可在三个正交视图中显示叠加在初始位置上的图形对象的操作可包括基于由配准夹具模板限定的基准的相对位置来确定初始位置以对应于基准的预测位置。
接收3208的操作还可包括移动图形对象显示在三个正交视图中的位置,以跟踪通过外科系统的用户界面接收的方向输入。
尝试3202将3D放射学表示中的基准集的位置配准到由相机跟踪系统跟踪的3D成像空间的操作可包括从相机跟踪系统的至少一个相机获得固定到患者的参考阵列的光学图像。参考阵列包括能够由3D成像空间中的相机跟踪系统的至少一个相机检测到的光学标记集。参考阵列也可连接到配准夹具。操作可随后尝试将光学标记集的图案的位置配准到3D放射学表示中的基准集的图案的位置,并且标识参考阵列的光学标记中的未成功配准到配准夹具的基准中的任一个基准的任一个光学标记。
界标检查
配准完成后,可进行界标检查,以确保成功计算了配准。使用验证探头,触摸配准夹具上的解剖结构界标或基准,以触发对应位置显示在系统监视器上的验证。可使用其他的例如2到3个其他的界标来重复此过程。
可由外科系统执行的对应操作可包括:在用户朝向基准中的已成功配准到3D图像空间的一个基准移动工具的同时跟踪在来自相机跟踪系统的相机的视频中捕获的工具的位置,并且根据3D成像空间中的所跟踪位置显示工具的更新表示。操作基于工具的所跟踪位置中的指定位置与基准中的已配准到3D图像空间的一个基准的位置的比较来确认基准中的已成功配准到3D图像空间的一个基准的配准准确度。
移除配准夹具
可随后移除术中CT配准夹具,同时确保患者附接器械不移动。
PLAN选项卡
PLAN选项卡允许用户计划患者图像上的所有螺钉插入轨迹(例如,1600)和椎间放置(例如,1610),诸如根据一些实施方案在图16的示例性用户界面中所示。基于在PREPLAN选项卡中做出的选择,将植入物预装载(例如,具有限定的特性)在系统中并显示在屏幕右侧。
为了将植入物添加到计划页面上,用户可将适当的植入物标签拖放在所需切片处的图像上。活动的计划以限定的颜色显示。活动的螺钉计划的详细信息显示在屏幕右下方,包括螺钉系列、直径和长度。一旦所有螺钉的计划完成,便可选择右箭头以前进到下一个选项卡。
一旦将植入物放在图像上,便将植入物计划功能用于通过例如在触摸屏上拖动植入物图像来调整植入物位置。用户在屏幕右侧面板上选择或以其他方式限定特定植入物尺寸(宽度、长度、高度、脊柱前凸)。
现在在图33的上下文中描述可执行的对应操作。图33示出了根据一些实施方案可由外科系统执行的操作。参见图33,操作包括将虚拟植入装置显示3300为目标解剖结构的3D放射学表示的视图上的叠层,并且显示3302表示虚拟植入装置进入目标解剖结构的植入轨迹的虚拟植入装置轨迹的图形指示。操作更新3304显示在3D放射学表示的视图中的虚拟植入装置轨迹的图形指示的姿态,以跟踪通过外科系统的用户界面接收的操纵输入。操作将轨迹的图形指示的姿态中的用户指定姿态存储3306为虚拟植入装置的所计划轨迹。
操作还可包括显示用于植入计划的一组用户可选择植入装置,并且基于由用户通过用户界面选择的该组用户可选择植入装置中的一个植入装置的模板生成虚拟植入装置的图形表示。
NAVIGATE选项卡
NAVIGATE选项卡允许用户可视化所导航器械的轨迹和相对于患者解剖结构的所计划轨迹。图17示出了根据一些实施方案的示例性用户界面。可在屏幕右侧选择所需的植入物标签。
实时器械/植入物轨迹1700a、1700b(实际计划)与所计划的螺钉一起显示在患者图像上,例如显示在正交图像切片视图中,从而允许用户确认所需的轨迹。如果实时轨迹不可接受,则用户可返回PLAN选项卡选择另一个轨迹。如果实时轨迹可接受,则用户根据器械的当前轨迹将螺钉插入到所需深度。
所导航的器械在前进到计划位置时显示。在导航器械时,用户反复观察监视器和手术部位,以确保触觉反馈和导航反馈之间的一致性。
外科系统的对应操作可包括将虚拟植入装置的所计划轨迹显示为目标解剖结构的3D放射学表示的视图上的叠层。操作从相机跟踪系统的至少一个相机获得固定到对应于虚拟植入装置的真实植入装置的参考阵列的光学图像,参考阵列包括能够由3D成像空间中的相机跟踪系统的至少一个相机检测到的光学标记集。在用户相对于患者目标解剖结构定位真实植入装置的同时,操作基于参考阵列在光学图像中的姿态跟踪真实植入装置在3D成像空间中的姿态。根据3D成像空间中的所跟踪姿态,操作显示真实植入装置相对于虚拟植入装置的所计划轨迹的更新图形表示。
术前CT成像工作流程
IMAGE选项卡
加载图像
IMAGE选项卡显示加载CT扫描图像所需的步骤。图18示出了根据一些实施方案的示例性用户界面。可从例如USB驱动器、硬盘驱动器或联网装置加载图像。如果图像通过以太网传输,则当传输完成时,图像可能自动出现在硬盘驱动器上。
为了查看USB驱动器上的图像,将USB驱动器插入连接器面板上的USB端口中。为了加载图像,用户选择硬盘驱动器或USB驱动器图标并选择所需的患者图像。可选择右箭头来加载患者图像并前进到下一个选项卡。
PLAN选项卡
PLAN选项卡允许用户在患者图像上计划所有螺钉轨迹和椎间放置。图19示出了根据一些实施方案的示例性用户界面。基于在PREPLAN选项卡中做出的选择,将植入物预装载(例如,特性在系统中预定义)在屏幕右侧。
为了将植入物添加到计划页面上,用户可将适当的植入物标签拖放在所需切片处的图像上。活动的计划以限定的颜色显示。活动的螺钉计划的详细信息显示在屏幕右下方,包括螺钉系列、直径和长度。一旦所有螺钉的计划完成,便可选择右箭头以前进到下一个选项卡。
一旦将植入物放在图像上,便通过例如在触摸屏上拖动植入物图像来执行植入物计划功能以调整植入物位置。在屏幕右侧面板上选择或限定特定植入物尺寸(宽度、长度、高度、脊柱前凸)。
NAVIGATE选项卡
NAVIGATE选项卡允许用户根据植入计划可视化所导航的器械和相对于患者解剖结构的轨迹对准。
配准设置
根据一些实施方案,例如如图20中所示的另一个显示屏幕突出显示了在可拍摄荧光透视图像以配准术前CT图像之前要完成的三个步骤。这些步骤可以是插入DRB、定位C形臂成像装置的C形臂,并且将监视标记与相机导航系统配准。可使用动画来可视地描绘这些步骤。
如根据一些实施方案在图21中所示,通过顺时针旋转夹钳直至拧紧,将荧光透视配准夹具2100附接到C形臂上的图像增强器2110。在使夹具2100定向之前,将新的光学标记安装在夹具2100上,使得光学标记面向相机102。视频捕获线缆连接到C形臂观察站。将视频捕获USB线缆插入ExcelsiusHub连接器面板107上的USB端口中的一个端口中。
用户可确保在C形臂处于适当位置之后动态基准基座对相机102可见。
通过例如将器械放置成靠近监视标记902上的反射球904但不接触,将监视标记与相机跟踪系统配准。当框被激活时,框于是以限定的颜色显示。
可选择右箭头以前进到下一个选项卡。
配准
操作采集术中荧光透视图像,每个计划节段一个前后位(AP)和一个侧位。同一图像可用于多个节段。
在一些实施方案中,操作验证在启用图像采集之前满足以下三个条件:1)DRB对相机102可见;2)荧光透视配准夹具对相机102可见;以及3)拍摄了有效的荧光透视图像。
图22示出了根据一些实施方案的示例性用户界面。当准备好图像捕获时,屏幕左侧的三个图像中的每一个图形都变成限定的颜色。当满足所有三个条件时,采集术中荧光透视图像,然后选择“CAPTURE(捕获)”按钮以将图像传输到系统。一旦两个图像都被成功捕获,屏幕右侧的脊柱节段便显示复选标记。可选择右箭头以前进到下一个选项卡。
图23示出了根据一些实施方案的用于选择所需节段的示例性用户界面。可将计划的螺钉拖放到荧光透视图像上。所显示的图形对象(例如,圆圈2300a和/或2300b)可通过用户界面经由用户输入来控制,以将螺钉大致定位在椎体内。用户输入可对应于用户触摸选择或点击显示器上的所需位置和/或通过键盘提供操纵命令。确认螺钉杆正确定位,螺钉的头和尾处于所需方向上,并且正确地左/右定向。完成确认时可选择配准按钮以便进行配准。
当配准成功时,活动节段旁边显示复选标记。图24示出了根据一些实施方案的示例性用户界面。当完成配准时,选择右箭头。
现在在图34的上下文中描述可执行的对应操作。图34示出了根据一些实施方案可由外科系统执行的操作。参见图34,在获得患者的目标解剖结构和配准夹具的基准集的3D放射学表示之前,操作包括从相机跟踪系统的至少一个相机获得3400固定到患者的参考阵列(例如,图9中的DRB900)和附接到放射成像装置的配准夹具(例如,图21中的夹具2100)的光学图像,参考阵列包括能够由3D成像空间中的相机跟踪系统的至少一个相机检测到的光学标记的第一集,并且配准夹具包括能够由3D成像空间中的相机跟踪系统的至少一个相机检测到的光学标记的第二集。操作获得3402患者的目标解剖结构和配准夹具的基准集的荧光透视图像。操作基于由3D成像空间中的相机跟踪系统的至少一个相机检测到的第一集中的光学标记的限定数目来确定3404是否满足第一条件。操作基于由3D成像空间中的相机跟踪系统的至少一个相机检测到的第二集中的光学标记的限定数目来确定3406是否满足第二条件。操作基于能够在荧光透视图像中看见的配准夹具的基准集的限定数目来确定3408是否满足第三条件。确定3410是否不满足这三个条件中的任一者。当不满足第一条件、第二条件和第三条件中的一者时,操作显示3412不满足第一条件、第二条件和第三条件中的一者的指示,并且阻止放射成像过程捕获患者的目标解剖结构和配准夹具的基准集的3D放射学表示。相反,当满足第一条件、第二条件和第三条件中的每一者时,操作使3414放射成像过程能够捕获患者的目标解剖结构和配准夹具的基准集的3D放射学表示。
基于确定满足第一条件、第二条件和第三条件中的每一者,操作可触发在患者的目标解剖结构的多个限定位置处捕获前后位和侧位荧光透视图像。操作可随后基于在患者的目标解剖结构的多个限定位置处捕获的前后位和侧位荧光透视图像来计算患者的目标解剖结构和配准夹具的基准集的3D放射学表示。
界标检查
配准完成后,可执行界标检查或验证,以在操作上确保成功计算了配准。使用验证探头,接触解剖结构界标并验证对应位置显示在系统监视器上。可使用例如2到3个界标来重复此过程。
导航
参考图25,用户在屏幕右侧上选择所需的植入物标签。更新实时工具/植入物轨迹(实际计划),以便与所计划的螺钉一起显示在患者图像上,从而允许用户确认所需的轨迹。如果实时轨迹不可接受,则用户可返回PLAN选项卡选择另一个轨迹。如果实时轨迹可接受,则用户根据器械的当前轨迹将螺钉插入到所需深度。
所导航的器械在前进到计划位置时显示。在导航器械时,用户可反复观察监视器和手术部位,以确保触觉反馈和导航反馈之间的一致性。
外科系统的对应操作可包括将虚拟植入装置的所计划轨迹显示为目标解剖结构的3D放射学表示的视图上的叠层。操作从相机跟踪系统的至少一个相机获得固定到对应于虚拟植入装置的真实植入装置的参考阵列的光学图像,参考阵列包括能够由3D成像空间中的相机跟踪系统的至少一个相机检测到的光学标记集。在用户相对于患者目标解剖结构定位真实植入装置的同时,操作基于参考阵列在光学图像中的姿态跟踪真实植入装置在3D成像空间中的姿态。根据3D成像空间中的所跟踪姿态,操作显示真实植入装置相对于虚拟植入装置的所计划轨迹的更新图形表示。
移除配准夹具
小心地移除荧光透视配准夹具。确保患者附接器械不移动。
荧光透视成像工作流程
IMAGE选项卡
配准设置
图26中所示的一个屏幕可基本上对应于图20的屏幕,该屏幕突出显示了在可拍摄荧光透视图像以配准患者之前要完成的三个步骤,诸如上文针对图20所述。
如根据一些实施方案在图21中所示,通过顺时针旋转夹钳直至拧紧,可将荧光透视配准夹具附接到C形臂上的图像增强器。在使夹具定向之前,将新的光学标记安装在夹具上,使得光学标记面向相机。
用户确保在C形臂处于适当位置之后动态基准基座对相机102任然可见。通过将器械放置成靠近监视标记上的反射球但不接触,可配准监视标记。当框被激活时,框变成限定的颜色。可选择右箭头以前进到下一个选项卡。
图像采集
采集术中荧光透视图像,诸如一个AP位和一个侧位。
在一些实施方案中,操作验证在启用图像采集之前满足以下三个条件:1)DRB对相机102可见;2)荧光透视配准夹具对相机102可见;以及3)拍摄了有效的荧光透视图像。
图27示出了根据一些实施方案的示例性用户界面。当准备好图像捕获时,屏幕左侧的三个图像中的每一个图形都变成限定的颜色。当满足所有三个条件时,采集术中荧光透视图像,然后选择“CAPTURE(捕获)”按钮以将图像传输到系统。一旦两个图像都被成功捕获,屏幕右侧的节段显示便复选标记。一旦加载并选择了适当的图像,便可选择右箭头继续。
界标检查
配准完成后,可执行界标检查或验证,以在操作上确保成功计算了配准。使用所导航的验证探头,接触解剖结构界标并验证对应位置显示在系统监视器上。可使用例如2到3个界标来重复此过程。
移除配准夹具
移除荧光透视配准夹具,同时确保患者附接器械不移动。
PLAN选项卡
PLAN选项卡允许用户在患者图像上计划所有螺钉轨迹和椎间放置。图28示出了根据一些实施方案的示例性用户界面。基于在PREPLAN选项卡中做出的选择,将植入物预装载在屏幕右侧。
为了将植入物添加到计划页面上,用户可将适当的植入物标签拖放在所需切片处的图像上。活动的计划以限定的颜色显示。活动的螺钉计划的详细信息显示在屏幕右下方,包括螺钉系列、直径和长度。一旦所有螺钉的计划完成,用户便可选择(例如,点击)右箭头以前进到下一个选项卡。
一旦将植入物放在图像上,便将植入物计划功能用于通过例如在触摸屏上拖动植入物图像来调整植入物位置。在屏幕右侧面板上选择特定植入物尺寸(宽度、长度、高度、脊柱前凸)。另选地或除此之外,计划系统的软件可执行植入物位置的自动调整,使得放下的植入物满足关于图像中的解剖结构的一个或多个限定的规则。
NAVIGATE选项卡
NAVIGATE选项卡允许用户可视化所导航器械的轨迹和相对于患者解剖结构的所计划轨迹。图29示出了根据一些实施方案的示例性用户界面。
用户在屏幕右侧上选择所需的植入物标签。更新实时工具/植入物轨迹(实际计划),以便与所计划的螺钉一起例如作为图形对象2900a和2900b显示在患者图像上,从而允许用户确认所需的轨迹。如果实时轨迹不可接受,则用户可返回PLAN选项卡选择另一个轨迹。如果实时轨迹可接受,则用户根据器械的当前轨迹将螺钉插入到所需深度。
所导航的器械在前进到计划位置时显示。在导航器械时,反复观察监视器和手术部位,以确保触觉反馈和导航反馈之间的一致性。
示例性手术室设备布局和操作
图30是手术室中在外科手术期间任选地佩戴扩展现实(XR)头戴式耳机3150a至3150b的人员的俯视图,该手术室包括用于所导航的外科手术的相机跟踪系统10并且任选地包括用于机器人辅助的外科机器人系统,并且其中的每一者根据一些实施方案进行配置。
参见图30,机器人系统3000可包括例如外科机器人3102,一个或多个机器人臂104,例如被构造成附接到关节操纵臂的端部执行器3112,以及可包括一个或多个跟踪标记的端部执行器参考阵列。机器人系统3000还可包括一个或多个显示器。DRB 900包括多个跟踪标记并且适于直接固定到患者3130(例如,固定到患者3130的骨)。另一个参考阵列3170附接到器械或形成于器械上,等等。相机跟踪系统10可具有任何合适的配置以在所需的位置上进行跟踪相机102的移动、定向和支撑,并且可包括可操作以跟踪参考阵列的姿态的计算机。
跟踪相机102可包括任何合适的一个或多个相机,诸如一个或多个红外相机(例如,双焦或立体摄影相机),这些相机能够在从跟踪相机102的角度可观察到的给定测量体积中,标识例如作为患者3130(例如,DRB900)、端部执行器3112(端部执行器参考阵列)、器械(例如,器械阵列3170)、由外科医生3120和/或外科助手3126佩戴的扩展现实(XR)头戴式耳机3150a至3150b等而附接的各种参考阵列的有源和无源跟踪标记。跟踪相机102可跟踪附接在或形成于由用户(外科医生)和/或机器人系统3000操纵的机器人臂140上的标记。跟踪相机102可扫描给定测量体积并检测从参考阵列发射或反射的光,以便标识和确定参考阵列在三维中的姿态。例如,有源参考阵列可包括由电信号激活的红外发射标记(例如,红外光发射二极管(LED)),并且无源参考阵列可包括反射例如由跟踪相机102上的照明器或其他合适的装置发射的红外光的回射标记(例如,它们将入射的IR辐射反射到入射光的方向中)。
XR头戴式耳机3150a和3150b(也称为XR头戴式耳机150)可各自包括可分别跟踪参考阵列在其相机视场(FOV)3152和3154内的姿态的跟踪相机。因此,如图30所示,当在XR头戴式耳机3150a和3150b的FOV3152和3154和/或跟踪相机102的FOV 3600中时,可跟踪附接到各种对象的参考阵列的姿态。
XR头戴式耳机可被配置为利用计算机生成的XR图像来增强现实世界场景。XR头戴式耳机可被配置为通过在透视显示屏上显示计算机产生的XR图像来提供增强现实(AR)观看环境,该透视显示屏允许来自现实世界场景的光从中穿过以供用户进行组合观看。另选地,XR头戴式耳机可被配置为通过在用户在显示屏上观看计算机生成的AR图像时防止或基本上防止用户直接观看来自真实世界场景的光而提供虚拟现实(VR)观看环境。XR头戴式耳机可被配置为提供AR和VR观看环境。因此,术语XR头戴式耳机可被称为AR头戴式耳机或VR头戴式耳机。
图30示出了用于将相机跟踪系统10和外科机器人系统3000(当存在时)放置在手术室环境中的可能配置。计算机辅助导航外科手术可由控制XR头戴式耳机3150a和3150b、显示器110和/或显示器3034以显示外科手术导航信息的相机跟踪系统10提供。在手术室中包括外科机器人系统3000对于计算机辅助导航手术是任选的。
相机跟踪系统10可使用来自相机跟踪系统10的跟踪信息和其他信息,以及其他跟踪信息和来自一个或多个XR头戴式耳机3150a和3150b的信息,例如惯性跟踪信息和光学跟踪信息以及(任选的)麦克风信息。XR头戴式耳机3150a和3150b操作以显示视觉信息并且可向佩戴者播放音频信息。该信息可来自本地源(例如,外科机器人3102和/或其他手术室设备)、远程源(例如,患者医学图像服务器)和/或其他电子设备。XR头戴式耳机3150a和3150b可用于在6个自由度(6DOF)中跟踪器械、患者参考物和/或机器人端部执行器的姿态,并且可跟踪佩戴者的手。XR头戴式耳机3150a和3150b还可操作以跟踪手部姿态和姿势,以实现与通过XR头戴式耳机3150a和3150b显示的“虚拟”按钮和界面的基于姿势的交互,并且可将手或手指的指向或姿势解释为触发各种限定的命令的操作。另外,XR头戴式耳机3150a和3150b可具有被称为数字放大镜的1至10倍放大率的数字彩色相机传感器。
“从外向内”的机器视觉导航栏(跟踪相机102)可使用单色相机和/或彩色相机来跟踪关节操纵臂的姿态。机器视觉导航栏一般来讲具有更稳定的环境视图,因为它不像XR头戴式耳机3150a和3150b在定位在佩戴者头部上时倾向于移动那样频繁地或快速地移动。患者参考阵列900通常以相对于重力稳定的俯仰和翻滚刚性地附接到患者。该局部刚性患者参考900可用作相对于其他跟踪阵列的参考系的公共参考,其他跟踪阵列诸如为端部执行器3112上的参考阵列、器械参考阵列3170以及XR头戴式耳机3150a和3150b上的参考阵列。
在一些实施方案中,XR头戴式耳机3150a和3150b中的一者或多者是显示本地信息或远程信息但包括较少传感器并因此更轻的极简化XR头戴式耳机。
机器人系统3000可定位在患者3130附近或旁边。跟踪相机102可与机器人系统3000分开并且定位在患者3130的脚部处。该位置使跟踪相机102具有到术野208的直接视线。设想机器人系统3000和跟踪相机102将位于任何合适的位置处。在所示的配置中,外科医生3120可位于机器人3102的对面,但仍然能够操纵端部执行器3112(及关节操纵臂)和显示器110。外科助手3126可位于外科医生3120的对面,仍然能够接近端部执行器3112和显示器110。如果需要,外科医生3120和助手3126的位置可互换。麻醉师3122和护士或擦洗技师(scrub tech)124所处的传统区域保持不受机器人3102和相机102的位置的阻碍。麻醉师3122可操作包括显示器3034的麻醉设备。
端部执行器3112可以可释放地联接到机器人臂104,并且端部执行器3112的移动可由至少一个马达基于来自相机跟踪系统10的输入来控制。在一些实施方案中,端部执行器3112可连接到关节操纵臂104并且可包括引导管114,该引导管被构造成接收用于对患者3130执行外科手术的外科器械、工具或植入物以及使该外科器械、工具或植入物定向。
如本文所用,术语“端部执行器”(end-effector)可与术语“端部效应器”(end-effectuator)和“效应器元件”互换使用。术语“器械”以非限制性方式使用,并且可与“工具”和“植入物”互换使用,以一般性地指代可在根据在本文所公开的实施方案的外科手术期间使用的任何类型的装置。示例性器械、工具和植入物包括但不限于关节操纵臂、钻、螺丝刀、锯、扩张器、牵开器、探头、植入物插入件以及诸如螺钉、间隔件、椎间融合装置、板、杆等植入装置。在一些实施方案中,端部执行器3112可包括用于以所需的方式实现外科器械的移动的任何结构。
外科机器人3102可操作以控制端部执行器3112的平移和定向。机器人3102可操作以在计算机控制下沿例如x轴、y轴和z轴移动端部执行器3112。端部执行器3112可被配置用于在计算机控制下围绕x轴、y轴和z轴中的一者或多者以及Z框架轴选择性地旋转(使得与端部执行器3112相关联的欧拉角(Euler Angle)(例如,翻滚、俯仰和/或偏航)中的一者或多者可被选择性地计算机控制)。在一些实施方案中,与利用例如仅包括旋转轴线的六自由度机器人臂的传统机器人相比,对端部执行器3112的平移和定向的选择性控制可允许以显著提高的准确度执行医学规程。例如,外科机器人系统3000可用于对患者3130进行操作,并且机器人臂104可定位在患者3130的身体上方,其中端部执行器3112朝向患者3130的身体选相对于z轴择性地成角度。
在一些示例性实施方案中,XR头戴式耳机3150a和3150b可被控制为动态地显示外科器械的姿态的更新图形指示,使得用户在手术过程中的所有时间都可以知道外科器械的姿态。
如本文所用,术语“姿态”是指一个对象(例如,动态参考阵列、端部执行器、外科器械、解剖结构等)相对于另一个对象和/或相对于限定坐标系的位置和/或旋转角度。因此,可仅基于一个对象相对于另一个对象和/或相对于限定坐标系的多维位置,仅基于该对象相对于另一个对象和/或相对于限定坐标系的多维旋转角度,或基于多维位置和多维旋转角度的组合来限定姿态。因此,术语“姿态”用于指位置、旋转角度或其组合。
在一些另外的实施方案中,外科机器人3102可被配置为在机器人臂104的引导下校正由外科医生移动的关节操纵臂的路径。在一些示例性实施方案中,外科机器人3102可被配置为执行端部执行器3112的移动的停止、修改和/或手动控制。因此,在使用中,在示例性实施方案中,外科医生或其他用户可操作系统3000并且可选择停止、修改或手动控制端部执行器3112的自主移动。
参考阵列可形成于机器人臂104、端部执行器3112、患者3130和/或外科器械上或连接到其上。相机跟踪系统10可在例如6个自由度(例如,沿3条正交轴线的位置和围绕这些轴的旋转)中跟踪参考阵列的姿态。在一些实施方案中,可将包括多个跟踪标记的参考阵列设置在机器人3102的外表面上(例如,形成于其上或连接到其上),诸如在机器人臂104上和/或在端部执行器3112上。还可将包括一个或多个跟踪标记的患者参考阵列900提供给患者3130(例如,形成于患者身上或连接到患者上)。可将包括一个或多个跟踪标记的器械参考阵列3170设置在外科器械(例如,螺丝刀、扩张器、植入物插入件等)上。参考阵列使得相机跟踪系统10能够跟踪所标记对象(例如,端部执行器3112、患者3130和外科器械)中的每一者,并且所跟踪的姿态可用于向用户提供导航引导以执行外科手术和/或可用于控制外科机器人3102的移动以引导端部执行器3112。
示例性外科系统
图31示出了外科系统的框图,该外科系统包括相机跟踪系统10和导航系统3604,并且还任选地包括根据一些实施方案各自可操作的外科机器人3102、成像装置3620和XR头戴式耳机3150。
成像装置3620可包括C形臂成像装置、O型臂成像装置和/或患者图像数据库。计算机平台3600包括至少一个处理器、存储可由该至少一个处理器执行以执行操作的程序指令的至少一个存储器。计算机平台3600可执行相机跟踪系统10和/或导航系统3604的操作。XR头戴式耳机3150提供用于执行所导航的外科手术的改进的人机接口。XR头戴式耳机3150可被配置为例如经由计算机平台3600来提供包括但不限于以下各项中的任何一项或多项的功能:显示相机跟踪信息和外科手术导航信息、标识基于手势的命令等。显示装置3112可包括视频投影仪、平板显示器等。用户可作为锚定到通过透视显示屏观看的特定真实世界对象的叠层来查看XR图形对象。XR头戴式耳机3150可附加地或另选地被配置为在显示装置3112上显示来自安装到一个或多个XR头戴式耳机3150的相机和其他相机的视频流,和/或从成像装置3620获得的医学图像。
XR头戴式耳机3150的电子部件可包括多个相机3122、麦克风3121、姿势传感器3108、姿态传感器(例如,惯性测量单元(IMU))3116、显示装置3112和无线/有线通信接口3124。XR头戴式耳机3150的相机3122可以是可见光捕获相机、近红外捕获相机或两者的组合。
相机3122可被配置为通过跟踪在相机3122的视场内执行的用户手势来作为姿势传感器3108操作。另选地,姿势传感器3108可以是接近传感器和/或触摸传感器,其感测在姿势传感器3108附近执行的手势和/或感测物理接触,例如轻击传感器3108或其外壳。姿态传感器3116(例如IMU)可包括多轴加速度计、倾斜传感器和/或可感测XR头戴式耳机3150沿一个或多个限定坐标轴的旋转和/或加速度的另一个传感器。这些电子部件中的一些或全部可容纳在头戴式部件外壳中,或者可容纳在被构造成佩戴在别处(诸如在臀部或肩部上)的另一个外壳中。
如上所述,外科系统包括相机跟踪系统10,该相机跟踪系统可以是还可提供导航系统3604和/或XR头戴式耳机控制器3110的功能的计算机平台3600的一部分。外科系统可包括成像装置和/或外科机器人3102。导航系统3604可被配置为向操作者提供视觉导航引导,以基于外科计划(例如,来自外科计划功能)相对于患者解剖结构(例如,相对于DRB900)移动和定位器械和/或端部执行器,该外科计划定义了在解剖结构上使用器械在哪里执行外科手术并且基于由相机跟踪系统10确定的解剖结构的姿态。导航系统3604还可被配置为基于器械的目标姿态、患者解剖结构的当前姿态以及器械和/或外科机器人3102的端部执行器的当前姿态来生成导航信息,其中操纵信息被用于通过XR头戴式耳机3150和/或另一个显示器来显示信息,以指示器械和/或外科机器人3102的端部执行器应被移动到何处以执行外科计划。
XR头戴式耳机3150的电子部件可通过有线/无线接口3124可操作地连接到计算机平台3600的电子部件。XR头戴式耳机3150的电子部件可例如通过计算机平台3600可操作地连接到或直接连接到各种成像装置3620,例如C形臂成像装置、I/O形臂成像装置、患者图像数据库,和/或通过有线/无线接口3124连接到其他医疗设备。
外科系统还包括可驻留在XR头戴式耳机3150、计算机平台3600和/或经由有线线缆和/或无线通信链路连接的另一个系统部件中的至少一个XR头戴式耳机控制器3110。由XR头戴式耳机控制器3110执行的软件提供各种功能。XR头戴式耳机控制器3110被配置为接收来自相机跟踪系统10和导航控制器3604的信息,并且基于该信息生成XR对象以显示在显示装置3112上。
XR头戴式耳机控制器3110可被配置为可操作地处理来自相机3122、麦克风3121和/或姿态传感器3116的信令,并且被连接以在显示装置3112上显示XR图像供用户查看。因此,被例示为XR头戴式耳机3150内的电路块的XR头戴式耳机控制器3110应被理解为可操作地连接到XR头戴式耳机3150的其他例示部件,但不一定必须驻留在公用外壳内或以其他方式能够由用户携带。例如,XR头戴式耳机控制器3110可驻留在计算机平台3600内,该计算机平台继而可驻留在外科机器人3102、相机跟踪系统10等的外壳内。
进一步的定义和实施方案
在本公开的各种实施方案的以上描述中,本公开的各方面可以许多能够取得专利的类别或上下文中的任一者举例说明和描述,这些能够取得专利的类别或上下文包括任何新的和有用的过程、机器、制造或物质组成,或其任何新的和有用的改进。因此,本公开的各方面可以完全硬件、完全软件(包括固件、驻留软件、微代码等)或组合软件和硬件具体实施来实现,这些具体实施在本文中可能全部被一般性地称为“电路”、“模块”、“部件”或“系统”。此外,本公开的各方面可采取计算机程序产品的形式,该计算机程序产品包括其上具体体现计算机可读程序代码的一个或多个计算机可读介质。
可使用一个或多个计算机可读介质的任何组合。计算机可读介质可以是计算机可读信号介质或计算机可读存储介质。计算机可读存储介质可以是例如但不限于电子、磁、光、电磁或半导体系统、设备或装置,或前述项的任何合适的组合。计算机可读存储介质的更具体示例(非穷举性列表)将包括以下这些:便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或闪存)、具有中继器的适当光纤、便携式光盘只读存储器(CD-ROM)、光学存储装置、磁存储装置或前述项的任何合适的组合。在本文档的上下文中,计算机可读存储介质可以是可包含或存储由指令执行系统、设备或装置使用或结合指令执行系统、设备或装置使用的程序的任何有形介质。
计算机可读信号介质可以包括例如在基带中或作为载波的一部分的传播数据信号,其中具体体现有计算机可读程序代码。这种传播信号可采用多种形式中的任一种,包括但不限于电磁、光学或它们的任何合适的组合。计算机可读信号介质可以为不是计算机可读存储介质并且可传送、传播或传输供指令执行系统、设备或装置使用或与指令执行系统、设备或装置结合使用的程序的任何计算机可读介质。具体体现在计算机可读信号介质上的程序代码可使用任何适当的介质来传送,包括但不限于无线、有线、光纤线缆、RF等,或前述项的任何合适的组合。
用于执行本公开的各方面的操作的计算机程序代码可用一种或多种编程语言的任何组合来编写,包括:面向对象的编程语言,诸如Java、Scala、Smalltalk、Eiffel、JADE、Emerald、C++、C#、VB.NET、Python等;传统过程编程语言,诸如“C”编程语言、Visual Basic、Fortran2003、Perl、COBOL 2002、PHP、ABAP;动态编程语言,诸如Python、Ruby和Groovy;或其他编程语言。程序代码可完全在用户计算机上执行、部分地在用户计算机上执行、作为独立软件包执行、部分地在用户计算机上执行且部分地在远程计算机上执行、或完全在远程计算机或服务器上执行。在后一种情况下,远程计算机可通过任何类型的网络连接到用户计算机,包括局域网(LAN)或广域网(WAN),或者可连接到外部计算机(例如,使用因特网服务提供商通过因特网)或在云计算环境中,或者作为服务诸如软件即服务(SaaS)来提供。
在本文中参考了根据本公开的实施方案的方法、设备(系统)和计算机程序产品的流程图和/或框图来描述本公开的各方面。应当理解,流程图和/或框图中的每个框以及流程图和/或框图中的框的组合可由计算机程序指令来实现。可将这些计算机程序指令提供给通用计算机、专用计算机或其他可编程数据处理设备的处理器以产生机器,使得经由计算机或其他可编程指令执行设备的处理器执行的指令创建用于实现在流程图和/或框图的一个或多个框中指定的功能/动作的机制。
还可将这些计算机程序指令存储在计算机可读介质中,这些指令在被执行时可指示计算机、其他可编程数据处理设备或其他装置以特定方式起作用,使得这些指令当存储在计算机可读介质中时产生包括指令的制品,这些指令在被执行时致使计算机实现在流程图和/或框图的一个或多个框中指定的功能/动作。还可将计算机程序指令加载到计算机、其他可编程指令执行设备或其他装置上,以致使在计算机、其他可编程设备或其他装置上执行一系列操作步骤,从而产生计算机实现的过程,使得在计算机或其他可编程设备上执行的指令提供用于实现在流程图和/或框图的一个或多个框中指定的功能/动作的过程。
应当理解,本文所用的术语仅用于描述特定实施方案的目的,并且并非旨在对本发明进行限制。除非另有限定,否则本文使用的所有术语(包括技术术语和科学术语)具有与本公开所属领域的普通技术人员通常理解的含义相同的含义。还应当理解,诸如在常用词典中定义的那些术语应当被解释为具有与它们在本说明书的上下文和相关领域中的含义一致的含义,并且不应当以理想化或过于正式的意义来解释,除非本文明确地如此定义。
附图中的流程图和框图示出了根据本公开的各方面的系统、方法和计算机程序产品的可能具体实施的架构、功能和操作。就这一点而言,流程图或框图中的每个框可表示包括用于实现指定逻辑功能的一个或多个可执行指令的代码的模块、段或部分。还应当指出的是,在一些另选的具体实施中,框中指出的功能可不按照附图中指出的顺序发生。例如,取决于所涉及的功能,连续示出的两个框可能实际上基本上同时执行,或者这些框可能有时以相反顺序执行。还应当指出的是,框图和/或流程图中的每个框以及框图和/或流程图中的框的组合可由执行指定功能或动作的基于专用硬件的系统或由专用硬件和计算机指令的组合来实现。
本文所用的术语仅用于描述特定方面的目的,并且并非旨在对本公开进行限制。如本文所用,单数形式“一个”、“一种”和“该”旨在也包括复数形式,除非上下文另有明确指示。还应当理解,术语“包含”和/或“包括”在本说明书中使用时,规定所述特征、整数、步骤、操作、元件和/或部件的存在,但不排除一个或多个其他特征、整数、步骤、操作、元件、部件和/或它们的组的存在或添加。如本文所用,术语“和/或”包括一个或多个相关联的所列项目的任何和所有组合。在附图的整个描述中,类似的参考标号表示类似的元件。
以下权利要求书中的任何装置或步骤加功能元件的对应结构、材料、动作和等同物旨在包括任何所公开的结构、材料或动作,以与如具体要求保护的其他受权利要求书保护的元件组合地执行该功能。本公开的描述出于举例说明和描述的目的进行了呈现,但不旨在穷举或将本公开限于所公开的形式。在不脱离本公开的范围和精神的情况下,许多修改和变型对于本领域的普通技术人员而言将是显而易见的。为了最好地解释本公开的原理和实际应用,并且为了使本领域的其他普通技术人员能够理解具有适合于所设想的特定用途的各种修改的本公开,选择并描述了本公开的各方面。

Claims (10)

1.一种用于外科手术期间的计算机辅助导航的外科系统,所述外科系统包括至少一个处理器,所述至少一个处理器操作用于:
获得患者的目标解剖结构和配准夹具的基准集的三维(3D)放射学表示;
尝试将所述3D放射学表示中的所述基准集的位置配准到由相机跟踪系统跟踪的3D成像空间;并且
基于确定所述基准集中的一个基准具有未成功配准到所述3D成像空间的位置,
显示所述3D放射学表示的至少一个视图,所述至少一个视图具有指示所述基准未成功配准到所述3D成像空间的图形叠层,
接收标识所述基准在所述3D放射学表示中位于何处的用户提供的位置信息,以及
基于所述用户提供的位置信息将所述基准的所述位置配准到所述3D成像空间。
2.根据权利要求1所述的外科系统,其中:
接收标识所述基准在所述3D放射学表示中位于何处的用户提供的位置信息的所述操作包括:
在所述3D放射学表示和/或所述3D成像空间中显示所述基准的三个正交视图;
在所述三个正交视图中显示叠加在初始位置上的图形对象;
响应于所述用户通过用户界面的输入而移动所述图形对象显示在所述三个正交视图中的位置;
基于所述图形对象显示在所述三个正交视图中的所述位置来确定所述基准在所述3D放射学表示和/或所述3D成像空间中的位置;并且
将所述基准的所述位置配准到所述3D成像空间的操作基于所述基准在所述3D放射学表示中的所确定位置。
3.根据权利要求2所述的外科系统,其中在所述三个正交视图中显示叠加在所述初始位置上的所述图形对象的操作包括:
基于由配准夹具模板限定的基准的相对位置来确定所述初始位置以对应于所述基准的预测位置。
4.根据权利要求2所述的外科系统,其中所述至少一个处理器还操作用于移动所述图形对象显示在所述三个正交视图中的所述位置,以跟踪通过所述外科系统的所述用户界面接收的方向输入。
5.根据权利要求1所述的外科系统,其中所述至少一个处理器还操作用于:
在用户朝向所述基准中的已成功配准到所述3D图像空间的一个基准移动工具的同时跟踪在来自所述相机跟踪系统的相机的视频中捕获的所述工具的位置;
根据所述3D成像空间中的所跟踪位置显示所述工具的更新表示;并且
基于所述工具的所跟踪位置中的指定位置与所述基准中的已配准到所述3D图像空间的所述一个基准的所述位置的比较来确认所述基准中的已成功配准到3D图像空间的所述一个基准的配准准确度。
6.根据权利要求1所述的外科系统,其中尝试将所述3D放射学表示中的所述基准集的位置配准到由所述相机跟踪系统跟踪的所述3D成像空间的操作包括:
从所述相机跟踪系统的至少一个相机获得固定到所述患者的参考阵列的光学图像,所述参考阵列包括能够由所述3D成像空间中的所述相机跟踪系统的所述至少一个相机检测到的光学标记集;
尝试将所述光学标记集的图案的位置配准到所述3D放射学表示中的所述基准集的图案的位置;并且
标识所述参考阵列的所述光学标记中的未成功配准到所述配准夹具的所述基准中的任一个基准的任一个光学标记。
7.根据权利要求1所述的外科系统,其中所述操作还包括:
将虚拟植入装置显示为所述目标解剖结构的所述3D放射学表示的视图上的叠层;
显示所述虚拟植入装置的轨迹的图形指示,所述图形指示表示所述虚拟植入装置进入所述目标解剖结构的植入轨迹;
更新显示在所述3D放射学表示的所述视图中的所述虚拟植入装置的所述轨迹的所述图形指示的姿态,以跟踪通过所述外科系统的用户界面接收的操纵输入;并且
将所述轨迹的所述图形指示的所述姿态中的用户指定姿态存储为所述虚拟植入装置的所计划轨迹。
8.根据权利要求7所述的外科系统,其中所述操作还包括:
显示用于植入计划的一组用户可选择植入装置;并且
基于由用户通过所述用户界面选择的所述一组用户可选择植入装置中的一个植入装置的模板生成所述虚拟植入装置的图形表示。
9.根据权利要求7所述的外科系统,其中所述操作还包括:
将所述虚拟植入装置的所计划轨迹显示为所述目标解剖结构的所述3D放射学表示的所述视图上的叠层;
从所述相机跟踪系统的至少一个相机获得固定到对应于所述虚拟植入装置的真实植入装置的参考阵列的光学图像,所述参考阵列包括能够由所述3D成像空间中的所述相机跟踪系统的所述至少一个相机检测到的光学标记集;
在用户相对于所述患者的所述目标解剖结构定位所述真实植入装置的同时,基于所述参考阵列在所述光学图像中的姿态跟踪所述真实植入装置在所述3D成像空间中的姿态;并且
根据所述3D成像空间中的所跟踪姿态,显示所述真实植入装置相对于所述虚拟植入装置的所计划轨迹的更新图形表示。
10.根据权利要求1所述的外科系统,其中在获得所述患者的所述目标解剖结构和所述配准夹具的所述基准集的所述3D放射学表示之前,所述至少一个处理器还操作用于:
从所述相机跟踪系统的至少一个相机获得固定到所述患者的参考阵列和附接到放射成像装置的配准夹具的光学图像,所述参考阵列包括能够由所述3D成像空间中的所述相机跟踪系统的所述至少一个相机检测到的光学标记的第一集,并且所述配准夹具包括能够由所述3D成像空间中的所述相机跟踪系统的所述至少一个相机检测到的光学标记的第二集;
获得所述患者的所述目标解剖结构和所述配准夹具的所述基准集的荧光透视图像;
基于由所述3D成像空间中的所述相机跟踪系统的所述至少一个相机检测到的所述第一集中的所述光学标记的限定数目来确定是否满足第一条件;
基于由所述3D成像空间中的所述相机跟踪系统的所述至少一个相机检测到的所述第二集中的所述光学标记的限定数目来确定是否满足第二条件;
基于能够在所述荧光透视图像中看见的所述配准夹具的所述基准集的限定数目来确定是否满足第三条件;
当不满足所述第一条件、所述第二条件和所述第三条件中的一者时,显示不满足所述第一条件、所述第二条件和所述第三条件中的一者的指示,并且阻止放射成像过程捕获所述患者的所述目标解剖结构和所述配准夹具的所述基准集的所述3D放射学表示;并且
当满足所述第一条件、所述第二条件和所述第三条件中的每一者时,使所述放射成像过程能够捕获所述患者的所述目标解剖结构和所述配准夹具的所述基准集的所述3D放射学表示。
CN202210404950.5A 2021-04-19 2022-04-18 用于外科手术期间的计算机辅助导航的外科系统 Pending CN115211962A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202163176424P 2021-04-19 2021-04-19
US63/176,424 2021-04-19
US17/656,522 US20230081244A1 (en) 2021-04-19 2022-03-25 Computer assisted surgical navigation system for spine procedures
US17/656,522 2022-03-25

Publications (1)

Publication Number Publication Date
CN115211962A true CN115211962A (zh) 2022-10-21

Family

ID=81324951

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210404950.5A Pending CN115211962A (zh) 2021-04-19 2022-04-18 用于外科手术期间的计算机辅助导航的外科系统

Country Status (4)

Country Link
US (1) US20230081244A1 (zh)
EP (1) EP4079247A1 (zh)
JP (1) JP7323672B2 (zh)
CN (1) CN115211962A (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115831341B (zh) * 2023-01-10 2023-05-26 浙江伽奈维医疗科技有限公司 一种手术导航的自适应注册系统及方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2676627B1 (en) * 2012-04-18 2021-07-28 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US20170209225A1 (en) * 2017-04-10 2017-07-27 Danling Wu Stereotactic medical procedure using sequential references and system thereof
US11540767B2 (en) * 2017-07-03 2023-01-03 Globus Medical Inc. Intraoperative alignment assessment system and method
US10675094B2 (en) * 2017-07-21 2020-06-09 Globus Medical Inc. Robot surgical platform
WO2019028021A1 (en) * 2017-07-31 2019-02-07 Children's National Medical Center SYSTEM AND METHOD OF LOCATION BASED ON ARTIFICIAL VISION AND HYBRID EQUIPMENT
BR112020003579A2 (pt) * 2017-08-24 2020-09-01 Amdt Holdings, Inc. métodos e sistemas para determinar prescrições de ajuste de dispositivos de fixação externa
KR20200109292A (ko) * 2017-08-25 2020-09-22 쇼우푸 첸 치열 교정 응용에서 최적화 방법
US11786307B2 (en) * 2018-10-19 2023-10-17 Canon U.S.A., Inc. Visualization and manipulation of results from a device-to-image registration algorithm
EP3920825A1 (en) * 2019-02-05 2021-12-15 Smith&Nephew, Inc. Algorithm-based optimization, tool and selectable simulation data for total hip arthroplasty
US11553969B1 (en) * 2019-02-14 2023-01-17 Onpoint Medical, Inc. System for computation of object coordinates accounting for movement of a surgical site for spinal and other procedures
US11672607B2 (en) * 2019-08-14 2023-06-13 Warsaw Orthopedic, Inc. Systems, devices, and methods for surgical navigation with anatomical tracking
AU2020354583A1 (en) * 2019-09-24 2022-04-07 Nuvasive, Inc. Systems and methods for facilitating robotic surgical procedures
JP2022549511A (ja) * 2019-09-26 2022-11-25 ストライカー・コーポレイション 手術ナビゲーションのシステム及び方法

Also Published As

Publication number Publication date
JP2022165410A (ja) 2022-10-31
JP7323672B2 (ja) 2023-08-08
US20230081244A1 (en) 2023-03-16
EP4079247A1 (en) 2022-10-26

Similar Documents

Publication Publication Date Title
CN109276316B (zh) 机器人手术平台
JP7204663B2 (ja) 慣性計測装置を使用して手術の正確度を向上させるためのシステム、装置、及び方法
US11813030B2 (en) Robotic navigation of robotic surgical systems
US11357581B2 (en) Method for using a physical object to manipulate a corresponding virtual object in a virtual environment, and associated apparatus and computer program product
EP3443924B1 (en) A graphical user interface for use in a surgical navigation system with a robot arm
US7643862B2 (en) Virtual mouse for use in surgical navigation
JP2020511239A (ja) ナビゲーション手術における拡張現実ディスプレイのためのシステム及び方法
US20070016008A1 (en) Selective gesturing input to a surgical navigation system
US20210361357A1 (en) Robot surgical platform
CN113017834B (zh) 一种关节置换手术导航装置及方法
JP2021129984A (ja) 予定の器具アタッチメントの仮想モデルの表示により物理的器具アタッチメントの正しい選択を確実にする
JP2021194538A (ja) 基準シードを介した可視光での外科手術での対象の追跡および合成画像登録
US11813027B2 (en) System and method for positioning a surgical tool
JP7323672B2 (ja) 脊椎の処置のためのコンピュータ支援外科用ナビゲーションシステム
EP3733112A1 (en) System for robotic trajectory guidance for navigated biopsy needle
CN113208727A (zh) 手术系统
US20230368418A1 (en) Accuracy check and automatic calibration of tracked instruments
US20230165640A1 (en) Extended reality systems with three-dimensional visualizations of medical image scan slices
US20220338937A1 (en) Device For Navigating A Medical Instrument Relative To A Patient Anatomy
US20200297451A1 (en) System for robotic trajectory guidance for navigated biopsy needle, and related methods and devices
CN118076311A (zh) 用于使用增强现实导航定位对象的手术系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination