CN117045345A - 用于使计划的植入物可视化的技术 - Google Patents

用于使计划的植入物可视化的技术 Download PDF

Info

Publication number
CN117045345A
CN117045345A CN202310524406.9A CN202310524406A CN117045345A CN 117045345 A CN117045345 A CN 117045345A CN 202310524406 A CN202310524406 A CN 202310524406A CN 117045345 A CN117045345 A CN 117045345A
Authority
CN
China
Prior art keywords
implant
anatomical element
visualization
image data
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310524406.9A
Other languages
English (en)
Inventor
奥利弗·威德
马库斯·卡斯特罗普
玛丽亚·曼纽尔马丁斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stryker European Operations Ltd
Original Assignee
Stryker European Operations Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stryker European Operations Ltd filed Critical Stryker European Operations Ltd
Publication of CN117045345A publication Critical patent/CN117045345A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本公开涉及一种用于使计划的植入物可视化的方法。该方法包括:获得表示解剖元素的图像数据,获得指示待被植入到解剖元素中的植入物的几何特性的植入物数据,以及获得指示植入物的计划位姿的计划数据。基于所获得的数据,确定植入物的位于解剖元素内部的第一部分和植入物的不位于至少一个解剖元素内部的第二部分。最后,触发可区分地指示第一部分与第二部分的可视化的显示。本公开还涉及一种系统和一种计算机程序。

Description

用于使计划的植入物可视化的技术
技术领域
本公开总体上涉及一种用于使计划的植入物可视化的方法。本公开还提供了一种系统和计算机程序。
背景技术
在某些外科手术场景中,第一植入物的连接部分应当布置在第一解剖元素(诸如患者的骨)内。第一植入物的其他部分(例如,待连接到第二解剖元素、第二植入物或植入物连接件的植入物接口)可能需要布置在第一解剖元素的外部。第一植入物的布置可能还需要符合对切口点和第一植入物沿其被插入到患者身体中的第一植入物的插入方向提出的限制。
在计算机辅助外科(CAS)中,可以向外科医生提供使相对于患者图像数据处于计划位姿的植入物可视化的视图。例如,患者图像数据可以是从计算机断层扫描(CT)装置或磁共振(MR)成像装置获得的医学图像数据。使用当前可用的使相对于患者图像数据处于计划位姿的植入物可视化的视图,外科医生可能难以判断计划位姿是否可接受。例如,可能难以识别处于计划位姿的植入物的连接部分是否延伸通过包括动脉(artilleries)、神经组织等的关键区域,或者植入物的完整连接部分是否按预期那样被布置在第一解剖元素内部。基于目前已知的可视化,还可能难以判定是否需要调整植入物的计划位姿或几何特性(例如,长度、直径或形状),以及如果需要调整,则如何调整。此外,外科医生可能难以确定植入物需要通过其而被插入到患者身体内以按计划位姿放置的切口点是否可接受。更进一步地,外科医生可能难以预测植入物在稍后被插入到患者身体内时是否将会与例如骨结构的障碍物碰撞。
发明内容
需要一种解决上述问题或其他问题中的一个或多个的技术。
根据第一方面,提供了一种用于使计划的植入物可视化的方法。该方法由处理系统执行,并且包括获得表示患者身体的一部分的图像数据,该部分包括至少一个解剖元素。该方法包括获得指示待被植入到至少一个解剖元素中的植入物的一个或多个几何特性的植入物数据,以及获得指示植入物相对于至少一个解剖元素(例如,图像数据所表示的)的计划位姿的计划数据。该方法还包括基于图像数据、植入物数据和计划数据,确定植入物的位于至少一个解剖元素(例如,图像数据所表示的)内部的至少一个第一部分和植入物的不位于至少一个解剖元素(例如,图像数据所表示的)内部的至少一个第二部分。该方法包括触发可视化的显示,该可视化可区分地指示至少一个第一部分与至少一个第二部分。
图像数据可以包括中间图像数据。图像数据可以由诸如CT装置或MR成像装置的医学成像装置生成。图像数据可以包括CT图像数据。替代地或附加地,图像数据可以包括MR图像数据。图像数据可以包括或者由手术前图像数据或手术中图像数据组成。图像数据可以表示(i)患者身体的部分和(ii)患者身体的所有其余部分两者。
根据本公开,“位姿”可以包括位置和取向中的至少一个。例如,植入物的计划位姿可以包括植入物相对于至少一个解剖元素(例如,如图像数据所表示的)的位置和取向。
该方法可以包括基于所确定的至少一个第一部分和所确定的至少一个第二部分来确定可视化的步骤。可视化可以通过使至少一个第一部分与至少一个第二部分可区分地可视化而指导外科医生如何调整计划位姿。可视化可以向外科医生提供关于植入物的位于至少一个解剖元素内部的部分和植入物的位于至少一个解剖元素外部的部分的信息,使得外科医生可以不需要自己认知地确定这些部分。例如,可视化可以指导外科医生如何调整植入物的位姿,使得至少一个第二部分的尺寸被最小化、使得至少一个第二部分的一部分变为至少一个第一部分的一部分、或者使得至少一个第一部分的尺寸被最大化。
该方法可以是计算机实现的方法。该方法可以由至少一个处理器而不是处理系统来执行。替代地,处理系统可以包括被配置为执行该方法的至少一个处理器。该方法不包括外科手术步骤。
至少一个第二部分可以位于与至少一个解剖元素分开的至少一个区域内部。
至少一个区域可以包括远离至少一个解剖元素中的一个或多个解剖元素的区域。替代地或附加地,至少一个区域可以包括与至少一个解剖元素中的一个或多个解剖元素相邻的区域。
可视化可以可区分地指示至少一个第二部分的位于至少一个区域的第一区域内部的第一段与至少一个第二部分的位于至少一个区域的第二区域内部的第二段。第一区域可以不同于第二区域。
可视化可以可区分地指示至少一个第二部分的被包括在植入物的第一预定义区中的第三段与至少一个第二部分的被包括在植入物的第二预定义区中的第四段,其中第一预定义区不同于第二预定义区。
可视化可以是增强视图。
该方法可以包括获得(i)图像数据与(ii)至少一个解剖元素中的一个或多个解剖元素之间的第一配准。该方法还可以包括获得(i)包括显示器的增强现实装置与(ii)至少一个解剖元素中的一个或多个解剖元素之间的第二配准。可以基于第一配准和第二配准确定可视化。可以基于第一配准和第二配准确定可视化的取向或观看方向。可视化可以被触发显示在增强现实装置的显示器上。
该方法可以包括获得患者身体(例如,患者身体的至少部分)的表面扫描。该方法可以包括基于表面扫描和计划数据确定患者身体的表面上的待形成切口以将植入物插入到患者身体中的切口点。可视化还可以指示切口点。
切口点可以被确定为(i)由表面扫描指示的患者身体的表面与(ii)具有相对于植入物的预定义位姿的轨迹之间的相交点。
可以由包括在增强现实装置中的传感器获取表面扫描。
该方法还可以包括,在已经触发可视化的显示之后,获得指示植入物相对于至少一个解剖元素(例如,图像数据所表示的)的更新计划位姿的用户输入。该方法可以包括基于更新计划位姿来更新可视化。
该方法还可以包括识别图像数据中的至少一个解剖元素。该方法可以包括基于所识别的至少一个解剖元素来定义至少一个区域。
可以相对于图像数据定义计划位姿。计划数据可以指示植入物相对于如图像数据所表示的至少一个解剖元素的计划位姿。
该方法还可以包括识别图像数据中的至少一个解剖元素,并基于所识别的至少一个解剖元素和植入物与所识别的至少一个解剖元素之间的一个或多个预定义空间约束来确定计划位姿。
根据第二方面,提供了一种方法。该方法包括获得指示植入物相对于包括在患者身体的一部分中的至少一个解剖元素的计划位姿的计划数据。该方法还包括获得患者身体的至少部分的表面扫描。该方法可以包括基于表面扫描和计划数据确定患者身体的表面上的待形成切口以将植入物插入到患者身体中的切口点。该方法可以包括触发指示切口点的可视化的显示。
表面扫描可以与图像数据分离(例如,不包括在图像数据中)。表面扫描可以是非医学图像数据。表面扫描可以仅表示患者身体的至少部分的表面。表面扫描可以由仅表示患者身体的至少部分的表面的图像组成。可以从诸如飞行时间传感器或立体相机的深度传感器获得表面扫描。可以由包括在增强现实装置中的传感器获取表面扫描。
该方法可以包括例如基于(例如,(i)图像数据的坐标系与(ii)表面扫描或获取表面扫描的传感器的坐标系之间的)第三配准而将表面扫描配准到图像数据或反之亦然的步骤。第三配准可以基于所跟踪的至少一个解剖元素的位姿、图像数据与至少一个解剖元素之间的(例如,所述)第一配准、以及所跟踪的获取表面扫描的传感器或扫描器的位姿来确定。用于确定第三配准的其他变型也是可能的。
可视化可以是增强视图。可视化可以被触发显示在(例如,所述)增强现实装置的显示器上。切口点可以被确定为(i)由表面扫描指示或表示的患者身体表面与(ii)具有相对于植入物的预定义位姿的轨迹之间的相交点。该轨迹可以与植入物的纵向轴线重合。植入物可以是椎弓根螺钉。
第二方面的方法可以包括第一方面的方法的一个或多个附加步骤。图像数据可以对应于针对第一方面描述的图像数据。计划数据可以对应于针对第一方面描述的计划数据。植入物可以对应于针对第一方面描述的植入物。至少一个解剖元素可以对应于针对第一方面描述的至少一个解剖元素。表面扫描可以对应于针对第一方面描述的表面扫描。增强现实装置可以对应于针对第一方面描述的增强现实装置。可视化可以包括附加的指示和内容,如关于根据第一方面的可视化所描述的。
根据第三方面,提供了一种系统。该系统包括至少一个处理器,该处理器被配置为执行用于使计划的植入物可视化的方法。该至少一个处理器被配置为获取表示患者身体的一部分的图像数据,该部分包括至少一个解剖元素;获得指示待被植入到至少一个解剖元素中的植入物的一个或多个几何特性的植入物数据;获得指示植入物相对于至少一个解剖元素(例如,如图像数据所表示的)的计划位姿的计划数据;基于图像数据、植入物数据和计划数据,确定植入物的位于至少一个解剖元素(例如,如图像数据所表示的)的内部的至少一个第一部分和植入物的不位于至少一个解剖元素(例如,如图像数据所表示的)的内部的至少一个第二部分;并触发可视化的显示,该可视化可区分地指示至少一个第一部分与至少一个第二部分。
该系统可以被称为处理系统或CAS系统。
该至少一个处理器可以被配置为执行根据第一方面的方法。替代地或附加地,该至少一个处理器可以被配置为执行根据第二方面的方法。
该系统还可以包括增强现实装置,该增强现实装置包括显示器。至少一个处理器可以被配置为触发可视化在增强现实装置的显示器上的显示。增强现实装置可以对应于针对第一方面描述的增强现实装置。
该系统还可以包括跟踪系统,该跟踪系统被配置为跟踪患者身体和增强现实装置以确定患者身体与增强现实装置之间的相对位姿。跟踪系统可以对应于针对第一方面描述的外科手术跟踪系统。
根据第四方面,提供了一种计算机程序。该计算机程序包括指令,所述指令当在至少一个处理器上执行时使所述至少一个处理器执行根据第一方面和第二方面中的至少一个的方法。计算机程序可以存储在一个或多个(例如,非暂时性)计算机可读介质上,或者可以由诸如数据流的载体携带。
附图说明
根据结合附图的以下实施例,本公开的其他细节、优点和方面将变得显而易见,其中:
图1示出了根据本公开的系统;
图2示出了根据本公开的方法;
图3a-图3f示出了根据本公开的可视化。
具体实施方式
在以下描述中,将参考附图来解释系统和方法的示例性实施例。相同的附图标记将用于表示相同或相似的结构特征。
图1示出了根据本公开的系统100。系统100包括经由有线或无线连接1彼此连接的计算系统200、增强现实装置(ARD)300和外科手术跟踪系统(STS)400。系统100可以称为处理系统或CAS系统。
计算系统200包括联接到存储器4和接口6的处理器2。存储器包括当由处理器2执行时使处理器2执行本文所描述的(一个或多个)方法的指令。处理器2可以经由接口6获得数据,并且可以经由接口6发送数据和触发命令。在一个变型中,包括处理器2的计算系统200可以称为处理系统。
ARD 300包括处理器8、存储器10和接口12。处理器8可以经由接口12接收和发送数据。ARD 300还包括显示器14和至少一个传感器16。显示器14被配置为向ARD的用户提供可视化。至少一个传感器16可以包括相机、立体相机、飞行时间相机、激光雷达传感器和深度传感器中的一个或多个。ARD 300可以是头戴式装置(HMD)。在一个变型中,包括处理器8的ARD 300可以被称为处理系统。
在一种实施方式中,处理器2被配置为执行本文所述的(一个或多个)计算机实现的方法。代替处理器2,ARD 300的处理器8可以被配置为执行本文所述的(一个或多个)计算机实现的方法。在另一变型中,本文所述的(一个或多个)方法的一些步骤可以由处理器2执行,并且本文所述的(一个或多个)方法的其他步骤可以由处理器8执行。
所示示例中的STS 400是光学跟踪系统,所述光学跟踪系统包括被配置为跟踪一个或多个外科手术跟踪器的立体相机。每个外科手术跟踪器可以包括多个光学跟踪标记,所述多个光学跟踪标记可在由立体相机获取的图像中检测到。STS 400被配置为跟踪相对于患者身体28固定地附接的患者跟踪器18和相对于ARD 300固定地附接的ARD跟踪器20,以确定每个跟踪器在跟踪坐标系中的位姿。换句话说,STS 400可以经由跟踪器18跟踪患者身体28(例如,患者身体28的解剖元素22、24、26),并且可以经由ARD跟踪器20跟踪ARD 300。STS 400还可以经由附接到外科手术器械(未示出)的器械跟踪器而跟踪外科手术器械(诸如配准探针)。
代替对跟踪器18、20进行跟踪,STS 400可以直接跟踪患者身体28(例如,患者身体28的解剖元素22、24、26)。STS 400可以直接跟踪ARD 300。为此,STS 400可以采用图像分析、特征检测、对象识别和机器视觉中的一个或多个。
代替跟踪ARD 300或跟踪器20,可以基于用(一个或多个)传感器16获取的传感器数据来确定ARD 300相对于STS 400的位姿。(一个或多个)传感器16可以用于跟踪患者跟踪器18或直接跟踪患者身体28(例如,患者身体28的解剖元素22、24、26)。
STS 400不限于光学跟踪系统。STS 400可以是例如电磁跟踪系统。
图2示出了根据本公开的方法。如上所述,该方法的至少一个步骤可以由处理器2执行,并且该方法的至少一个步骤可以由处理器8执行。处理器2、8可以相互发送数据。例如,处理器2可以从医学成像装置获得图像数据,并将图像数据发送到处理器8。在一个示例性实施方式中,该方法的所有步骤恰好由处理器2、8中的一个执行。在优选实施方式中,该方法的所有步骤都由处理器2执行。这可以减少处理器8的计算需求和能量消耗。
在步骤202中,获得图像数据。图像数据表示患者身体28的一部分,该部分包括至少一个解剖元素,例如解剖元素22。
图像数据也可以被称为患者图像数据。图像数据可以包括中间图像数据。图像数据可以由诸如CT装置或MR成像装置的医学成像装置生成。图像数据可以包括CT图像数据。替代地或附加地,图像数据可以包括MR图像数据。图像数据可以是手术前图像数据或手术中图像数据。
至少一个解剖元素22可以对应于患者身体28的具有预定义的生物特性的区域,例如,包括特定类型的(例如,健康的)身体细胞或由特定类型的(例如,健康的)身体细胞组成。至少一个解剖元素22可以不包括肿瘤组织。至少一个解剖元素22可以对应于患者身体28的具有预定义的物理特性的(例如,所述)区域,例如,预定义的(例如,最大或最小)尺寸、预定义的形状、预定义的(如,最大或最低)体积、超过预定义阈值的水浓度、低于预定义阈值的水浓度或满足预定义标准(例如,超过预定义的Hounsfield阈值)的x射线吸收率。至少一个解剖元素22可以包括器官或骨,或者可以是器官或骨。至少一个解剖元素22可以包括或由骨(例如,如图像数据所表示的或图像数据中所识别的)和围绕骨的安全区域(例如,具有预定厚度)组成。安全区域可以补偿(i)图像数据和(ii)基于图像数据的骨的识别中的至少一个的不准确性。骨可以是椎骨。
在步骤204中,获得植入物数据。植入物数据指示待植入到至少一个解剖元素22中的植入物的一个或多个几何特性。
植入物可以包括待被插入到至少一个解剖元素22中的部分。植入物可以沿着纵向轴线延伸。待被插入的植入物或部分可以包括或由骨螺钉(诸如椎弓根螺钉)组成。植入物的一个或多个几何特性可以包括选自植入物的尺寸、长度、直径、半径和形状中的至少一个参数。植入物的一个或多个几何特性可以限定植入物的外表面或轮廓。
在步骤206中,获得计划数据。计划数据指示植入物相对于至少一个解剖元素22(例如,如图像数据所表示的)的计划位姿。
可以相对于图像数据定义计划位姿,或者可以在图像数据中定义计划位姿。可以在包括在图像数据中的图像中或基于图像数据生成的图像中计划植入物。可以在包括在图像数据中的图像的或基于图像数据生成的图像的图像坐标系中定义预定义位姿。
可以使用一个或多个预定义坐标转换(也称为配准),将计划位姿从计划坐标系转换到跟踪坐标系或图像坐标系中。在另一变型中,可以在STS 400的跟踪坐标系中相对于患者身体28的至少一个解剖元素22来定义计划位姿。如下面进一步讨论的,可以基于第一配准确定如图像数据所表示的计划位姿与至少一个解剖元素之间的空间关系。
该方法还可以包括识别图像数据中的至少一个解剖元素22。可以基于图像分割来识别至少一个解剖元素22。可以通过在图像数据(例如,图像数据的一个或多个图像)中检测呈现出预定义特性的区域而识别至少一个解剖元素22。预定义特性可以是如上所述的生物特性和物理特性中的至少一种。可以使用解剖图谱来识别至少一个解剖元素。可以使用人工神经网络基于图像数据来识别至少一个解剖元素,所述人工神经网络用已经由专家识别(例如,标记)的相对应的解剖元素的图像数据集进行训练。
可以通过基于所识别的至少一个解剖元素22和植入物与所识别的至少一个解剖元素22之间的一个或多个预定义空间约束而确定计划位姿,来获得计划位姿。一个或多个预定义空间约束可以限定植入物必须至少部分地布置在椎骨的椎弓根内。可以通过基于图像数据检测椎骨的椎弓根的最小(例如,最窄)部分,并相对于检测到的最小部分定义计划位姿来确定计划位姿。可以通过将植入物的轴线定义为延伸穿过检测到的最小部分来确定计划位姿。可以通过基于图像数据检测椎骨的上端板,并相对于检测到的上端板定义计划位姿来确定计划位姿。可以通过将植入物的轴线定义为平行于检测到的上端板延伸来确定计划位姿。可以通过根据椎弓根的横向角度定义植入物的轴线的横向角度来确定计划位姿。可以使用人工神经网络基于图像数据来确定计划位姿,所述人工神经网络用富有专家所定义的计划位姿的相对应的解剖元素的图像数据集进行训练。
在步骤208中,基于图像数据、植入物数据和计划数据,确定植入物的位于至少一个解剖元素22(例如,如患者图像数据所表示的)的内部的至少一个第一部分和植入物的不位于至少一个解剖元素22(例如,如患者图像数据所表示的)的内部的至少一个第二部分。
在步骤210中,触发可视化的显示。可视化可区分地指示至少一个第一部分与至少一个第二部分。
该方法可以包括基于所确定的至少一个第一部分和所确定的至少一个第二部分确定可视化的步骤(例如,在步骤210之前)。可视化可以指示至少一个第一部分和至少一个第二部分,使得人可以将至少一个第一部分与至少一个第二部分区分开。可视化可以通过以第一光学特性示出第一部分或第一部分的轮廓,并以不同的第二光学特性示出第二部分或第二部分的轮廓,来可区分地指示至少一个第一部分可与至少一个第二部分。光学特性可以是光学突出显示、颜色、阴影、光学图案、对比度、线条厚度、线条图案、闪烁图案、不透明度等。可视化可以包括(i)至少一个第一部分和(ii)至少一个第二部分中的一个或两者的(例如,用户可分配的或预定义的)标记、编号或命名。可视化可以包括至少一个解剖元素22的指示,例如基于患者图像数据使用图像分割而生成的至少一个解剖元素22的模型的指示(例如,部分透明的视图)。
至少一个第二部分可以位于与至少一个解剖元素22间隔开的至少一个区域内。至少一个区域可以包括远离至少一个解剖元素22中的一个或多个的区域。替代地或附加地,至少一个区域可以包括与至少一个解剖元素22中的一个或多个相邻的区域。如上所述,该方法可以包括识别图像数据中的至少一个解剖元素22。该方法可以包括基于所识别的至少一个解剖元素22来定义至少一个区域。至少一个区域可以与至少一个解剖元素22的一侧接界。至少一个区域可以围绕、包围或环绕至少一个解剖元素22。至少一个区域可以包括或对应于患者身体的除了至少一个解剖元素22之外的部分(例如,包括所述部分的患者身体的一部分)。至少一个区域可以包括其他植入物,诸如椎体架、脊柱杆或椎弓根螺钉。可视化可以包括至少一个区域的指示。
可视化可以可区分地指示至少一个第二部分的位于至少一个区域的第一区域内的第一段与至少一个第二部分的位于至少一个区域的第二区域内的第二段。鉴于第一段与第二段的可区分性,因此同样适用上文针对第一部分和第二部分所描述的(例如,使用不同的颜色)。第一区域可以包括另一解剖元素24(即,不同于至少一个解剖元素22)。第二区域可以包括又一解剖元素26。第一区域可以与第二区域不同,例如在选自尺寸、形状、位置和取向中的至少一个参数方面不同。第一区域与第二区域的不同之处可以在于,第一区域包括关键的身体结构,诸如动脉、静脉或神经,而第二区域不包括。第一区域可以与至少一个解剖元素22的第一侧接界,第二区域可以与至少一个解剖元素22的第二侧接界,其中第一侧不同于第二侧、邻近第二侧或与第二侧相对。第一区域可以对应于由至少一个解剖元素22限定的区域,例如在所述区域的两端处。第一区域可以对应于被至少一个解剖元素22的至少一部分围绕或包围的区域。第二区域可以对应于至少一个解剖元素22的至少一部分外部的区域。至少一个解剖元素22可以是椎骨,并且第一区域可以对应于(i)横突和椎体之间的区域,(ii)椎弓和椎体之间的区域,或者(iii)椎孔。至少一个解剖元素22可以是椎骨,并且第二区域可以对应于(i)横突后方的区域,(ii)棘突外侧的区域,或者(iii)椎体前方的区域。可视化可以包括第一区域的指示。可视化可以包括第二区域的指示。可视化可以包括第一区域和第二区域的可区分指示。鉴于第一区域和第二区域的可区分性,因此同样适用上文针对第一部分和第二部分所描述的(例如,使用各自边界的不同突出显示)。
可视化可以可区分地指示至少一个第二部分的被包括在植入物的第一预定义区中的第三段与至少一个第二部分的被包括在植入物的第二预定义区中的第四段,其中,第一预定义区不同于第二预定义区。鉴于第三段和第四段的可区分性,因此同样适用上文针对第一部分和第二部分所描述的(例如,使用不同的阴影)。第三段可以包括植入物的端部(例如,纵向端部、远端末端或远端尖端)。第四段可以包括植入物的相对端部(例如,另一纵向端部或另一远端末端)。植入物可以被配置为从第三段开始插入到患者身体内。第四段可以包括工具附接部分,所述工具附接部分被配置为联接到外科手术工具(诸如螺丝刀)。可视化可以包括第三段的指示。可视化可以包括第四段的指示。
可视化可以是增强视图。可视化可以以覆盖患者身体28的部分或患者身体28的部分的相机图像的方式,使植入物的至少一个第一部分、植入物的至少一个第二部分、以及可选地至少一个解剖元素22可视化。(一个或多个)区域和(一个或多个)段也可以被可视化成覆盖到患者身体28的部分或患者身体28的部分的相机图像上。相机图像可以通过ARD 300的传感器16获得。
该方法可以包括获得(i)图像数据与(ii)至少一个解剖元素22中的一个或多个解剖元素之间的第一配准。该方法还可以包括获得(i)包括显示器14的ARD 300与(ii)至少一个解剖元素22中的一个或多个解剖元素之间的第二配准。可以基于第一配准和第二配准来确定可视化。可视化可以被触发以显示在ARD 300的显示器14上。
可以基于来自STS 400的跟踪数据确定第一配准。基于跟踪数据确定第一配准的各种技术是可能的。作为示例,可以使用被跟踪的配准探针获取患者身体28的表面上或在至少一个解剖元素22上的多个点,以获得跟踪数据。然后可以将多个点映射到患者图像数据。这可以产生第一配准,所述第一配准可以将图像数据锚定到患者跟踪器。考虑到至少一个解剖元素在已经获得第一配准之后的移动,可以(例如,连续地)跟踪相对于患者身体28固定地附接的患者跟踪器18,从而产生经锚定的患者图像数据的相应偏移。作为另一示例,患者跟踪器18可以包括一个或多个基准标记,并且可以通过同时扫描患者身体28和患者跟踪器18来生成图像数据。然后可以在图像数据中识别基准标记以获得第一配准,然后可以将所述第一配准锚定到患者跟踪器18。确定第一配准的其他变型也是可能的。
第二配准可以通过使用STS 400跟踪ARD 300和至少一个解剖元素22中的一个或多个解剖元素来获得。作为第一示例,ARD 300可以设置有跟踪器20,并且STS 400可以跟踪患者跟踪器18和ARD 300的跟踪器20两者。作为第二示例,可以使用从(一个或多个)内部传感器16获取的数据来确定ARD 300在手术室内的位姿。然后,STS 400可以用于获得至少一个解剖元素22在手术室内的位姿。可以基于ARD 300在手术室内的位姿和至少一个解剖元素22在手术室内的位姿来确定第二配准。作为又一示例,可以基于(一个或多个)内部传感器16(诸如相机、深度传感器等)所获取的传感器数据来确定患者跟踪器18或至少一个解剖元素22相对于ARD 300的位姿。确定第二配准的其他变型也是可能的。
该方法可以包括获得患者身体28的表面扫描。表面扫描可以由非医学图像数据组成,并且可以与患者图像数据分开。表面扫描可以仅表示患者身体28的至少部分的表面。表面扫描可以由包括在ARD 300中的传感器16获取。替代地,表面扫描可以由与ARD 300分离(例如,在ARD 300外部)的传感器获取。表面扫描可以从STS 400获得。表面扫描可以从飞行时间相机、立体相机、视频相机等获得。
该方法可以包括例如基于第三配准(例如,(i)图像数据的坐标系与(ii)表面扫描或获取表面扫描的传感器的坐标系之间的第三配准)将表面扫描配准到图像数据,或反之亦然的步骤。可以基于所跟踪的(例如,经由跟踪器20所跟踪的)至少一个解剖元素22的位姿、图像数据与至少一个解剖元素22之间的第一配准、以及所跟踪的获取表面扫描的传感器或扫描器的位姿来确定第三配准。确定第三配准的其他变型也是可能的。
该方法可以包括基于表面扫描和计划数据(例如,并进一步基于第三配准)确定患者身体28的表面上的待形成切口以将植入物插入到患者身体28中的切口点。可视化还可以指示切口点。
切口点可以被指示为患者身体28的表面上的虚拟标记。切口点可以由诸如点、十字、箭头等的符号指示,所述符号例如被覆盖到患者身体28(例如,患者身体28的部分)的表面上或其图像上。切口点的指示可以包括切口点的数字或文本描述或标记。
切口点可以被确定为(i)由表面扫描所指示的患者身体的表面与(ii)具有相对于植入物的预定义位姿的轨迹之间的相交点。该轨迹可以与植入物的纵向轴线平行或相同。该轨迹可以与植入物在被插入到至少一个解剖元素22中时需要绕其转动的轴线平行或相同。可视化可以包括轨迹的指示。
该方法可以包括确定轨迹是否与一个或多个解剖元素(例如,包括至少一个解剖元素22)相交。如果轨迹与一个或多个解剖元素相交,则可视化可以包括与一个或多个解剖元素相交的轨迹的指示(例如,突出显示相交的(一个或多个)解剖元素)。
该方法可以包括基于计划数据(并且可选地,基于植入物数据)确定外科手术器械的位姿,所述外科手术器械被配置为联接到植入物以将植入物插入到患者身体内。外科手术器械可以是螺丝刀。该方法可以包括基于外科手术器械的位姿并且基于外科手术器械的一个或多个几何特性(例如,其尺寸、形状或类型),确定处于所确定的位姿的外科手术器械是否与一个或多个解剖元素(例如,包括至少一个解剖元素22)相交。如果外科手术器械与一个或多个解剖元素相交,则可视化可以包括指示外科手术器械与一个或多个解剖元素相交,例如以警告消息的形式或者通过突出显示外科手术器械与一个或多个解剖元素之间的相交区域或体积。
该方法还可以包括,在已经触发可视化的显示之后,获得指示植入物相对于至少一个解剖元素22(例如,由图像数据所表示的)的更新计划位姿的用户输入。该方法可以包括基于更新计划位姿而更新可视化。用户输入可以经由ARD 300获得。用户输入可以包括命令手势。用户输入可以经由包括在ARD 300中的传感器16获得,所述传感器16例如也用于获取表面扫描。用户输入可以定义植入物的计划位姿的改变,例如植入物的计划位置的改变、植入物的计划取向的改变、或者植入物的计划位置和计划取向的改变。
可视化可以指导外科医生如何调整植入物的计划位姿。可视化可以通过使至少一个第一部分与至少一个第二部分可区分地可视化来指导外科医生如何调整计划位姿。可视化可以向外科医生提供关于植入物的位于至少一个解剖元素22内的第一部分和植入物的位于至少一个解剖元素22的外部的第二部分的信息,使得外科医生可能不需要由自己认知地确定这些部分。例如,可视化可以指导外科医生如何调整植入物的位姿,使得至少一个第二部分的尺寸被最小化,使得至少一个第二部分的一部分变为至少一个第一部分的一部分,或者使得至少一个第一部分的尺寸被最大化。
步骤202、204和206的顺序可以改变,只要这些步骤在步骤208之前执行即可。步骤202、204和206中的两个或更多个可以组合成单个步骤。例如,图像数据、植入物数据和计划数据中的两个或更多个可以包括在单个步骤中所获得的单个数据集中。
图3a-图3f示出了根据本公开的可视化。在这些示例中,植入物30是椎弓根螺钉,并且至少一个解剖元素22是椎骨。图3a-图3f的每个可视化可以对应于步骤210中的被触发显示的可视化。
在图3a的示例中,螺钉30包括螺钉头32,螺钉头32可以对应于本文所述的第三段。螺钉30还包括轴34,轴34可以对应于本文所述的第四段。可视化可区分地指示这两个段。计划位姿定义了植入物30与椎骨22(如患者图像数据所表示的)之间的配准。使植入物30的位于椎骨22内部的第一部分36与植入物30的位于椎骨22外部的第二部分38可区分地可视化。在这种情况下,外科医生将注意到植入物30的第二部分38在前方向上延伸超过椎骨22的椎体的外表面。这样的螺钉放置通常不是有意的。因此,外科医生可以调整计划位姿,使得螺钉30的远端尖端不再位于椎骨22外部,即使得作为第二部分38的螺钉尖端的突出显示消失。
在图3a的示例中,外科医生可以将植入物30沿后方向移动。在接收到相应的用户命令时,计划位姿被更新。所得到的经更新的可视化在图3b中示出。可以看出,螺钉30的远端尖端不再突出显示为第二部分38。然而,与螺钉头32相邻的部分现在被突出显示为位于椎骨22的外部的第二部分38。这是因为外科医生将螺钉30沿向后方向移动得太远,或者因为计划螺钉的长度太长。注意的是,同样在图3b的情况下,可以以与轴34的第二部分38不同的方式使螺钉头32可视化,由于螺钉头32应该始终布置在椎骨22的外部。
在某些情况下,计划位姿可能会产生如图3c所示的可视化。在这种情况下,存在植入物30的多个分离且远隔的第一部分36,每个第一部分都位于椎骨22内。所有这些部分36可以以类似的方式指示,例如使用相同的突出显示颜色。在这种情况下,第二部分38位于特备区域40中,即位于横突与椎体之间的区域中。为此原因,第二部分38可以以与图3a和图3b中示出的第二部分38相比不同的方式突出显示。
参考图3d,与图3c相比,螺钉30的长度更长。螺钉30的远端尖端突出超过椎骨22的前表面。因此,远端尖端表示螺钉30的位于椎骨22的外部的第二部分38。在螺钉30的另一纵向端部处,植入物30的另一第二部分38被突出显示。螺钉30的中部的位于特别区域40中的第二部分38类似于图3c中那样被突出显示。可以看出,第二部分38根据它们是否位于特别区域40中而被不同地突出显示。可以关于椎骨22限定多个区域,例如特别区域40、后区域42和前区域44。第二部分38可以根据其所在的区域而被不同地突出显示。第二部分38的突出显示也可以取决于它们沿着螺钉长度的相应位置。例如,在远端螺钉尖端处的第二部分38可以与邻近螺钉头32的第二部件38可区分地突出显示,因为在远端螺钉尖端处的第二部分38通常构成更大的手术风险。
图3e示出了另一示例,其中螺钉30部分地在椎骨22内延伸,并部分地在椎骨22的外部延伸。在该示例中,螺钉头32以与第一部分36类似的方式突出显示,以使外科医生专注于螺钉30的第二部分38。第二部分38延伸穿过椎孔。在该关键区域46中,布置有脊髓的神经组织。因此,通常应当避免如图3e中所示的螺钉放置。可以使用闪烁的突出显示以高度可见的颜色来突出显示第二部分38。还可以向外科医生提供文本警告。
由于植入物30的第一部分36和第二部分38的可区分的突出显示,外科医生可以容易地识别植入物30的哪些部分相对于椎骨22正确对准,以及哪些部分可能在手术期间或之后引起问题。然后,他可以使用可视化相应地调整植入物30的计划位姿。可以在基于外科医生的用户反馈调整计划位姿时连续地更新可视化。这种反馈循环可以产生最佳螺钉放置,如图3f中示例性图示的。
植入物30的(例如,调整或更新的)计划位姿可以用于确定患者身体28的表面48上的切口点47。特别地,表面扫描可以被获取并被配准到患者图像数据。这产生了患者身体28的表面48与椎骨22(如患者图像数据所表示的)之间的已知空间关系。然后,例如相对于患者图像数据定义的计划位姿可以用于将(i)与椎弓根螺钉30的纵向螺钉轴线重合的轨迹50与(ii)由表面扫描表示的表面48之间的相交点确定为切口点47。然后,被触发显示的可视化可以包括切口点47的指示,并且可选地包括轨迹50的指示。切口点47可能位于需要保护(即,不适合形成切口)的表面的区域上。轨迹可能延伸通过关键的身体组织(诸如神经、动脉或静脉)。然后,外科医生可以再一次调整计划位姿以避免不利的切口点或轨迹。
如果轨迹50与椎骨22或相邻的椎骨相交,则可视化可以包括其指示。例如,除了椎骨22之外的与轨迹相交的所有骨都可以被突出显示。基于植入物30的经调整的位姿,可以确定外科植入物放置器械的位姿。外科植入物放置器械的位姿可以是外科植入物放置器械需要何种位姿来以经调整的计划位姿定位植入物30的估计。外科植入物放置器械的几何形状可能是已知的。这允许确定当将植入物30放置在经调整的计划位姿时,外科植入物放置器械是否与一个或多个解剖元素(例如,包括椎骨22)相交。可视化可以包括与外科植入物放置器械相交的骨的体积的视觉突出显示。然后,外科医生可以判定是否进一步调整计划位姿,例如,以避免在能够以其经调整的位姿放置植入物30之前必须执行骨切除。
外科医生不仅可以调整植入物30的计划位姿,还可以替代地或附加地调整植入物30的另一特性(例如,植入物30的类型、植入物30的长度(诸如螺钉长度)、植入物30的直径(诸如螺钉直径)等)。然后,可以相应地更新可视化。同样在这种情况下,可视化可以指导外科医生如何调整其他特性。
替代地,可以用不同的第二方法来确定切口点47,所述方法不必须包括上面参考图2描述的方法步骤。第二方法可以由处理器2、8中的一个或两者执行。
第二方法包括获得指示植入物(例如,植入物30)相对于包括在患者身体(例如,28)的部分中的至少一个解剖元素(例如,22)的(例如,所述)计划位姿的(例如,所述)计划数据。第二方法还包括获得患者身体(例如,28)的至少部分的(例如,所述)表面扫描。第二方法包括基于表面扫描和计划数据确定患者身体(例如,28)的表面上的切口点(例如,47),在所述切口点处待形成切口以将植入物(例如,30)插入到患者身体(如,28)中。该方法可以包括触发指示切口点(例如,47)的可视化显示。该可视化可以是增强视图,并且可以被触发显示在ARD 300的显示器14上。切口点(例如,47)可以被确定为(i)由表面扫描指示或表示的患者身体(例如,28)的表面与(ii)具有相对于植入物(例如,30)的预定义位姿的轨迹(例如,50)之间的相交点。轨迹(例如,50)可以与植入物(例如,30)的纵向轴线重合。该可视化可以对应于图3f中图示的可视化。
本公开可以提供一种可视化,所述可视化告知外科医生关于所计划的植入物的哪些部分位于解剖元素内部,哪些部分不位于解剖元素内部。该可视化可以指示处于计划位姿的植入物是否延伸通过包括动脉、神经组织等的关键区域,或者植入物是否按预期那样仅布置在第一解剖元素内部。该可视化还可以告知外科医生关于符合植入物的计划位姿的切口点。增强视图可以改善外科医生对所计划的植入物与解剖元素之间的相对空间对准的理解和感知。通过识别患者图像数据中的解剖元素,可以在不需要外科医生手动指定区域的情况下确定特别区域或关键区域。外科医生可以在患者图像数据的图像中计划植入物的计划位姿,从而不需要计划位姿与图像数据之间的配准,因此节省处理工作量。位姿可以基于图像数据自动确定,这意味着外科医生不需要手动计划位姿。所描述的技术可以帮助外科医生判断计划位姿是否可接受。特别地,该可视化可以指导外科医生是否以及如何调整计划位姿,并且更新可视化可以提供反馈循环。鉴于以上内容,其他优点对于本领域技术人员来说将是显而易见的。
本文所述的(一种或多种)方法的修改是可能的。例如,第二方法可以包括参考图2描述的所有步骤202-210。作为另一示例,计划位姿可以在计划坐标系中定义,并且可以使用预定义转换而被转换到图像坐标系中。可以由外科医生使用被跟踪的外科手术器械来设置计划位姿。在这种情况下,可以在跟踪坐标系中定义计划位姿。然后可以使用第一配准将计划位姿转换到图像坐标系中。本公开的其他修改,例如使用其他坐标系和配准,也是可能的。

Claims (20)

1.一种用于使计划的植入物可视化的方法,所述方法由处理系统执行,并且包括:
获得表示患者身体的一部分的图像数据,所述部分包括至少一个解剖元素;
获得指示待被植入到所述至少一个解剖元素中的植入物的一个或多个几何特性的植入物数据;
获得指示所述植入物相对于所述至少一个解剖元素的计划位姿的计划数据;
基于所述图像数据、所述植入物数据和所述计划数据,确定所述植入物的位于所述至少一个解剖元素内部的至少一个第一部分和所述植入物的不位于所述至少一个解剖元素内部的至少一个第二部分;和
触发可视化的显示,所述可视化能够区分地指示所述至少一个第一部分与所述至少一个第二部分。
2.根据权利要求1所述的方法,其中
所述至少一个第二部分位于与所述至少一个解剖元素分开的至少一个区域的内部。
3.根据权利要求2所述的方法,其中,满足以下条件中的至少一个:
(i)所述至少一个区域包括远离所述至少一个解剖元素中的一个或多个解剖元素的区域;
(ii)所述至少一个区域包括与所述至少一个解剖元素中的一个或多个解剖元素相邻的区域。
4.根据权利要求2所述的方法,其中,所述可视化能够区分地指示所述至少一个第二部分的位于所述至少一个区域的第一区域内部的第一段与所述至少一个第二部分的位于所述至少一个区域的第二区域内部的第二段。
5.根据权利要求1所述的方法,其中,所述可视化能够区分地指示所述至少一个第二部分的被包括在所述植入物的第一预定义区中的第三段与所述至少一个第二部分的被包括在所述植入物的第二预定义区中的第四段,其中所述第一预定义区不同于所述第二预定义区。
6.根据权利要求1所述的方法,其中
所述可视化是增强视图。
7.根据权利要求6所述的方法,还包括:
获得(i)所述图像数据与(ii)所述至少一个解剖元素中的一个或多个解剖元素之间的第一配准;和
获得(i)包括显示器的增强现实装置与(ii)所述至少一个解剖元素中的一个或多个解剖元素之间的第二配准,
其中,基于所述第一配准和所述第二配准确定所述可视化,
其中,所述可视化被触发显示在所述增强现实装置的显示器上。
8.根据权利要求1所述的方法,还包括:
获得所述患者身体的表面扫描;和
基于所述表面扫描和所述计划数据,确定所述患者身体的表面上的待形成切口以将所述植入物插入到所述患者身体中的切口点,其中
所述可视化还指示所述切口点。
9.根据权利要求8所述的方法,其中
所述切口点被确定为(i)由所述表面扫描指示的所述患者身体的表面与(ii)具有相对于所述植入物的预定义位姿的轨迹之间的相交点。
10.根据权利要求8所述的方法,
其中,由包括在增强现实装置中的传感器获取所述表面扫描。
11.根据权利要求1所述的方法,还包括:
在已经触发所述可视化的显示之后,获得指示所述植入物相对于所述至少一个解剖元素的更新计划位姿的用户输入;和
基于所述更新计划位姿来更新所述可视化。
12.根据权利要求2所述的方法,还包括:
识别所述图像数据中的所述至少一个解剖元素;和
基于所识别的至少一个解剖元素定义所述至少一个区域。
13.根据权利要求1所述的方法,其中
相对于所述图像数据定义所述计划位姿。
14.根据权利要求13所述的方法,还包括:
识别所述图像数据中的所述至少一个解剖元素;和
基于所识别的至少一个解剖元素,和所述植入物与所识别的至少一个解剖元素之间的一个或多个预定义空间约束,确定所述计划位姿。
15.根据权利要求1所述的方法,其中,满足以下条件中的至少一个:
(i)所述至少一个解剖元素包括骨,诸如椎骨;
(ii)所述植入物包括骨螺钉,诸如椎弓根螺钉。
16.根据权利要求1所述的方法,其中
满足以下条件中的至少一个:
所述植入物的所述一个或多个几何特性包括选自植入物的尺寸、长度、直径、半径和形状中的至少一个参数;
所述植入物的所述一个或多个几何特性限定所述植入物的外表面或轮廓。
17.一种包括至少一个处理器的系统,所述至少一个处理器被配置成执行用于使计划的植入物可视化的方法,所述至少一个处理器被配置成:
获得表示患者身体的一部分的图像数据,所述部分包括至少一个解剖元素;
获得指示待被植入到所述至少一个解剖元素中的植入物的一个或多个几何特性的植入物数据;
获得指示所述植入物相对于所述至少一个解剖元素的计划位姿的计划数据;
基于所述图像数据、所述植入物数据和所述计划数据,确定所述植入物的位于所述至少一个解剖元素内部的至少一个第一部分和所述植入物的不位于所述至少一个解剖元素内部的至少一个第二部分;和
触发可视化的显示,所述可视化能够区分地指示所述至少一个第一部分与所述至少一个第二部分。
18.根据权利要求17所述的系统,还包括:
增强现实装置,所述增强现实装置包括显示器,
其中,所述至少一个处理器被配置成触发所述可视化在所述增强现实装置的所述显示器上的显示。
19.根据权利要求18所述的系统,还包括:
跟踪系统,所述跟踪系统被配置成跟踪所述患者身体和所述增强现实装置,以确定所述患者身体与所述增强现实装置之间的相对位姿。
20.一种存储计算机程序的非暂时性计算机可读介质,所述计算机程序包括指令,所述指令当在至少一个处理器上执行时使得所述至少一个处理器:
获得表示患者身体的一部分的图像数据,所述部分包括至少一个解剖元素;
获得指示待被植入到所述至少一个解剖元素中的植入物的一个或多个几何特性的植入物数据;
获得指示所述植入物相对于所述至少一个解剖元素的计划位姿的计划数据;
基于所述图像数据、所述植入物数据和所述计划数据,确定所述植入物的位于所述至少一个解剖元素内部的至少一个第一部分和所述植入物的不位于所述至少一个解剖元素内部的至少一个第二部分;和
触发可视化的显示,所述可视化能够区分地指示所述至少一个第一部分与所述至少一个第二部分。
CN202310524406.9A 2022-05-12 2023-05-10 用于使计划的植入物可视化的技术 Pending CN117045345A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP22173051.8A EP4275641A1 (en) 2022-05-12 2022-05-12 Technique for visualizing a planned implant
EP22173051.8 2022-05-12

Publications (1)

Publication Number Publication Date
CN117045345A true CN117045345A (zh) 2023-11-14

Family

ID=81648386

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310524406.9A Pending CN117045345A (zh) 2022-05-12 2023-05-10 用于使计划的植入物可视化的技术

Country Status (3)

Country Link
US (1) US20230363822A1 (zh)
EP (1) EP4275641A1 (zh)
CN (1) CN117045345A (zh)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8214016B2 (en) * 2006-12-12 2012-07-03 Perception Raisonnement Action En Medecine System and method for determining an optimal type and position of an implant
AU2015227303B2 (en) * 2014-03-05 2019-11-21 Blue Belt Technologies, Inc. Computer-aided prosthesis alignment
JP2022540642A (ja) * 2019-07-09 2022-09-16 マテリアライズ・ナムローゼ・フエンノートシャップ 拡張現実支援関節形成術
WO2021225840A1 (en) * 2020-05-04 2021-11-11 Howmedica Osteonics Corp. Mixed reality-based screw trajectory guidance

Also Published As

Publication number Publication date
EP4275641A1 (en) 2023-11-15
US20230363822A1 (en) 2023-11-16

Similar Documents

Publication Publication Date Title
JP6876065B2 (ja) 放射線照射を低減された手術中の3次元視覚化
CN109996511B (zh) 用于引导进程的系统
JP6700401B2 (ja) 脊柱の領域、並びに、胸郭、骨盤又は頭部の隣接領域における、外科手術処置中の術中画像制御ナビゲーション装置
US8116847B2 (en) System and method for determining an optimal surgical trajectory
CN102784003B (zh) 一种基于结构光扫描的椎弓根内固定手术导航系统
EP0908836A2 (en) Computer-constructed surgical guide
CN202751447U (zh) 一种基于结构光扫描的椎弓根内固定手术导航系统
US11026752B2 (en) System and method for performing and evaluating a procedure
US20230087163A1 (en) Technique For Providing User Guidance In Surgical Navigation
KR20190058190A (ko) 증강현실 기술을 이용한 척추 수술 네비게이션 시스템 및 방법
Breeuwer et al. The easi project-improving the effectiveness and quality of image-guided surgery
WO2022002908A1 (en) System for assisting a user in placing a penetrating device in tissue
CN113143460A (zh) 控制指示立即改变的推荐入口点的导航视图的显示的方法
US11478207B2 (en) Method for visualizing a bone
EP4275641A1 (en) Technique for visualizing a planned implant
EP4091567A1 (en) Technique of providing user guidance for obtaining a registration between patient image data and a surgical tracking system
EP4197475A1 (en) Technique of determining a scan region to be imaged by a medical image acquisition device
EP3975120B1 (en) Technique for guiding acquisition of one or more registration points on a patient's body
US20230248441A1 (en) Extended-reality visualization of endovascular navigation
US20230363823A1 (en) Technique For Guiding A Surgeon On How To Adapt A Pre-Planned Position Of At Least One Implant Interface
KR20240064970A (ko) 혼합현실 기반 수술 지원 장치 및 방법
WO2024068664A1 (en) Method and apparatus for guiding a surgical access device

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Oliver Wade

Inventor after: Markus Fink

Inventor after: Maria Manuel Martins

Inventor before: Oliver Wade

Inventor before: Marcus castrop

Inventor before: Maria Manuel Martins

CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Oliver Wade

Inventor after: Markus Fink

Inventor after: Maria Manuel Carvalho de Freitas Martins

Inventor before: Oliver Wade

Inventor before: Markus Fink

Inventor before: Maria Manuel Martins

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination