CN113558762A - 将手术工具与由扩展现实头戴装置的摄像机跟踪的参考阵列配准以用于手术期间的辅助导航 - Google Patents
将手术工具与由扩展现实头戴装置的摄像机跟踪的参考阵列配准以用于手术期间的辅助导航 Download PDFInfo
- Publication number
- CN113558762A CN113558762A CN202110466291.3A CN202110466291A CN113558762A CN 113558762 A CN113558762 A CN 113558762A CN 202110466291 A CN202110466291 A CN 202110466291A CN 113558762 A CN113558762 A CN 113558762A
- Authority
- CN
- China
- Prior art keywords
- headset
- camera
- reference array
- tracking
- surgical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001356 surgical procedure Methods 0.000 title claims abstract description 64
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 10
- 238000001514 detection method Methods 0.000 claims description 22
- 238000012795 verification Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 7
- 239000003550 marker Substances 0.000 claims description 4
- 230000000670 limiting effect Effects 0.000 claims description 3
- 230000000977 initiatory effect Effects 0.000 claims 2
- 238000000034 method Methods 0.000 description 53
- 239000012636 effector Substances 0.000 description 48
- 210000003484 anatomy Anatomy 0.000 description 42
- 230000033001 locomotion Effects 0.000 description 41
- 238000003384 imaging method Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 21
- 230000008569 process Effects 0.000 description 19
- 239000003826 tablet Substances 0.000 description 18
- 239000007943 implant Substances 0.000 description 17
- 230000008878 coupling Effects 0.000 description 14
- 238000010168 coupling process Methods 0.000 description 14
- 238000005859 coupling reaction Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 230000009466 transformation Effects 0.000 description 12
- 230000007717 exclusion Effects 0.000 description 11
- 238000003491 array Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000004913 activation Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 239000000463 material Substances 0.000 description 6
- 238000003825 pressing Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 210000003128 head Anatomy 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 210000001124 body fluid Anatomy 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000036961 partial effect Effects 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 101100347655 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) NAB3 gene Proteins 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 210000003041 ligament Anatomy 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000399 orthopedic effect Effects 0.000 description 2
- 125000006850 spacer group Chemical group 0.000 description 2
- 239000003381 stabilizer Substances 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 210000002303 tibia Anatomy 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 206010002091 Anaesthesia Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000037005 anaesthesia Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000011540 hip replacement Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013152 interventional procedure Methods 0.000 description 1
- 238000013150 knee replacement Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000000386 microscopy Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000002432 robotic surgery Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000008733 trauma Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00207—Electrical control of surgical instruments with hand gesture control or hand gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/108—Computer aided selection or customisation of medical implants or cutting guides
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2059—Mechanical position encoders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/252—User interfaces for surgical systems indicating steps of a surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/08—Accessories or related features not otherwise provided for
- A61B2090/0807—Indication means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/363—Use of fiducial points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
- A61B2090/3764—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT] with a rotating C-arm having a cone beam emitting source
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Abstract
本申请涉及将手术工具与由扩展现实头戴装置的摄像机跟踪的参考阵列配准以用于手术期间的辅助导航。本发明公开了一种用于手术期间的计算机辅助导航的摄像机跟踪系统。所述摄像机跟踪系统被配置成标识由附接到扩展现实(XR)头戴装置的一组跟踪摄像机跟踪的参考阵列,并确定所述参考阵列是否被配准为与手术工具数据库中限定的多个手术工具中的一个的特性配对。所述摄像机跟踪系统进一步被配置成基于所述参考阵列被确定为未配准并接收用户输入,将所述参考阵列配准为与基于所述用户输入而选择的所述多个手术工具中的一个的特性配对。所述摄像机跟踪系统进一步被配置成向所述XR头戴装置的显示装置提供所述特性的表示以显示给用户。
Description
技术领域
本公开涉及医疗装置和系统,且更确切地说,涉及用于手术期间的计算机辅助导航的摄像机跟踪系统。
背景技术
手术期间的计算机辅助导航可以为外科医生提供手术工具的当前位姿相对于患者的解剖结构的医学图像的计算机化可视化。用于计算机辅助导航的摄像机跟踪系统通常使用一组摄像机来跟踪附接到手术工具上的一组基准点,所述一组基准点在手术期间由外科医生或其它用户定位。一组基准点,也称为动态参考阵列或动态参考库(DRB),允许摄像机跟踪系统确定手术工具相对于医学图像中的解剖结构以及相对于患者的位姿以显示给外科医生。外科医生可由此使用实时位姿反馈,以在手术过程期间对手术工具进行导航。
扩展现实(XR)头戴装置与摄像机跟踪系统结合使用,以使外科医生能够以覆盖在患者上的图形对象的方式查看实时位姿反馈。持续需要使戴着XR头戴装置的外科医生能够使用多种类型的手术工具,同时减少在工具选择上的误差,并减少手术过程期间外科医生注意力的中断。
发明内容
本文所公开的各个实施例涉及手术期间的计算机辅助导航的改进。XR头戴装置用于协助将手术工具的特性与由摄像机跟踪系统标识的参考阵列配准。可以将特性的表示显示到XR头戴装置上,以使用户能够确认配准过程的正确性。在配准过程中使用XR头戴装置可以为外科医生和其它医务人员(用户)提供更直观、省时和可靠的过程,以在手术过程之前和/或期间对手术工具与摄像机跟踪系统进行配准。
在一个实施例中,用于手术期间的计算机辅助导航的摄像机跟踪系统被配置成标识由附接到XR头戴装置的一组跟踪摄像机跟踪的参考阵列。摄像机跟踪系统确定参考阵列是否被配准为与手术工具数据库中限定的多个手术工具中的一个的特性配对。基于参考阵列被确定为未配准并接收用户输入,摄像机跟踪系统将参考阵列配准为与基于用户输入而选择的多个手术工具中的一个的特性配对。摄像机跟踪系统随后向XR头戴装置的显示装置提供特性的表示以显示给用户。
公开了摄像机跟踪系统的相关计算机程序产品和方法。
在审阅以下附图和详细描述之后,根据实施例的其它摄像机跟踪系统、计算机程序产品和方法对于本领域技术人员来说将是或变得显而易见的。预期所有此类摄像机跟踪系统、计算机程序产品和方法包含在本说明书中、在本公开的范围之内且受所附权利要求的保护。此外,预期本文中所公开的所有实施例可单独地实施或以任何方式和/或组合而组合。
附图说明
附图示出了发明概念的某些非限制性实施例,所述附图被包含在内以提供对本公开的进一步理解,并且结合在本申请内并构成本申请的一部分。在附图中:
图1示出了根据本公开的一些实施例的手术系统的实施例;
图2示出了根据本公开的一些实施例的图1的手术系统的手术机器人组件;
图3A示出了根据本公开的一些实施例的图1的手术系统的摄像机跟踪系统组件;
图3B和3C示出了根据本公开的一些实施例的可以与图1的手术系统一起使用的另一个摄像机跟踪系统组件的正视图和等距视图;
图4示出了可连接到机器人臂并且根据本公开的一些实施例配置的末端执行器的实施例;
图5示出了医疗操作,其中手术机器人和摄像机系统被安置在患者周围;
图6示出了用于医疗操作的图5的手术系统的组件的框图视图;
图7示出了在使用手术系统的导航功能时可以在图5和6的显示器上显示的各种显示屏;
图8示出了根据本公开的一些实施例的手术机器人的一些电组件的框图;
图9示出了根据本公开的一些实施例的手术系统的组件的框图,所述手术系统包含连接到可以操作性地连接到摄像机跟踪系统和/或手术机器人的计算机平台的成像装置;
图10示出了根据本公开的一些实施例的可以与手术机器人组合使用的C形臂成像装置的实施例;
图11示出了根据本公开的一些实施例的可以与手术机器人组合使用的O形臂成像装置的实施例;
图12示出了包含根据本公开的一些实施例进行操作的一对XR头戴装置和辅助跟踪杆的手术系统的组件的框图视图;
图13示出了根据本公开的一些实施例配置的XR头戴装置;
图14示出了根据本公开的一些实施例的可以操作性地连接到计算机平台、一或多个成像装置和/或手术机器人的XR头戴装置的电组件;
图15示出了示出根据本公开的一些实施例的XR头戴装置的光学组件的布置的框图;
图16示出了根据本公开的一些实施例的通过用于在医疗程序期间提供导航辅助以操纵手术工具的XR头戴装置的显示屏的示例视图;
图17示出了根据本公开的一些实施例配置的具有两对立体摄像机的辅助跟踪杆的示例性配置;
图18示出了包含根据本公开的一些实施例共同操作的一对XR头戴装置和辅助跟踪杆中的包含跟踪摄像机的手术系统的组件的框图视图;
图19示出了根据本公开的一些实施例当参考阵列被配准到手术工具以在手术期间在手术工具的计算机辅助导航中使用时由XR头戴装置显示的手术工具特性的图形表示;
图20示出了根据本公开的一些实施例的由摄像机跟踪系统执行以提供图19中的手术工具特性的图形表示的配准操作的流程图;
图21示出了根据本公开的一些实施例的由XR头戴装置显示的已配准的积极使用的手术工具的图形表示;
图22示出了根据本公开的一些实施例的由摄像机跟踪系统执行以提供图21中的已配准的积极使用的手术工具的图形表示的操作的流程图;
图23示出了根据本公开的一些实施例的当用户正查看手术工具时由XR头戴装置显示的用于配准的参考阵列的跟踪准确性信息的图形表示;
图24示出了根据本公开的一些实施例的由摄像机跟踪系统执行以提供图23中的跟踪准确性信息的图形表示的操作的流程图;
图25示出了根据本公开的一些实施例的由摄像机跟踪系统执行以根据参考阵列是否在相对于XR头戴装置限定的检测区域内来选择性地允许用户进行参考阵列的配准的操作的流程图;
图26示出了根据本公开的一些实施例的由摄像机跟踪系统执行以根据参考阵列是否在相对于XR头戴装置限定的检测区域内来选择性地显示与参考阵列配准的手术工具的特性的操作的流程图;
图27示出了根据本公开的一些实施例的通过具有显示为至少部分地重叠参考阵列的基准点的所标识的位姿的图形标记以及显示为至少部分地重叠缺失基准点的所估计的位姿的图形标记的XR头戴装置查看的手术工具;
图28示出了根据本公开的一些实施例的由摄像机跟踪系统执行以显示例如图27中展示的相对于所标识和缺失基准点的图形标记的操作的流程图;
图29示出了根据本公开的一些实施例的由摄像机跟踪系统执行以基于用户的手是否至少部分处于相对于参考阵列而确定的手-用户界面排除区域内来选择性地允许手势输入的接收的操作的流程图;以及
图30示出了根据本公开的一些实施例的相对于参考阵列而确定的手-用户界面排除区域。
具体实施方式
现将参考附图在下文中更全面地描述发明概念,在附图中示出了发明概念的实施例的示例。发明概念可以以许多不同的形式实施,并且不应该被解释为限于本文列出的实施例。而是这些实施例被提供为使得本公开更完全和完整,并且将各个本发明概念的范围完全地转达给所属领域技术人员。还应当注意,这些实施例并不相互排斥。一个实施例中的组件可以被默认为存在于或用于另一个实施例。
本文所公开的各个实施例涉及手术期间的计算机辅助导航的改进。一种扩展现实(XR)头戴装置可操作地连接到手术系统并且被配置成提供外科医生、助手和/或其它人员可以通过其查看患者图像并且在其中进行选择、查看计算机生成的手术导航信息并在其中进行选择和/或控制手术室中的手术设备的交互式环境。如下所述,XR头戴装置可以被配置成利用计算机生成的XR图像来增强真实世界场景。XR头戴装置可以被配置成通过在透视显示屏上显示计算机生成的XR图像来提供增强真实(AR)查看环境,所述透视显示屏允许来自真实世界场景的光穿过其中以供用户组合查看。可替换地,XR头戴装置可以被配置成通过在用户查看显示屏上的计算机生成的AR图像时防止或基本上防止来自真实世界场景的光被用户直接查看、来提供虚拟真实(VR)查看环境。XR头戴装置可被配置成提供AR和VR查看环境。在一个实施例中,AR观看环境和VR观看环境两者均由布置在透视显示屏与真实世界场景之间的具有显著不同的不透明度的侧向带提供,使得为与高不透明度带对齐的XR图像提供VR观看环境并为与低不透明度带对齐的XR图像提供AR观看环境。在另一个实施例中,AR观看环境和VR观看环境两者均通过可变地限制来自真实世界场景的光穿过透视显示屏以与用户观看的XR图像组合的量的不透明度滤光器的计算机可调整控制提供。因此,XR头戴装置也可以被称为AR头戴装置或VR头戴装置。
图1绘示了根据本公开的一些实施例的手术系统2的实施例。在执行矫形或其它手术过程之前,可以使用例如图10的C形臂成像装置104或图11的O形臂成像装置106,或从如计算机断层扫描(CT)图像或MRI的另一个医学成像装置、对患者的有计划的手术区进行三维(“3D”)图像扫描。可以在术前(例如,最常见的在程序前几周)或术中进行这种扫描。然而,可以根据手术系统2的各个实施例来使用任何已知的3D或2D图像扫描。图像扫描发送到与手术系统2通信的计算机平台,如手术系统900的计算机平台910(图9),所述手术系统可以包含摄像机跟踪系统组件6、手术机器人4(例如,图1中的机器人2)、成像装置(例如,C形臂104、O形臂106等)以及用于存储患者的图像扫描的图像数据库950。查看计算机平台910(图9)的显示装置上的一或多个图像扫描的外科医生产生限定要在对患者的解剖结构进行的手术过程期间使用的手术工具的目标位姿的手术计划。实例手术工具,也称为工具,可以包含但不限于钻孔机、螺丝刀、锯子、牵开器和如螺钉、间隔器、椎间融合装置、板、棒等的植入物。在一些实施例中,在显示装置上显示的3D图像扫描上规划限定目标平面的手术计划。
如本文所使用,术语“位姿”是指一个对象(例如,动态参考阵列、末端执行器、手术工具、解剖结构等)相对于另一对象和/或限定的坐标系的位置和/或旋转角度。因此,位姿可以仅基于一个对象相对于另一个对象和/或限定的坐标系的多维位置、仅基于所述对象相对于另一个对象和/或限定的坐标系的多维旋转角度或结合多维位置和多维旋转角度来限定。因此,术语“位姿”用于指位置、旋转角度或其组合。
图1的手术系统2可以在医疗程序期间通过例如供使用的保持工具、对齐工具、使用工具、引导工具和/或定位工具来辅助外科医生。在一些实施例中,手术系统2包含手术机器人4和摄像机跟踪系统组件6。将手术机器人4和摄像机跟踪系统组件6机械联接的能力可以允许手术系统2作为单个单元来操纵并移动,并且允许手术系统2在区域中具有小的占用空间,允许更容易的通过狭窄的通道和绕过转弯的移动,并且允许存储在较小的区域之内。
手术过程可以开始于手术系统2从医疗存储室移动到医疗程序室。可以通过门道、大厅和电梯操纵手术系统2以到达医疗程序室。在所述医疗程序室内,手术系统2可以在物理上分成两个单独且不同的系统(手术机器人4和摄像机跟踪系统组件6)。手术机器人4可以定位成在任何合适的位置邻近患者,以适当地辅助医务人员。摄像机跟踪系统组件6可以定位在患者的底部、在患者肩部或任何其它适合于跟踪手术机器人4和患者的轨道部分的当前位姿和位姿移动的位置。手术机器人4和摄像机跟踪系统组件6可以由机载电源供电和/或插入到外墙插座中。
手术机器人4可以用于通过在医疗程序期间保持和/或使用工具来辅助外科医生。为了适当地利用并保持工具,手术机器人4可以依靠多个马达、计算机和/或致动器来适当地起作用。如图1所示出的,机器人主体8可以充当其中多个马达、计算机和/或致动器可以固定在手术机器人4内的结构。机器人主体8还可以为机器人伸缩式支撑臂16提供支撑。机器人主体8的大小可以提供支撑附接组件的稳固平台,并且可以容纳、隐藏并保护可以操作附接组件的多个马达、计算机和/或致动器。
机器人底座10可以充当手术机器人4的下部支撑。在一些实施例中,机器人底座10可以支撑机器人主体8,并且可以将机器人主体8附接到多个动力轮12。这种与轮的附接可以允许机器人主体8在空间中有效地移动。机器人底座10可以沿机器人主体8的长度和宽度运行。机器人底座10可以是约两英寸到约10英寸高。机器人底座10可以覆盖、保护并支撑动力轮12。
在一些实施例中,如图1所示出的,至少一个动力轮12可以附接到机器人底座10。动力轮12可以在任何位置附接到机器人底座10。每个单独的动力轮12可以在任何方向上绕竖直轴线旋转。马达可以安置在动力轮12的上方、之内或邻近其安置。这种马达可以允许手术系统2操纵到任何位置,并且稳定和/或调平手术系统2。可以通过马达将位于动力轮12之内或邻近其的杆压入表面中。未示出的杆可以由任何合适的金属制成,以提升手术系统2。所述杆可以将动力轮10(其可以提升手术系统2)提升到调平或以其它方式固定手术系统2相对于患者的定向所需的任何高度。手术系统2的重量通过每个轮上的杆的小接触区域支撑,防止手术系统2在医疗程序期间移动。此刚性定位可以防止对象和/或人意外地移动手术系统2。
可以使用机器人轨道14促进移动手术系统2。机器人轨道14给人提供了在未抓住机器人主体8的情况下移动手术系统2的能力。如图1所示出的,机器人轨道14的长度可以和机器人主体8一样长、比机器人主体8短,和/或可以比机器人主体8更长。机器人轨道14可以进一步向机器人主体8提供保护,从而防止对象和/或医务人员接触、撞击或撞到机器人主体8。
机器人主体8可以为选择顺应性铰接式机器人臂提供支撑,在下文中被称为“SCARA”。由于机械臂的可重复性和紧凑性,在手术系统2内使用SCARA 24可能是有利的。SCARA的紧凑性可以在医疗程序内提供另外的空间,这可以允许医疗专业人员在没有过多杂乱和限制区域的情况下执行医疗程序。SCARA 24可以包括机器人伸缩式支撑件16、机器人支撑臂18和/或机器人臂20。机器人伸缩式支撑件16可以沿机器人主体8安置。如图1所示出的,机器人伸缩式支撑件16可以为SCARA 24和显示器34提供支撑。在一些实施例中,机器人伸缩式支撑件16可以在竖直方向上延伸并收缩。机器人伸缩式支撑件16的主体可以是被配置成支撑放在其上的应力和重量的任何宽度和/或高度。
在一些实施例中,医务人员可以通过由医务人员提交的命令来移动SCARA 24。如将在下面进一步详细解释的,命令可以源自在显示器34、平板计算机和/或XR头戴装置(例如,图9中的头戴装置920)上接收到的输入。XR头戴装置可以消除医务人员参考如显示器34或平板计算机等任何其它显示器的需要,这使得能够在没有显示器34和/或平板计算机的情况下配置SCARA 24。如将在下面进一步详细解释的,命令可以通过按压开关和/或按压多个开关来生成,和/或可以基于由XR头戴装置感测到的手势命令和/或语音命令来生成。
如图5中所示出的,激活组合件60可以包含开关和/或多个开关。激活组合件60可以是可操作的以向SCARA 24传输移动命令,从而允许操作者手动操纵SCARA 24。当按压开关或多个开关时,医务人员可以具有通过所应用的手部移动来移动SCARA 24的能力。可替代地或另外地,如将在下面进一步详细解释的,操作者可以通过由XR头戴装置感测到的手势命令和/或语音命令来控制SCARA 24的移动。另外地,当SCARA 24未接收到移动的命令时,SCARA 24可以锁定在适当的位置以防止由医务人员和/或其它对象意外移动。通过锁定在适当的位置,SCARA 24提供了稳固平台,通过所述稳固平台,末端执行器26可以在医疗程序期间引导手术工具。
机器人支撑臂18可以通过各种机构连接到机器人伸缩式支撑件16。在一些实施例中,最佳参见图1和2,机器人支撑臂18相对于机器人伸缩式支撑件16在任何方向上旋转。机器人支撑臂18可以围绕机器人伸缩式支撑件16旋转三百六十度。机器人臂20可以在任何合适的位置并通过使得能够相对于机器人支撑臂18在任何方向上旋转的各种机构连接到机器人支撑臂18。在一个实施例中,机器人臂20可相对于机器人支撑臂18旋转三百六十度。这种自由旋转允许操作者根据手术计划对机器人臂20进行定位。
图4和5中的末端执行器26以在任何合适的位置附接到机器人臂20。末端执行器26被配置成附接到由手术机器人4定位的机器人臂20的末端执行器联接器22。实例末端执行器26包含引导插入式手术工具相对于要被执行手术过程的解剖结构的移动的管状引导件。
在一些实施例中,动态参考阵列52附接到末端执行器26。动态参考阵列(在本文中也称为“DRA”和“参考阵列”)可以是刚体、可附接或形成于由手术室中的人员佩戴的一或多个XR头戴装置上的标示物或其它标记、末端执行器、手术机器人、导航手术过程中的手术工具和患者的解剖结构(例如骨头)。计算机平台910与摄像机跟踪系统组件6或其它3D定位系统的组合被配置成实时跟踪DRA的位姿(例如,位置和旋转定向)。DRA可以包含基准点,如球的所示出布置。对DRA的3D坐标的这种跟踪可以允许手术系统2确定DRA在相对于图5中的患者50的目标解剖结构的任何多维空间中的位姿。
如图1所示出的,光指示器28可以定位于SCARA 24的顶部。光指示器28可以作为任何类型的光点亮,以指示其中手术系统2当前操作的“状况”。在一些实施例中,光可以由LED灯产生,所述灯可以围绕光指示器28形成环。光指示器28可以包括可以让光透过整个光指示器28的完全可渗透材料。光指示器28可以附接到下部显示器支撑件30。如图2所示出的,下部显示器支撑件30可以允许操作者操纵显示器34到任何合适的位置。下部显示器支撑件30可以通过任何合适的机构附接到光指示器28。在一些实施例中,下部显示器支撑件30可以绕光指示器28旋转或刚性附接到所述光指示器。上部显示器支撑件32可以通过任何合适的机构附接到下部显示器支撑件30。
在一些实施例中,平板计算机可以与显示器34结合使用和/或在没有显示器34的情况下使用。平板计算机可以安置在上部显示器支撑件32上以代替显示器34,并且可以能够在医疗操作期间从上部显示器支撑件32移除。另外,平板计算机可以与显示器34通信。平板计算机能够通过任何合适的无线和/或有线连接连接到手术机器人4。在一些实施例中,平板计算机能够在医疗操作期间对手术系统2进行编程和/或控制。当用平板计算机控制手术系统2时,所有输入和输出命令都可以在显示器34上复制。使用平板计算机可以允许操作者操纵手术机器人4,而不必围绕患者50和/或手术机器人4移动。
如下面将解释的,在一些实施例中,外科医生和/或其它人员可以佩戴可以与显示器34和/或平板计算机结合使用的XR头戴装置,或者一或多个XR头戴装置可以消除使用显示器34和/或平板计算机的需要。
如图3A和5所示出的,摄像机跟踪系统组件6通过有线或无线通信网络与手术机器人4组合工作。参考图1、3和5,摄像机跟踪系统组件6可以包含与手术机器人4类似的一些组件。例如,摄像机主体36可以提供在机器人主体8中发现的功能。机器人主体8可以提供摄像机46安装在其上的辅助跟踪杆。机器人主体8内的结构还可以为用于操作摄像机跟踪系统组件6的电子设备、通信装置和电源提供支撑。摄像机主体36可以由与机器人主体8相同的材料制成。摄像机跟踪系统组件6可以通过无线和/或有线网络与XR头戴装置、平板计算机和/或显示器34直接通信,以使得XR头戴装置、平板计算机和/或显示器34能够控制摄像机跟踪系统组件6的功能。
摄像机主体36由摄像机底座38支撑。摄像机底座38可以用作机器人底座10。在图1的实施例中,摄像机底座38可以比机器人底座10宽。摄像机底座38的宽度可以允许摄像机跟踪系统组件6与手术机器人4连接。如图1所示出的,摄像机底座38的宽度可以足够大以适合机器人底座10的外部。当摄像机跟踪系统组件6与手术机器人4连接时,摄像机底座38的另外的宽度可以允许手术系统2为手术系统2提供另外的可操作性和支撑。
如同机器人底座10,多个动力轮12可以附接到摄像机底座38。类似于机器人底座10和动力轮12的操作,动力轮12可以允许摄像机跟踪系统组件6相对于患者50稳定和调平或设置固定定向。这种稳定可以防止摄像机跟踪系统组件6在医疗程序期间移动,并且可以防止辅助跟踪杆上的摄像机46失去对连接到XR头戴装置和/或手术机器人4的DRA的跟踪和/或失去对连接到如图3A和5所示出的指定区56内的解剖结构54和/或工具58的一或多个DRA 52的跟踪。跟踪的这种稳定性和维护增强了手术机器人4与摄像机跟踪系统组件6一起有效操作的能力。另外地,宽摄像机底座38可以为摄像机跟踪系统组件6提供另外的支撑。具体地,如图3A和5所示出的,当摄像机46安置在患者之上时,宽摄像机底座38可以防止摄像机跟踪系统组件6倾翻。
摄像机伸缩式支撑件40可以支撑辅助跟踪杆上的摄像机46。在一些实施例中,伸缩式支撑件40可以在竖直方向上将摄像机46向更高或更低处移动。摄像机手柄48可以在任何合适的位置附接到摄像机伸缩式支撑件40,并且被配置成允许操作者在医疗操作之前将摄像机跟踪系统组件6移动到计划的位置。在一些实施例中,摄像机手柄48可以用于降低和升高摄像机伸缩式支撑件40。摄像机手柄48可以通过按压按钮、开关、杠杆和/或其任何组合来执行摄像机伸缩式支撑件40的升高和降低。
下部摄像机支撑臂42可以在任何合适的位置附接到摄像机伸缩式支撑件40,在实施例中,如图1所示出的,下部摄像机支撑臂42可以围绕伸缩式支撑件40旋转三百六十度。这种自由旋转可以允许操作者将摄像机46定位在任何合适的位置。下部摄像机支撑臂42可以通过任何合适的机构连接到伸缩式支撑件40。下部摄像机支撑臂42可以用于为摄像机46提供支撑。摄像机46可以通过任何合适的机构附接到下部摄像机支撑臂42。摄像机46可以在摄像机46与下部摄像机支撑臂42之间的附接区域在任何方向上枢转。在实施例中,弯曲轨道44可以安置在下部摄像机支撑臂42上。
弯曲轨道44可以安置在下部摄像机支撑臂42上的任何合适的位置。如图3A所示出的,弯曲轨道44可以通过任何合适的机构附接到下部摄像机支撑臂42。弯曲轨道44可以是任何合适的形状,合适的形状可以是新月形、圆形、扁形、椭圆形和/或其任何组合。摄像机46可以沿弯曲轨道44可移动地安置。摄像机46可以通过例如辊、支架、支具、马达和/或其任何组合附接到弯曲轨道44。未示出的马达和辊可以用于沿弯曲轨道44移动摄像机46。如图3A所示出的,在医疗程序期间,如果对象阻止摄像机46观察所跟踪的一或多个DRA,则马达可以响应地沿弯曲轨道44移动摄像机46。这种机动化移动可以允许摄像机46在没有移动摄像机跟踪系统组件6的情况下移动到不再被对象阻碍的新位置。当阻碍到摄像机46观察一或多个所跟踪DRA时,摄像机跟踪系统组件6可以向手术机器人4、XR头戴装置、显示器34和/或平板计算机发送停止信号。停止信号可以阻止SCARA 24移动,直到摄像机46已经重新获取所跟踪的DRA 52和/或可以警告操作者佩戴XR头戴装置和/或观看显示器34和/或平板计算机为止。这个SCARA 24可以被配置成通过停止底座和/或末端执行器联接器22的进一步移动直到所述摄像机跟踪系统可以重新开始对DRA的跟踪为止来对停止信号的接收作出响应。
图3B和3C示出了可以与图1的手术系统一起使用或可以独立于手术机器人使用的另一个摄像机跟踪系统组件6'的正视图和等距视图。例如,摄像机跟踪系统组件6'可以用于在不使用机器人引导的情况下提供被导航手术。图3B和3C的摄像机跟踪系统组件6'与图3A的摄像机跟踪系统组件6之间的区别之一是图3B和3C的摄像机跟踪系统组件6'包含用于运输计算机平台910的壳体。计算机平台910可以被配置成:执行摄像机跟踪操作以跟踪DRA;执行向显示装置(例如,XR头戴装置和/或其它显示装置)提供手术导航信息的被导航手术操作;并且执行本文所公开的其它计算操作。因此,计算机平台910可以包含导航计算机,如图14的导航计算机中的一或多个导航计算机。
图6绘示了用于医疗操作的图5的手术系统的组件的框图视图。参考图6,辅助跟踪杆上的跟踪摄像机46具有在其中对附接到患者的参考阵列602、附接到手术器械的参考阵列604和机器人臂20的位姿(例如,位置和定向)进行跟踪的导航视野600。跟踪摄像机46可以是包含被配置成执行下面描述的操作的计算机平台910的图3B和图3C的摄像机跟踪系统组件6'的一部分。参考阵列通过以已知模式反射光来实现跟踪,所述已知模式被手术机器人4的跟踪子系统解码以确定所述参考阵列的相应位姿。如果患者参考阵列602与辅助跟踪杆上的跟踪摄像机46之间的视线被阻挡(例如,由医务人员、器械等),则可能无法对手术器械进行进一步导航,并且响应式通知可以暂时停止机器人臂20和手术机器人4的进一步移动、在显示器34上显示警告,和/或向医务人员提供听觉警告。显示器34可供外科医生610和助手612使用,但是查看需要将头转动远离患者并将眼焦点改变到不同的距离和位置。导航软件可以由技术人员614基于来自外科医生的声音指令来控制。
图7示出了在使用手术系统2的导航功能时可以通过手术机器人4在图5和6的显示器34上显示的各种显示屏。显示屏可以包含但不限于具有基于开发的手术计划和/或基于所跟踪的参考阵列的位姿相对于解剖结构定位在显示屏中的器械模型的覆盖图形表示的患者射线照片、用于控制手术过程的不同阶段以及虚拟投射的植入物的尺寸参数(例如,长度、宽度和/或直径)的各种用户可选择菜单。
对于被导航手术,提供了下面描述的使得能够对手术过程(例如,植入物放置)进行术前计划以及将计划电子传递到计算机平台910以在计划的手术过程期间向一或多个用户提供导航信息的各种处理组件(例如,计算机平台910)和相关联软件。
对于机器人导航,提供了下面描述的使得能够对手术过程(例如,植入物放置)进行术前计划以及将计划电子传递到手术机器人4的各种处理组件(例如,计算机平台910)和相关联软件。手术机器人4使用计划来引导机器人臂20和连接的末端执行器26,以针对计划的手术过程的步骤提供手术工具相对于患者解剖结构的目标位姿。
下面的各个实施例涉及使用可以由外科医生610、助手612和/或其它医务人员佩戴的一或多个XR头戴装置以提供用于从手术机器人、摄像机跟踪系统组件6/6'和/或手术室中的其它医疗设备接收信息和/或向其提供控制命令的改进的用户界面。
图8示出了根据本公开的一些实施例的手术机器人4的一些电组件的框图。参考图8,测力传感器(load cell,未示出)可以被配置成跟踪施加到末端执行器联接器22的力。在一些实施例中,测力传感器可以与多个马达850、851、852、853和/或854通信。当测力传感器感测到力时,关于所施加的力的量的信息可以从开关阵列和/或多个开关阵列分布到控制器846。控制器846可以从测力传感器获取力信息,并且用开关算法对其进行处理。控制器846使用开关算法来控制马达驱动器842。马达驱动器842控制一或多个马达850、851、852、853和/或854的操作。马达驱动器842可以指导特定马达产生例如由测力传感器通过马达测得的等量的力。在一些实施例中,如控制器846所指示的,所产生的力可以来自多个马达,例如850-854。另外地,马达驱动器842可以从控制器846接收输入。控制器846可以从测力传感器接收关于由测力传感器感测到的力的方向的信息。控制器846可以使用运动控制器算法来处理这个信息。所述算法可以用于向特定马达驱动器842提供信息。为了复制力的方向,控制器846可以激活和/或去激活某些马达驱动器842。控制器846可以控制一或多个马达,例如850-854中的一或多个,以诱导末端执行器26在由测力传感器感测的力的方向上的运动。这种力控制的运动可以允许操作者毫不费力地和/或以非常小的阻力移动SCARA 24和末端执行器26。可以执行末端执行器26的移动,以将末端执行器26以任何合适的位姿定位(即,相对于限定的三维(3D)正交参考轴线的位置和角度定向),以供医务人员使用。
图5最佳示出的,激活组合件60可以缠绕末端执行器联接器22的手镯的形式。激活组合件60可以定位于SCARA 24的任何部分、末端执行器联接器22的任何部分上,可以由医务人员佩戴(并且无线通信),和/或其任何组合。激活组合件60可以包括主按钮和次按钮。
按压主按钮可以允许操作者移动SCARA 24和末端执行器联接器22。根据一个实施例,一旦设置在适当位置,SCARA 24和末端执行器联接器22可以不移动直到操作者对手术机器人4进行编程以移动SCARA 24和末端执行器联接器22为止,或使用主按钮来移动。在一些实例中,可能需要在SCARA24和末端执行器联接器22将对操作者命令作出响应之前按压至少两个不相邻的主激活开关。按压至少两个主激活开关可以防止SCARA 24和末端执行器联接器22在医疗程序期间的意外移动。
由主按钮激活,测力传感器可以测量由操作者(即,医务人员)施加在末端执行器联接器22上的力的量值和/或方向。这个信息可以传递到SCARA24内的可以用于移动SCARA24和末端执行器联接器22的一或多个马达,例如850-854中的一或多个。关于由测力传感器测得的力的量值和方向的信息可以使一或多个马达(例如,850-854中的一或多个)在与由测力传感器感测到的同一方向上移动SCARA 24和末端执行器联接器22。这种力控制的移动可以允许操作者容易地移动SCARA 24和末端执行器联接器22,并且由于在操作者移动SCARA 24和末端执行器联接器22的同时马达移动SCARA 24和末端执行器联接器22,所以不需要大量的努力。
在一些实例中,操作者可以将次按钮用作“选择”装置。在医疗操作期间,手术机器人4可以通过一或多个XR头戴装置920、显示器34和/或光指示器28通知医务人员某些情况。一或多个XR头戴装置920各自被配置成将图像显示于透视显示屏上,以形成覆盖在通过透视显示屏可观看的真实世界对象上的扩展现实图像。手术机器人4可以提示医务人员选择功能、模式和/或评估手术系统2的情况。按压次按钮单次可以激活某些功能、模式和/或确认通过一或多个XR头戴装置920、显示器34和/或光指示器28传送给医务人员的信息。另外地,快速连续地按压次按钮多次可以激活另外的功能、模式和/或选择通过一或多个XR头戴装置920、显示器34和/或光指示器28传送给医务人员的信息。
进一步参考图8,手术机器人4的电组件包含平台子系统802、计算机子系统820、运动控制子系统840和跟踪子系统830。平台子系统802包含电池806、配电模块804、连接器面板808和充电站810。计算机子系统820包含计算机822、显示器824和扬声器826。运动控制子系统840包含驱动电路842、马达850、851、852、853、854、稳定器855、856、857、858、末端执行器连接器844和控制器846。跟踪子系统830包含位置传感器832和摄像机转换器834。手术机器人4还可以包含可移除脚踏板880和可移除平板计算机890。
输入功率通过可以提供给配电模块804的电源供应给手术机器人4。配电模块804接收输入功率,并且被配置成生成提供给手术机器人4的其它模块、组件和子系统的不同的电源电压。配电模块804可以被配置成向连接器面板808提供不同的电压供应,所述电压供应可以提供给其它组件(如计算机822、显示器824、扬声器826、驱动器842)以例如给马达850-854和末端执行器联接器844供电,并且提供给摄像机转换器834和用于手术机器人4的其它组件。配电模块804还可以连接到电池806,所述电池在配电模块804未从输入电源接收电力的情况下充当临时电源。在其它时间,配电模块804可以用于给电池806充电。
连接器面板808可以用于将不同的装置和组件连接到手术机器人4和/或相关联组件和模块。连接器面板808可以含有从不同组件接收线路或连接件的一或多个端口。例如,连接器面板808可以具有将手术机器人4接地到其它设备的接地端端口、用于连接脚踏板880的端口、用于连接到跟踪子系统830的端口,所述跟踪子系统可以包含位置传感器832、摄像机转换器834和DRA跟踪摄像机870。连接器面板808还可以包含其它端口,以允许与其它组件(如计算机822)的USB、以太网、HDMI通信。根据一些实施例,连接器面板808可以包含有线和/或无线接口以用于将一或多个XR头戴装置920可操作地连接到跟踪子系统830和/或计算机子系统820。
控制面板816可以提供控制手术机器人4的操作和/或提供来自手术机器人4的信息以供操作者观察的各种按钮或指示器。例如,控制面板816可以包含用于打开或关闭手术机器人4、提升或降低竖直柱16以及提升或降低稳定器855-858的按钮,所述稳定器可以被设计成接合脚轮12以锁定手术机器人4而不物理上移动。其它按钮可以在发生紧急情况时停止手术机器人4,这可以移除所有马达功率并应用机械制动器来停止所有运动发生。控制面板816还可以具有通知操作者某些系统情况的指示器(如线路功率指示器)或电池806的充电状态。根据一些实施例,一或多个XR头戴装置920可以例如通过连接器面板808进行通信,以控制手术机器人4的操作和/或接收并显示由手术机器人4生成的信息以供佩戴XR头戴装置920的人员观察。
计算机子系统820的计算机822包含用于操作手术机器人4的指定功能的操作系统和软件。计算机822可以接收并处理来自其它组件(例如,跟踪子系统830、平台子系统802和/或运动控制子系统840)的信息,以便向操作者显示信息。进一步地,计算机子系统820可以通过扬声器826为操作者提供输出。扬声器可以是所述手术机器人的一部分、XR头戴装置920的一部分,或在手术系统2的另一个组件内。显示器824可以对应于图1和2所示出的显示器34。
跟踪子系统830可以包含位置传感器832和摄像机转换器834。跟踪子系统830可以对应于图3的摄像机跟踪系统组件6。DRA跟踪摄像机870与位置传感器832一起操作,以确定DRA 52的位姿。可以与本公开一致的方式进行此跟踪,所述跟踪包含使用分别跟踪DRA 52(如LED或反射基准点(也称为标示物))的有源元件或无源元件的位置的红外光或可见光技术。
跟踪子系统830和计算机子系统820的功能操作可以包含在可以由图3A和3B的摄像机跟踪系统组件6'传输的计算机平台910中。跟踪子系统830可以被配置成确定位姿,例如所跟踪的DRA的位置和角度定向。计算机平台910还可以包含导航控制器,所述导航控制器被配置成使用所确定的位姿来向用户提供引导它们在计划的手术过程期间相对于定位配准的患者图像和/或所跟踪的解剖结构移动所跟踪的工具的导航信息。计算机平台910可以在图3B和3C的显示器上和/或向一或多个XR头戴装置920显示信息。当与手术机器人一起使用时,计算机平台910可以被配置成与计算机子系统820和图8的其它子系统通信以控制末端执行器26的移动。例如,如下面将解释的,计算机平台910可以生成患者的解剖结构、手术工具、用户的手等的图形表示,其具有基于一或多个所跟踪的DRA的所确定的位姿进行控制的所显示的大小、形状、颜色和/或位姿,并且所显示的图形表示可以被动态修改以跟踪所确定的位姿随时间的变化。
运动控制子系统840可以被配置成物理地移动竖直柱16、上部臂18、下部臂20,或旋转末端执行器联接器22。可以通过使用一或多个马达850-854来进行物理移动。例如,马达850可以被配置成竖直提升或降低竖直柱16。如图2所示出的,马达851可以被配置成围绕与竖直柱16的接合点侧向移动上部臂18。如图2所示出的,马达852可以被配置成围绕与上部臂18的接合点侧向移动下部臂20。马达853和854可以被配置成移动末端执行器联接器22,以提供沿三维轴线的平移移动和围绕其的旋转。图9所示出的计算机平台910可以向控制器846提供引导末端执行器联接器22的移动的控制输入,以相对于在计划的手术过程期间要对其进行操作的解剖结构以计划的位姿(即,相对于限定的3D正交参考轴线的位置和角度定向)定位连接到其的被动末端执行器。运动控制子系统840可以被配置成使用集成的位置传感器(例如,编码器)来测量末端执行器联接器22和/或末端执行器26的位置。
图9示出了根据本公开的一些实施例的手术系统的组件的框图,所述手术系统包含连接到可以操作性地连接到摄像机跟踪系统组件6(图3A)或6'(图3B、3C)和/或手术机器人4的计算机平台910的成像装置(例如,C形臂104、O形臂106等)。可替代地,本文所公开的由计算机平台910执行的至少一些操作可以另外地或可替代地由手术系统的组件来执行。
参考图9,计算机平台910包含显示器912、至少一个处理器电路914(为简洁起见也被称为处理器)、含有计算机可读程序代码918的至少一个存储器电路916(为简洁起见也被称为存储器)和至少一个网络接口902(为简洁起见也被称为网络接口)。显示器912可以是根据本公开的一些实施例的XR头戴装置920的一部分。网络接口902可以被配置成连接到图10中的C形臂成像装置104、图11中的O形臂成像装置106、另一个医学成像装置、含有患者医学图像的图像数据库950、手术机器人4的组件和/或其它电子设备。
当与手术机器人4一起使用时,显示器912可以对应于图2的显示器34和/或图8的平板计算机890和/或可操作地连接到手术机器人4的XR头戴装置920,网络接口902可以对应于图8的平台网络接口812,并且处理器914可以对应于图8的计算机822。XR头戴装置920的网络接口902可以被配置成根据一种或多种无线通信协议(例如,WLAN、3GPP 4G和/或5G(新无线电)蜂窝通信标准等)通过有线网络(例如,细线以太网)和/或通过无线RF收发器链路进行通信。
处理器914可以包含一或多个数据处理电路,如通用和/或专用处理器,例如微处理器和/或数字信号处理器。处理器914被配置成执行存储器916中的计算机可读程序代码918以执行操作,所述操作可以包含本文中描述为针对手术计划、被导航手术和/或机器人手术执行的操作中的一些或所有操作。
计算机平台910可以被配置成提供手术计划功能。处理器914可以操作以在显示装置912上和/或XR头戴装置920上显示通过网络接口920从成像装置104和106之一和/或从图像数据库950接收的解剖结构(例如,椎骨)的图像。处理器914接收操作者对在一或多个图像中示出的解剖结构要进行手术过程(例如,螺钉放置)的位置的限定,如通过操作者触摸选择显示器912上用于计划的手术过程的位置或使用基于鼠标的光标来限定用于计划的手术过程的位置。如将在下面进一步详细解释的,当在XR头戴装置920中显示图像时,所述XR头戴装置可以被配置成感测由佩戴者形成的基于手势的命令和/或感测由佩戴者说出的基于语音的命令,所述命令可以用于控制菜单项之间的选择和/或控制如何在XR头戴装置920上显示对象。
计算机平台910可以被配置成能够进行对膝关节手术可能特别有用的解剖测量,类似于对确定臀部中心、角度中心、天然标志(例如,股骨通髁线(transepicondylarline)、白侧线(Whitesides line)、股骨后髁线(posterior condylar line)等)等的各个角度的测量。一些测量可以是自动的,而一些其它测量可以涉及人为输入或辅助。计算机平台910可以被配置成允许操作者输入对患者来说正确的植入物的选择,包含大小和对齐的选择。计算机平台910可以被配置成对CT图像或其它医学图像进行自动或半自动(涉及人为输入)分割(图像处理)。患者的手术计划可以存储在可以对应于数据库950的基于云的服务器中,以供手术机器人4检索。
例如,在矫形手术期间,外科医生可以通过例如XR头戴装置920使用计算机屏幕(例如,触摸屏)或扩展现实(XR)交互(例如,基于手势的命令和/或基于语音的命令)来选择要进行切割的部位(例如,后股骨、胫骨近端等)。计算机平台910可以生成向外科医生提供视觉引导以执行手术过程的导航信息。当与手术机器人4一起使用时,计算机平台910可以提供允许手术机器人4自动将末端执行器26移动到目标位姿使得手术工具与目标位置对齐以对解剖结构进行手术过程的引导。
在一些实施例中,手术系统900可以使用两个DRA来跟踪患者解剖位置,如连接到患者胫骨的DRA和连接到患者股骨的DRA。系统900可以使用标准被导航器械以进行配准和检查(例如,类似于Globus ExcelsiusGPS系统中用于进行脊柱手术的指针的指针)。
导航手术中的特别具有挑战性的任务是如何计划植入物在脊柱、膝盖和其它解剖结构中的位置,在所述位置处,外科医生努力在计算机屏幕上执行所述任务,其是3D解剖结构的2D表示。系统900可以通过使用XR头戴装置920来显示解剖结构和候选植入装置的三维(3D)计算机生成的表示来解决这个问题。在计算机平台910的引导下,计算机生成的表示相对于彼此在显示屏上缩放并摆位姿,并且可以由外科医生在通过XR头戴装置920进行查看时对其进行操纵。外科医生可以例如使用由XR头戴装置920感测到的基于手势的命令和/或基于语音的命令来操纵解剖结构、植入物、手术工具等的所显示的计算机生成的表示。
例如,外科医生可以观看虚拟植入物上的所显示的虚拟手柄,并且可以操纵(例如,抓握和移动)虚拟手柄以将虚拟植入物移动到期望的位姿并且相对于解剖结构的图形表示调整计划的植入物放置。之后,在手术期间,计算机平台910可以通过XR头戴装置920显示有助于外科医生更加准确地遵循手术计划来插入植入物和/或对解剖结构进行另一个手术过程的能力的导航信息。当手术过程涉及骨骼移除时,骨骼移除的进展(例如,切割深度)可以通过XR头戴装置920实时显示。可以通过XR头戴装置920显示的其它特征可以包含但不限于沿关节运动范围的间隙或韧带平衡、植入物上的沿关节运动范围的接触线、通过颜色或其它图形渲染的韧带张力和/或松弛度等。
在一些实施例中,计算机平台910可以允许计划标准手术工具和/或植入物的使用,例如后稳定型植入物和十字状保留型植入物、骨水泥型和非骨水泥型植入物、用于与例如全膝关节或部分膝关节和/或髋关节置换和/或创伤相关的手术的修正系统。
自动成像系统可以与计算机平台910结合使用,以获取解剖结构的术前、术中、术后和/或实时图像数据。图10和11示出了示例自动成像系统。在一些实施例中,自动成像系统是C形臂104(图10)成像装置或O形臂106(图11)。(在美国科罗拉多州路易斯维尔设有营业地点的美敦力导航公司(Medtronic Navigation,Inc.)拥有O形臂的版权)。可能期望从许多不同的位置对患者进行x射线检查,而不需要频繁地对患者进行手动重新定位,这在x射线系统中是可能需要的。C形臂104x射线诊断设备可以解决频繁手动重新定位的问题,并且在手术和其它介入手术的医学领域中是众所周知的。如图10所示出的,C形臂包含终止于“C”形的相对远端112的细长C形构件。C形构件附接到x射线源114和图像接收器116。臂的C形臂104内的空间为医生照顾患者提供了基本上不受x射线支撑结构的干扰空间。
将C形臂安装成使得臂能够在两个自由度上旋转移动(即,在球形运动中围绕两个垂直轴线)。C形臂可滑动地安装到x射线支撑结构上,这允许C形臂围绕其曲率中心进行轨道旋转移动,这可以允许x射线源114和图像接收器116选择性的竖直和/或水平定向。C形臂还可以是侧向上可旋转的(即,在相对于轨道运行方向的垂直方向上,以使得能够相对于患者的宽度和长度选择性地调整x射线源114和图像接收器116的定位)。C形臂设备的球形旋转方面允许医生以相对于被成像的特定解剖条件确定的最佳角度对患者进行x射线检查。
图11中示出的O形臂106包含台架壳体124,其可以包围未示出的图像捕获部分。图像捕获部分包含x射线源部分和/或x射线发射部分以及x射线接收部分和/或图像接收部分,所述部分可以彼此相距约一百八十度安置,并且相对于图像捕获部分的轨道安装在转子(未示出)上。图像捕获部分可以在图像采集期间操作性地旋转三百六十度。图像捕获部分可以绕中心点和/或轴线旋转,从而允许从多个方向或在多个平面中获取患者的图像数据。
带有台架壳体124的O形臂106具有用于围绕要成像的对象定位的中心开口、可围绕台架壳体124的内部旋转的辐射源,所述辐射源可以适于从多个不同的投射角度投射辐射。检测器系统适于检测每个投射角度下的辐射,从而以准同时的方式从多个投射平面获取对象图像。台架可以以悬臂方式附接到支撑结构O形臂支撑结构,如带有轮子的轮式移动推车。定位单元优选地在计算机化运动控制系统的控制下将台架平移和/或倾斜到计划的位置和定向。台架可以包含在台架上彼此相对安置的源和检测器。可以将源和检测器固定到机动转子上,所述机动转子可以使源和检测器围绕台架的内部彼此组合旋转。可以在部分和/或完整的三百六十度旋转中在多个位置和定向上对源进行脉冲化,以对定位于台架内部的目标对象进行多平面成像。台架可以进一步包括用于在转子旋转时引导转子的轨道和轴承系统,所述轨道和轴承系统可以承载源和检测器。O形臂106和C形臂104两者和/或其中之一可以用作自动成像系统,以扫描患者并将信息发送到手术系统2。
由成像系统捕获到的图像可以显示于XR头戴装置920和/或手术系统900的计算机平台910、手术机器人4和/或另一个组件的另一个显示装置上。XR头戴装置920可以例如通过计算机平台910连接到成像装置104和/或106中的一或多个成像装置和/或图像数据库950,以从其中显示图像。用户可通过XR头戴装置920提供控制输入,例如,基于手势和/或语音的命令以控制成像装置104和/或106中的一或多个成像装置和/或图像数据库950的操作。
图12示出了包含一对XR头戴装置920(头戴式显示器HMD1和HMD2)的手术系统的组件的框图视图,所述XR头戴装置可对应于图13中展示的XR头戴装置920并根据本公开的一些实施例进行操作。
参考图12的实例情境,助手612和外科医生610两者分别佩戴XR头戴装置920。助手612任选地佩戴XR头戴装置920。如下文将进一步描述,XR头戴装置920被配置成向佩戴者提供可以通过其观看与手术过程有关的信息并与所述信息交互的交互式环境。此基于交互式XR的环境可消除对在手术室中存在图6中展示的技术人员614的需要,且可消除对使用图6中展示的显示器34的需要。每一XR头戴装置920可以包含被配置成提供跟踪DRA或附接到手术工具、患者的解剖结构、末端执行器26和/或其它设备的其它参考阵列的另外的源的一或多个摄像机。在图12的实例中,XR头戴装置920具有用于跟踪DRA和其它对象的视野(FOV)1202,XR头戴装置920具有用于跟踪DRA和其它对象的与FOV 1202部分重叠的FOV 1212,且跟踪摄像机46具有用于跟踪DRA和其它对象的与FOV 1202和1212部分重叠的另一FOV 600。
如果一或多个摄像机受阻于查看附接到所跟踪对象(例如,手术工具)的DRA,但DRA在一或多个其它摄像机的视图中,则跟踪子系统830和/或导航控制器828可以继续无缝地跟踪对象,而不会失去导航。另外,如果从一台摄像机的视角来看DRA被部分遮挡,但整个DRA通过多个摄像机源可见,则可以合并摄像机的跟踪输入以继续对DRA进行导航。XR头戴装置中的一个和/或跟踪摄像机46可查看和跟踪另一XR头戴装置上的DRA以使计算机平台910(图9和图14)、跟踪子系统830和/或另一计算组件能够确定例如XR头戴装置920、跟踪摄像机46的DRA相对于一或多个限定的坐标系和/或限定用于患者、桌子和/或房间的另一坐标系的位姿。
XR头戴装置920可以可操作的方式连接以查看视频、图片和/或其它所接收信息和/或提供控制手术室中的各种设备的命令,包含但不限于神经监测、显微镜、摄像机和麻醉系统。可在头戴装置内处理且显示来自各种设备的数据,例如显示患者的生命体征或显微镜馈送。
示例XR头戴装置组件以及与被导航手术、手术机器人和其它设备的集成
图13示出了根据本公开的一些实施例配置的XR头戴装置920。XR头戴装置包含被配置成将XR头戴装置固定到佩戴者的头部的头带1306、由头带1306支撑的电子组件外壳1304和跨电子组件外壳1304侧向延伸并从其向下延伸的显示屏1302。显示屏1302可以是透视LCD显示装置或将由显示装置投射的图像朝佩戴者的眼睛反射的半反射透镜。一组DRA基准点1310(例如点)以间隔开的已知方式喷涂或附接到头戴装置的一侧或两侧上。头戴装置上的DRA使辅助跟踪杆上的跟踪摄像机能够跟踪头戴装置920的位姿和/或使另一XR头戴装置能够跟踪头戴装置920的位姿。
显示屏1302作为将来自显示装置的显示面板的光定向用户的眼睛反射的透视显示屏(也被称为组合器)进行操作。显示面板可以定位于电子组件外壳与用户的头部之间,并且成一定角度以将虚拟内容定向显示屏1302投射以定向用户的眼睛反射。显示屏1302是半透明和半反射的,从而允许用户看到覆盖在真实世界场景的用户视图上的所反射的虚拟内容。显示屏1302可以具有不同的不透明度区域,如所示出的其不透明度比下部横向带高的上部侧向带。显示屏1302的不透明度可以被电控以调节来自真实世界场景的光穿过到达用户的眼睛的量。显示屏1302的高不透明度配置使得高对比度虚拟图像覆盖在真实世界场景的昏暗视图上。显示屏1302的低不透明度配置可以使得更模糊的虚拟图像覆盖在真实世界场景的较清楚视图上。可通过在显示屏1302的表面上涂敷不透明材料来控制不透明度。
根据一些实施例,手术系统包含XR头戴装置920和XR头戴装置控制器,例如图14中的控制器1430。XR头戴装置920被配置成在手术过程期间由用户佩戴且具有透视显示屏1302,所述透视显示屏被配置成显示XR图像且允许真实世界场景的至少一部分穿过其中以供用户查看。XR头戴装置920还包含不透明度滤光器,所述不透明度滤光器在透视显示屏1302由用户进行观看时定位于用户的眼睛中的至少一只眼睛与真实世界场景之间。所述不透明度滤光器被配置成向来自真实世界场景的光提供不透明性。XR头戴装置控制器被配置成与导航控制器(例如,图14中的一或多个控制器828A、828B和/或828C)通信以从导航控制器接收在对解剖结构进行的手术过程期间向所述用户提供引导的导航信息,并且进一步被配置成基于导航信息生成XR图像以在透视显示屏1302上进行显示。
显示屏1302的不透明度可以被配置为具有随着从显示屏1302的顶部部分向下的距离而更连续变化的不透明度的梯度。梯度的最暗点可以定位于显示屏1302的顶部部分处,并在显示屏1302上进一步向下逐渐变得较不透明,直到不透明度变透明或不存在为止。在另外的示例实施例中,梯度可以大约在显示屏1302的中眼水平处从约90%不透明度改变成完全透明。在正确校准并放置头戴装置的情况下,中眼水平可以对应于用户将会直视的点,并且梯度的末端将定位于眼睛的“水平”线。梯度的较暗部分将允许虚拟内容的清晰明确的视觉并且有助于阻挡高架手术室灯的侵入亮度。
以这种方式使用不透明度滤光器使得XR头戴装置920能够通过基本上或完全阻挡来自真实世界场景的光沿显示屏1302的上部部分来提供虚拟真实(VR)功能并沿着显示屏1302的中间或下部部分提供AR功能。这允许用户在有需要并且在程序期间允许对患者解剖使用明确光学器件的位置具有半透明的AR。将显示屏1302配置为梯度而不是更恒定的不透明度带可以使佩戴者在更VR类型的视图与更AR类型的视图之间体验更自然的过渡,而不会体验真实世界场景的亮度以及可以如在上下视图之间进行更快速的移位期间以其它方式使眼睛疲劳的景深的突变。
显示面板和显示屏1302可以被配置成提供宽视野透视XR显示系统。在一个示例性配置中,它们为用户提供了80°对角线视野(FOV)和55°竖直覆盖范围以供用户查看虚拟内容。其它对角线FOV角度和竖直覆盖范围角可以通过不同大小的显示面板、不同曲率的透镜和/或显示面板与弯曲的显示屏1302之间的不同距离和角度定向来提供。
图14绘示了根据本公开的一些实施例的XR头戴装置920的电组件,所述XR头戴装置可以可操作地连接到计算机平台910、成像装置中的一或多个成像装置(如C形臂成像装置104、O形臂成像装置106)和/或图像数据库950和/或手术机器人800。
XR头戴装置920提供用于执行被导航手术过程的改进的人机界面。XR头戴装置920可以被配置成例如通过计算机平台910提供功能,所述功能包含但不限于以下任何一或多个:标识基于手势的命令和/或基于语音的命令、在显示装置1450上显示XR图形对象。显示装置1450可以是将所显示的XR图形对象投射到显示屏1302上的视频投影仪、平板显示器等。用户可以将XR图形对象视为锚定到通过显示屏1302(图13)观看到的特定真实世界对象的覆盖图。XR头戴装置920可以另外地或可替代地配置为在显示屏1450上显示来自安装到一或多个XR头戴装置920和其它摄像机的摄像机的视频馈送。
XR头戴装置920的电组件可以包含多个摄像机1440、麦克风1442、手势传感器1444、位姿传感器(例如,惯性测量单元(IMU))1446、包含显示装置1450的显示模块1448,和无线/有线通信接口1452。如下所述,XR头戴装置的摄像机1440可以是可见光捕获摄像机、近红外捕获摄像机或两者的组合。
摄像机1440可以被配置成作为手势传感器1444通过为了标识而捕获在一或多个摄像机1440的视野内执行的用户手势来进行操作。可替代地,手势传感器1444可以是感测接近手势传感器1444执行的手势和/或感测物理接触(例如,轻敲传感器或外壳1304)的接近度传感器和/或触摸传感器。位姿传感器1446(例如,IMU)可以包含多轴加速度计、倾斜传感器和/或可以感测XR头戴装置920沿一或多个限定的坐标轴的旋转和/或加速度的另一个传感器。这些电组件中的一些或全部电组件可以含有在组件外壳1304中或可以含有在被配置成在其它地方(如在臀部或肩膀上)佩戴的另一个外壳中。
如上文所解释的,手术系统2包含摄像机跟踪系统组件6/6'和跟踪子系统830,所述跟踪子系统可以是计算机平台910的一部分。手术系统可以包含成像装置(例如,C形臂104、O形臂106和/或图像数据库950)和/或手术机器人4。跟踪子系统830被配置成确定附接到解剖结构、末端执行器、手术工具等的DRA的位姿。导航控制器828被配置成基于限定要使用手术工具对解剖结构执行手术过程的位置的手术计划(例如,根据由图9的计算机平台910执行的手术计划功能)并基于通过跟踪子系统830确定的解剖结构的位姿确定手术工具相对于解剖结构的目标位姿。导航控制器828可进一步被配置成基于手术工具的目标位姿、解剖结构的位姿以及手术工具和/或末端执行器的位姿产生转向信息,其中所述转向信息指示手术机器人的手术工具和/或末端执行器应当被移动到何处以执行手术计划。XR头戴装置920的各种摄像机1440可连接到摄像机跟踪系统组件6/6'以跟踪DRA、用户的手等的位姿。
XR头戴装置920的电组件可以通过有线/无线接口1452可操作地连接到计算机平台910的电组件。XR头戴装置920的电组件可以例如通过计算机平台910操作性地连接或通过有线/无线接口1452直接连接到各种成像装置(例如,C形臂成像装置104、I/O形臂成像装置106、图像数据库950)和/或其它医疗设备。
手术系统2进一步包含至少一个XR头戴装置控制器1430(为简洁起见也被称为“XR头戴装置控制器”),其可以驻留在XR头戴装置920、计算机平台910中和/或在通过有线电缆和/或无线通信链路连接的另一个系统组件中。XR头戴装置控制器1430执行的软件提供各种功能。XR头戴装置控制器1430被配置成从导航控制器828接收在对解剖结构进行的手术过程期间向用户提供引导的导航信息,并且被配置成基于导航信息生成XR图像以在显示装置1450上进行显示,以投射在透视显示屏1302上。
显示装置1450相对于显示屏(也被称为“透视显示屏”)1302的配置被配置成以使得XR图像在佩戴XR头戴装置920的用户通过显示屏1302观看时似乎是在真实世界中的方式显示XR图像。显示屏1302可以通过头带1306定位于用户的眼睛前面。
XR头戴装置控制器1430可以在被配置成在观看显示屏1302时佩戴在用户头部或用户身体上的其它部位上的壳体内,或可以在通信连接到显示屏1302时远离观看显示屏1302的用户定位。XR头戴装置控制器1430可以被配置成操作性地处理来自摄像机1440、麦克风142和/或位姿传感器1446的信令,并且连接以在显示装置1450上显示XR图像以在显示屏1302上供用户观看。因此,示出为XR头戴装置920内的电路框的XR头戴装置控制器1430应被理解为操作性地连接到XR头戴装置920的其它所示出组件,但不必驻留在公共壳体(例如,图13的电子组件外壳1304)内或可以其它方式由用户运输。例如,AR头戴装置控制器1430可以驻留在计算机平台910内,所述计算机平台进而可以驻留在图3B和图3C所绘示的计算机跟踪系统6'的壳体内。
实例XR头戴装置组件光学布置
图15示出了根据本公开的一些实施例的展示XR头戴装置920的光学组件的布置的框图。参考图15,显示装置1450被配置成显示由XR头戴装置控制器1430产生的XR图像,来自所述XR图像的光作为XR图像1500被投射到显示屏1302。显示屏1302被配置成将XR图像1500的光和来自真实世界场景1502的光组合成组合增强视图1504,所述增强视图被引导到用户的眼睛1510。以此方式配置的显示屏1302充当透视显示屏。XR头戴装置920可以包含任何多个跟踪摄像机1440。摄像机1440可以是可见光捕获摄像机、近红外捕获摄像机或两者的组合。
通过XR头戴装置的示例性用户视图
XR头戴装置操作可以在显示屏1302上显示2D图像和3D模型两者。2D图像可以优选地在显示屏1302的较不透明的带(上部带)中显示,并且3D模型可以更优选地在显示屏1302的较透明的带(以其它方式被称为环境区域)(底带)中显示。在显示屏1302结束的下部带的下方,佩戴者可以无阻挡地观看到手术室。注意,在显示屏1302上显示XR内容的位置可以是流体的。显示3D内容的位置可能会取决于头戴装置相对于内容的定位而移动到不透明带,并且显示2D内容的位置可以被放置在透明带中并相对于真实世界稳定。另外地,整个显示屏1302可以在电控制下变暗,以将头戴装置转换成用于手术计划的虚拟现实或在医疗程序期间完全透明。如上文所解释的,XR头戴装置920和相关联操作不仅支持被导航程序,而且可以与机器人辅助程序结合执行。
图16示出了根据本公开的一些实施例的通过用于在医疗程序期间向操纵手术工具1602的用户提供导航辅助的XR头戴装置920的显示屏1302的示例视图。参考图16,当将手术工具1602带到所跟踪的解剖结构附近使得连接到手术工具1602的动态参考阵列1630和1632变得在摄像机1440(图15)和/或46(图6)的视野内时,工具的图形表示1600可以相对于解剖结构的图形表示1610以2D和/或3D图像显示。用户可以使用所观看的图形表示来调整手术工具1602的轨迹1620,所述轨迹可以示出为从工具的图形表示2000延伸通过解剖结构的图形表示1610。XR头戴装置920还可以显示文本信息和其它对象1640。跨所观看的显示屏延伸的虚线1650表示不同不透明度水平上带与下带之间的示例划分。
可以在显示屏1302上显示的其它类型的XR图像(虚拟内容)可以包含但不限于以下中的任何一或多个:
I)患者解剖的2D轴向、矢状和/或冠状视图;
2)计划的工具和手术植入物位置对当前跟踪的工具和手术植入物位置的覆盖图;
3)术前图像库;
4)来自显微镜和其它类似系统的视频馈送或远程视频会议;
5)选项和配置设置以及按钮;
6)具有手术计划信息的患者解剖的浮动3D模型;
7)相对于浮动患者解剖的手术器械的实时跟踪;
8)具有指令和引导的患者解剖的增强覆盖图;和
9)手术设备的增强覆盖图。
用于跟踪系统组件的摄像机的示例性配置
图17绘示了根据本公开的一些实施例配置的具有两对立体跟踪摄像机的辅助跟踪杆46的示例性配置;辅助跟踪杆46是图3A、图3B和图3C的摄像机跟踪系统组件的一部分。根据一个实施例,立体跟踪摄像机包含一对立体的间隔开的可见光捕获摄像机和另一对立体的间隔开的近红外捕获摄像机。可替换地,在辅助跟踪杆46中可以只使用一对可见光捕获摄像机或者只使用一对近红外捕获摄像机。可以使用任何数量的近红外和/或可见光摄像机。
位姿测量链
如上文所解释,导航手术可以包含计算机视觉跟踪和确定手术器械的位姿(例如,在六自由度坐标系中的位置和定向),例如通过确定包含以已知方式布置到摄像机跟踪系统的间隔开的例如盘或球的基准点的所附接DRA的位姿。计算机视觉使用被配置成捕获近红外光和/或可见光的间隔开的跟踪摄像机,例如立体摄像机。在此情境下,有三个参数共同竞争优化:手术过程期间的(1)准确性、(2)稳定性和(3)用户人机工程学。
计算机操作可通过结合安装到一或多个XR头戴装置的额外跟踪摄像机,以可以提高上述三个参数中的一或多个的优化的方式组合(链接)所测量的位姿。如图17所展示,根据本公开的一些实施例,可以将一对立体可见光跟踪摄像机和另一对立体近红外跟踪摄像机附接到摄像机跟踪系统组件的辅助跟踪杆。公开了操作算法,其分析被完全观察或部分观察的DRA的位姿(例如,当通过一对立体摄像机观察不到DRA的所有基准点时),并且以能够在导航手术期间提高准确性、稳健性和/或人体工程学的方式组合观察到的位姿或部分位姿。
如上文所解释的,XR头戴装置可以被配置成用计算机生成的XR图像增强真实世界场景。XR头戴装置可以被配置成通过在允许来自真实世界场景的光从中穿过以供用户组合观看的透视显示屏上显示计算机生成的XR图像来提供XR观看环境。可替代地,XR头戴装置可以被配置成通过防止或基本上防止来自真实世界场景的光由用户沿所显示的XR图像的观看路径直接观看来提供VR观看环境。XR头戴装置可以被配置成提供AR观看环境和VR观看环境两者。在一个实施例中,AR观看环境和VR观看环境两者均由布置在透视显示屏与真实世界场景之间的具有显著不同的不透明度的侧向带提供,使得为与高不透明度带对齐的XR图像提供VR观看环境并为与低不透明度带对齐的XR图像提供AR观看环境。在另一个实施例中,AR观看环境和VR观看环境两者均通过可变地限制来自真实世界场景的光穿过透视显示屏以与用户观看的XR图像组合的量的不透明度滤光器的计算机可调整控制提供。因此,XR头戴装置也可以被称为AR头戴装置或VR头戴装置。
如上文所解释的,XR头戴装置可以包含被配置成跟踪连接到手术器械、患者解剖结构、一或多个其它XR头戴装置和/或机器人末端执行器的DRA的基准点的近红外跟踪摄像机和/或可见光跟踪摄像机。在XR头戴装置上使用近红外跟踪和/或可见光跟踪提供超出单个辅助跟踪杆上的摄像机可以提供的另外的跟踪体积覆盖范围。向现有的辅助跟踪杆添加近红外跟踪摄像机允许与在可见光下相比更鲁棒地但较不准确地跟踪头戴装置位置。使用立体匹配来共同标识可见跟踪坐标系与近红外跟踪坐标系之间的DRA基准点的位姿使可见跟踪坐标系和近红外跟踪坐标系机械校准使坐标系能够充分对齐以执行3D DRA基准点三角测量操作。使用可见和近红外跟踪坐标系两者可以实现以下任何一或多个:(a)标识使用单一坐标系无法标识的工具;(b)提高位姿跟踪准确性;(c)在不失去对手术器械、患者解剖结构和/或机器人末端执行器的跟踪的情况下实现更宽范围的运动;以及(d)在与所导航手术器械相同的坐标系中自然地跟踪XR头戴装置。
图18示出了手术系统的组件的框图视图,所述手术系统包含一对XR头戴装置920(头戴式显示器HMD1和HMD2)中的跟踪摄像机和容纳计算机平台910的摄像机跟踪系统组件6'中的摄像机跟踪杆中的跟踪摄像机。计算机平台910可包含跟踪子系统830、导航控制器828和XR头戴装置控制器1430,如先前在图14中所展示。
参考图18的手术系统,外科医生和助手都分别佩戴XR头戴装置HMD1 920和HMD2920,若每一XR头戴装置包含可如图13所展示配置的跟踪摄像机。助手任选地佩戴XR头戴装置HMD2 920。
XR头戴装置HMD1 920和HMD2 920与辅助跟踪杆上的跟踪摄像机46的组合可以在与计算机平台910一起操作时更稳健地跟踪患者参考阵列(R)、机器人末端执行器(E)和手术工具(T)或器械的实例对象。由XR头戴装置HMD1 920和HMD2 920以及辅助跟踪杆上的跟踪摄像机46提供的来自不同视角的重叠视图在图12中展示。
图18中标记项中的每一个表示唯一的坐标系。坐标系标签的说明如下:
A=第二头戴装置HMD2 920的可见光坐标系;
N3=第二头戴装置HMD2 920的近红外(NIR)坐标系;
S=主头戴装置HMD1 920的可见光坐标系;
N2=主头戴装置HMD1 920的NIR坐标系;
N=辅助导航杆46的NIR坐标系;
V=辅助导航杆46的可见光坐标系;
R=患者参考基准阵列602的NIR坐标系;
T=所跟踪的工具604的NIR坐标系;
E=机器人臂20上的所跟踪的机器人末端执行器的NIR坐标系;以及
W=具有稳定重力向量的惯性导航世界坐标系。
在制造过程中,当设备安装在手术室中时,和/或在要执行手术过程之前,可以测量和校准这些标记对象中的一些的空间关系(并且通过扩展、坐标系)。在所公开的系统中,校准以下坐标系:其中术语“T”被限定为两个指定坐标系之间的六自由度(6DOF)齐次变换。因此,例如,项是主头戴装置HMD1 920的可见光坐标系与主头戴装置HMD1920的NIR坐标系之间的6DOF齐次变换。
在一个实施例中,XR头戴装置HMD1 920和HMD2 920具有喷涂或以其它方式附接到其(坐标系S和A)上的无源可见光基准点,例如图13中展示的参考阵列基准点1310。跟踪摄像机在空间上被校准到这些无源基准点(坐标系N2和N3)。
如上所述,XR头戴装置HMD1 920和HMD2 920上的摄像机和辅助跟踪杆上的跟踪摄像机46具有部分重叠的视野。如果XR头戴装置HMD1 920上的一或多个摄像机被阻挡而无法查看附接到所跟踪对象,例如所跟踪工具(T)的DRA,但DRA在另一XR头戴装置HMD2920的摄像机和/或辅助跟踪杆上的跟踪摄像机46的视野内,则计算机平台910可以继续无缝地跟踪DRA而不丢失导航。另外,如果从XR头戴装置HMD1 920上的摄像机的视角来看DRA被部分遮挡,但整个DRA通过另一XR头戴装置HMD2 920的摄像机和/或辅助跟踪杆上的跟踪摄像机46可见,则可以合并摄像机的跟踪输入以继续对DRA进行导航。
更确切地说,通过独立观察由XR头戴装置HMD1 920和HMD2 920提供的各种摄像机系统和辅助跟踪杆上的跟踪摄像机46,可以将各种坐标系链接在一起。例如,XR头戴装置HMD1 920和HMD2 920中的每一个可能需要机器人末端执行器(E)的虚拟增强。虽然一个XR头戴装置HMD1 920(N2)和辅助跟踪杆(N)上的跟踪摄像机46能够看见(E),但可能另一XR头戴装置HMD2 920(N3)无法看见。(E)相对于(N3)的位置仍然可以通过若干种不同的操作方法之一来计算。根据一个实施例的操作执行来自患者参考(R)的位姿的链接。如果患者参考(R)由(N3)和(N)或(N2)中的任一个看到,则(E)相对于(N3)的位姿可直接由以下两个方程中的任一个求解:
对这种位姿链的关键是推断每个链末端的帧之间的关系(在下面画圈并传送)。链可以是任意长的,且通过具有一个以上的立体摄像机系统(例如,N、N2、N3)来实现。
摄像机跟踪系统可以被配置成在手术过程期间从第一跟踪摄像机(例如,N3)和第二跟踪摄像机(例如,N2)接收与所跟踪对象相关的跟踪信息。摄像机跟踪系统可以基于来自第一跟踪摄像机(例如,N3)的指示第一对象(例如,R)的位姿的第一对象跟踪信息来确定第一对象(例如,R)坐标系与第一跟踪摄像机(例如,N3)坐标系之间的第一位姿变换例如,)。摄像机跟踪系统可以基于来自第二跟踪摄像机(例如,N2)的指示第一对象(例如,R)的位姿的第一对象跟踪信息来确定第一对象(例如,R)坐标系与第二跟踪摄像机(例如,N2)坐标系之间的第二位姿变换(例如))。摄像机跟踪系统可以基于来自第二跟踪摄像机(例如,N2)的指示第二对象(例如,E)的位姿的第二对象跟踪信息来确定第二对象(例如,E)坐标系与第二跟踪摄像机(例如,N2)坐标系之间的第三位姿变换(例如,))。摄像机跟踪系统可以基于组合第一、第二和第三位姿变换来确定第二对象(例如,E)坐标系与第一跟踪摄像机(例如,N3)坐标系之间的第四位姿变换例如,)。
在一些其它实施例中,摄像机系统可以进一步基于通过第四位姿变换处理跟踪信息来确定第二对象(例如,E)与第一跟踪摄像机系统(例如,N3)坐标系的位姿。
由于各种摄像机系统的重叠视野,当第一摄像机被阻挡而无法看到第二对象(例如,E)时,摄像机跟踪系统能够确定第二对象(例如,E)相对于第一跟踪摄像机(例如,N3)的位姿。例如,在一些实施例中,摄像机跟踪系统进一步被配置成确定第二对象(例如,E)坐标系和第一跟踪摄像机(例如,N3)坐标系之间的第四位姿变换(例如,),而不使用来自第一跟踪摄像机(例如,N3)的指示第二对象(例如E)的位姿的任何跟踪信息。
摄像机跟踪系统可以通过合并来自多个摄像机系统的同步图像来实现较高的跟踪准确性。例如,摄像机跟踪系统可以通过合并来自多个视角(第一和第二跟踪摄像机)的第二对象(例如,E)的同步图像来确定第二对象(例如,E)相对于第一跟踪摄像机(例如,N3)的位姿,且可以使用可以基于相应摄像机的准确性规格确定的加权。更具体地,摄像机跟踪系统可以进一步被配置成基于来自第一跟踪摄像机(例如,N3)的指示第二对象(例如,E)的位姿的第二对象跟踪信息并且进一步基于第一、第二和第三位姿变换的组合结果来确定第二对象(,例如,E)坐标系和第一跟踪摄像机(例如,N3)坐标系之间的第四位姿变换(例如,)。
手术系统可被配置成在XR头戴装置的透视显示屏上显示具有基于第四位姿变换而确定的位姿的XR图像。摄像机跟踪系统可进一步被配置成基于对来自第一和第二跟踪摄像机的第一对象跟踪信息和来自第二跟踪摄像机的第二对象跟踪信息进行第四位姿变换的处理而产生作为在透视显示屏上摆放的第二对象(例如,E)的图形表示的XR图像。
如上所述,摄像机跟踪系统可以包含导航控制器828,所述导航控制器以通信方式连接到第一跟踪摄像机(例如,N3)和第二跟踪摄像机(例如,N2)以接收跟踪信息,且被配置成确定第一、第二、第三和第四位姿变换。
将手术工具特性配准到由摄像机跟踪系统标识的参考阵列
在手术过程期间,摄像机跟踪系统可以同时跟踪保持或支撑于一组跟踪摄像机的视野内的手术工具的位姿,并可以在手术工具从外部移到内部(例如,在再次被拾起后)时继续跟踪手术工具。许多手术工具需要软件配置才能进行正确的跟踪。因为摄像机跟踪系统跟踪附接到手术工具或手术工具上的参考阵列的位姿,所以应告知摄像机跟踪系统哪些手术工具特性配准到哪些所跟踪的参考阵列。导航控制器828(图14)由此可以在了解手术工具的特定特性的情况下进行操作。举例来说,从所标识的参考阵列到手术工具的尖端的距离的手术工具特性的配准使得导航控制器828能够在手术过程期间指引外科医生的工具尖端的移动。类似地,手术工具的曲率方向相对于所标识的参考阵列的配准使得导航控制器828能够通过XR头戴装置920显示手术工具的准确的图形表示且在手术过程期间相对于所跟踪的解剖结构准确地摆放。
根据一些实施例,配准过程也称为配对过程,在此期间用户将具有参考阵列的手术工具固定在用于标识参考阵列的一组跟踪摄像机的视野中,且用户随后限定手术工具的特性。对于将在手术过程期间跟踪的参考阵列和手术工具特性的每一组合重复配准过程,且可在参考阵列从一种类型的手术工具拆离并附接到不同类型的手术工具时进一步重复配准过程。至关重要的是,使外科医生或戴着XR头戴装置的其它医务人员能够对一组手术工具及时有效地执行配准过程,以协助外科医生避免在将手术工具特性与参考阵列配准时出错,以减少在手术过程进行之前和进行期间外科医生注意力的中断。
本公开的其它一些实施例涉及在配准过程中使用XR头戴装置,以将标识的参考阵列配准到手术工具的特性,并通过XR头戴装置显示那些特性的表示,使得用户可以验证配准的正确性。在配准过程中使用XR头戴装置可以为外科医生和其它医务人员(用户)提供更直观、省时和可靠的过程,以在手术过程之前和/或期间对手术工具与摄像机跟踪系统进行配准。
可响应于进入一组跟踪摄像机的视野中的参考阵列而自动开始配准过程,且摄像机跟踪系统确定所标识的参考阵列尚未被配准为与手术工具的特性配对。图19示出了根据本公开的一些实施例的手术工具特性的图形表示1910,其可在参考阵列1902正配准到手术工具1900的特性以用于在手术期间在手术工具1900的计算机辅助导航中使用时由XR头戴装置显示。图20示出了根据本公开的一些实施例的由摄像机跟踪系统(例如,图18中的系统6)执行的配准操作的流程图,且所述配准操作可提供图19中的手术工具特性的图形表示。
参考图19和20,实例XR头戴装置包含一组跟踪摄像机,所述一组跟踪摄像机可例如包含于如图13中展示的XR头戴装置920的电子组件壳体1304中。摄像机跟踪系统(例如,图18中的系统6)标识2000参考阵列1902,所述参考阵列由一组跟踪摄像机跟踪,例如通过标识来自跟踪摄像机的视频流中的参考阵列。如上所述,可以基于形成相应参考阵列的一组基准点之间的不同定向来唯一地标识参考阵列。摄像机跟踪系统确定2002所标识的参考阵列1902是否被配准为与手术工具数据库中限定的多个手术工具中的一个的特性配对。基于参考阵列1902被确定为2002未配准且基于接收用户输入,摄像机跟踪系统将参考阵列1902配准为与基于用户输入而从多个手术工具中选择的手术工具1900的特性配对2004。摄像机跟踪系统随后向XR头戴装置920的显示装置提供2006特性的表示以显示给用户。
因此,在图19的实例说明中,用户可以通过将手术工具1900升高到附接到XR头戴装置920的一组跟踪摄像机的视野内而开始进行配准。当未配准的参考阵列进入跟踪摄像机的视野时,摄像机跟踪系统可以使视觉提示通过XR头戴装置920显示,这提示用户进行参考阵列到相关联的手术工具的特性的配准。摄像机跟踪系统从跟踪摄像机接收视频,基于间隔和相对性标识2000参考阵列,且确定2002所标识的参考阵列尚未被配准为与在手术工具数据库中限定的手术工具的任何限定的特性配对。摄像机跟踪系统接收标识手术工具的特性的用户输入,并将参考阵列配准为2004与手术工具1900的特性配对。摄像机跟踪系统。
实例手术工具特性可以包含但不限于钻孔机、锯子、牵开器和如螺钉、间隔器、椎间融合装置、板、棒等的植入物的结构和/或操作特性。
通过提供2008数据库中的手术工具的列表以通过XR头戴装置920显示以供用户选择以与参考阵列1902配准,摄像机跟踪系统可以有助于用户对要与所标识的参考阵列1902配准的手术工具特性的限定。例如,基于参考阵列1902被确定为2002未配准,摄像机跟踪系统可以向XR头戴装置920的显示装置提供在手术工具数据库中限定的多个手术工具中的至少一些的列表,供用户选择手术工具中的一个以配准为与参考阵列1902配对。
一些手术工具是不对称的,且在配准期间需要额外的特性配置。在图19的特定实例中,手术工具1900的尖端向一侧弯曲,且需要用户在配准期间基于工具尖端相对于参考阵列1902弯曲的方向而选择显示为列表1910的四个模式之一。四个模式包含对应于+X曲率的模式A、对应于+Z曲率的模式B、对应于-X曲率的模式C和对应于-Z曲率的模式D。在此类手术工具配准期间使用XR头戴装置920可以直观地有助于用户对手术工具特性进行配准,并且提供保护措施以确保将正确的特性配准到正确的参考阵列1902。
摄像机跟踪系统可被配置成在工具配准过程期间跟踪用户的手的移动并将手势标识为用户输入。例如,在图19的实例中,用户可能能够虚拟地触摸选择在虚拟空间中显示的模式(模式A-D)之一,以使已针对所选模式而限定的手术工具特性变为配准到参考阵列1902。更确切地说,摄像机跟踪系统可被配置成基于来自一组跟踪摄像机的指示XR空间中的用户的手相对于所显示的列表1910的位姿的跟踪信息而确定所显示的列表1910中的用户的选择。
摄像机跟踪系统可显示特性和其它信息,使得当外科医生通过XR头戴装置920进行查看时,所述特性和其它信息会出现在手术工具1900附近,例如列表1910所示,所述列表在外科医生通过XR头戴装置920进行查看时以图形方式显示在手术工具1900附近。在一个实施例中,摄像机跟踪系统从一组跟踪摄像机接收指示参考阵列1902相对于XR头戴装置920的位姿的跟踪信息,且基于跟踪信息确定用于如何相对于参考阵列显示特性的表示(例如,工具信息)的位姿。摄像机跟踪系统随后控制XR头戴装置920以相对于参考阵列1902以所确定的位姿显示特性的表示。
一旦手术工具1900已被配准到参考阵列1902,摄像机跟踪系统就可以显示配准特性的视觉反馈,以使外科医生能够验证配准的准确性。显示关于已配准的手术工具1900的信息描述提供了一个验证级别,以确保已配准正确的手术工具。验证的另一级别可以包含显示已经或正在配准到参考阵列1902的手术工具特性的2D或3D图形表示。
图21示出了根据本公开的一些实施例的由XR头戴装置920显示的配准的积极使用的手术工具1900的图形表示2112。图22示出了根据本公开的一些实施例的由摄像机跟踪系统执行以提供图21中的已配准的积极使用的手术工具1900的图形表示2112的操作的流程图。
参考图21和图22,摄像机跟踪系统获得2200手术工具1900在至少2个维度(即,2D模型或3D模型)中的图形表示2112,且从一组跟踪摄像机接收2202指示参考阵列1902相对于XR头戴装置920的位姿的跟踪信息。摄像机跟踪系统基于跟踪信息确定2204用于图形表示2112的位姿,并将图形表示2112作为特性的表示提供2206给XR头戴装置920的显示装置以用于以所确定的位姿显示。
在图21所示实例中,摄像机跟踪系统已获得配准的手术工具1900的3D表示2112,并在与手术工具1900相邻且具有与手术工具1900的当前位姿匹配的位姿的反馈窗口2110中显示3D表示2112。由此示出了将手术工具1900保持在XR头戴装置920前的外科医生,其一种特定的手术工具的特性已经被配准到参考阵列1902,这使得外科医生能够在视觉上将显示的3D表示2112与实际手术工具1900进行比较以验证配准的正确性。这些操作可以例如使外科医生能够通过将图形表示2112中所示的工具尖端弯曲方向与实际手术工具1900的尖端弯曲方向进行比较来确认在列表1910(图19)中选择了正确的模式。
当一组跟踪摄像机标识出连接到手术工具的参考阵列时,摄像机跟踪系统可确定跟踪摄像机正在跟踪参考阵列的准确性如何,即跟踪准确性的量度(也称为跟踪质量)。当跟踪摄像机未相对于手术工具2100正确地定位时,当一或多个基准点的位置已通过基准点支撑结构的变形而移动时,和/或当基准点被损坏和/或已被体液或其它材料覆盖时,跟踪准确性会降低。因此,重要的是使外科医生能够在通过XR头戴装置920查看手术工具2100的同时观察跟踪的准确性。
图23示出了根据本公开的一些实施例的当用户正查看手术工具2100时由XR头戴装置920显示的用于配准的参考阵列2102的跟踪准确性信息的图形表示2312。图24示出了根据本公开的一些实施例的由摄像机跟踪系统执行以提供图23中的跟踪准确性信息的图形表示2312的操作的流程图。
参考图23和24,摄像机跟踪系统获得2400表征一组跟踪摄像机当前跟踪参考阵列2102的位姿的准确性的跟踪准确性信息。摄像机跟踪系统随后向XR头戴装置的显示装置提供2402跟踪准确性信息的指示2312以显示给用户。在图23的说明性实例中,摄像机跟踪系统已经以可通过XR头戴装置920查看的跟踪质量窗口2310内的图形滑动标尺的形式显示跟踪准确性,但可显示其它图形指示、文本描述(例如,不良跟踪、良好跟踪、完全跟踪)和/或彩色图形标记。
可基于形成参考阵列2102的基准点的测得的位置与先前已针对参考阵列2102限定的基准点的位置(例如,针对所标识的参考阵列2101而限定的模型)的紧密匹配程度和/或基于在来自跟踪摄像机的视频中标识的基准点的形状与基准点的限定的形状(例如,限定的椭圆形状)的良好拟合程度来确定跟踪准确性。替代地或另外,可基于在手术工具的限定位置(例如,尖端)触摸到已知位置(例如,另一配准的参考阵列的校准点)时将参考阵列2102的位姿与期望位姿进行比较来确定跟踪准确性。产生跟踪准确性的图形表示以在视觉上指示跟踪摄像机跟踪参考阵列2102的确定性或准确性。
摄像机跟踪系统可被配置成显示与手术工具2100相关联的其它信息。为了确保手术工具在手术过程期间能够正常运行,例如通过不具有结构性弯曲或不具有适当范围的延伸和/或角度运动,可以对其进行定期检查。例如,可以通过将工具尖端定位在摄像机跟踪系统已知的位置(例如已知的校准点)上来确定手术工具是否具有弯曲尖端,以确认在工具尖端位于已知位置时所跟踪的参考阵列具有预期的位姿。此验证过程的结果可存储于手术数据库中,且在手术工具附近显示以确保通知用户是否不应在手术过程期间使用手术工具和/或自从上一次验证以来是否已经过足够时间,使得应在使用之前重新验证手术工具。摄像机跟踪系统可被配置成获得最后验证日期,所述最后验证日期指示手术工具2100最后经验证不具有结构性变形的时间,且将最后验证日期的指示提供到XR头戴装置920的显示装置以显示给用户。
可以根据手术工具是否在相对于XR头戴装置920位置限定的检测区域内来选择性地显示手术工具的此类图形特性。例如,当外科医生固定手术工具以使得其在限定的检测区域内的外科医生的胸部或颈部上方时,摄像机跟踪系统可以通过显示手术工具的配准特性而作出响应。相比而言,当外科医生将手术工具固定在检测区域下方时,摄像机跟踪系统可以防止显示手术工具的配准特性。这使得外科医生能够通过将其固定在检测区域内来快速检查已与特定手术工具配准的显示特性,且随后随着手术工具移至检测区域外而使那些显示特性从视线中消失,从而例如避免在手术过程中使用工具期间干扰外科医生对手术部位的查看。
摄像机跟踪系统可将工具的一部分的形状(例如,工具2100的轴的形状)与工具2100的限定的模板形状进行比较。所比较形状的差异超过限定的阈值可能会导致通过XR头戴装置920显示通知。例如,可显示与表现为偏离地限定的模板形状的工具2100的轴的一部分重叠的图形突出显示,以便直观地通知用户可能需要更换轴和/或工具2100的潜在问题。
图26示出了根据本公开的一些实施例的由摄像机跟踪系统执行以根据参考阵列是否在相对于XR头戴装置限定的检测区域内来选择性地显示与参考阵列配准的手术工具的特性的操作的流程图。
参考图26,摄像机跟踪系统被配置成确定2600参考阵列何时进入相对于XR头戴装置的位置限定的检测区域内。响应于确定参考阵列已进入检测区域内,摄像机跟踪系统开始2602向XR头戴装置的显示装置提供特性的表示以显示给用户。相比而言,响应于确定参考阵列已离开检测区域,摄像机跟踪系统停止2604向XR头戴装置的显示装置进行任何进行中的用以显示给用户的特性的表示的提供。
可以类似地限定检测区域,以选择性地使得能够对手术工具执行配准过程。图25示出了根据本公开的一些实施例的由摄像机跟踪系统执行以根据参考阵列是否在相对于XR头戴装置限定的检测区域内来选择性地允许用户配准参考阵列的操作的流程图。
参考图25,摄像机跟踪系统被配置成确定2500参考阵列何时进入相对于XR头戴装置的位置限定的检测区域内。响应于确定参考阵列已进入检测区域,摄像机跟踪系统开始2502确定参考阵列是否被配准为与手术工具数据库中限定的多个手术工具中的一个的特性配对。相比而言,摄像机跟踪系统被配置成将接收用户输入以将参考阵列配准为与手术工具数据库中限定的多个手术工具中的一个的特性配对的操作限制2504为仅在参考阵列保持在检测区域内时进行。
在手术过程期间,被布置以形成参考阵列的一或多个基准点可以变得被一组跟踪摄像机遮挡或以其它方式而不被一组跟踪摄像机查看,因为例如其在手术过程期间已被损坏和/或已变得被体液或其它材料覆盖。一些实施例涉及显示展示参考阵列中的哪些基准点被跟踪摄像机跟踪的信息。例如,当由于一或多个基准点被遮挡而导致跟踪失败时,可以将其余基准点报告为杂散。在此情况下,摄像机跟踪系统可以标识一些基准点的位姿(例如,位置),但没有足够的信息来将所标识的基准点与多个预限定的参考阵列中的一个匹配。然而,杂散基准点的位姿仍可用以通知外科医生关于哪些基准点正被跟踪。每一所跟踪的基准点的虚拟表示都可以通过XR头戴装置以如通过XR头戴装置看到的其在现实世界中的位姿(例如,位置)显示。以此方式,外科医生将知道哪些基准点被遮挡或需要调整或更换。
参考图27的实例实施例,根据本公开的一些实施例,通过具有显示为至少部分地与参考阵列2102的四个基准点的所标识的位姿重叠的图形标记2700、2702、2704、2706以及显示为至少部分地与缺失基准点的所估计的位姿重叠的另一图形标记2710的XR头戴装置机920查看具有形成参考阵列2102的五个基准点的手术工具2100。
图28示出了根据本公开的一些实施例的由摄像机跟踪系统执行以显示例如图27中展示的相对于所标识和缺失基准点的图形标记的操作的流程图。
参考图27和28,摄像机跟踪系统进一步被配置成标识2800参考阵列2102中的多个基准点的位姿。对于具有所标识的位姿的参考阵列2102中的多个基准点中的每一个,摄像机跟踪系统提供2802图形标记(例如,2700、2702、2704和2706)以供XR头戴装置920的显示装置显示为至少部分地与基准点的所标识的位姿重叠。摄像机跟踪系统可进一步被配置成通过相对于具有所标识的位姿的多个基准点估计2804缺失基准点的位姿,以及提供2804由XR头戴装置920的显示装置显示为至少部分地与缺失基准点的所估计的位姿重叠的另一图形标记2710,以在参考阵列2102中的基准点中的一个是不具有可标识位姿的缺失基准点时作出响应。可基于基准点2700-2706的当前所标识的位姿与所标识的参考阵列2102的基准点的相对位姿的比较来执行估计2804缺失基准点的位姿的过程,以估计缺失基准点的当前位姿。以此方式,外科医生可以直观地标识哪些基准点被跟踪摄像机正确地跟踪,且还可以标识哪些基准点(如果存在的话)未被正确地跟踪。例如,当缺失基准点被体液或其它材料过度遮挡时,外科医生可以补救所述情况,以实现对参考阵列2102的准确跟踪。
一些另外的实施例涉及避免在握住手术工具时解释用户的手的移动,这是由于用户试图向手跟踪输入界面提供输入。这在外科医生握持手术工具时可能尤其重要,因为在手术工具移动期间,跟踪摄像机可能无法保持手的足够的视野,且这可能导致手的不准确跟踪且造成与用户界面的意外交互。根据这些另外的实施例,相对于参考阵列限定手-用户界面排除区域。尽管确定用户的手至少部分地在手-用户界面排除区域内,但手跟踪信息不用作从用户到用户界面的输入。
图29示出了根据本公开的一些实施例的由摄像机跟踪系统执行以基于用户的手是否至少部分地在相对于参考阵列确定的手-用户界面排除区域内选择性地允许手势输入的接收的操作的流程图。图30示出了根据本公开的一些实施例的相对于连接到手术工具2100的参考阵列2102确定的手-用户界面排除区域3000。
参考图29,摄像机跟踪系统被配置成从一组跟踪摄像机接收2900指示参考阵列2102相对于XR头戴装置的位姿和用户的手的位姿的跟踪信息。摄像机跟踪系统基于跟踪信息相对于参考阵列2102的位姿确定2902手-用户界面排除区域3000。当确定用户的手完全在手-用户界面排除区域3000外时,基于跟踪信息指示的手的所跟踪的位姿,摄像机跟踪系统允许2904从用户接收手势输入。相比而言,当确定用户的手至少部分地在手-用户界面排除区域3000内时,基于跟踪信息指示的手的所跟踪的位姿,摄像机跟踪系统禁止2906从用户接收手势输入。因此,当用户的手在排除区域3000外时,摄像机跟踪系统可将用户的手的移动解释为所提供的手势输入,以例如在显示为如图19中在邻近于手术工具1900的虚拟空间中所示的模式的所显示的列表1910中进行选择。相比而言,当用户的手至少部分地在排除区域3000之内时,例如在握住手术工具2100时,摄像机跟踪系统会阻止将用户的手的移动解释为对系统的手势输入,且将因此例如使得用户无法使用手势在模式的所显示的列表1910中进行选择。
尽管已经在使用一组跟踪摄像机和XR头戴装置的背景下描述了各种实施例,但这些和其它实施例可以与任何形式的跟踪摄像机一起使用,例如辅助跟踪杆上的和/或另一XR头戴装置上的一组跟踪摄像机。因此,在一些实施例中,当摄像机跟踪系统正从一组跟踪摄像机接收跟踪信息时,所述一组跟踪摄像机与XR头戴装置分离并间隔开。本文中所公开的用于位姿链接的各种操作可用以跟踪参考阵列和/或用户的手的位姿。
其它定义和实施例:
在本发明概念的各个实施例的以上描述中,应当理解,本文使用的术语仅出于描述特定实施例的目的,而不旨在是限制本发明概念的。除非另外定义,否则本文中所使用的所有术语(包含技术术语和科技术语)具有本发明概念所属领域的技术人员通常所理解的相同含义。应进一步理解的是,如常用词典中所定义的术语应被解释为具有与其在本说明书的背景下和相关领域中的含义一致的含义,并且本文中明确地如此限定,将不会在理想化的或过度正式的意义上进行解释。
当元件被称为“连接到”或“联接到”“响应于”另一个元件或其变体时,其可以直接连接到、联接到或响应于另一元件,或者可以存在中间元件。相反,当一个元件被称为与另一个元件“直接地连接”、“直接地联接”、“直接响应于”另一个元件或其变体时,不存在中间元件。贯穿全文以相似的数字指代相似的要素。此外,如本文中使用的“联接”、“连接”、“响应”或其变体可以包含无线联接、连接或响应。除非上下文另外清楚地说明,否则如本文所使用的,单数形式“一个/一种(a、an)”和“所述(the)”旨在包含复数形式。为了简洁和/或清楚,可能不会详细描述众所周知的功能或构造。术语“和/或”包含相关联的所列项中的一或多个项的任何和所有组合。
应当理解,尽管本文中可以使用术语第一、第二、第三等来描述各种元件/操作,但是这些元件/操作不应受这些术语的限制。这些术语仅是用来将一个元件/操作与另一个元件/操作进行区分。因此,在不脱离本发明概念的教导的情况下,一些实施例中的第一元件/操作可以在其它实施例中被称为第二元件/操作。在整个本说明书中,相同的附图标记或相同的附图指示符表示相同或类似的元件。
如本文所使用的,术语“包括(comprise/comprising/comprises)”、“包含(include/including/includes)”、“具有(have/has/having)”或其变体是开放式的,并且包含一或多个陈述的特征、整数、元件、步骤、组件或功能,但是不排除一或多个其它特征、整数、元件、步骤、组件、功能或其组合的存在或添加。此外,如本文所使用的,源自拉丁短语“exempli gratia”的通用缩写“例如”可以用于介绍或指定先前提及的项目的一或多个一般示例,并且不旨在限制这种项目。源自拉丁短语“id est”的通用缩写“即”可以用于从更一般的陈述中指定特定项目。
本文中参考计算机实施的方法、设备(系统和/或装置)和/或计算机程序产品的框图和/或流程示出描述了示例实施例。应当理解的是,可以通过由一或多个计算机电路执行的计算机程序指令来实现框图和/或流程示出的框以及框图和/或流程示出中框的组合。这些计算机程序指令可以被提供给通用计算机电路、专用计算机电路和/或其它可编程数据处理电路的处理器电路,以产生机器,使得经由计算机和/或其它可编程数据处理设备的处理器执行的指令转换并控制晶体管、存储在存储器位置中的值以及这种电路系统内的其它硬件组件,以实现框图和/或一或多个流程图框中指定的功能/动作,并且由此创建用于实现框图和/或一或多个流程图框中指定的功能/动作的装置(功能)和/或结构。
这些有形计算机程序指令也可以存储在可以指导计算机或其它可编程数据处理设备以特定方式运行的计算机可读介质中,使得存储在计算机可读介质中的指令产生包含实施在框图和/或一或多个流程图框中指定的功能/动作的指令的制品。因此,本发明概念的实施例可以体现在硬件和/或软件(包含固件、常驻软件、微代码等)中,其在如数字信号处理器等处理器上运行,所述数字信号处理器可以被统称为“电路系统”、“模块”或其变体。
还应该注意的是,在一些替代性实现方案中,框中标注的功能/动作可以不按流程图中标注的顺序发生。例如,根据所涉及的功能/动作,连续示出的两个框实际上可以基本上同时执行,或者所述框有时可以按相反顺序执行。此外,可以将流程图和/或框图的给定框的功能分成多个框,和/或流程图和/或框图的两个或更多个框的功能可以至少部分地集成。最后,在不脱离本发明概念的范围的情况下,可以在所示出的框之间添加/插入其它框,和/或可以省略框/操作。此外,尽管所述图中的一些图包含通信路径上的箭头以示出通信的主要方向,但是应当理解的是,通信可以在与所描绘的箭头相反的方向上发生。
在不实质脱离本发明概念的原理的情况下,可以对实施例进行许多变化和修改。所有的此种变体以及改变都旨在被包含在本文中本发明概念的范围内。因此,上文所公开的主题应视为说明性而非限制性的,并且所附实施例的示例旨在覆盖落入本发明概念的精神和范围内的所有这种修改、增强以及其它实施例。因此,为了被法律最大程度地允许,本发明概念的范围将由本公开的最广泛允许的解读来确定,所述解读包含以下实施例及其等效物的示例,并且不应受限于或局限于前述具体详细描述。
Claims (10)
1.一种用于手术期间的计算机辅助导航的摄像机跟踪系统,所述摄像机跟踪系统被配置成:
标识由附接到扩展现实(XR)头戴装置的一组跟踪摄像机跟踪的参考阵列;
确定所述参考阵列是否被配准为与手术工具数据库中限定的多个手术工具中的一个的特性配对;
基于所述参考阵列被确定为未配准并接收用户输入,将所述参考阵列配准为与基于所述用户输入而选择的所述多个手术工具中的一个的特性配对;以及
向所述XR头戴装置的显示装置提供所述特性的表示以显示给用户。
2.根据权利要求1所述的摄像机跟踪系统,其进一步被配置成:
基于所述参考阵列被确定为未配准,向所述显示装置提供所述手术工具数据库中限定的所述多个所述手术工具中的至少一些的列表,以供所述用户选择所述手术工具中的所述一个以配准为与所述参考阵列配对。
3.根据权利要求2所述的摄像机跟踪系统,其进一步被配置成:
基于来自所述一组跟踪摄像机的指示XR空间中的所述用户的手相对于要配准为与所述参考阵列配对的所述手术工具中的所述一个的所显示的列表的位姿的跟踪信息,确定所述用户在所述所显示的列表中的选择。
4.根据权利要求1所述的摄像机跟踪系统,其进一步被配置成:
从所述一组跟踪摄像机接收指示所述参考阵列相对于所述XR头戴装置的位姿的跟踪信息;
基于所述跟踪信息,确定用于所述特性的所述表示要相对于所述参考阵列显示的位置的位姿;以及
控制所述XR头戴装置以相对于所述参考阵列以所确定的位姿显示所述特性的所述表示。
5.根据权利要求1所述的摄像机跟踪系统,其进一步被配置成:
获得表征所述一组跟踪摄像机当前跟踪所述参考阵列的位姿的准确性的跟踪准确性信息;以及
向所述XR头戴装置的所述显示装置提供所述跟踪准确性信息的指示以显示给所述用户。
6.根据权利要求1所述的摄像机跟踪系统,其进一步被配置成:
获得所述多个手术工具中的所述一个在至少2个维度中的图形表示;
从所述一组跟踪摄像机接收指示所述参考阵列相对于所述XR头戴装置的位姿的跟踪信息;
基于所述跟踪信息确定用于所述图形表示的位姿;以及
向所述XR头戴装置的所述显示装置提供作为所述特性的所述表示的所述图形表示,以用于以所确定的位姿显示。
7.根据权利要求1所述的摄像机跟踪系统,其进一步被配置成:
获得最后验证日期,其指示最后验证所述手术工具中的所述一个没有结构变形的时间;以及
向所述XR头戴装置的所述显示装置提供所述最后验证日期的指示以显示给所述用户。
8.根据权利要求1所述的摄像机跟踪系统,其进一步被配置成:
确定所述参考阵列何时已进入相对于所述XR头戴装置的位置限定的检测区域内;
响应于确定所述参考阵列已进入所述检测区域内,开始所述确定所述参考阵列是否被配准为与所述手术工具数据库中限定的所述多个手术工具中的一个的特性配对;以及
将接收用户输入以将所述参考阵列配准为与所述手术工具数据库中限定的所述多个手术工具中的一个的特性配对的操作限制为仅在所述参考阵列保持在所述检测区域内时进行。
9.根据权利要求1所述的摄像机跟踪系统,其进一步被配置成:
确定所述参考阵列何时已进入相对于所述XR头戴装置的位置限定的检测区域内;
响应于确定所述参考阵列已进入所述检测区域内,开始所述向所述XR头戴装置的所述显示装置提供所述特性的所述表示以显示给所述用户;以及
响应于确定所述参考阵列已离开所述检测区域,停止向所述XR头戴装置的所述显示装置进行任何进行中的用以显示给所述用户的所述特性的所述表示的提供。
10.根据权利要求1所述的摄像机跟踪系统,其进一步被配置成:
标识所述参考阵列中的多个基准点的位姿;以及
对于所述参考阵列中具有所标识的位姿的所述多个基准点中的每一个,提供图形标记以供所述显示装置显示为至少部分地与所述基准点的所述所标识的位姿重叠。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/861,741 | 2020-04-29 | ||
US16/861,741 US11607277B2 (en) | 2020-04-29 | 2020-04-29 | Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113558762A true CN113558762A (zh) | 2021-10-29 |
Family
ID=75728722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110466291.3A Pending CN113558762A (zh) | 2020-04-29 | 2021-04-28 | 将手术工具与由扩展现实头戴装置的摄像机跟踪的参考阵列配准以用于手术期间的辅助导航 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11607277B2 (zh) |
EP (1) | EP3903714B1 (zh) |
JP (1) | JP7216764B2 (zh) |
CN (1) | CN113558762A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114569250A (zh) * | 2022-02-21 | 2022-06-03 | 北京唯迈医疗设备有限公司 | 一种采用手势操作的介入机器人主端控制系统 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2955481B1 (fr) | 2010-01-27 | 2013-06-14 | Tornier Sa | Dispositif et procede de caracterisation glenoidienne d'une omoplate a protheser ou a resurfacer |
WO2022010944A1 (en) * | 2020-07-04 | 2022-01-13 | Sarcos Corp. | Augmented reality system and method for conveying to a human operator information associated with human-imperceptible indicia within an operating environment of a robot |
US20220068506A1 (en) * | 2020-08-27 | 2022-03-03 | Asensus Surgical Us, Inc. | Tele-collaboration during robotic surgical procedures |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050267354A1 (en) * | 2003-02-04 | 2005-12-01 | Joel Marquart | System and method for providing computer assistance with spinal fixation procedures |
EP3025665A1 (en) * | 2014-11-26 | 2016-06-01 | MASMEC S.p.A. | Computer-assisted system for guiding a surgical/diagnostic instrument in the body of a patient |
WO2017003453A1 (en) * | 2015-06-30 | 2017-01-05 | Canon U.S.A., Inc. | Fiducial markers, systems, and methods of registration |
US20190046276A1 (en) * | 2016-02-26 | 2019-02-14 | Trophy | Guided surgery apparatus and method |
US20190046232A1 (en) * | 2017-08-11 | 2019-02-14 | Canon U.S.A., Inc. | Registration and motion compensation for patient-mounted needle guide |
US20190175059A1 (en) * | 2017-12-07 | 2019-06-13 | Medtronic Xomed, Inc. | System and Method for Assisting Visualization During a Procedure |
US20190192230A1 (en) * | 2017-12-12 | 2019-06-27 | Holo Surgical Inc. | Method for patient registration, calibration, and real-time augmented reality image display during surgery |
US20190251551A1 (en) * | 2018-02-14 | 2019-08-15 | Blockchain Goose Inc. | Systems, apparatuses, and methods for assessing, managing, presenting and indicating the value of a set of digital assets |
US20190369717A1 (en) * | 2017-03-10 | 2019-12-05 | Brainlab Ag | Medical augmented reality navigation |
Family Cites Families (329)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4722056A (en) | 1986-02-18 | 1988-01-26 | Trustees Of Dartmouth College | Reference display systems for superimposing a tomagraphic image onto the focal plane of an operating microscope |
US5417210A (en) | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
WO1994024631A1 (en) | 1993-04-20 | 1994-10-27 | General Electric Company | Computer graphic and live video system for enhancing visualisation of body structures during surgery |
US5961456A (en) | 1993-05-12 | 1999-10-05 | Gildenberg; Philip L. | System and method for displaying concurrent video and reconstructed surgical views |
US5526812A (en) | 1993-06-21 | 1996-06-18 | General Electric Company | Display system for enhancing visualization of body structures during medical procedures |
US6226548B1 (en) | 1997-09-24 | 2001-05-01 | Surgical Navigation Technologies, Inc. | Percutaneous registration apparatus and method for use in computer-assisted surgical navigation |
EP1027627B1 (en) | 1997-10-30 | 2009-02-11 | MYVU Corporation | Eyeglass interface system |
US6470207B1 (en) | 1999-03-23 | 2002-10-22 | Surgical Navigation Technologies, Inc. | Navigational guidance via computer-assisted fluoroscopic imaging |
US6301495B1 (en) | 1999-04-27 | 2001-10-09 | International Business Machines Corporation | System and method for intra-operative, image-based, interactive verification of a pre-operative surgical plan |
US6503195B1 (en) | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
US6139544A (en) | 1999-05-26 | 2000-10-31 | Endocare, Inc. | Computer guided cryosurgery |
US6379302B1 (en) | 1999-10-28 | 2002-04-30 | Surgical Navigation Technologies Inc. | Navigation information overlay onto ultrasound imagery |
US6725080B2 (en) | 2000-03-01 | 2004-04-20 | Surgical Navigation Technologies, Inc. | Multiple cannula image guided tool for image guided procedures |
US6535756B1 (en) | 2000-04-07 | 2003-03-18 | Surgical Navigation Technologies, Inc. | Trajectory storage apparatus and method for surgical navigation system |
US6614453B1 (en) | 2000-05-05 | 2003-09-02 | Koninklijke Philips Electronics, N.V. | Method and apparatus for medical image display for surgical tool planning and navigation in clinical environments |
DE10194615D2 (de) | 2000-10-23 | 2003-10-02 | Deutsches Krebsforsch | Verfahren, Vorrichtung und Navigationshilfe zur Navigation bei Medizinischen Eingriffen |
US7605826B2 (en) | 2001-03-27 | 2009-10-20 | Siemens Corporate Research, Inc. | Augmented reality guided instrument positioning with depth determining graphics |
US7176936B2 (en) | 2001-03-27 | 2007-02-13 | Siemens Corporate Research, Inc. | Augmented reality guided instrument positioning with modulated guiding graphics |
US6856324B2 (en) | 2001-03-27 | 2005-02-15 | Siemens Corporate Research, Inc. | Augmented reality guided instrument positioning with guiding graphics |
US6919867B2 (en) | 2001-03-29 | 2005-07-19 | Siemens Corporate Research, Inc. | Method and apparatus for augmented reality visualization |
WO2002100284A1 (en) | 2001-06-13 | 2002-12-19 | Volume Interactions Pte Ltd | A guide system |
WO2002100285A1 (en) | 2001-06-13 | 2002-12-19 | Volume Interactions Pte Ltd | A guide system and a probe therefor |
DE50100535D1 (de) | 2001-12-18 | 2003-09-25 | Brainlab Ag | Projektion von Patientenbilddaten aus Durchleuchtungs bzw. Schichtbilderfassungsverfahren auf Oberflächenvideobilder |
US20030210812A1 (en) | 2002-02-26 | 2003-11-13 | Ali Khamene | Apparatus and method for surgical navigation |
US6947786B2 (en) | 2002-02-28 | 2005-09-20 | Surgical Navigation Technologies, Inc. | Method and apparatus for perspective inversion |
US20030179308A1 (en) | 2002-03-19 | 2003-09-25 | Lucia Zamorano | Augmented tracking using video, computed data and/or sensing technologies |
US6867753B2 (en) | 2002-10-28 | 2005-03-15 | University Of Washington | Virtual image registration in augmented display field |
US7599730B2 (en) | 2002-11-19 | 2009-10-06 | Medtronic Navigation, Inc. | Navigation system for cardiac therapies |
US7542791B2 (en) | 2003-01-30 | 2009-06-02 | Medtronic Navigation, Inc. | Method and apparatus for preplanning a surgical procedure |
US7570791B2 (en) | 2003-04-25 | 2009-08-04 | Medtronic Navigation, Inc. | Method and apparatus for performing 2D to 3D registration |
US20050054910A1 (en) | 2003-07-14 | 2005-03-10 | Sunnybrook And Women's College Health Sciences Centre | Optical image-based position tracking for magnetic resonance imaging applications |
US7835778B2 (en) | 2003-10-16 | 2010-11-16 | Medtronic Navigation, Inc. | Method and apparatus for surgical navigation of a multiple piece construct for implantation |
US7774044B2 (en) | 2004-02-17 | 2010-08-10 | Siemens Medical Solutions Usa, Inc. | System and method for augmented reality navigation in a medical intervention procedure |
CN1957373A (zh) | 2004-03-12 | 2007-05-02 | 布拉科成像S.P.A.公司 | 基于视频的扩增实境增强型外科手术导航系统的精度评估 |
US9681925B2 (en) | 2004-04-21 | 2017-06-20 | Siemens Medical Solutions Usa, Inc. | Method for augmented reality instrument placement using an image based navigation system |
US7831294B2 (en) | 2004-10-07 | 2010-11-09 | Stereotaxis, Inc. | System and method of surgical imagining with anatomical overlay for navigation of surgical devices |
WO2006075331A2 (en) | 2005-01-13 | 2006-07-20 | Mazor Surgical Technologies Ltd. | Image-guided robotic system for keyhole neurosurgery |
WO2006086223A2 (en) | 2005-02-08 | 2006-08-17 | Blue Belt Technologies, Inc. | Augmented reality device and method |
EP1854303A1 (en) | 2005-02-17 | 2007-11-14 | Koninklijke Philips Electronics N.V. | Autostereoscopic display |
JP2008532602A (ja) | 2005-03-11 | 2008-08-21 | ブラッコ・イメージング・ソシエタ・ペル・アチオニ | 外科手術ナビゲーションと顕微鏡による可視化の方法と装置 |
WO2006111965A2 (en) | 2005-04-20 | 2006-10-26 | Visionsense Ltd. | System and method for producing an augmented image of an organ of a patient |
EP2289454B1 (en) | 2005-06-06 | 2020-03-25 | Intuitive Surgical Operations, Inc. | Laparoscopic ultrasound robotic surgical system |
US9289267B2 (en) | 2005-06-14 | 2016-03-22 | Siemens Medical Solutions Usa, Inc. | Method and apparatus for minimally invasive surgery using endoscopes |
US20070167702A1 (en) | 2005-12-30 | 2007-07-19 | Intuitive Surgical Inc. | Medical robotic system providing three-dimensional telestration |
EP1966767A2 (en) | 2005-12-31 | 2008-09-10 | BRACCO IMAGING S.p.A. | Systems and methods for collaborative interactive visualization of 3d data sets over a network ("dextronet") |
US20070238981A1 (en) | 2006-03-13 | 2007-10-11 | Bracco Imaging Spa | Methods and apparatuses for recording and reviewing surgical navigation processes |
US20070236514A1 (en) | 2006-03-29 | 2007-10-11 | Bracco Imaging Spa | Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation |
EP2046224A2 (en) | 2006-04-12 | 2009-04-15 | NAVAB, Nassir | Virtual penetrating mirror device for visualizing of virtual objects within an augmented reality environment |
ATE499894T1 (de) | 2006-05-04 | 2011-03-15 | Navab Nassir | Interaktive virtuelle spiegelvorrichtung zur visualisierung von virtuellen objekten in endoskopischen anwendungen |
US8532741B2 (en) | 2006-09-08 | 2013-09-10 | Medtronic, Inc. | Method and apparatus to optimize electrode placement for neurological stimulation |
US20080123910A1 (en) | 2006-09-19 | 2008-05-29 | Bracco Imaging Spa | Method and system for providing accuracy evaluation of image guided surgery |
US8660635B2 (en) | 2006-09-29 | 2014-02-25 | Medtronic, Inc. | Method and apparatus for optimizing a computer assisted surgical procedure |
US8358818B2 (en) | 2006-11-16 | 2013-01-22 | Vanderbilt University | Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same |
US20080183074A1 (en) | 2007-01-25 | 2008-07-31 | Warsaw Orthopedic, Inc. | Method and apparatus for coordinated display of anatomical and neuromonitoring information |
US7987001B2 (en) | 2007-01-25 | 2011-07-26 | Warsaw Orthopedic, Inc. | Surgical navigational and neuromonitoring instrument |
US8374673B2 (en) | 2007-01-25 | 2013-02-12 | Warsaw Orthopedic, Inc. | Integrated surgical navigational and neuromonitoring system having automated surgical assistance and control |
US20080183188A1 (en) | 2007-01-25 | 2008-07-31 | Warsaw Orthopedic, Inc. | Integrated Surgical Navigational and Neuromonitoring System |
US20080183068A1 (en) | 2007-01-25 | 2008-07-31 | Warsaw Orthopedic, Inc. | Integrated Visualization of Surgical Navigational and Neural Monitoring Information |
US8672836B2 (en) | 2007-01-31 | 2014-03-18 | The Penn State Research Foundation | Method and apparatus for continuous guidance of endoscopy |
WO2008103383A1 (en) | 2007-02-20 | 2008-08-28 | Gildenberg Philip L | Videotactic and audiotactic assisted surgical methods and procedures |
FR2917598B1 (fr) | 2007-06-19 | 2010-04-02 | Medtech | Plateforme robotisee multi-applicative pour la neurochirurgie et procede de recalage |
GB0712690D0 (en) | 2007-06-29 | 2007-08-08 | Imp Innovations Ltd | Imagee processing |
US8532734B2 (en) | 2008-04-18 | 2013-09-10 | Regents Of The University Of Minnesota | Method and apparatus for mapping a structure |
US8228368B2 (en) | 2008-04-26 | 2012-07-24 | Intuitive Surgical Operations, Inc. | Augmented stereoscopic visualization for a surgical robot using a captured fluorescence image and captured stereoscopic visible images |
US20100030061A1 (en) | 2008-07-31 | 2010-02-04 | Canfield Monte R | Navigation system for cardiac therapies using gating |
US8700123B2 (en) | 2008-10-20 | 2014-04-15 | The Johns Hopkins University | Environment property estimaton and graphical display |
EP2403408B1 (en) | 2009-03-06 | 2017-11-15 | Koninklijke Philips N.V. | Medical viewing system for displaying a region of interest on medical images |
CN102341046B (zh) | 2009-03-24 | 2015-12-16 | 伊顿株式会社 | 利用增强现实技术的手术机器人系统及其控制方法 |
JP5658747B2 (ja) | 2009-05-28 | 2015-01-28 | コーニンクレッカ フィリップス エヌ ヴェ | 針装置を用いるインターベンション中の記録済画像の再較正 |
DE102009025077A1 (de) | 2009-06-10 | 2010-12-16 | Karl Storz Gmbh & Co. Kg | System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper |
US8504136B1 (en) | 2009-10-06 | 2013-08-06 | University Of South Florida | See-through abdomen display for minimally invasive surgery |
US8784443B2 (en) | 2009-10-20 | 2014-07-22 | Truevision Systems, Inc. | Real-time surgical reference indicium apparatus and methods for astigmatism correction |
US20120059378A1 (en) | 2009-11-25 | 2012-03-08 | James David Farrell | Efficient Sculpting System |
US8938301B2 (en) | 2010-01-06 | 2015-01-20 | Evoke Neuroscience, Inc. | Headgear with displaceable sensors for electrophysiology measurement and training |
WO2011086431A1 (en) | 2010-01-13 | 2011-07-21 | Koninklijke Philips Electronics N.V. | Image integration based registration and navigation for endoscopic surgery |
WO2011127379A2 (en) | 2010-04-09 | 2011-10-13 | University Of Florida Research Foundation Inc. | Interactive mixed reality system and uses thereof |
CA2797302C (en) | 2010-04-28 | 2019-01-15 | Ryerson University | System and methods for intraoperative guidance feedback |
US8842893B2 (en) | 2010-04-30 | 2014-09-23 | Medtronic Navigation, Inc. | Method and apparatus for image-based navigation |
US8945140B2 (en) | 2010-06-18 | 2015-02-03 | Vantage Surgical Systems, Inc. | Surgical procedures using instrument to boundary spacing information extracted from real-time diagnostic scan data |
US10456209B2 (en) | 2010-10-13 | 2019-10-29 | Gholam A. Peyman | Remote laser treatment system with dynamic imaging |
US8325873B2 (en) | 2010-10-20 | 2012-12-04 | Medtronic Navigation, Inc. | Selected image acquisition technique to optimize patient model construction |
EP2452649A1 (en) | 2010-11-12 | 2012-05-16 | Deutsches Krebsforschungszentrum Stiftung des Öffentlichen Rechts | Visualization of anatomical data by augmented reality |
WO2012078989A1 (en) | 2010-12-10 | 2012-06-14 | Wayne State University | Intelligent autonomous camera control for robotics with medical, military, and space applications |
EP2670291A4 (en) | 2011-02-04 | 2015-02-25 | Penn State Res Found | METHOD AND DEVICE FOR DETERMINING THE LOCATION OF AN ENDOSCOPE |
CN103379861B (zh) | 2011-02-07 | 2016-08-10 | 皇家飞利浦有限公司 | 用于在血管介入程序中提供支持介入设备的准确定位的图像表示的医学成像设备 |
WO2012112907A2 (en) | 2011-02-17 | 2012-08-23 | Dartmouth College | System and method for providing registration between breast shapes before and during surgery |
US10426554B2 (en) | 2011-04-29 | 2019-10-01 | The Johns Hopkins University | System and method for tracking and navigation |
US9265468B2 (en) | 2011-05-11 | 2016-02-23 | Broncus Medical, Inc. | Fluoroscopy-based surgical device tracking method |
DE102011079561B4 (de) | 2011-07-21 | 2018-10-18 | Siemens Healthcare Gmbh | Verfahren und Röntgengerät zum zeitlich aktuellen Darstellen eines bewegten Abschnitts eines Körpers, Computerprogramm und Datenträger |
MX2014000967A (es) | 2011-07-29 | 2014-02-27 | Koninkl Philips Nv | Visualizacion precisa del movimiento de tejido blando en rayos x. |
US9554866B2 (en) | 2011-08-09 | 2017-01-31 | Covidien Lp | Apparatus and method for using a remote control system in surgical procedures |
US9123155B2 (en) | 2011-08-09 | 2015-09-01 | Covidien Lp | Apparatus and method for using augmented reality vision system in surgical procedures |
US10092164B2 (en) | 2011-08-21 | 2018-10-09 | M.S.T. Medical Surgery Technologies Ltd | Device and method for assisting laparoscopic surgery—rule based approach |
US9795282B2 (en) | 2011-09-20 | 2017-10-24 | M.S.T. Medical Surgery Technologies Ltd | Device and method for maneuvering endoscope |
AU2012345588A1 (en) | 2011-12-01 | 2014-05-22 | Neochord, Inc. | Surgical navigation for repair of heart valve leaflets |
JP2015506188A (ja) | 2011-12-21 | 2015-03-02 | コーニンクレッカ フィリップス エヌ ヴェ | 容積測定モダリティからの構造の未較正内視鏡のビデオへのオーバレイ及び動き補償 |
US8891847B2 (en) | 2012-01-23 | 2014-11-18 | Medtronic Navigation, Inc. | Automatic implant detection from image artifacts |
US20130211232A1 (en) | 2012-02-01 | 2013-08-15 | The Johns Hopkins University | Arthroscopic Surgical Planning and Execution with 3D Imaging |
US9451915B1 (en) | 2012-02-29 | 2016-09-27 | Google Inc. | Performance of a diagnostic procedure using a wearable computing device |
WO2013134782A1 (en) | 2012-03-09 | 2013-09-12 | The Johns Hopkins University | Photoacoustic tracking and registration in interventional ultrasound |
US20130267838A1 (en) | 2012-04-09 | 2013-10-10 | Board Of Regents, The University Of Texas System | Augmented Reality System for Use in Medical Procedures |
CN104582622B (zh) | 2012-04-16 | 2017-10-13 | 儿童国家医疗中心 | 用于外科和介入医疗程序中的跟踪和控制的双模立体成像系统 |
JP6174676B2 (ja) | 2012-04-19 | 2017-08-02 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 術前及び術中3d画像を用いて内視鏡を手動操作するガイダンスツール及びガイド下内視鏡ナビゲーションのための装置の作動方法 |
EP2660776A1 (en) * | 2012-05-01 | 2013-11-06 | Universität Bern | Image distortion correction and robust phantom detection |
KR101711358B1 (ko) | 2012-05-02 | 2017-02-28 | 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 | 의학적 애플리케이션들에서 증강 현실을 위한 동적 모델을 이용한 4 차원 이미지 등록 |
US11871901B2 (en) | 2012-05-20 | 2024-01-16 | Cilag Gmbh International | Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage |
US9773312B2 (en) | 2012-05-25 | 2017-09-26 | Koh Young Technology Inc. | Method of registrating a camera of a surgical navigation system for an augmented reality |
RU2015102613A (ru) | 2012-06-28 | 2016-08-20 | Конинклейке Филипс Н.В. | Наложение и совмещение предоперационных данных на видео в реальном масштабе времени с использованием портативного устройства |
US11278182B2 (en) | 2012-06-28 | 2022-03-22 | Koninklijke Philips N.V. | Enhanced visualization of blood vessels using a robotically steered endoscope |
WO2014013393A2 (en) | 2012-07-17 | 2014-01-23 | Koninklijke Philips N.V. | Imaging system and method for enabling instrument guidance |
US20140022283A1 (en) | 2012-07-20 | 2014-01-23 | University Health Network | Augmented reality apparatus |
US20120302875A1 (en) | 2012-08-08 | 2012-11-29 | Gregory Allen Kohring | System and method for inserting intracranial catheters |
US9855103B2 (en) | 2012-08-27 | 2018-01-02 | University Of Houston System | Robotic device and system software, hardware and methods of use for image-guided and robot-assisted surgery |
US20140081659A1 (en) | 2012-09-17 | 2014-03-20 | Depuy Orthopaedics, Inc. | Systems and methods for surgical and interventional planning, support, post-operative follow-up, and functional recovery tracking |
US9563266B2 (en) | 2012-09-27 | 2017-02-07 | Immersivetouch, Inc. | Haptic augmented and virtual reality system for simulation of surgical procedures |
US20150238276A1 (en) | 2012-09-30 | 2015-08-27 | M.S.T. Medical Surgery Technologies Ltd. | Device and method for assisting laparoscopic surgery - directing and maneuvering articulating tool |
EP2732761A1 (en) | 2012-11-14 | 2014-05-21 | Hill-Rom Services, Inc. | Augmented reality system in the patient care environment |
US8948935B1 (en) | 2013-01-02 | 2015-02-03 | Google Inc. | Providing a medical support device via an unmanned aerial vehicle |
EP2996557B1 (en) | 2013-03-11 | 2019-05-01 | Institut Hospitalo-Universitaire de Chirurgie Mini -Invasive Guidee Par l'Image | Anatomical site relocalisation using dual data synchronisation |
KR20140112207A (ko) | 2013-03-13 | 2014-09-23 | 삼성전자주식회사 | 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템 |
EP2981205A4 (en) | 2013-04-04 | 2017-02-15 | Children's National Medical Center | Device and method for generating composite images for endoscopic surgery of moving and deformable anatomy |
US20150084990A1 (en) | 2013-04-07 | 2015-03-26 | Laor Consulting Llc | Augmented reality medical procedure aid |
KR102171873B1 (ko) | 2013-05-08 | 2020-10-29 | 삼성전자주식회사 | 햅틱 글로브 및 수술로봇 시스템 |
US10408613B2 (en) | 2013-07-12 | 2019-09-10 | Magic Leap, Inc. | Method and system for rendering virtual content |
JP6252004B2 (ja) | 2013-07-16 | 2017-12-27 | セイコーエプソン株式会社 | 情報処理装置、情報処理方法、および、情報処理システム |
KR101536115B1 (ko) | 2013-08-26 | 2015-07-14 | 재단법인대구경북과학기술원 | 수술 내비게이션 시스템 운용 방법 및 수술 내비게이션 시스템 |
US10073515B2 (en) | 2013-09-18 | 2018-09-11 | Nanophthalmos, Llc | Surgical navigation system and method |
CN105682734B (zh) | 2013-10-31 | 2018-08-17 | 波士顿科学神经调制公司 | 用于并入来自图像的引线信息的系统 |
US9949637B1 (en) | 2013-11-25 | 2018-04-24 | Verily Life Sciences Llc | Fluorescent imaging on a head-mountable device |
CN106061424B (zh) | 2013-12-20 | 2019-04-30 | 皇家飞利浦有限公司 | 用于跟踪穿刺器械的系统和方法 |
US11103122B2 (en) | 2014-07-15 | 2021-08-31 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US20160019715A1 (en) | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
EP3097448A1 (en) | 2014-01-21 | 2016-11-30 | Trophy | Method for implant surgery using augmented visualization |
WO2015121764A1 (en) | 2014-02-11 | 2015-08-20 | Koninklijke Philips N.V. | Spatial visualization of internal mammary artery during minimally invasive bypass surgery |
DE102014203097A1 (de) | 2014-02-20 | 2015-08-20 | Siemens Aktiengesellschaft | Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung |
WO2015126466A1 (en) | 2014-02-21 | 2015-08-27 | The University Of Akron | Imaging and display system for guiding medical interventions |
JP6264087B2 (ja) | 2014-02-21 | 2018-01-24 | ソニー株式会社 | 表示制御装置、表示装置および表示制御システム |
WO2015127464A1 (en) | 2014-02-24 | 2015-08-27 | H. Lee Moffitt Cancer Center And Research Institute, Inc. | Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores |
US9280825B2 (en) | 2014-03-10 | 2016-03-08 | Sony Corporation | Image processing system with registration mechanism and method of operation thereof |
DE102014204702A1 (de) | 2014-03-13 | 2015-09-17 | Siemens Aktiengesellschaft | Navigationshilfe für das Einbringen eines länglichen medizinischen Penetrationselements in einen Patienten |
EP3116432B1 (en) | 2014-03-14 | 2020-07-22 | Brainlab AG | Improved overlay of anatomical information in a microscope image |
US20170105802A1 (en) | 2014-03-27 | 2017-04-20 | Bresmedical Pty Limited | Computer aided surgical navigation and planning in implantology |
EP3126896A1 (en) | 2014-03-28 | 2017-02-08 | Alma Mater Studiorum - Università di Bologna | Augmented reality glasses for medical applications and corresponding augmented reality system |
DE102014206004A1 (de) | 2014-03-31 | 2015-10-01 | Siemens Aktiengesellschaft | Triangulationsbasierte Tiefen- und Oberflächen-Visualisierung |
CN105992996B (zh) | 2014-04-04 | 2019-11-26 | 外科手术室公司 | 外科手术环境中的动态和交互式导航 |
KR101570857B1 (ko) | 2014-04-29 | 2015-11-24 | 큐렉소 주식회사 | 로봇 수술 계획 조정 장치 |
EP3139843B1 (en) | 2014-05-05 | 2023-08-30 | Vicarious Surgical Inc. | Virtual reality surgical device |
JP2017523817A (ja) | 2014-05-09 | 2017-08-24 | ザ・チルドレンズ・ホスピタル・オブ・フィラデルフィアThe Children’S Hospital Of Philadelphia | 可搬型外科手術の方法、システムおよび装置 |
GB201408582D0 (en) | 2014-05-14 | 2014-06-25 | Ucl Business Plc | A system and method for computer-assisted planning of a trajectory for a surgical insertion into a skull |
US9835862B1 (en) | 2014-05-15 | 2017-12-05 | Google Llc | Graphic interface for real-time vision enhancement |
CA2949241A1 (en) | 2014-05-20 | 2015-11-26 | University Of Washington Through Its Center For Commercialization | Systems and methods for mediated-reality surgical visualization |
WO2015189839A1 (en) | 2014-06-08 | 2015-12-17 | M.S.T. Medical Surgery Technologies Ltd. | Device and method for assisting laparoscopic surgery utilizing a touch screen |
US20150366628A1 (en) | 2014-06-18 | 2015-12-24 | Covidien Lp | Augmented surgical reality environment system |
WO2016005988A1 (en) | 2014-07-10 | 2016-01-14 | M.S.T. Medical Surgery Technologies Ltd. | Improved interface for laparoscopic surgeries - movement gestures |
US20160015469A1 (en) | 2014-07-17 | 2016-01-21 | Kyphon Sarl | Surgical tissue recognition and navigation apparatus and method |
CN112862775A (zh) | 2014-07-25 | 2021-05-28 | 柯惠Lp公司 | 增强手术现实环境 |
WO2016014385A2 (en) | 2014-07-25 | 2016-01-28 | Covidien Lp | An augmented surgical reality environment for a robotic surgical system |
US9707400B2 (en) | 2014-08-15 | 2017-07-18 | Medtronic, Inc. | Systems, methods, and interfaces for configuring cardiac therapy |
US9547940B1 (en) | 2014-09-12 | 2017-01-17 | University Of South Florida | Systems and methods for providing augmented reality in minimally invasive surgery |
JP6574939B2 (ja) | 2014-09-16 | 2019-09-18 | ソニー株式会社 | 表示制御装置、表示制御方法、表示制御システムおよび頭部装着ディスプレイ |
EP3198330A4 (en) | 2014-09-22 | 2018-04-11 | Invuity, Inc. | Hyperspectral imager |
JP6480694B2 (ja) | 2014-09-30 | 2019-03-13 | 京セラ株式会社 | 手術支援装置およびプログラム |
US9833254B1 (en) | 2014-10-03 | 2017-12-05 | Verily Life Sciences Llc | Controlled dissection of biological tissue |
US9486128B1 (en) | 2014-10-03 | 2016-11-08 | Verily Life Sciences Llc | Sensing and avoiding surgical equipment |
EP3009097A1 (en) | 2014-10-17 | 2016-04-20 | Imactis | Method for navigating a surgical instrument |
CA3000759A1 (en) | 2014-10-23 | 2016-04-28 | Orpyx Medical Technologies Inc. | Foot gesture-based control device |
US10499992B2 (en) | 2014-10-30 | 2019-12-10 | Edda Technology, Inc. | Method and system for estimating a deflated lung shape for video assisted thoracic surgery in augmented and mixed reality |
GB201501157D0 (en) | 2015-01-23 | 2015-03-11 | Scopis Gmbh | Instrument guidance system for sinus surgery |
CN107004044A (zh) | 2014-11-18 | 2017-08-01 | 皇家飞利浦有限公司 | 增强现实设备的用户引导系统和方法、使用 |
US10383654B2 (en) | 2014-11-20 | 2019-08-20 | Ohio State Innovation Foundation | Methods and systems for performing navigation-assisted medical procedures |
US9839365B1 (en) | 2014-11-24 | 2017-12-12 | Verily Life Sciences Llc | Applications of vasculature mapping using laser speckle imaging |
US9298884B1 (en) | 2014-12-17 | 2016-03-29 | Vitaax Llc | Remote instruction and monitoring of health care |
US9645379B2 (en) | 2014-12-29 | 2017-05-09 | Novartis Ag | Magnification in ophthalmic procedures and associated devices, systems, and methods |
US10154239B2 (en) | 2014-12-30 | 2018-12-11 | Onpoint Medical, Inc. | Image-guided surgery with surface reconstruction and augmented reality visualization |
US9538962B1 (en) | 2014-12-31 | 2017-01-10 | Verily Life Sciences Llc | Heads-up displays for augmented reality network in a medical environment |
US9931040B2 (en) | 2015-01-14 | 2018-04-03 | Verily Life Sciences Llc | Applications of hyperspectral laser speckle imaging |
US10013808B2 (en) | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
JP6336929B2 (ja) | 2015-02-16 | 2018-06-06 | 富士フイルム株式会社 | 仮想オブジェクト表示装置、方法、プログラムおよびシステム |
CN113017836A (zh) | 2015-02-20 | 2021-06-25 | 柯惠Lp公司 | 手术室和手术部位感知 |
WO2016140989A1 (en) | 2015-03-01 | 2016-09-09 | ARIS MD, Inc. | Reality-augmented morphological procedure |
US11103313B2 (en) | 2015-03-05 | 2021-08-31 | Atracsys Sarl | Redundant reciprocal surgical tracking system with three optical trackers |
KR101734094B1 (ko) | 2015-03-09 | 2017-05-11 | 국립암센터 | 증강현실영상 투영 시스템 |
US20160324580A1 (en) | 2015-03-23 | 2016-11-10 | Justin Esterberg | Systems and methods for assisted surgical navigation |
GB2536650A (en) | 2015-03-24 | 2016-09-28 | Augmedics Ltd | Method and system for combining video-based and optic-based augmented reality in a near eye display |
CA3018919A1 (en) | 2015-03-25 | 2016-09-29 | Zaxis Labs | Mixed reality simulation system and method for medical procedure planning |
USRE49930E1 (en) | 2015-03-26 | 2024-04-23 | Universidade De Coimbra | Methods and systems for computer-aided surgery using intra-operative video acquired by a free moving camera |
US20160287337A1 (en) | 2015-03-31 | 2016-10-06 | Luke J. Aram | Orthopaedic surgical system and method for patient-specific surgical procedure |
EP3280344A2 (en) | 2015-04-07 | 2018-02-14 | King Abdullah University Of Science And Technology | Method, apparatus, and system for utilizing augmented reality to improve surgery |
US9436993B1 (en) | 2015-04-17 | 2016-09-06 | Clear Guide Medical, Inc | System and method for fused image based navigation with late marker placement |
US9788756B2 (en) | 2015-04-20 | 2017-10-17 | Medtronic, Inc. | Systems, devices, methods, and computer-readable storage facilitating locating an implantable medical device within a body |
GB201506842D0 (en) | 2015-04-22 | 2015-06-03 | Ucl Business Plc And Schooling Steven | Locally rigid vessel based registration for laparoscopic liver surgery |
US10235737B2 (en) | 2015-05-11 | 2019-03-19 | Elwha Llc | Interactive surgical drape, system, and related methods |
US9970955B1 (en) | 2015-05-26 | 2018-05-15 | Verily Life Sciences Llc | Methods for depth estimation in laser speckle imaging |
US10197816B2 (en) | 2015-05-26 | 2019-02-05 | Lumenis Ltd. | Laser safety glasses with an improved imaging system |
JP6732807B2 (ja) | 2015-06-26 | 2020-07-29 | リ−コール,インコーポレイティド | 生検標本蛍光イメージング装置及び方法 |
WO2017008137A1 (en) | 2015-07-13 | 2017-01-19 | Synaptive Medical (Barbados) Inc. | System and method for providing a contour video with a 3d surface in a medical navigation system |
US10176642B2 (en) | 2015-07-17 | 2019-01-08 | Bao Tran | Systems and methods for computer assisted operation |
WO2017015738A1 (en) | 2015-07-27 | 2017-02-02 | Synaptive Medical (Barbados) Inc. | Navigational feedback for intraoperative waypoint |
DE102015215587A1 (de) | 2015-08-14 | 2017-02-16 | Nt-Trading Gmbh & Co. Kg | Verfahren zum Herstellen eines Knochenersatzstücks |
EP3337419B1 (en) | 2015-08-19 | 2020-08-12 | Brainlab AG | Reference array holder |
US10105187B2 (en) | 2015-08-27 | 2018-10-23 | Medtronic, Inc. | Systems, apparatus, methods and computer-readable storage media facilitating surgical procedures utilizing augmented reality |
WO2017044965A1 (en) | 2015-09-10 | 2017-03-16 | Duke University | Systems and methods for arbitrary viewpoint robotic manipulation and robotic surgical assistance |
US10092361B2 (en) | 2015-09-11 | 2018-10-09 | AOD Holdings, LLC | Intraoperative systems and methods for determining and providing for display a virtual image overlaid onto a visual image of a bone |
CA2985221C (en) | 2015-09-24 | 2019-02-26 | Synaptive Medical (Barbados) Inc. | Motorized full field adaptive microscope |
DK178899B1 (en) | 2015-10-09 | 2017-05-08 | 3Dintegrated Aps | A depiction system |
JP2018534011A (ja) | 2015-10-14 | 2018-11-22 | サージカル シアター エルエルシー | 拡張現実感手術ナビゲーション |
JP6712453B2 (ja) | 2015-10-16 | 2020-06-24 | 富士フイルム株式会社 | 拡張現実提供システム及び方法、情報処理装置、並びにプログラム |
US10195076B2 (en) | 2015-10-23 | 2019-02-05 | Eye Labs, LLC | Head-mounted device providing diagnosis and treatment and multisensory experience |
US10912449B2 (en) | 2015-10-23 | 2021-02-09 | Covidien Lp | Surgical system for detecting gradual changes in perfusion |
CN114795472A (zh) | 2015-10-28 | 2022-07-29 | 安多卓思公司 | 用于在患者体内跟踪内窥镜的位置的装置和方法 |
JP6636629B2 (ja) | 2015-10-29 | 2020-01-29 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 拡張現実眼鏡を介して空間的配置タスクを遠隔援助するためのユーザインターフェースを有する遠隔援助ワークステーション、方法、及びシステム |
US10828125B2 (en) | 2015-11-03 | 2020-11-10 | Synaptive Medical (Barbados) Inc. | Dual zoom and dual field-of-view microscope |
US20170119471A1 (en) | 2015-11-04 | 2017-05-04 | Illusio, Inc. | Augmented Reality Imaging System for Cosmetic Surgical Procedures |
WO2017079387A1 (en) | 2015-11-05 | 2017-05-11 | Covidien Lp | System and method for detecting subsurface blood |
WO2017079732A1 (en) | 2015-11-07 | 2017-05-11 | Ji-Xin Cheng | An intraoperative optoacoustic guide apparatus and method |
DE102015222782A1 (de) | 2015-11-18 | 2017-05-18 | Sirona Dental Systems Gmbh | Verfahren zur Visualisierung einer Zahnsituation |
ITUB20155830A1 (it) | 2015-11-23 | 2017-05-23 | R A W Srl | "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori" |
US10052170B2 (en) | 2015-12-18 | 2018-08-21 | MediLux Capitol Holdings, S.A.R.L. | Mixed reality imaging system, apparatus and surgical suite |
DE102015226669B4 (de) | 2015-12-23 | 2022-07-28 | Siemens Healthcare Gmbh | Verfahren und System zum Ausgeben einer Erweiterte-Realität-Information |
JP2019511931A (ja) | 2015-12-29 | 2019-05-09 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 輪郭シグネチャを用いた手術画像獲得デバイスの位置合わせ |
WO2017117517A1 (en) | 2015-12-30 | 2017-07-06 | The Johns Hopkins University | System and method for medical imaging |
US10426339B2 (en) | 2016-01-13 | 2019-10-01 | Novartis Ag | Apparatuses and methods for parameter adjustment in surgical procedures |
US9925013B2 (en) | 2016-01-14 | 2018-03-27 | Synaptive Medical (Barbados) Inc. | System and method for configuring positions in a surgical positioning system |
US20170238996A1 (en) | 2016-02-24 | 2017-08-24 | General Electric Company | Medical tracking sensor assembly |
US10864050B2 (en) | 2016-02-26 | 2020-12-15 | Think Surgical, Inc. | Method and system for guiding user positioning of a robot |
WO2017151752A1 (en) | 2016-03-01 | 2017-09-08 | Mirus Llc | Augmented visualization during surgery |
WO2017151778A1 (en) | 2016-03-01 | 2017-09-08 | ARIS MD, Inc. | Systems and methods for rendering immersive environments |
US20190090955A1 (en) | 2016-03-01 | 2019-03-28 | Mirus Llc | Systems and methods for position and orientation tracking of anatomy and surgical instruments |
US20170256095A1 (en) | 2016-03-02 | 2017-09-07 | Siemens Medical Solutions Usa, Inc. | Blocking screen in Augmented Reality |
WO2017151999A1 (en) | 2016-03-04 | 2017-09-08 | Covidien Lp | Virtual and/or augmented reality to provide physical interaction training with a surgical robot |
CN109310476B (zh) | 2016-03-12 | 2020-04-03 | P·K·朗 | 用于手术的装置与方法 |
US20170367766A1 (en) | 2016-03-14 | 2017-12-28 | Mohamed R. Mahfouz | Ultra-wideband positioning for wireless ultrasound tracking and communication |
CN108882854B (zh) | 2016-03-21 | 2022-05-24 | 华盛顿大学 | 3d医学图像的虚拟现实或增强现实可视化 |
US10510268B2 (en) | 2016-04-05 | 2019-12-17 | Synaptive Medical (Barbados) Inc. | Multi-metric surgery simulator and methods |
WO2017179350A1 (ja) | 2016-04-11 | 2017-10-19 | 富士フイルム株式会社 | 画像表示制御装置および方法並びにプログラム |
US20170296292A1 (en) | 2016-04-16 | 2017-10-19 | Eitezaz MAHMOOD | Systems and Methods for Surgical Imaging |
JP2019514476A (ja) | 2016-04-19 | 2019-06-06 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 超音波イメージングプローブの位置決め |
US10194990B2 (en) | 2016-04-27 | 2019-02-05 | Arthrology Consulting, Llc | Method for augmenting a surgical field with virtual guidance content |
US10191615B2 (en) | 2016-04-28 | 2019-01-29 | Medtronic Navigation, Inc. | Method and apparatus for image-based navigation |
EP3882867A1 (en) | 2016-05-03 | 2021-09-22 | Affera, Inc. | Anatomical model displaying |
AU2017260192B2 (en) | 2016-05-05 | 2022-11-10 | James R. Watson | Surgical stereoscopic visualization system with movable head mounted display |
US10433915B2 (en) | 2016-05-16 | 2019-10-08 | TrackX Technology, LLC | System and method for image localization of effecters during a medical procedure |
CN106296805B (zh) | 2016-06-06 | 2019-02-26 | 厦门铭微科技有限公司 | 一种基于实时反馈的增强现实人体定位导航方法及装置 |
EP3476102B1 (en) | 2016-06-24 | 2020-06-17 | Innogy Innovation Gmbh | Augmented reality system |
US10375799B2 (en) * | 2016-07-08 | 2019-08-06 | Ana Catarina da Silva Carvalho | Lighting commanding method and an assymetrical gesture decoding device to command a lighting apparatus |
CN109416841B (zh) | 2016-07-11 | 2023-03-31 | 台湾骨王生技股份有限公司 | 影像增强真实度的方法与应用该方法在可穿戴式眼镜的手术导引 |
US10610318B2 (en) | 2016-07-25 | 2020-04-07 | General Electric Company | Augmented reality catheter interface |
US10398514B2 (en) | 2016-08-16 | 2019-09-03 | Insight Medical Systems, Inc. | Systems and methods for sensory augmentation in medical procedures |
GB2568426B (en) | 2016-08-17 | 2021-12-15 | Synaptive Medical Inc | Methods and systems for registration of virtual space with real space in an augmented reality system |
DE202017104953U1 (de) | 2016-08-18 | 2017-12-04 | Google Inc. | Verarbeiten von Fundusbildern unter Verwendung von Maschinenlernmodellen |
JP7328653B2 (ja) | 2016-09-07 | 2023-08-17 | インテリジョイント サージカル インク. | 患者の頭部の画像誘導ナビゲーションを含む手術ナビゲーションのシステム及び方法 |
US20180082480A1 (en) | 2016-09-16 | 2018-03-22 | John R. White | Augmented reality surgical technique guidance |
US11839433B2 (en) | 2016-09-22 | 2023-12-12 | Medtronic Navigation, Inc. | System for guided procedures |
KR101687821B1 (ko) | 2016-09-22 | 2016-12-20 | 장원석 | 증강현실을 이용한 치과 수술 방법 |
CN108289600A (zh) | 2016-10-03 | 2018-07-17 | 威博外科公司 | 用于机器人外科手术的沉浸式三维显示器 |
US20180092698A1 (en) | 2016-10-04 | 2018-04-05 | WortheeMed, Inc. | Enhanced Reality Medical Guidance Systems and Methods of Use |
US20180116732A1 (en) | 2016-10-18 | 2018-05-03 | The Board Of Trustees Of The Leland Stanford Junior University | Real-time Three Dimensional Display of Flexible Needles Using Augmented Reality |
KR101837301B1 (ko) | 2016-10-28 | 2018-03-12 | 경북대학교 산학협력단 | 수술 항법 시스템 |
US10231784B2 (en) | 2016-10-28 | 2019-03-19 | Medtronic Ardian Luxembourg S.A.R.L. | Methods and systems for optimizing perivascular neuromodulation therapy using computational fluid dynamics |
US10275927B2 (en) | 2016-11-16 | 2019-04-30 | Terarecon, Inc. | System and method for three-dimensional printing, holographic and virtual reality rendering from medical image processing |
US10918445B2 (en) | 2016-12-19 | 2021-02-16 | Ethicon Llc | Surgical system with augmented reality display |
US10499997B2 (en) | 2017-01-03 | 2019-12-10 | Mako Surgical Corp. | Systems and methods for surgical navigation |
US10412377B2 (en) | 2017-01-11 | 2019-09-10 | Koninklijke Philips N.V. | Augmented display device for use in a medical imaging laboratory |
EP3574361B1 (en) | 2017-01-30 | 2022-04-20 | Alcon Inc. | Systems and method for augmented reality ophthalmic surgical microscope projection |
US10643360B2 (en) | 2017-02-10 | 2020-05-05 | Arizona Board Of Regents On Behalf Of Arizona State University | Real-time medical image visualization systems and related methods |
CA2958163C (en) | 2017-02-15 | 2019-02-12 | Synaptive Medical (Barbados) Inc. | Digitally enhanced surgical instruments |
US11158415B2 (en) | 2017-02-16 | 2021-10-26 | Mako Surgical Corporation | Surgical procedure planning system with multiple feedback loops |
US10010379B1 (en) | 2017-02-21 | 2018-07-03 | Novarad Corporation | Augmented reality viewing and tagging for medical procedures |
KR101891704B1 (ko) | 2017-02-28 | 2018-08-24 | 메디컬아이피 주식회사 | 3차원 의료영상 제어 방법 및 그 장치 |
AU2018230901B2 (en) | 2017-03-10 | 2020-12-17 | Biomet Manufacturing, Llc | Augmented reality supported knee surgery |
US20180263727A1 (en) | 2017-03-15 | 2018-09-20 | Coredent Advancements, LLC | Surgical Guide and Associated Process for Dental Implants |
TWI634870B (zh) | 2017-03-20 | 2018-09-11 | 承鋆生醫股份有限公司 | 影像定位及擴增實境系統及其擴增實境方法 |
US9892564B1 (en) | 2017-03-30 | 2018-02-13 | Novarad Corporation | Augmenting real-time views of a patient with three-dimensional data |
US20180289983A1 (en) | 2017-04-05 | 2018-10-11 | Sensus Healthcare Llc | Augmented reality glasses to help doctors visualize radiation patterns and overall tumor shape/size |
WO2018189725A1 (en) | 2017-04-14 | 2018-10-18 | Stryker Corporation | Surgical systems and methods for facilitating ad-hoc intraoperative planning of surgical procedures |
DE102017108235A1 (de) | 2017-04-18 | 2018-10-18 | Bredent Medical Gmbh & Co. Kg | Brille mit wenigstens einem teiltransparenten Bildschirm und Verfahren zum Betrieb einer Brille |
EP3612126A1 (en) | 2017-04-20 | 2020-02-26 | The Cleveland Clinic Foundation | System and method for holographic image-guided non-vascular percutaneous procedures |
US10716643B2 (en) | 2017-05-05 | 2020-07-21 | OrbisMV LLC | Surgical projection system and method |
US10667869B2 (en) | 2017-05-17 | 2020-06-02 | General Electric Company | Guidance system for needle procedures |
US10874327B2 (en) | 2017-05-19 | 2020-12-29 | Covidien Lp | Systems and methods for tracking and imaging a treatment probe having an integrated sensor |
US10432913B2 (en) | 2017-05-31 | 2019-10-01 | Proximie, Inc. | Systems and methods for determining three dimensional measurements in telemedicine application |
US10610179B2 (en) | 2017-06-05 | 2020-04-07 | Biosense Webster (Israel) Ltd. | Augmented reality goggles having X-ray protection |
EP3412242A1 (de) | 2017-06-09 | 2018-12-12 | Siemens Healthcare GmbH | Ausgabe von positionsinformationen eines medizintechnischen instruments |
US10242292B2 (en) | 2017-06-13 | 2019-03-26 | Digital Surgery Limited | Surgical simulation for training detection and classification neural networks |
US10390891B2 (en) | 2017-06-13 | 2019-08-27 | Biosense Webster (Israel) Ltd. | Hologram lens for positioning an orthopedic implant |
US20180360655A1 (en) | 2017-06-16 | 2018-12-20 | Michael S. Berlin | Methods and systems for oct guided glaucoma surgery |
US11229496B2 (en) | 2017-06-22 | 2022-01-25 | Navlab Holdings Ii, Llc | Systems and methods of providing assistance to a surgeon for minimizing errors during a surgical procedure |
US11589933B2 (en) | 2017-06-29 | 2023-02-28 | Ix Innovation Llc | Guiding a robotic surgical system to perform a surgical procedure |
US11071593B2 (en) | 2017-07-14 | 2021-07-27 | Synaptive Medical Inc. | Methods and systems for providing visuospatial information |
US11166764B2 (en) | 2017-07-27 | 2021-11-09 | Carlsmed, Inc. | Systems and methods for assisting and augmenting surgical procedures |
WO2019021236A1 (en) | 2017-07-28 | 2019-01-31 | Edda Technology, Inc. | METHOD AND SYSTEM FOR SURGICAL PLANNING IN A MIXED REALITY ENVIRONMENT |
US11432877B2 (en) | 2017-08-02 | 2022-09-06 | Medtech S.A. | Surgical field camera system that only uses images from cameras with an unobstructed sight line for tracking |
JP6967906B2 (ja) | 2017-08-04 | 2021-11-17 | Hoya株式会社 | 内視鏡形状表示装置、及び内視鏡システム |
EP4245250A3 (en) | 2017-08-15 | 2023-09-27 | Holo Surgical Inc. | Surgical navigation system for providing an augmented reality image during operation |
EP3336848B1 (en) | 2017-08-15 | 2023-09-27 | Siemens Healthcare GmbH | Method for operating a medical imaging device and medical imaging device |
EP3445048A1 (en) | 2017-08-15 | 2019-02-20 | Holo Surgical Inc. | A graphical user interface for a surgical navigation system for providing an augmented reality image during operation |
US11432879B2 (en) | 2017-08-18 | 2022-09-06 | Siemens Healthcare Gmbh | Method and apparatus for wide area multi-body 6D pose tracking system |
US10987016B2 (en) | 2017-08-23 | 2021-04-27 | The Boeing Company | Visualization system for deep brain stimulation |
US10607420B2 (en) | 2017-08-30 | 2020-03-31 | Dermagenesis, Llc | Methods of using an imaging apparatus in augmented reality, in medical imaging and nonmedical imaging |
EP3449830B1 (de) | 2017-08-31 | 2020-01-29 | Siemens Healthcare GmbH | Steuerung eines medizintechnischen bildgebenden systems |
US10861236B2 (en) | 2017-09-08 | 2020-12-08 | Surgical Theater, Inc. | Dual mode augmented reality surgical system and method |
US10265138B2 (en) | 2017-09-18 | 2019-04-23 | MediVis, Inc. | Methods and systems for generating and using 3D images in surgical settings |
US10874460B2 (en) | 2017-09-29 | 2020-12-29 | K2M, Inc. | Systems and methods for modeling spines and treating spines based on spine models |
US10806525B2 (en) | 2017-10-02 | 2020-10-20 | Mcginley Engineered Solutions, Llc | Surgical instrument with real time navigation assistance |
US10610310B2 (en) | 2017-10-02 | 2020-04-07 | Robin Elizabeth McKenzie TODD | User interface system and methods for overlaying surgical video output |
EP3467785A1 (en) | 2017-10-06 | 2019-04-10 | Thomson Licensing | A method and apparatus for encoding a point cloud representing three-dimensional objects |
US11801098B2 (en) | 2017-10-30 | 2023-10-31 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11911045B2 (en) | 2017-10-30 | 2024-02-27 | Cllag GmbH International | Method for operating a powered articulating multi-clip applier |
US11272985B2 (en) | 2017-11-14 | 2022-03-15 | Stryker Corporation | Patient-specific preoperative planning simulation techniques |
US11103314B2 (en) | 2017-11-24 | 2021-08-31 | Synaptive Medical Inc. | Methods and devices for tracking objects by surgical navigation systems |
WO2019104329A1 (en) | 2017-11-27 | 2019-05-31 | Optecks, Llc | Medical three-dimensional (3d) scanning and mapping system |
EP3720349A4 (en) | 2017-12-04 | 2021-01-20 | Bard Access Systems, Inc. | SYSTEMS AND METHODS FOR VISUALIZATION OF ANATOMY, LOCATION OF MEDICAL DEVICES, OR POSITIONING OF MEDICAL DEVICES |
US10413363B2 (en) | 2017-12-15 | 2019-09-17 | Medtronic, Inc. | Augmented reality solution to optimize the directional approach and therapy delivery of interventional cardiology tools |
US11179200B2 (en) | 2017-12-15 | 2021-11-23 | Medtronic, Inc. | Augmented reality solution to disrupt, transform and enhance cardiovascular surgical and/or procedural mapping navigation and diagnostics |
US11058497B2 (en) | 2017-12-26 | 2021-07-13 | Biosense Webster (Israel) Ltd. | Use of augmented reality to assist navigation during medical procedures |
US11857152B2 (en) | 2017-12-28 | 2024-01-02 | Cilag Gmbh International | Surgical hub spatial awareness to determine devices in operating theater |
US11424027B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Method for operating surgical instrument systems |
US11896443B2 (en) | 2017-12-28 | 2024-02-13 | Cilag Gmbh International | Control of a surgical system through a surgical barrier |
US20190200977A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation |
US11937769B2 (en) | 2017-12-28 | 2024-03-26 | Cilag Gmbh International | Method of hub communication, processing, storage and display |
US10621733B2 (en) | 2017-12-31 | 2020-04-14 | Google Llc | Enhanced visualization of breathing or heartbeat of an infant or other monitored subject |
EP3509013A1 (en) | 2018-01-04 | 2019-07-10 | Holo Surgical Inc. | Identification of a predefined object in a set of images from a medical image scanner during a surgical procedure |
US10535427B2 (en) | 2018-01-10 | 2020-01-14 | Medtronic, Inc. | System for planning implantation of a cranially mounted medical device |
US11547481B2 (en) | 2018-01-11 | 2023-01-10 | Covidien Lp | Systems and methods for laparoscopic planning and navigation |
EP3743791A1 (en) | 2018-01-25 | 2020-12-02 | Neurosteer Inc. | Systems and methods for analyzing brain activity and applications pertaining to augmented reality |
US20190239850A1 (en) | 2018-02-06 | 2019-08-08 | Steven Philip Dalvin | Augmented/mixed reality system and method for the guidance of a medical exam |
US20190254753A1 (en) | 2018-02-19 | 2019-08-22 | Globus Medical, Inc. | Augmented reality navigation systems for use with robotic surgical systems and methods of their use |
EP3540494B1 (en) | 2018-03-16 | 2022-11-23 | Leica Instruments (Singapore) Pte. Ltd. | Augmented reality surgical microscope and microscopy method |
US20190307516A1 (en) | 2018-04-06 | 2019-10-10 | Medtronic, Inc. | Image-based navigation system and method of using same |
-
2020
- 2020-04-29 US US16/861,741 patent/US11607277B2/en active Active
-
2021
- 2021-04-27 JP JP2021074796A patent/JP7216764B2/ja active Active
- 2021-04-28 CN CN202110466291.3A patent/CN113558762A/zh active Pending
- 2021-04-28 EP EP21170961.3A patent/EP3903714B1/en active Active
-
2023
- 2023-02-21 US US18/171,731 patent/US20230200917A1/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050267354A1 (en) * | 2003-02-04 | 2005-12-01 | Joel Marquart | System and method for providing computer assistance with spinal fixation procedures |
EP3025665A1 (en) * | 2014-11-26 | 2016-06-01 | MASMEC S.p.A. | Computer-assisted system for guiding a surgical/diagnostic instrument in the body of a patient |
WO2017003453A1 (en) * | 2015-06-30 | 2017-01-05 | Canon U.S.A., Inc. | Fiducial markers, systems, and methods of registration |
US20190046276A1 (en) * | 2016-02-26 | 2019-02-14 | Trophy | Guided surgery apparatus and method |
US20190369717A1 (en) * | 2017-03-10 | 2019-12-05 | Brainlab Ag | Medical augmented reality navigation |
US20190046232A1 (en) * | 2017-08-11 | 2019-02-14 | Canon U.S.A., Inc. | Registration and motion compensation for patient-mounted needle guide |
US20190175059A1 (en) * | 2017-12-07 | 2019-06-13 | Medtronic Xomed, Inc. | System and Method for Assisting Visualization During a Procedure |
US20190192230A1 (en) * | 2017-12-12 | 2019-06-27 | Holo Surgical Inc. | Method for patient registration, calibration, and real-time augmented reality image display during surgery |
US20190251551A1 (en) * | 2018-02-14 | 2019-08-15 | Blockchain Goose Inc. | Systems, apparatuses, and methods for assessing, managing, presenting and indicating the value of a set of digital assets |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114569250A (zh) * | 2022-02-21 | 2022-06-03 | 北京唯迈医疗设备有限公司 | 一种采用手势操作的介入机器人主端控制系统 |
CN114569250B (zh) * | 2022-02-21 | 2023-11-17 | 北京唯迈医疗设备有限公司 | 一种采用手势操作的介入机器人主端控制系统 |
Also Published As
Publication number | Publication date |
---|---|
EP3903714A1 (en) | 2021-11-03 |
JP7216764B2 (ja) | 2023-02-01 |
JP2021171657A (ja) | 2021-11-01 |
US20210338337A1 (en) | 2021-11-04 |
US20230200917A1 (en) | 2023-06-29 |
EP3903714B1 (en) | 2024-02-21 |
US11607277B2 (en) | 2023-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11839435B2 (en) | Extended reality headset tool tracking and control | |
US11883117B2 (en) | Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums | |
CN113259584B (zh) | 摄像机跟踪系统 | |
US11510750B2 (en) | Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications | |
US20210169581A1 (en) | Extended reality instrument interaction zone for navigated robotic surgery | |
US11690697B2 (en) | Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment | |
JP7376533B2 (ja) | 外科手術中のコンピュータ支援ナビゲーション用のカメラ追跡バー | |
EP3903714B1 (en) | Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery | |
US11737831B2 (en) | Surgical object tracking template generation for computer assisted navigation during surgical procedure | |
EP3922203A1 (en) | Surgical object tracking in visible light via fiducial seeding and synthetic image registration | |
JP7282816B2 (ja) | ナビゲートされたロボット外科手術のためのエクステンデッドリアリティ器具相互作用ゾーン |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |