CN111936074A - 监视手术室中的移动物体 - Google Patents

监视手术室中的移动物体 Download PDF

Info

Publication number
CN111936074A
CN111936074A CN201980024315.0A CN201980024315A CN111936074A CN 111936074 A CN111936074 A CN 111936074A CN 201980024315 A CN201980024315 A CN 201980024315A CN 111936074 A CN111936074 A CN 111936074A
Authority
CN
China
Prior art keywords
image information
tracking device
processing unit
light
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980024315.0A
Other languages
English (en)
Inventor
R·F·J·霍尔特辉泽恩
J·J·德赖斯
R·J·F·霍曼
M·范德吉森
E·维贝尔赫
B·H·W·亨德里克斯
J·W·施普利特霍夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of CN111936074A publication Critical patent/CN111936074A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2074Interface software
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3945Active visible markers, e.g. light emitting diodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

提出了一种包括主跟踪设备和处理单元的系统。所述主跟踪设备包括多个光源和多个光探测器。基于光脉冲,所述主跟踪设备被配置为确定手术室中的多个对象的当前3D位置。所述处理单元被配置为处理所述对象中的每个对象的图像信息以及位置信息,以生成彼此空间关系的所述对象的图像信息的可视化。

Description

监视手术室中的移动物体
技术领域
本发明总体上涉及在介入期间协助医师的方面。此外,本发明涉及提供可以帮助医师执行介入的可视化的系统。具体地,本发明涉及允许可视化考虑在手术室中存在的对象的移动的跟踪系统。
背景技术
微创技术越来越多地用于外科手术流程。最近几年已经开发出各种解决方案来提高易用性和外科医生可获得的准确性。这些解决方案结合(术前)CT图像或MRI图像的配准以提供对患者和/或设备的跟踪。
例如,光学相机可以被集成在X射线系统上的探测器中或手术灯中。该解决方案使得能够易于使用外科手术导航与2D和3D X射线成像的集成。可以在手术之前或手术期间制定外科手术规划路径。由于虚拟路径的可视化和被投影在实时光学图像上的3D数据,用户能够更容易地对准外科手术器械。能够通过设备跟踪对带有标记的外科手术器械进行跟踪,并且患者身上的标记可用于补偿患者运动。
发明内容
可以看到,目的是提供允许集成与手术室中的多个不同对象有关的位置信息以针对对象的位置变化来调整可视化的系统。
这是通过相应的独立权利要求中的每个的主题来实现的。在相应的从属权利要求中描述了其他实施例。
通常,根据实施例的系统包括主跟踪设备和处理单元。所述主跟踪设备包括多个光源和多个光探测器,其中,所述光源中的每个光源被配置为发出光脉冲,并且所述光探测器中的每个光探测器被配置为探测所述光脉冲。基于这样的光脉冲,所述主跟踪设备被配置为确定手术室中的多个对象的当前3D位置。
所述处理单元被配置为例如从数据库中接收由所述主跟踪设备跟踪的所述对象中的每个对象的图像信息。所述处理单元还被配置为从所述主跟踪设备接收所述对象的3D位置信息。基于多个3D位置,也可以确定对象的取向。最后,所述处理单元被配置为生成第一对象的图像信息的可视化,所述第一对象的图像信息与第二对象的图像信息空间相关。作为示例,第一对象可以是患者,并且第二对象可以是介入器械。作为另外的示例,对象的图像信息可以是对象的虚拟表示或由对象生成的图像。
根据实施例,所述光源可以被固定地布置在所述手术室中(例如在手术室的墙壁和/或天花板处),并且所述光探测器可以分别被布置在所述对象处。替代地,光探测器可以被固定地布置在手术室中,并且光源可以被安装在该手术室中的移动物体上。还可以预想到,光源和光探测器都被固定地布置并且光反射器被布置在对象处,该光反射器可以改变它们在手术室中的位置。最后要提到的是,所有这些布置的任意组合也是可能的,当跟踪两个以上的对象时尤其如此。
根据实施例,所述系统可以包括一个或多个成像设备。所述成像设备可以适于生成例如患者内部的实时图像。所述成像设备可以是2D X射线成像设备、3D计算机断层摄影设备、磁共振成像设备、超声设备、高光谱视频相机或高光谱成像设备。利用系统中的这样的成像设备,处理单元不仅可以处理被存储在数据库上的先前生成的图像,而且可以处理实时生成的图像。应当理解,至少两幅实时生成的图像或实时生成和存储的图像或一幅以上的存储的图像可以被彼此配准并且因此可以被组合显示。
根据实施例,所述系统包括用于显示由所述系统的所述处理单元生成的可视化的显示设备。作为第一示例,显示设备可以是监视器,其中,监视器可以被能移动地布置在手术室中的(例如被附接到手术室的天花板上的)支撑臂上,或者可以被布置在落地设备处。根据另一示例,显示设备可以是透明的或至少半透明的显示设备。透明的显示设备提供了这样的可能性:例如,外科医生可以通过该显示设备看向手术现场,但是也可以看到在他或她的视场中可视化的信息,该信息可以帮助执行预期的介入。透明的显示设备可以被集成在一副眼镜中,但是也可以是平面显示器,该平面显示器能够被定位在外科医生的头部与手部之间,使得外科医生可以看到透明的监视器上的内容并且看透透明的监视器而看到监视器上的信息以及监视器后方的持有器械的手和患者。作为另外的示例,显示设备可以是投影设备,该投影设备可以将图像信息投影到设备或患者的表面上。替代地或额外地,投影设备可以将信息直接投影到眼睛的视网膜上。
根据实施例,患者的图像信息可以包括2D X射线图像数据、3D CT图像数据、3DMRI图像数据、超声图像数据和/或视频图像数据。注意,可以例如在诊断过程中和/或在介入规划中预先生成和存储患者的图像信息,或者可以当前由处理单元实时生成和处理患者的图像信息。
根据又一实施例,所述系统的所述处理单元被配置为:确定所述对象中的一个对象的所述当前3D位置与该对象的预期3D位置之间的空间偏差,并且例如在所述显示设备上生成对所述偏差的指示。例如,可能预期将X射线系统放置在相对于患者的特定位置中,但是由主跟踪设备探测到的X射线系统的当前位置与该预期位置不同。在这种情况下,会生成指示。首先,该指示可以简单地是指示当前位置不是预期位置的警报。另外,该指示可以包括当前位置与预期位置相距多远的信息。最后,可以预想到自动控制X射线系统以从当前位置移动到预期位置。应当理解,还可以为手术室中的一个或多个任何其他对象提供这样的指示。
应当理解,不仅仅是系统的元件可以由主跟踪设备来跟踪。实际上,存在于手术室中的每个对象都可以由主跟踪设备来跟踪。例如,每一个介入设备、成像设备的所有部分、一个或多个显示设备甚至辅助跟踪设备、手术灯和患者床都可以由主跟踪设备来跟踪。最后,主跟踪设备也能够跟踪诸如患者或医师/外科医生之类的人。在例如X射线系统被自动移动的情况下,主跟踪设备可以确保在X射线系统的移动空间中没有其他对象,即,可以防止移动的X射线系统与其他任何对象之间的任何碰撞。
根据另外的实施例,所述系统还可以包括辅助跟踪设备。所述辅助跟踪设备可以是视频跟踪设备、电磁跟踪设备、射频跟踪设备,并且所述辅助跟踪设备可以包括光学形状感测和/或微机电传感器(MEMS)。X射线设备或视频相机也可以用于跟踪目的。假设跟踪设备的视场受到某种程度的限制,那么具有至少用于跟踪手术室中的特定元件或对象的辅助跟踪设备会是有利的。
根据另一方面,提供了一种被配置为在如上所述的系统的处理单元上运行的软件程序产品。所述软件程序产品可以包括令所述处理单元将3D位置信息与一个对象的图像信息进行组合的指令集。其中,所述处理单元可以从所述主跟踪设备接收所述对象的所述3D位置信息,并且从数据库或实况成像设备接收表示所述对象的图像信息。对于其他任何对象进行同样的操作。所述软件程序产品可以包括令所述处理单元执行以下操作的指令集:从所述主跟踪设备接收第二对象或任何其他对象的3D位置信息,并且接收表示所述对象的图像信息。最后,所述软件程序产品令所述处理单元生成所述第一对象的图像信息的可视化,所述第一对象的图像信息与所述第二对象或其他对象的图像信息空间相关,其中,所述对象中的每个对象的图像信息被示为处于其当前3D位置处。
根据实施例,所述软件产品还包括令所述处理单元执行以下操作的指令集:选择要由所述主跟踪设备跟踪的对象,并且从可用的图像信息中选择所述对象中的每个对象的图像信息。一方面,每个移动物体可以由主跟踪设备自动跟踪以避免任何碰撞。换句话说,所述软件程序产品可以包括令所述处理单元执行以下操作的指令集:在被跟踪对象不允许相交的可能性的情况下生成警报输出。
另一方面,诸如外科医生之类的用户可以向处理单元提供用于识别要跟踪的对象的输入。应当理解,可以以任何已知的方式提供这样的输入,例如经由键盘、触摸板、计算机鼠标、触摸屏、语音命令或手势来提供这样的输入。
在包括任何成像设备的实施例中,所述软件程序产品还可以包括令所述处理单元执行以下操作的指令集:接收对象的实况图像信息,并且生成包括所述实况图像信息的可视化。
对应的计算机程序产品可以优选被加载到处理单元的工作存储器中。因此,处理单元可以被装备为执行本文描述的流程步骤的至少部分。另外,本发明涉及一种计算机可读介质,例如,CD-ROM,计算机程序产品可以被存储在所述计算机可读介质处。然而,计算机程序产品也可以通过诸如万维网之类的网络来呈现,并且能够从这样的网络被下载到处理单元的工作存储器中。
根据又一方面,提供了一种使用上述系统的方法。所述方法可以包括以下步骤:借助于主跟踪系统基于发出和探测光脉冲来确定第一对象的3D位置;借助于主跟踪系统基于发出和探测光脉冲来确定其他对象的3D位置;接收所述第一对象和第二/其他对象的图像信息;并且生成包括所述第一对象的图像信息的可视化,所述第一对象的图像信息与所述第二对象的图像信息空间相关。
根据另外的实施例,该方法不包括通过外科手术处置人体或动物体的任何步骤。例如,该方法不包括将介入设备插入患者体内的步骤。虽然可视化可以实时地并且与外科手术流程并行地生成,但是该方法不包括任何切入组织的步骤,并且也不包括切除组织(例如,肿瘤组织)的任何步骤。
必须指出,实施例是参考不同主题来描述的。具体地,一些实施例是参考方法型权利要求来描述的,而其他实施例是参考装置型权利要求来描述的。然而,除非另有说明,本领域技术人员将从以上和以下的描述中推断出,除属于一种类型的主题的特征的任意组合之外,涉及不同主题的特征之间的任意组合也被认为在本申请中得到公开。
本发明的以上定义的方面以及本发明的其他方面、特征和优点也可以从以下将要描述的实施例的示例中得出,并且参考实施例的示例进行解释。在下文中,将参考实施例的示例来更详细地描述本发明,但是本发明不限于此。
附图说明
图1图示了根据实施例的手术室中的系统。
图2示出了根据实施例的主跟踪设备的光源。
图3示出了根据实施例的主跟踪设备的光探测器。
图4是图示根据实施例的方法的步骤的流程图。
附图中的图示仅是示意性的,而并未按比例绘制。需要指出,在合适的情况下,在不同的附图中,相似的元件具有相同的附图标记。
附图标记列表:
10 主跟踪设备的光源
10.1 LED闪光灯
10.2 激光扫掠元件
12 主跟踪设备的光探测器
12.1 光电探测器
12.2 能由辅助跟踪设备跟踪的元件
20 处理单元
22 输入设备
30 X射线成像设备
32 X射线源
34 X射线探测器
36 超声探头
38 视频相机
40 显示设备
42 增强现实眼镜
50 辅助跟踪设备
60 介入器械
70 手术灯
80 患者台
90 患者
92 医师
具体实施方式
图1示出了可以在手术室中使用的系统的实施例。根据该实施例的系统包括具有两个光源10和若干光探测器12的主跟踪系统。如图1所示,光探测器12可以被布置在手术室中的或多或少所有可移动元件上。例如,光探测器12可以被布置在手术灯70处,在基于C臂的X射线设备30处或者在可以被附接在可移动支撑臂上的监视器40处。图1的系统还包括视频相机38、具有手持件36的超声设备、辅助跟踪设备50以及具有输入设备22的处理单元20。注意,该系统可以包括其他元件,例如,也可以被跟踪的可移动机器人臂(未示出)。医师92可以在该手术室中行动并且必须知道他或她周围的所有部分。患者90由患者台80支撑。
如图1所示,即使在患者90上,也可以放置主跟踪系统的探测器12。在图2和图3中,示出了光源10和光探测器12的示例。根据图2的实施例的光源10包括一个或多个闪光灯10.1以及可旋转元件10.2。根据图3的光探测器可以包括光电探测器12.1以及能由辅助跟踪设备跟踪的元件12.2。
当进行操作时,主跟踪系统可以被布置在手术室内,并且可以用可见光之外的波长的光(例如,红外光)填充手术室。根据这些信号,能够通过三角测量来识别手术室中的任何对象的空间位置。该思想是:代替测量角度,主跟踪设备从元件10.2发出光束,例如从光源10内部的旋转镜发出光束。旋转速率必须保持非常恒定,因此能够测量时间差。闪光灯可以用于同步,其中,可以从发光器10.1发出闪光,该发光器10.1可以是LED闪光灯。在发出闪光以进行同步之后,两条光束在X方向和Y方向上扫掠过整个手术室,这些光束可以从光源10的元件10.2发出。基于闪光与扫掠之间的时间差,微控制器可以计算光探测器中的每个光探测器的位置,即,例如光探测器12的光电探测器12.1的位置。不需要网络通信,不需要集中式服务器或任何其他东西。这种简单的被动式扫掠探测完成了大部分工作。
主跟踪系统可以在5米范围内探测到在5厘米范围内的对象,优选在1厘米范围内的对象,最优选在1毫米范围内的对象,即,最优选探测到在200微弧度的角度内的对象。换句话说,能够以在手臂长度处伸出的一张打字纸的宽度所跨越的角度内探测到对象。当使用特定波长范围内的光时,也可能探测患者皮肤下的光。可见光谱之外的光谱或至少部分在红光谱内的光谱将是合适的。也就是说,光探测器或发光器可以是可植入的,或者可以在被配置为临时插入患者体内的器械的部分处(至少在表皮下方几毫米处)。
具有发出激光扫掠的反射镜的旋转圆柱体可以60Hz的频率旋转。因此,一个周期的测量时间可以在48MHz内,也就是说,在微控制器的常规频率内。应当确保旋转镜(例如,元件10.2)以恒定速率旋转。旋转速度越恒定,测量精度就越高。
回到图1,示出了基于C臂的X射线设备30,其具有X射线源32和X射线探测器34,它们可以在箭头所示的若干方向上旋转。此外,X射线设备可以适于在手术室的地板上沿着任何路径移动,例如从静止位置移动到患者台或者沿着患者台移动。在该实施例中,视频相机38被附接在X射线探测器34处,其中,该视频相机可以用于观察患者90的表面。视频相机信号可以用于对手术现场进行成像和/或用作辅助跟踪设备。例如,视频相机的图像可以用于识别对象的取向,其中,该对象的3D位置由主跟踪设备来确定。视频图像可以与由X射线设备生成的X射线图像并行地生成。介入器械60还可以被提供有光探测器12,使得主跟踪系统可以探测器械的三维位置。
在图1的系统的实施例中,例如通过可移动支撑臂将辅助跟踪设备50和手术灯70分别附接到手术室的天花板。除了主跟踪设备和辅助跟踪设备之外,还可以从传感器(例如,微机电传感器(MEMS))接收关于元件的位置和/或取向的信息,这些传感器允许探测一个设备的元件相对于彼此的相对位置,或者可能探测到加速度或移动。例如,X射线设备30可以具有这样的传感器,该传感器允许确定C臂相对于X射线设备的底座的当前位置,并且因此确定X射线源32和X射线探测器34的当前位置(知晓设备的尺寸)。另一方面,患者台80还可以被装备有这样的传感器,该传感器识别支撑板的高度,并且还可能识别支撑板相对于患者台架的位置,在这种情况下,支撑台可以例如在患者90相对于手术室中的其他系统的纵向方向上移动。
主跟踪设备的第一方面是确保手术室中的可移动元件不会意外碰撞。也就是说,主跟踪设备可以探测例如手术灯70相对于X射线设备30的C臂的移动,并且C臂的旋转可能导致C臂与手术灯碰撞。在这样的情况下,处理来自手术室中的所有元件的所有信息的处理单元20会生成警报,甚至可以自动停止X射线设备的C臂的移动以避免任何元件的损坏。跟踪患者或医师允许防止发生任何事故。
能够在来自不同图像来源的不同图像的实时组合中看到系统的另一方面。例如,视频相机38或超声设备36以及X射线系统30可以提供实况图像,并且可以从数据库(未示出)中接收其他图像。这样的图像的组合(例如作为图像的叠加物)要求图像相对于彼此配准。在一个实施例中,允许例如X射线图像与视频图像的这样的配准和组合的元件可以是可以被定位在患者90上的主跟踪系统的光探测器12。如图3所示,光探测器12可以包括作为主跟踪设备的元件的光电探测器12.1,其允许探测在手术室中的患者的位置。对位置的探测足够准确,使得甚至可以利用这样的探测器来探测患者胸部的呼吸移动。在该实施例中,探测器12的特定形状同时允许在X射线图像中识别该特定形状。优选地,探测器由在X射线图像中可见的不透射线的材料形成。也可以在视频相机图像中识别患者90处的探测器12。可以使用分割算法来计算光电探测器或与光电探测器具有已知空间关系的成像标记的位置。如果在成像数据中识别出足够的光电探测器,则能够计算成像数据与光电探测器的关系。处理单元20可以将患者90的表面图像与来自患者内部的X射线信息进行组合,并且所有这些都具有与X射线图像同步的视角和与X射线图像相同缩放的视频图像。这样的组合图像能够被显示在监视器40上,这样的组合图像能够被显示在控制台处的固定监视器上,也能够被显示在如图1所示的可移动监视器40上。
组合图像的可视化也可以被显示在能由医师92佩戴的一副特殊的眼镜42上。应当理解,这样的眼镜至少是半透明的,使得医师可以透过眼镜而看到患者和手术现场。同时,那些透明的眼镜可以示出诸如由X射线设备成像的患者的内部结构之类的信息。应当理解,也可以预先从诸如数据库之类的存储设备生成和接收这样的信息。当使用这样的眼镜(其可以被称为“增强现实眼镜”)时,眼镜相对于患者台或患者的当前位置会是令人感兴趣的。主跟踪系统可以跟踪眼镜42,因此能够探测到眼镜相对于手术室中的其他对象(特别是患者)的位置的空间位置,并且因此可以获知眼镜相对于手术室中的其他对象(特别是患者)的位置的空间位置。这允许识别手术室中的医师的观察方向,并且因此允许针对医师的观察角度来调整C臂,并且因此允许从相同的方向观察患者的内部结构的对应可视化。
在下文中,将讨论一些特定实施例,这些特定实施例可以图示由图1的系统的所选择的元件实现的示例。
根据实施例,成像设备30和患者90可以由主跟踪设备来跟踪,并且通过使用跟踪信息来改善对成像设备的成像。例如,移动X射线系统可以在手术室中移动并且在不同位置中对患者的双腿进行多次拍摄。然后可以通过使用跟踪信息将这些图像拼接在一起。类似地,可以将基于来自不同成像方向的多幅X射线图像的3D重建放在一起。
对移动C臂的跟踪还可以允许将术前数据叠加或注释在实况荧光检查数据上,术前数据叠加,术前规划叠加以及整形外科指导。它还可以允许停车和复位功能(使用电动车轮/底座)。
跟踪固定的C臂(即,C臂的底座不可移动)可以允许无校准的3D道路映射和重建(可能包括MEMS传感器和智能建模),重量轻且刚性较小的C臂或甚至是没有C臂的能够执行道路映射和3D重建的系统(具有独立的臂的单独的源和探测器),改善的中风成像,以及对C臂的自动定位或自动等中心处理。
在手术室中跟踪诸如显微镜、C臂、移动CT系统、回波探头、高光谱相机等物品允许避免碰撞。
通过将光电探测器或发光盒放置在医学成像设备上的已知位置上,能够建立患者探测器与成像设备之间的空间关系。这使得能够确定成像数据与患者上的光电探测器的关系,而无需使标记在实际成像数据本身中可见(例如在X射线荧光检查或超声成像中)。
根据实施例,除了患者之外,还可以跟踪介入器械。主跟踪设备的元件可以被放置在器械上。因此可以计算器械与患者处的跟踪标记之间的角度。注意,跟踪标记在患者处的位置也可以由辅助跟踪设备来确定。
根据另一实施例,可穿戴显示设备可以由主跟踪设备来跟踪,其中,对可穿戴显示器的角度取向的确定是令人感兴趣的。在头戴式设备上放置发光盒能够提高跟踪显示器相对于患者的角度准确度。头戴式设备内部的相机也可以用于探测患者上的(被动)光学标记。被跟踪的可穿戴显示器的位置还可以用于控制导航系统。例如,外科手术导航软件的屏幕布局或对探测器的自动定位,从而避免碰撞并获得更好的工作空间。
在另外的实施例中,发光设备可以被配置为是能植入的设备。这可以促进对标记的位置定位。注意,使用MEMS技术和LED可以使发光盒显著小型化。为了获得小型化的宽带光源,能够将基于固态的光源(例如,LED)与无机磷光体和光学陶瓷组合使用。还应注意,光谱照明能够用于获得关于光源与探测器之间的组织的信息。当使用许多探测器时,可以实时计算组织的3D光谱重建。而且,对于单个传感器或一组有限的传感器,也能够通过利用更复杂的发光图案(例如,代替闪光后跟随2次激光扫掠,而使用闪光后跟随更独特的光学图案,例如,扫描激光图案和/或大量不同方向的激光扫掠)来采集3D光谱数据。
由于所有光源相对于患者都变暗,因此能够显著提高光电探测器的灵敏度,从而补偿光在组织中的有限穿透深度。当使用电池供电的可植入标记时,通过使用电线(其还对植入物供电)或基于RF的通信(蓝牙等)将在可植入标记内部的测得的定时(或计算出的位置)传达到患者外部。还能够通过基于例如近场或中场中的电磁耦合的无线功率传输来为可植入标记供电。替代地,光探测器可以被配置为是可植入的。
应当理解,能够将跟踪信息的信息与诸如惯性(例如,加速度计、陀螺仪)传感器之类的其他传感器数据进行组合和融合。这使得能够提高准确度并更新定位速度。
根据另一实施例,实现了无校准的3D扫描和患者运动补偿。
图4中的流程图图示了根据本文描述的实施例执行的步骤的原理。应当理解,所描述的步骤是主要步骤,其中,这些主要步骤可能被区分或分成若干子步骤。此外,这些主要步骤之间也可能会有子步骤。
假设手术室已经装备了主跟踪设备,例如装备了在墙壁上的发光器和所有相关对象上的光探测器,则可以参考图4来执行以下步骤。
在步骤S1中,通过具体的手动选择来选择应被跟踪的对象,或者通过对预期流程的一般指示来自动选择应被跟踪的对象。
在步骤S2中,确定第一对象的3D位置。3D位置信息还可以包括3D取向信息。可以至少利用主跟踪设备来执行该步骤。
在步骤S3中,从数据库中接收第一对象的图像信息,或者从成像设备接收第一对象的图像信息作为实况图像。
在步骤S4中,将步骤S2的位置信息标示为步骤S3的图像信息。
步骤S5至S7对应于步骤S2至S4,但是针对第二对象执行的。应当理解,还可以针对其他对象执行这样的步骤。
在步骤S8中,处理这两个对象的图像和位置信息,以便生成相对于彼此处于正确空间位置的图像信息的组合。图像信息的组合可以是不同种类的图像的叠加图像,例如,从3D X射线图像重建到患者外表面的视频图像的2D投影,这两者都处于相同的观察方向。
在作为任选步骤的步骤S9中,如果处理单元基于跟踪信息确定有对象碰撞的风险,则生成警报。
在也是任选步骤的步骤S10中,可以至少启动对对象中的至少一个对象的停止移动或主动移动以防止碰撞。
在步骤S11中,生成组合图像信息的可视化。
在步骤S12中,将可视化显示在诸如监视器或可佩戴眼镜之类的显示设备上。
注意,大多数步骤可以被实施为计算机软件的步骤,并且因此可以被自动执行。还应注意,用于处理那些步骤的处理单元可以是单个处理单元,也可以包括具有单独的任务的多个处理单元。例如,主跟踪设备可以具有用于确定所有被跟踪对象的3D位置的第一处理单元。替代地或额外地,可以由单独的显示处理单元来生成可视化。
虽然已经在附图和前面的描述中详细图示和描述了本发明,但是这样的图示和描述应当被认为是图示性或示例性的,而非限制性的;本发明不限于所公开的实施例。本领域技术人员通过研究附图、公开内容以及权利要求,在实践请求保护的发明时可以理解并实现对所公开的实施例的其他变型。
在权利要求中,“包括”一词不排除其他元件或步骤,并且词语“一”或“一个”不排除多个。虽然某些措施被记载在互不相同的从属权利要求中,但是这并不指示不能有利地使用这些措施的组合。权利要求中的任何附图标记都不应被解释为对范围的限制。

Claims (14)

1.一种用于在手术室中使用的系统,所述系统包括:
主跟踪设备,其包括多个光源(10)和多个光探测器(12),其中,所述光源中的每个光源被配置为发出光脉冲,并且所述光探测器中的每个光探测器被配置为探测所述光脉冲,其中,所述主跟踪设备被配置为基于所述光脉冲和时间差的测量结果来确定所述手术室中的多个对象的当前3D位置,以及
处理单元(20),其中,所述处理单元被配置为:接收至少两个对象的图像信息,从所述主跟踪设备接收所述多个对象的3D位置信息,并且生成第一对象的图像信息的可视化,所述第一对象的图像信息与第二对象的图像信息空间相关。
2.根据权利要求1所述的系统,其中,所述光源(10)被固定地布置在所述手术室中,并且所述光探测器(12)分别被布置在所述对象处。
3.根据权利要求1和2中的任一项所述的系统,其中,所述系统还包括成像设备(30),其中,所述成像设备是来自包括以下各项的组中的至少一个设备:2D X射线成像设备、3D计算机断层摄影设备、磁共振成像设备、超声设备(36)、高光谱成像设备以及视频相机(38)。
4.根据权利要求1至3中的任一项所述的系统,其中,所述系统还包括被配置为显示所生成的可视化的显示设备(40)。
5.根据权利要求4所述的系统,其中,所述显示设备是透明的显示设备(42)。
6.根据权利要求1至5中的任一项所述的系统,其中,所述系统还包括辅助跟踪设备(50),其中,所述辅助跟踪设备包括来自包括以下各项的组中的至少一项:高光谱跟踪设备、视频跟踪设备、电磁跟踪设备、射频跟踪设备、超声跟踪设备、X射线跟踪设备、光学形状感测设备以及微机电传感器。
7.根据权利要求1至6中的任一项所述的系统,其中,所述多个对象包括来自包括以下各项的组中的至少两项:至少一个介入设备(60)、成像设备(30)、成像配准设备、显示设备(40、42)、辅助跟踪设备(50)、手术灯(70)、患者台(80)以及诸如患者(90)或医师(92)之类的至少一个人。
8.根据权利要求1至7中的任一项所述的系统,其中,患者的图像信息包括来自包括以下各项的组中的至少一项:2D X射线图像数据、3D CT图像数据、3D MRI图像数据、超声图像数据、视频图像数据。
9.根据权利要求1至8中的任一项所述的系统,其中,所述处理单元还被配置为:确定所述对象中的一个对象的所述当前3D位置与该对象的预期3D位置之间的空间偏差,并且在所述显示设备上生成对所述偏差的指示。
10.一种被配置为在根据权利要求1所述的系统的所述处理单元上运行的软件程序产品,所述软件程序产品包括令所述处理单元执行以下操作的指令集:
从主跟踪设备接收第一对象的3D位置信息,
接收表示所述第一对象的图像信息,
从所述主跟踪设备接收第二对象的3D位置信息,
接收表示所述第二对象的图像信息,
生成所述第一对象的图像信息的可视化,所述第一对象的图像信息与所述第二对象的图像信息空间相关。
11.根据权利要求10所述的软件产品,还包括令所述处理单元执行以下操作的指令集:选择要由所述主跟踪设备跟踪的对象,并且从可用的图像信息中选择所述对象中的每个对象的图像信息。
12.根据权利要求10或11所述的软件产品,还包括令所述处理单元执行以下操作的指令集:接收对象的实况图像信息,并且生成包括所述实况图像信息的所述第一对象和所述第二对象的可视化。
13.根据权利要求10至12中的任一项所述的软件产品,还包括令所述处理单元执行以下操作的指令集:在被跟踪对象不允许相交的情况下生成警报输出。
14.一种使用根据权利要求1所述的系统的方法,所述方法包括以下步骤:
借助于主跟踪系统基于发出和探测光脉冲来确定所述第一对象的3D位置,
借助于主跟踪系统基于发出和探测光脉冲来确定第二对象的3D位置,
接收所述第一对象和所述第二对象的图像信息,
生成包括所述第一对象的图像信息的可视化,所述第一对象的图像信息与所述第二对象的图像信息空间相关。
CN201980024315.0A 2018-03-30 2019-03-27 监视手术室中的移动物体 Pending CN111936074A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18165293.4A EP3545896A1 (en) 2018-03-30 2018-03-30 Monitoring of moving objects in an operation room
EP18165293.4 2018-03-30
PCT/EP2019/057653 WO2019185670A1 (en) 2018-03-30 2019-03-27 Monitoring of moving objects in an operation room

Publications (1)

Publication Number Publication Date
CN111936074A true CN111936074A (zh) 2020-11-13

Family

ID=62027768

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980024315.0A Pending CN111936074A (zh) 2018-03-30 2019-03-27 监视手术室中的移动物体

Country Status (5)

Country Link
US (1) US20210052329A1 (zh)
EP (2) EP3545896A1 (zh)
JP (1) JP2021519186A (zh)
CN (1) CN111936074A (zh)
WO (1) WO2019185670A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112880557A (zh) * 2021-01-08 2021-06-01 武汉中观自动化科技有限公司 一种多模式跟踪器系统

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3858280A1 (en) * 2020-01-29 2021-08-04 Erasmus University Rotterdam Medical Center Surgical navigation system with augmented reality device
US20210298863A1 (en) * 2020-03-27 2021-09-30 Trumpf Medizin Systeme GmbH & Co. KG. Augmented reality for a surgical system
DE102020114418A1 (de) * 2020-05-29 2021-12-02 Karl Leibinger Medizintechnik Gmbh & Co. Kg System zur Überwachung einer Operationsleuchtenanordnung
EP3936080A1 (en) * 2020-07-09 2022-01-12 Koninklijke Philips N.V. Navigated medical imaging
US11922645B2 (en) 2021-03-18 2024-03-05 Medtronic Navigation, Inc. Imaging system
US11769261B2 (en) * 2021-03-18 2023-09-26 Medtronic Navigation, Inc. Imaging system
US20230081686A1 (en) * 2021-09-10 2023-03-16 Epica International, Inc. System and method to compensate for movement during surgery

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1415609A1 (en) * 1998-01-28 2004-05-06 Sherwood Services AG Optical object tracking system
US20120086953A1 (en) * 2010-08-04 2012-04-12 Boulder Innovation Group Inc. Methods and Systems for Realizing Reduced Complexity in Three-Dimensional Digitizer Systems
CN105025835A (zh) * 2013-03-13 2015-11-04 史赛克公司 用于在外科程序的准备中布置手术室中的对象的系统
CN105578985A (zh) * 2013-12-19 2016-05-11 皇家飞利浦有限公司 对象跟踪设备
US20170105713A1 (en) * 2011-08-21 2017-04-20 M.S.T. Medical Surgery Technologies Ltd Device and method for assisting laparoscopic surgery - rule based approach
CN107106253A (zh) * 2014-12-16 2017-08-29 皇家飞利浦有限公司 脉动光发射标记设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5100229A (en) * 1990-08-17 1992-03-31 Spatial Positioning Systems, Inc. Spatial positioning system
US6675040B1 (en) * 1991-01-28 2004-01-06 Sherwood Services Ag Optical object tracking system
US20130006120A1 (en) * 2010-03-17 2013-01-03 Alexander Druse Marker for a medical navigation system with a laser tracker
US20150253428A1 (en) * 2013-03-15 2015-09-10 Leap Motion, Inc. Determining positional information for an object in space
US20140276000A1 (en) * 2013-03-15 2014-09-18 Vector Sight Inc. Laser Tracking of Surgical Instruments and Implants
US10338186B2 (en) * 2014-11-10 2019-07-02 Valve Corporation Positional tracking systems and methods
GB2568425B (en) * 2016-08-17 2021-08-18 Synaptive Medical Inc Wireless active tracking fiducials
GB2568426B (en) * 2016-08-17 2021-12-15 Synaptive Medical Inc Methods and systems for registration of virtual space with real space in an augmented reality system
US10460469B2 (en) * 2017-07-07 2019-10-29 GameFace Labs Inc. Systems and methods for position and pose determination and tracking
US10996742B2 (en) * 2017-10-17 2021-05-04 Logitech Europe S.A. Input device for AR/VR applications

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1415609A1 (en) * 1998-01-28 2004-05-06 Sherwood Services AG Optical object tracking system
US20120086953A1 (en) * 2010-08-04 2012-04-12 Boulder Innovation Group Inc. Methods and Systems for Realizing Reduced Complexity in Three-Dimensional Digitizer Systems
US20170105713A1 (en) * 2011-08-21 2017-04-20 M.S.T. Medical Surgery Technologies Ltd Device and method for assisting laparoscopic surgery - rule based approach
CN105025835A (zh) * 2013-03-13 2015-11-04 史赛克公司 用于在外科程序的准备中布置手术室中的对象的系统
CN105578985A (zh) * 2013-12-19 2016-05-11 皇家飞利浦有限公司 对象跟踪设备
CN107106253A (zh) * 2014-12-16 2017-08-29 皇家飞利浦有限公司 脉动光发射标记设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112880557A (zh) * 2021-01-08 2021-06-01 武汉中观自动化科技有限公司 一种多模式跟踪器系统

Also Published As

Publication number Publication date
JP2021519186A (ja) 2021-08-10
WO2019185670A1 (en) 2019-10-03
EP3773303A1 (en) 2021-02-17
US20210052329A1 (en) 2021-02-25
EP3545896A1 (en) 2019-10-02

Similar Documents

Publication Publication Date Title
CN111936074A (zh) 监视手术室中的移动物体
US10932689B2 (en) Model registration system and method
US6873867B2 (en) Referencing or registering a patient or a patient body part in a medical navigation system by means of irradiation of light points
CN113925610B (zh) 用于在由虚拟对象限定的目标部位处对患者执行手术的系统和方法
JP5190510B2 (ja) 神経外科用多機能ロボット化プラットフォームと位置調整方法
JP4974137B2 (ja) 医用撮像装置で画像を取得する方法
JP5741885B2 (ja) 物体の空間位置そして/または空間方位の非接触決定及び測定用システムと方法、特に医療器具に関するパターン又は構造体を含む特に医療器具の較正及び試験方法
US6675040B1 (en) Optical object tracking system
US6405072B1 (en) Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
CA3061191A1 (en) Tissue imaging system and method for tissue imaging
EP2438880A1 (en) Image projection system for projecting image on the surface of an object
US20070299334A1 (en) Medical instrument with a touch-sensitive tip and light emission source
JPH11509456A (ja) 画像誘導手術システム
JP2004513684A (ja) 内視鏡による標的化方法およびシステム
JP2001245880A (ja) 医療器具の位置判定方法
JP2000510730A (ja) 定位手術処置装置および方法
JP2003159247A (ja) 解剖学的物体の内部領域を視覚化するシステムおよび方法
CN113180593A (zh) 显示设备
US20020172328A1 (en) 3-D Navigation for X-ray imaging system
US20150301439A1 (en) Imaging Projection System
JP2022537891A (ja) 追跡システム視野を配置するシステムおよび方法
Adams et al. An optical navigator for brain surgery
EP3944254A1 (en) System for displaying an augmented reality and method for generating an augmented reality
JP2009172124A (ja) 手術ナビゲーションシステム、画像表示方法、コンピュータプログラム及び記録媒体
US20240358454A1 (en) Surgical robotic arm with proximity skin sensing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination