CN108601628B - 将操作器械定位在患者身体内的导航、跟踪和引导系统 - Google Patents

将操作器械定位在患者身体内的导航、跟踪和引导系统 Download PDF

Info

Publication number
CN108601628B
CN108601628B CN201680068251.0A CN201680068251A CN108601628B CN 108601628 B CN108601628 B CN 108601628B CN 201680068251 A CN201680068251 A CN 201680068251A CN 108601628 B CN108601628 B CN 108601628B
Authority
CN
China
Prior art keywords
patient
viewer
probe
detection means
light guide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201680068251.0A
Other languages
English (en)
Other versions
CN108601628A (zh
Inventor
亚历山德罗·罗蒂里奥
马尔科·索尔比亚蒂
毛里齐奥·米拉比莱
鲁吉·泽尼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RAW Srl
Original Assignee
RAW Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RAW Srl filed Critical RAW Srl
Publication of CN108601628A publication Critical patent/CN108601628A/zh
Application granted granted Critical
Publication of CN108601628B publication Critical patent/CN108601628B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/062Measuring instruments not otherwise provided for penetration depth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/066Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring torque
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0807Indication means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Nuclear Medicine (AREA)

Abstract

用于将操作器械(5)定位在患者(P)身体内部的导航、跟踪和引导系统(1),包括控制单元(2)、显示器(3)和用于确定观察器(3)的空间位置的第一检测装置(4)。系统(1)进一步包括与操作器械(5)相关联并且可插入患者(P)的身体内部部分(Pi)的内部的传感器。探头包括至少一个光导,其具有在光导内产生的光通量的色散区和用于检测光通量的色散的检测装置,以便在插入患者(P)体内时识别探头的空间布置。控制单元(2)被配置为基于所识别的空间布置在观察器(3)上投射患者(P)的身体的至少一个内部部分(Pi)的内部状态的图像以及探头的图像。

Description

将操作器械定位在患者身体内的导航、跟踪和引导系统
技术领域
本发明涉及一种用于将操作器械放置在患者身体内的导航、跟踪和引导系统,其中增强现实被用作操作者界面。
背景技术
本发明的系统特别适用于诸如诊断放射学、肿瘤学手术放射学、血管手术放射学、通过插入探头和/或针(诸如活检和液体抽吸)的手术和神经外科手术的应用。
迄今为止,在手术和手术导航领域中,已知使用采用放射图像并将它们与超声探头运动对接的系统。
例如,在这些类型的手术导航期间,使用配备有计算机断层摄影(CT)装置的系统,该系统实时以及在手术期间提供放射图像(手术室内CT扫描)。
还有其他已知的系统可以提供消融探头的虚拟跟踪,但是没有提供任何关于变形的信息。
另一方面,使用配备有用于观看图像的显示器的手术室眼镜是已知的。为此,文献EP2737868A1描述了一种系统,其包括无线手术放大镜,该无线手术放大镜允许使用无线镜头的用户在手术的执行期间传输从无线镜头获取的信息,并且在显示器上查看患者信息。通过这种方式,所传输的信息可用于辅助手术室中的手术并改善指令并被记录以供以后使用。
此外,文献US 6,847,336B1描述了用于在安装在用户的正常视野中的半透明屏幕上显示数据的系统和方法。屏幕可安装在用户的头部,或者安装在移动结构上并定位在用户的前方。用户界面显示在屏幕上,包括可移动光标和计算机控制图标菜单。“眼动跟踪”系统安装在用户附近,用于控制光标的移动。
另外,文献US7501995B2描述了一种用于呈现使用视力辅助导航的临床支持信息的系统和方法。
此外,文献WO2009083191A1描述了一种选择性显示系统,其允许在安装在眼镜上的显示装置上选择性地显示数据和信息。
另一方面,通过3D三维显示重建医学图像同样是已知的,其中,提供患者体积的三维跟踪,以及可能还提供各种医疗和外科应用领域中的针的跟踪。
例如,文献US5526812A描述了一种显示系统,其允许在医疗手术期间增加和改善身体结构的显示。
在文献US7,774,044B2、US2002/0082498A1和US2013/0267838A1中描述了与医疗干预相关的手术中的增强现实中的导航系统和方法的其他实例。
虽然所有上述系统描述了在手术过程中各种操作者辅助方法,但在微创干预的情况下仍存在一些限制。
实际上,在微创干预的情况下,提供了在患者体内插入手术器械,即探头,其能够在不打开患者身体的情况下执行操作。由于难以精确地估计需要手术的组织的位置以及要插入的器械的位置,所以这种干预很复杂。出于这种复杂性,在手术完成期间经常发生错误。
这些系统通过跟踪使用电磁传感器或光学系统的微创干预的超声探头(具有或不具有低空间分辨率),结合使用了以低空间分辨率为特征的超声波,以高分辨率为特征的放射图像的显示。
发明内容
在此背景下,本发明所基于的技术任务是提出一种用于将操作器械定位在患者体内的导航、跟踪和引导系统/方法,其克服了上述现有技术的一个或多个缺点。
具体而言,本发明的目的是提供一种导航、跟踪和引导系统/方法以及用于操作器械的定位的引导,其中增强现实被用作操作者界面,以允许操作者以准确、可靠、安全和有效的方式对患者进行操作。
有利的是,本发明涉及一种系统和方法,它们将不同的技术结合在一起或者组合在一起,允许与患者(生物医学、生理和病理类型)身体的内部结构相关的图像在任何类型的装置上显示,并且涉及操作器械部分地插入到患者体内,因此除非患者的身体被打开,否则这两者对于操作者来说都是外部不可见的。这些图像的2,3或4个维度对于操作者而言在对应于它们所代表的结构的空间中的实际位置的位置上是可见的。
有利地,根据本发明,显示器还涉及外科手术器械的使用、跟踪和定位,具体关注人体内病理学的“靶向”。
因此,本发明提供了一种导航、跟踪和引导操作器械在患者体内的放置的系统和方法,其中增强现实被用作操作者界面以在患者的确切实际外部位置实时查看患者的内部操作区域。
根据本发明的第一方面,所提及的技术任务和所指定的目的基本上通过用于将操作器械定位在患者体内的导航、跟踪和引导系统来实现,其包括以下一个或多个所附权利要求中所述的技术特征。
具体地说,本发明提供了用于将操作器械定位在患者体内的导航、跟踪和引导系统,包括:
-控制单元,被配置为接收与患者的身体的内部状态有关的多个信息,
-观察器,以这样的方式配置,使得操作者可以通过所述观察器看到所述患者的身体的至少一个内部部分,以及
-第一检测装置,用于确定所述观察器的空间位置。
所述控制单元被配置为在所述观察器上投射患者身体的内部部分的内部状态的图像,其中,所述图像通过根据所述观察器的所述空间位置处理所述多个信息而获得。
有利的是,所述系统进一步包括与操作器械相关联并且可插入患者身体的部分内的探头,其中,所述探头包括至少一个光导,其具有在所述光导内产生的光通量的色散区和用于检测所述光通量的色散的检测装置,以便在插入所述患者体内时识别所述探头的空间布置。
有利的是,所述控制单元还被配置为基于所识别的空间布置在所述观察器上投射所述探头的图像。
在此包括作为参考的从属权利要求对应于本发明的不同实施例。
在本发明的第二方面中,所提及的技术任务和所指定的目的基本上通过用于将操作器械定位在患者体内的导航、跟踪和引导方法来实现,其包括在一个或多个所附权利要求中所述的技术特征。
根据本发明,该方法包括以下步骤:
-提供观察器,所述观察器以这样的方式配置,使得操作者可以通过所述观察器看到所述患者(P)的身体的至少一个内部部分;
-提供第一检测装置,用于确定所述观察器的空间位置;
提供控制单元以执行以下步骤:
-接收与患者身体内部状态有关的多个信息,
-基于所述观察器的空间位置处理所述多个信息;以及
-根据所执行的处理,在所述观察器上投射所述患者的身体的至少一个内部部分的内部状态的图像。
有利的是,该方法包括以下步骤:
-提供与操作器械相关联并且可插入到患者身体的部分内的探头,所述探头包括至少一个光导,该光导具有在所述光导内产生的光通量的色散区和用于检测所述光通量的色散的检测装置,以便在插入所述患者体内时识别所述探头的空间布置,
-此外,由所述控制单元基于所识别的空间布置在所述观察器上投射所述探头的图像。
在此包括作为参考的从属权利要求对应于本发明的不同实施例。
在本发明的第三方面中,所提及的技术任务和所指定目的基本上通过用于将操作器械定位在患者体内的导航、跟踪和引导方法来实现,其特征在于,其由计算机根据所附权利要求的描述执行。
在本发明的第四方面中,所提到的技术任务和所指定目的基本上通过一种计算机程序来实现,其特征在于,当在计算机上运行时,其执行所述方法的步骤。
附图说明
图1是根据本公开实施方式的用于将操作器械定位在患者体内的导航、跟踪和引导系统的透视示意图;
图2是根据本公开实施方式的示出了测量编码器的示意图。
具体实施方式
从用于将操作器械定位在患者体内的导航、跟踪和引导系统的优选的但非排他的实施例的说明(且因此非限制性描述)中,本发明的进一步的特征和优点将变得更加明显,如附图所示,其中,图1是根据本发明在操作配置期间用于将操作器械定位在患者体内的导航、跟踪和引导系统的透视示意图。
参照附图,1通常表示用于将操作器械定位在患者身体内的导航、跟踪和引导系统,从现在开始简单地表示为系统1。
系统1包括控制单元2,控制单元2被配置为接收与患者P的身体的内部状态有关的多个信息。
优选地,至少通过扫描出现(occur)关于患者P的身体的内部状态的多个信息,例如RX(X射线)、MRI(磁共振成像)、CT(计算机化轴向断层摄影)、PET-CT(计算机化正电子发射断层扫描)。
扫描可以原位进行或者预先装载到控制单元2中。
系统1包括观察器3,观察器3以这样的方式配置,使得未示出的操作者可通过观察器3看到患者P的身体的至少一个内部部分Pi。
该系统还包括用于确定观察器3的空间位置的第一检测装置4。
控制单元2被配置为在观察器3上投射患者P的身体的内部部分Pi的内部状态的图像;具体而言,通过基于观察器3的空间位置展开(develop)多个信息来获得图像。
换句话说,控制单元2可将根据观察器3的空间布置而变化的患者P的身体内部的增强现实图像投射到观察器3上。
优选地,观察器3沿操作者——患者P视轴的身体部分布置,以确保操作者的最佳人体工程学条件并避免任何协调问题。
优选地,根据图1中示出的本发明的优选实施例,观察器3由操作者可佩戴的面部观察器(也称为头戴式显示器,HMD)限定,例如具有至少部分透明的透镜的眼镜。
优选地,观察器3包括陀螺仪、罗盘和惯性测量单元;有利地,这些元件允许正确且精确地识别观察器3的空间位置。
优选地,观察器3还包括深度传感器,其适于记录患者的重建体积(reconstructedvolume),这有利地允许操作者在看同一患者P的同时探查患者P体内的器官和病理。
有利的是,根据本发明的系统1进一步包括与操作器械5相关联(即,内部插入)并且可插入到患者P的身体的部分Pi内的未示出的探头。
该探头包括至少一个光导(未示出),其具有在光导内产生的光通量的色散区和用于检测光通量的色散的检测装置,以便在插入患者P体内时识别探头的空间布置。
控制单元2实际上还被配置为基于所识别的空间布置在显示器3上投射探头的图像。
因此,由于本发明,操作者可在观察器3上显示肉眼不会看到的东西。实际上,控制单元2在观察器3上传输增强现实图像,该增强现实图像除了示出患者P的身体的内部状态之外还示出了同一患者P的身体的内部部分Pi内的探头的运动(并且因此示出了操作器械5的运动)。
通过观察器3可见的患者P的实际图像因此叠加在投射为透明的虚拟图像上,显示患者P的器官和内部组织以及插入患者P内的探头部分(否则这些部分将不可见)。
因此,由于本发明,操作者可在受影响的区域上绝对安全和精确地操作,而不需要打开患者P的身体以显示操作区域以及操作器械5的位置/移动。
如上所述,为了识别在插入患者P内时探头的空间布置,提供了光通量在其内流动的光导;通过调制和测量通过色散区反射的光功率损失,可能确定并因此通过控制单元2在观察器3上显示患者P内的探头的位置。
因此,可能实时检查和显示装有本发明类型目的的探头的手术器械5的正确操作,以便精确和可靠地操作。
换句话说,光导沿其中心轴微加工,以便引入反射的光功率损耗,所述反射的光功率损耗根据其所经受的曲率的实体(entity)和方向而变化。
色散区优选通过对光导进行微加工的过程来实现,包括由光导的外壳(也称为“包层”)的直接机械磨损,以便局部地减少核心中光限制的程度。
经过选择性去除包层的光导部分允许(不再限制在核心内)光向外部逸出,导致反射功率的损失。
光功率损耗随着光导的正或负曲率增加或减小,因此功率损耗似乎与光导的敏感区域(也称为“核心”)的曲率成正比。
因此,根据本系统1的操作原理,提供对探头弯曲的测量的集成,其中来自第一检测装置4的位置数据用于确定观察器3的空间位置。
根据本发明的一个可能的实施例,利用具有五个自由度的接合点臂来实现空间参考系统,其允许设置探头相对于“操作场(operatory field)”参考系统的笛卡尔坐标X,Y,Z。
优选地,色散区由沿着所述光导的至少一部分顺序布置的一系列第一色散区限定。
优选地,色散区进一步由沿着所述光导的至少一部分顺序布置并且相对于光导的中心轴线径向交错布置的一系列第二色散区限定。
由于两系列色散区的交错配置,有可能获得对探头空间布置的精确估计。
甚至更优选地,第二色散区相对于一系列第一色散区以90°角布置,其中该角相对于光导的中心轴测量。
优选地,探头包括两个平行光导,其中,一系列第一色散区和一系列第二色散区分别限定在两个光导中的一个光导上。
优选地,光导连接到未示出的光源,具体而言是激光源,并且具有布置在自由终端处的反射壁,其中在激光源和反射壁之间布置方向耦合器,其连接到示波器。
有利的是,用反射材料封闭光纤的自由端,可能产生相反方向的光返回。
优选地,该系统包括连接到控制单元2的未示出的视频转换组件。
优选地,视频转换组件包括:至少两个VGA-HDMI转换器、至少一个BNC-HDMI转换器以及至少两个HDMI端口。更优选地,转换器被布置在单个容器中,并且五个视频信号定义具有五个输入和单个HDMI输出的“切换器”和“缩放器”的输入。视频信号由切换器拾取并以HDMI标准发送给观察器3。
视频信号由镜像装置或编码器发送给观察器3;可替代地,可能使用本地服务器。
根据本系统的一个可能的实施例,预期视频信号可由操作者通过按压装置,例如踏板,来选择。
在手术过程中,踏板对于人体工程学非常有用,期间,医生/操作者必须在手术过程中和诊断过程中以及在活检域的目标定位期间看不同的监视器。
优选地,系统1包括未示出的患者P身体的外表面的第二检测装置6,该第二检测装置6与控制单元2连接并且包括例如照相机或立体照相机,优选地与观察器3成一体。
有利的是,患者P的身体的外表面的第二检测装置6允许在操作者执行操作时记录操作;同样,如果安装在观察器3上,它们对于两个指令都是特别有用的,因为它可能直接获得临床观点,并且法律方面,因为它们记录了整个操作。
优选地,观察器3包括未示出的数据发送和接收单元,优选地经由Wi-Fi与用于确定观察器3的空间位置的第一检测装置连接,和/或与患者P的身体的外表面的第二检测装置6连接。
为了允许增强现实画面的显示尽可能忠实并且与患者P的实际内部状态一致,有必要考虑患者P的重要参数(呼吸、心跳等)。事实上,放射扫描只能提供患者P体内的静态图像。
为此目的,需要识别操作者通过观察器3看到的患者P的身体的外表面的空间配置的变化,以便获得由控制单元2处理的图像在患者P的实际图像上正确重叠/投射。
本发明提供了布置与控制单元2连接的患者P的身体的外表面的第二检测装置6。
具体而言,本发明提供了布置至少三个第一物理标记,所述第一物理标记适于布置在患者P的身体部分Pi的外表面上并且可由第二检测装置6本身检测;检测第一物理标记的动态定位以向控制单元2发送多个信息;并通过控制单元2将投射在观察器3上的内部状态的图像的第一虚拟标记与布置在患者P的身体上的第一物理标记对准。
换句话说,患者P的身体的外表面的第二检测装置6包括至少三个第一物理标记(优选电磁或光学的),未在附图中示出,适于布置在患者P的身体部分Pi的外表面上并且可由第二检测装置6自身检测。患者P身体的外表面的第二检测装置6检测第一物理标记的动态定位以向控制单元2发送多个信息,该控制单元2有利地被配置为将投射在观察器3上的内部状态的图像的第一虚拟标记与布置在患者P的身体上的第一物理标记对准。
这使得可能生成精确且高质量的增强现实图像,其立即反映患者内部的实际状态,静止图像已经用患者P的生命参数“校正”。
本发明提供了布置第二物理标记,该第二物理标记设置在探头上并且适于在使用时设置在患者P的身体外部,并且还使用患者P的身体的外表面的第二检测装置6检测第二标记的物理位置。
换句话说,系统1包括设置在探头上并且适于在使用时放置在患者P的身体外的第二物理标记,其中患者P的身体的外表面的第二检测装置6被配置为还检测第二标记的物理位置。
有利的是,以这种方式,可能精确地识别探头在患者P的身体内部的定位并且在投射在观察器3上的增强现实中观察它。
这里指出空间参考可由操作者采用的拟人臂的事实来提供是有用的,然后在这种配置中,第二物理标记可表示附加的信息片段(基本上是冗余的),但是该信息对于增加系统在探头手柄位置上的可靠性是有用的。
优选地,患者身体的外表面的第二检测装置6包括超声换能器、惯性测量单元和测量编码器中的至少一个,以便实时确定所述患者的生命参数。
具体而言,测量编码器是由至少两个臂组成的系统,所述臂通过由编码器检测其运动的接合点连接。
两臂的末端固定在患者胸部,因此根据患者的胸腔呼吸运动而移动。这样做,他们揭示了呼吸周期的动态模式。模式的每一时刻都将与当时检测到的目标位置相匹配,以便将以这种方式确定的呼吸周期的每个阶段与结节的位置相匹配。
优选地,系统1包括被配置为检测患者P的内部组织的紧密度的紧密度传感器,优选地是损耗调制光纤干涉传感器。
有利的是,由于传感器的紧凑性,有可能在检测到的多个信息中集成所谓的“刚度(stiffness)”的测量,其允许提供由探头穿过的组织的特征参数。
本系统1可以有利地在手术期间、之前或之后使用。实际上,系统1使得操作者能够以3D显示内部器官和病理的重叠,与真实的解剖结构对准。
此外,本系统1使得可能显示在患者P的身体内部的手术器械并且通过不同的解剖结构来表示它们的变形。
它可以用于微创手术和标准手术干预。唯一的区别在于,在微创手术中,患者P身体内部的所有重建体积都与患者P的身体对准;而在第二种情况下,在器官的特定部分与重建体积中器官的相同部分之间进行对准。例如,图1示意性地示出了肝脏的实际部分和同一肝脏的重建体积。
本发明的系统具有许多优点。
本发明的解决方案允许相对于操作者在它们所指向的结构所在的确切位置处主观地观察2,3或4个维度的具有高空间分辨率的图像,并且提高操作器械5的正确位置的分辨率、精度和识别度。
另外,本发明的解决方案允许检测探头和可变形器械的位置和弯曲。
该系统与用于解决相同问题的解决方案不同,即使没有电磁系统,通过机械系统和/或计算机视觉一起或单独地提供更高的精度。
本发明的系统可以用于手术、剖腹术、内窥镜检查或微创干预、经皮或经骨内,或在通过剖腹术或内窥镜检查进行干预期间的准备或实施。该系统对于执行经皮或放射学引导的诊断程序也是有效的,诸如例如活检或针吸。
有利的是,本发明规定,基于观察器3的空间位置处理多个信息的步骤包括通过器官和疾病的分割进行处理;
优选地,处理步骤包括制作放射线扫描的3D渲染。
本发明还涉及根据所执行的分割创建3D表示,该3D表示具有从与体积的其余部分分割或分开的病理。
本发明进一步包括以下步骤:根据执行的处理在观察器3上投射患者P的身体的至少一个内部部分Pi的内部状态的图像,其通过投射器官和病理的接合点可视化实现。
作为替代,有利的是,本发明规定了基于观察器3的空间位置来处理多个信息的步骤包括经由器官和治疗后坏死的分割处理;
本发明还涉及根据所执行的分割创建3D表示,该3D表示具有从体积的其余部分分割或分开的病理。
优选地,处理步骤包括制作放射线扫描的3D渲染。
本发明进一步包括以下步骤:根据执行的处理在观察器3上投射患者P的身体的至少一个内部部分Pi的内部状态的图像,其通过投射病理和坏死的接合点可视化实现。
换句话说,在两个替代方案的第一个中,本发明提供了能够产生器官和病理(诸如例如肿瘤等)的分割和放射扫描的3D渲染的计算机程序的使用。此外,该软件还能够比较来自不同扫描的3D渲染。它由包含分割算法的软件代码组成。
该程序具体而言是一个网络应用,可从不同的放射性扫描(MRI,CT,PET-CT)中获取图像,并将其转化为3D表示,该3D表示具有与体积的其余部分分割并分开(例如,用不同的颜色)的病理。分割是完全自动的,没有用户干预,也不需要任何修正。
另外,在两种方案的第二种中,该程序还测量治疗是否成功。实际上,使用该软件,在图像(CT-PET、MRI和CT扫描)中对器官和治疗后坏死进行分割,并且在治疗之前和治疗之后记录体积,并且执行病理学和坏死的接合点显示。
该程序期望接收患者P的身体的内部部分Pi的图像处理请求,并将表示该请求的数据发送到控制单元2。
换句话说,网络客户端请求执行脚本,该脚本被放入一个调度程序中,该程序将管理要在服务器上运行的脚本的队列/脚本的顺序,一旦调度程序将提供该脚本,服务器将使用所需的脚本处理文件并将文件写入共享存储中。
程序希望接收之前定义的探头图像并显示图像。
换句话说,网络客户端将找到生成的文件或所请求的图层,并且将在观察器3上查看它们,具体而言是在HMD上。
本发明的另一个实施例涉及使用深度传感器来记录患者的重建体积。该传感器有利地允许操作者在观察同一患者P的同时探查患者P体内的器官和病理。
这是基于第二个计算机程序的解决方案,基于适于实施所谓的“计算机视觉”的适当的装置。
该第二种解决方案涉及联合或分开使用深度传感器和立体照相机,使得两个体积对准。所述照相机既用于AR识别又用于生成“视差图”,该“视差图”允许获得关于场景深度的更多信息;出于第二个原因,所述照相机还必须能够调整相机的双眼距离,在这种情况下,以便以不同的深度范围进行操作(例如设置为两个/三个固定的预设,用于长距离和更准确的短距离)。
因此应该指出,所述深度传感器本身足以限定场景的深度图,使得不需要使用立体照相机来计算视差图,但是鉴于这种类型的传感器通常易受强光和红外线源的干扰,这可能会影响读数,有可能,并且在某些情况下有必要整合这两种技术,以获得现实与增强现实之间更精确的对准。
描述了一种用于将操作器械定位在患者身体内的导航、跟踪和引导系统/方法,其中增强现实被用作操作者界面,以便允许操作者以精确、可靠、安全和高效的方式在患者身上操作。

Claims (17)

1.一种用于将操作器械(5)定位在患者身体内的导航、跟踪和引导系统(1),包括:
-控制单元(2),被配置为接收与患者的身体的内部状态有关的多个信息,
-观察器(3),以使得操作者能够通过所述观察器(3)看到所述患者的身体的至少内部部分的方式配置,
-第一检测装置(4),用于确定所述观察器(3)的空间位置;
所述控制单元(2)被配置为在所述观察器(3)上投射所述患者的身体的所述至少内部部分的内部状态的图像,所述图像是通过基于所述观察器(3)的所述空间位置处理所述多个信息来获得的;
其特征在于,所述系统还包括与所述操作器械(5)相关联并且能够插入到所述患者的身体的内部部分内的探头,所述探头包括至少一个光导,所述光导具有在所述光导内产生的光通量的色散区和用于检测所述光通量的色散的检测装置,以在被插入到所述患者身体内部时识别所述探头的空间布置,所述控制单元(2)还被配置为基于所识别的空间布置在所述观察器(3)上投射所述探头的图像;
其中,所述色散区由一系列第一色散区限定,所述第一色散区沿所述光导的至少一部分顺序布置;
其中,所述色散区还由一系列第二色散区限定,所述第二色散区沿着所述光导的至少一部分顺序布置并且相对于所述至少一个光导的中心轴径向交错布置。
2.根据权利要求1所述的系统(1),其中,所述一系列第二色散区相对于所述一系列第一色散区以90°的角度设置,所述角度是相对于所述至少一个光导的中心轴测量的。
3.根据权利要求1或2所述的系统(1),其中,所述探头包括平行的两个光导,一系列所述第一色散区和一系列所述第二色散区分别限定在所述两个光导之一上。
4.根据前述权利要求1所述的系统(1),其中,所述至少一个光导被连接到光源,具体是激光源,并且具有布置在一个自由终端处的反射壁,连接到示波器的方向耦合器被布置在所述激光源和所述反射壁之间。
5.根据前述权利要求1所述的系统(1),包括连接到所述控制单元(2)的视频转换组件,其中,所述视频转换组件包括:至少两个VGA-HDMI转换器、至少一个BNC-HDMI转换器和至少两个HDMI端口。
6.根据前述权利要求1所述的系统,其中,与患者身体的内部状态有关的所述多个信息通过至少一种扫描获得,所述扫描包括X射线、MRI、CT或CT-PET。
7.根据前述权利要求1所述的系统(1),其中,所述观察器(3)沿着操作者——所述患者视轴的身体的部分布置。
8.根据前述权利要求1所述的系统(1),其中,所述观察器(3)由所述操作者可佩戴的面部观察器限定,所述面部观察器包括眼镜。
9.根据前述权利要求1所述的系统(1),包括与所述控制单元(2)连接的所述患者身体的外表面的第二检测装置(6),所述第二检测装置(6)包括照相机,与所述观察器(3)成一体。
10.根据权利要求9所述的系统(1),其中,所述患者的身体的外表面的所述第二检测装置(6)包括至少三个第一物理标记,所述第一物理标记适于布置在所述患者的身体的内部的外表面,所述控制单元(2)被配置为将投射在所述观察器(3)上的图像的虚拟标记的第一内部状态与所述第一物理标记对准。
11.根据权利要求9或10所述的系统(1),其中,所述患者的身体的外表面的所述第二检测装置(6)包括以下中的至少一个:超声换能器、惯性测量单元和测量编码器,以便实时确定所述患者的生命参数。
12.根据前述权利要求1所述的系统(1),其中,所述观察器(3)包括数据发送和接收单元,经由Wi-Fi与用于确定所述观察器(3)的空间位置的所述第一检测装置(4)连接,和/或与所述患者的身体外表面的第二检测装置(6)连接。
13.根据前述权利要求1所述的系统(1),其中,所述观察器(3)包括陀螺仪、罗盘和惯性测量单元。
14.根据前述权利要求1所述的系统(1),其中,所述观察器(3)进一步包括适于记录所述患者的重建体积的深度传感器。
15.根据权利要求9所述的系统,包括第二物理标记,所述第二物理标记设置在所述探头上并且适于在使用时设置在所述患者身体外部,其中所述患者的身体的外表面的所述第二检测装置(6)还被配置为检测所述第二物理标记的物理位置。
16.根据前述权利要求1所述的系统,包括具有五个自由度的拟人机械臂,其能够提供所述探头相对于所述系统(1)预定的参考系统的笛卡尔坐标X,Y,Z。
17.根据前述权利要求1所述的系统(1),包括被配置为检测所述患者内部组织的紧密度的紧密度传感器,所述紧密度传感器是损耗调制光纤干涉传感器。
CN201680068251.0A 2015-11-23 2016-11-21 将操作器械定位在患者身体内的导航、跟踪和引导系统 Active CN108601628B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ITUB2015A005830A ITUB20155830A1 (it) 2015-11-23 2015-11-23 "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"
IT102015000075480 2015-11-23
PCT/IB2016/057001 WO2017089941A1 (en) 2015-11-23 2016-11-21 Navigation, tracking and guiding system for the positioning of operatory instruments within the body of a patient

Publications (2)

Publication Number Publication Date
CN108601628A CN108601628A (zh) 2018-09-28
CN108601628B true CN108601628B (zh) 2022-09-09

Family

ID=55538379

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680068251.0A Active CN108601628B (zh) 2015-11-23 2016-11-21 将操作器械定位在患者身体内的导航、跟踪和引导系统

Country Status (12)

Country Link
US (2) US20180344408A1 (zh)
EP (1) EP3380034B1 (zh)
JP (1) JP6905535B2 (zh)
CN (1) CN108601628B (zh)
AU (1) AU2016358472A1 (zh)
BR (1) BR112018010382B1 (zh)
CA (1) CA3005705A1 (zh)
DK (1) DK3380034T3 (zh)
ES (1) ES2815800T3 (zh)
IT (1) ITUB20155830A1 (zh)
RU (1) RU2746458C2 (zh)
WO (1) WO2017089941A1 (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
ITUB20155830A1 (it) 2015-11-23 2017-05-23 R A W Srl "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"
DE102017108235A1 (de) * 2017-04-18 2018-10-18 Bredent Medical Gmbh & Co. Kg Brille mit wenigstens einem teiltransparenten Bildschirm und Verfahren zum Betrieb einer Brille
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
WO2020181498A1 (zh) * 2019-03-12 2020-09-17 上海复拓知达医疗科技有限公司 体内导航系统和方法
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
CN111544115A (zh) * 2020-05-16 2020-08-18 中国人民解放军陆军军医大学第二附属医院 一种增强现实导航追踪显示器以及校准方法
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
DE102020212086A1 (de) * 2020-09-25 2022-03-31 Siemens Healthcare Gmbh Ermitteln der Qualität einer Positionierung eines in einen Patientenkörper eingeführten Objekts

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5337758A (en) * 1991-01-11 1994-08-16 Orthopedic Systems, Inc. Spine motion analyzer and method
US5526812A (en) * 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
US5577502A (en) * 1995-04-03 1996-11-26 General Electric Company Imaging of interventional devices during medical procedures
US6847336B1 (en) * 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6033415A (en) 1998-09-14 2000-03-07 Integrated Surgical Systems System and method for performing image directed robotic orthopaedic procedures without a fiducial reference system
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
US20020082498A1 (en) 2000-10-05 2002-06-27 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
ATE371414T1 (de) 2001-06-13 2007-09-15 Volume Interactions Pte Ltd Führungssystem
AU2003246906A1 (en) * 2002-06-25 2004-01-06 Michael Nicholas Dalton Apparatus and method for superimposing images over an object
US7001383B2 (en) 2002-10-21 2006-02-21 Biosense, Inc. Real-time monitoring and mapping of ablation lesion formation in the heart
JP2007528743A (ja) * 2003-04-30 2007-10-18 ディースリーディー,エル.ピー. 口腔内画像化システム
US7283572B2 (en) * 2004-01-15 2007-10-16 Ben Gurion University Of The Negey Measurement of wavelength transients in tunable lasers
US7774044B2 (en) * 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
US20060089626A1 (en) 2004-10-22 2006-04-27 Vlegele James W Surgical device guide for use with an imaging system
US7501995B2 (en) 2004-11-24 2009-03-10 General Electric Company System and method for presentation of enterprise, clinical, and decision support information utilizing eye tracking navigation
US8954134B2 (en) * 2005-09-13 2015-02-10 Children's Medical Center Corporation Light-guided transluminal catheter
CN101309725A (zh) * 2005-11-16 2008-11-19 眼科医疗公司 使用激光间接检眼镜的多光点光学医疗处理
WO2007115826A2 (en) * 2006-04-12 2007-10-18 Nassir Navab Virtual penetrating mirror device for visualizing of virtual objects within an augmented reality environment
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
CA2682624C (en) * 2007-04-02 2016-08-23 Esight Corp. An apparatus and method for augmenting sight
US8131379B2 (en) 2007-08-27 2012-03-06 St. Jude Medical Atrial Fibrillation Division, Inc. Cardiac tissue elasticity sensing
WO2009083191A1 (de) 2007-12-21 2009-07-09 Holger Essiger System zur selektiven anzeige von informationen, enthaltend eine brillenartige vorrichtung, insbesondere brille
WO2009094646A2 (en) * 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
WO2010067267A1 (en) * 2008-12-09 2010-06-17 Philips Intellectual Property & Standards Gmbh Head-mounted wireless camera and display unit
DE102009025077A1 (de) 2009-06-10 2010-12-16 Karl Storz Gmbh & Co. Kg System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper
IT1401669B1 (it) * 2010-04-07 2013-08-02 Sofar Spa Sistema di chirurgia robotizzata con controllo perfezionato.
JP2013061521A (ja) * 2011-09-14 2013-04-04 Brother Ind Ltd 画像表示装置および画像表示方法
US20130267838A1 (en) 2012-04-09 2013-10-10 Board Of Regents, The University Of Texas System Augmented Reality System for Use in Medical Procedures
US20140022283A1 (en) * 2012-07-20 2014-01-23 University Health Network Augmented reality apparatus
US9729831B2 (en) 2012-11-29 2017-08-08 Sony Corporation Wireless surgical loupe
US9895055B2 (en) * 2013-02-28 2018-02-20 Cook Medical Technologies Llc Medical devices, systems, and methods for the visualization and treatment of bodily passages
US20150116316A1 (en) * 2013-10-28 2015-04-30 Brown University Virtual reality methods and systems
WO2015127464A1 (en) 2014-02-24 2015-08-27 H. Lee Moffitt Cancer Center And Research Institute, Inc. Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores
WO2015133608A1 (ja) * 2014-03-07 2015-09-11 国立大学法人京都大学 手術支援システムおよびこれに用いるカメラユニット
US9538962B1 (en) * 2014-12-31 2017-01-10 Verily Life Sciences Llc Heads-up displays for augmented reality network in a medical environment
US20160324580A1 (en) * 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
WO2017066373A1 (en) * 2015-10-14 2017-04-20 Surgical Theater LLC Augmented reality surgical navigation
ITUB20155830A1 (it) 2015-11-23 2017-05-23 R A W Srl "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"

Also Published As

Publication number Publication date
EP3380034B1 (en) 2020-06-03
RU2018117932A (ru) 2019-12-25
WO2017089941A1 (en) 2017-06-01
CA3005705A1 (en) 2017-06-01
AU2016358472A1 (en) 2018-06-14
JP6905535B2 (ja) 2021-07-21
BR112018010382A2 (pt) 2018-12-04
US11596480B2 (en) 2023-03-07
ITUB20155830A1 (it) 2017-05-23
ES2815800T3 (es) 2021-03-30
RU2018117932A3 (zh) 2020-04-20
RU2746458C2 (ru) 2021-04-14
US20180344408A1 (en) 2018-12-06
BR112018010382B1 (pt) 2022-07-26
JP2019503820A (ja) 2019-02-14
EP3380034A1 (en) 2018-10-03
DK3380034T3 (da) 2020-08-24
US20190183586A1 (en) 2019-06-20
CN108601628A (zh) 2018-09-28

Similar Documents

Publication Publication Date Title
CN108601628B (zh) 将操作器械定位在患者身体内的导航、跟踪和引导系统
US20180116732A1 (en) Real-time Three Dimensional Display of Flexible Needles Using Augmented Reality
CN105979879B (zh) 具有光学形状感测设备视角的虚拟图像
US5823958A (en) System and method for displaying a structural data image in real-time correlation with moveable body
JP5207795B2 (ja) 撮像対象中の対象物をナビゲーションするシステム及び方法
CN109998678A (zh) 在医学规程期间使用增强现实辅助导航
US9918798B2 (en) Accurate three-dimensional instrument positioning
US9641808B2 (en) Navigating attachment for optical devices in medicine, and method
US20080123910A1 (en) Method and system for providing accuracy evaluation of image guided surgery
CN105828721B (zh) 用于微创介入的形状感测的机器人超声
EP3395282A1 (en) Endoscopic view of invasive procedures in narrow passages
EP2637593A1 (en) Visualization of anatomical data by augmented reality
FR2908628A1 (fr) Procede et systeme de pilotage d'un instrument medical
JP2007526066A (ja) 患者体内において医療器具をガイドするシステム
CN106108951A (zh) 一种医用实时三维定位追踪系统及方法
JP2017500935A5 (zh)
JP6952740B2 (ja) ユーザーを支援する方法、コンピュータープログラム製品、データ記憶媒体、及び撮像システム
US20220022964A1 (en) System for displaying an augmented reality and method for generating an augmented reality
JP7505081B2 (ja) 狭い通路における侵襲的手順の内視鏡画像
CN211325035U (zh) 一种内外可视的新型内窥镜系统
US20230360212A1 (en) Systems and methods for updating a graphical user interface based upon intraoperative imaging

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant