CN111166479A - 用于追踪工作目标的位置的导航系统和方法 - Google Patents

用于追踪工作目标的位置的导航系统和方法 Download PDF

Info

Publication number
CN111166479A
CN111166479A CN202010080415.XA CN202010080415A CN111166479A CN 111166479 A CN111166479 A CN 111166479A CN 202010080415 A CN202010080415 A CN 202010080415A CN 111166479 A CN111166479 A CN 111166479A
Authority
CN
China
Prior art keywords
tracking
skin
tracking device
navigation
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010080415.XA
Other languages
English (en)
Other versions
CN111166479B (zh
Inventor
汉斯·肖普
约瑟·布里萨切
约金·凯滕布伦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stryker European Holdings I LLC
Original Assignee
Stryker European Holdings I LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stryker European Holdings I LLC filed Critical Stryker European Holdings I LLC
Priority to CN202010080415.XA priority Critical patent/CN111166479B/zh
Publication of CN111166479A publication Critical patent/CN111166479A/zh
Application granted granted Critical
Publication of CN111166479B publication Critical patent/CN111166479B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00831Material properties
    • A61B2017/00946Material properties malleable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery

Abstract

提供了一种追踪工作目标的位置的导航系统和方法。所述导航系统可以检测可追踪设备在导航过程期间的扭曲,并补偿这种变形,使得减小或消除导航误差,和/或避免或减小在导航过程期间重置导航系统的需要。

Description

用于追踪工作目标的位置的导航系统和方法
技术领域
本公开涉及用于用可追踪设备来追踪工作目标的位置的导航系统,例如手术导航系统。本公开还涉及一种使用这种导航系统来追踪工作目标的位置的方法。
背景技术
在多种类型的应用中使用用于单独地或结合一个或多个各种工作工具来追踪位于体内的一个或多个工作目标的位置的导航系统。通常使用导航系统的一个应用是导航手术过程的领域。在该领域中,现在通常将手术导航系统用于帮助计划手术过程或执行所计划的手术过程,以改善手术过程的准确性,并最小化其侵害性。
在一些手术导航系统中,刚性可追踪设备被附着到患者,以相对于患者身体的某部位固定。将由计算机实现的追踪系统用于追踪可追踪设备的位置,并基于提前确定的在该可追踪设备和患者内某感兴趣区域之间的空间关系,追踪患者内的工作目标的位置。由计算机实现的追踪系统还用于例如通过附着到手术工作工具的第二可追踪设备追踪该手术工作工具的位置。根据这两个追踪位置,导航系统能够追踪该工作工具相对于患者内的工作目标的位置。然后,通过将术前扫描信息数据登记到术中追踪信息的一个或多个方法,将该追踪信息与提前定义的和一个或多个术中或术前扫描信息数据集相关的手术计划信息(例如,CT(计算机断层扫描)图像、MRI(核磁共振成像)图像、X射线图像、超声图像数据或关于患者身体的其它类似信息)联系起来。
这种导航系统的局限性在于可追踪设备通常必须被侵害性地附着到患者,例如,采用紧扣到骨头的别针或其它紧固件。这种附着可能导致在患者术后恢复中发生潜在问题的额外风险。此外,通过由计算机实现的追踪系统实现的多种导航例程基于以下假设:可追踪设备在导航过程期间不相对于患者和目标区域移动。因此,在导航过程期间可追踪设备相对于患者的移动,例如偶然性碰撞、固定松懈或其它情况可以导致大量误差,需要对导航系统的全部重新设置或重配置,这可能浪费在手术过程期间的宝贵时间。
其它手术导航系统使用由柔性衬底形成的可追踪设备,其中该柔性衬底承载有若干LED(发光二极管)。柔性衬底被以某种方式附着到患者的皮肤,用于保护或最小化相对于患者特征的变形或移动。因此,可追踪设备通常被附连到患者的多骨区域,例如,头骨和/或鼻部,以当开始导航过程后,相对于在患者内的工作目标处于固定位置。然而,这种导航系统的限制在于:在开始导航过程后,可追踪设备的任何变形可能导致大量导航误差,或需要重新配置导航系统。
发明内容
根据一些方面,提供了一种追踪工作目标的位置的导航系统和方法,其中所述导航系统可以检测可追踪设备在导航过程期间的扭曲。在一些情况下,导航系统可以以某种方式补偿这种扭曲,使得减小或消除导航误差和/或避免或减小在导航过程期间重新设置导航系统的需要。
根据一些方面,提供了一种用于追踪位于身体内的工作目标的位置的导航系统,其中所述身体是可压缩的并具有可扭曲的外部表面。所述导航系统包括可追踪设备和由计算机实现的追踪系统。可追踪设备包括被配置为附着到身体的外部表面的多个追踪点。追踪点配置为当被附着到身体的外部表面时相对于彼此是可移动的。由计算机实现的追踪系统用于远程追踪每个追踪点相对于坐标系统的位置。追踪系统包括用于实现包括如下步骤的导航例程的计算机处理器装置:访问可追踪设备的初始模型,所述初始模型基于追踪点的集合的初始位置具有初始形状;将所述初始模型登记到工作目标在所述工作目标的图像中的初始位置;在登记所述初始模型之后,用追踪系统感测可追踪设备的变形;创建补偿所述变型的可追踪设备的精修模型;以及根据精修模型,计算所述工作目标的当前位置。
根据一些方面,用导航系统追踪位于体内的工作目标的位置的方法包括以下步骤:访问可追踪设备的初始模型,所述初始模型的初始形状基于追踪点的集合的初始位置;将所述初始模型登记到工作目标在所述工作目标的图像中的初始位置;在登记所述初始模型之后,用追踪系统感测可追踪设备的变形;创建补偿所述变型的可追踪设备的精修模型;以及根据精修模型,计算所述工作目标的当前位置。还可以用由计算机实现的追踪系统(例如,用硬件和/或软件)实现所述方法,所述追踪系统配置为远程追踪可追踪设备的追踪点相对于坐标系统的位置。所述方法可以通过使用具有多个追踪点的可追踪设备来实现,其中多个追踪点被配置为附着到身体的外部表面,其中,所述追踪点配置为当被附着到身体的外部表面时可相对彼此移动。
这些和其它方面还可以包括本文所述的多种可选布置和特征中的任何一个或多个。
在一些布置中,可以在导航过程期间仅执行一次所述访问和登记步骤,例如在开始或接近开始所述过程时。在导航过程期间,可以将所述感测变形、创建精修模型、和计算工作目标的位置的步骤例如迭代式地执行一次或多次。
在一些布置中,所述创建精修模型的步骤可以包括:移除所述集合中的一个或多个感测的追踪点,和/或将追踪点的感测位置相对于在所述集合中的其它追踪点的感测位置进行调整。例如,所述创建精修模型的步骤可以包括:移除所述集合中变形超过了从初始形状或任何其它参照物的偏移阈值或任何其它参数的至少一个追踪点。此外,所述创建精修模型的步骤示例性地可以包括:根据在追踪点的感测位置和所述追踪点的初始位置之间的空间偏移,和/或可选地相对于一个或多个其它追踪点的初始位置的空间偏移,相对在集合中的其它追踪点的感测位置,调整所述追踪点的感测位置。
在一些布置中,感测变形可以包括:在登记初始模型之后,追踪所述集合的追踪点的后来位置,后来位置限定了变形后的形状。可追踪设备的变形模型可以基于追踪点的感测位置和变形后的形状。然后,可以基于变形后的形状和初始形状之间的差别,来识别可追踪设备的变形。
在一些布置中,所述识别变形的步骤包括:将初始形状与变形后的形状进行匹配;以及计算所述集合的追踪点的空间偏移。可选地,可以通过将追踪点的初始位置转换为追踪点的后来位置,并将两个模型中的同一点彼此进行比较以识别空间偏移,来执行匹配。例如,可以转换追踪点的初始坐标(例如,初始形状),以试图匹配在感测到的追踪点的点云中(例如,变形后的形状)的测量坐标。这种变换可以是正交变换。这种变换和匹配可以包括最小二乘匹配算法,以发现最佳拟合的比较。然后,可以将匹配形状进行比较,以计算所述点的空间偏移,例如,测量追踪点中的一个或多个的坐标与所述追踪点初始位置的变换坐标之间的距离的绝对值。备选地或附加地,可以变换感测追踪点的坐标,并将其与相同追踪点的初始位置的坐标进行匹配,或可以使用适合于初始形状与变形后的形状的匹配和比较的其它坐标变换。
在一些实施例中,所述创建精修模型的步骤包括:当追踪点的空间偏移超过了限定的空间偏移阈值和/或具有超过该集合中的至少一个其它感测追踪点的空间偏移时,从该集合中排除感测该追踪点。可选地,只有当它的空间偏移超过了限定的空间偏移阈值并在该集合的所有追踪点中具有最大空间偏移时,才排除该追踪点,从而一次只排除一个追踪点(例如,变形最大的)。可以通过从用于形成精修模型的追踪点的集合中移除感测追踪点,来排除该感测追踪点。因此,精修模型可以基于减少的感测追踪点的集合(相对初始模型和/或变形后的模型),而不基于被移除的追踪点的后来位置。可选地,可以从感测追踪点的集合中移除变形追踪点,而无需修改变形后的模型的其它部分的形状。
在一些布置中,所述创建精修模型的步骤包括:当识别出感测追踪点发生变形时,调整该感测追踪点的位置。可以将变形追踪点在变形模型中的位置调整为精修模型中的修正位置。因此,可以在精修模型中保留变形追踪点的修正位置,而不是从精修模型忽略变形追踪点。可以根据追踪点相对于彼此的位置以及这些相对位置和/或相对距离的空间偏移,来将一个追踪点的感测位置相对于集合中的其它追踪点的感测位置进行调整。可以以有限元方法(FEM)分析,基于患者皮肤运动的力弹簧模型假设,来执行所述调整。变形追踪点的空间偏移可以等于合力。可以计算向力弹簧模型施加的力的集合,以向初始模型中的初始位置移动变形追踪点。还可以对由此而产生的一个或多个其他追踪点的移动进行建模。可以保持一个或多个感测追踪点相对工作目标维持固定位置,而基于FEM分析中的力弹簧模型移动其它感测追踪点时。
偏移阈值可以是预定静态值和/或依赖于可选因子的动态值。可选地,偏移阈值可以基于将追踪点的空间偏移与该集合中的最多所有追踪点的平均空间偏移进行的比较。平均空间偏移可以包括直接平均、加权平均和/或其它类型的平均。当追踪点的空间偏移超过这种偏移阈值和/或超过其它追踪点的空间偏移(例如,在所有追踪点中具有最大空间偏移)时,可以将追踪点称作和/或将其认为是变形追踪点和/或认为它具有无法接受的位置误差。是否移动和/或调整精修模型中的追踪点的感测位置的决定可以取决于是否将该追踪点认为是变形追踪点和/或该追踪点是否具有不可接受的位置误差。
在一些布置中,在计算工作目标的当前位置之前,迭代式地重复以下步骤:将初始形状与变形后的形状进行匹配;计算空间偏移;以及移除追踪点。在随后的迭代中,由于排除了先前移除的追踪点,对减少数目的追踪点执行匹配。可以迭代式地重复这些步骤,直到至少不再从追踪点的集合中移除其它感测追踪点和/或感测追踪点的集合包括的追踪点数目比预定的最小追踪点数目更少。预定的最小追踪点数目可以是静态定义的数目,或可以是动态定义的数目,例如,基于在导航过程期间获得的参数。可选地,当精修模型中包括的追踪点的集合所包括的追踪点的数目小于预定的最小追踪点数目时,导航例程向用户提供通知。这种通知可以包括提供可听或可视的通知(例如警告),和/或自动结束或暂停导航例程。
导航例程可以用于当等于或超过一个或多个误差阈值时,向用户提供通知。在一些布置中,导航例程估计根据可追踪设备的初始模型变形和/或精修模型中的追踪点的减少而计算出的工作目标的当前位置的预期误差。在一些布置中,导航例程根据空间偏移,计算在追踪点的集合中的一部分追踪点或所有追踪点的平均空间偏移。可选地,当预期误差超过工作目标的预定最大误差阈值和/或平均空间偏移超过预定最大误差阈值时,导航例程可以向用户提供指示。预定误差阈值可以是静态限定的数值和/或可以是例如基于在导航过程期间获得的参数动态限定的数值。所述指示可以包括警告消息和/或结束导航例程,例如,结束或暂停导航例程。警告消息可以包括视觉消息,例如在显示屏幕上提供的视觉警告;听觉消息,例如经由扬声器提供的可听警告;和/或设计为引起用户的注意的其它类型的消息。
在一些布置中,导航例程感测追踪点的集合中的追踪点的初始位置,和/或可以从一些其它源(例如,存储器或数据库)导入初始位置。可以用导航传感器来执行所述感测,该导航传感器配置为测量该追踪点相对于该导航传感器的位置。这种导航传感器可以例如包括一个或多个摄像机和/或磁性位置传感器,尽管还可以附加或备选地使用其它类型的电子导航传感器。可以通过对术前或术中扫描图像(例如,CT扫描、MRI、X射线、超声、光学或其它类似成像方式)进行检测和/或从中进行提取,来执行所述感测。导航例程可以根据追踪点的集合的初始位置,创建可追踪设备的初始模型,或可以从一些其它源(例如存储器或数据库)导入该模型。
可以以任何适合方式执行可追踪设备的初始模型向工作目标在该工作目标的图像中的初始位置的登记。在一些布置中,所述登记步骤包括:根据追踪点的集合的初始位置,识别初始模型相对于球坐标系的初始姿态(即,三维形状相对于三维坐标系的位置和方向);以及将该初始模型的初始姿态登记为工作目标在该工作目标的图像(例如,MRI、CT、X射线、超声、光学或其它类似成像方式)中相对于球坐标系的初始位置。可以使用的合适登记方法包括表面匹配技术和点对点匹配技术。导航例程可以包括自动登记特征,例如形状匹配例程或任何已知的自动登记例程,和/或可以包括手动登记特征,例如通过点对点登记例程或任何已知的手动登记例程。然而,可以使用任何适合登记过程。
可追踪设备可以包括配置为被附着到身体外部表面的柔性衬底,然而,也可以使用刚性可追踪设备。一个或多个追踪点可以承载于同一柔性衬底或分离的柔性衬底上。柔性衬底几乎可以具有任何形状,例如,相对较薄厚度的片状,具有相对的第一和第二面以及一个或多个外围边缘。柔性衬底可以在所有方向上都具有完全的弹性、在仅一部分方向上具有有限的弹性,和/或包括具有完全弹性的区域以及具有有限弹性的区域。在一些布置中,柔性衬底可以具有围绕窗口的框架的形状,窗口穿过可追踪设备的中心部分。该框架可以具有任何封闭形状或半封闭形状,例如,矩形、方形、圆形、椭圆形、U形、半圆形或H形。可以调整窗口的尺寸和形状,以允许该框架部分地或完全地围绕在工作目标上的患者皮肤的手术区域。可以调整窗口的尺寸和形状以提供足够的空间,其中通过该空间可以执行对工作目标的手术过程。可选地,柔性衬底上的追踪点的数目可以在二十到四十个发光器之间,所述发光器被布置在该柔性衬底上并沿着该窗口延伸。然而,可以使用更多或更少的追踪点。在一些装置中,可追踪设备包括两个或多个柔性衬底,配置为例如通过彼此分离地布置而分别附着到身体的外部表面。每个衬底可以仅承载一个或可以承载多于一个追踪点,例如,2个到20个追踪点。每个柔性衬底可以为片状形式,并且几乎可以具有任何形状,例如,矩形、圆形、椭圆形等。柔性衬底可以具有其它形状,例如,细长条形、十字形或星形。这样,可以以几乎任何形状或所需配置将分离的柔性衬底的阵列分别布置在工作目标周围区域内的患者皮肤上。追踪点可以被布置在柔性衬底的一侧上。粘合剂可以被布置在柔性衬底的另一侧上以允许所述衬底被附着到身体的外部表面。粘合剂可以是一种生物相容性粘合剂,适合用于将衬底附着到患者皮肤而不损伤患者并且允许随后从皮肤安全地移除所述衬底。可以将可追踪设备应用于身体表面,例如,患者皮肤,使得感测的追踪点的重心(也就是说,感测点云的重心)非常接近要追踪的工作目标。
追踪点可以是适于通过由计算机实现的追踪系统感测的任何特征或结构。在一些装置中,追踪点包括LED、反射表面、反射图案、磁性线圈和/或唯一地限定位置和方向的光学可识别几何形状。
工作件可以适于被追踪系统追踪,其中所述追踪系统用于追踪工作件相对于坐标系的位置。导航例程还包括如下步骤:基于追踪到的工作件的位置和计算出的工作目标的位置,计算工作件相对于工作目标位置的位置。
在一些布置中,可追踪设备包括适用于向由计算机实现的追踪系统发送和/或从由计算机实现的追踪系统接收数据的数据通信链路。可以响应于通过数据通信链路从追踪系统接收到的命令信号,选择性地激活发光器。可以将关于追踪点可以如何相对彼此移动的物理约束的信息(包括衬底的弹性、衬底的刚性、在追踪点之间的连接类型)与可追踪设备相关联。关于物理约束的信息可以通过数据通信链路被传送到由计算机实现的追踪系统,和/或该信息可以已存储在计算机系统上。
在一些装置中,导航系统包括与一个或多个追踪传感器进行数据通信的计算机处理器。数据连接可以是有线的和/或无线的。可以由硬件和/或软件实现所述导航例程,所述软件直接由计算机处理器访问或安装在所述计算机处理器上,或例如经由与一个或多个其它计算机处理器的互联网连接来远程运行所述软件。导航例程可以被存储在一个或多个非暂时性计算机存储器中,例如,RAM或ROM。可以将附加数据(例如,扫描图像数据、过程计划数据、用户偏好、患者数据和其它有用数据)存储在同样设置于非暂时性计算机存储器的电子数据库中。计算机处理器可以访问导航例程和/或数据库,以能够实现本文所述的方法和过程。输入/输出设备(例如,键盘、鼠标、显示监视器)可以可操作地连接到计算机处理器,以方便用户使用。导航系统可以具有允许例如经由互联网、局域网、广域网或类似数据连接进行远程访问和/或控制的数据连接。可以以本领域所公知的方式将对于导航过程的计算机实现、计划、控制和/或执行而言有益、必要、和/或适当的其它通用计算机硬件和/或软件包括作为导航系统的部件。
在一些布置中,导航系统是用于在外科手术室中使用的手术导航系统,以帮助在手术过程中引导外科医生。可追踪设备可以用于附连到手术患者的皮肤,并在患者的手术区域周围延伸,而不覆盖手术区域。手术区域可以包括一个或多个骨头和组织,例如,脊椎、肺、肝、股骨和骨盆。然而,工作目标可以包括其它骨头、组织和/或位于身体内、身体上或身体附近的物体。
由计算机实现的追踪系统可以包括一个或多个摄像机形式的用于感测追踪点的传感器。在一些实现方案中,由计算机实现的追踪系统可以包括多个摄像机。每个摄像机可以用于捕获追踪点的视图,计算机处理器装置可以用于通过追踪点视图的三角测量法来计算每个追踪点相对于坐标系的位置。可以独立于身体、工作工具和/或用户来支撑摄像机。在一些布置中,由用于被附着到例如墙壁、支撑台车或其它结构的框架承载摄像机。在一些布置中,可以由手术工具承载一个或多个摄像机,可以将计算机处理器装置用于基于由一个或多个摄像机获得的可追踪设备的图像,计算该工具相对工作目标的姿态。在一些装置中,一个或多个追踪点可以包括唯一地限定姿态的光学目标。由计算机实现的追踪系统可以包括摄像机,用于捕获光学目标的图像,计算机处理器装置可以用于实现根据所捕获的图像计算光学目标的姿态的追踪例程。
附图说明
将参考以下描述和示例装置的附图,来理解本文所呈现的导航系统和方法的上述和其它方面及特征。
图1是根据本公开的示例装置的导航系统的示意图;
图2是根据示例方法的由图1的导航系统实现的导航例程的逻辑流图;
图3是在图1的导航系统中的示例可追踪设备的初始模型的示意表示;
图4是将图3的初始模型登记到工作目标的图像数据的示意表示;
图5是感测图1的可追踪设备的变形的示意表示;
图6是图1的可追踪设备的精修模型的示意表示;
图7是描述了图2的导航例程的一些可选布置的逻辑流图。
图8是图1所示的示例可追踪设备的等比例视图;
图9是根据本公开的另一方面的在图1的导航系统中可用的另一示例可追踪设备的等比例视图;
图10是根据本公开的方面的在图1的导航系统中可用的再一示例可追踪设备的等比例视图;以及
图11是根据本公开的方面的在图1的导航系统中可用的又一示例可追踪设备的等比例视图。
具体实施方式
现转向图1和2,导航系统20被布置用于追踪位于身体24附近的工作目标22的位置。工作目标22可以位于身体24内,位于身体24的外部表面上,和/或甚至是与身体24相分离的。导航系统20包括:可追踪设备26,用于被附着到身体24的外部;以及计算机实现的可追踪系统28,用于在导航过程期间追踪可追踪设备26的位置,并检测和补偿可追踪没备26在导航过程期间的一些变形。导航系统20特别适合用于追踪工作目标22的位置,其中身体24是可压缩的和/或具有可扭曲的外部表面。然而,导航系统20适合用于结合具有任何形状和外形(包括具有固定形状)的身体24使用。在所示示例中,导航系统20是一种手术导航系统,用于并布置为追踪患者身体内的工作目标的位置,优选地,与一个或多个工作工具(例如,在40处)和/或手术计划相关地进行所述追踪。在所示示例中,导航系统20特别用于对身体进行手术导航。然而,导航系统20可以用于对其它动物进行手术,和/或可以用于在除了人类或动物之外的其它类型物体内追踪工作目标的位置。手术导航系统20用于追踪位于患者24内的骨头和/或组织的位置。因此,工作目标22可以包括脊椎骨、肺、肝、股骨、骨盆、整形外科植入物或任何其它位于体内的对象。然而,导航系统20还可以用于追踪布置在身体外部(例如,在患者24的皮肤上)的工作目标的位置。在该具体示例性布置的描述中,工作目标22可以是脊椎骨或患者脊柱的一部分,应理解其它工作目标也是同样可行的。
追踪设备26包括多个追踪点30,配置为被附着在身体24的外部表面,例如,患者皮肤的外部表面。当被附着到患者的皮肤时,追踪点30是可例如通过相对于彼此变形而相对于彼此移动的。可追踪设备26不限于特定形状或形式,可以是刚性的、柔性的和/或具有多个单独部分的。下文参考图8到11所示的可追踪设备26a-d,详细讨论了适用于导航系统20的可追踪设备26的一些示例形状和形式。仅为了示例目的,图1的可追踪设备26具有多个追踪点30(例如LED),位于具有开口窗的形状为大体矩形框架的柔性衬底上,可用粘合剂将该柔性衬底可移除性地附着到患者皮肤,总体上与以下参考图8所示和描述的可追踪设备26a相似。然而,追踪设备26不限于这种特定布置。
由计算机实现的追踪系统28用于远程追踪一个或多个追踪点30相对于坐标系32的位置。坐标系32可以是适合结合追踪系统28使用的任何坐标系,例如球坐标系、相对患者24的局部坐标系、和/或相对一部分追踪系统28(例如,工作工具40或可追踪设备26)的局部坐标系。追踪系统28包括用于实现导航例程36的计算机处理器装置34,其中导航例程36能够检测可追踪设备26的变形并补偿在用导航系统20实现导航过程期间检测到的至少一些变形,如下文所详述。
由计算机实现的追踪系统28可以采用多种不同形式,其中计算机处理器装置优选地用于从一个或多个传感器38接收与追踪点30的位置有关的数据,相对于至少一个坐标系追踪该追踪点30的位置;以及将追踪到的位置与一个或多个附加特征(例如,患者24的部位、工作工具40和/或虚拟工作计划信息(例如,所提出的截骨、缝合等))的位置联系起来。在图1所示的示例形式中,追踪系统28包括:计算机处理器装置34,以及一个或多个传感器38,用于远程感测追踪点30的位置。传感器38可以包括摄像机(例如CCD摄像机、CMOS摄像机和/或光学图像摄像机)、磁性传感器、射频传感器、或用于充分感测追踪点30的位置的任何其它传感器。在本示例装置中,传感器是摄像机的形式,例如,可以由附着到手术室墙壁的支架来承载摄像机,和/或以本领域公知形式将摄像机附着到工作工具40。然而,传感器38的其它布置也是有可能的。每个传感器38用于从不同位置捕获追踪点30的视图,计算机处理器装置34包括具有计算机指令的软件和/或硬件,计算机指令用于通过同一追踪点的不同视图的三角测量法来计算每个追踪点30相对于坐标系32的位置。可选地,可以由手术工具40承载一个或多个摄像机,计算机处理器装置34可以包括计算指令,用于基于由在工具40上的一个或多个摄像机38捕获到的可追踪设备26和/或追踪点30的图像,相对于工作目标22的姿态,计算工具40的姿态。计算机处理器装置34包括硬件和/或软件装置,用于实现本文所公开的多种例程和/或方法。在图1的示例实施例中,计算机处理器装置还包括:输入输出设备,例如键盘42和显示监视器44;以及一个或多个数据通信设备,例如数据通信线缆46和/或无线通信设备48。计算机处理器装置34还访问用于存储多种数据的一个或多个数据库47。可选地,计算机处理器装置包括例如通过互联网、广域网、局域网或其它计算机联网装置与较大计算机网络49的数据连接。本领域技术人员应理解,还可以将附加的和/或备选的和/或更少的硬件和编程组件实现为计算机处理器装置34的部件。
如图2所示,导航例程36实现多个方法步骤,当结合导航系统20的其它组件适当地实现所述方法步骤时,使得导航系统能够追踪工作目标22和可选性的附加组件(例如,工具40)相对于至少一个坐标系的位置。以计算机编程和控制领域的技术人员所理解的方式,导航例程36可以实现为由计算机处理器34访问和/或实现的软件编程代码,其中该软件编程代码例如来自数据库47和/或来自远程源(例如经由49处的互联网),和/或导航例程36可以包括一个或多个ASIC配置。
组块50访问可追踪设备的初始模型,例如图3示意性示出的模型51。在将可追踪设备26附着到患者皮肤之后,初始模型51基于可追踪设备26的追踪点30集合的初始位置53,限定初始形状。可以独立于导航例程36形成初始模型51,或可以可选性地作为导航例程36的一部分获得和/或形成初始模型51。如果独立于导航例程36形成初始模型51,则可以将初始模型51存储在例如数据库47中,或经由来自例如49处的远程源的数据通信连接来访问该初始模型51。
在将初始模式51形成为导航例程36的一部分的可选布置中,在将可追踪设备26附着到患者24之后,组块52获得追踪点30的初始位置53,组块54根据追踪点30的初始位置53创建可追踪设备26的初始模型51。初始位置53可以是相对于坐标系32或一些其它任意坐标系(例如,相对于可追踪设备26限定的坐标系)的坐标形式。在一些布置中,由一个或多个导航传感器38获得初始位置53。在一些布置中,根据例如术前扫描的图像数据获得初始位置53。例如,在将可追踪设备26附着到患者24之后,可以一同扫描可追踪设备26和患者24。基于追踪点30的初始位置53的坐标,创建初始模型51,初始模型51可以是由初始位置53的坐标限定的点云。然而,可以使用用于创建初始模型51的其它建模技术。例如,可以基于点云和可追踪设备26的先验知识,产生表面网格。在一些布置中,导航例程36可以在组块54根据从扫描数据集(例如,术前或术中MRI、x射线或其它类型扫描)获得的追踪点的集合30的位置,创建可追踪设备的初始模型51,而无需在组块52用传感器38获得初始位置53。
组块56将初始模型51的姿态登记到工作目标22在图像数据集(例如,患者的术前扫描图像)中的初始位置,如图4示意性所示。可以以本领域公知的任何方式来执行所述登记步骤,例如,用点云匹配技术、点对点登记技术、和/或能够将被附着到患者时初始模型51的姿态登记到工作目标22在患者图像数据集中的初始位置的任何其它技术。在一个布置中,登记可以包括根据追踪点30的集合的初始位置53,识别初始模型51相对于坐标系32(例如,球坐标系)的初始姿态。因此,初始模型51的初始姿态被登记为工作目标22在患者的术前或术中扫描图像(例如,MRI、CT、X射线、超声、光学图像等)中的初始姿态。
在登记之后,组块58在追踪追踪点30在导航过程期间的位置的同时,感测可追踪设备26的变形,如图5示意所述和下文所详述。例如,从图5看出,在可追踪设备26的右上角内的追踪点30的感测位置66’从同一追踪点30的初始位置53’(如追踪设备的初始模型51所示)向下严重变形。然而,在上方、下方和左下角附近的其它追踪点的感测位置66与对应追踪点30的初始位置53密切对应。例如,由于对可追踪设备26右上角周围的患者皮肤的周边区域施加过大压力而引起该变形。
在组块60,创建可追踪设备26的精修模型62,补偿在组块58中感测到的变形,图6示意性地示出了精修模型62的示例。精修模型62是基于在将初始模型51登记到工作目标22的图像之后对追踪点的感测位置的修改的模型。所述创建精修模型62的步骤可以包括排除从可追踪设备26的初始形状的变形超过所选偏移阈值的一些追踪点,和/或可以包括相对于一个或多个其它追踪点的感测位置调整变形追踪点的感测位置,如下文所详述。在图6的示例中,精修模型62基于排除变形超过偏移阈值的追踪点位置的追踪点的感测位置集合。因此,继续结合图5所述的示例,图6中的精修模型62排除该设备的右上角的追踪点,如精修模型62的区域63示意所示(其中未示出追踪点)。这样,精修模型62基于没有明显变形的追踪点30的感测位置66,与此同时从精修模型62移除明显变形的追踪点。这样可以相对于工作目标22的位置改善精修模型62的姿态的准确性,而不必中断导航过程以重新登记可追踪设备26或重设整个设置。
此后,组块64以任何适合方式根据精修模型68计算工作目标22的当前位置。当然,应认识到,如果追踪点30的感测位置66没有变形超过可接受限制,则导航例程36可以跳过组块60,并直接根据由感测位置66限定的模型,计算工作目标22的当前位置,而不执行对该模型的进一步精修。
在正常手术导航过程期间,通常仅在设置导航过程期间执行一次组块50和56以及可选地执行一次组块52和54,在其它过程期间或在导航过程的一部分时段内,通常迭代式地重复组块58、60和64,直到出于某些原因中断或结束该导航过程。然而,组块58、60和64的迭代是可选性的,可以仅执行一次组块58、60和64,和/或它们可以包括插入其中的其它方法步骤。
可以根据多种不同具体方法,来执行所述感测可追踪设备26的变形和精修该模型的步骤(如在导航例程36的组块58和60中执行的)。在一个示例方法中,在组块58感测变形的步骤包括:在将初始模型51登记到目标22在扫描图像中的初始位置之后,追踪该追踪点30的后来位置66。后来位置66限定形状变形的变形后模型68,变形后形状可以仅是由感测位置66限定的点云的形状,如图5示意性所示。此后,基于在变型后形状68和初始形状51之间的一个或多个差别,识别可追踪设备26的变形。
在图7的示例装置中,将这些步骤执行为组块58的一部分。在将可追踪器件26登记为扫描图像中的工作目标22之后,组块70例如采用追踪系统28的传感器38,获得追踪点的集合30的后来位置。组块72基于在变形后形状68和初始形状51之间的一个或多个差别,识别可追踪器件26的一个或多个变形。参考图5,在一个方法中,组块72将初始形状51与变形后形状68进行匹配。可以通过将追踪点30的初始位置55的坐标变换为由传感器38感测到的追踪点30的后来位置66,来执行这种匹配。例如,该变换可以包括通过将由初始位置55形成的点云与由后来位置66形成的点云进行最小二乘匹配而得到的正交变换。备选地,可以变换后来位置的坐标以匹配初始位置的坐标,或可以将初始和后来位置二者都变换为基于另一坐标系。通过任何适合算法来匹配初始形状51和变形后形状68。一个示例方法包括执行最小二乘分析以在初始形状51和变形后形状68之间寻找最佳拟合。然而,还可以使用匹配初始形状和变形后形状的其它方法。
在得到初始形状51和变形后形状68之间的匹配最佳拟合之后,组块74计算该集合的一个或多个追踪点30的空间偏移。如图5示意所示,空间偏移76可以包括在特定追踪点的后来位置66和同一追踪点的变换后初始位置53之间的距离和/或方向。例如,同一追踪点30可以具有与该追踪点的变换后初始位置相对应的坐标53’,以及与同一追踪点的后来位置相对应的坐标66’。在该示例中的空间偏移76’等于在坐标53’和坐标66’之间的距离的绝对值。在一些装置中,空间偏移76可以包括在坐标53’和坐标66’之间的距离和方向二者。然而,还可以使用计算空间偏移76’的其它方法。可以例如对集合内限定变形后模型68的所有追踪点30迭代式地执行这种计算,和/或可以对集合内的所选追踪点执行这种计算。
因此,组块78确定一个或多个追踪点30是否变形(超过可接受量)。在一些装置中,如果追踪点的空间偏移76超过所选偏移阈值和/或大于一个或多个其它追踪点30的空间偏移,则将该追踪点30认为是变形的。可以将偏移阈值选择和/或定义为静态值和/或动态值。静态值可以包括不变的值,例如,特定预选距离,在该特定预选距离以上,认为空间偏移过大,因此认为是误差。动态值可以随着一个或多个所选参数而改变,例如,基于特定追踪点30的空间偏移与限定模型52和/或68的集合中的一个或多个其它追踪点30的空间偏移之间的比较。然而,还可以使用选择偏移阈值的其它方法。可以例如通过将每个空间偏移76与偏移阈值进行比较来点对点地分别执行这种确定,和/或这种确定可以例如通过将两个或多个追踪点30的平均或合成空间偏移与偏移阈值进行比较来基于追踪点的较大集合群。在一个示例布置中,特定追踪点30的空间偏移与预定的静态偏移阈值进行比较。此外,还考虑了追踪点的空间偏移彼此之间的差值。从初始模型移除超过静态预定阈值(例如,大约2mm)并相对于其它追踪点具有最大空间偏移的追踪点30。然后,以将精修模型(少一个追踪点)与初始模型进行匹配,来开始迭代处理。每个迭代步骤仅排除一个点,例如,最差追踪点(即,具有最大空间偏移的追踪点)。如果仍存在超过偏移阈值并相对于其它追踪点具有最大偏移的第二追踪点,则重复迭代过程,直到不能从该模型移除其它追踪点,或该模型不具有足够的追踪点来进行正确导航。然而,如果变形后模型的所有剩余追踪点不大于偏移阈值,则计算目标位置。类似地,如果所有追踪点具有大于偏移阈值的同一偏移值/矢量,则可以不改变模型,因为可以假定该变形是患者24和/或可追踪设备26的均匀移动(例如整个患者的平移),而不是可追踪设备26的变形。如果一个或多个追踪点30具有大于偏移阈值的空间偏移且在所有追踪点中具有最大空间偏移,则导航例程36前进到组块60,以在在组块64处计算目标位置之前精修该模型。当然,如果认为变形后模型68的追踪点没有变形,则导航例程36可以可选地直接前进到组块64,以基于变形后模型本身计算目标位置。
在一些装置中,组块60包括:当追踪点的空间偏移大于偏移阈值时,通过从精修模型62移除(例如,排除)一个或多个追踪点30,来精修该模型。因此,在该布置中,精修模型62具有少于可追踪设备的初始模型的追踪点,如图6示例性所示。因此,精修模型62是基于不具有被移除追踪点的后来位置的减小的追踪点集合。可选地,从精修模型62移除变形追踪点,而无需修改变形后模型68的其它部分的形状。在另一布置中,组块60可以通过调整一个或多个追踪点30的后来位置,来精修该模型,而无需从该集合移除追踪点。在该布置中,当认为感测追踪点的位置66’变形时,可以将变形后追踪点在变形后模型68中的位置调整为精修模型中的修正位置。可以根据追踪点相对于彼此的相对位置和这些相对位置和/或相对距离的空间偏移,来相对于该集合中的其它追踪点的感测位置,调整追踪点的感测位置。可以基于有限元分析方法,例如,基于假定患者24的皮肤运动的力弹簧模型,执行所述调整。在该方法中,变形后追踪点30的空间偏移76’可以等于合力。可以计算向力弹簧模型施加的力的集合,以将变形追踪点回移至初始模型中的原始或初始位置53’。这种移动可能导致精修模型中的一个或多个其它追踪点30的移动。然而,可以假定精修模型中的其它追踪点30相对于工作目标22的位置保持静止。这样,可以将变形后追踪点的修正位置保持在精修模型内,而不是从精修模型省略。此外,在将追踪点的初始位置登记为工作目标22在图像数据集合中的初始位置之后,组块60可以应用精修该模型的两种上述方法和/或精修该模型的其它方法,以补偿追踪点30的变形。
在组块60处精修该模型之后,导航例程36可以可选性地包括例如在图7所示的组块80和82处的一个或多个充足检查。可选性组块80确定精修模型62是否仍足以用于导航过程。在一个示例布置中,如果所述精修模型的步骤包括从精修模型62移除一个或多个变形追踪点,则组块80确定精修模型中的追踪点的剩余集合是否包括出于准确性或其它原因而认为可接受的至少某预定最小数目的追踪点。如果没有足够的追踪点,则认为精修模型62是不可用的,组块84例如通过结束导航例程36和/或提供警告信号,来向用户提供通知该模型不足以用于进行导航。如果精修模型62包括使得认为该模型为可用的最小数目追踪点,则可以继续导航例程。在一些装置中,在组块80之后,可以迭代式地重复所述将初始和变形后形状进行匹配、计算空间偏移、和精修模型的步骤,直到从形成精修模型62的追踪点的集合不再移除其它追踪点,或精修模型包括的追踪点数目少于被认为是可接受的预定最小数目。可选地,组块80可以根据空间偏移,计算在限定变形模型的追踪点的集合中的至多所有追踪点的平均空间偏移,当该平均空间偏移超过选定值时,在组块84处结束导航例程。
可选组块82确定在工作目标的计算位置中的估计误差是否在可接受误差范围内。在一个装置中,通过基于可追踪设备26的初始模型51和变形,来估计计算出的工作目标22的当前位置的预期误差。可以根据任何所需方法和/或基于任何所需参数集,来执行这种估计。如果认为对计算出的工作目标位置的估计误差是无法接受的,例如,超过针对该工作目标的预定最大误差阈值,则组块86例如通过警告消息、误差消息、和/或结束导航例程36向用户提供通知。然而,如果认为估计误差是可接受的,例如在预定最大误差阈值范围内,则组块64基于精修模型62计算工作目标22的当前位置。
现转向图8到11,与许多先前系统中的可追踪设备不同,可追踪设备26不需要具有刚性或甚至固定的形状,尽管可以根据需要使用刚性或固定形状的可追踪设备26以及追踪系统28。相反,由于导航例程36感测并补偿可追踪设备26的变形的能力,可以将其形成为允许多个追踪点30中的一个或多个追踪点在导航期间相对于其它追踪点30移动,例如,变形。因此,可以将以下示例可追踪设备26a-d中的任何一个用作导航系统20的一部分。
在图8中,可追踪设备26a被附着到患者24的皮肤。可追踪设备26a包括柔性衬底90,配置为被例如使用粘合剂或胶带附着到患者皮肤。柔性衬底90是具有相对较薄厚度的薄片形式,具有不受限的弹性,但是在一些布置中,它可能具有受限的弹性,例如,仅在有限数目的方向上具有弹性。由柔性衬底90承载追踪点30。追踪点30是光学追踪点的形式,例如LED或对摄像机形式的传感器38可见的无源光学标记。尽管以下描述为了示例目的而使用LED,然而也可以将使用无源视觉标记的追踪系统用于这里所述的系统和方法。追踪点30位于衬底90的一侧上,可选地,粘合剂位于该衬底的相对侧上,以将衬底90附着到患者24的皮肤。柔性衬底90是围绕中间窗口92的框架形状,中间窗口穿过可追踪设备26a的中心部分。调整该框架的形状和尺寸,使得窗口92大到足以包围在工作目标22上的患者区域,向外科医师提供足够的空间来通过窗口92访问工作目标,而不必令该框架明显变形。该框架被示出为矩形;然而,其它形状也是有可能的。优选地,由柔性衬底90承载的追踪点30的数目在20到40个发光器之间,发光器以固定间隔布置在该框架的整个周缘周围。然而,可以将更少或更多的追踪点30布置在该柔性衬底90上,可以以不同排列对其分组。可追踪设备26a可选地包括数据通信链路94,适合用于向追踪系统28发送和/或从追踪系统28接收数据。数据通信链路94可以包括无线通信链路,例如,能够与计算机处理器34的无线通信器48进行通信。数据通信链路94可以包括硬连线通信链路,例如,用于利用线缆46与计算机处理器34相连。此外,可选性地,如果追踪点30是例如LED的发光器,则可以响应于通过数据通信链路94从追踪系统28接收命令信号,选择性地激活追踪点30。此外,可选性地,可以用数据通信链路94,来向追踪系统28传送关于可以如何相对于彼此移动追踪点30的任何物理限制的信息。这种信息可以包括关于衬底90的弹性、衬底90的刚性和/或与可追踪设备26a相关的追踪点30之间的连接类型的信息。可以在与可追踪设备26a相关的一个或多个存储器设备(例如,同样由该衬底90承载的非易失性存储器)中包含这种信息。
图9示出了适合用于导航系统20的可追踪设备26b的另一形式。与可追踪设备26a相似,多个追踪点30(形式为例如LED的发光器)被布置在柔性衬底90的一侧,其中例如采用位于柔性衬底相对侧的粘合剂,将柔性衬底90附着到患者皮肤。如针对可追踪设备26a所述,可追踪设备26b还包括数据通信链路94并可选地包括存储器。差别在于追踪点30的排列不必是图3所示的方形或矩形。相反,尽管柔性衬底90通常形成为围绕中间窗口92的矩形或方形框架的形状,然而,追踪点30可以在柔性衬底90的框架形状的周缘周围排列成群95,这里通常每四个LED排列为十字或星形簇。这样可以允许将每个追踪点簇95总地分别识别为单独的特定形状追踪点30。然而,可追踪设备26b的其它部分基本与参考可追踪设备26a所述的功能相同。
图10示出了包括多个不同且分离的衬底90a、90b等(例如,片状形式)的另一示例可追踪设备26c。每个衬底90a、90b配置为被固定到患者的外部表面,如果需要,则与其它衬底相分离。每个衬底90a、90b承载至少一个追踪点30。在一些布置中,衬底90a和90b中的一个或更多个可以承载多个追踪点30,例如,与图9的布置中所示的簇95相似。尽管可以将任何数目的分离衬底90a、90b用于形成可追踪设备26c,优选地,分离衬底的数目在10到40个之间。在图10所示的示例形式中,将24个分离衬底90a、90b等附着到患者24的皮肤。可追踪设备26c还包括数据通信链路94,且还可以包括如结合可追踪设备26a和26b所述的存储器。利用可追踪设备26c,可以以几乎任何所需的可想到的排列,例如,图5的示例所示的网格,将衬底90a、90b选择性地附着到患者皮肤。在这种配置中,可追踪设备26c可以使用结合由手术器械40承载的摄像机(例如,网络摄像机)使用的无源视觉片,以追踪位置。当被附着到患者24的皮肤时,可追踪设备26c执行与可追踪设备26a或26b相似或相同的功能。
图11示出了示例可追踪设备26d,其中衬底90为H形或I形的形式,追踪点30分别在柔性衬底90的形状上均匀地相分离。可追踪设备26的其它部分功能与可追踪设备26a到26c的对应组件相似或相同。
选择要由追踪系统28的传感器38追踪的追踪点30。因此,根据由追踪系统28使用的传感器38的类型,追踪点30可以包括LED、反射表面(例如,金属球形)、反射图案、磁性线圈和/或唯一性地定义追踪点30的位置和/或方向的光可识别几何形状。在一些布置中,追踪点30中的至少一个是可以唯一性限定独特姿态的光学目标,追踪系统28包括摄像机,例如用于捕获光学目标的图像的光学视频摄像机。在这种布置中,计算机处理器装置34用于实现根据单个追踪点30的捕获光学图像来计算光学目标的姿态的追踪例程。
接下来,描述了当将导航系统20用作图1示意性所示的手术导航系统时使用导航系统20的预期示例方法。在脊骨过程中,为了示例目的,将可追踪设备26固定到在工作目标22的区域(例如,特定目标脊椎骨)内的患者24的皮肤。如果使用可追踪设备26a,例如,柔性衬底90被布置为围绕目标脊椎骨,使得外科医师可以通过窗口92访问目标脊椎骨。因此,在工作目标22周围设置强数学分布的追踪点30,以在导航过程期间提供高准确性、低位置计算误差。
在将可追踪设备26a固定到患者24之后,登记包括目标脊椎骨的图像的患者术前图像。在一种布置中,通过具有传感器38的追踪系统28来收集追踪点30的初始位置53。因此,导航例程36根据初始位置53创建初始模型51,将初始模型51登记为术前扫描图像,使得将可追踪设备26a的实际位置登记到实际目标脊椎骨的位置和该目标脊椎骨在术前扫描图像中的图像。备选地,可以获得已附着可追踪设备26a的患者24的术前图像。
在完成登记之后,导航系统以本领域通常所理解的方式推进了手术过程。如果在手术过程的导航部分期间可追踪设备26a扭曲,则导航系统20可以检测到并在一些情况下补偿这种扭曲,以允许进行外科手术而无需例如通过向患者或术前图像重新登记可追踪设备26a来重置系统。
通常,使用直接附着到患者24皮肤的非刚性的可追踪设备(例如,可追踪设备26a)可以通过减小碰撞或下陷的可能性,来改善导航过程的准确度。本导航系统通过能够检测并在一些情况下补偿可追踪设备26a在导航手术过程期间的可能变形,改善了使用非刚性的可追踪设备的先前系统。
如上所述,可以随意组合结合附图所示的实例装置所述的特征,以形成不同实施例。因此,应清楚,可以以多种方式改变本公开。这种改变不应被理解为脱离本发明的范围,在所附权利要求范围内的所有修改应都清楚地包括在本发明的范围内。

Claims (20)

1.一种追踪身体的运动的方法,包括:
通过使用基于皮肤的身体追踪装置的基础层对身体成像来获取图像数据,所述基于皮肤的身体追踪装置使用所述基于皮肤的身体追踪装置的粘合剂层的粘合剂材料固定到身体皮肤,所述基于皮肤的身体追踪装置包括用于连续追踪所述身体皮肤的运动的多个光学追踪元件;
将身体位置登记到所述图像数据;
基于所述多个光学追踪元件的运动追踪所述身体的运动;和
通过在所述基于皮肤的身体追踪装置变形之前和之后确定所述光学追踪元件的位置来追踪所述身体皮肤的运动,
其中,粘合剂材料将所述基于皮肤的身体追踪装置粘贴到所述身体皮肤,使得所述身体皮肤的运动导致所述追踪元件的相应运动,以便提供作为动态参考框架的所述基于皮肤的追踪装置以用在连续追踪身体皮肤的运动中。
2.根据权利要求1所述的方法,其中,当在所述身体皮肤中的特定区域处形成切口时,追踪所述身体皮肤的运动,其中所述切口导致所述基于皮肤的身体追踪装置的变形。
3.根据权利要求1所述的方法,其中,所述基于皮肤的身体追踪装置被配置为使得所述光学追踪元件位于所述身体皮肤上的围绕特定区域的区域中。
4.根据权利要求1所述的方法,其中,所述身体位置与工作目标具有固定的空间关系。
5.根据权利要求4所述的方法,其中,所述基于皮肤的身体追踪装置被配置为使得所述光学追踪元件位于所述身体皮肤上的围绕所述工作目标的区域中。
6.根据权利要求4所述的方法,其中,所述工作目标是骨骼、器官、脊椎、肺、肝、股骨、骨盆和放置在身体中、身体上或身体附近的物体中的至少一个。
7.根据权利要求1所述的方法,其中,追踪所述身体皮肤的运动包括:确定在所述基于皮肤的追踪装置变形之前和之后的所述光学追踪元件的平均位置。
8.根据权利要求5所述的方法,其中,追踪所述身体皮肤的运动包括:确定在所述基于皮肤的追踪装置变形之前的所述光学追踪元件的平均位置与在所述基于皮肤的追踪装置变形之后的所述光学追踪元件的平均位置之间的偏差。
9.一种包括计算机程序代码的非暂时性计算机可读存储介质,所述计算机程序代码将计算设备配置为执行权利要求1至8中任一项所述的方法。
10.一种用于追踪身体的运动的导航系统,包括:
图像获取装置,被配置为通过使用基于皮肤的身体追踪装置的基础层对身体成像来获取图像数据,所述基于皮肤的身体追踪装置使用所述基于皮肤的身体追踪装置的粘合剂层的粘合剂材料固定到身体皮肤,所述基于皮肤的身体追踪装置包括用于连续追踪所述身体皮肤的运动的多个光学追踪元件;和
计算机处理器装置,适于实现导航路线,包括以下步骤:
将身体位置登记到所述图像数据;
基于所述多个光学追踪元件的运动追踪所述身体的运动;和
通过在所述基于皮肤的身体追踪装置变形之前和之后确定所述光学追踪元件的位置来追踪所述身体皮肤的运动,
其中,粘合剂材料将所述基于皮肤的身体追踪装置粘贴到所述身体皮肤,使得所述身体皮肤的运动导致所述追踪元件的相应运动,以便提供作为动态参考框架的所述基于皮肤的追踪装置以用在连续追踪身体皮肤的运动中。
11.根据权利要求10所述的系统,其中,当在所述身体皮肤中的特定区域处形成切口时,追踪所述身体皮肤的运动,其中所述切口导致所述基于皮肤的身体追踪装置的变形。
12.根据权利要求10所述的系统,其中,所述基于皮肤的身体追踪装置被配置为使得所述光学追踪元件位于所述身体皮肤上的围绕特定区域的区域中。
13.根据权利要求10所述的系统,其中,所述身体位置与工作目标具有固定的空间关系。
14.根据权利要求13所述的系统,其中,所述基于皮肤的身体追踪装置被配置为使得所述光学追踪元件位于所述身体皮肤上的围绕所述工作目标的区域中。
15.根据权利要求13所述的系统,其中,所述工作目标是骨骼、器官、脊椎、肺、肝、股骨、骨盆和放置在身体中、身体上或身体附近的物体中的至少一个。
16.根据权利要求10所述的系统,其中,追踪所述身体皮肤的运动包括:确定在所述基于皮肤的追踪装置变形之前和之后的所述光学追踪元件的平均位置。
17.根据权利要求11所述的系统,其中,追踪所述身体皮肤的运动包括:确定在所述基于皮肤的追踪装置变形之前的所述光学追踪元件的平均位置与在所述基于皮肤的追踪装置变形之后的所述光学追踪元件的平均位置之间的偏差。
18.根据权利要求10所述的系统,还包括所述基于皮肤的身体追踪装置。
19.根据权利要求10所述的系统,还包括权利要求9所述的存储介质。
20.根据权利要求10所述的系统,其中,所述图像获取装置包括至少一个相机。
CN202010080415.XA 2014-05-14 2015-05-13 用于追踪工作目标的位置的导航系统和方法 Active CN111166479B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010080415.XA CN111166479B (zh) 2014-05-14 2015-05-13 用于追踪工作目标的位置的导航系统和方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP14001698.1A EP2944283B1 (en) 2014-05-14 2014-05-14 Navigation system for tracking the position of a work target
EP14001698.1 2014-05-14
CN201510243851.3A CN105078577B (zh) 2014-05-14 2015-05-13 用于追踪工作目标的位置的导航系统和方法
CN202010080415.XA CN111166479B (zh) 2014-05-14 2015-05-13 用于追踪工作目标的位置的导航系统和方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201510243851.3A Division CN105078577B (zh) 2014-05-14 2015-05-13 用于追踪工作目标的位置的导航系统和方法

Publications (2)

Publication Number Publication Date
CN111166479A true CN111166479A (zh) 2020-05-19
CN111166479B CN111166479B (zh) 2024-02-13

Family

ID=50771027

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202010080415.XA Active CN111166479B (zh) 2014-05-14 2015-05-13 用于追踪工作目标的位置的导航系统和方法
CN201510243851.3A Active CN105078577B (zh) 2014-05-14 2015-05-13 用于追踪工作目标的位置的导航系统和方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201510243851.3A Active CN105078577B (zh) 2014-05-14 2015-05-13 用于追踪工作目标的位置的导航系统和方法

Country Status (3)

Country Link
US (3) US10575756B2 (zh)
EP (3) EP3443925B1 (zh)
CN (2) CN111166479B (zh)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL2023812T3 (pl) 2006-05-19 2017-07-31 The Queen's Medical Center Układ śledzenia ruchu dla adaptacyjnego obrazowania w czasie rzeczywistym i spektroskopii
US8992558B2 (en) 2008-12-18 2015-03-31 Osteomed, Llc Lateral access system for the lumbar spine
EP2747641A4 (en) 2011-08-26 2015-04-01 Kineticor Inc METHOD, SYSTEMS AND DEVICES FOR SCAN INTERNAL MOTION CORRECTION
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
EP3443925B1 (en) 2014-05-14 2021-02-24 Stryker European Holdings I, LLC Processor arrangement for tracking the position of a work target
CN106714681A (zh) 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
US20160128783A1 (en) * 2014-10-29 2016-05-12 Intellijoint Surgical Inc. Surgical navigation system with one or more body borne components and method therefor
US10631907B2 (en) 2014-12-04 2020-04-28 Mazor Robotics Ltd. Shaper for vertebral fixation rods
US10786319B2 (en) * 2015-12-29 2020-09-29 Koninklijke Philips N.V. System, control unit and method for control of a surgical robot
CA3009787A1 (en) * 2015-12-31 2017-07-06 Stryker Corporation System and methods for performing surgery on a patient at a target site defined by a virtual object
CA3015683C (en) * 2016-02-25 2020-02-04 Synaptive Medical (Barbados) Inc. System and method for automatic muscle movement detection
US10849691B2 (en) * 2016-06-23 2020-12-01 Mazor Robotics Ltd. Minimally invasive intervertebral rod insertion
US10052163B2 (en) * 2016-07-19 2018-08-21 Hcl Technologies Limited Assisting a surgeon to operate a surgical device
US11166709B2 (en) 2016-08-23 2021-11-09 Stryker European Operations Holdings Llc Instrumentation and methods for the implantation of spinal implants
US11033341B2 (en) 2017-05-10 2021-06-15 Mako Surgical Corp. Robotic spine surgery system and methods
EP3621545B1 (en) 2017-05-10 2024-02-21 MAKO Surgical Corp. Robotic spine surgery system
CN107595387B (zh) * 2017-07-28 2020-08-07 浙江大学 一种基于超声拓片技术的脊椎图像生成系统以及脊柱手术导航定位系统
US20200297442A1 (en) * 2017-08-16 2020-09-24 Intuitive Surgical Operations, Inc. Systems and methods for monitoring patient motion during a medical procedure
EP3476358B8 (de) * 2017-10-27 2020-10-21 Siemens Healthcare GmbH System zum nachverfolgen einer position eines zielobjekts
US11141223B2 (en) * 2017-11-06 2021-10-12 Eb Neuro S.P.A. Apparatus and method for calibrating and measuring target points for cerebral neuro-navigators
WO2019173237A1 (en) * 2018-03-05 2019-09-12 Kineticor, Inc. Systems, devices, and methods for tracking and analyzing subject motion during a medical imaging scan and/or therapeutic procedure
EP3545857B1 (en) 2018-03-30 2024-01-03 Stryker European Operations Holdings LLC Lateral access retractor and core insertion
CN108969099B (zh) * 2018-07-26 2020-02-18 艾瑞迈迪医疗科技(北京)有限公司 一种校正方法、手术导航系统、电子设备及存储介质
CN109009438B (zh) * 2018-09-13 2021-06-01 上海逸动医学科技有限公司 柔性无创定位装置及其在术中手术路径规划的应用及系统
CN109091229A (zh) * 2018-09-13 2018-12-28 上海逸动医学科技有限公司 适用于x光下机器人手术导航的柔性定位装置及导航方法
CN109363677A (zh) * 2018-10-09 2019-02-22 中国人民解放军第四军医大学 乳腺电阻抗扫描成像手持式检测探头体表定位系统及方法
EP3876859A1 (en) 2018-11-08 2021-09-15 Mako Surgical Corporation Robotic spine surgery system and methods
EP3685785A1 (en) * 2019-01-22 2020-07-29 Stryker European Holdings I, LLC Tracker for a surgical navigation system
US20200237459A1 (en) * 2019-01-25 2020-07-30 Biosense Webster (Israel) Ltd. Flexible multi-coil tracking sensor
EP4252694A3 (en) 2019-04-16 2023-12-06 Stryker European Operations Limited Tracker for surgical navigation
US11564674B2 (en) 2019-11-27 2023-01-31 K2M, Inc. Lateral access system and method of use
CN111419399A (zh) * 2020-03-17 2020-07-17 京东方科技集团股份有限公司 定位跟踪件、定位球的识别方法、存储介质及电子设备
WO2021195542A2 (en) 2020-03-27 2021-09-30 Mako Surgical Corp. Robotic spine surgery system and methods with haptic interface
US11832883B2 (en) 2020-04-23 2023-12-05 Johnson & Johnson Surgical Vision, Inc. Using real-time images for augmented-reality visualization of an ophthalmology surgical tool
US20210330395A1 (en) * 2020-04-23 2021-10-28 Johnson & Johnson Surgical Vision, Inc. Location pad surrounding at least part of patient eye for tracking position of a medical instrument
WO2022130370A1 (en) * 2020-12-15 2022-06-23 Mazor Robotics Ltd. Systems and methods for defining a work volume
EP4041114B1 (en) * 2020-12-17 2023-03-08 Brainlab AG Patterned incision foil and method for determining a geometry of an anatomical surface
WO2022212284A1 (en) * 2021-03-29 2022-10-06 The Johns Hopkins University Method and system for a confidence-based supervised-autonomous control strategy for robotic-assisted surgery
CN113796959A (zh) * 2021-08-24 2021-12-17 真健康(北京)医疗科技有限公司 体表动态定位装置和光学跟踪装置
CN113729945B (zh) * 2021-08-24 2022-04-15 真健康(北京)医疗科技有限公司 体表定位装置的配准方法、穿刺引导方法及设备
CN114041741B (zh) * 2022-01-13 2022-04-22 杭州堃博生物科技有限公司 数据处理部、处理装置、手术系统、设备与介质

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050096535A1 (en) * 2003-11-04 2005-05-05 De La Barrera Jose Luis M. System and method of registering image data to intra-operatively digitized landmarks
CN1968656A (zh) * 2004-06-11 2007-05-23 株式会社日立医药 超声波治疗装置
CN101076282A (zh) * 2004-09-30 2007-11-21 安科锐公司 移动目标的动态追踪
US20080123927A1 (en) * 2006-11-16 2008-05-29 Vanderbilt University Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same
EP1959831A1 (en) * 2005-11-16 2008-08-27 Xsens Technologies B.V. Motion tracking system
US20080269602A1 (en) * 2007-04-24 2008-10-30 Medtronic, Inc. Method And Apparatus For Performing A Navigated Procedure
CN101448468A (zh) * 2006-05-19 2009-06-03 马科外科公司 用于验证外科手术装置的校准的系统和方法
CN102485181A (zh) * 2010-12-03 2012-06-06 张春霖 基于虚拟标识配准操控的脊柱导航手术机器人
CN102831439A (zh) * 2012-08-15 2012-12-19 深圳先进技术研究院 手势跟踪方法及系统
CN102844789A (zh) * 2010-01-22 2012-12-26 范德比尔特大学 在影像引导手术过程中用于纠正变形的数据的系统和方法
CN102920510A (zh) * 2012-10-29 2013-02-13 清华大学 柔性穿刺针的路径规划方法
US20130189663A1 (en) * 2012-01-23 2013-07-25 Eidgenossische Technische Hochschule Zurich Medical training systems and methods
US20140037161A1 (en) * 2012-08-06 2014-02-06 Vanderbilt University Enhanced method for correcting data for deformations during image guided procedures
CN104470419A (zh) * 2012-07-09 2015-03-25 皇家飞利浦有限公司 用于自适应图像引导的介入的方法和系统

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6405072B1 (en) 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
US6006126A (en) 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data
US6675040B1 (en) 1991-01-28 2004-01-06 Sherwood Services Ag Optical object tracking system
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
ZA942812B (en) 1993-04-22 1995-11-22 Pixsys Inc System for locating the relative positions of objects in three dimensional space
AU6818694A (en) 1993-04-26 1994-11-21 St. Louis University Indicating the position of a surgical probe
ATE252349T1 (de) 1994-09-15 2003-11-15 Visualization Technology Inc System zur positionserfassung mittels einer an einem patientenkopf angebrachten referenzeinheit zur anwendung im medizinischen gebiet
US5588430A (en) 1995-02-14 1996-12-31 University Of Florida Research Foundation, Inc. Repeat fixation for frameless stereotactic procedure
US5868673A (en) * 1995-03-28 1999-02-09 Sonometrics Corporation System for carrying out surgery, biopsy and ablation of a tumor or other physical anomaly
WO1997003609A1 (en) 1995-07-16 1997-02-06 Ultra-Guide Ltd. Free-hand aiming of a needle guide
US6351659B1 (en) 1995-09-28 2002-02-26 Brainlab Med. Computersysteme Gmbh Neuro-navigation system
US5772594A (en) 1995-10-17 1998-06-30 Barrick; Earl F. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
US5828770A (en) 1996-02-20 1998-10-27 Northern Digital Inc. System for determining the spatial position and angular orientation of an object
US5954648A (en) 1996-04-29 1999-09-21 U.S. Philips Corporation Image guided surgery system
EP0847253B1 (en) 1996-05-29 2003-03-26 Northern Digital Inc. Image-guided surgery system
US5902239A (en) 1996-10-30 1999-05-11 U.S. Philips Corporation Image guided surgery system including a unit for transforming patient positions to image positions
US6127672A (en) 1997-05-23 2000-10-03 Canadian Space Agency Topological and motion measuring tool
US6061644A (en) 1997-12-05 2000-05-09 Northern Digital Incorporated System for determining the spatial position and orientation of a body
US6470207B1 (en) 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
US7747312B2 (en) 2000-01-04 2010-06-29 George Mason Intellectual Properties, Inc. System and method for automatic shape registration and instrument tracking
US6412491B1 (en) 2000-03-15 2002-07-02 James D. Rusin Examination device and method
US7169155B2 (en) 2001-12-14 2007-01-30 Scimed Life Systems, Inc. Methods and apparatus for guiding a needle
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US7869861B2 (en) * 2002-10-25 2011-01-11 Howmedica Leibinger Inc. Flexible tracking article and method of using the same
US7657298B2 (en) 2004-03-11 2010-02-02 Stryker Leibinger Gmbh & Co. Kg System, device, and method for determining a position of an object
EP1723605A1 (en) 2004-03-12 2006-11-22 Bracco Imaging, S.P.A. Accuracy evaluation of video-based augmented reality enhanced surgical navigation systems
US7616782B2 (en) * 2004-05-07 2009-11-10 Intelliview Technologies Inc. Mesh based frame processing and applications
US7702379B2 (en) * 2004-08-25 2010-04-20 General Electric Company System and method for hybrid tracking in surgical navigation
CN101035462A (zh) 2004-09-01 2007-09-12 皇家飞利浦电子股份有限公司 基于磁共振标记的位置和方向探针
US7751868B2 (en) 2004-11-12 2010-07-06 Philips Electronics Ltd Integrated skin-mounted multifunction device for use in image-guided surgery
EP1861035A1 (en) 2005-03-11 2007-12-05 Bracco Imaging S.P.A. Methods and apparati for surgical navigation and visualization with microscope
GB2428110A (en) 2005-07-06 2007-01-17 Armstrong Healthcare Ltd A robot and method of registering a robot.
US8170647B2 (en) 2006-01-20 2012-05-01 Best Medical International, Inc Fiduciary markers and method of use thereof
US9782229B2 (en) 2007-02-16 2017-10-10 Globus Medical, Inc. Surgical robot platform
DE102006008042A1 (de) 2006-02-21 2007-07-19 Siemens Ag Medizinisches Gerät mit im medizinischen Gerät kombinierter Bilderfassungs- und Positionsbestimmungsvorrichtung
US20070236514A1 (en) 2006-03-29 2007-10-11 Bracco Imaging Spa Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation
US8204575B2 (en) 2006-08-11 2012-06-19 Medtronic, Inc. Locating guide
US7734328B2 (en) 2006-12-21 2010-06-08 General Electric Company System and method to enhance visualization of an object in a vascular vessel
US8108025B2 (en) 2007-04-24 2012-01-31 Medtronic, Inc. Flexible array for use in navigated surgery
US8195272B2 (en) 2007-09-24 2012-06-05 MRI Interventions, Inc. MRI-compatible patches and methods for using the same
US8363259B2 (en) 2008-05-24 2013-01-29 Activiews Ltd. Method for producing printed patches for optical and high-contrast guidance
US20100076306A1 (en) 2008-09-25 2010-03-25 Daigneault Emmanuel Optical camera calibration for cas navigation
US20100081919A1 (en) 2008-09-29 2010-04-01 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Histological facilitation systems and methods
US8444564B2 (en) * 2009-02-02 2013-05-21 Jointvue, Llc Noninvasive diagnostic system
CN102316799A (zh) 2009-02-11 2012-01-11 皇家飞利浦电子股份有限公司 在医学程序中跟踪和绘图的方法和系统
KR100961661B1 (ko) 2009-02-12 2010-06-09 주식회사 래보 수술용 항법 장치 및 그 방법
GB0907874D0 (en) 2009-05-08 2009-06-24 Univ Ulster Skin marker
US20100298695A1 (en) 2009-05-19 2010-11-25 Medtronic, Inc. System and Method for Cardiac Lead Placement
US20100305427A1 (en) 2009-06-01 2010-12-02 General Electric Company Long-range planar sensor array for use in a surgical navigation system
EP2298223A1 (en) 2009-09-21 2011-03-23 Stryker Leibinger GmbH & Co. KG Technique for registering image data of an object
US9202387B2 (en) 2009-11-11 2015-12-01 Stryker Leibinger Gmbh & Co. Kg Methods for planning and performing percutaneous needle procedures
JP2013524952A (ja) 2010-04-22 2013-06-20 ブルー ベルト テクノロジーズ,エル エル シー 再構成可能なナビゲートされる外科用器具のトラッキング装置
US20110306873A1 (en) 2010-05-07 2011-12-15 Krishna Shenai System for performing highly accurate surgery
US20120071753A1 (en) 2010-08-20 2012-03-22 Mark Hunter Apparatus and method for four dimensional soft tissue navigation including endoscopic mapping
US8657809B2 (en) 2010-09-29 2014-02-25 Stryker Leibinger Gmbh & Co., Kg Surgical navigation system
WO2012052929A2 (en) 2010-10-18 2012-04-26 Activiews Ltd. System and method for facilitating navigation of a tool using a fluoroscope
US20120232377A1 (en) 2011-03-10 2012-09-13 Nottmeier Eric W Surgical navigation for revision surgical procedure
US10027952B2 (en) * 2011-08-04 2018-07-17 Trx Systems, Inc. Mapping and tracking system with features in three-dimensional space
US11109835B2 (en) * 2011-12-18 2021-09-07 Metritrack Llc Three dimensional mapping display system for diagnostic ultrasound machines
EP3466365A1 (en) * 2012-02-07 2019-04-10 Joint Vue, LLC Three-dimensional guided injection device and methods
JP5677378B2 (ja) * 2012-07-25 2015-02-25 富士フイルム株式会社 内視鏡システム
US9008757B2 (en) * 2012-09-26 2015-04-14 Stryker Corporation Navigation system including optical and non-optical sensors
JP6238550B2 (ja) * 2013-04-17 2017-11-29 キヤノン株式会社 被検体情報取得装置、被検体情報取得装置の制御方法
CN103230304B (zh) * 2013-05-17 2015-05-13 深圳先进技术研究院 手术导航系统及其方法
EP3443925B1 (en) 2014-05-14 2021-02-24 Stryker European Holdings I, LLC Processor arrangement for tracking the position of a work target
US10413377B2 (en) 2015-03-19 2019-09-17 Medtronic Navigation, Inc. Flexible skin based patient tracker for optical navigation

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050096535A1 (en) * 2003-11-04 2005-05-05 De La Barrera Jose Luis M. System and method of registering image data to intra-operatively digitized landmarks
CN1968656A (zh) * 2004-06-11 2007-05-23 株式会社日立医药 超声波治疗装置
CN101076282A (zh) * 2004-09-30 2007-11-21 安科锐公司 移动目标的动态追踪
EP1959831A1 (en) * 2005-11-16 2008-08-27 Xsens Technologies B.V. Motion tracking system
CN101448468A (zh) * 2006-05-19 2009-06-03 马科外科公司 用于验证外科手术装置的校准的系统和方法
US20080123927A1 (en) * 2006-11-16 2008-05-29 Vanderbilt University Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same
US20080269602A1 (en) * 2007-04-24 2008-10-30 Medtronic, Inc. Method And Apparatus For Performing A Navigated Procedure
CN102844789A (zh) * 2010-01-22 2012-12-26 范德比尔特大学 在影像引导手术过程中用于纠正变形的数据的系统和方法
US20120330635A1 (en) * 2010-01-22 2012-12-27 Vanderbilt University System and method for correcting data for deformations during image-guided procedures
CN102485181A (zh) * 2010-12-03 2012-06-06 张春霖 基于虚拟标识配准操控的脊柱导航手术机器人
US20130189663A1 (en) * 2012-01-23 2013-07-25 Eidgenossische Technische Hochschule Zurich Medical training systems and methods
CN104470419A (zh) * 2012-07-09 2015-03-25 皇家飞利浦有限公司 用于自适应图像引导的介入的方法和系统
US20140037161A1 (en) * 2012-08-06 2014-02-06 Vanderbilt University Enhanced method for correcting data for deformations during image guided procedures
CN102831439A (zh) * 2012-08-15 2012-12-19 深圳先进技术研究院 手势跟踪方法及系统
CN102920510A (zh) * 2012-10-29 2013-02-13 清华大学 柔性穿刺针的路径规划方法

Also Published As

Publication number Publication date
US10575756B2 (en) 2020-03-03
US20230117183A1 (en) 2023-04-20
EP3443925B1 (en) 2021-02-24
EP2944283A1 (en) 2015-11-18
US11540742B2 (en) 2023-01-03
EP3443925A1 (en) 2019-02-20
EP2944283B1 (en) 2018-08-15
CN105078577B (zh) 2020-01-21
CN105078577A (zh) 2015-11-25
US20200022615A1 (en) 2020-01-23
CN111166479B (zh) 2024-02-13
US20150327948A1 (en) 2015-11-19
EP3811891A2 (en) 2021-04-28
EP3811891A3 (en) 2021-05-05

Similar Documents

Publication Publication Date Title
CN105078577B (zh) 用于追踪工作目标的位置的导航系统和方法
CN110325141B (zh) 影像整合装置及影像整合方法
EP3007635B1 (en) Computer-implemented technique for determining a coordinate transformation for surgical navigation
JP5978134B2 (ja) 画像誘導処置間の変形に対してデータを訂正するシステムおよび方法
US20080119725A1 (en) Systems and Methods for Visual Verification of CT Registration and Feedback
EP2981943B1 (en) Method and device for determining the orientation of a co-ordinate system of an anatomical object in a global co-ordinate system
EP2950735B1 (en) Registration correction based on shift detection in image data
US20080119712A1 (en) Systems and Methods for Automated Image Registration
US20200129240A1 (en) Systems and methods for intraoperative planning and placement of implants
CN106999130B (zh) 用于确定在投影图像中介入仪器的位置的装置
EP3641685B1 (en) Systems for performing intraoperative surface-based registration and navigation
EP3414736B1 (en) Method and system for registering a patient with a 3d image using a robot
US11523868B2 (en) Bone registration methods for robotic surgical procedures
EP4041114B1 (en) Patterned incision foil and method for determining a geometry of an anatomical surface
EP4105887A1 (en) Technique of generating surgical information from intra-operatively and pre-operatively acquired image data
CN116762095A (zh) 有时间间隔的x射线图像的配准
CN115484889A (zh) 用于导航和示出程序的系统和方法
CN115515521A (zh) 用于导航和示出程序的系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant