CN101536013B - 光学位置测量及将坚硬或半柔软的工具引导到目标的系统和方法 - Google Patents

光学位置测量及将坚硬或半柔软的工具引导到目标的系统和方法 Download PDF

Info

Publication number
CN101536013B
CN101536013B CN2007800119339A CN200780011933A CN101536013B CN 101536013 B CN101536013 B CN 101536013B CN 2007800119339 A CN2007800119339 A CN 2007800119339A CN 200780011933 A CN200780011933 A CN 200780011933A CN 101536013 B CN101536013 B CN 101536013B
Authority
CN
China
Prior art keywords
pin
reference point
camera
human body
far
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2007800119339A
Other languages
English (en)
Other versions
CN101536013A (zh
Inventor
P·吉尔伯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stryker European Operations Holdings LLC
Original Assignee
Activiews Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Activiews Ltd filed Critical Activiews Ltd
Publication of CN101536013A publication Critical patent/CN101536013A/zh
Application granted granted Critical
Publication of CN101536013B publication Critical patent/CN101536013B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Robotics (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Machine Tool Sensing Apparatuses (AREA)
  • Manipulator (AREA)

Abstract

一种能在6个自由度上测量手持工具(100)相对于人体的位置的系统,通过将照相机(115)机械连接在工具上,照相机在近部与工具一起移动,从而具有了包含工具远端(122)的视野。

Description

光学位置测量及将坚硬或半柔软的工具引导到目标的系统和方法
技术领域
本发明涉及光学跟踪系统,特别是光学位置测量及将坚硬或半柔软的工具引导到目标的系统和方法。
背景技术
针状工具常用于医学领域以进行局部治疗。近年来,这些过程被介入式放射学家,即善于运用成像设备指导和控制诊断和治疗过程的医生所采用。在这些过程中,针在成像设备的控制下插入人体。
因为断层扫描(CT)和荧光透视法使用的能量是X射线,它对活体器官有电离和危害,成像引导系统已经被开发出来,基于术前CT数据,引导工具到达目标。这种引导系统在6个自由度上测量身体的位置和工具的位置,通过将身体的位置减去工具的位置得到工具相对于身体的位置。在过程的开始,CT数据和身体被记录以匹配它们的坐标。这通过匹配从CT数据和身体中识别出的至少3个基准点来完成。在大多数这样的系统中,两种技术类型中的一种用来确定工具和身体的位置,分别是:光学跟踪器和电磁跟踪器。在光学跟踪器中,系统使用两个空间上互相隔开的照相机,通过监视三个或更多的安装在被跟踪的目标上的可识别的光源,通过三角计算,在高达6个自由度(DOF)上计算出目标的位置和方向。在电磁跟踪器中,有多个天线的发射器发送出多个准静态的磁场。有多个天线的接收机接收到这些信号,然后基于这些信号计算出接收机相对于发射机的位置。
在这些系统中,工具和身体的位置都相对于一个位于工具和身体之外的居中的参考坐标系统确定。在电磁系统情况下,参考坐标由发射天线确定。在光学跟踪器中,参考坐标由照相机确定。从身体的坐标中减去工具的坐标就得到工具在身体坐标中的直接位置。由于每次位置确定过程固有地增加一些位置误差,使用中间坐标系统来确定工具相对身体的位置,较直接测量而得到的工具在身体坐标系统中的位置,精度要低一些。
Paltieli的美国6216029专利中描述了对朝着在身体体积内的目标的针的徒手指引。在这个专利中,成像设备是一个手持超声扫描器。电磁定位传感器用在变频器中,以及工具把手中。两个位置均相对由电磁跟踪系统定义的参考坐标系确定。
上述的成像引导系统是为将刚性工具引导到目标所设计。然而针,因为它们在朝向弯曲的直径很小。特别是当他被经过皮肤向目标推动时,用来操作针和使针向前的力常常会造成偏斜。由于前面提到的系统的位置传感器附着在针的近部,不补偿针的偏斜而测量近部的方向会导致确定针末端的位置时的定位误差。从而对到达目标的路线的预测也会有错误。身体内部的许多器官都被薄膜,如胸膜和腹膜覆盖。这些薄膜被介于薄膜和外部器官间的真空力所固定。如果薄膜被刺破,空气漏到薄膜和外部器官间的空间内,导致薄膜下沉。在肺脏内这种现象叫做气胸,而且非常普遍,发生在约30%的经由皮肤的胸部穿刺活检过程中。
这样就需要有一种系统和方法,在对针对目标的刚性或半柔性的工具进行光学定位测量和引导时,应当在固定于身体上的坐标系中进行直接的工具位置测量。而且更加有利的是提供一种系统和方法,用来将针引导到目标,包含对针的偏斜的补偿。可以预见,这样的系统非常有利于避免发生并发症,诸如气胸。
发明内容
本发明是光学位置测量及将刚性或半柔软的工具引导到目标的系统和方法。
本发明提供一种在至少5个自由度上对手持工具相对于人体的位置进行测量的系统,该系统包括:(a)刚性或半柔性工具,具有用来插入所述人体的远端,和用于在所述人体外进行手动操作的近部;(b)用来产生图像的照相机;(c)所述照相机与所述工具之间的机械连接,使得:(i)所述照相机与所述工具的所述近部一起移动,和(ii)所述照相机被控制为具有包含至少一部分所述工具的所述远端的视野;和(d)与所述照相机进行数据通讯的处理系统,被设定为处理来自所述照相机的图像用以确定至少一部分所述工具的位置。
按照本发明的一个方面,提供标识布置,应用在所述人体的外表面,提供多个基准点,所述的处理系统确定相对于所述基准点的所述位置。
按照本发明的一个方面,所述标识布置用具有所述多个基准点的单独的片来实现。
按照本发明的一个方面,所述多个基准点包括至少一组4个基准点,其中所述片设定为保持所述一组4个基准点在一个共有平面上。
按照本发明的一个方面,所述片包括多个标识,设定为可以被非光学成像系统容易地检测到。
按照本发明的一个方面,所述标识与在所述片上的所述基准点一致。
按照本发明的一个方面,所述片设定为画出所述工具的所述远端进入所述人体时的穿透点。
按照本发明的一个方面,所述多个基准点包括第一基准点组和第二基准点组,第二基准点组与所述第一基准点组光学地可区别,所述第一基准点组在空间上比所述第二基准点组更靠近。
按照本发明的一个方面,所述处理系统进一步设定为得到所述工具的所述远端的当前尖端位置,所述得到包括计算所述工具的弯曲的估计,并使用所述弯曲的估计来确定所述当前尖端位置。
按照本发明的一个方面,其中所述照相机及至少一部分所述处理系统在公共的处理器芯片上实现。
本发明提供一种方法,用于引导刚性或半柔性工具的远端到人体内的目标,所述工具具有用于在所述人体外进行手动操作的近部,方法包括以下步骤:(a)确定定义在所述人体外表面的多个光学可分辨的基准参考点和目标之间的空间关系;(b)提供与工具的近部机械连接的照相机;和(c)在将工具插入所述人体时:(i)从照相机获得包括多个所述基准点的所述人体的外表面的图像,(ii)从所述图像中的所述基准点的位置得到当前尖端与交叉点相对应的投影,该交叉点为从所述工具的所述远端出发,沿着工具远端指向的延长线和一平面的交点,该平面包含所述目标,并与工具远端的指向垂直,和(iii)显示代表至少所述目标和所述当前尖端的投影的位置的图形。
按照本发明的一个方面,在所述人体的所述外表面的所述多个基准点通过在人体外表面应用标识布置来定义。
按照本发明的一个方面,所述标识布置用具有所述多个基准点的单独的片来实现。
按照本发明的一个方面,所述多个基准点包括至少一组4个基准点,其中所述片设定为保持所述一组4个基准点在一个共有平面上。
按照本发明的一个方面,所述基准参考点和所述目标的空间关系是由非光学成像系统来确定的,其中所述片包括多个标识,设定为可以被所述非光学成像系统容易地检测到。
按照本发明的一个方面,所述标识与在所述片上的所述基准点一致。
按照本发明的一个方面,所述工具插入所述人体是通过穿过所述片而实现的。
按照本发明的一个方面,所述片设定为画出所述工具的所述远端进入所述人体时的穿透点。
按照本发明的一个方面,所述工具的所述远端进入所述人体的穿透点是在进行所述方法时,通过对所述照相机的图像进行处理得出的。
按照本发明的一个方面,所述多个基准点包括第一基准点组和第二基准点组,第一基准点组包含第一光学可分辨标识,第二基准点组包含第二光学可分辨标识,所述第二光学可分辨标识与所述第一光学可分辨标识光学地可区分,所述第一基准点组距离所述穿透点比所述第二基准点组近。
按照本发明的一个方面,该非光学成像系统是计算机X-射线断层扫描系统。
按照本发明的一个方面,该非光学成像系统为磁共振成像系统。
按照本发明的一个方面,该非光学成像系统为荧光镜,所述基准参考点与目标的空间关系由从至少两个不平行的观察方向得到的图像来确定。
按照本发明的一个方面,该工具有沿着伸长方向的延长体,其中所述照相机机械连接到该工具的该近部,因此靠近该延长体,具有包括伸长方向的视野。
按照本发明的一个方面,在该工具插入该人体之前,完成对长度的校正过程,包括:(a)将所述工具的所述远端对着参考点接触,该参考点在与所述基准点具有一定空间关系的位置;(b)得到当前照相机的位置;和(c)从所述当前照相机的位置和所述参考点的位置,得到所述远端和该照相机的距离。
按照本发明的一个方面,进一步包括得到工具远端的当前尖端的位置,所述得到包括:从所述当前照相机位置和工具进入人体的穿透点的位置的结合来计算,估计工具的弯曲,利用所述对弯曲的估计确定所述当前尖端的位置。
按照本发明的一个方面,所述图形是覆盖显示在从照相机得到的图像的上面的。
按照本发明的一个方面,所述图形进一步包括与每个基准点相关联的可视指示,指示图像中对应的基准点正在被成功地跟踪。
按照本发明的一个方面,所述图形进一步包括从该远端到目标的距离指示。
按照本发明的一个方面,所述图形进一步包括当前尖端位置的表示。
本发明提供一种引导半柔性工具的远端到人体内的目标的方法,所述工具具有用于在所述人体外进行手动操作的近部,方法包括以下步骤:(a)利用位置跟踪系统监控该工具近部的当前位置;(b)确定工具进入人体的穿透位置;(c)从所述工具的近部的当前位置和所述穿透位置得到对该工具弯曲的估计,从而得到在身体内部的工具远端的当前尖端位置;和(d)显示图形,至少表示:(i)目标的位置,和(ii)交叉点,即从所述工具的所述远端出发,沿着工具远端指向的延长线和一平面的交点,该平面包含所述目标,并与远端的指向垂直。
本发明提供一种片,附着至人体皮肤,与光学引导系统一起,引导刚性或半柔性工具的远端到人体内的目标,所述工具具有用于在所述人体外进行手动操作的近部,该片包括:(a)下表面用来临时粘贴到皮肤上;(b)上表面提供一组至少4个光学可分辨基准点;(c)具有多个对比度产生特征,用来在非光学成像系统的操作下提供高对比度点,使非光学成像系统对该片进行定位;和(d)插入装置,用来所述工具的所述远端进入所述人体时的穿透点。
按照本发明的一个方面,所述对比度产生特征以射线屏蔽特征而实现。
按照本发明的一个方面,所述射线屏蔽特征是通过将射线屏蔽物质加入模具来实现的,该模具用来形成所述基准点。
附图说明
本发明这里仅通过实例,并参照附图来描述。
图1是说明了依照本发明的内在原理的等距示意图。
图2是跟踪系统的优选实施例的等距示意图,并依照本发明建立和操作。
图3a和图3b分别是侧视图和对应的照相机图像,阐释了引导不弯曲的针至目标的方法。
图4a和图4b分别是侧视图和对应的照相机图像,阐释了由于针的弯曲产生的误差。
图5a和图5b分别是侧视图和对应的照相机图像,与图4a和图4b相类似,阐释了对由于弯曲而造成的误差的补偿。
图6是在本发明的一个优选实施例中,对用于数学计算描述坐标系统的示意图。
图7a和图7b是屏幕截图,举例证明了用塑料盒子作为样品对象时说明的计划阶段。
图8是两根依据本发明配备了小型照相机的针的侧视图。
图9a和图9b是本发明中的来自小型照相机的样本图像,分别是同一视角的未校正的、失真的图像和校正过的图像。
图10a到图10d示出了本发明在图7a和图7b的样品对象进行范例过程时不同阶段的显示。
图11是侧视图图表,阐释了依照本发明来校正工具远端指向的优选技术。
具体实施方式
本发明是对针对目标的刚性或半柔软的工具的光学位置测量和引导的系统和方法。
参照绘图和相应的描述,本发明的系统和方法的原理和操作可以被更好地理解。
通常来讲,本发明提供了一种系统,对手持工具相对人体的位置进行至少5个自由度的位置测量。系统对刚性或半柔性的工具进行操作,该工具具有插入人体的远端和为在体外进行手动操作的近部。用来产生图像的照相机通过机械连接安装在工具上,因此照相机可以随工具的近部一同移动,因而照相机被控制为具有包含工具的远端的视野。处理系统与照相机进行数据通讯,被设定为处理来自照相机的图像,以确定工具的至少一部分的位置。
本发明还提供了一种方法,对针对人体内的目标的刚性或半柔性的工具远端进行引导。概括来讲,该方法包括确定定义在人体外表面的多个光学可分辨基准参考点和目标之间的空间关系。照相机,机械地安装在工具的近部,在工具插入人体时使用,得到身体外表面并包含多个基准点的图像。然后通过处理图像,由基准点的位置得到当前尖端对应于交叉点的投影,交叉点为从工具远端出发,沿着远端指向的延长线和一平面的交点。该平面包含所述目标,并与工具远端的指向垂直然后图像就会至少显示目标的位置,以及当前尖端的投影,因而便于对针对目标的工具的引导。
这个阶段,很明显本发明的系统和方法提供了相对于前述现有技术的深远的优点。特别是,通过将照相机直接安装在工具上,避免使用工具和人体外的附加参照系。本发明的这个和其他的优点通过随后的具体描述会更加明了。
参照附图,依照本发明的装置的基本设置如图1所示。手持工具100具有近部110和远端122。其远端被引导至目标150,用来通过工具对这个目标进行治疗。跟踪模块110刚性地安装在工具的近部,优选在手柄上。跟踪模块至少在位置上指示出工具120的远端122的定位,优选还有相对于目标150的方向。确定工具相对于人体的定位直接在跟踪模块和身体间完成,不需要工具和中间参考系统之间的中间测量。在跟踪模块110的第一个优选实施例中,它包括一个单独的照相机115。在跟踪模块110的第二个优选实施例中,还包括了附加的第二照相机116。这些照相机用来成像和识别明显的多个参考标记155,它们是目标150的一部分,或在邻近目标的一个固定位置。同时,照相机也对工具120的至少一部分进行成像。
优选照相机115和116是一种自动的单芯片类型,如CMOS照相机,可以将照相机和至少一部分处理系统在一个通常的处理器芯片上实现。这种情况下,芯片优选包含所有必需的电子器件来产生视频信号,典型地包含:时钟发生器、定时发生器、行和列选择器和/或移位寄存器、输出驱动器、必要时的曝光补偿机构、必要时的增益和抵消控制及其他需要的电子线路,使这个单芯片照相机独立地产生视频信号。这里使用的术语“视频”有其更广泛的含义,描述任意类型的照相机输出,用来传送影像流,包含模拟输出、数字输出、压缩数字输出等,而不需意味通常考虑的一定帧率的连续视频。尽管在外围电子器件的支持下,照相机可以采用CCD技术设计和制造,但优选采用CMOS技术制造,因为它可以将逻辑部分和感光单元结合在同一个物理晶片上。照相机的镜头优选为单独的塑料模镜头。
跟踪装置的优选实施例如图2所示。照相机的视频输出信号送入帧捕获器210。视频信号的传送可以通过线缆112进行,但是在本发明一个优选实施例中用无线实现。被帧捕获器210数字化的视频信号送入计算机200,确定跟踪模块110相对于被跟踪目标的位置,然后确定在显示器230上显示的引导指令。在另一个优选实施例中,模/数转换器是照相机的一部分,数据到计算机的传输用数字化完成。计算机优选是一台笔记本计算机。
在本发明的一个优选实施例中,采用数学式的坐标系统,如图6所示。被跟踪的目标定义了一个笛卡尔坐标系610。目标被定义在坐标系620中的镜头观察。镜头投射出一个目标点612到定义在图像坐标系630中的图像点632。点612通过向量x=(x,y,z)定义在坐标系610中,通过向量k=(k,1,m)定义在坐标系620中。该点在图像平面上的投影是向量(p,q,i)。我们定义从目标到镜头坐标系的转换为用矢量k 0 =(k0,10,m0)表示转换,和用3x3的标准正交矩阵T表示旋转。目标和镜头坐标系之间的转换为:
(1) k = k l m = ( T · x + k 0 ) = T 11 T 12 T 13 T 21 T 22 T 23 T 31 T 32 T 33 · x y z + k 0 l 0 m 0
点612在第一照相机的焦点平面的图像就成为:
(2) p a q a f a = s a · k
其中fa为第一照相机的镜头的焦距,sa为其放大倍数。如果使用在轴k方向上的距离为Dk的第二照相机,则点612在第二照相机的焦点平面上的图像为:
(3) p b q b f b = ( s b / s a ) · p a q a f a + s b · D k 0 0
其中fb是第一照相机的镜头的焦距,sb为其放大倍数。因为T是标准正交矩阵,对矩阵的列(或行)的进行点积运算得到的积为:
(4)Tm,1:3·Tn,1:3=1 for m=n
0 for m≠n
利用式(4),仅仅需要确定矩阵T的4个元素,就足以解出矩阵其余的值。利用式(1)到(4),用已知的参考标志点,测量其对应的图像坐标并解出变换k0和旋转T,可以确定照相机的6个自由度(位置和方向)。一共需要解出7个未知数。如果仅使用一台照相机,则需要四个参考标志612,及它们在已知的目标坐标系中的位置。四个参考标志已经足够,因为每个参考具有两个线性独立的图像数据(pi和qi),得到4x2=8个独立等式来解出7个未知数。有了附加的照相机,可以在参考标记的两个图像之间替换,这两个图像来自两个不同的视点。很明显对于这些参考中的任何一个,这些替换发生在两个照相机替换的方向。因此,对于每个参考仅仅有一个附加的线性独立测量数据,这样三个参考,共有3x3=9个线性独立的等式,足够解出方程组。
参考标记,作为提供了针对“基准点”的标记,可以具有任何可识别的特点,如通过形状、颜色或花纹可视觉识别的点或曲线。这些参考标记可以是目标上明显部分的标志,或是特别添加的物体,比如自然目标或印记。另外还可以选择包括活跃的发光标记,可以是光源或者将安装在照相机附近或其他地方的光源的光线反射过来的反射器。活跃的发光标记的选择允许将信号编码,可以在视频上被简单地分析。在用活跃的光源的情况下,每个标记可以区别地编码,以便于对每个标记进行明确的识别。
作为选择,为了避免不同基准点的混淆,每组的一个或多个基准点可以区别于其他,比如通过使用不同的形状、图案或颜色。或者,用附加的标记,如箭头或类似的标记,可以用来唯一地定义基准点组的方向。通常情况下,我们发现这样已经能为使用者提供足够的指示,告诉使用者怎样将设备相对于片的方向放置,并且信任使用者不将系统旋转到可能导致在图像处理时产生混淆的程度。
最优选地,标记排列是作为一个单独的粘贴在人体表面的片,并带有多个基准点。在优选的实施例中,为了简化计算位置时的数学分析,片被配置成在一个公共平面上有一组4个基准点。这可以用多种方式完成,如,使用刚性的片,或使用在某一时刻只在一个或两个主要的方向上发生弯曲的有限柔性的片。需要注意的是,系统并不要求参考点是共面的,而且,有足够的处理力,可能是过量的。
在本发明的一个优选实施例中,在目标坐标中参考的位置是已知的,比如,校正在过程的导航阶段之前就已完成。校正可以通过使用机械手段完成或由基于图像数据,如CT数据来确定。
在来自照相机的视频输出中对参考的识别可以通过图像处理方法确定。此类方法在现有技术中已经广为人知,因此具有本领域技术人员的能力就可以写出需要的运行于计算机200的软件代码,并从视频中确定参考标记的坐标。
在人体内部成像的三维扫描器已广为人知。例如X射线荧光透视法、计算机断层扫描(CT)、磁共振成像(MRI)、正电子发射断层摄影(PET)以及超声波。依照本发明的一个优选实施例,片应用在人体表面以提供光学基准点,同时也提供了多个标记,用来被非光学成像系统迅速容易得检测到,以便于校准该片相对于目标的位置。特别地,这样就要求选择适合的材料,能在使用特定成像技术时产生高对比度特征。比如,用在CT扫描器的标识优选由铅制小球构成。小球可以嵌入平的塑料盘内。在片内的任何地方布置小球,这样它们和光学基准点有已知的空间关系,足够进行校准。最优选的是,用在非光学成像系统的标识的位置与光学基准点一致,因此光学基准点可以从扫描数据中直接得到。比如,依照一个优选选择,球体的上面打印有颜色的标识,因此所说的球体的坐标既可以由扫描数据确定,也可以由照相机图像确定。或者,标识可以用丝网印的方法来印刷合适的对比剂颜料来实现,这些颜料在CT(或MRI)图像中容易被看到。比如,将碘添加到颜料中,可以有效地使其能在CT成像中着色而容易被看到。这些标识的坐标然后作为基准点被用来记录照相机的方向和CT的强度数据,使其引导工具移向由CT数据确定的目标。通过共同的基准点将一个坐标系的数据校准到另外一个的数学原理,在本领域是广为人知的(参看Hajnal Hill和Hawkes的《医学图像配准》中的实例,CRC Press,2001)。
其它的技术可以用作3D成像技术的替代,如用来确定基准点和目标的相对位置的CT或MRI。作为一个非限定的实例,两个不平行的、来自荧光镜(它本身是两维成像设备)的视图用来确定目标和片上标识间的相对位置。在每个视图中,荧光镜在六个自由度上的位置由片上的标识的在萤光镜上的可视图像中的位置确定,一定程度上类似于对基准点的光学处理,目标位置被标记。两个不平行的视图中对应目标位置的直线形成的交点,可以用来对目标相对于片进行定位。
用在工具尖端定位和指向计算的一个参数是工具进入人体时的穿透点。原理上讲,穿透点可以由使用者在照相机可视范围的人体表面任意定位,而且这个定位可以通过对来自照相机115的图像进行处理来确定。在实践中,典型的优选是利用片的存在的优点来确定穿透点,较其它可能的方式更容易和/或具有更高的精度。这样,工具插入人体优选通过片来完成。在一个特定的优选实现中,片本身配置成在上面勾画出工具远端进入人体时的穿透点的形式。这可以通过提供一个预成形的插入工具的孔来完成。这样,一旦在片上的标识相对目标的定位被校准,插入点的位置就立即可知。在另一种实现中,工具远端进入人体时的穿透点可以在过程中由对照相机图像的处理得到。在这种情况下,片可以方便地具有几何图案,如矩形网格,可以便于基于图像处理的针对穿透定位的计算。穿透定位可以由工具的尖端在穿透前接触定位来确定,或者在穿透后工具前进时通过计算来确定或使其更加精确。
依照一种特定优选的方法论,在过程开始时,将坐标贴纸或其它块制成的“片”或由包含基准标识的材料制成的层贴在患者目标上方的皮肤上。进行CT(或其它方式成像)扫描。对标识和目标的定位进行确定并送入计算机200,比如通过“随身碟”内存220。基于这个数据,对朝向目标的工具的导航可以确定。在导航中,应该将工具偏差补偿考虑进去。在说明书和权利要求书中,术语“偏差”,“弯曲”和“偏移”是可以互相替换的,指工具暂时的弹性形变,即相对于工具的不受力状态而产生一定程度的弯曲。随后的例子描述一个针对单照相机跟踪系统中的补偿方法的优选实例。在图3a和图3b中,描述了非偏差工具的情形。照相机组件110安装在工具100的近侧,所处位置和方向可以使工具120的至少一部分以及至少4个标识,310到313,能被照相机看到。这里假设工具的几何轴线及它在照相机坐标系统中的长度事先知道,无论通过设计参数得到还是通过校正得到。具体地考虑到工具的长度,通过将工具远端接触片的表面的任意一点,而使系统确定照相机到片的距离,这些可以在过程的开始方便地确定。因为片本身是消过毒的,这样从手术程序讲不存在任何问题。其它校正参数优选预存在照相机中或由数据存储媒介提供,如下将讨论。成像组件110相对于坐标片的位置和方向是确定的。工具远端122的定位可以由沿着它的轴322的轨迹来确定。端显示在照相机输出的图像之上,如虚线322和交叉线301所示。没有偏斜时,则端的移动与照相机的移动相同。当工具偏斜时,如图4a和图4b所示,未对偏斜进行补偿会引入误差。因为工具的轨迹相对于照相机确定,并且因为工具的近部发生偏斜后照相机也随着改变方向,工具322经过确定的轴不再与实际的工具远端的轴线一致。因此,交叉线301,代表工具的端(或其它沿着针方向的定位,如针在目标平面上的轨迹),就在显示器上显示出错误的定位。如果这种情况不加以纠正,特别是对于相对柔软的针,经常会导致不成功的导航从而错过要找的目标。
许多模型可能被用来实现对工具弯曲的校正。通过一个非限定的实例,校正可能基于这样一个假设被确定:工具进入人体的点320位于坐标片平面300内。通过求解方程(1)到(4),平面300的位置和方向参数是已知的。工具在人体内的路径,其在目标平面内的尖端定位及交叉线就被确定下来,作为所说的正切方向的轨迹,如图5a和5b所示。
应该注意的是各种不同的模型,可以基于实际穿透位置的任意组合、理论上的非弯曲进入点,工具仍在体外的长度及任何其它测量出的参数,来计算工具的偏斜,因而得到远端的指向。在实践当中,发现用来校正远端指向的一个很简单的计算对于大范围的各种实现有着高度有效的作用。这个计算现在将参照图11进行描述。
特别地,这里阐释的情况,工具在片区域上的一个已知位置320穿透进入人体。理论上工具的非弯曲路径用虚线322表示,照相机的光学轴用虚线324表示。这些轴典型地基本平行,由系统提供的校正数据所定义。偏斜向量326定义为从非偏斜工具路径322到穿透点320的向量,穿透点320在垂直于光学轴324的平面上。为了计算出工具在人体内的校正方向,校正过的理论上的工具位置,通过校正当前工具手柄的位置,通过校正向量328,它对应偏斜向量326的相反方向的比例系数。这个比例系数可以是一个常数,或者是可变参数,如,工具在人体外长度的函数。然后估算出的工具尖端的指向被用在从校正过的理论上的工具位置穿过实际的插入点的直线330。
典型地,校正向量328的常数比例系数的范围在1到3之间时效果明显。而且我们发现校正是完全校正通常并不重要。事实上,在通常情况下,试图对偏斜提供完全校正会导致被使用者过补偿和/或增大对任何位置的测量误差。在多个实际的实现中,使用1.5的比例系数已经收到有效的效果。
具有两台照相机的跟踪系统的工具偏斜的补偿很类似,具有如下简化:偏斜系统的弧线可以直接由立体图像对确定,而且可以利用等式(3)确定沿着工具的若干个点的位置。
在本发明的另外一个优选实施例中,用柔软的材料制成的贴纸可以作为坐标片,其中一面涂覆粘合剂用来贴到患者皮肤上。柔软的材料,优选为聚合物如尼龙或聚氯乙烯(PVC)制成,在其内部嵌入微小的参考标识。如前所述,这些标识优选用那些可以在非光学成像技术下可以提供高对比度的材料实现,用来进行校正。在使用CT的情况下,这些标识是不能透过无线电的,比如由小铅球制成,典型的直径为1-2mm。另外,光学基准点,如“压印”,是印在贴纸的表面上的。这些压印可以是线、圈或其它任何形状,或者光学可识别的特征。这些压印可以用单色印刷,或者优选用多色,以便于通过色彩分割加以区分。总体上,压印定义了坐标系统,用来将工具引导至目标。嵌入的标识用来校正工具到CT容积内的定位。压印这样安排,就可以从照相机的图像确定嵌入式标识的定位。能被跟踪设备光学看到的面积大小是其视野(FOV)和贴纸到镜头的距离的函数。当照相机和贴纸之间的距离增加时,光学的覆盖面积也增加。为了保持系统的精度,优选使基准点间的距离尽量远。在工具插入人体时,照相机离贴纸越来越近,因此它的视野覆盖面积越来越小。最优选的是,为了使基准点在初始位置和穿透最后阶段都分布最优,将指派一系列光学可分辨的特征两组或多组基准点,配置为不同的间距,一组在空间上更紧凑以便覆盖更小的区域,另一组更加分散以便覆盖更大的区域。
依照附加的可选特征,片上的某些位置可以指派为与特定系统功能相关联的控制位置。这样系统就可以监控系统的操作者是否已将工具尖端接触(或靠近)其中一个控制位置,以及,如果这样的话,执行相应的分派系统功能。使用这种方式,用来在片上进行定位分配系统控制功能的实例包括但不限于:初始工具长度重新校准、改变显示模式或其它显示参数、输入任何其它的实时数据或更改任何其它系统操作参数、以及关机。将工具对着一个片上的位置进行接触,作为使用者接口输入,它的作用对于本发明有特别的优势,因为这样就避免了系统操作者需要接触任何未经消毒的计算机设备,或者将他或她的注意力从执行过程的周围分散开。
该系统可以用来引导任何细长工具,如针、指针等。工具可以是刚性的或者半柔性的。在本文中,术语“刚性”用来指代在通常使用条件下,使用到显著影响了引导工具到达目标的精度的程度时,工具不发生弯曲。在本文中,术语“半柔性”用来指代在通常使用条件下,工具发生偏斜而没有严重的形变。在数字上,术语“半柔性”可以用来指代任何通常使用下的延长的工具,其弯曲导致的曲率半径大于工具长度的两倍,典型值为工具长度的至少3倍。
在本发明的一个实施例中,工具的几何形状是事先已知的。在另外一个实施例中,它的几何形状是在成像过程中确定的。尽管在以上描述的实施例中,工具的远端部分被部分地隐藏,本发明也适合在整个手术过程中工具远端部分可见的应用。在这样的实施例中,对工具远端的定位可以选择由视频图像直接确定。
在本发明的一个优选的实施例中,图像显示在计算机屏幕上。在本发明的另一个实施例中,使用护目镜显示,可以实现三维显示,给出深度的感觉。在一些实施例中,基于对工具相对人体的相对位置和角度,人体的虚拟3D图像可以从3D扫描数据中产生并在计算机显示器上显示,显示出工具在人体内部器官内的路径。
如前所述,显示的内容优选包括对目标位置的表示,和当前尖端沿着远端的指示方向在平面投影的表示,该平面包括目标并完全垂直于指示方向。该平面用来投影,可以实际上就是包含目标并垂直于照相机光学轴的平面,但是由于偏斜典型地相对较小,两个投影平面都被认为是在术语“完全垂直于指向”的范围内。
除目标位置和当前尖端的投影之外,其它各种项目也优选显示在显示器上以便于对针对目标的工具的导航。依照第一个特别优选的选择,对目标位置和当前尖端投影的图像表示是覆盖从照相机得到的图像上而显示的。我们可以发现这样对使用者保持他的或她的空间方向很有帮助。或者,视觉指示可以显示成与每个基准点相关联,指示图像中对应的基准点正在被成功地跟踪。其它可以视需要而选择显示的项目包括远端到目标的距离指示,如以mm表示的数字形式,及对当前尖端位置的表示。
一个将针向选中目标导航的过程实例如图7到10所示。空塑料盒作为人体,目标用胶粘在盒子底部,坐标贴纸粘在它的盖子上。首先,人体(盒子)被CT扫描器扫描。扫描的数据送到计算机程序。利用程序,基准点的位置(图7a)及目标的位置(图7b)被标注。小型照相机通过简单的适配器固定在针上,如图8的例中所示。往往照相机的镜头会造成图像的失真,如图9a所示,因而需要校正,如图9b所示。图10a到图10d显示了系统的导航屏幕。信息显示在来自照相机原始图像1300的上方。坐标贴纸1330包括8个印好的标识,4个绿色标识1310和4个蓝色标识1314。对原色的使用方便了图像处理中对标识的分辨,至少对于医学应用,红色优选不要使用,以避免因为在视野中有血的存在而造成混淆。如前所述,可以使用其它类型的光学可识别标识。蓝色标识在有绿色标志范围的更大空间中间隔更紧凑。针轴1120被显示出穿过坐标贴纸进入预先确定的洞1320。在图10a中,针是不能弯曲的,因此它的轴1322与针的轴1120是一致的。目标1302由两个着色的同心圆盘表示,蓝色的外部圆环校正成显示直径10mm的圆盘,作为在目标计划阶段的测量,内部的绿色圆盘,是直径5mm的圆盘,二者都以目标为圆心。针的尖端和目标之间的距离也显示在文本框1322中。
将针对准其中一个目标,如图10b所示,自动选择这个目标,通过将绿色改变成黄色加以指示。在引导中,系统确定针轴的偏斜。图10c显示了轴1120发生偏斜的情况。因为偏斜,针1322的预测路径(用虚线显示)与轴的图像不一致。十字线1301优选以距离决定的尺寸显示,因而提供了有深度的感觉;当尖端到目标的距离减小时,十字线的尺寸增加(反之亦然)。将针推进到人体中减少了照相机和坐标贴纸间的距离,即减少了视野中贴纸覆盖的面积。因而,如图10d中所示,绿色标识消失在照相机视野之外,仅留下蓝色标识来引导工具。当针的尖端到达目标平面,十字改变成星形刻线(1341,如图10d所示),警告不再需要进一步的前进。
在估计针的偏斜时,也可以采用不同于上述光学跟踪的其它跟踪技术,基于实际进入点和理论的非偏斜进入点的差别的计算方面典型地具有相似的概念途径。这样的技术包括但不仅限于,在工具的近部嵌入定位传感器,并在临近工具进入人体的实际进入点处嵌入另外一个定位传感器。另外一种方法是通过扫描沿着人体外的针轴的坐标并从那里预测人体内的路径,预测体外的偏斜。这样的扫描过程可以通过诸如光学实体镜扫描器之类的扫描器完成。
在预测针在人体内的路径时,CT数据可以被用来评估一些组织的机械参数,如沿着预测路径的挠性和密度,从而用它来预测针的偏斜。
近来,出现了用来进行介入过程的CT荧光透视法。在这些扫描器内,切片图像持续产生,使它可以像实时X射线荧光透视成像设备那样使用。本发明的系统在CT荧光透视镜上引导工具到达目标方面具有许多优点。首先,它允许对工具的持续的实时导航而不使用有害的X射线辐射。另外,它还可以对工具进行任何方向的导航,也包含与CT切片垂直的方向,与强制要求使用者在单个CT切片上作出全部路径的CT荧光透视镜相反。
这种系统或方法允许从患者身体任何要求的侧面对工具进行导航,而与方向无关,甚至允许导航从人体的下部向上进行,应当认为这些对于任何特定的过程都是有利的。
由于透镜引起的失真优选经过多项式校正,是现有技术中已知的。每个镜头有单独的失真,要分别进行校正。在本发明的一个优选实施例中,这些多项式作为装配在照相机的一部分而存储在内存中,或者由与照相机相配的数据存储媒介单独提供。由于安装托架或类似的东西存在制造误差,会造成照相机相对于工具的排列发生一些变化,这些校正优选还包含对由此引起的变化进行的刻度校正。当照相机连接到系统时,多项式就被读取并送到算法单元,在那里从照相机得到的图像通过这些多项式进行单独的校正。
需要认识到的是,以上的描述仅仅是为了说明实例,而在可能在本发明范围内的任何其它实施例将在所附的权利要求中加以界定。

Claims (30)

1.一种在至少5个自由度上对手持针相对于人体的位置进行测量的系统,该系统包括: 
(a)刚性或半柔性针,具有用来插入所述人体的远端,和用于在所述人体外进行手动操作的近部; 
(b)片,配置为在所述针插入到所述人体的点时应用在所述人体的外表面,所述片具有光学可分辨特征的标识布置,所述标识布置定义了多个基准点; 
(c)用来产生图像的照相机; 
(d)所述照相机与所述针的近部机械连接,使得: 
(i)所述照相机与所述针的所述近部一起移动,和 
(ii)所述照相机被控制为当所述片应用在所述人体的外表面和所述针的所述远端部分插入所述人体时具有包含至少一部分所述片的视野;和 
(e)与所述照相机进行数据通讯的处理系统,被设定为处理来自所述照相机的图像用以确定相对于所述基准点的至少一部分所述针的位置。 
2.如权利要求1所述的系统,其中所述多个基准点包括至少一组4个基准点,其中所述片设定为保持所述一组4个基准点在一个共有平面上。 
3.如权利要求1所述的系统,其中所述标识布置包括多个标识,设定为可以被非光学成像系统容易地检测到。 
4.如权利要求3所述的系统,其中所述标识画出与在所述片上的所述基准点一致的位置。 
5.如权利要求1所述的系统,其中所述片设定为画出所述针的所述远端进入所述人体时的穿透点。 
6.如权利要求5所述的系统,其中所述光学可分辨特征定义第一基准点组和第二基准点组,第二基准点组与所述第一基准点组光学地可区别,所述第一基准点组在空间上比所述第二基准点组更靠近所述穿透点。 
7.如权利要求1所述的系统,其中所述针是半柔性针,其中所述处理系统进一步设定为得到所述针的所述远端的当前尖端位置,所述得到包括从所述照相机的当 前位置和针进入人体的穿透点的位置的结合来计算所述针的弯曲的估计,并使用所述弯曲的估计来确定所述当前尖端位置。 
8.如权利要求1所述的系统,其中所述照相机及至少一部分所述处理系统在公共的处理器芯片上。 
9.一种引导刚性或半柔性针的远端到人体内的目标的方法,所述针具有用于在所述人体外进行手动操作的近部,方法包括以下步骤: 
(a)将片应用于人体外表面,所述片具有光学可分辨特征的标识布置,所述标识布置定义了多个基准点; 
(b)确定所述多个基准点和目标之间的空间关系; 
(c)提供与针的近部机械连接的照相机;和 
(c)在将针插入所述人体时: 
(i)从照相机获得包括多个所述基准点的所述人体的外表面的图像, 
(ii)从所述图像中的所述基准点的位置得到所述针的远端的当前尖端与交叉点相对应的投影,该交叉点为从所述针的所述远端出发,沿着针远端指向的延长线和一平面的交点,该平面包含所述目标,并与针远端的指向垂直,和 
(iii)显示代表至少所述目标和所述当前尖端的投影的位置的图形。 
10.如权利要求9所述的方法,其中所述多个基准点包括至少一组4个基准点,其中所述片设定为保持所述一组4个基准点在一个共有平面上。 
11.如权利要求9所述的方法,其中所述基准点和所述目标的空间关系是由非光学成像系统来确定的,其中所述片包括多个标识,设定为可以被所述非光学成像系统容易地检测到。 
12.如权利要求11所述的方法,其中所述标识与在所述片上的所述基准点一致。 
13.如权利要求9所述的方法,其中所述针插入所述人体是通过穿过所述片而实现的。 
14.如权利要求13所述的方法,其中所述片设定为画出所述针的所述远端进入所述人体时的穿透点。 
15.如权利要求13所述的方法,其中所述针的所述远端进入所述人体的穿透点是在进行所述方法时,通过对所述照相机的图像进行处理得出的。 
16.如权利要求14所述的方法,其中所述多个基准点包括第一基准点组和第二基准点组,第一基准点组包含第一光学可分辨标识,第二基准点组包含第二光学可分辨标识,所述第二光学可分辨标识与所述第一光学可分辨标识光学地可区分,所述第一基准点组距离所述穿透点比所述第二基准点组近。 
17.如权利要求11所述的方法,其中该非光学成像系统是计算机X-射线断层扫描系统。 
18.如权利要求11所述的方法,其中该非光学成像系统为磁共振成像系统。 
19.如权利要求11所述的方法,其中该非光学成像系统为荧光镜,所述基准点与目标的空间关系由从至少两个不平行的观察方向得到的图像来确定。 
20.如权利要求9所述的方法,其中该针有沿着伸长方向的延长体,其中所述照相机机械连接到该针的该近部,因此靠近该延长体,具有包括伸长方向的视野。 
21.如权利要求9所述的方法,进一步包括,在该针插入该人体之前,完成对长度的校正过程,包括: 
(a)将所述针的所述远端对着参考点接触,该参考点在与所述基准点具有一定空间关系的位置; 
(b)得到当前照相机的位置;和 
(c)从所述当前照相机的位置和所述参考点的位置,得到所述远端和该照相机的距离。 
22.如权利要求9所述的方法,进一步包括得到针远端的当前尖端的位置,所述得到包括:从所述照相机的当前位置和针进入人体的穿透点的位置的结合来计算所述针的弯曲的估计,利用所述对弯曲的估计确定所述当前尖端的位置。 
23.如权利要求9所述的方法,其中所述图形是覆盖显示在从照相机得到的图像的上面的。 
24.如权利要求23所述的方法,其中所述图形进一步包括与每个基准点相关联的可视指示,指示图像中对应的基准点正在被成功地跟踪。 
25.如权利要求9所述的方法,其中所述图形进一步包括从该远端到目标的距离指示。 
26.如权利要求9所述的方法,其中所述图形进一步包括所述针的远端的当前尖 端位置的表示。 
27.引导半柔性针的远端到人体内的目标的方法,所述针具有用于在所述人体外进行手动操作的近部,方法包括以下步骤: 
(a)利用位置跟踪系统监控该针近部的当前位置; 
(b)确定针进入人体的穿透位置; 
(c)从所述针的近部的当前位置和所述穿透位置得到对该针弯曲的估计,从而得到在身体内部的针远端的当前尖端位置;和 
(d)显示图形,至少表示: 
(i)目标的位置,和 
(ii)交叉点,即从所述针的所述远端出发,沿着针远端指向的延长线和一平面的交点,该平面包含所述目标,并与远端的指向垂直。 
28.一种用于如权利要求1所述的系统的片,该片包括: 
(a)下表面,用来临时粘贴到皮肤上; 
(b)上表面,用来提供一组至少4个光学可分辨基准点; 
(c)具有多个对比度产生特征,用来在非光学成像系统的操作下提供高对比度点,使非光学成像系统对该片进行定位;和 
(d)插入装置,用来画出所述针的所述远端进入所述人体时的穿透点。 
29.如权利要求28所述的片,其中所述对比度产生特征以射线屏蔽特征而实现。 
30.如权利要求29所述的片,其中所述射线屏蔽特征是通过将射线屏蔽物质加入颜料来实现的,该颜料用来形成所述基准点。 
CN2007800119339A 2006-03-30 2007-03-29 光学位置测量及将坚硬或半柔软的工具引导到目标的系统和方法 Active CN101536013B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US78714906P 2006-03-30 2006-03-30
US60/787,149 2006-03-30
US85240306P 2006-10-18 2006-10-18
US60/852,403 2006-10-18
US88760507P 2007-02-01 2007-02-01
US60/887,605 2007-02-01
PCT/IL2007/000416 WO2007113815A2 (en) 2006-03-30 2007-03-29 System and method for optical position measurement and guidance of a rigid or semi flexible tool to a target

Publications (2)

Publication Number Publication Date
CN101536013A CN101536013A (zh) 2009-09-16
CN101536013B true CN101536013B (zh) 2013-08-28

Family

ID=38564066

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007800119339A Active CN101536013B (zh) 2006-03-30 2007-03-29 光学位置测量及将坚硬或半柔软的工具引导到目标的系统和方法

Country Status (7)

Country Link
US (1) US7876942B2 (zh)
EP (2) EP3032456B1 (zh)
JP (1) JP5146692B2 (zh)
KR (1) KR20090004899A (zh)
CN (1) CN101536013B (zh)
BR (1) BRPI0709421A2 (zh)
WO (1) WO2007113815A2 (zh)

Families Citing this family (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7410462B2 (en) 2004-12-13 2008-08-12 Gyrus Acmi, Inc. Hermetic endoscope assemblage
US7657101B2 (en) * 2005-01-19 2010-02-02 Dermaspect, Llc Devices and methods for identifying and monitoring changes of a suspect area on a patient
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
WO2008017051A2 (en) 2006-08-02 2008-02-07 Inneroptic Technology Inc. System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
DE102008018930A1 (de) * 2007-04-17 2008-11-20 C2Cure Inc., Wilmington Bildgebende Systeme und Verfahren, insbesondere zur Verwendung mit einem bei offener Chirurgie verwendeten Instrument
JP5416900B2 (ja) * 2007-11-22 2014-02-12 株式会社東芝 超音波診断装置及び穿刺支援用制御プログラム
WO2009094646A2 (en) 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
US8340379B2 (en) 2008-03-07 2012-12-25 Inneroptic Technology, Inc. Systems and methods for displaying guidance data based on updated deformable imaging data
US8363259B2 (en) * 2008-05-24 2013-01-29 Activiews Ltd. Method for producing printed patches for optical and high-contrast guidance
US20090312629A1 (en) * 2008-06-13 2009-12-17 Inneroptic Technology Inc. Correction of relative tracking errors based on a fiducial
EP2153794B1 (en) * 2008-08-15 2016-11-09 Stryker European Holdings I, LLC System for and method of visualizing an interior of a body
WO2010063117A1 (en) 2008-12-02 2010-06-10 Andre Novomir Hladio Method and system for aligning a prosthesis during surgery using active sensors
US8374723B2 (en) * 2008-12-31 2013-02-12 Intuitive Surgical Operations, Inc. Obtaining force information in a minimally invasive surgical procedure
US8611985B2 (en) 2009-01-29 2013-12-17 Imactis Method and device for navigation of a surgical tool
US8690776B2 (en) * 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
US11464578B2 (en) 2009-02-17 2022-10-11 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8554307B2 (en) 2010-04-12 2013-10-08 Inneroptic Technology, Inc. Image annotation in image-guided medical procedures
US8641621B2 (en) 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
WO2011020505A1 (en) * 2009-08-20 2011-02-24 Brainlab Ag Integrated surgical device combining instrument; tracking system and navigation system
CN102598088A (zh) 2009-11-11 2012-07-18 艾克提维尤斯有限公司 规划和执行穿刺程序的系统及方法
CA2781427A1 (en) * 2009-11-19 2011-05-26 The Johns Hopkins University Low-cost image-guided navigation and intervention systems using cooperative sets of local sensors
US8435033B2 (en) 2010-07-19 2013-05-07 Rainbow Medical Ltd. Dental navigation techniques
US20120071757A1 (en) * 2010-09-17 2012-03-22 University Of British Columbia Ultrasound Registration
US8657809B2 (en) 2010-09-29 2014-02-25 Stryker Leibinger Gmbh & Co., Kg Surgical navigation system
AU2011342900A1 (en) 2010-12-17 2013-07-18 Intellijoint Surgical Inc. Method and system for aligning a prosthesis during surgery
US9538982B2 (en) 2010-12-18 2017-01-10 Massachusetts Institute Of Technology User interface for ultrasound scanning system
DE102011012460A1 (de) * 2011-02-25 2012-08-30 Hicat Gmbh Chirurgisches Instrument mit integrierter Navigationskontrolle
US9572539B2 (en) 2011-04-08 2017-02-21 Imactis Device and method for determining the position of an instrument in relation to medical images
DE102011007796B4 (de) * 2011-04-20 2019-07-04 Siemens Healthcare Gmbh Verfahren zur Ermittlung einer Zielposition für eine medizinische Maßnahme
WO2012159123A2 (en) * 2011-05-19 2012-11-22 Alec Rivers Automatically guided tools
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
CA2840397A1 (en) 2011-06-27 2013-04-11 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
WO2013033566A1 (en) 2011-09-02 2013-03-07 Stryker Corporation Surgical instrument including a cutting accessory extending from a housing and actuators that establish the position of the cutting accessory relative to the housing
US9387008B2 (en) 2011-09-08 2016-07-12 Stryker European Holdings I, Llc Axial surgical trajectory guide, and method of guiding a medical device
JP5750361B2 (ja) * 2011-11-11 2015-07-22 日本電信電話株式会社 作業位置誘導装置及びその誘導方法
WO2013116240A1 (en) 2012-01-30 2013-08-08 Inneroptic Technology, Inc. Multiple medical device guidance
US9314188B2 (en) 2012-04-12 2016-04-19 Intellijoint Surgical Inc. Computer-assisted joint replacement surgery and navigation systems
US8750568B2 (en) 2012-05-22 2014-06-10 Covidien Lp System and method for conformal ablation planning
US9439623B2 (en) * 2012-05-22 2016-09-13 Covidien Lp Surgical planning system and navigation system
US9439622B2 (en) * 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US9439627B2 (en) 2012-05-22 2016-09-13 Covidien Lp Planning system and navigation system for an ablation procedure
US9498182B2 (en) * 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
DE102012209448B4 (de) 2012-06-05 2019-06-19 Siemens Healthcare Gmbh Bestimmung einer Lage eines medizinischen Instruments
DE102012209450B4 (de) 2012-06-05 2019-05-29 Siemens Healthcare Gmbh Bestimmung der Lage eines medizinischen Instruments
JP5837261B2 (ja) * 2012-06-20 2015-12-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. マルチカメラ装置追跡
CA2877563A1 (en) 2012-06-22 2013-12-27 Covidien Lp Microwave thermometry for microwave ablation systems
JP6129307B2 (ja) 2012-06-28 2017-05-17 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Mr誘導下の間質性インターベンションのための専用のユーザインタフェース
US20140000516A1 (en) * 2012-06-29 2014-01-02 Toyota Motor Engineering & Manufacturing North America, Inc. Digital point marking transfer
CN104603835A (zh) * 2012-07-03 2015-05-06 昆士兰州卫生部 用于医学成像的移动校正
CA2893786C (en) * 2012-12-07 2021-01-05 University Of Houston Surgical procedure management systems and methods
US9192445B2 (en) * 2012-12-13 2015-11-24 Mako Surgical Corp. Registration and navigation using a three-dimensional tracking sensor
CN103040525B (zh) * 2012-12-27 2016-08-03 深圳先进技术研究院 一种多模医学影像手术导航方法及系统
WO2014110069A1 (en) * 2013-01-11 2014-07-17 The Cleveland Clinic Foundation Alignment of manipulable sensor assembly
CN108742842B (zh) * 2013-01-16 2022-04-19 史赛克公司 指示视线误差的导航系统和方法
US9993273B2 (en) 2013-01-16 2018-06-12 Mako Surgical Corp. Bone plate and tracking device using a bone plate for attaching to a patient's anatomy
EP2945542A1 (en) * 2013-01-17 2015-11-25 Tractus Corporation Method, apparatus and system for complete examination of tissue with hand-held imaging devices having mounted cameras
EP2769689B8 (en) 2013-02-25 2018-06-27 Stryker European Holdings I, LLC Computer-implemented technique for calculating a position of a surgical device
CN104020533A (zh) * 2013-03-01 2014-09-03 鸿富锦精密工业(深圳)有限公司 光通讯模组组装装置
US10314559B2 (en) 2013-03-14 2019-06-11 Inneroptic Technology, Inc. Medical device guidance
US9301723B2 (en) 2013-03-15 2016-04-05 Covidien Lp Microwave energy-delivery device and system
US9247998B2 (en) 2013-03-15 2016-02-02 Intellijoint Surgical Inc. System and method for intra-operative leg position measurement
US9161814B2 (en) 2013-03-15 2015-10-20 Covidien Lp Microwave energy-delivery device and system
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9119650B2 (en) 2013-03-15 2015-09-01 Covidien Lp Microwave energy-delivery device and system
US10792067B2 (en) 2013-06-03 2020-10-06 Faculty Physicians And Surgeons Of Loma Linda University Of Medicine Methods and apparatuses for fluoro-less or near fluoro-less percutaneous surgery access
RU2015153367A (ru) * 2013-06-12 2017-07-17 Сайед НУР Система позиционирования медицинского устройства
WO2014210430A1 (en) 2013-06-27 2014-12-31 Tractus Corporation Systems and methods for tissue mapping
US9901407B2 (en) * 2013-08-23 2018-02-27 Stryker European Holdings I, Llc Computer-implemented technique for determining a coordinate transformation for surgical navigation
DE102013109486A1 (de) * 2013-08-30 2015-03-05 Surgiceye Gmbh Navigationsaufsatz
US20160267659A1 (en) * 2013-10-25 2016-09-15 Brainlab Ag Method and device for co-registering a medical 3d image and a spatial reference
US9622720B2 (en) 2013-11-27 2017-04-18 Clear Guide Medical, Inc. Ultrasound system with stereo image guidance or tracking
US8880151B1 (en) 2013-11-27 2014-11-04 Clear Guide Medical, Llc Surgical needle for a surgical system with optical recognition
AU2015221258B2 (en) 2014-02-21 2019-11-21 Cilag Gmbh International A set comprising a surgical instrument
US11227427B2 (en) * 2014-08-11 2022-01-18 Covidien Lp Treatment procedure planning system and method
US9901406B2 (en) 2014-10-02 2018-02-27 Inneroptic Technology, Inc. Affected region display associated with a medical device
US10188467B2 (en) 2014-12-12 2019-01-29 Inneroptic Technology, Inc. Surgical guidance intersection display
CN107106253B (zh) * 2014-12-16 2020-04-03 皇家飞利浦有限公司 脉动光发射标记设备
EP3054311B1 (en) 2015-01-15 2023-01-11 Atracsys Sàrl Positioning system and method
US9696185B2 (en) 2015-01-15 2017-07-04 Csm Centre Suisse D'electronique Et De Microtechnique Sa—Recherche Et Développement 6D positioning system using a shadow sensor
US10094651B2 (en) 2015-01-15 2018-10-09 CSEM Centre Suisse d'Electronique et de Microtechnique SA—Recherche et Développement Positioning system and method
WO2017012624A1 (en) 2015-07-21 2017-01-26 3Dintegrated Aps Cannula assembly kit, trocar assembly kit, sleeve assembly, minimally invasive surgery system and method therefor
US11020144B2 (en) 2015-07-21 2021-06-01 3Dintegrated Aps Minimally invasive surgery system
US9949700B2 (en) 2015-07-22 2018-04-24 Inneroptic Technology, Inc. Medical device approaches
JP6819041B2 (ja) * 2015-09-10 2021-01-27 ソニー株式会社 サーバシステムおよびサーバ
US10082384B1 (en) 2015-09-10 2018-09-25 Stryker European Holdings I, Llc Systems and methods for detecting fixation frame parameters
JP2018529444A (ja) * 2015-09-22 2018-10-11 ファカルティ フィジシャンズ アンド サージャンズ オブ ロマ リンダ ユニバーシティ スクール オブ メディスンFaculty Physicians And Surgeons Of Loma Linda University School Of Medicine 減弱された放射線処置のためのキット及び方法
DK178899B1 (en) 2015-10-09 2017-05-08 3Dintegrated Aps A depiction system
US10722306B2 (en) * 2015-11-17 2020-07-28 Biosense Webster (Israel) Ltd. System for tracking guidewire with ray tracing capability
US10869613B2 (en) * 2015-12-16 2020-12-22 Canon U.S.A., Inc. Medical guidance device
US9675319B1 (en) 2016-02-17 2017-06-13 Inneroptic Technology, Inc. Loupe display
CA3086505C (en) 2016-05-16 2022-09-06 TrackX Technology, LLC System and method for image localization of effecters during a medical procedure
EP4186458A1 (en) 2016-05-23 2023-05-31 MAKO Surgical Corp. System for tracking a physical object
US10537395B2 (en) 2016-05-26 2020-01-21 MAKO Surgical Group Navigation tracker with kinematic connector assembly
WO2018031826A1 (en) * 2016-08-12 2018-02-15 Elucent Medical, Inc. Surgical device guidance and monitoring devices, systems, and methods
US10278778B2 (en) 2016-10-27 2019-05-07 Inneroptic Technology, Inc. Medical device navigation using a virtual 3D space
US10010379B1 (en) * 2017-02-21 2018-07-03 Novarad Corporation Augmented reality viewing and tagging for medical procedures
WO2018165320A1 (en) * 2017-03-07 2018-09-13 Intuitive Surgical Operations, Inc. Systems and methods for controlling tool with articulatable distal portion
WO2018206086A1 (en) 2017-05-09 2018-11-15 Brainlab Ag Generation of augmented reality image of a medical device
US10667869B2 (en) * 2017-05-17 2020-06-02 General Electric Company Guidance system for needle procedures
EP3406195A1 (en) * 2017-05-24 2018-11-28 Koninklijke Philips N.V. Device and a corresponding method for providing spatial information of an interventional device in a live 2d x-ray image
WO2018235255A1 (ja) * 2017-06-23 2018-12-27 オリンパス株式会社 医療システムとその作動方法
JP6959428B2 (ja) 2017-07-07 2021-11-02 キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc 複数プローブアブレーションのプランニング
US11259879B2 (en) 2017-08-01 2022-03-01 Inneroptic Technology, Inc. Selective transparency to assist medical device navigation
US10432912B2 (en) 2017-09-29 2019-10-01 Waymo Llc Target, method, and system for camera calibration
US11197723B2 (en) * 2017-10-09 2021-12-14 Canon U.S.A., Inc. Medical guidance system and method using localized insertion plane
US11065064B2 (en) 2017-11-14 2021-07-20 Biosense Webster (Israel) Ltd. Calibration of a rigid ENT tool
CN111526794B (zh) 2017-12-04 2024-05-28 柯惠有限合伙公司 从ct图像中自动分割消融天线
CN108052771B (zh) * 2017-12-29 2021-04-13 上海望友信息科技有限公司 光学基准点识别方法、系统、计算机可读存储介质及设备
US11484365B2 (en) 2018-01-23 2022-11-01 Inneroptic Technology, Inc. Medical image guidance
WO2020033947A1 (en) 2018-08-10 2020-02-13 Covidien Lp Systems for ablation visualization
US11287874B2 (en) 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US11237627B2 (en) 2020-01-16 2022-02-01 Novarad Corporation Alignment of medical images in augmented reality displays
US11540887B2 (en) 2020-06-05 2023-01-03 Stryker European Operations Limited Technique for providing user guidance in surgical navigation
US12016633B2 (en) 2020-12-30 2024-06-25 Novarad Corporation Alignment of medical images in augmented reality displays
DE102021206971A1 (de) 2021-07-02 2023-01-05 Carl Zeiss Meditec Ag Verfahren und System zur optischen Lageerfassung zumindest eines Instruments in einem Operationssaal
US11948265B2 (en) 2021-11-27 2024-04-02 Novarad Corporation Image data set alignment for an AR headset using anatomic structures and data fitting

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6221007B1 (en) * 1996-05-03 2001-04-24 Philip S. Green System and method for endoscopic imaging and endosurgery
US6733458B1 (en) * 2001-09-25 2004-05-11 Acuson Corporation Diagnostic medical ultrasound systems and methods using image based freehand needle guidance

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR9609484A (pt) * 1995-07-16 1999-12-14 Yoav Paltieli Processo e aparelho para direcionamento à mão livre de uma agulha so sentido de um alvo localizado em um volume corpóreo e aparelho de agulha
US5928137A (en) 1996-05-03 1999-07-27 Green; Philip S. System and method for endoscopic imaging and endosurgery
US6267760B1 (en) * 1998-05-05 2001-07-31 Scimed Life Systems, Inc. Surgical method and apparatus for positioning a diagnostic or therapeutic element within the body and forming an incision in tissue with minimal blood loss
US6692485B1 (en) * 1998-02-24 2004-02-17 Endovia Medical, Inc. Articulated apparatus for telemanipulator system
US6770081B1 (en) * 2000-01-07 2004-08-03 Intuitive Surgical, Inc. In vivo accessories for minimally invasive robotic surgery and methods
EP1370186B1 (en) * 2001-02-28 2006-01-18 Rex Medical, L.P. Apparatus for delivering ablation fluid to treat neoplasms
US7605826B2 (en) * 2001-03-27 2009-10-20 Siemens Corporate Research, Inc. Augmented reality guided instrument positioning with depth determining graphics
US20030179308A1 (en) * 2002-03-19 2003-09-25 Lucia Zamorano Augmented tracking using video, computed data and/or sensing technologies
JP2007512854A (ja) * 2003-04-28 2007-05-24 ブラッコ イメージング ソチエタ ペル アチオニ 手術用ナビゲーションシステム(カメラプローブ)
DE602005017792D1 (de) * 2004-08-12 2009-12-31 Hansen Medical Inc Robotergesteuertes intravaskuläres gewebeinjektionssystem
US7636595B2 (en) * 2004-10-28 2009-12-22 Medtronic Navigation, Inc. Method and apparatus for calibrating non-linear instruments

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6221007B1 (en) * 1996-05-03 2001-04-24 Philip S. Green System and method for endoscopic imaging and endosurgery
US6733458B1 (en) * 2001-09-25 2004-05-11 Acuson Corporation Diagnostic medical ultrasound systems and methods using image based freehand needle guidance

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Ulrich Neumann and Jun Park.Extendible object-centric tracking for augmented reality.《Virtual Reality Annual International Symposium, 1998. Proceedings., IEEE 1998》.1998,1-3页. *
UlrichNeumannandJunPark.Extendibleobject-centrictrackingforaugmentedreality.《VirtualRealityAnnualInternationalSymposium 1998. Proceedings.

Also Published As

Publication number Publication date
BRPI0709421A2 (pt) 2011-07-12
EP2008244A4 (en) 2011-06-29
EP2008244A2 (en) 2008-12-31
CN101536013A (zh) 2009-09-16
US20080208041A1 (en) 2008-08-28
KR20090004899A (ko) 2009-01-12
JP5146692B2 (ja) 2013-02-20
EP3032456A1 (en) 2016-06-15
EP2008244B1 (en) 2016-04-27
US7876942B2 (en) 2011-01-25
WO2007113815A3 (en) 2009-04-16
WO2007113815A2 (en) 2007-10-11
JP2010522573A (ja) 2010-07-08
EP3032456B1 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
CN101536013B (zh) 光学位置测量及将坚硬或半柔软的工具引导到目标的系统和方法
EP1278458B1 (en) Fluoroscopic tracking and visualization system
EP2153794B1 (en) System for and method of visualizing an interior of a body
CN108430373B (zh) 用于在患者体内跟踪内窥镜的位置的装置和方法
US6856827B2 (en) Fluoroscopic tracking and visualization system
US7097357B2 (en) Method and system for improved correction of registration error in a fluoroscopic image
CN107106241B (zh) 用于对外科器械进行导航的系统
JP2010522573A5 (ja) 光学的位置測定ならびに剛性または半可撓性の針の標的への誘導のためのシステム
CN104039260B (zh) 位置确定装置
US20030130576A1 (en) Fluoroscopic tracking and visualization system
CN107105972A (zh) 模型登记系统和方法
CN103619273A (zh) 包括位置跟踪系统的用于操纵骨的组件
CN101449292A (zh) 坐标系配准
WO2008036050A2 (en) Methods and systems for providing accuracy evaluation of image guided surgery
CN113966205B (zh) 用于定位医疗机器人的导航方法
CN113693723B (zh) 一种面向口腔咽喉部手术的跨模态导航定位系统及方法
CN111265299B (zh) 基于光纤形状传感的手术导航系统
Chan et al. A needle tracking device for ultrasound guided percutaneous procedures
US11648070B2 (en) Real time image guided portable robotic intervention system
JP4226452B2 (ja) 光学式手術用ナビゲーションシステム及び方法とそれに用いられる反射球マーカ
Bax et al. Calibration and accuracy testing for image-enhanced endoscopy
Bax et al. 52 Medicine Meets Virtual Reality 02/10 JD Westwood et al.(Eds.) IOS Press, 2002

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: SHISAI KELEI ACCUSATIVE GMBH + CO. KG

Free format text: FORMER OWNER: ACTIVIEWS LTD.

Effective date: 20140717

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20140717

Address after: Germany Freiburg D-79111 Boterenge Street No. 41

Patentee after: Stryker ray accusative GmbH & Co.KG

Address before: Haifa, Israel

Patentee before: Activiews Ltd.

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20170111

Address after: michigan

Patentee after: Stryker Europe holding LLC

Address before: michigan

Patentee before: Six Stryker Europe holding LLC

Effective date of registration: 20170111

Address after: michigan

Patentee after: Six Stryker Europe holding LLC

Address before: Germany Freiburg D-79111 Boterenge Street No. 41

Patentee before: Stryker ray accusative GmbH & Co.KG

TR01 Transfer of patent right

Effective date of registration: 20211217

Address after: 2825 bird's-eye drive, Kalamazoo, Michigan, USA

Patentee after: Stryker Europe operations Holdings Ltd.

Address before: Michigan, USA

Patentee before: Stryker Europe holding LLC

TR01 Transfer of patent right