CN107106240A - 显示线性仪器相对于3d医学图像导航后的位置和取向的方法和系统 - Google Patents

显示线性仪器相对于3d医学图像导航后的位置和取向的方法和系统 Download PDF

Info

Publication number
CN107106240A
CN107106240A CN201580056033.0A CN201580056033A CN107106240A CN 107106240 A CN107106240 A CN 107106240A CN 201580056033 A CN201580056033 A CN 201580056033A CN 107106240 A CN107106240 A CN 107106240A
Authority
CN
China
Prior art keywords
guide
pin
linear instrument
instrument
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201580056033.0A
Other languages
English (en)
Other versions
CN107106240B (zh
Inventor
史蒂芬·拉瓦莱
莱昂内尔·卡拉特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Atlantis LP
Original Assignee
Atlantis LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Atlantis LP filed Critical Atlantis LP
Publication of CN107106240A publication Critical patent/CN107106240A/zh
Application granted granted Critical
Publication of CN107106240B publication Critical patent/CN107106240B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Gynecology & Obstetrics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明涉及一种显示线性仪器(1)相对于3D医学图像(V)导航后的位置和取向的方法,其中:将所述线性仪器(1)与导向件(2)偶联;导航系统相对于所述3D医学图像(V)追踪所述导向件(2);将包含所述线性仪器(1)的轴线的平面(4)虚拟附接至所述导向件(2);显示在3D图像中重现的且包含所述平面(4)的切片。本发明的另一目的是一种执行所述方法的系统。

Description

显示线性仪器相对于3D医学图像导航后的位置和取向的方法 和系统
技术领域
本发明涉及使用导航系统,显示线性仪器经于3D医学图像导航后的位置和取向的方法和系统。
背景技术
导航技术已广泛用于显示仪器在3D医学图像上的位置和取向,其中3D医学图像是计算机断层扫描(CT)或磁共振图像(MRI),或任意其他类型,如锥束计算机断层扫描(CBCT)、正电子发射断层扫描(PET)等。
常规来讲,在3D图像和追踪装置(也称为定位器)之间应用配准方法,以得知仪器在附属于图像的坐标系中的位置和取向。
我们尤其考虑了线性仪器,例如探针、指示器(pointer)、钻孔导向件、套管、钻头(drill bit)、针等的显示。
常规来讲,线性仪器的位置和取向显示在代表3D医学图像的重现切片(slice)或投影的几张2D图像上。
在大部分手术导航系统中,线性仪器的位置由三个视图表示:两个视图是含仪器轴线的平面并且彼此近似垂直,而一个视图与仪器轴线是正交的。
可选地,显示第四视图,使用体绘制技术或面绘制技术,例如使用分割解剖结构的3D表面,示出仪器和图像的3D表象。
为了降低向用户显示的信号的复杂性和数量,提出了一些系统,以仅显示包含线性仪器的两张2D图像。
考虑到在医学成像中使用的标准参照,这些图像之一常常是伪轴向的,而另一图像常常是伪矢向的。
当用户移动线性工具时,对两张图像进行实时再计算,以显示包含仪器轴线的图像的更新。
但是,目前可获得的显示线性仪器在3D图像中的位置和取向的表象都不是真正直观的,需要经过培训和使用才能有效使用。
发明内容
本发明的目的在于,对于想要可视化线性仪器相对于3D医学图像导航后的位置和取向以便于朝3D图像上可见靶标的方向插入线性仪器的用户,降低信息的复杂性和数量。
本发明的目标是一种显示线性仪器相对于3D医学图像导航后的位置和取向的方法,其中:
-将所述线性仪器与导向件偶联;
-导航系统相对于所述3D图像追踪所述导向件;
-将包含所述线性仪器的轴线的平面虚拟附接至所述导向件;
-显示在3D图像中重现的且包含所述平面的切片。
根据实施方式,将所述线性仪器的表象显示在所重现的切片上。
根据优选实施方式,所述导向件具有非对称的形状,并且所虚拟附接的平面与所述导向件的主要纵向尺寸(most longitudinal dimension)相关联。
所述线性仪器可能能够在所述导向件中滑动。或者,所述线性仪器刚性固定至所述导向件。
根据实施方式,所重现的切片是显示出的3D图像的唯一视图。
根据实施方式,所述线性仪器的表象是在所重现的切片的中心中的线条。
本发明的另一目标是一种显示线性仪器相对于3D医学图像导航后的位置和取向的系统,所述系统包括:
-处理器,所述处理器适用于与导航系统偶联以接收导航数据,
-导向件,所述导向件用于与所述线性仪器偶联并且被所述导航系统追踪,其中包含所述线性仪器的轴线的平面虚拟附接至所述导向件,以允许所述导航系统相对于3D图像追踪虚拟附接至所述导向件的平面,所述处理器经配置以计算在所述3D图像中重现的且包含所述平面的切片,和
-显示器,所述显示器与所述处理器偶联且经配置以显示所重现的切片。
根据实施方式,所述导向件具有非对称的形状,并且所虚拟附接的平面与所述导向件的主要纵向尺寸相关联。
所述线性仪器可能能够在所述导向件中滑动。或者,所述线性仪器刚性固定至所述导向件。
根据实施方式,所述线性仪器是用于朝靶标的方向插入患者体内的针,所述针包括远端尖端和近端止动件,并且所述针能在所述导向件内沿所述导向件的纵向轴线滑动,并且,所述处理器经配置以检测所述针导向件和所述近端止动件之间的接触,根据在所述针导向件与所述针的近端止动件接触时的所述针导向件的导航数据,以及所述针的长度,确定所述远端针尖端相对于3D医学图像的位置;
所述系统进一步包括与所述处理器偶联的用户界面,所述用户界面经配置以在患者的至少一张图像上显示所述针的表象和在所述针的表象上的点,以代表处于所确定的位置上的针尖端。
附图说明
根据下面的描述以及所附附图,将显示出本发明的其它特征和优点。在附图中:
图1示出了上述方法的实施方式;
图2示出了确定针尖端位置的一般原理;
图3示出了本发明的根据实施方式的连续步骤,其中,在确定针尖端位置的过程中,记忆针的位置;
图4A和图4B示出了两种状态,其中用户获知没有准确显示针尖端的位置;
图5示意性示出了多根针的全局数据库(左),和仅包含与用户所用针相关的数据的个性化数据库(右);
图6示出了校正针长度的不同实施方式。
具体实施方式
通过包括计算机和屏幕的系统,执行下面所述的方法。所述计算机包括适用于集成或偶联到导航系统以接收导航数据的处理器。所述系统进一步包括与线性仪器偶联的导向件,其中包含线性仪器轴线的平面虚拟附接至导向件,以使导航系统相对于3D图像进行追踪。所述处理器还经配置以计算在3D图像中重现的且包含所述平面的切片。所述屏幕与所述处理器偶联,且经配置以显示所重现的切片。
提供患者身体的3D图像,其中包括线性仪器要触及的靶标。
3D图像可通过计算机断层扫描(CT)、磁共振(MR)、锥束计算机断层扫描(CBCT)、正电子发射断层扫描(PET)等获得。
所述线性仪器可以是探针、指示器、钻孔导向件、套管、钻头、针等。根据实施方式,所述线性仪器是要使用例如高频、微波或低温技术来进行活检或治疗肿瘤的针。
3D图像表示为由图1中的(OXYZ)所示坐标系中的体素的体积。
所述线性仪器与导向件偶联。
根据实施方式,所述线性仪器固定至所述导向件。在具体情况中,所述导向件是可放置在线性仪器尖端的非常小的传感器,例如直径小于两毫米的微型电磁式传感器。
在优选实施方式中,所述仪器能在所述导向件内侧滑动和/或旋转。所述导向件可以是持针器,针可插入持针器中并在其中滑动和/或旋转。所述导向件可以是例如通过使用钳子而具有可变内直径的可调装置,或它可由具有适用于各种针直径的不同直径的几种圆柱体制成。
所述导向件配备有追踪器,通过追踪系统相对于患者的3D图像定位该追踪器的位置和取向。使用常规导航技术相对于定位器定位所述追踪器,所述定位器可以例如是电磁发射器,该电磁发射器放置在患者身上并且包含用于配准所述追踪器与所述3D图像的基准点。或者,它可以是光学或电磁式定位器或机器人,该光学或电磁式定位器或机器人放置在患者一侧上并且与放置在患者身上的基准点进行配准,或相对于检查表固定。总的来讲,所述导向件具有相对于3D图像实时追踪的位置和取向。
所述导向件可由用户操作。
或者,所述导向件可放置在机械铰接臂、触摸式系统或机器人的末端。
使用常规的手术导航和机器人技术,获知所述导向件相对于图像坐标系(OXYZ)的位置和取向。
通过局部坐标系(oxyz)来表示所述位置,并且随时获知坐标系(OXYZ)和坐标系(oxyz)之间的矩阵M。
按照惯例,假设局部方向y代表插入到导向件中的线性仪器的方向,而o是定位在线性仪器轴线上的原点。
在常规的手术导航系统中,包含线性仪器轴线的平面图像进行计算,并且显示为在3D图像体积中重现的倾斜切片。
试图显示包含线性仪器轴线的、在3D图像中重现的切片,以便用户可在3D图像上看到仪器相对于靶标行进到了哪里。但是,定义并计算与仪器的方向y正交的方向d以构建图像平面(o,y,d)是不容易的。
例如,计算含点o、仪器方向y和由矩阵M变换的方向X的平面,并在3D图像中计算对应的重现的切片(其为2D图像)。这构成了伪轴向视图。如果方向z和Z完全对齐,则在与X和Y平行的平面中产生完美的轴向图像。
在另一实施例中,计算含点o、仪器方向y和由矩阵M变换的方向Z的平面,并在3D图像中计算对应的重现的切片(其为2D图像)。这构成了伪矢向视图。如果方向x和X完全对齐,则在与Y和Z平行的平面中产生完美的矢状图像。
计算和显示对应于平面(o,y,X)和平面(o,y,Z)的两张图像是很常见的。这在线性仪器沿包含其轴线的两张图像插入体内之前,为用户提供了线性仪器的连续模拟。用户操纵导向件并且使图像可视化,直至发现线性仪器将触及靶标,并且避开如危险器官等障碍物。使用这种表象模式,用户必须解释其坐标系随导向件运动而一起移动的图像,一些用户可能认为这样是困难的。
所提出的方法通过将包含仪器轴线的图像平面虚拟附接至导向件,从而解决了这一缺点。经由矩阵M获知所附接的图像平面相对于3D医学图像的位置。另外,在监控器上计算并且显示对应于所述平面的重现的切片,其中监控器可以是任意类型,包括常规监视器、安装在任意仪器上的小显示器、虚拟现实眼镜或增强现实眼镜。在优选实施方式中,将尺寸在1至5英寸之间的小显示器附接至导向件,以提供便于手-眼协作的完整系统。
将所述仪器沿方向y插入所述导向件。对于导向件在由矩阵M表示的图像坐标系中的任意位置来说,确定经过点o、矢量x和矢量y的平面。显示在3D图像中重现的且包含所述平面(o,x,y)的图像。这产生了医师在他们操纵超声探针时已知的效果:所述导向件起到类似虚拟超声探针的作用。使用这样的表象,之前已经接受过操纵超声探针和图像训练的用户会发现导向件在3D图像中的导航是非常直观的,这有助于节省时间并且增强程序的效率。
在3D图像体积中重现的倾斜切片的计算依赖于标准算法。可通过很多方法进行,并且必须经优化以便实时进行倾斜切片的计算和显示。这种计算通过使用下面的原理进行。对于重现图像的每一像素(i,j),对应点p在坐标系(oxyz)中的坐标根据图像的像素尺寸和点o在图像坐标系(oixy)中的位置来计算,而图像坐标系(oixy)取决于图像的宽度和针导向件的已知几何结构(图像的宽度和高度的方向与x矢量和y矢量一致)。然后,使用矩阵M计算对应点P在坐标系(OXYZ)中的坐标。现在,使用3D图像的体素尺寸可直接计算对应于该点的体素,而且,可以用该体素数据,或者用可能需要的与所发现的体素接近的体素的一些插值技术(例如线性、三线性或邻域插值)来计算要放入图像像素(i,j)中的数据。通过使用很多公知的软件功能和算法,可以在处理器中实施上述原理。例如,可通过软件库,例如由Kitware Inc.(美国,纽约)开发的ITK(Insight Segmentation and RegistrationToolkit)和VTK(Visualization ToolKit),提供这样的算法。
在优选实施方式中,所述导向件具有非对称的形状。例如,所述导向件具有细长的形状,该细长的形状具有两个较短的尺寸y和z,和一个较长的尺寸x。
在优选实施方式中,所述导向件是持针器,针可在持针器中沿轴线y自由滑动。例如,所述导向件可由钳子制成,该钳子以大到足以保持线性轨迹但小到足以使针能在钳子内侧平移的压力夹持针。在图像上显示仪器方向y的表象。该表象可以是有工具提示(tooltip)限制的或者无限的实线或虚线。用户可首先以超声样模式对导向件进行导航,然后一旦发现包含靶标且提供安全访问路径的适当的图像平面,就将针以朝靶标的方向推入导向件内。然后用户可采集新的3D图像,以检查针相对于靶标的校正位置。如果需要,用户可再次调整导向件的位置,并且通过使在附属于导向件的平面(o,x,y)中的图像可视化,将针继续刺入体内。
在优选实施方式中,所述线性仪器的表象是在所重现的图像的中心中的线条,这是使用配备了线性导向件的超声探针不可能实现的,并且提供了操作非常直观的优点。例如,所述线条是包含图像中间点的垂直线。
所述系统如同用户操纵具有物理附接至超声探针的线性导向件的2D成像超声探针一样,但具有重大差异:(a)图像不是超声图像,而是高质量的CT、CBCT或MR图像;(b)没有超声探针,而仅有配备了追踪器的塑料导向件;(c)图像不是真实的,而是虚拟的;(d)仅需要进行一次3D图像采集来计算尽可能多的虚拟图像;(d)可将针插入到图像的中间,这在超声探针存在时是不可能实现的。
如果已经将针的至少一部分插入到患者体内,则针导向件环绕针的旋转允许探测针周围的组织。
如果还没有将针插入患者体内,则针导向件可用作检像器,允许将针放入图像的中心,这对于用户来说比针被放在图像的一侧的常规系统更加舒服。
在优选实施方式中,所重现的图像是3D图像呈现给用户的唯一视图,这样消除了混乱并且提供了非常易于使用的系统。
在另一优选实施方式中,所述线性仪器刚性固定至所述导向件。例如,所述导向件可附接至针的顶部,或者它可以是插入针中的微型电磁式传感器。然后,在所重现的图像上不仅可以显示方向,而且还可以显示仪器的尖端。仪器的表象包含经校准以代表仪器尖端的点。
图1示出了所述方法的实施方式。
提供了3D图像的体积V,其中3D图像可以例如是CT或CBCT图像。
坐标系OXYZ附属于3D图像V。将定位器6放置在体积V中,并在3D图像中是可见的。坐标系OXYZ与附属于定位器6的坐标系的配准能确定定位器的坐标系和3D图像的坐标系之间的变换矩阵。
导向件2表示为持针器,线性仪器1,例如针,可在其中沿定义的方向y滑动。局部坐标系(oxyz)附属于导向件2。线(oy)代表线性仪器的位置。追踪器5附接于导向件2,并且被导航系统追踪。因为定位器6也被导航系统追踪,因此使用变换矩阵的组合相对于3D图像对导向件2进行导航。
计算包含o、x和y的图像平面4,并且表示为在3D图像V中重现的切片。然后,在监控器上显示所重现的切片。
图2示出了如何获得在针尖端位置上的信息。
图2中的左图示出由皮肤S界定的患者身体的体积V,其中包括在手术干预期间要触及的靶标T。
例如通过CT、CBCT成像,或通过MR成像,提供该体积的3D医学图像。
在干预期间,用户(例如介入放射医师)使用滑动布置在针导向件2中的针1。
针导向件配备有通过追踪系统定位位置和取向的追踪器5。所述追踪系统可使用任何适当的手术导航技术,例如电磁技术、光学技术、超声技术、机械技术或惯性技术。
参考标记物(未示出)附接到患者身体上并且被配置成在3D医学图像上是可见的。参考标记物的位置和取向也通过追踪系统获知,可相对于3D医学图像对针导向件进行导航。
因此,不是直接对针1进行导航,而是利用针导向件2来对针1进行导航。因为针仅可在针导向件中沿一个方向滑动(和相对于针导向件可能发生旋转),因此针导向件的导航允许获知针的插入点(即当导向件通过插入针而接近患者皮肤或在患者皮肤上时,导向件21的尖端的点)和相对于3D医学图像的插入方向。
导向件2有利地呈现了要与患者皮肤接触或接近皮肤的尖端21。当导向件2尽可能接近患者时,即当尖端接近皮肤S或与皮肤S接触时,获得导航的最大精确度。导向件2还呈现了在针的插入方向上,与尖端21相对的后表面22。导向件2具有可在设计和制造工艺期间获得的已知的几何结构,或通过校准,以便尖端21和后表面22具有在追踪器5的坐标系中的已知坐标,其中追踪器5附接于导向件。后表面22可以非常小并且近似为一点。
所述导向件可由用户或远程操作的机器人来操纵。
针1包括远端尖端10和扩大的近端部分11,其中远端尖端10要触及靶标以递送所需的处理。具体地,近端部分11包括止动件110,其中止动件110限制针导向件2相对于针1朝近端方向的滑动。“针的长度”在本文中指远端尖端10和近端止动件110之间的距离。在本文中,术语“近端”指针的距针尖端最远的部分,术语“远端”指针的距针尖端最近的部分。
在图2的左图中,表示了处于两种不同位置的针导向件2:
-第一位置(以实线表示),其中针导向件2的尖端接近皮肤S——该位置(也被称为“皮肤位置”)被认为提供了导航的最佳精确度;
-第二位置(也被称为“止动位置”)(以虚线表示),其中针导向件2在其后表面22处与针的止动件110接触。
“接近皮肤”在本文中指针导向件和皮肤之间的距离小于针导向件和针的近端止动件之间的距离。为了提供导航的最佳精确度,该距离应尽可能的小,即针导向件与皮肤接触或距离患者皮肤至少小于10mm。
双箭头示出针导向件2相对于针1的滑动方向。
当针导向件2处于第一位置时,针尖端10的位置是未知的,因为导航仅能确定针在皮肤上的插入点的位置以及针的插入方向,而针的插入方向对应于针导向件的轴线。
将针部分插入患者体内之后,用户想知道针尖端到靶标的距离。为了确定针尖端的位置,用户在不移动针1的情况下,朝近端方向滑动针导向件2,直至接触止动件110。从而,通过追踪系统定位与针导向件2接触的止动件110。
如果针的长度是已知的,则可确定针尖端10为与止动件110相距的距离等于所述长度的点。
为此,在有利的实施方式中,所述系统可包括用户界面,该用户界面经配置以允许用户输入针的长度。
例如,所述系统可与数据库偶联,该数据库包含多种市场上销售的针的数据。所述数据可具体包括各针的长度、直径、参考值(reference)、制造商等。
图5(左图)示出了这样的全局数据库的实施方式。
或者,如图5的右图所示,所述系统可与个性化的数据库偶联,该个性化的数据库仅包含与用户所使用的针有关的数据。这样的数据库可由用户以在上述全局数据库内进行选择的方式来创建。因此,所述用户界面仅显示可由用户选择的针的有限列表。
所述用户界面还经配置以为用户提供信息。
该信息包括患者身体的至少一张图像I,该图像I是3D医学图像的切片,在上面显示有针1的表象(在图3的右图中以虚线表示),同时显示了识别为位置如上所述已经被确定的针尖端10的点(示为深色圆点)。另外,图像也可以是3D医学图像自身,或者在3D图像上分割的结构的任何表象。针的尖端可表示为很多可能的图符,例如深色圆点、圆圈、十字线或部分十字线。
所述系统还允许为用户提供关于以下事实的信息:
(i)当针导向件距患者皮肤尽可能近时,获得导航的最佳精确度;
(ii)仅当针导向件与针顶部接触时,通知用户所显示的点对应于针尖端的真正表象,否则该表象是不正确的。
使用各种介质向用户提供该信息。例如,介质信息可以是用户手册,或者具有消息、标志(flag)、颜色(例如绿色意指正确,红色意指错误)或任意特定图符的上述用户界面。
有利地,所述系统允许在确定针尖端位置的过程中,记忆针导向件的位置和取向。通过用户与用户界面的交互,可确定必须要记忆针导向件的位置和取向的时间。通常来讲,用户需要按下虚拟或真实的按钮或脚踏开关,以触发所有事件,例如记忆针导向件的位置和取向。
还可通过处理器,通过自动检测针导向件沿针的方向朝针的近端止动件滑动,通过分析针导向件的移动,来确定该时间。实际上,用户已将一部分针插入患者体内,并且保持针导向件接近皮肤。当他想要查看针的尖端的位置时,他沿针的轴线滑动针导向件,直至抵达近端部的止动件,这使得针导向件的线性移动停止。通过使用针导向件的一些位置和取向的缓存,处理器自动检测到用户想要查看的针尖端的位置。处理器在记录在所述缓存中的一组位置和取向中识别出对应于后接静止点的线段的移动模式,这样的移动没有显著的旋转分量,线段代表尖端点沿针轴线的滑动,而静止点代表针导向件与针止动件接触时的阶段。如果处理器检测到这样的模式,则可从缓存回溯计算针导向件接近患者皮肤时的针导向件的位置和取向(即要记忆的第一位置和取向),因为线段第一点对应于该位置。检测这样的移动模式的算法可如下。在任意时间t时,记录位置P-t,并且分析过去的包含例如20秒测量值的缓存。然后,应用以下步骤:
(a)检查在给定的阈值内,位置P-t是否稳定。如果不稳定,则迭代至下一点,否则继续。
(b)分析P-t过去的缓存。检查它是否包含原点的线性移动。线性移动被定义为构成平均线段的一组点,其中所有点在任意阈值例如2或5毫米内都接近平均线,并且在高于另一任意阈值例如2或3厘米时具有最小延伸。如果没有,则迭代至下一点,否则继续。
(c)检查位置的旋转分量沿所检测的线段的振幅是否低于任意阈值,例如5或10度。如果没有,则迭代至下一点,否则继续。
(d)计算对应于线段起始处的第一位置POS1和对应于线段终点的第二位置POS2,这些位置按时间排序。
(e)使用POS1在图像上显示针轴线的取向。
(f)使用POS2计算针的长度,并在所述图像上显示对应的针尖端。
最后,还可将传感器放置在针的近端部,以自动检测针导向件与针的近端止动件接触的时间,然后自动检索必须要记忆针的取向和位置的时间。这样的传感器可以是例如接触传感器、力传感器或压力传感器。传感器与处理器偶联,以向处理器传递传感器所获取的数据。
参照图2(左图),所述系统记忆当导向件2的尖端21接近皮肤S时,针1的取向。在这一阶段,针尖端10相对于靶标T的位置是未知的。
然后,如在图3中间的图所示,导向件2沿针1向近端方向滑动。在这一操作过程中,针1可能与所记忆的取向1M(以虚线示出)相比发生弯曲。
但是,如图3中的右图所示,处理器计算针1在针的记忆位置和取向1M上的投影,并且使用该投影计算沿针的该记忆取向1M的,针尖端21的位置。然后,对应于针的止动件110的点可被投射到记忆取向1M上,并且使用针的总长度,根据投射的点来计算针尖端21的位置。
所述处理器还可计算曲线,该曲线连接当针导向件2接近皮肤S时的针的位置和当针导向件2与针的顶部110接触时的针1的位置。通过例如公知的样条模型,所述处理器使用这些位置的取向来计算所述曲线。然后,计算第一位置与第二位置之间的曲线距离,总的针长度与这一曲线距离相减。所得到的长度用于根据第一位置计算在记忆取向1M上的针尖端的位置。
所述处理器与用户界面偶联,以便在图像I中显示在针的记忆取向1M上的针尖端10。
当针的弯曲受限时,即在针导向件接触针止动件时,针的记忆取向和位置与针的取向和位置之间的距离小于给定阈值时,可进行上述曲线距离的投影或计算。所述阈值可以是固定值,例如5或10毫米,或考虑到没有插入和发生弯曲的针长度,所述阈值可以是变量值。
上述距离可通过处理器来计算,同时考虑当接近患者皮肤时和当接触针止动件时,针导向件的定位数据。
图4A示出了针的记忆位置和取向M1与针的实际取向之间的距离d高于所述给定阈值的情况。在这种情况中,所述系统例如通过使显示的针尖端消失或通过向用户发送标志、声音或消息,通知用户所显示的代表针尖端的点不准确。
图4B示出了针具有拐点f的情况。在这种情况中,实际针在记忆位置和取向上的投影不够准确。因此,所述系统例如通过使显示的针尖端消失或通过向用户发送标志、声音或消息,通知用户所显示的代表针尖端的点不准确。
上述方法可以以很多不同的方式来使用,这取决于用户的选择和能力。例如,一旦针已经充分插入患者体内了,使用上述方法,用户可能想要使针尖端始终可视化,而不是仅可视化固定的插入。因此,用户可滑动导向件,直至它触及针的止动件,然后使导向件相对于针保持在这一位置,然后用户可推动针,并且实时看到在图像上前进的针的尖端。当针正在靠近靶标时,为了使针的刺入停止在精确位置上,可以使用这样的过程。
在另一实例中,用户可以使用如上所述的方法,首先放置导向件接近皮肤,以对导向件进行导航并且获得靶向方向的最佳精确度,部分插入针;其次,沿针滑动导向件,直至触及到了止动件,以可视化针尖端的位置,在脑中记住该尖端位置,或使用计算机的内存和显示器,或简单地记录他还能把针插入几毫米,然后用户可滑动回针导向件以接近皮肤,进一步推动导向件中的针,以受益于导航在方向上的最佳精确度。然后他可再次向后推动导向件以与针止动件接触,检查针尖端的位置,必要时进行多次迭代。
为了确保显示的针尖端位置是正确的,在进行本发明之前校准针长度。
图6示出了以离线或在线的方式,校准针长度的不同方式。
在图6中的上图,使用导航后的针导向件2来校准针长度:为此,将针导向件2依次放置于:
-导向件尖端21处于与针尖端10相同的水平的位置,和
-导向件的后表面22与止动件110接触的位置。
使用导向件的已知几何结构,在所述两个位置上获得的定位数据允许分别确定:第一点,其是在第一位置上的导向件的尖端;和第二点,其处于在第二位置上的导向件的后表面的水平。因此,针等于第一点和第二点之间的距离。在该校正程序期间,针相对于追踪系统必须保持静止。
在图6的中间的图中,通过尺子3测量针的长度,为尖端10和止动件110之间的距离。
在图6的下图中,通过使用指示器7依次指向尖端10和止动件110来确定针的长度,其中指示器7受到追踪系统的追踪。在指示器的所述两个位置处获得的定位数据能确定尖端10和止动件110之间的长度。
当然,可在不偏离本发明范围的情况下,使用校准针长度的任意其他方式。
一旦校准了针长度,就将针长度与其他特征以及优选的名称一起储存在数据库中,其中优选的名称由用户给定或只提供制造商名称和参考值。

Claims (12)

1.一种显示线性仪器(1)相对于3D医学图像(V)导航后的位置和取向的方法,其中:
将所述线性仪器(1)与导向件(2)偶联;
导航系统相对于所述3D图像(V)追踪所述导向件(2);
将包含所述线性仪器(1)的轴线的平面(4)虚拟附接至所述导向件(2);
显示在3D图像中重现的且包含所述平面(4)的切片。
2.根据权利要求1所述的方法,其中,将所述线性仪器的表象显示在所重现的切片上。
3.根据权利要求1或2所述的方法,其中,所述导向件具有非对称的形状,并且所虚拟附接的平面与所述导向件的主要纵向尺寸相关联。
4.根据权利要求1~3中任一项所述的方法,其中,所述线性仪器能在所述导向件中滑动和/或旋转。
5.根据权利要求1~3中任一项所述的方法,其中,所述线性仪器刚性固定至所述导向件。
6.根据权利要求1~5中任一项所述的方法,其中,所重现的切片是显示出的3D图像的唯一视图。
7.根据权利要求1~6中任一项所述的方法,其中,所述线性仪器的表象是在所重现的切片的中心中的线条。
8.一种显示线性仪器相对于3D医学图像导航后的位置和取向的系统,包括:
处理器,所述处理器适用于与导航系统偶联以接收导航数据,
导向件,所述导向件用于与所述线性仪器偶联并且被所述导航系统追踪,其中包含所述线性仪器的轴线的平面虚拟附接至所述导向件,以允许所述导航系统相对于3D图像追踪虚拟附接至所述导向件的平面,所述处理器经配置以计算在3D图像中重现的且包含所述平面的切片;和
显示器,所述显示器与所述处理器偶联且经配置以显示所重现的切片。
9.根据权利要求8所述的系统,其中,所述导向件具有非对称的形状,并且所虚拟附接的平面与所述导向件的主要纵向尺寸相关联。
10.根据权利要求8或9所述的系统,其中,所述线性仪器能在所述导向件中滑动。
11.根据权利要求8或9所述的系统,其中,所述线性仪器刚性固定至所述导向件。
12.根据权利要求8~11中任一项所述的系统,其中,所述线性仪器是用于朝靶标的方向插入患者体内的针,所述针包括远端尖端(10)和近端止动件(110),并且所述针能在所述导向件(2)内沿所述导向件的纵向轴线滑动,并且其中,所述处理器经配置以检测所述针导向件(2)和所述近端止动件(110)之间的接触,根据在所述针导向件(2)与所述针的近端止动件(110)接触时的所述针导向件的导航数据,以及所述针的长度,确定所述远端针尖端(10)相对于3D医学图像的位置;
所述系统进一步包括与所述处理器偶联的用户界面,所述用户界面经配置以在所述患者的至少一张图像上显示所述针的表象和在所述针的表象上的点,以代表处于所确定的位置上的针尖端(10)。
CN201580056033.0A 2014-10-17 2015-10-19 显示线性仪器相对于3d医学图像导航后的位置和取向的方法和系统 Active CN107106240B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14306661.1A EP3009096A1 (en) 2014-10-17 2014-10-17 Method and system for displaying the position and orientation of a linear instrument navigated with respect to a 3D medical image
EP14306661.1 2014-10-17
PCT/EP2015/074183 WO2016059256A1 (en) 2014-10-17 2015-10-19 Method and system for displaying the position and orientation of a linear instrument navigated with respect to a 3d medical image

Publications (2)

Publication Number Publication Date
CN107106240A true CN107106240A (zh) 2017-08-29
CN107106240B CN107106240B (zh) 2019-11-12

Family

ID=51845358

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580056033.0A Active CN107106240B (zh) 2014-10-17 2015-10-19 显示线性仪器相对于3d医学图像导航后的位置和取向的方法和系统

Country Status (4)

Country Link
US (1) US10849694B2 (zh)
EP (2) EP3009096A1 (zh)
CN (1) CN107106240B (zh)
WO (1) WO2016059256A1 (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3009091A1 (en) * 2014-10-17 2016-04-20 Imactis Medical system for use in interventional radiology
CN108369273B (zh) 2015-12-16 2022-09-06 皇家飞利浦有限公司 介入设备识别
CN107468350B (zh) * 2016-06-08 2020-12-08 北京天智航医疗科技股份有限公司 一种三维图像专用标定器、手术定位系统及定位方法
WO2018035310A1 (en) 2016-08-19 2018-02-22 The Penn State Research Foundation Dynamic haptic robotic trainer
US10667864B2 (en) 2017-04-19 2020-06-02 Brainlab Ag Inline-view determination
US11166766B2 (en) * 2017-09-21 2021-11-09 DePuy Synthes Products, Inc. Surgical instrument mounted display system
CN108324378A (zh) * 2018-02-11 2018-07-27 浙江工业大学 基于主副机器人相互协作的颅面骨畸形整复全程精确手术系统及其手术操作方法
CN112020338B (zh) * 2018-02-23 2024-10-08 生物相容英国有限公司 体积成像
US10849711B2 (en) 2018-07-11 2020-12-01 DePuy Synthes Products, Inc. Surgical instrument mounted display system
US11406472B2 (en) 2018-12-13 2022-08-09 DePuy Synthes Products, Inc. Surgical instrument mounted display system
CN110974454B (zh) * 2019-12-19 2021-09-28 长春理工大学 一种正畸支抗钉标定方法及装置
GB202110197D0 (en) * 2021-07-15 2021-09-01 Univ Manchester Guidance system
CN117598787B (zh) * 2024-01-08 2024-07-09 上海卓昕医疗科技有限公司 基于医学影像的医疗器械导航装置、设备和介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050251030A1 (en) * 2004-04-21 2005-11-10 Azar Fred S Method for augmented reality instrument placement using an image based navigation system
US20090221908A1 (en) * 2008-03-01 2009-09-03 Neil David Glossop System and Method for Alignment of Instrumentation in Image-Guided Intervention
US20100081920A1 (en) * 2008-09-29 2010-04-01 Civco Medical Instruments Co., Inc. Em tracking systems for use with ultrasound and other imaging modalities
WO2010096419A2 (en) * 2009-02-17 2010-08-26 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5817022A (en) * 1995-03-28 1998-10-06 Sonometrics Corporation System for displaying a 2-D ultrasound image within a 3-D viewing environment
US6296614B1 (en) * 1999-04-08 2001-10-02 Rick L. Pruter Needle guide for attachment to ultrasound transducer probe
DE10136709B4 (de) * 2001-07-27 2004-09-02 Siemens Ag Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
US20090076476A1 (en) * 2007-08-15 2009-03-19 Hansen Medical, Inc. Systems and methods employing force sensing for mapping intra-body tissue
WO2012143885A2 (en) * 2011-04-21 2012-10-26 Koninklijke Philips Electronics N.V. Mpr slice selection for visualization of catheter in three-dimensional ultrasound
KR20140051284A (ko) * 2011-07-06 2014-04-30 씨. 알. 바드, 인크. 삽입 유도 시스템을 위한 바늘 길이 결정 및 교정
JP2015528713A (ja) * 2012-06-21 2015-10-01 グローバス メディカル インコーポレイティッド 手術ロボットプラットフォーム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050251030A1 (en) * 2004-04-21 2005-11-10 Azar Fred S Method for augmented reality instrument placement using an image based navigation system
US20090221908A1 (en) * 2008-03-01 2009-09-03 Neil David Glossop System and Method for Alignment of Instrumentation in Image-Guided Intervention
US20100081920A1 (en) * 2008-09-29 2010-04-01 Civco Medical Instruments Co., Inc. Em tracking systems for use with ultrasound and other imaging modalities
WO2010096419A2 (en) * 2009-02-17 2010-08-26 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery

Also Published As

Publication number Publication date
US20170224426A1 (en) 2017-08-10
US10849694B2 (en) 2020-12-01
EP3206618A1 (en) 2017-08-23
EP3009096A1 (en) 2016-04-20
CN107106240B (zh) 2019-11-12
WO2016059256A1 (en) 2016-04-21

Similar Documents

Publication Publication Date Title
CN107106240B (zh) 显示线性仪器相对于3d医学图像导航后的位置和取向的方法和系统
EP3505133B1 (en) Use of augmented reality to assist navigation
EP2769689B1 (en) Computer-implemented technique for calculating a position of a surgical device
US20080123910A1 (en) Method and system for providing accuracy evaluation of image guided surgery
US10912537B2 (en) Image registration and guidance using concurrent X-plane imaging
WO2019100212A1 (zh) 用于规划消融的超声系统及方法
US9795319B2 (en) Method and device for navigation of a surgical tool
JP5705403B2 (ja) 超音波画像内の所定の点を追跡するための方法及び装置
CN100391414C (zh) 医疗设备定位系统和方法
US9123096B2 (en) Information processing apparatus and control method thereof
US10238463B2 (en) Processing system arranged to cooperate with an optical-shape-sensing-enabled interventional device
US11937887B2 (en) Ultrasound system and method for tracking movement of an object
CN116327079A (zh) 内窥镜测量系统和工具
CN107106242B (zh) 介入放射学用医疗系统
Kanithi et al. Immersive augmented reality system for assisting needle positioning during ultrasound guided intervention

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant