CN105578984B - 介入工具的声学3d跟踪 - Google Patents

介入工具的声学3d跟踪 Download PDF

Info

Publication number
CN105578984B
CN105578984B CN201480052625.0A CN201480052625A CN105578984B CN 105578984 B CN105578984 B CN 105578984B CN 201480052625 A CN201480052625 A CN 201480052625A CN 105578984 B CN105578984 B CN 105578984B
Authority
CN
China
Prior art keywords
acoustic
waveform
sensing
image plane
composite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201480052625.0A
Other languages
English (en)
Other versions
CN105578984A (zh
Inventor
A·K·贾殷
F·G·G·M·维尼翁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of CN105578984A publication Critical patent/CN105578984A/zh
Application granted granted Critical
Publication of CN105578984B publication Critical patent/CN105578984B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • A61B8/4494Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer characterised by the arrangement of the transducer elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3925Markers, e.g. radio-opaque or breast lesions markers ultrasonic
    • A61B2090/3929Active markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • A61B8/4488Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer the transducer being a phased array
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

一种用于基于两个或更多声学传感器(20、21)相对于介入工具(50)的空间对齐来跟踪介入工具(50)的系统和方法(例如,声学传感器被附接到或嵌入针或导管的远尖端)。所述方法能够包括操作声学成像设备(10)(例如,具有线性或弯曲的1D阵列的2D超声探头)以生成声学图像平面(11),并且操作每个声学传感器(20、21)以输出根据对声学射束阵列的声学感测导出的复合声学感测波形(40、41)。每个复合声学感测波形(40、41)能够包括声学射束感测波形(30、31、32)的阵列。所述方法还能够包括操作跟踪工作站(70)以跟踪介入工具(50)相对于声学图像平面(11)的位置,所述位置是根据对复合声学感测波形(40、41)的波形轮廓分析导出的。

Description

介入工具的声学3D跟踪
技术领域
本发明整体上涉及对介入工具(例如,针、导管等)到由声学成像设备(例如,具有一维(“1D”)换能器阵列的二维(“2D”)超声探头)生成的声学图像平面的相对位置的三维(“3D”)跟踪。为了便于介入工具到声学图像平面的相对位置跟踪的目的,本发明具体地涉及一种相对于介入工具(例如,被附接到或被嵌入针或导管的远尖端)空间对齐的声学传感器,以输出根据对声学图像平面的声学感测导出的复合声学感测波形。
背景技术
具有1D换能器阵列的2D超声探头通常被用于在临床介入的宽范围中的目标解剖平面的可视化。然而,估计在由2D超声探头生成的目标解剖平面的声学成像之外的介入工具(例如,针、导管等)的位置是挑战。因此,临床医生可以花费大量精力和时间来试图将介入工具(尤其介入工具的远尖端)精确地定位在目标解剖平面的声学图像内。更具体地,对于涉及将介入工具倾斜/正交地插入目标解剖平面的介入,已经证明很难建立进入目标解剖平面的声学图像内的精确时间和位置。
例如,超声引导下的针插入通常被执行用于各种介入(例如,活组织检查、放液治疗、神经阻滞、血管通路等)。尽管已经实施了基于近似垂直于针阀杆的转向成像射束的针可视化技术,在大量情况下,由于组织非均匀性和/或斜角不对称性,针偏离声学图像平面。基本上,平面外的针从声学图像平面消失,无论智能针可视化增强软件的复杂度如何。然后临床医生必须移动声学图像平面以重新采集针的图像,但是结果是损失目标解剖平面的声学图像。而且,临床医生不知道针相关于声学图像平面在哪里,并且因此临床医生没有如何移动2D超声探头以找到针的指示。
总之,对于声学成像,保持对目标解剖平面进行成像并且同时知道针关于目标解剖平面的相对位置是必要的操作原则。为了便于介入工具到声学图像平面的相对位置跟踪的目的,本发明通过提供相对于介入工具空间(例如,被附接到或被嵌入针或导管的远尖端)对齐的声学传感器以输出根据对声学图像平面的声学感测导出的复合声学感测波形来遵循该操作原理。
发明内容
根据本发明的范例性实施例,两个或更多声学传感器被提供相对于介入工具空间对齐(例如,附接到或嵌入针或导管的远尖端)。在操作中,每个声学传感器被结构地配置为输出根据(例如,通过具有1D换能器阵列的线性或曲线的2D超声探头生成的)对声学图像平面的声学感测导出的复合声学感测波形。每个复合声学感测波形包括声学射束感测波形的阵列。能够提供跟踪工作站,其被结构地配置为跟踪介入工具相对于声学图像平面的位置,所述位置是根据对复合声学感测波形的波形轮廓分析导出的。
另外,根据本发明的范例性实施例,提供一种系统,其包括介入工具(例如,针或导管),和两个或更多声学传感器,所述两个或更多声学传感器相对于介入工具被空间对齐(例如,被附接到或嵌入针或导管的远尖端)。能够提供跟踪工作站,其被结构地配置为跟踪介入工具相对于声学图像平面的位置,所述位置是根据对复合声学感测波形的波形轮廓分析导出的。
根据本发明的又另一范例性实施例,提供一种用于基于相对于介入工具的两个或更多声学传感器(例如,被附接到或嵌入针或导管的远尖端的声学传感器)的空间对齐来跟踪介入工具的方法。所述方法涉及操作声学成像设备(例如,具有1D阵列的线性或曲线的2D超声探头)以生成声学图像平面,并且操作每个声学传感器以输出根据对声学射束阵列的声学感测导出的复合声学感测波形。每个复合声学感测波形包括声学射束感测波形的阵列。所述方法还涉及操作跟踪工作站以跟踪介入工具相对于声学图像平面的位置,所述位置是根据对复合声学感测波形的波形轮廓分析导出的。
结合附图阅读本发明,根据本发明的各种实施例的以下详细描述中,本发明的前述范例性实施例和其他形式以及本发明的各种特征和优点将变得更加显而易见。详细描述和附图仅仅是图示本发明,而不是限制,通过附加权利要求和其等价方案定义本发明的范围。
附图说明
图1A和1B分别图示了根据本发明的感测声学图像平面的声学传感器的范例性俯视图和侧视图。
图2A-2C图示了根据本发明的由在图1A和1B中示出的声学传感器输出的范例性声学射束感测波形。
图3A和3B图示了根据本发明的复合声学感测波形的范例性主声学射束感测波形。
图4A和4B分别图示了根据本发明的感测声学图像平面的在介入针上空间对齐声学传感器的范例性俯视图和侧视图的第一集合。
图5A图示了根据本发明的由在图4A和4B中示出的声学传感器输出的范例性声学射束感测波形。
图4C和4D分别图示了根据本发明的感测声学图像平面的在介入针上空间对齐的声学传感器的范例性俯视图和侧视图的第二集合。
图5B图示了根据本发明的由在图4C和4D中示出的声学传感器输出的范例性声学射束感测波形。
图4F和4G分别图示了根据本发明的感测声学图像平面的在介入针上空间对齐的声学传感器的范例性俯视图和侧视图的第三集合。
图5C图示了根据本发明的由在图4E和4F中示出的声学传感器输出的范例性声学射束感测波形。
图6图示了实施介入过程的本发明的跟踪系统的范例性实施例。
图7图示了根据本发明的表示介入成像方法的范例性实施例的流程图。
图8图示了根据本发明的表示介入工具跟踪方法的范例性实施例的流程图。
具体实施方式
总体上,本发明提供以下的可操作集成:(1)介入工具,其具有被附接到所述介入工具或被嵌入所述介入工具的两个或更多声学传感器,(2)声学成像设备,其用于生成声学图像平面,(3)经由介入工具的声学传感器相对于声学图像平面的3D位置跟踪,以及(4)介入工具的3D绘制的显示,其被叠加在2D声学图像上。
为了本发明的目的,本文中术语“介入工具”被广泛地定义为用于执行如本领域已知的任何介入过程的任何工具、设备、装备等。介入工具的范例包括但不限于,针和导管,以及介入过程的范例包括但不限于,活组织检查、流体排放、神经阻滞、血管通路等。
为了本发明的目的,术语“声学传感器”被广泛地定义为被结构地配置为输出表示声学能量的感测的波形的任何设备。
为了本发明的目的,本文中的术语“声学成像设备”被广泛地定义为被结构地配置用于发射声学能量以将皮下身体结构(例如,肌腱、肌肉、关节、脉管和内部器官等)可视化的任何设备。声学成像设备的范例包括但不限于,具有1D换能器阵列的线性或曲线的2D超声探头。
具体地,本发明的前提在于,当介入工具被导航接近声学图像平面时,每个声学传感器感测来自由声学成像设备生成的声学射束的声学能量的各种振动强度水平。由声学能量引起的声学传感器的振动激励每个声学传感器以输出针对每个声学射束的声学射束感测波形,从而每个声学射束波形具有取决于声学传感器到对应声学射束的具体振动强度水平的接近度的轮廓。更具体地,,声学射束的振动强度水平随着声学射束传播通过解剖区域而衰减。当介入工具被导航接近声学图像平面时,声学传感器将感测声学射束的变化的振动强度水平,其中,最低振动强度水平与在任何给定时刻与最远离声学传感器的声学射束相关联,并且最高振动强度水平与在任何给定时刻与最靠近声学传感器的声学射束相关联。因此,对由声学射束感测波形的阵列组成的复合声学感测波形的波形轮廓分析便于对每个声学传感器相对于声学图像平面的跟踪信息进行估计。
跟踪信息包括每个声学传感器的平面内位置和平面外位置以及声学传感器的空间对齐的角度取向。
为了本发明的目的,术语“平面外位置”广泛地被定义为在声学图像平面之外的声学传感器的任何正交位置。
为了本发明的目的,本文中的术语“平面内位置”广泛地被定义为在声学图像平面内的声学传感器的物理位置或根据声学传感器的平面外位置到声学图像平面的正交投影导出的声学图像平面内的声学传感器的投影位置。
为了本发明的目的,本文中的术语“角度取向”被广泛地定义为在声学图像平面和与声学传感器的空间对齐相关联的中心/旋转轴之间的角度。实际上,声学传感器的空间对齐可以具有任何形式(例如,直线、曲线、螺旋形等)。
本发明认识到声学传感器相对于介入工具的任何具体空间对齐指示在复合声学感测波形的轮廓中的相似性和差异性,并且在跟踪介入工具相对于声学图像平面的3D位置中利用这些相似性和差异性。更具体地,对于声学成像设备的每行触发器,复合声学感测波形的轮廓形状将在很大程度上是相似的,尤其对于声学传感器相对于介入工具的轴向空间对齐,并且复合声学感测波形的轮廓范围可以类似于或不同于取决于每个声学传感器的平面内位置和平面外位置的可识别程度。
具体地,对于每个声学传感器,复合声学感测波形的峰值幅度将识别最靠近声学传感器的“主”声学射束感测波形,从而主声学射束感测波形的轮廓便于对声学传感器的平面内位置进行估计。在声学传感器的估计的平面内位置的计算的距离和在声学传感器之间的空间距离的知识便于对声学传感器到声学图像平面的空间对齐的角度取向进行估计。
通过主声学射束感测波形的相对峰值幅度的比较可以估计声学传感器的平面外位置。通过声学传感器的平面内位置和/或声学传感器到声学图像平面的空间对齐的角度取向可以补充这些估计。
所有前述定位/取向估计便于对介入工具的3D位置跟踪,其可以使用各种已知可视化选项在声学图像的2D显示旁边被显示。为了便于对根据本发明的介入工具的3D位置跟踪的进一步理解,本文现在将在介入针50的背景下描述图1-8,所述介入针50具有两个(2)声学传感器21,其在介入针20的远尖端上被空间对齐,以及在介入针20的使用的背景下执行涉及具有曲线阵列的2D声学成像设备10的羊膜穿刺过程。根据图1-8的描述,本领域的普通技术人员将认识到如何利用对于各种介入过程的各种类型的介入工具、声学传感器和声学成像设备来制造和使用本发明。
图1图示了在XYZ坐标系的XY平面内用于生成声学图像平面11的具有曲线换能器阵列的2D超声探头10(例如,具有1D换能器阵列的2D超声探头)。声学传感器20和21感测声学图像平面11,其感测程度取决于每个声学传感器20和21到声学图像平面11的平面内位置和平面外位置(即,统称为XYZ位置)的接近度。
具体地,每个声学传感器20和21将输出声学射束感测波形,所述声学射束感测波形指示每个声学传感器20和21的XYZ位置到声学图像平面11的每个射束的接近度。对于最远离每个声学传感器20和21的XYZ位置的声学射束,对应的声学射束感测波形将具有纹波轮廓或零波轮廓。例如,如图2A所示,声学射束感测波形30具有指示通过相关联的声学射束(如果有的话)的声学传感器的可忽略感测的纹波。
相反地,对于最靠近每个声学传感器20和21的XYZ位置的声学射束,对应的声学射束感测波形将具有颤动波轮廓。例如,如图2A所示,声学射束感测波形31具有指示通过相关联声学射束的声学传感器20的明显感测的颤动波。另外通过范例,如图2B所示,声学射束感测波形31具有指示通过相关联射束的声学传感器21的明显感测的颤动波。
对于声学图像平面11,取决于每个声学传感器20和21的XYZ位置到声学图像平面11的接近度,每个声学传感器20和21将输出复合声学感测波形,所述复合声学感测波形包括由波纹/零波轮廓和颤动波轮廓组成的声学射束感测波形的阵列。例如,如图3A所示,取决于声学传感器20的XYZ位置到声学图像平面11的接近度,复合声学感测波形40包括由波纹/零波轮廓和颤动波轮廓组成的声学射束感测波形的阵列。另外通过范例,如图3B所示,取决于声学传感器21的XYZ位置到声学图像平面11的接近度,复合声学感测波形40包括由波纹/零波轮廓和颤动波轮廓组成的声学射束感测波形的阵列。如本文先前陈述的,复合声学感测波形中的相似性和差异便于对声学传感器20和21的XYZ位置以及声学传感器20和21的空间对齐进行估计。
具体地,确定每个声学传感器20和21的XYZ位置,对应的复合声学感测波形的峰值幅度将识别最靠近声学传感器的“主”声学射束感测波形,从而主声学射束感测波形的轮廓便于对声学传感器的平面内位置和平面外位置进行估计。
例如,如图3A所示,复合声学感测波形40的峰值幅度将声学射束感测波形31识别作为主声学射束感测波形。如图3A所示,基于在复合声学感测波形40内的声学射束感测波形31的射束位置bp20,可以估计声学传感器20的平面内位置的X坐标。如图2B所示,基于声学射束感测波形31的峰值幅度的时间tp20,可以估计声学传感器20的平面内位置的Y坐标。与通过声学图像平面11内的声学传感器20可实现的声学射束感测波形31的最大峰值幅度相比较,如图2B所示,基于声学射束感测波形31的峰值幅度的量级VP20可以估计声学传感器20的平面外位置的Z坐标。
另外,通过范例,如图3B所示,复合声学感测波形41的峰值幅度将声学射束感测波形32识别作为主声学射束感测波形。如图3B所示,基于在复合声学感测波形41内的声学射束感测波形32的射束位置bp21,可以估计声学传感器21的平面内位置的X坐标。如图2C所示,基于声学射束感测波形32的峰值幅度的时间tp21,可以估计声学传感器21的平面内位置的Y坐标。与通过声学图像平面11内的声学传感器21可实现的声学射束感测波形31的最大峰值幅度相比较,如图2C所示,基于声学射束感测波形31的峰值幅度的量级VP21可以估计声学传感器21的平面外位置的Z坐标。
如图1A和1B所示,声学传感器20被示为比声学传感器21更靠近探头10和声学图像平面11。因此,如根据主声学射束波形31和32估计的声学传感器20和21的XYZ位置将反映声学传感器20比声学传感器21更靠近探头10和声学图像平面11。额外地,声学传感器20和21到声学传感器20和21的平面内XY位置和声学射束感测波形31和32的相位偏移两者的已知空间对齐22的比较充当用于估计声学传感器20和21到声学图像平面11的空间对齐22的角度取向θ的基础。本发明利用对声学传感器20和21的XYZ位置的估计和声学传感器20和21到声学图像平面11的已知空间对齐的角度取向θ的估计作为用于跟踪具有被附接到其中或嵌入其上的声学传感器20和21的介入工具的位置的基础。
例如,图4和5图示了在介入针50的远尖端上的声学传感器20和21的已知空间对齐。正因如此,对声学传感器20和21的XYZ位置的任何估计和声学传感器20和21到声学图像平面11的已知空间对齐的角度取向θ的估计提供介入针50的远尖端的位置。
具体地,图4A和4B图示了平行于声学图像平面11的X轴的介入针50和垂直于声学图像平面11的Y轴和Z轴的介入针50。声学传感器20输出在图5A中示出的主声学射束波形33,并且声学传感器21输出如图5A所示的主声学射束波形34,用于估计如本文先前描述的声学传感器20和21的XYZ位置。对于介入针50的该3D位置跟踪,零相位偏移PO和等于声学传感器20和21的已知空间距离的声学传感器20和21的平面内位置的距离指示介入针50的远尖端平行于探头10和声学图像平面11。
图4C和4D图示了垂直于声学图像平面11的X轴和Z轴的介入针50以及平行于声学图像平面11的Y轴的介入针50。声学传感器20输出在图5B中示出的主声学射束波形37,并且声学传感器21输出如图5B所示的主声学射束波形38,用于估计如本文先前描述的声学传感器20和21的XYZ位置。对于介入针50的该3D位置跟踪,非零相位偏移PO和等于声学传感器20和21的已知空间距离的声学传感器20和21的平面内位置的距离指示介入针50的远尖端垂直于探头10并且平行于声学图像平面11。
图4E和4F图示了相对于声学图像平面11的X轴和Y轴倾斜的介入针50。声学传感器20输出在图5C中示出的主声学射束波形35,并且声学传感器21输出如图5C所示的主声学射束波形36,用于估计如本文先前描述的声学传感器20和21的XYZ位置。对于介入针50的该3D位置跟踪,零相位偏移和小于声学传感器20和21的已知空间距离的声学传感器20和21的平面内位置的距离指示介入针50的远尖端平行于探头10并且相对于声学图像平面11倾斜。
根据图4和5,本领域技术人员将认识到,当相对于声学成像平面导航介入工具时,由声学传感器输出的复合声学感测波形的轮廓将改变,然而复合声学感测波形的轮廓中的相似性和差异性便于介入工具的3D相对位置跟踪。
而且,本领域技术人员将认识到,被执行用于估计声学传感器的XYZ位置和用于估计声学传感器的空间对齐的角度取向的方程将根据期望的跟踪分辨率而变化。
图6还图示了在女性患者FP的羊膜穿刺过程期间用于实施流程图80(图7)的跟踪工作站60。跟踪工作站60被结构地配置具有硬件/电路(例如,(一个或多个)处理器、存储器等),用于执行模块71-73的网络70,其被编程和安装为跟踪工作站60内的硬件/软件/固件。实际上,跟踪工作站60可以是独立工作站或被分布在多个工作站上。
在流程图80(图7)的阶段S81期间,超声扫描器71采用如本领域已知的技术,用于控制通过超声探头12的声学图像平面13的生成以便对女性患者FP内的胎儿进行成像。超声探头12将成像数据14提供至跟踪工作站60,其中,成像数据14表示女性患者FP的胎儿的2D超声图像15。
在流程图80(图7)的阶段S82期间,工具跟踪器72采用本发明的技术以确定介入针50的远尖端相对于声学图像平面13的3D位置。实际上,结合图1-5根据如本文先前描述的本发明的操作原理实施技术。在一个实施例中,工具跟踪器72实施如图8所示的流程图90,其通过从超声扫描器71至工具跟踪器72的线触发器74进行触发。
参考图6和8,流程图90的阶段S91包括工具跟踪器72处理复合声学感测波形(诸如,所示的复合声学感测波形42和43)的波形数据24。
流程图90的阶段S92包括工具跟踪器72估计如本文先前描述的每个声学传感器20和21的平面内XY位置。
流程图90的阶段S93包括工具跟踪器72估计如本文先前描述的声学传感器20和21的角度取向。
流程图90的阶段S94包括工具跟踪器72估计如本文先前描述的每个声学传感器20和21的平面外位置Z。
实际上,在涉及对于估计阶段S92-S94的仅仅最近复合声学感测波形的处理的瞬时基础上,或在涉及对于阶段S92-74的估计的一系列复合声学感测波形的处理的进展基础上,工具跟踪器72可以实施流程图90。
参考回到图6,在流程图80(图7)的阶段S83期间,图像跟踪器73采用本领域已知的技术,用于生成叠加在2D超声图像15的标准视图的介入针50的图标62的显示61。备选地或同时地,图像跟踪器71可以生成叠加在2D超声图像15的侧视图的介入工具50的图标62的显示63。
参考图1-8,本领域技术人员将认识到本发明的很多益处,包括但不限于,使用从2D声学成像设备生成的声学能量的介入工具的3D跟踪。
实际上,各种和很多策略可以被用于经由本发明的波形轮廓分析来细化介入工具的3D位置跟踪。例如,当复合声学感测波形和/或主声学射束波形的峰值幅度开始“稳定”时,这是介入工具明显靠近声学图像平面的指示。因此,跟踪分辨率可以被增加以细化介入工具的位置的跟踪的精确度。另外,通过范例,拟合复合声学感测波形和/或主声学射束波形的峰值幅度的图形可以被用于平滑波形以便实现更快的位置和角度取向估计。通过又一范例,声学图像平面的操作前校准也可以被用于更快的位置和角度取向估计。
尽管已经图示和描述了本发明的各个实施例,本领域技术人员将理解,如本文描述的本发明的实施例是说明性的,以及可以进行各种改变和修改,并且可以用等价方案代替其中的元素,而不脱离本发明的真实范围。另外,可以进行许多修改以适于本发明的教导,不脱离其中心范围。因此,旨在本发明不限于如预期用于实施本发明的最佳模式所公开的具体实施例,但是本发明包括落入附加权利要求的范围的所有实施例。

Claims (17)

1.一种声学成像系统,包括跟踪工作站(70),其被结构地配置为跟踪介入工具(50)相对于声学图像平面(11)的位置,多个声学传感器(20、21)相对于所述介入工具(50)空间对齐,所述多个声学传感器(20、21)中的每个被结构地配置为输出根据对声学图像平面(11)的声学感测导出的复合声学感测波形(40、41),每个复合声学感测波形(40、41)包括声学射束感测波形(30、31、32)的阵列,其中,
所述跟踪工作站(70)被结构地配置为跟踪所述介入工具(50)相对于所述声学图像平面(11)的位置,所述位置是根据对所述复合声学感测波形(40、41)的波形轮廓分析导出的,并且
通过所述跟踪工作站(70)对所述复合声学感测波形(40、41)的所述波形轮廓分析包括:根据对每个复合声学感测波形(40、41)的主声学射束感测波形(31、32)的轮廓识别对每个声学传感器(20、21)的平面内位置进行估计,其中,每个主声学射束感测波形(31、32)的幅度指示对应的声学传感器(20、21)的所述平面内位置。
2.根据权利要求1所述的声学成像系统,还包括:
探头(10),其被结构地配置为生成所述声学图像平面(11)。
3.根据权利要求2所述的声学成像系统,其中,所述探头(10)是超声探头。
4.根据权利要求1所述的声学成像系统,还包括所述介入工具(50)。
5.根据权利要求4所述的声学成像系统,其中,所述介入工具(50)是针或导管。
6.根据权利要求4所述的声学成像系统,其中,所述多个声学传感器(20、21)被嵌入所述介入工具(50)。
7.根据权利要求4所述的声学成像系统,其中,所述多个声学传感器(20、21)被附接到所述介入工具(50)。
8.根据权利要求1所述的声学成像系统,其中,每个主声学射束感测波形(31、32)的相位指示对应的声学传感器(20、21)的所述平面内位置。
9.根据权利要求1所述的声学成像系统,其中,通过所述跟踪工作站(70)对所述复合声学感测波形(40、41)的所述波形轮廓分析还包括:
根据对每个声学传感器(20、21)的所述平面内位置的所述估计对所述介入工具(50)相对于所述声学图像平面(11)的角度取向进行估计。
10.根据权利要求9所述的声学成像系统,其中,所述主声学射束感测波形的相位偏移指示所述介入工具(50)相对于所述声学图像平面(11)的所述角度取向。
11.根据权利要求9所述的声学成像系统,其中,在所述多个声学传感器(20、21)之间的至少一个空间距离指示所述介入工具(50)相对于所述声学图像平面(11)的所述角度取向。
12.根据权利要求1所述的声学成像系统,其中,通过所述跟踪工作站(70)对所述复合声学感测波形(40、41)的所述波形轮廓分析还包括:
根据每个主声学射束感测波形的幅度对每个声学传感器(20、21)的平面外位置进行估计。
13.根据权利要求12所述的声学成像系统,其中,每个主声学射束感测波形的幅度相对于轮廓最大幅度的比较指示每个声学传感器(20、21)的所述平面外位置。
14.一种用于基于多个声学传感器(20、21)相对于介入工具(50)的空间对齐来确定所述介入工具(50)的位置的装置,所述多个声学传感器(20、21)中的每个被结构地配置为输出根据对由声学成像设备(10)生成的声学图像平面(11)的声学感测导出的复合声学感测波形(40、41),每个复合声学感测波形(40、41)包括声学射束感测波形(30、31、32)的阵列,所述装置具有处理器和存储器,以运行被编码为执行以下步骤的模块:
操作所述声学成像设备(10)以生成所述声学图像平面(11);
操作工具跟踪器(72)以确定所述介入工具(50)相对于所述声学图像平面(11)的位置,所述位置是根据对所述复合声学感测波形(40、41)的波形轮廓分析导出的,其中,通过所述工具跟踪器(72)对所述复合声学感测波形(40、41)的所述波形轮廓分析包括:
根据对每个复合声学感测波形(40、41)的主声学射束感测波形(31、32)的轮廓识别对每个声学传感器(20、21)的平面内位置进行估计,其中,每个主声学射束感测波形(31、32)的幅度指示对应的声学传感器(20、21)的所述平面内位置。
15.根据权利要求14所述的装置,其中,通过所述工具跟踪器(72)对所述复合声学感测波形(40、41)的所述波形轮廓分析还包括:
根据对每个声学传感器(20、21)相对于所述声学图像平面(11)的所述平面内位置的所述估计对所述介入工具(50)相对于所述声学图像平面(11)的角度取向进行估计。
16.根据权利要求14所述的装置,其中,通过所述工具跟踪器(72)对所述复合声学感测波形(40、41)的所述波形轮廓分析还包括:
根据每个主声学射束感测波形的幅度对每个声学传感器(20、21)相对于所述声学图像平面(11)的平面外位置进行估计。
17.根据权利要求14所述的装置,所述装置具有处理器和存储器,以运行被编码为还执行以下步骤的模块:
操作图像跟踪器(73)以显示所述介入工具(50)相对于根据所述声学图像平面(11)导出的声学图像(13)的所确定的位置。
CN201480052625.0A 2013-09-24 2014-09-16 介入工具的声学3d跟踪 Active CN105578984B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361881500P 2013-09-24 2013-09-24
US61/881,500 2013-09-24
PCT/IB2014/064537 WO2015044831A1 (en) 2013-09-24 2014-09-16 Acoustic 3d tracking of interventional tool

Publications (2)

Publication Number Publication Date
CN105578984A CN105578984A (zh) 2016-05-11
CN105578984B true CN105578984B (zh) 2021-02-26

Family

ID=51753260

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480052625.0A Active CN105578984B (zh) 2013-09-24 2014-09-16 介入工具的声学3d跟踪

Country Status (5)

Country Link
US (1) US10660710B2 (zh)
EP (1) EP3049013B1 (zh)
JP (1) JP6253787B2 (zh)
CN (1) CN105578984B (zh)
WO (1) WO2015044831A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11331070B2 (en) 2015-12-31 2022-05-17 Koninklijke Philips N.V. System and method for probe calibration and interventional acoustic imaging
WO2018060499A1 (en) * 2016-09-30 2018-04-05 Koninklijke Philips N.V. Tracking a feature of an interventional device
JP2020506749A (ja) * 2017-01-19 2020-03-05 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 介入デバイスを撮像及び追跡するシステム並びに方法
CN112334073A (zh) * 2018-06-15 2021-02-05 皇家飞利浦有限公司 相对设备取向确定
US20210251602A1 (en) * 2018-08-22 2021-08-19 Koninklijke Philips N.V. System, device and method for constraining sensor tracking estimates in interventional acoustic imaging
DE102018215470A1 (de) * 2018-09-12 2020-03-12 B. Braun Melsungen Ag Verfahren zur Positionsermittlung einer medizinischen Invasivkomponente sowie medizinisches System zur Ausführung eines solchen Verfahrens
JP7460613B2 (ja) * 2018-10-25 2024-04-02 コーニンクレッカ フィリップス エヌ ヴェ 音響撮像における介入装置の先端の場所を推定するためのシステム、装置及び方法
US11944487B2 (en) * 2018-11-15 2024-04-02 Koninklijke Philips N.V. Simultaneous sensor tracking in medical interventions
EP3975859B1 (en) * 2019-05-30 2024-02-28 Koninklijke Philips N.V. Relative location determining for passive ultrasound sensors
JP2022534252A (ja) * 2019-05-30 2022-07-28 コーニンクレッカ フィリップス エヌ ヴェ 符号化された同期された医療介入画像信号及びセンサ信号

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4407294A (en) * 1982-01-07 1983-10-04 Technicare Corporation Ultrasound tissue probe localization system
US5400788A (en) * 1989-05-16 1995-03-28 Hewlett-Packard Apparatus that generates acoustic signals at discrete multiple frequencies and that couples acoustic signals into a cladded-core acoustic waveguide
US5217018A (en) 1989-05-16 1993-06-08 Hewlett-Packard Company Acoustic transmission through cladded core waveguide
US6546276B1 (en) * 2000-09-12 2003-04-08 Claudio I. Zanelli Ultrasonic based detection of interventional medical device contact and alignment
JP2006220636A (ja) * 2004-07-27 2006-08-24 Matsushita Electric Works Ltd 音波センサ
JP4381344B2 (ja) * 2005-05-17 2009-12-09 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置
EP2566394B1 (en) * 2010-05-03 2016-12-14 Koninklijke Philips N.V. Ultrasonic tracking of ultrasound transducer(s) aboard an interventional tool
WO2012172458A1 (en) * 2011-06-13 2012-12-20 Koninklijke Philips Electronics N.V. Three-dimensional needle localization with a two-dimensional imaging probe
JP6219835B2 (ja) 2011-10-28 2017-10-25 ディスィジョン サイエンシズ インターナショナル コーポレーション 超音波イメージングにおけるスペクトル拡散符号化波形
WO2014191262A2 (en) 2013-05-31 2014-12-04 Koninklijke Philips N.V. Assisting apparatus for assisting a user during an interventional procedure

Also Published As

Publication number Publication date
JP6253787B2 (ja) 2017-12-27
WO2015044831A1 (en) 2015-04-02
US20160242856A1 (en) 2016-08-25
CN105578984A (zh) 2016-05-11
JP2016530978A (ja) 2016-10-06
US10660710B2 (en) 2020-05-26
EP3049013B1 (en) 2017-11-15
EP3049013A1 (en) 2016-08-03

Similar Documents

Publication Publication Date Title
CN105578984B (zh) 介入工具的声学3d跟踪
JP7165181B2 (ja) 超音波イメージングプレーンと器具のアライメント及び追跡
EP2717772B1 (en) Three-dimensional needle localization with a two-dimensional imaging probe
JP6782688B2 (ja) 介入処置の3d撮像ワークフローにおける器具及び生体構造のインテリジェントかつリアルタイムな可視化
Boctor et al. Rapid calibration method for registration and 3D tracking of ultrasound images using spatial localizer
EP2769689B1 (en) Computer-implemented technique for calculating a position of a surgical device
Vrooijink et al. Real-time three-dimensional flexible needle tracking using two-dimensional ultrasound
Kim et al. Ultrasound probe and needle-guide calibration for robotic ultrasound scanning and needle targeting
US9052384B2 (en) System and method for calibration for image-guided surgery
US20120071757A1 (en) Ultrasound Registration
EP2745268B1 (en) Automatic online registration between a robot and images
JP7089521B2 (ja) 高速且つ自動化された超音波プローブ校正のためのシステム及び方法
KR20080017275A (ko) 주파수 외삽을 사용하는 왜곡-면역 위치 추적
JP2020506005A (ja) 装置追跡に対する超音波システムにおける経路追跡
US10682126B2 (en) Phantom to determine positional and angular navigation system error
Mohareri et al. Automatic localization of the da Vinci surgical instrument tips in 3-D transrectal ultrasound
Adebar et al. 3D segmentation of curved needles using Doppler ultrasound and vibration
Shahriari et al. Steering an actuated-tip needle in biological tissue: Fusing FBG-sensor data and ultrasound images
Adebar et al. Registration of 3D ultrasound through an air–tissue boundary
Hartov et al. Adaptive spatial calibration of a 3D ultrasound system
Ahmad et al. Calibration of 2D ultrasound in 3D space for robotic biopsies
Zhao et al. Tracking biopsy needle using Kalman filter and RANSAC algorithm with 3D ultrasound
Onogi et al. An accurate calibration method of ultrasound images by center positions of a metal ball
Najafi et al. A closed-form differential formulation for ultrasound spatial calibration
Xu et al. Error analysis of a 3D ultrasound-based robotic system for hepatic tumors

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant