CN105578984B - 介入工具的声学3d跟踪 - Google Patents
介入工具的声学3d跟踪 Download PDFInfo
- Publication number
- CN105578984B CN105578984B CN201480052625.0A CN201480052625A CN105578984B CN 105578984 B CN105578984 B CN 105578984B CN 201480052625 A CN201480052625 A CN 201480052625A CN 105578984 B CN105578984 B CN 105578984B
- Authority
- CN
- China
- Prior art keywords
- acoustic
- waveform
- sensing
- image plane
- composite
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000002131 composite material Substances 0.000 claims abstract description 49
- 238000003384 imaging method Methods 0.000 claims abstract description 35
- 239000000523 sample Substances 0.000 claims abstract description 20
- 238000002604 ultrasonography Methods 0.000 claims abstract description 19
- 238000004458 analytical method Methods 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 abstract description 13
- 230000002332 fibrillatory effect Effects 0.000 description 4
- 238000013152 interventional procedure Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 238000002669 amniocentesis Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000001574 biopsy Methods 0.000 description 2
- 210000003754 fetus Anatomy 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 230000002792 vascular Effects 0.000 description 2
- 206010044565 Tremor Diseases 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000007920 subcutaneous administration Methods 0.000 description 1
- 210000002435 tendon Anatomy 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
- A61B8/0841—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/44—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
- A61B8/4483—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
- A61B8/4494—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer characterised by the arrangement of the transducer elements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5207—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3925—Markers, e.g. radio-opaque or breast lesions markers ultrasonic
- A61B2090/3929—Active markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/44—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
- A61B8/4483—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
- A61B8/4488—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer the transducer being a phased array
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/58—Testing, adjusting or calibrating the diagnostic device
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Gynecology & Obstetrics (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
一种用于基于两个或更多声学传感器(20、21)相对于介入工具(50)的空间对齐来跟踪介入工具(50)的系统和方法(例如,声学传感器被附接到或嵌入针或导管的远尖端)。所述方法能够包括操作声学成像设备(10)(例如,具有线性或弯曲的1D阵列的2D超声探头)以生成声学图像平面(11),并且操作每个声学传感器(20、21)以输出根据对声学射束阵列的声学感测导出的复合声学感测波形(40、41)。每个复合声学感测波形(40、41)能够包括声学射束感测波形(30、31、32)的阵列。所述方法还能够包括操作跟踪工作站(70)以跟踪介入工具(50)相对于声学图像平面(11)的位置,所述位置是根据对复合声学感测波形(40、41)的波形轮廓分析导出的。
Description
技术领域
本发明整体上涉及对介入工具(例如,针、导管等)到由声学成像设备(例如,具有一维(“1D”)换能器阵列的二维(“2D”)超声探头)生成的声学图像平面的相对位置的三维(“3D”)跟踪。为了便于介入工具到声学图像平面的相对位置跟踪的目的,本发明具体地涉及一种相对于介入工具(例如,被附接到或被嵌入针或导管的远尖端)空间对齐的声学传感器,以输出根据对声学图像平面的声学感测导出的复合声学感测波形。
背景技术
具有1D换能器阵列的2D超声探头通常被用于在临床介入的宽范围中的目标解剖平面的可视化。然而,估计在由2D超声探头生成的目标解剖平面的声学成像之外的介入工具(例如,针、导管等)的位置是挑战。因此,临床医生可以花费大量精力和时间来试图将介入工具(尤其介入工具的远尖端)精确地定位在目标解剖平面的声学图像内。更具体地,对于涉及将介入工具倾斜/正交地插入目标解剖平面的介入,已经证明很难建立进入目标解剖平面的声学图像内的精确时间和位置。
例如,超声引导下的针插入通常被执行用于各种介入(例如,活组织检查、放液治疗、神经阻滞、血管通路等)。尽管已经实施了基于近似垂直于针阀杆的转向成像射束的针可视化技术,在大量情况下,由于组织非均匀性和/或斜角不对称性,针偏离声学图像平面。基本上,平面外的针从声学图像平面消失,无论智能针可视化增强软件的复杂度如何。然后临床医生必须移动声学图像平面以重新采集针的图像,但是结果是损失目标解剖平面的声学图像。而且,临床医生不知道针相关于声学图像平面在哪里,并且因此临床医生没有如何移动2D超声探头以找到针的指示。
总之,对于声学成像,保持对目标解剖平面进行成像并且同时知道针关于目标解剖平面的相对位置是必要的操作原则。为了便于介入工具到声学图像平面的相对位置跟踪的目的,本发明通过提供相对于介入工具空间(例如,被附接到或被嵌入针或导管的远尖端)对齐的声学传感器以输出根据对声学图像平面的声学感测导出的复合声学感测波形来遵循该操作原理。
发明内容
根据本发明的范例性实施例,两个或更多声学传感器被提供相对于介入工具空间对齐(例如,附接到或嵌入针或导管的远尖端)。在操作中,每个声学传感器被结构地配置为输出根据(例如,通过具有1D换能器阵列的线性或曲线的2D超声探头生成的)对声学图像平面的声学感测导出的复合声学感测波形。每个复合声学感测波形包括声学射束感测波形的阵列。能够提供跟踪工作站,其被结构地配置为跟踪介入工具相对于声学图像平面的位置,所述位置是根据对复合声学感测波形的波形轮廓分析导出的。
另外,根据本发明的范例性实施例,提供一种系统,其包括介入工具(例如,针或导管),和两个或更多声学传感器,所述两个或更多声学传感器相对于介入工具被空间对齐(例如,被附接到或嵌入针或导管的远尖端)。能够提供跟踪工作站,其被结构地配置为跟踪介入工具相对于声学图像平面的位置,所述位置是根据对复合声学感测波形的波形轮廓分析导出的。
根据本发明的又另一范例性实施例,提供一种用于基于相对于介入工具的两个或更多声学传感器(例如,被附接到或嵌入针或导管的远尖端的声学传感器)的空间对齐来跟踪介入工具的方法。所述方法涉及操作声学成像设备(例如,具有1D阵列的线性或曲线的2D超声探头)以生成声学图像平面,并且操作每个声学传感器以输出根据对声学射束阵列的声学感测导出的复合声学感测波形。每个复合声学感测波形包括声学射束感测波形的阵列。所述方法还涉及操作跟踪工作站以跟踪介入工具相对于声学图像平面的位置,所述位置是根据对复合声学感测波形的波形轮廓分析导出的。
结合附图阅读本发明,根据本发明的各种实施例的以下详细描述中,本发明的前述范例性实施例和其他形式以及本发明的各种特征和优点将变得更加显而易见。详细描述和附图仅仅是图示本发明,而不是限制,通过附加权利要求和其等价方案定义本发明的范围。
附图说明
图1A和1B分别图示了根据本发明的感测声学图像平面的声学传感器的范例性俯视图和侧视图。
图2A-2C图示了根据本发明的由在图1A和1B中示出的声学传感器输出的范例性声学射束感测波形。
图3A和3B图示了根据本发明的复合声学感测波形的范例性主声学射束感测波形。
图4A和4B分别图示了根据本发明的感测声学图像平面的在介入针上空间对齐声学传感器的范例性俯视图和侧视图的第一集合。
图5A图示了根据本发明的由在图4A和4B中示出的声学传感器输出的范例性声学射束感测波形。
图4C和4D分别图示了根据本发明的感测声学图像平面的在介入针上空间对齐的声学传感器的范例性俯视图和侧视图的第二集合。
图5B图示了根据本发明的由在图4C和4D中示出的声学传感器输出的范例性声学射束感测波形。
图4F和4G分别图示了根据本发明的感测声学图像平面的在介入针上空间对齐的声学传感器的范例性俯视图和侧视图的第三集合。
图5C图示了根据本发明的由在图4E和4F中示出的声学传感器输出的范例性声学射束感测波形。
图6图示了实施介入过程的本发明的跟踪系统的范例性实施例。
图7图示了根据本发明的表示介入成像方法的范例性实施例的流程图。
图8图示了根据本发明的表示介入工具跟踪方法的范例性实施例的流程图。
具体实施方式
总体上,本发明提供以下的可操作集成:(1)介入工具,其具有被附接到所述介入工具或被嵌入所述介入工具的两个或更多声学传感器,(2)声学成像设备,其用于生成声学图像平面,(3)经由介入工具的声学传感器相对于声学图像平面的3D位置跟踪,以及(4)介入工具的3D绘制的显示,其被叠加在2D声学图像上。
为了本发明的目的,本文中术语“介入工具”被广泛地定义为用于执行如本领域已知的任何介入过程的任何工具、设备、装备等。介入工具的范例包括但不限于,针和导管,以及介入过程的范例包括但不限于,活组织检查、流体排放、神经阻滞、血管通路等。
为了本发明的目的,术语“声学传感器”被广泛地定义为被结构地配置为输出表示声学能量的感测的波形的任何设备。
为了本发明的目的,本文中的术语“声学成像设备”被广泛地定义为被结构地配置用于发射声学能量以将皮下身体结构(例如,肌腱、肌肉、关节、脉管和内部器官等)可视化的任何设备。声学成像设备的范例包括但不限于,具有1D换能器阵列的线性或曲线的2D超声探头。
具体地,本发明的前提在于,当介入工具被导航接近声学图像平面时,每个声学传感器感测来自由声学成像设备生成的声学射束的声学能量的各种振动强度水平。由声学能量引起的声学传感器的振动激励每个声学传感器以输出针对每个声学射束的声学射束感测波形,从而每个声学射束波形具有取决于声学传感器到对应声学射束的具体振动强度水平的接近度的轮廓。更具体地,,声学射束的振动强度水平随着声学射束传播通过解剖区域而衰减。当介入工具被导航接近声学图像平面时,声学传感器将感测声学射束的变化的振动强度水平,其中,最低振动强度水平与在任何给定时刻与最远离声学传感器的声学射束相关联,并且最高振动强度水平与在任何给定时刻与最靠近声学传感器的声学射束相关联。因此,对由声学射束感测波形的阵列组成的复合声学感测波形的波形轮廓分析便于对每个声学传感器相对于声学图像平面的跟踪信息进行估计。
跟踪信息包括每个声学传感器的平面内位置和平面外位置以及声学传感器的空间对齐的角度取向。
为了本发明的目的,术语“平面外位置”广泛地被定义为在声学图像平面之外的声学传感器的任何正交位置。
为了本发明的目的,本文中的术语“平面内位置”广泛地被定义为在声学图像平面内的声学传感器的物理位置或根据声学传感器的平面外位置到声学图像平面的正交投影导出的声学图像平面内的声学传感器的投影位置。
为了本发明的目的,本文中的术语“角度取向”被广泛地定义为在声学图像平面和与声学传感器的空间对齐相关联的中心/旋转轴之间的角度。实际上,声学传感器的空间对齐可以具有任何形式(例如,直线、曲线、螺旋形等)。
本发明认识到声学传感器相对于介入工具的任何具体空间对齐指示在复合声学感测波形的轮廓中的相似性和差异性,并且在跟踪介入工具相对于声学图像平面的3D位置中利用这些相似性和差异性。更具体地,对于声学成像设备的每行触发器,复合声学感测波形的轮廓形状将在很大程度上是相似的,尤其对于声学传感器相对于介入工具的轴向空间对齐,并且复合声学感测波形的轮廓范围可以类似于或不同于取决于每个声学传感器的平面内位置和平面外位置的可识别程度。
具体地,对于每个声学传感器,复合声学感测波形的峰值幅度将识别最靠近声学传感器的“主”声学射束感测波形,从而主声学射束感测波形的轮廓便于对声学传感器的平面内位置进行估计。在声学传感器的估计的平面内位置的计算的距离和在声学传感器之间的空间距离的知识便于对声学传感器到声学图像平面的空间对齐的角度取向进行估计。
通过主声学射束感测波形的相对峰值幅度的比较可以估计声学传感器的平面外位置。通过声学传感器的平面内位置和/或声学传感器到声学图像平面的空间对齐的角度取向可以补充这些估计。
所有前述定位/取向估计便于对介入工具的3D位置跟踪,其可以使用各种已知可视化选项在声学图像的2D显示旁边被显示。为了便于对根据本发明的介入工具的3D位置跟踪的进一步理解,本文现在将在介入针50的背景下描述图1-8,所述介入针50具有两个(2)声学传感器21,其在介入针20的远尖端上被空间对齐,以及在介入针20的使用的背景下执行涉及具有曲线阵列的2D声学成像设备10的羊膜穿刺过程。根据图1-8的描述,本领域的普通技术人员将认识到如何利用对于各种介入过程的各种类型的介入工具、声学传感器和声学成像设备来制造和使用本发明。
图1图示了在XYZ坐标系的XY平面内用于生成声学图像平面11的具有曲线换能器阵列的2D超声探头10(例如,具有1D换能器阵列的2D超声探头)。声学传感器20和21感测声学图像平面11,其感测程度取决于每个声学传感器20和21到声学图像平面11的平面内位置和平面外位置(即,统称为XYZ位置)的接近度。
具体地,每个声学传感器20和21将输出声学射束感测波形,所述声学射束感测波形指示每个声学传感器20和21的XYZ位置到声学图像平面11的每个射束的接近度。对于最远离每个声学传感器20和21的XYZ位置的声学射束,对应的声学射束感测波形将具有纹波轮廓或零波轮廓。例如,如图2A所示,声学射束感测波形30具有指示通过相关联的声学射束(如果有的话)的声学传感器的可忽略感测的纹波。
相反地,对于最靠近每个声学传感器20和21的XYZ位置的声学射束,对应的声学射束感测波形将具有颤动波轮廓。例如,如图2A所示,声学射束感测波形31具有指示通过相关联声学射束的声学传感器20的明显感测的颤动波。另外通过范例,如图2B所示,声学射束感测波形31具有指示通过相关联射束的声学传感器21的明显感测的颤动波。
对于声学图像平面11,取决于每个声学传感器20和21的XYZ位置到声学图像平面11的接近度,每个声学传感器20和21将输出复合声学感测波形,所述复合声学感测波形包括由波纹/零波轮廓和颤动波轮廓组成的声学射束感测波形的阵列。例如,如图3A所示,取决于声学传感器20的XYZ位置到声学图像平面11的接近度,复合声学感测波形40包括由波纹/零波轮廓和颤动波轮廓组成的声学射束感测波形的阵列。另外通过范例,如图3B所示,取决于声学传感器21的XYZ位置到声学图像平面11的接近度,复合声学感测波形40包括由波纹/零波轮廓和颤动波轮廓组成的声学射束感测波形的阵列。如本文先前陈述的,复合声学感测波形中的相似性和差异便于对声学传感器20和21的XYZ位置以及声学传感器20和21的空间对齐进行估计。
具体地,确定每个声学传感器20和21的XYZ位置,对应的复合声学感测波形的峰值幅度将识别最靠近声学传感器的“主”声学射束感测波形,从而主声学射束感测波形的轮廓便于对声学传感器的平面内位置和平面外位置进行估计。
例如,如图3A所示,复合声学感测波形40的峰值幅度将声学射束感测波形31识别作为主声学射束感测波形。如图3A所示,基于在复合声学感测波形40内的声学射束感测波形31的射束位置bp20,可以估计声学传感器20的平面内位置的X坐标。如图2B所示,基于声学射束感测波形31的峰值幅度的时间tp20,可以估计声学传感器20的平面内位置的Y坐标。与通过声学图像平面11内的声学传感器20可实现的声学射束感测波形31的最大峰值幅度相比较,如图2B所示,基于声学射束感测波形31的峰值幅度的量级VP20可以估计声学传感器20的平面外位置的Z坐标。
另外,通过范例,如图3B所示,复合声学感测波形41的峰值幅度将声学射束感测波形32识别作为主声学射束感测波形。如图3B所示,基于在复合声学感测波形41内的声学射束感测波形32的射束位置bp21,可以估计声学传感器21的平面内位置的X坐标。如图2C所示,基于声学射束感测波形32的峰值幅度的时间tp21,可以估计声学传感器21的平面内位置的Y坐标。与通过声学图像平面11内的声学传感器21可实现的声学射束感测波形31的最大峰值幅度相比较,如图2C所示,基于声学射束感测波形31的峰值幅度的量级VP21可以估计声学传感器21的平面外位置的Z坐标。
如图1A和1B所示,声学传感器20被示为比声学传感器21更靠近探头10和声学图像平面11。因此,如根据主声学射束波形31和32估计的声学传感器20和21的XYZ位置将反映声学传感器20比声学传感器21更靠近探头10和声学图像平面11。额外地,声学传感器20和21到声学传感器20和21的平面内XY位置和声学射束感测波形31和32的相位偏移两者的已知空间对齐22的比较充当用于估计声学传感器20和21到声学图像平面11的空间对齐22的角度取向θ的基础。本发明利用对声学传感器20和21的XYZ位置的估计和声学传感器20和21到声学图像平面11的已知空间对齐的角度取向θ的估计作为用于跟踪具有被附接到其中或嵌入其上的声学传感器20和21的介入工具的位置的基础。
例如,图4和5图示了在介入针50的远尖端上的声学传感器20和21的已知空间对齐。正因如此,对声学传感器20和21的XYZ位置的任何估计和声学传感器20和21到声学图像平面11的已知空间对齐的角度取向θ的估计提供介入针50的远尖端的位置。
具体地,图4A和4B图示了平行于声学图像平面11的X轴的介入针50和垂直于声学图像平面11的Y轴和Z轴的介入针50。声学传感器20输出在图5A中示出的主声学射束波形33,并且声学传感器21输出如图5A所示的主声学射束波形34,用于估计如本文先前描述的声学传感器20和21的XYZ位置。对于介入针50的该3D位置跟踪,零相位偏移PO和等于声学传感器20和21的已知空间距离的声学传感器20和21的平面内位置的距离指示介入针50的远尖端平行于探头10和声学图像平面11。
图4C和4D图示了垂直于声学图像平面11的X轴和Z轴的介入针50以及平行于声学图像平面11的Y轴的介入针50。声学传感器20输出在图5B中示出的主声学射束波形37,并且声学传感器21输出如图5B所示的主声学射束波形38,用于估计如本文先前描述的声学传感器20和21的XYZ位置。对于介入针50的该3D位置跟踪,非零相位偏移PO和等于声学传感器20和21的已知空间距离的声学传感器20和21的平面内位置的距离指示介入针50的远尖端垂直于探头10并且平行于声学图像平面11。
图4E和4F图示了相对于声学图像平面11的X轴和Y轴倾斜的介入针50。声学传感器20输出在图5C中示出的主声学射束波形35,并且声学传感器21输出如图5C所示的主声学射束波形36,用于估计如本文先前描述的声学传感器20和21的XYZ位置。对于介入针50的该3D位置跟踪,零相位偏移和小于声学传感器20和21的已知空间距离的声学传感器20和21的平面内位置的距离指示介入针50的远尖端平行于探头10并且相对于声学图像平面11倾斜。
根据图4和5,本领域技术人员将认识到,当相对于声学成像平面导航介入工具时,由声学传感器输出的复合声学感测波形的轮廓将改变,然而复合声学感测波形的轮廓中的相似性和差异性便于介入工具的3D相对位置跟踪。
而且,本领域技术人员将认识到,被执行用于估计声学传感器的XYZ位置和用于估计声学传感器的空间对齐的角度取向的方程将根据期望的跟踪分辨率而变化。
图6还图示了在女性患者FP的羊膜穿刺过程期间用于实施流程图80(图7)的跟踪工作站60。跟踪工作站60被结构地配置具有硬件/电路(例如,(一个或多个)处理器、存储器等),用于执行模块71-73的网络70,其被编程和安装为跟踪工作站60内的硬件/软件/固件。实际上,跟踪工作站60可以是独立工作站或被分布在多个工作站上。
在流程图80(图7)的阶段S81期间,超声扫描器71采用如本领域已知的技术,用于控制通过超声探头12的声学图像平面13的生成以便对女性患者FP内的胎儿进行成像。超声探头12将成像数据14提供至跟踪工作站60,其中,成像数据14表示女性患者FP的胎儿的2D超声图像15。
在流程图80(图7)的阶段S82期间,工具跟踪器72采用本发明的技术以确定介入针50的远尖端相对于声学图像平面13的3D位置。实际上,结合图1-5根据如本文先前描述的本发明的操作原理实施技术。在一个实施例中,工具跟踪器72实施如图8所示的流程图90,其通过从超声扫描器71至工具跟踪器72的线触发器74进行触发。
参考图6和8,流程图90的阶段S91包括工具跟踪器72处理复合声学感测波形(诸如,所示的复合声学感测波形42和43)的波形数据24。
流程图90的阶段S92包括工具跟踪器72估计如本文先前描述的每个声学传感器20和21的平面内XY位置。
流程图90的阶段S93包括工具跟踪器72估计如本文先前描述的声学传感器20和21的角度取向。
流程图90的阶段S94包括工具跟踪器72估计如本文先前描述的每个声学传感器20和21的平面外位置Z。
实际上,在涉及对于估计阶段S92-S94的仅仅最近复合声学感测波形的处理的瞬时基础上,或在涉及对于阶段S92-74的估计的一系列复合声学感测波形的处理的进展基础上,工具跟踪器72可以实施流程图90。
参考回到图6,在流程图80(图7)的阶段S83期间,图像跟踪器73采用本领域已知的技术,用于生成叠加在2D超声图像15的标准视图的介入针50的图标62的显示61。备选地或同时地,图像跟踪器71可以生成叠加在2D超声图像15的侧视图的介入工具50的图标62的显示63。
参考图1-8,本领域技术人员将认识到本发明的很多益处,包括但不限于,使用从2D声学成像设备生成的声学能量的介入工具的3D跟踪。
实际上,各种和很多策略可以被用于经由本发明的波形轮廓分析来细化介入工具的3D位置跟踪。例如,当复合声学感测波形和/或主声学射束波形的峰值幅度开始“稳定”时,这是介入工具明显靠近声学图像平面的指示。因此,跟踪分辨率可以被增加以细化介入工具的位置的跟踪的精确度。另外,通过范例,拟合复合声学感测波形和/或主声学射束波形的峰值幅度的图形可以被用于平滑波形以便实现更快的位置和角度取向估计。通过又一范例,声学图像平面的操作前校准也可以被用于更快的位置和角度取向估计。
尽管已经图示和描述了本发明的各个实施例,本领域技术人员将理解,如本文描述的本发明的实施例是说明性的,以及可以进行各种改变和修改,并且可以用等价方案代替其中的元素,而不脱离本发明的真实范围。另外,可以进行许多修改以适于本发明的教导,不脱离其中心范围。因此,旨在本发明不限于如预期用于实施本发明的最佳模式所公开的具体实施例,但是本发明包括落入附加权利要求的范围的所有实施例。
Claims (17)
1.一种声学成像系统,包括跟踪工作站(70),其被结构地配置为跟踪介入工具(50)相对于声学图像平面(11)的位置,多个声学传感器(20、21)相对于所述介入工具(50)空间对齐,所述多个声学传感器(20、21)中的每个被结构地配置为输出根据对声学图像平面(11)的声学感测导出的复合声学感测波形(40、41),每个复合声学感测波形(40、41)包括声学射束感测波形(30、31、32)的阵列,其中,
所述跟踪工作站(70)被结构地配置为跟踪所述介入工具(50)相对于所述声学图像平面(11)的位置,所述位置是根据对所述复合声学感测波形(40、41)的波形轮廓分析导出的,并且
通过所述跟踪工作站(70)对所述复合声学感测波形(40、41)的所述波形轮廓分析包括:根据对每个复合声学感测波形(40、41)的主声学射束感测波形(31、32)的轮廓识别对每个声学传感器(20、21)的平面内位置进行估计,其中,每个主声学射束感测波形(31、32)的幅度指示对应的声学传感器(20、21)的所述平面内位置。
2.根据权利要求1所述的声学成像系统,还包括:
探头(10),其被结构地配置为生成所述声学图像平面(11)。
3.根据权利要求2所述的声学成像系统,其中,所述探头(10)是超声探头。
4.根据权利要求1所述的声学成像系统,还包括所述介入工具(50)。
5.根据权利要求4所述的声学成像系统,其中,所述介入工具(50)是针或导管。
6.根据权利要求4所述的声学成像系统,其中,所述多个声学传感器(20、21)被嵌入所述介入工具(50)。
7.根据权利要求4所述的声学成像系统,其中,所述多个声学传感器(20、21)被附接到所述介入工具(50)。
8.根据权利要求1所述的声学成像系统,其中,每个主声学射束感测波形(31、32)的相位指示对应的声学传感器(20、21)的所述平面内位置。
9.根据权利要求1所述的声学成像系统,其中,通过所述跟踪工作站(70)对所述复合声学感测波形(40、41)的所述波形轮廓分析还包括:
根据对每个声学传感器(20、21)的所述平面内位置的所述估计对所述介入工具(50)相对于所述声学图像平面(11)的角度取向进行估计。
10.根据权利要求9所述的声学成像系统,其中,所述主声学射束感测波形的相位偏移指示所述介入工具(50)相对于所述声学图像平面(11)的所述角度取向。
11.根据权利要求9所述的声学成像系统,其中,在所述多个声学传感器(20、21)之间的至少一个空间距离指示所述介入工具(50)相对于所述声学图像平面(11)的所述角度取向。
12.根据权利要求1所述的声学成像系统,其中,通过所述跟踪工作站(70)对所述复合声学感测波形(40、41)的所述波形轮廓分析还包括:
根据每个主声学射束感测波形的幅度对每个声学传感器(20、21)的平面外位置进行估计。
13.根据权利要求12所述的声学成像系统,其中,每个主声学射束感测波形的幅度相对于轮廓最大幅度的比较指示每个声学传感器(20、21)的所述平面外位置。
14.一种用于基于多个声学传感器(20、21)相对于介入工具(50)的空间对齐来确定所述介入工具(50)的位置的装置,所述多个声学传感器(20、21)中的每个被结构地配置为输出根据对由声学成像设备(10)生成的声学图像平面(11)的声学感测导出的复合声学感测波形(40、41),每个复合声学感测波形(40、41)包括声学射束感测波形(30、31、32)的阵列,所述装置具有处理器和存储器,以运行被编码为执行以下步骤的模块:
操作所述声学成像设备(10)以生成所述声学图像平面(11);
操作工具跟踪器(72)以确定所述介入工具(50)相对于所述声学图像平面(11)的位置,所述位置是根据对所述复合声学感测波形(40、41)的波形轮廓分析导出的,其中,通过所述工具跟踪器(72)对所述复合声学感测波形(40、41)的所述波形轮廓分析包括:
根据对每个复合声学感测波形(40、41)的主声学射束感测波形(31、32)的轮廓识别对每个声学传感器(20、21)的平面内位置进行估计,其中,每个主声学射束感测波形(31、32)的幅度指示对应的声学传感器(20、21)的所述平面内位置。
15.根据权利要求14所述的装置,其中,通过所述工具跟踪器(72)对所述复合声学感测波形(40、41)的所述波形轮廓分析还包括:
根据对每个声学传感器(20、21)相对于所述声学图像平面(11)的所述平面内位置的所述估计对所述介入工具(50)相对于所述声学图像平面(11)的角度取向进行估计。
16.根据权利要求14所述的装置,其中,通过所述工具跟踪器(72)对所述复合声学感测波形(40、41)的所述波形轮廓分析还包括:
根据每个主声学射束感测波形的幅度对每个声学传感器(20、21)相对于所述声学图像平面(11)的平面外位置进行估计。
17.根据权利要求14所述的装置,所述装置具有处理器和存储器,以运行被编码为还执行以下步骤的模块:
操作图像跟踪器(73)以显示所述介入工具(50)相对于根据所述声学图像平面(11)导出的声学图像(13)的所确定的位置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361881500P | 2013-09-24 | 2013-09-24 | |
US61/881,500 | 2013-09-24 | ||
PCT/IB2014/064537 WO2015044831A1 (en) | 2013-09-24 | 2014-09-16 | Acoustic 3d tracking of interventional tool |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105578984A CN105578984A (zh) | 2016-05-11 |
CN105578984B true CN105578984B (zh) | 2021-02-26 |
Family
ID=51753260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480052625.0A Active CN105578984B (zh) | 2013-09-24 | 2014-09-16 | 介入工具的声学3d跟踪 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10660710B2 (zh) |
EP (1) | EP3049013B1 (zh) |
JP (1) | JP6253787B2 (zh) |
CN (1) | CN105578984B (zh) |
WO (1) | WO2015044831A1 (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11331070B2 (en) | 2015-12-31 | 2022-05-17 | Koninklijke Philips N.V. | System and method for probe calibration and interventional acoustic imaging |
WO2018060499A1 (en) * | 2016-09-30 | 2018-04-05 | Koninklijke Philips N.V. | Tracking a feature of an interventional device |
JP2020506749A (ja) * | 2017-01-19 | 2020-03-05 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 介入デバイスを撮像及び追跡するシステム並びに方法 |
CN112334073A (zh) * | 2018-06-15 | 2021-02-05 | 皇家飞利浦有限公司 | 相对设备取向确定 |
US20210251602A1 (en) * | 2018-08-22 | 2021-08-19 | Koninklijke Philips N.V. | System, device and method for constraining sensor tracking estimates in interventional acoustic imaging |
DE102018215470A1 (de) * | 2018-09-12 | 2020-03-12 | B. Braun Melsungen Ag | Verfahren zur Positionsermittlung einer medizinischen Invasivkomponente sowie medizinisches System zur Ausführung eines solchen Verfahrens |
JP7460613B2 (ja) * | 2018-10-25 | 2024-04-02 | コーニンクレッカ フィリップス エヌ ヴェ | 音響撮像における介入装置の先端の場所を推定するためのシステム、装置及び方法 |
US11944487B2 (en) * | 2018-11-15 | 2024-04-02 | Koninklijke Philips N.V. | Simultaneous sensor tracking in medical interventions |
EP3975859B1 (en) * | 2019-05-30 | 2024-02-28 | Koninklijke Philips N.V. | Relative location determining for passive ultrasound sensors |
JP2022534252A (ja) * | 2019-05-30 | 2022-07-28 | コーニンクレッカ フィリップス エヌ ヴェ | 符号化された同期された医療介入画像信号及びセンサ信号 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4407294A (en) * | 1982-01-07 | 1983-10-04 | Technicare Corporation | Ultrasound tissue probe localization system |
US5400788A (en) * | 1989-05-16 | 1995-03-28 | Hewlett-Packard | Apparatus that generates acoustic signals at discrete multiple frequencies and that couples acoustic signals into a cladded-core acoustic waveguide |
US5217018A (en) | 1989-05-16 | 1993-06-08 | Hewlett-Packard Company | Acoustic transmission through cladded core waveguide |
US6546276B1 (en) * | 2000-09-12 | 2003-04-08 | Claudio I. Zanelli | Ultrasonic based detection of interventional medical device contact and alignment |
JP2006220636A (ja) * | 2004-07-27 | 2006-08-24 | Matsushita Electric Works Ltd | 音波センサ |
JP4381344B2 (ja) * | 2005-05-17 | 2009-12-09 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | 超音波診断装置 |
EP2566394B1 (en) * | 2010-05-03 | 2016-12-14 | Koninklijke Philips N.V. | Ultrasonic tracking of ultrasound transducer(s) aboard an interventional tool |
WO2012172458A1 (en) * | 2011-06-13 | 2012-12-20 | Koninklijke Philips Electronics N.V. | Three-dimensional needle localization with a two-dimensional imaging probe |
JP6219835B2 (ja) | 2011-10-28 | 2017-10-25 | ディスィジョン サイエンシズ インターナショナル コーポレーション | 超音波イメージングにおけるスペクトル拡散符号化波形 |
WO2014191262A2 (en) | 2013-05-31 | 2014-12-04 | Koninklijke Philips N.V. | Assisting apparatus for assisting a user during an interventional procedure |
-
2014
- 2014-09-16 JP JP2016543475A patent/JP6253787B2/ja active Active
- 2014-09-16 WO PCT/IB2014/064537 patent/WO2015044831A1/en active Application Filing
- 2014-09-16 EP EP14786717.0A patent/EP3049013B1/en active Active
- 2014-09-16 CN CN201480052625.0A patent/CN105578984B/zh active Active
- 2014-09-16 US US15/023,943 patent/US10660710B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP6253787B2 (ja) | 2017-12-27 |
WO2015044831A1 (en) | 2015-04-02 |
US20160242856A1 (en) | 2016-08-25 |
CN105578984A (zh) | 2016-05-11 |
JP2016530978A (ja) | 2016-10-06 |
US10660710B2 (en) | 2020-05-26 |
EP3049013B1 (en) | 2017-11-15 |
EP3049013A1 (en) | 2016-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105578984B (zh) | 介入工具的声学3d跟踪 | |
JP7165181B2 (ja) | 超音波イメージングプレーンと器具のアライメント及び追跡 | |
EP2717772B1 (en) | Three-dimensional needle localization with a two-dimensional imaging probe | |
JP6782688B2 (ja) | 介入処置の3d撮像ワークフローにおける器具及び生体構造のインテリジェントかつリアルタイムな可視化 | |
Boctor et al. | Rapid calibration method for registration and 3D tracking of ultrasound images using spatial localizer | |
EP2769689B1 (en) | Computer-implemented technique for calculating a position of a surgical device | |
Vrooijink et al. | Real-time three-dimensional flexible needle tracking using two-dimensional ultrasound | |
Kim et al. | Ultrasound probe and needle-guide calibration for robotic ultrasound scanning and needle targeting | |
US9052384B2 (en) | System and method for calibration for image-guided surgery | |
US20120071757A1 (en) | Ultrasound Registration | |
EP2745268B1 (en) | Automatic online registration between a robot and images | |
JP7089521B2 (ja) | 高速且つ自動化された超音波プローブ校正のためのシステム及び方法 | |
KR20080017275A (ko) | 주파수 외삽을 사용하는 왜곡-면역 위치 추적 | |
JP2020506005A (ja) | 装置追跡に対する超音波システムにおける経路追跡 | |
US10682126B2 (en) | Phantom to determine positional and angular navigation system error | |
Mohareri et al. | Automatic localization of the da Vinci surgical instrument tips in 3-D transrectal ultrasound | |
Adebar et al. | 3D segmentation of curved needles using Doppler ultrasound and vibration | |
Shahriari et al. | Steering an actuated-tip needle in biological tissue: Fusing FBG-sensor data and ultrasound images | |
Adebar et al. | Registration of 3D ultrasound through an air–tissue boundary | |
Hartov et al. | Adaptive spatial calibration of a 3D ultrasound system | |
Ahmad et al. | Calibration of 2D ultrasound in 3D space for robotic biopsies | |
Zhao et al. | Tracking biopsy needle using Kalman filter and RANSAC algorithm with 3D ultrasound | |
Onogi et al. | An accurate calibration method of ultrasound images by center positions of a metal ball | |
Najafi et al. | A closed-form differential formulation for ultrasound spatial calibration | |
Xu et al. | Error analysis of a 3D ultrasound-based robotic system for hepatic tumors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |