CN113015489A - 用于在声学成像中估计介入设备的尖端的位置的系统和方法 - Google Patents
用于在声学成像中估计介入设备的尖端的位置的系统和方法 Download PDFInfo
- Publication number
- CN113015489A CN113015489A CN201980070557.3A CN201980070557A CN113015489A CN 113015489 A CN113015489 A CN 113015489A CN 201980070557 A CN201980070557 A CN 201980070557A CN 113015489 A CN113015489 A CN 113015489A
- Authority
- CN
- China
- Prior art keywords
- interventional device
- acoustic
- tip
- image plane
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 79
- 238000000034 method Methods 0.000 title claims abstract description 43
- 239000000523 sample Substances 0.000 claims description 59
- 230000004044 response Effects 0.000 claims description 23
- 238000003780 insertion Methods 0.000 claims description 14
- 230000037431 insertion Effects 0.000 claims description 14
- 238000002592 echocardiography Methods 0.000 claims description 12
- 238000012544 monitoring process Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 4
- 239000003550 marker Substances 0.000 description 18
- 238000002604 ultrasonography Methods 0.000 description 15
- 230000015654 memory Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 6
- 239000002033 PVDF binder Substances 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 229920002981 polyvinylidene fluoride Polymers 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013152 interventional procedure Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000012285 ultrasound imaging Methods 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000001990 intravenous administration Methods 0.000 description 2
- 238000007789 sealing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- XPIIYLUXKKHAPJ-UHFFFAOYSA-N 1,1,2-trifluoroethene;hydrofluoride Chemical group F.FC=C(F)F XPIIYLUXKKHAPJ-UHFFFAOYSA-N 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 210000001765 aortic valve Anatomy 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005530 etching Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000036512 infertility Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000005248 left atrial appendage Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 210000004115 mitral valve Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 229920001897 terpolymer Polymers 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
- A61B8/0841—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
- A61B8/14—Echo-tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/463—Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/149—Segmentation; Edge detection involving deformable models, e.g. active contour models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Abstract
声学成像装置和方法从被设置在介入设备的表面上的无源传感器接收传感器信号,所述介入设备被设置在感兴趣区中,其中,所述无源传感器位于距所述介入设备的尖端固定距离处。处理器被配置为通过使用所述传感器信号以及从所述无源传感器到所述介入设备的所述尖端的被投影到图像平面上的估计有效距离来确定所述介入设备的所述尖端在所述图像平面中的估计位置范围。
Description
技术领域
本发明涉及声学(例如超声)成像,并且特别涉及与介入流程结合使用的用于在声学图像中估计仪器的尖端的位置的系统、设备和方法。
背景技术
在各种应用和环境中越来越多地采用声学(例如超声)成像系统。例如,在超声引导的医学流程的环境中越来越多地采用超声成像。
已知诸如导管和针之类的介入设备,它们在其表面上的靠近尖端的位置处设置有传感器,以用于在由声学成像系统产生的声学图像中识别介入仪器。例如,美国专利US4249539描述了一种装置,在该装置中,医学针包括超声换能器,该超声换能器对由超声成像系统发射的超声信号做出响应。在检测到来自超声成像系统的超声脉冲时,连接到换能器的电路通过从换能器生成返回超声脉冲或者通过使用飞行时间延迟对这样的返回脉冲的模拟来触发将换能器位置的指示插入到超声图像中。
为了成功地使用一个或多个针来执行介入流程,这一个或多个针的(一个或多个)尖端是关注的焦点。因此,在超声引导的医学流程中,医师希望能够在被显示在显示屏或监视器上的声学图像中可视地定位针尖(或导管尖端)的当前位置。为了确保安全,所显示的针尖位置一定不能滞后于实际的尖端位置。
然而,对于许多介入设备(例如,针)来说,将传感器或跟踪设备正确地放置在设备的尖端处是不可能的或不切实际的。这样的仪器的机械约束限制了随意放置传感器(例如放置在可能干扰插入的针尖处)的能力。
由于无法将传感器放置在介入设备(例如,针)的尖端上,因此传感器在针轴杆上的位置会从尖端偏移距离D,该距离D可能因设备而异。对于一些典型的仪器,距离D可以是大约1.5-2mm。通过在超声图像上标绘一个圆而使得尖端位于所显示的圆上或其内部,可以将传感器的位置可视地传送给最终用户。临床医生通常使用他们的判断来确定尖端在圆内的位置。减少这种不确定性区域的能力对于确保介入流程的安全执行非常有益。
如美国专利申请公开物US 2018/00044所公开的,使用两个或更多个传感器可以解决该问题,但是这会增加介入设备和声学成像系统的成本,这在低裕度流程中可能是至关重要的。
因此,期望提供这样的系统和方法:其能够在声学图像中提供对诸如外科手术针之类的介入设备的尖端的位置的更准确的估计。特别地,期望提供能够与被设置在介入设备的表面上的单个传感器一起操作的这样的系统和方法。
发明内容
在本发明的一个方面,一种系统包括:声学探头,其具有声学换能器元件的阵列;以及声学成像仪器,其被连接到所述声学探头并被配置为向所述声学换能器元件中的至少一些声学换能器元件提供发射信号,以使声学换能器元件的所述阵列将声学探头信号发射到感兴趣区,并且所述声学成像仪器还被配置为响应于声学回波而产生所述感兴趣区的图像平面的声学图像,所述声学回波是响应于所述声学探头信号而从所述感兴趣区接收到的。所述声学成像仪器包括:显示设备,其被配置为显示所述感兴趣区中的所述图像平面的所述声学图像;接收器接口,其被配置为从被设置在介入设备的表面上的无源传感器接收传感器信号,所述介入设备被设置在所述感兴趣区中,所述传感器信号是响应于所述声学探头信号而产生的,其中,所述无源传感器位于距所述介入设备的尖端固定距离(D)处。处理器被配置为:根据所述传感器信号来识别所述无源传感器的估计位置,确定所述介入设备相对于所述图像平面的近似角度取向,并且使用所述无源传感器的所述估计位置、所述介入设备相对于所述图像平面的所述近似角度取向以及从所述无源传感器到所述介入设备的所述尖端的已知距离来确定所述介入设备的所述尖端在所述图像平面中的估计位置范围。所述显示设备还被配置为显示一个或多个标记,以在所述声学图像上指示所述介入设备的所述尖端在所述图像平面中的所述估计位置范围。
在一些实施例中,所述一个或多个标记包括圆,所述圆在其大部分圆周上具有第一颜色,并且在小于90度的弧上具有第二颜色,其中,所述第二颜色指示所述介入设备的所述尖端的最可能的位置。
在一些实施例中,所述介入设备是外科手术针。
在一些实施例中,所述处理器被配置为通过以下操作来确定所述介入设备的所述尖端在所述图像平面中的所述估计位置范围:基于所述介入设备相对于所述图像平面的所述近似角度取向以及从所述无源传感器到所述介入设备的所述尖端的所述固定距离来确定在所述图像平面中所述无源传感器与所述介入设备的所述尖端之间的有效的平面内的尖端到传感器的距离。
在一些实施例中,所述处理器被配置为通过使用所述介入设备的先前位置的历史以及通过采用卡尔曼模型对所述介入设备的未来路径的预测来确定所述介入设备相对于所述图像平面的所述近似角度取向。
在一些实施例中,所述处理器被配置为通过监测所述介入设备在患者内的插入点以估计所述针的轨迹来确定所述介入设备相对于所述图像平面的所述近似角度取向。
在一些实施例中,所述处理器被配置为通过在所述声学图像中分割所述介入设备的轴杆来确定所述介入设备相对于所述图像平面的所述近似角度取向。
在一些实施例中,所述处理器被配置为通过寻找与以下各项的最佳拟合匹配来确定所述介入设备相对于所述图像平面的所述近似角度取向:所述介入设备的先前位置的历史以及通过采用卡尔曼模型对所述介入设备的未来路径的预测;监测到的所述介入设备在患者内的插入点;以及在所述声学图像中分割的所述介入设备的轴杆。
在本发明的另一方面,一种方法包括:向感兴趣区发射声学探头信号;响应于声学回波而产生所述感兴趣区的图像平面的声学图像,所述声学回波是响应于所述声学探头信号而从所述感兴趣区接收到的;从被设置在所述感兴趣区中的介入设备的表面上的无源传感器接收传感器信号,所述传感器信号是响应于所述声学探头信号而产生的,其中,所述无源传感器位于距所述介入设备的尖端固定距离(D)处;根据所述传感器信号来识别所述无源传感器的估计位置;确定所述介入设备相对于所述图像平面的近似角度取向;使用所述无源传感器的所述估计位置、所述介入设备相对于所述图像平面的所述近似角度取向以及从所述无源传感器到所述介入设备的所述尖端的已知距离来确定所述介入设备的所述尖端在所述图像平面中的估计位置范围;在显示设备上显示所述声学图像;并且在所述显示设备上显示一个或多个标记,以在所述声学图像上指示所述介入设备的所述尖端在所述图像平面中的所述估计位置范围。
在一些实施例中,所述一个或多个标记包括圆,所述圆在其大部分圆周上具有第一颜色,并且在小于90度的弧上具有第二颜色,其中,所述第二颜色指示所述介入设备的所述尖端的最可能的位置。
在一些实施例中,所述介入设备是外科手术针。
在一些实施例中,确定所述介入设备的所述尖端在所述图像平面中的所述估计位置范围包括:基于所述介入设备相对于所述图像平面的所述近似角度取向以及从所述无源传感器到所述介入设备的所述尖端的所述固定距离来确定在所述图像平面中所述无源传感器与所述介入设备的所述尖端之间的有效的平面内的尖端到传感器的距离。
在一些实施例中,确定所述介入设备相对于所述图像平面的所述近似角度取向包括:使用所述介入设备的先前位置的历史以及通过采用卡尔曼模型对所述介入设备的未来路径的预测。
在一些实施例中,确定所述介入设备相对于所述图像平面的所述近似角度取向包括:监测所述介入设备在患者内的插入点以估计所述针的轨迹。
在一些实施例中,确定所述介入设备相对于所述图像平面的所述近似角度取向包括:在所述声学图像中分割所述介入设备的轴杆。
在一些实施例中,确定所述介入设备相对于所述图像平面的所述近似角度取向包括:寻找与以下各项的最佳拟合匹配:所述介入设备的先前位置的历史以及通过采用卡尔曼模型对所述介入设备的未来路径的预测;监测到的所述介入设备在患者内的插入点;以及在所述声学图像中分割的所述介入设备的轴杆。
在本发明的又一方面,一种声学成像仪器包括:接收器接口,其被配置为从被设置在介入设备的表面上的无源传感器接收传感器信号,所述介入设备被设置在感兴趣区中,其中,所述无源传感器位于距所述介入设备的尖端固定距离(d)处;以及处理器,其被配置为确定所述介入设备的所述尖端在由所述声学成像仪器成像的图像平面中的估计位置范围。所述处理器被配置为根据所述传感器信号以及从所述无源传感器到所述介入设备的所述尖端的被投影到所述图像平面上的估计有效距离来确定所述介入设备的所述尖端在所述图像平面中的所述估计位置范围。
在一些实施例中,所述仪器还包括显示设备,所述显示设备被配置为显示所述感兴趣区中的所述图像平面的声学图像以及在所述声学图像上指示所述介入设备的所述尖端在所述图像平面中的所述估计位置范围的一个或多个标记。
在一些实施例中,所述一个或多个标记包括圆,所述圆在其大部分圆周上具有第一颜色,并且在小于90度的弧上具有第二颜色,其中,所述第二颜色指示所述介入设备的所述尖端的最可能的位置。
在一些实施例中,所述一个或多个标记包括第一圆,所述第一圆的圆周限定所述介入设备的所述尖端在所述图像平面中的所述估计位置范围,其中,所述显示设备还被配置为显示第二圆,所述第二圆的直径等于从所述无源传感器到所述介入设备的所述尖端的所述固定距离。
附图说明
图1示出了声学成像系统的一个示例,该声学成像系统包括声学成像仪器和声学探头。
图2图示了介入设备的一个示例实施例,该介入设备具有在其远端处距顶部一定距离设置的传感器。
图3图示了将根据从声学传感器接收的传感器信号产生的成像与从声学探头产生的声学图像进行叠加的过程的示例实施例。
图4图示了使用声学成像仪器和声学探头的平面内成像和平面外成像以及从声学传感器接收的传感器信号。
图5图示了图像平面、介入设备的尖端与在距尖端距离D处设置在介入设备的表面上的传感器之间的关系。
图6图示了图像平面中的有效的尖端到传感器的距离与实际的尖端到传感器的距离之间的比率R,该比率R是涉及图像平面和从传感器延伸到尖端的线的角度的函数。
图7图示了改善声学图像中的介入设备的尖端的估计位置的方法的一个示例实施例。
图8图示了用于示出声学图像中的介入设备的尖端的估计位置的各种可视化选项。
图9图示了改善对声学图像中的介入设备的尖端的位置的估计的方法的示例实施例的流程图。
具体实施方式
现在将在下文中参考附图来更全面地描述本发明,在附图中示出了本发明的优选实施例。然而,本发明可以以不同的形式来实施,并且不应被解释为限于本文阐述的实施例。相反,提供这些实施例作为本发明的教导示例。在本文中,当某物被称为“近似”或“大约”某个特定值时,表示其在该值的10%以内。
为了说明本发明的原理,描述了各种系统,其中,在由2D声学成像探头发射的波束所限定的声场的图像平面内确定以外科手术针为例的介入设备的尖端的位置。然而,将意识到,本发明还可以应用于确定其他介入设备的位置,所述其他介入设备例如为导管、导丝、探头、内窥镜、电极、机器人、过滤设备、球囊设备、支架、二尖瓣夹、左心耳闭合设备、主动脉瓣、起搏器、静脉内管线、引流管线、外科手术工具(例如,组织密封设备或组织切割设备)。
还将意识到,本发明可以应用于在具有被布置为提供平面图像的其他类型的成像探头和其他类型的声学阵列的波束形成声学成像系统,例如,2D声学成像探头的线性阵列、经直肠超声探头、血管内声学探头、经食道探头、经胸探头、经鼻探头、心内探头等。
图1示出了声学成像系统100的一个示例,该声学成像系统100包括声学成像仪器110和声学探头120。声学成像仪器110包括处理器(和相关联的存储器)112、发射单元113、用户接口114、接收单元115、显示设备116和接收器接口118,它们如图1所示的那样连接。
在各种实施例中,处理器112可以包括微处理器(和相关联的存储器)、数字信号处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、数字电路和/或模拟电路的各种组合。与处理器112相关联的存储器(例如,非易失性存储器)可以在其中存储有计算机可读指令,该计算机可读指令使处理器112的微处理器执行算法以控制声学成像系统100执行下面更详细描述的一个或多个操作或方法。该指令可以被存储在计算机程序产品上。该计算机程序产品可以由专用硬件以及能够与适当的软件相关联地执行软件的硬件来提供。当由处理器提供功能时,该功能能够由单个专用处理器、单个共享处理器或多个独立的处理器(其中一些处理器可以共享)来提供。此外,对术语“处理器”或“控制器”的明确使用不应被解释为专门指能够执行软件的硬件,而是能够隐含地包括但不限于数字信号处理器“DSP”硬件、用于存储软件的只读存储器“ROM”、随机存取存储器“RAM”、非易失性存储装置等。此外,本发明的实施例能够采用可从计算机可用或计算机可读存储介质访问的计算机程序产品的形式,该计算机程序产品提供用于由计算机或任何指令执行系统使用或与之结合使用的程序代码。为了这种描述的目的,计算机可用或计算机可读存储介质能够是可以包括、存储、通信、传播或传输供指令执行系统、装置或设备使用或与之结合使用的程序的任何装置。该介质能够是电子、磁性、光学、电磁、红外或半导体系统或装置或设备或传播介质。计算机可读介质的示例包括半导体或固态存储器、磁带、可移动计算机磁盘、随机存取存储器“RAM”、只读存储器“ROM”、刚性磁盘和光盘。光盘的当前示例包括压缩盘-只读存储器“CD-ROM”、压缩盘-读/写“CD-R/W”、Blu-RayTM和DVD。
在一些实施例中,微处理器可以执行操作系统。在一些实施例中,微处理器可以执行指令,该指令经由用户接口114和显示设备116向声学成像系统100的用户呈现图形用户接口(GYI)。
在各种实施例中,用户接口114可以包括键盘、按键、鼠标、轨迹球、触控笔/触摸笔、操纵杆、麦克风、扬声器、触摸屏、一个或多个开关、一个或多个旋钮、一个或多个按钮、一个或多个灯等的任何组合。在一些实施例中,处理器112的微处理器可以执行软件算法,该软件算法经由用户接口114的麦克风来提供对用户命令的语音识别。
显示设备116可以包括任何便捷技术的显示屏(例如,液晶显示器)。在一些实施例中,显示屏可以是触摸屏设备,其也形成用户接口114的部分。
发射单元113可以在处理器112的控制下生成一个或多个电学发射信号,并且将该电学发射信号提供给声学探头120。发射单元113可以包括本领域中已知的各种电路,例如,时钟发生器电路、延迟电路和脉冲发生器电路。时钟发生器电路可以是用于生成时钟信号的电路,该时钟信号用于设置驱动信号的发射定时和发射频率。延迟电路可以是用于针对与声学探头120的换能器元件相对应的个体路径设置驱动信号的发射定时中的延迟时间的电路,并且可以使驱动信号的传输延迟所设置的延迟时间以集中声学波束而产生具有所期望的轮廓的声学探头信号15,从而对所期望的图像平面进行声处理。脉冲发生器电路可以是用于以预定周期生成脉冲信号作为驱动信号的电路。
有益地,声学探头120可以包括声学换能器元件122的阵列(参见图3),例如,2D阵列。例如,在一些实施例中,换能器元件122可以包括压电元件。在操作中,声学换能器元件122中的至少一些声学换能器元件接收来自声学成像仪器110的发射单元113的电学发射信号,并且将该电学发射信号转换为声学波束,以使声学换能器元件122的阵列将声学探头信号15发射到感兴趣区10。声学探头120可以对感兴趣区10中的图像平面和该图像平面的任一侧上的相对较小的区域(即,其扩展到浅视场)进行声处理。
而且,声学探头120的声学换能器元件122中的至少一些声学换能器元件响应于声学探头信号15而从感兴趣区10接收声学回波,并且将该声学回波转换为电学接收信号,该电学接收信号被传送到接收单元115。
接收单元115被配置为:接收来自声学探头120的换能器元件122的电学接收信号,并且处理该电学接收信号以产生声学数据。接收单元115可以包括本领域中已知的各种电路,例如,一个或多个放大器、一个或多个A/D转换电路以及相位加法电路。放大器可以是用于以与换能器元件122相对应的个体路径的放大因子来放大电学接收信号的电路。A/D转换电路可以是用于对经放大的电学接收信号执行模拟/数字转换(A/D转换)的电路。相位加法电路是用于通过以下操作来调整对其执行A/D转换的经放大的电学接收信号的时间相位的电路:对分别与换能器元件122相对应的个体路径施加延迟时间,并且将经调整的接收到的信号相加(相位加法)来生成声学数据。
处理器112可以将从接收器单元115接收的声学数据重建成与拦截感兴趣区10的图像平面相对应的声学图像,并且随后使显示设备116显示该图像。经重建的图像可以例如是超声亮度模式“B模式”图像(或者被称为“2D模式”图像)、“C模式”图像或多普勒模式图像,或者实际上是任何超声平面图像。
声学成像仪器110还可以包括接收器接口118,该接收器接口118被配置为从外部无源声学传感器接收一个或多个电学信号(传感器信号),该无源声学传感器例如为被设置在介入设备的远端(尖端)22附近的声学接收器,如下面(特别是关于图2)将更详细地描述的那样。
当然,应当理解,声学成像仪器110可以包括未在图1中示出的许多其他元件,例如,用于从AC干线接收电力的电力系统、用于处理器112与声学探头120之间的通信的输入/输出端口、用于(例如经由无线、以太网和/或互联网连接)与其他外部设备和系统进行通信的通信子系统等。
图2图示了介入设备20的一个示例实施例,该介入设备20具有在其远端或尖端22附近设置的声学传感器(例如,无源声学传感器)23。声学传感器23适于检测由诸如图1的声学成像系统100之类的波束形成声学成像系统的超声换能器阵列发射的超声信号。声学传感器23被提供在介入设备20的轴杆21的表面上,处于距介入设备20的尖端22预定距离D处。
任选地,介入设备20还可以包括被设置在介入设备20的轴杆21上的数据载体24。数据载体24可以包括指示介入设备20的类型T的数据。此外,当由声学成像仪器110的处理器112接收时,该数据使处理器112执行以下操作:i)对于类型T的介入设备,确定声学传感器23与介入设备20的尖端22之间的距离D;以及ii)使用距离D的知识在经重建的超声图像中指示介入设备20的尖端22在声学图像中的(一个或多个)估计位置。
在图2中,数据载体24可以例如是条形码(例如,线性或矩阵条形码或QR码)、RFID芯片、存储器或者实际上是任何机器可读数据载体。数据载体可以通过包括粘合剂的各种已知手段被附接到介入设备,或者可以通过印刷、蚀刻等来得到应用。而且,虽然被示为被设置在介入设备20上,但是例如出于无菌原因,数据载体24可以替代地被定位在介入设备20的包装上。因此,当介入设备20与声学成像系统100一起使用时,由处理器112接收的数据能够实现改善确定介入设备20的尖端22相应于声学成像系统100的图像平面的位置的技术效果。
在一些实施例中,可以省去数据载体24。在这种情况下,声学传感器23与介入设备20的尖端22之间的距离D可以通过其他技术与声学成像系统100的处理器112通信。例如,在一些实施例中,声学成像系统100的临床医生或用户可以经由用户接口114直接输入距离D。在其他实施例中,与处理器112相关联的存储器(例如,非易失性存储器)可以存储查找表,该查找表包含针对介入设备20的多种不同类型的模型的条目,其中,每个条目包括设备类型或型号以及对应的距离D。在这种情况下,声学成像系统100的临床医生或用户可以经由用户接口114输入类型或型号,并且处理器112可以从查询表中确定对应的距离D。在声学成像仪器110包括用于访问远程计算机网络(例如,互联网)的通信端口的其他实施例中,处理器112可以访问远程数据库以确定声学传感器23与介入设备20的尖端22之间的距离D。可以预想到其他布置。
有益地,图1和图2中图示的声学传感器23可以是无源传感器并且可以由多种压电材料(硬压电材料和软压电材料均适用)来提供。在一些实施例中,声学传感器23可以包括聚偏二氟乙烯,其也被称为PVDF,其机械性能和制造工艺使其自身附接到弯曲表面(例如,针)。替代材料包括PVDF共聚物(例如,聚偏二氟乙烯三氟乙烯)、PVDF三元共聚物(例如,5P(VDF-TrFE-CTFE))。声学传感器23可以包括未在图2中示出的各种有线或无线通信模块,这些通信模块用于将响应于检测到的声学信号而生成的传感器信号与接收器接口118进行通信。有益地,可以将单个(即,一个且只有一个)这样的声学传感器23设置在介入设备20上。有利地,这简化了介入设备20的形状因数、可能存在的任何电互连以及任何检测到的声学信号的处理。
如以下更详细地描述的,在一些实施例中,声学成像仪器110的处理器112可以使用由接收器接口118从被设置在介入设备20上的无源声学传感器23接收的一个或多个传感器信号来在根据由声学探头120接收的回波产生的声学数据生成的声学图像中跟踪介入设备20(并且特别是介入设备20的尖端22)的位置。
在各种实施例中,介入设备20可以包括针、导管、导丝、探头、内窥镜、静脉内管线、引流管线、外科手术工具(例如,组织密封设备或组织切割设备)等。
图3图示了将根据从传感器(例如,无源声学传感器23)接收的一个或多个传感器信号产生的成像与根据由声学探头(例如,声学探头120)接收的声学回波产生的声学图像进行叠加的过程的示例实施例。
如图3所示,声学探头120利用声学探头信号15照射感兴趣区10,并且响应于声学探头信号15而从感兴趣区10接收声学回波。声学成像仪器(例如,声学成像仪器110)响应于声学回波而产生感兴趣区10的声学图像310,该声学回波是响应于声学探头信号15而从感兴趣区10接收到的。特别地,声学探头120可以响应于声学回波而将一个或多个电学接收信号(电学信号)传送到声学成像仪器110,该声学回波是响应于声学探头信号15而从感兴趣区10接收到的,并且声学成像仪器110可以根据(一个或多个)电学接收信号来产生声学图像310。
同时,接收器接口(例如,接收器接口118)从被设置在介入设备(例如,设备20)的表面上的无源声学传感器(例如,无源声学传感器23)接收一个或多个电学传感器信号,该介入设备被设置在感兴趣区10中,这一个或多个传感器信号是响应于声学探头信号15而产生的。
处理器(例如,处理器112)执行算法以根据来自无源声学传感器23的一个或多个传感器信号来确定或判定声学传感器210在感兴趣区10中的估计位置范围。图像315图示了由处理器112获得的传感器数据,其示出了标识无源声学传感器23的估计位置范围的标记23-2。例如,处理器112可以采用一种算法来检测根据来自无源声学传感器23的一个或多个传感器信号产生的传感器数据中的最大值或强度峰值,并且可以判定或确定与传感器数据中的强度峰值的位置相对应的无源声学传感器23的估计位置范围。这里,应当理解,通常,由于噪声和其他因素,对无源声学传感器23的跟踪可能不是非常准确的,因此标记23-2可以适应预定的跟踪误差或不确定性,在一些实施例中,通常将无源声学传感器23的估计位置范围显示为圆形标记,并且以最可能的位置为中心,并且圆的半径对应于预计的不确定性(例如0.5-1.0mm),从而使标记23-2在0.5-1.0mm的范围内。然后,声学成像仪器110可以将图像315中所图示的传感器数据与声学图像310进行叠加以生成叠加的声学图像320,该叠加的声学图像320包括指示无源声学传感器23的估计位置范围的标记23-2。
上面参考图3描述的过程允许显示指示传感器(例如,无源声学传感器23)在声学图像中的估计位置范围的标记。
然而,如上所述,在超声引导的医学流程中,医师希望能够在被显示在显示屏或监视器上的声学图像中可视地定位针尖(或导管尖端)22的当前位置。
下面描述了利用无源传感器的声学图像中的已知位置来提供对介入设备的尖端在声学图像中的位置的改善的估计的系统和方法,该无源传感器被设置在距介入设备的尖端已知距离处。
特别地,对于平面内成像或近平面内成像,声学成像系统100(并且特别是处理器112)可以被配置为确定介入设备(例如,介入设备20)相对于声学成像的图像平面的近似角度取向,并且可以使用该信息来提供对尖端22在声学图像中的位置的改善的估计。
图4图示了使用声学成像仪器和声学探头以及从声学传感器接收的传感器信号进行的平面内成像和平面外成像。
特别地,图4在顶部示出了用于说明平面内成像的三个图示,并且在底部示出了用于说明平面外成像的三个对应图示。
从顶部开始,图4图示了图示410a,图示410a示出了声学探头120对图像平面412a进行声处理,其中,作为平面内成像的示例,介入设备(针)20被设置在图像平面412a中或者相对于图像平面412a成小角度。在图示410a的右侧示出了尖端跟踪显示的图示420a,该尖端跟踪显示用于在平面内成像的情况下跟踪尖端22在图像平面412a中的位置。这里,尖端跟踪显示包括标记422a,该标记422a指示针20的尖端22在图像平面中的估计位置范围。最后,在图示420a的右侧是在平面内成像的情况下的图像平面412a的解剖特征和针20的声学图像430a的图示。被叠加在声学图像430a上的是标记24-4a,标记24-4a指示针20的尖端22的估计位置范围。
下面继续说明,图4还示出了图示410b,图示410b示出了声学探头120对图像平面412a进行声处理,其中,作为平面外成像的示例,被标示为1、2和3的三个介入设备被设置为从图像平面412b垂直向外。在图示410b的右侧示出了尖端跟踪显示的图示420b,该尖端跟踪显示用于在平面外成像的情况下跟踪介入设备1、2和3的尖端在图像平面中的位置。这里,尖端跟踪显示包括指示针对介入设备1、2和3中的每个介入设备的尖端在图像平面中的估计位置范围的标记。对于尖端在图像平面412b中或非常接近图像平面412b的介入设备1,标记指示针对尖端的相对较小的估计位置范围,该估计位置范围基本上对应于从声学传感器(例如,声学传感器23)到顶部(例如,尖端22)的距离D。对于其尖端距图像平面412b相对较远的介入设备2和3,示出了两个标记:较小的标记指示在尖端在成像平面412b中的情况下尖端的估计位置范围应为多大;而较大的标记考虑到了由于尖端距图像平面412b的距离而产生的尖端位置的额外的不确定性。最后,在图示420b的右侧是在平面外成像的情况下图像平面412a的解剖特征和介入设备2的声学图像430a的图示。如上所述,标记22-4b1和22-4b2被叠加在声学图像430a上,标记22-4b1和22-4b2指示针20的尖端22的估计位置范围。
发明人已经意识到:可以通过以下操作来获得在平面内成像的情况下对介入设备的尖端在声学图像中的估计位置范围的改善:估计介入设备相对于图像平面的取向角度,并且使用所估计的取向角度来判定从无源传感器到图像平面中的尖端的有效距离,其中,该有效距离可以小于无源传感器与尖端之间的实际物理距离。现在将关于图5-9来提供解释。
图5图示了图像平面、介入设备的尖端与在距尖端距离D处设置在介入设备的表面上的传感器之间的关系。这里,图像平面被示为XZ平面。θ是介入设备(例如,针)20的轴杆与XY平面中的投影之间的角度。ψ是XY平面中的投影与X轴之间的角度。D是声学传感器23与介入设备20的尖端22之间的实际物理距离,并且d是在图像平面(XZ平面)中声学传感器23与介入设备20的尖端22之间的有效距离。此外,发现图4中所示的x、y和z是:
(1) x=D*(cosψ)*(cosθ)
(2) y=D*(cosθ)*(cosψ)
(3) x=D*(sinθ)
在这种情况下,能够示出:
如果是介入设备20相对于图像平面完全在平面内的情况,则:ψ=0,x=0;y=0;z=D*sinθ;并且有效的声学传感器到尖端的距离d=D。
如果是介入设备20相对于图像平面完全在平面外的情况,则:ψ=90°,x=0;y=D*cosθ;z=D*sinθ;并且有效的声学传感器到尖端的距离d=D*sinθ<D。
还能够示出,对于其中ψ=45°并且θ=45°的“平均”平面外状况,则d≈0.886D。此外,对于其中ψ=45°并且θ=60°的几乎平均平面外情况,则d≈0.93D。
图6图示了图像平面中的有效的声学传感器到尖端的距离d与实际的声学传感器到尖端的距离D之间的比率R,该比率R是涉及图像平面和从声学传感器23延伸到尖端22的线的角度的函数。特别地,图6图示了对于在计算中使用的所有可能的平面内角度和平面外角度来说在图像平面中的有效的声学传感器到尖端的距离d,其作为实际的声学传感器到尖端的距离D的比率R,在该计算中允许ψ和θ的范围分别在0到90度之间。在大多数流程中,比率R在0.5到0.9之间变化,这具有基于所确定的声学传感器的位置和已知的实际的声学传感器到尖端的距离D来提供尖端22在声学图像中的改善的估计位置范围的能力。
发明人还意识到:可以通过以下操作来获得在平面内成像的情况下对介入设备的尖端在声学图像中的估计位置范围的改善:估计介入设备相对于图像平面的取向角度,并且使用所估计的取向角度将声学传感器周围的半径等于有效的声学传感器到尖端的距离d的圆上的小于360°(最好小于90°)的弧标识为尖端22的估计位置范围。
图7图示了改善介入设备的尖端在声学图像中的估计位置的方法的一个示例实施例。图7中图示的方法可以在执行被存储在存储器中的指令的处理器(例如,处理器112)的控制下由声学成像仪器(例如,声学成像仪器110)来执行。
操作710估计介入设备(例如,针)20相对于针对其生成声学图像的图像平面(参见上面的图4中的图像平面412a)的粗略取向。特别地,可以基于被存储在存储器中的指令来配置声学成像仪器110的处理器112以估计介入设备20相对于图像平面的粗略取向。
在一个实施例中,处理器112被配置为通过使用介入设备20的先前位置的历史以及通过采用卡尔曼模型对介入设备20的未来路径的预测来确定介入设备20相对于图像平面的近似角度取向(例如,ψ和θ——参见上面的图6)。
在另一实施例中,处理器112被配置为通过监测介入设备20在患者内的插入点以估计介入设备20的轨迹来确定介入设备20相对于图像平面的近似角度取向。这可以包括:在视觉上监测插入点以粗略估计介入设备20的轨迹,从而估计平面内取向和平面外取向(参见上面的图6);以及/或者使用基于相机的方法来监测插入点以估计平面内取向和平面外取向。
在又一实施例中,处理器112被配置为通过在声学图像中分割介入设备20的轴杆21来确定介入设备20相对于图像平面的近似角度取向。
在又一实施例中,处理器112可以被配置为通过采用上述技术中的两种或更多种技术的组合来确定介入设备20相对于图像平面的近似角度取向,例如通过寻找与以下各项的最佳拟合匹配来实现这一点:介入设备20的先前位置的历史以及通过采用卡尔曼模型对介入设备20的未来路径的预测;监测到的患者内的介入设备20的插入点;在声学图像中分割的介入设备20的轴杆21。
操作720预测尖端22在声学图像中的可能位置的分布。特别地,处理器112可以被配置为使用以下各项来确定介入设备20的尖端22在图像平面中的估计位置范围:通过声学成像仪器110从如上所述的传感器信号获得的无源传感器23的估计位置;介入设备20相对于图像平面的近似角度取向;如上面关于图6所述的从无源传感器23到介入设备20的尖端22的已知距离D。
图7图示了声学图像702,该声学图像702具有介入设备20相对于图像平面的角度取向的粗略估计704,这里,例如基于介入设备20的尖端的先前位置(被示为标记22-7)的历史来进行粗略估计704。
在一些实施例中,声学成像仪器110的处理器112可以使用上述技术将介入设备20的近似角度取向确定为在实际角度取向的30°以内。这可以允许减小尖端22相对于传感器位置23可能所在的区域或位置。
操作730在声学图像上放置一个或多个标记以指示尖端22的估计位置范围。
图8图示了用于示出介入设备20的尖端22在声学图像800中的估计位置的各种可视化选项。
例如,在没有改善介入设备20的尖端22的估计位置的情况下,声学成像仪器110可以经由显示设备116来显示圆形标记22-8a,该圆形标记22-8a针对尖端22的估计位置范围在声学图像中指定相当大的区域。
相比之下,利用上述技术,可以减小尖端22的估计位置范围,并且相应地,声学成像仪器110可以显示圆形标记22-8a,该圆形标记22-8a针对尖端22的估计位置范围在声学图像中指定相当小的区域。
在其他实施例中,声学成像仪器110可以显示弧形标记22-8c,该弧形标记22-8c针对尖端22的估计位置范围在声学图像中指定一定区域。
在其他实施例中,可以采用各种技术的组合。声学成像仪器110可以显示圆形标记22-8d1和弧形标记22-8d2,该圆形标记22-8d1具有第一颜色(例如,绿色),该圆形标记22-8d1针对尖端22的估计位置范围在声学图像中指定较大区域(在应用上述技术之前),该弧形标记22-8d2具有第二颜色(例如,红色),该弧形标记22-8d2针对尖端22的估计位置范围在声学图像中指定相当小的区域(通过采用上述技术)。
这里,图7示出了圆形标记22-7b和弧形标记22-7a,该圆形标记22-7b具有第一颜色(例如,红色),该圆形标记22-7b针对尖端22的估计位置范围在声学图像中指定较大区域(在应用上述技术之前),该弧形标记22-7a具有第二颜色(例如,绿色),该弧形标记22-7a针对尖端22的估计位置范围在声学图像中指定相当小的区域(通过采用上述技术)。
操作740基于先前估计的历史来随着时间的流逝精细调谐尖端22的估计位置范围。图7示出:在稍后的时间,声学成像仪器110可以显示圆形标记22-7b2和弧形标记22-7a2,该圆形标记22-7b2具有第一颜色(例如,红色),该圆形标记22-7b2针对尖端22的估计位置范围在声学图像中指定较大区域(在应用上述技术之前),该弧形标记22-7a2具有第二颜色(例如,红色),该弧形标记22-7a2针对尖端22的估计位置范围在声学图像中指定相当小的区域(通过采用上述技术)。这里可以看出,随着时间的流逝,弧形标记22-7a2的尺寸可以减小,从而为临床医生提供了随着时间的推移对尖端22的位置的改善的估计。
图9图示了改善对介入设备的尖端在声学图像中的位置的估计的方法的示例实施例的流程图。
操作910包括将发射信号提供给声学探头(例如,声学探头120)的声学换能器元件中的至少一些声学换能器元件,以使声学换能器元件的阵列将声学探头信号发射到感兴趣区(例如,感兴趣区10)。
操作920包括响应于声学回波而产生感兴趣声学图像10,该声学回波是响应于声学探头信号而从感兴趣区10接收到的。
操作930包括从被设置在介入设备(例如,介入设备20)的表面上的传感器(例如,传感器23)接收一个或多个传感器信号,该介入设备被设置在感兴趣区中,这一个或多个传感器信号是响应于声学探头信号而产生的。这里,传感器23位于距介入设备20的尖端22固定距离D处。
操作940包括例如基于传感器数据中的局部强度峰值来识别传感器23在声学图像中的估计位置。
操作950包括例如使用上文关于图7描述的技术来确定介入设备20相对于图像平面的近似角度取向。
操作960包括使用传感器23的估计位置、介入设备20相对于图像平面的近似角度取向以及从传感器23到介入设备20的尖端22的已知距离D来确定介入设备20的尖端22在图像平面中的估计位置范围。
操作970包括在显示设备(例如,显示器116)上显示声学图像。
操作980包括在显示设备116上显示一个或多个标记,以在声学图像上指示介入设备20的尖端22在图像平面中的估计位置范围。
应当理解,可以改变或重新布置图9中的各种操作的顺序,并且实际上某些操作实际上可以与一个或多个其他操作并行执行。从这个意义上讲,最好将图9视为编号的操作列表,而不是有序序列。
虽然在本文中公开了优选实施例,但是属于本发明的构思和范围内的许多变化是可能的。在查阅本文中的说明书、附图和权利要求之后,这样的变化对于本领域技术人员来说将变得清楚。因此,除了在权利要求的范围内以外,本发明不受限制。
Claims (21)
1.一种系统(100),包括:
声学探头(120),其具有声学换能器元件(122)的阵列;以及
声学成像仪器(110),其被连接到所述声学探头并被配置为向所述声学换能器元件中的至少一些声学换能器元件提供发射信号,以使声学换能器元件的所述阵列将声学探头信号(15)发射到感兴趣区(10),并且所述声学成像仪器还被配置为响应于声学回波而产生所述感兴趣区的图像平面(412a)的声学图像(430a、720、800),所述声学回波是响应于所述声学探头信号而从所述感兴趣区接收到的,所述声学成像仪器包括:
显示设备(116),其被配置为显示所述感兴趣区中的所述图像平面的所述声学图像;
接收器接口(118),其被配置为从被设置在介入设备(20)的表面(21)上的无源传感器(23)接收传感器信号,所述介入设备被设置在所述感兴趣区中,所述传感器信号是响应于所述声学探头信号而产生的,其中,所述无源传感器位于距所述介入设备的尖端(22)固定距离(D)处;以及
处理器(112),其被配置为:
根据所述传感器信号来识别所述无源传感器的估计位置,
确定所述介入设备相对于所述图像平面的近似角度取向(704),并且
使用所述无源传感器的所述估计位置、所述介入设备相对于所述图像平面的所述近似角度取向以及从所述无源传感器到所述介入设备的所述尖端的所述固定距离来确定所述介入设备的所述尖端在所述图像平面中的估计位置范围,
其中,所述显示设备还被配置为显示一个或多个标记(24-4a、22-7a、22-7a2、22-8b、22-8c、22-8d2),以在所述声学图像上指示所述介入设备的所述尖端在所述图像平面中的所述估计位置范围。
2.根据权利要求1所述的系统(100),其中,所述一个或多个标记包括圆(22-7b、22-7b2、22-8d1),所述圆在其大部分圆周上具有第一颜色,并且在小于90度的弧(22-7a、22-7a2、22-8d2)上具有第二颜色,其中,所述第二颜色指示所述介入设备的所述尖端的最可能的位置。
3.根据权利要求1所述的系统(100),其中,所述介入设备(20)是外科手术针。
4.根据权利要求1所述的系统(100),其中,所述处理器(112)被配置为通过以下操作来确定所述介入设备的所述尖端在所述图像平面中的所述估计位置范围:基于所述介入设备相对于所述图像平面的所述近似角度取向以及从所述无源传感器到所述介入设备的所述尖端的所述固定距离(D)来确定在所述图像平面中所述无源传感器与所述介入设备的所述尖端之间的有效的平面内的尖端到传感器的距离(d)。
5.根据权利要求1所述的系统,其中,所述处理器(112)被配置为通过使用所述介入设备的先前位置(22-7)的历史以及通过采用卡尔曼模型对所述介入设备的未来路径的预测来确定所述介入设备相对于所述图像平面的所述近似角度取向。
6.根据权利要求1所述的系统,其中,所述处理器(112)被配置为通过监测所述介入设备在患者内的插入点以估计所述介入设备的轨迹来确定所述介入设备相对于所述图像平面的所述近似角度取向。
7.根据权利要求1所述的系统,其中,所述处理器(112)被配置为通过在所述声学图像中分割所述介入设备的轴杆(21)来确定所述介入设备相对于所述图像平面的所述近似角度取向。
8.根据权利要求1所述的系统(100),其中,所述处理器(112)被配置为通过寻找与以下各项的最佳拟合匹配来确定所述介入设备相对于所述图像平面的所述近似角度取向:
所述介入设备的先前位置(22-7)的历史以及通过采用卡尔曼模型对所述介入设备的未来路径的预测;
监测到的所述介入设备在患者内的插入点;以及
在所述声学图像中分割的所述介入设备的轴杆。
9.一种方法(900),包括:
向感兴趣区(10)发射(910)声学探头信号(15);
响应于声学回波而产生(920)所述感兴趣区的图像平面(412a)的声学图像(430a、720、800),所述声学回波是响应于所述声学探头信号而从所述感兴趣区接收到的;
从被设置在所述感兴趣区中的介入设备(20)的表面(21)上的无源传感器(23)接收(930)传感器信号,所述传感器信号是响应于所述声学探头信号而产生的,其中,所述无源传感器位于距所述介入设备的尖端(22)固定距离(D)处;
根据所述传感器信号来识别(940)所述无源传感器的估计位置;
确定(950)所述介入设备相对于所述图像平面的近似角度取向(704);
使用所述无源传感器的所述估计位置、所述介入设备相对于所述图像平面的所述近似角度取向以及从所述无源传感器到所述介入设备的所述尖端的所述固定距离来确定(960)所述介入设备的所述尖端在所述图像平面中的估计位置范围;
在显示设备(116)上显示(970)所述声学图像;并且
在所述显示设备上显示(980)一个或多个标记(24-4a、22-7a、22-7a2、22-8b、22-8c、22-8d2),以在所述声学图像上指示所述介入设备的所述尖端在所述图像平面中的所述估计位置范围。
10.根据权利要求9所述的方法(900),其中,所述一个或多个标记包括圆,所述圆在其大部分圆周上具有第一颜色,并且在小于90度的弧上具有第二颜色,其中,所述第二颜色指示所述介入设备的所述尖端的最可能的位置。
11.根据权利要求9所述的方法(900),其中,所述介入设备是外科手术针。
12.根据权利要求9所述的方法(900),其中,确定所述介入设备的所述尖端在所述图像平面中的所述估计位置范围包括:基于所述介入设备相对于所述图像平面的所述近似角度取向以及从所述无源传感器到所述介入设备的所述尖端的所述固定距离(D)来确定在所述图像平面中所述无源传感器与所述介入设备的所述尖端之间的有效的平面内的尖端到传感器的距离(d)。
13.根据权利要求9所述的方法(900),其中,确定所述介入设备相对于所述图像平面的所述近似角度取向包括:使用所述介入设备的先前位置(22-7)的历史以及通过采用卡尔曼模型对所述介入设备的未来路径的预测。
14.根据权利要求9所述的方法(900),其中,确定所述介入设备相对于所述图像平面的所述近似角度取向包括:监测所述介入设备在患者内的插入点以估计所述介入设备的轨迹。
15.根据权利要求9所述的方法(900),其中,确定所述介入设备相对于所述图像平面的所述近似角度取向包括:在所述声学图像中分割所述介入设备的轴杆(21)。
16.根据权利要求9所述的方法(900),其中,确定所述介入设备相对于所述图像平面的所述近似角度取向包括:寻找与以下各项的最佳拟合匹配:
所述介入设备的先前位置(22-7)的历史以及通过采用卡尔曼模型对所述介入设备的未来路径的预测;
监测到的所述介入设备在患者内的插入点;以及
在所述声学图像中分割的所述介入设备的轴杆(21)。
17.一种包括指令的计算机程序产品,所述指令当在处理器上被执行时使所述处理器执行根据权利要求9-16中的任一项所述的方法的步骤。
18.一种声学成像仪器(110),包括:
接收器接口(118),其被配置为从被设置在介入设备(20)的表面(21)上的无源传感器(23)接收传感器信号,所述介入设备被设置在感兴趣区(10)中,其中,所述无源传感器位于距所述介入设备的尖端(22)固定距离(d)处;以及
处理器(112),其被配置为确定所述介入设备的所述尖端在由所述声学成像仪器成像的图像平面(412a)中的估计位置范围,
其中,所述处理器被配置为根据所述传感器信号以及从所述无源传感器到所述介入设备的所述尖端的被投影到所述图像平面上的估计有效距离(D)来确定所述介入设备的所述尖端在所述图像平面中的所述估计位置范围。
19.根据权利要求18所述的仪器(110),还包括显示设备(116),所述显示设备被配置为显示所述感兴趣区中的所述图像平面的声学图像(430a、720、800)以及在所述声学图像上指示所述介入设备的所述尖端在所述图像平面中的所述估计位置范围的一个或多个标记(24-4a、22-7a、22-7a2、22-8b、22-8c、22-8d2)。
20.根据权利要求19所述的仪器,其中,所述一个或多个标记包括圆(22-8d1),所述圆在其大部分圆周上具有第一颜色,并且在小于90度的弧(22-8d2)上具有第二颜色,其中,所述第二颜色指示所述介入设备的所述尖端的最可能的位置。
21.根据权利要求19所述的仪器(110),其中,所述一个或多个标记包括第一圆(22-8b),所述第一圆的圆周限定所述介入设备的所述尖端在所述图像平面中的所述估计位置范围,并且其中,所述显示设备还被配置为显示第二圆(22-8a),所述第二圆的直径等于从所述无源传感器到所述介入设备的所述尖端的所述固定距离。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862750495P | 2018-10-25 | 2018-10-25 | |
US62/750,495 | 2018-10-25 | ||
PCT/EP2019/078644 WO2020083863A1 (en) | 2018-10-25 | 2019-10-22 | System and method for estimating location of tip of intervention device in acoustic imaging |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113015489A true CN113015489A (zh) | 2021-06-22 |
Family
ID=68344809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980070557.3A Pending CN113015489A (zh) | 2018-10-25 | 2019-10-22 | 用于在声学成像中估计介入设备的尖端的位置的系统和方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210378758A1 (zh) |
EP (1) | EP3870062A1 (zh) |
JP (1) | JP7460613B2 (zh) |
CN (1) | CN113015489A (zh) |
WO (1) | WO2020083863A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11730443B2 (en) * | 2019-06-13 | 2023-08-22 | Fujifilm Sonosite, Inc. | On-screen markers for out-of-plane needle guidance |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63302836A (ja) * | 1987-06-04 | 1988-12-09 | Olympus Optical Co Ltd | 内視鏡用超音波診断装置 |
US20080188749A1 (en) * | 2005-04-11 | 2008-08-07 | Koninklijke Philips Electronics N.V. | Three Dimensional Imaging for Guiding Interventional Medical Devices in a Body Volume |
US20100298705A1 (en) * | 2009-05-20 | 2010-11-25 | Laurent Pelissier | Freehand ultrasound imaging systems and methods for guiding fine elongate instruments |
US20140187949A1 (en) * | 2012-12-31 | 2014-07-03 | Intuitive Surgical Operations, Inc. | Systems and Methods For Interventional Procedure Planning |
JP2015198888A (ja) * | 2013-06-11 | 2015-11-12 | 株式会社東芝 | 超音波診断装置及び医用画像診断装置 |
US20160374644A1 (en) * | 2015-06-25 | 2016-12-29 | Rivanna Medical Llc | Ultrasonic Guidance of a Probe with Respect to Anatomical Features |
WO2017102369A1 (en) * | 2015-12-16 | 2017-06-22 | Koninklijke Philips N.V. | Interventional device recognition |
WO2018109227A1 (en) * | 2016-12-16 | 2018-06-21 | Koninklijke Philips N.V. | System providing images guiding surgery |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4249539A (en) | 1979-02-09 | 1981-02-10 | Technicare Corporation | Ultrasound needle tip localization system |
JPS5985208U (ja) * | 1982-11-29 | 1984-06-08 | オリンパス光学工業株式会社 | 超音波診断装置 |
US8852111B2 (en) * | 2005-09-02 | 2014-10-07 | Ultrasound Ventures, Llc | Ultrasound guidance system |
US20100076305A1 (en) * | 2008-06-25 | 2010-03-25 | Deutsches Krebsforschungszentrum Stiftung Des Offentlichen Rechts | Method, system and computer program product for targeting of a target with an elongate instrument |
US8398549B2 (en) * | 2010-02-16 | 2013-03-19 | Duke University | Ultrasound methods, systems and computer program products for imaging contrasting objects using combined images |
JP5889874B2 (ja) | 2010-05-03 | 2016-03-22 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 介入器具に搭載される超音波トランスデューサの超音波トラッキング |
WO2014151985A1 (en) * | 2013-03-15 | 2014-09-25 | Chison Medical Imaging, Co., Ltd. | Systems and methods to detect and present interventional devices via ultrasound imaging |
EP3128922B1 (en) | 2014-04-11 | 2020-05-13 | Koninklijke Philips N.V. | Automatic configuration detection for sensor equipped needle |
EP3236859B1 (en) * | 2014-12-24 | 2021-03-31 | Koninklijke Philips N.V. | Needle trajectory prediction for target biopsy |
CN205962291U (zh) | 2016-06-29 | 2017-02-22 | 广林实业股份有限公司 | 具有弹性结构握柄的宠物毛梳 |
WO2018054969A1 (en) | 2016-09-20 | 2018-03-29 | Koninklijke Philips N.V. | Ultrasound transducer tile registration |
US20190298457A1 (en) | 2016-11-08 | 2019-10-03 | Koninklijke Philips N.V. | System and method for tracking an interventional instrument with feedback concerning tracking reliability |
-
2019
- 2019-10-22 EP EP19794470.5A patent/EP3870062A1/en active Pending
- 2019-10-22 US US17/286,859 patent/US20210378758A1/en active Pending
- 2019-10-22 WO PCT/EP2019/078644 patent/WO2020083863A1/en unknown
- 2019-10-22 CN CN201980070557.3A patent/CN113015489A/zh active Pending
- 2019-10-22 JP JP2021520375A patent/JP7460613B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63302836A (ja) * | 1987-06-04 | 1988-12-09 | Olympus Optical Co Ltd | 内視鏡用超音波診断装置 |
US20080188749A1 (en) * | 2005-04-11 | 2008-08-07 | Koninklijke Philips Electronics N.V. | Three Dimensional Imaging for Guiding Interventional Medical Devices in a Body Volume |
US20100298705A1 (en) * | 2009-05-20 | 2010-11-25 | Laurent Pelissier | Freehand ultrasound imaging systems and methods for guiding fine elongate instruments |
US20140187949A1 (en) * | 2012-12-31 | 2014-07-03 | Intuitive Surgical Operations, Inc. | Systems and Methods For Interventional Procedure Planning |
JP2015198888A (ja) * | 2013-06-11 | 2015-11-12 | 株式会社東芝 | 超音波診断装置及び医用画像診断装置 |
US20160374644A1 (en) * | 2015-06-25 | 2016-12-29 | Rivanna Medical Llc | Ultrasonic Guidance of a Probe with Respect to Anatomical Features |
WO2017102369A1 (en) * | 2015-12-16 | 2017-06-22 | Koninklijke Philips N.V. | Interventional device recognition |
WO2018109227A1 (en) * | 2016-12-16 | 2018-06-21 | Koninklijke Philips N.V. | System providing images guiding surgery |
Also Published As
Publication number | Publication date |
---|---|
EP3870062A1 (en) | 2021-09-01 |
WO2020083863A1 (en) | 2020-04-30 |
US20210378758A1 (en) | 2021-12-09 |
JP7460613B2 (ja) | 2024-04-02 |
JP2022504884A (ja) | 2022-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11604249B2 (en) | Interventional device recognition | |
US20220304650A1 (en) | Tracking a feature of an interventional device | |
US20150173723A1 (en) | Method and system for automatic needle recalibration detection | |
JP2020506005A (ja) | 装置追跡に対する超音波システムにおける経路追跡 | |
JP2019533536A (ja) | 追跡信頼性に関するフィードバックを用いて介入器具を追跡するシステム及び方法 | |
US20240108315A1 (en) | Registration of x-ray and ultrasound images | |
WO2020030746A1 (en) | Interventional device positioning using ultrasound signals | |
JP7460613B2 (ja) | 音響撮像における介入装置の先端の場所を推定するためのシステム、装置及び方法 | |
US20220241024A1 (en) | Ultrasound object point tracking | |
US10492767B2 (en) | Method and system for sequential needle recalibration | |
JP7442498B2 (ja) | 超音波画像平面に対する介入装置の追跡 | |
EP3833266B1 (en) | Interventional device positioning using ultrasound signals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |