CN110312476A - 用于对介入设备进行成像和跟踪的系统和方法 - Google Patents

用于对介入设备进行成像和跟踪的系统和方法 Download PDF

Info

Publication number
CN110312476A
CN110312476A CN201880012567.7A CN201880012567A CN110312476A CN 110312476 A CN110312476 A CN 110312476A CN 201880012567 A CN201880012567 A CN 201880012567A CN 110312476 A CN110312476 A CN 110312476A
Authority
CN
China
Prior art keywords
image
forming component
sensor
signal data
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201880012567.7A
Other languages
English (en)
Inventor
K·维迪雅
S·巴拉特
M·阮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of CN110312476A publication Critical patent/CN110312476A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4209Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
    • A61B8/4218Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4263Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors not mounted on the probe, e.g. mounted on an external reference frame
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field

Abstract

本发明总体上通过使用具有不同视场的两个或更多个成像元件对介入设备进行成像和跟踪来改善在介入手术期间的图像引导。

Description

用于对介入设备进行成像和跟踪的系统和方法
相关申请
本申请要求2017年1月19日提交的美国临时申请US 62/448107的优先权和权益。
技术领域
本发明总体上涉及对介入设备的超声引导的跟踪。
背景技术
介入手术涉及通过患者皮肤中的小切口插入导管、针和其他设备以处置内部病症,它提供了微创处置方法来代替传统的开放式外科手术方法。通常,介入手术的成功取决于在手术期间对介入设备的图像引导。需要进行图像引导以例如在患者体内定位处置部位,将一个或多个介入设备指引到处置部位并对其进行跟踪,在处置部位处进行手术,以及评估处置效果。
荧光透视和计算机断层摄影是外部成像模态,它们依赖于X射线辐射和注射造影剂来为介入手术进行工具和内部处置部位的可视化。虽然计算机断层摄影提供了高的分辨率和体积覆盖度,但是它是昂贵的并且其图像采集可能是耗时的。荧光透视提供了对处置部位的较为便宜的实时成像,然而,所得到的扫描经常遭受低分辨率和被成像结构之间缺乏对比度的问题。这些成像模态的共同缺点是患者和医学人员会暴露于辐射,这会发生皮肤或眼外伤并且可能患癌的风险。
鉴于这些缺陷,依赖于声波的超声技术更频繁地用作用于引导介入手术的安全、更便宜和高分辨率的替代方案。然而,尽管具有这些超声益处,但是被成像组织的异质性(例如,不同器官、组织界面、骨骼解剖结构等)可能会在所生成的超声图像中引起声学伪影(例如,混响、反射、斑点、阴影等)。虽然临床医生经常将声学伪影用于诊断目的,但是这些伪影可能会导致在手术期间无法定位或跟踪介入工具。这可能会增加手术的长度,导致介入设备的多次重新进入或路径偏差,或者导致手术失败,所有这些问题都会增加临床医生的压力并且给患者带来不适或危害。
发明内容
本发明总体上通过使用具有不同视场的两个或更多个成像元件对介入设备进行成像和跟踪来改善在介入手术期间的图像引导。利用不同的视场,能够处理和/或组合从两个或更多个成像元件获得的成像数据,以例如减少图像伪影,确认介入工具或视场内的其他物体的位置数据,生成具有较大的组合视场的图像。
根据某些方面,本发明的成像系统包括至少两个成像元件,每个成像元件被配置为发出和接收对应于感兴趣区域的不同视场的信号。所述系统还包括介入设备,所述介入设备包括细长主体和位于所述细长主体上的传感器。所述传感器对从所述成像元件中的至少一个成像元件发出的至少一个信号做出响应。所述系统还包括至少一个处理器,所述至少一个处理器与所述成像元件以及所述介入设备的传感器通信。所述处理器被配置为根据由所述成像元件接收的信号来生成图像并且使用从所述传感器接收的传感器信号数据来识别所述介入设备的位置,其中,所述传感器信号数据对应于从所述成像元件中的至少一个成像元件发出的信号。在某些实施例中,所述系统还可以包括多路复用器,所述多路复用器被配置为编译来自所述成像元件的信号并且将经编译的信号传送到所述处理器。
在另外的方面中,通过将由来自多个成像元件的传感器接收的传感器信号数据进行比较来确定介入设备的识别位置。例如,所述传感器信号数据可以包括对应于第一成像元件的第一传感器信号数据和对应于第二传感器元件的第二传感器信号数据。然后,所述第一传感器信号数据与所述第二传感器信号数据能够被比较以识别所述介入设备的所述位置。来自每个成像元件的传感器信号数据可以包括针对介入设备的坐标信息。来自传感器数据的坐标信息能够被比较以增强对介入设备的跟踪。在一些情况下,来自从各个成像元件接收的信号数据的坐标信息被加权和比较以识别介入设备的位置。例如,来自(从第一成像元件接收的)第一信号数据的坐标信息和来自(从第二成像元件接收的)第二信号数据的坐标信息能够被加权和比较以识别介入设备的真实位置。
在某些实施例中,可以相对于彼此和/或相对于参考点来跟踪成像元件的位置。例如,所述至少两个成像元件可以包括第一成像元件和第二成像元件,并且可以相对于第二成像元件的位置和/或相对于参考点来跟踪所述第一成像元件的位置。可以例如使用电磁跟踪、光学跟踪及其组合来跟踪所述至少两个成像元件的位置。所述成像元件可以是固定的(例如处于固定位置)或可移动的。固定的成像元件可以被置于探头支架中,或者固定的成像元件可以通过粘合剂或带而被固定就位。
成像元件可以结合到探头或贴片中。优选地,成像元件是超声成像元件。例如,成像元件可以包括一个或多个超声换能器。超声换能器可以结合到阵列中。
能够根据本发明跟踪任何合适的介入设备。介入设备可以包括例如成像导管、旋磨术导管、植入物递送导管、活检针、治疗针等。如上所述,介入设备包括对从成像元件发出的信号做出响应的一个或多个传感器。在某些实施例中,传感器可以位于介入设备上的对在手术期间跟踪介入设备有用的任何位置处。例如,传感器的优选位置在介入设备的远端处或其附近,或者在介入设备的工作元件处或其附近(例如与成像元件或消融元件共同定位)。
根据另外的方面,本发明的用于识别介入设备的位置的方法涉及从至少两个成像元件接收图像信号,其中,所述成像元件被配置为发射和接收来自感兴趣区域的不同视场的图像信号。然后可以根据所接收的图像信号来生成图像。所述方法还包括从位于被设置在至少一个成像元件的视场内的介入设备上的传感器接收传感器信号数据。所述传感器信号数据对应于从所述成像元件中的至少一个成像元件接收的信号。所述方法还涉及基于所述传感器信号数据来识别所述介入设备在所生成的图像内的位置。
根据另外的方面,本发明的用于识别介入设备的位置的系统还包括处理单元和被耦合到所述处理单元的存储设备,所述存储设备用于存储指令,所述指令当由所述处理单元执行时使所述处理单元:从至少两个成像元件接收图像信号,所述成像元件被配置为发射和接收来自感兴趣区域的不同视场的图像信号;根据所接收的图像信号来生成图像;从被设置在至少一个成像元件的视场内的介入设备上的传感器接收传感器信号数据,所述传感器信号数据对应于从所述成像元件中的至少一个成像元件接收的信号;并且基于所述传感器信号数据来识别所述介入设备在所生成的图像内的位置。
附图说明
图1图示了根据某些实施例的用于对介入设备进行成像和跟踪的两个或更多个成像元件。
图2图示了根据某些实施例对探头支架的使用。
图3是根据本公开内容的超声成像系统的框图。
图4图示了根据某些实施例的机械位置指针技术。
图5图示了根据某些实施例对电磁场生成器的使用。
图6图示了根据某些实施例对在成像元件的视场中的介入设备的跟踪。
具体实施方式
本发明涉及用于监测介入手术的系统和方法。本发明的系统包括:至少两个成像元件,每个成像元件被配置为发出和接收对应于不同视场的信号;以及介入设备,其包括至少一个传感器,该至少一个传感器对从成像元件中的至少一个成像元件发出的至少一个信号做出响应。该系统还包括处理器,该处理器被配置为从成像元件接收信号以生成图像并且使用从传感器接收的信号数据来识别介入设备在图像中的位置,该信号数据对应于从至少一个成像元件发出的至少一个信号。
本发明的系统和方法适用于各种介入手术中的成像和跟踪设备。介入手术可以包括其中医生将设备或工具插入患者体内以进行例如活检、监测、诊断或处置的任何手术。示例性介入手术可以包括但不限于:动静脉畸形、血管成形、胆道引流和支架植入、导管栓塞、中心静脉通路、化疗栓塞、胃造口管插入、血液透析通路维持、球囊导管插入、穿刺活检、消融、移植、溶栓、分流(例如经颈静脉肝内门体分流)、尿道导管插入、子宫导管插入、过滤器或支架植入(例如,腔静脉过滤器)。例如,本发明的系统和方法非常适合于监测对心血管疾病的处置。当在心血管手术期间使用本发明的系统和方法时,可以定位至少一个换能器探头以例如提供心脏的胸骨旁视图,并且可以定位另一个换能器探头以例如提供心脏的心尖视图。不同的视图确保了插入患者体内的任何介入工具的宽视场。
在某些实施例中,介入设备被配置用于进入一个或多个体腔,并且由成像元件进行成像。各种生物管腔包括血管、淋巴系统和神经系统的脉管系统、胃肠道的各种结构(包括小肠、大肠、胃、食道、结肠的管腔、胰管、胆管、肝管)、生殖道的管腔(包括输精管、阴道、子宫和输卵管)、泌尿道的结构(包括集尿管、肾小管、输尿管和膀胱),以及头部、颈部和肺部系统的结构(包括鼻窦、腮腺、气管、支气管和肺)。
现在转到附图,图1图示了本发明的示例性系统100,其用于在指向对象或患者108内的感兴趣区域114时对介入工具112进行成像和跟踪。虽然对象108通常是人,但是应当理解,本文讨论的方面和实施例也适用于多种动物和对象。系统100包括至少两个成像元件122、120。在一些情况下,本发明的系统包括2、3、4、5个或更多个成像元件。成像元件可以是可移动的,成像元件可以相对于彼此或参考点是固定的或不可移动的,或者至少一个成像元件可以是可移动的而至少一个成像元件可以是固定的。如图所示,成像元件可以结合到成像探头102、106中。在某些实施例中,成像探头102、106既可以手持也可以相对于彼此移动。在其他实施例中,探头中的至少一个探头可以相对于感兴趣区域保持不动。图2示出了固定支架130中的成像探头106。作为固定支架130的替代方案,可以使用粘合贴片或带将成像元件中的至少一个成像元件保持在对象上。成像元件122、120被耦合到电线124,电线124将成像元件122、120连接到成像系统的一个或多个处理器(在下文中进行描述)。成像元件122、120被定位在患者108上,以便对感兴趣区域114进行成像,并且使得每个成像元件的视场彼此不同。如图所示,成像元件120的视场由虚线B表示,并且成像元件122的视场由虚线A表示。如图所示,成像元件的不同视场可以重叠,或者可以不同。
至少两个成像元件120、122被配置为将成像信号发送到其各自的视场或其部分内的感兴趣区域并且从该感兴趣区域接收成像信号。在某些实施例中,成像信号包括声学信号。在其他实施例中,成像信号可以是或者还包括光声信号。所接收的感兴趣区域的成像信号能够用于生成一幅或多幅图像。在某些实施例中,所接收的成像信号实时地生成感兴趣区域的连续成像流。成像元件120、122还能够用于生成在其各自的视场内的感兴趣区域114的单独图像。例如,能够根据由成像元件120接收的信号来生成图像,并且能够根据由成像元件122接收的信号来生成图像。另外,成像元件能够用于通过对成像元件的信号进行共配准来生成感兴趣区域114的单个大视场图像。
根据某些实施例,成像元件120、122交替地对感兴趣区域进行成像,其中,第一成像元件在一段时间内进行成像,然后第二成像元件在一段时间内进行成像。交替的成像序列能够发生多次循环,并且应当理解,每个成像元件进行成像的时间长度可以取决于成像应用,由操作者进行确定或者是预编程的。在某些实施例中,成像元件的交替成像是间歇的,并且在其他实施例中,成像元件的交替成像遵循模式。成像元件之间的切换速率可以快至毫秒或微秒。在某些实施例中,可以基于在视场内存在伪影(例如,图1的118)来调整成像元件的成像序列。除了对每个成像元件进行图像定时之外,还可以根据技术应用、成像元件的定位和/或伪影(例如,图1的118)的存在对成像元件的成像波束的方向进行控制、调整或预编程。在下文中更详细地讨论对来自至少两个成像元件120、122的信号的处理。
根据某些方面,成像元件120、122是超声成像元件。成像元件120可以与成像元件122相同或不同。成像元件120、122可以结合到探头(如图所示)、贴片等中。成像元件120、120可以包括一个或多个超声换能器。超声换能器可以包括压电换能器元件、电容微机械换能器元件或任何其他合适的超声换能器元件。在某些实施例中,成像元件包括形成超声阵列的多个超声换能器。各种换能器阵列可以用于成像元件中的每个成像元件,例如,线性阵列、弯曲阵列或相控阵列。成像元件可以包括例如能够在高度维度和方位维度上扫描以进行2D和/或3D成像的换能器元件的二维阵列。
成像元件120、122与成像系统通信。成像系统包括一个或多个处理器,该一个或多个处理器可以例如但不限于控制成像元件120、122(例如,直接成像),接收成像数据,处理成像数据,生成图像,提供用户交互,以及显示所生成的图像。处理器可以包括或者是如下所述的参考图3的超声成像系统描述的一个或多个元件。
图3示出了可以根据本公开内容的原理构造和使用的示例性超声成像系统800。如所描述的,每个成像元件120、122可以被配置用于发射超声波和接收回波信息。各种换能器阵列可以用于成像元件中的每个成像元件,例如,线性阵列、弯曲阵列或相控阵列。成像元件120、122可以包括例如能够在高度维度和方位维度上扫描以进行2D和/或3D成像的换能器元件的二维阵列。成像元件120、122可以被耦合到微波束形成器,该微波束形成器可以被直接耦合到(例如探头或贴片内的)成像元件的换能器或换能器阵列或者被耦合在超声系统控制台或基座中,该超声系统控制台或基座可以控制一个或多个换能器发射和接收信号。成像元件120、122可以经由多路复用器816被耦合到超声系统基座,多路复用器816可以(经由有线或无线连接)被耦合到基座中的发射/接收(T/R)开关818。多路复用器可以将成像元件120、122中的一个或多个成像元件选择性地耦合到基座(例如耦合到波束形成器822)。T/R开关818可以被配置为在发射与接收之间切换,以例如保护主波束形成器822免受高能发射信号的影响。在一些实施例中,T/R开关818和系统中的其他元件的功能可以结合在多路复用器816中。超声系统基座通常包括软件部件和硬件部件,包括用于信号处理和图像数据生成的电路以及用于提供用户接口的可执行指令。
可以由被耦合到T/R开关818和波束形成器822的发射控制器820来指导从成像元件120、122的换能器发射超声脉冲,发射控制器820可以从用户接口824的用户操作接收输入。用户接口824可以包括一个或多个诸如控制面板852之类的输入设备,该输入设备可以包括一个或多个机械控件(例如,按钮、编码器等)、触敏控件(例如,触控板、触摸屏等)和其他已知的输入设备。可以由发射控制器820控制的另一功能是波束被偏转的方向。可以使波束从阵列812的发射侧(正交于发射测)向前偏转,或者可以以不同角度使波束偏转以获得更宽的视场。波束形成器822可以将来自各个贴片的换能器元件组的部分波束成形的信号组合成完全波束成形的信号。波束形成的信号可以被耦合到信号处理器826。
信号处理器826能够以各种方式(例如,带通滤波、抽取、I和Q分量分离以及谐波信号分离)处理所接收的回波信号。信号处理器826还可以执行额外的信号增强,例如,散斑减少、信号复合和噪声消除。经处理的信号可以被耦合到B模式处理器828以产生B模式图像数据。B模式处理器能够采用幅度检测来对身体中的结构进行成像。由B模式处理器828产生的信号可以被耦合到扫描转换器830和多平面重新格式化器832。扫描转换器830被配置为以期望的图像格式将回波信号布置在其被接收时的空间关系中。例如,扫描转换器830可以将回波信号布置成二维(2D)扇形形状或金字塔形状或其他形状的三维(3D)格式。多平面重新格式化器832能够将从身体的体积区域中的公共平面中的点接收的回波转换成该平面的超声图像(例如,B模式图像),如美国专利US 6443896(Detmer)中所描述的。体积绘制器834可以生成如从给定参考点观察的3D数据集的图像,如美国专利US 6530885(Entrekin等人)中所描述的。
另外,来自信号处理器826的信号可以被耦合到多普勒处理器860,多普勒处理器860可以被配置为估计多普勒频移并且生成多普勒图像数据。多普勒图像数据可以包括彩色数据,然后用B模式(或灰度)图像数据覆盖彩色数据以进行显示。例如,多普勒处理器可以包括多普勒估计器,例如,自相关器,其中,速度(多普勒频率)估计基于一阶自相关函数的自变量,并且多普勒功率估计基于零阶自相关函数的幅值。还能够通过已知的相域信号处理技术(例如,诸如MUSIC、ESPRIT等的参数频率估计器)或时域信号处理技术(例如,互相关)来估计运动。能够使用与速度的时间或空间分布相关的其他估计器(例如,加速度或时间和/或空间速度导数的估计器)来代替速度估计器或者作为速度估计器的额外方案。在一些示例中,速度和功率估计值可以经历阈值检测以减少噪声,并且可以经历分割和后处理(例如,填充和平滑)。然后可以根据彩色图将速度估计值和功率估计值映射到期望的显示颜色范围。然后将颜色数据(也被称为多普勒图像数据)耦合到扫描转换器830,在扫描转换器830中,多普勒图像数据被转换为期望的图像格式并被叠加在包含血流的组织结构的B模式图像上以形成彩色多普勒图像。在某些实施例中,出于图像配准的目的,信号处理器860处理来自成像元件120、122的信号数据。
来自扫描转换器830、多平面重新格式化器832和/或体积绘制器834的输出(例如,图像)可以被耦合到图像处理器836,以在被显示在图像显示器838上之前得到进一步增强、缓冲和临时存储。在某些实施例中,图像处理器836被配置为对来自经处理的信号数据的图像进行配准。图形处理器840可以生成图形叠加物以与图像一起显示。这些图形叠加物能够包含例如标准识别信息,例如,患者姓名、图像的日期和时间、成像参数等。出于这些目的,图形处理器可以被配置为从用户接口824接收输入,例如,键入的患者姓名或其他注释。在一些实施例中,图形处理器、图像处理器、体积绘制器和多平面重新格式化器中的至少一个的一种或多种功能可以被组合成集成的图像处理电路(其操作可以在多个并行操作的处理器之间划分)而不是参考由分立的处理单元执行的这些部件中的每个部件所描述的特定功能。此外,虽然例如出于生成B模式图像或多普勒图像的目的而参考B模式处理器和多普勒处理器讨论了对回波信号的处理,但是应当理解,这些处理器的功能可以被集成到单个处理器中。
系统800还可以包括传感器处理器852或与其进行通信。传感器处理器852可以被包括在系统800内而作为系统800的部分或者被包括在专用于介入设备的且与系统800通信的单独系统中。传感器处理器852从由系统800跟踪的介入设备接收传感器信号。然后传感器信号被传达到图像处理器836,在图像处理器836中,在所生成的图像内确定介入设备的位置。在下文中更详细地描述了使用传感器数据对介入设备的跟踪。
成像元件120、122可以用于对感兴趣区域114进行成像并且将介入工具112引导到感兴趣区域114。感兴趣区域114可以是患者体内需要监测和/或介入手术的区域。例如,感兴趣区域可以是血管内需要腔内成像、消融治疗、支架放置等的位置。在另一示例中,感兴趣区域可以是需要活检的组织。在另一示例中,感兴趣区域可以是母体子宫内的胎儿或胎儿上的特定特征。
可以使用任何已知的图像配准技术对来自成像元件的成像数据进行共配准,以创建具有大视场的组合图像。在某些方面中,使用图像融合对来自成像元件120、122的图像进行配准。在其他实施例中,本发明的系统能够使用成像元件120、122的已知取向作为引导对来自成像元件120、122的成像信号进行配准以创建大视场图像。在某些实施例中,已知取向包括至少一个成像元件120相对于另一成像元件122和/或参考点的取向的取向的知识。参考点可以是例如成像元件的视场内的不可移动物体。参考点也可以是例如在其中跟踪成像元件的跟踪坐标系中的外部已知位置。成像元件的已知取向减少了对从成像元件接收的信号进行共配准所需的处理。跟踪成像元件120、122的取向的特定益处是本发明的系统能够在至少一个成像元件120相对于另一个成像元件122移动的同时实时动态地配准图像。从两个或更多个成像元件采集的图像可以被独立地重建并且被配准以提供对介入工具112上的位置传感器110的可视化。
可以使用用于确定和监测成像元件122、120和/或参考点的取向的任何合适技术。在某些实施例中,使用电磁跟踪来确定和监测取向。电磁跟踪系统通常包括场生成器,该场生成器使用线圈来生成磁场并且建立坐标空间。磁场内的成像元件、探头和参考点可以包括一个或多个传感器。传感器可以包括对磁场做出反应的线圈。可以记录传感器的反应,并且所得到的数据能够提供传感器的取向和定位,从而提供成像元件、探头和/或参考点的位置和取向。如图5所示,成像元件122、120、探头和/或参考点处于由一个或多个电磁场生成器(EM FG)生成的电磁场内。在其他实施例中,使用光学跟踪来确定和监测取向,在光学跟踪中,成像元件、探头和/或参考点包括能由光学相机探测的一个或多个光学标记。光学标记可以是被动的(例如反射的)或主动的(例如发出光)。光学相机扫描具有光学标记的成像元件、探头和/或参考点,并且处理所得到的成像以识别和计算标记的位置和取向,这样能够确定成像元件、探头和/或参考点的位置和取向。在其他实施例中,机械位置指针用于确定和监测成像元件、探头和/或参考点的取向。机械位置指针技术包括机械数字转换器,该机械数字转换器包括具有经编码的关节的机械臂,该机械臂能够相对于已知的起始点被跟踪。图4图示了机械位置指针技术,示出了具有被耦合到成像探头102、106的关节90的臂92。MicroScribeTM是已知的机械位置指针技术,其能够在本发明的方面中得到使用。
跟踪成像元件的位置和取向能够用于确定所生成的图像的x坐标、y坐标和/或z坐标。然后能够使用坐标来配准图像。例如,能够在被耦合到成像系统的监视器上示出经配准的图像。
根据某些方面,两个或更多个成像元件120、122被配置为对一个或多个介入工具112进行成像、跟踪并且将其引导到感兴趣区域114,如图1所示。典型的介入工具包括例如导丝、引导导管或护套、递送导管、消融导管、成像导管、导管护套、针和可植入设备(传感器、支架、过滤器等)。介入工具112包括一个或多个位置传感器110。位置传感器110被耦合到一条或多条电线(未示出),该一条或多条电线在介入工具112的长度上进行延伸并且连接到成像系统的处理器。位置传感器110可以直接连接到成像系统的与成像元件120、122所连接的处理器相同的处理器,或者可以连接到与成像元件120、122所连接的处理器不同但与其通信的处理器。位置传感器110被配置为接收或发射确定位置传感器110的位置并因此确定介入工具112的位置的信号。
在某些实施例中,传感器可以位于介入设备上的对在手术期间跟踪介入设备有用的任何位置处。例如,传感器的优选位置在介入设备的远端处或其附近,或者在介入设备的工作元件处或其附近(例如与成像元件或消融元件共同定位)
根据某些方面,介入工具112的位置传感器110被配置为接收从成像元件120、122发射的信号。例如,成像元件120、122发射如上所述的成像信号,并且位置传感器110被动地监听从成像元件120、122发射的信号。由位置传感器110从成像元件122、120接收的信号能够用于确定位置传感器110的位置并因此确定介入工具112在所生成的图像内的位置。在某些实施例中,位置传感器110被配置为除了被动地接收成像元件120、122的信号并将所接收的信号数据发送到其连接的处理器之外还执行一种或多种其他功能。一种或多种其他功能可以包括例如压力感测、流量感测和/或成像。
图6图示了用于跟踪在探头106的成像元件122的视场内的介入工具112的位置传感器110的方法。虽然被示为涉及一个成像元件,但是应当理解,在利用成像元件120、122中的任何一个成像元件进行成像期间也能够应用相同的技术。如图所示,成像元件122被配置为生成3D图像,然而,应当理解,成像元件也可以被配置为生成1D或2D图像。位置传感器110被配置为从成像元件122接收信号。位置传感器110和成像元件122连接到成像系统并且与成像系统通信(例如,相同的处理系统,或者彼此通信的单独的处理系统)。为了确定位置传感器110(以及因此介入工具112)的位置,成像元件122发送和接收信号以生成感兴趣区域的图像。当发射用于成像的信号时,触发物被发送到成像系统和/或位置传感器110,该触发物指示信号何时被发送(例如针对特定信号在零处启动时钟)。然后由位置传感器110接收所发射的信号,并且在发射信号时与接收信号时之间的时间延迟(例如,信号的飞行时间)用于确定位置传感器110在成像波束内的位置。也就是说,从波束发出到位置传感器接收波束的时间指示位置传感器110在成像波束内的深度。这能够针对多个成像信号进行重复,以实时跟踪位置传感器并因此跟踪图像中的介入工具。多个成像信号可以从成像元件(例如,矩阵换能器阵列上的多个换能器)上的多个孔或者从来自成像元件的单个孔进行发送。产生在位置传感器的位置处感测到的最高幅度的成像波束的位置对应于位置传感器的横向(或角度,这取决于成像几何结构)位置。在美国专利US 9282946中更详细地描述了该方法,通过引用将该专利并入本文。
除了上面描述的和如图5所示的技术之外,还预想到基于从位置传感器110发出的并由两个或更多个成像元件120、122接收的信号来跟踪位置传感器的位置。例如,位置传感器可以发送由成像元件120、122接收的信号,并且信号的发射与接收之间的时间延迟指示位置传感器在成像元件120、122的视场内的位置深度。在美国专利US 7270684、US 9282946中更详细地描述了该方法,通过引用将这些专利并入本文。
在美国专利US 7270684、US 7529393和US 7796789中更详细地描述了用于确定位置传感器在图像内的位置的其他技术,通过引用将这些专利并入本文。
上面描述的用于识别成像元件的视场内的位置传感器110的技术可以由成像元件120、122中的一个或多个成像元件来执行。理想地,这些技术由一个或多个成像元件120、122连续重复,以提供对由成像元件120、122生成的经配准的图像内的位置传感器110的实时跟踪。利用由成像元件120、122中的至少一个成像元件确定的位置传感器110的位置,能够将位置传感器110的位置配准到从成像元件120、122生成的融合图像。例如,位置传感器110的位置能够被叠加在来自成像元件的经配准的图像中,以增强对介入工具112的可视化。图形元素用于在监视器上的结果图像中示出位置传感器110。
在优选实施例中,位置传感器110在特定时间框内的位置由成像元件122、120中的至少两个来识别和确认。也就是说,在经配准的图像中,由成像元件122、120确定的位置传感器110的坐标位置应当相同或基本相同,并且能够使用补充跟踪来确保跟踪的准确性。在一些情况下,关于不同的成像元件122、120,所确定的位置传感器110的位置可以略微不同。在这种情况下,如果结果在空间上处于预定义阈值内,则可以对结果求平均值。然后,可以在根据成像元件120、122的组合的图像数据所生成的图像中示出位置传感器110的平均位置。
根据另外的方面,能够维护成像元件120、122中的一个或多个成像元件对位置传感器110的位置进行的跟踪历史。在一个实施例中,位置传感器110的跟踪历史用于确定由从两个或更多个成像元件发送的信号所报告的位置确定结果之间是否存在任何冲突。如果存在任何冲突,则能够使用历史记录来解决冲突。例如,来自成像元件120、122和位置传感器的数据可能指示位置传感器在经配准的图像内的两个不同坐标A、B。为了解决该冲突,本发明的系统可以复查位置传感器110的时间跟踪历史,可以在共配准的图像中示出位置传感器110的定义路径。最接近定义路径的坐标可以被接受而作为准确值,而另一个坐标可以被忽略而作为异常值。在某些实施例中,预定义阈值用于确定所识别的位置传感器的坐标是准确值还是异常值(例如是否在位置传感器的定义路径的5%内)。
本发明的另一实施例使用加权系统来基于从不同成像元件120、122接收的信号来求解位置传感器110的矛盾位置。例如,在跟踪结果提供矛盾位置的情况下,能够将加权分配给每个成像元件120、122以计算位置传感器110的最终位置或校正位置。加权影响因素包括存在遮挡、混响、畸变或超声检查者和/或外科医生的主观意见(超声检查者和/或外科医生可能有他/她自己的估计结果)。最终的跟踪位置(X,Y,Z)能够被计算为:
X=w1*x1+w2*x2+…
Y=w1*y1+w2*y2+…
Z=w1*z1+w2*z2+…
其中(x1,y1,z1)和(x2,y2,z2)是分别由成像元件120、122跟踪的传感器的位置。w1、w2、…是总和为1的权重。例如,如果传感器因遮挡而处于1探头的阴影区域中,则能够将0的权重分配给该探头,并且能够通过(一个或多个)其他探头来确定最终的跟踪位置。
应当理解,位置传感器可以不在成像元件120、122中的至少一个成像元件的视场内。虽然这种情况不提供位置传感器的确认位置,但是外科医生或超声检查者仍将受益于根据至少两个成像元件的经配准的图像所生成的大视场。
通过使用具有不同视场A、B的至少两个成像元件120、122,本发明的系统能够经由介入设备的位置传感器110对至少一个介入设备进行准确的成像、跟踪和引导,而不管患者内是否存在能够阻挡成像元件120、122中的任一个成像元件的图像的伪影118。例如,如图1所示,感兴趣区域114紧邻伪影118,伪影118至少部分地阻挡对介入设备112的路径的成像并且至少部分地阻挡感兴趣区域114。使用两个成像元件120、122,能够无阻挡地跟踪介入工具112,因为成像元件120能够在感兴趣区域114被伪影118阻挡的位置对介入工具进行成像。另外,如果成像元件中的至少一个成像元件更靠近感兴趣区域和/或介入工具112,则能够增强图像质量和跟踪。例如,图像质量可以取决于深度,并且探头中的至少一个探头可以更靠近感兴趣区域和/或介入工具112。如图1所示,成像元件122更靠近感兴趣区域114,因此能够在感兴趣区域未被伪影118阻挡的位置处提供比成像元件120更清晰的感兴趣区域114的视图。
可以使用软件、硬件、固件、硬连线或这些项目的任何组合来实施本发明的系统和方法。实施功能的特征也能够物理地位于各种位置处,包括被分布为使得功能的不同部分被实施在不同的物理位置处(例如,成像设备在一间房间中而主机工作站在另一间房间中,或者它们在单独的建筑物中,例如它们具有无线或有线连接)。
如上所述,本发明的系统和方法可以依赖于一个或多个处理器来执行本发明的步骤。举例来说,适合用于执行计算机程序的处理器包括通用微处理器和专用微处理器以及任何类型的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或这两者接收指令和数据。计算机的基本元件是用于执行指令的处理器和用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括用于存储数据的一个或多个大容量存储设备(例如,磁盘、磁光盘或光盘)或者能操作性地耦合到用于存储数据的一个或多个大容量存储设备以从上述大容量存储设备接收数据或将数据传递到上述大容量存储设备。适合用于实施计算机程序指令和数据的信息载体包括所有形式的非易失性存储器,包括例如半导体存储器设备(例如,EPROM、EEPROM、固态驱动器(SSD)和闪速存储器设备);磁盘(例如,内部硬盘或可移动磁盘);磁光盘;以及光盘(例如,CD盘和DVD盘)。处理器和存储器能够由专用逻辑电路来补充或者并入到专用逻辑电路中。
为了提供与用户的交互,本文描述的主题可以被实施在具有I/O设备(例如,用于向用户显示信息的CRT、LCD、LED或投影设备)和输入设备或输出设备(例如,键盘和指示设备(例如,鼠标或轨迹球),用户能够通过它们向计算机提供输入)的计算机上。其他类型的设备也能够用于提供与用户的交互。例如,提供给用户的反馈能够是任何形式的感觉反馈(例如,视觉反馈、听觉反馈或触觉反馈),并且能够以任何形式(包括声学输入、语音输入或触觉输入)接收来自用户的输入。
本文描述的主题能够被实施在包括后端部件(例如,数据服务器)、中间件部件(例如,应用服务器)或前端部件(例如,具有图形用户接口或网络浏览器的客户端计算机,用户能够通过该客户端计算机与本文描述的主题的实施方式进行交互)或者这种后端部件、中间件部件和前端部件的任何组合的计算系统中。该系统的部件能够通过网络通过任何形式或介质的数字数据通信(例如,通信网络)进行互连。通信网络的示例包括蜂窝网络(例如,3G或4G)、局域网(LAN)和广域网(WAN)(例如,互联网)。
本文描述的主题能够被实施为一个或多个计算机程序产品,例如,被有形地实施在信息载体中(例如被实施在非瞬态计算机可读介质中)的一个或多个计算机程序,该一个或多个计算机程序用于由数据处理装置(例如,可编程处理器、一个或多个计算机)执行或控制数据处理设备(例如,可编程处理器、一个或多个计算机)的操作。计算机程序(也被称为程序、软件、软件应用程序、应用程序、宏或代码)能够以任何形式的编程语言来编写,这些编程语言包括编译语言或解释语言(例如,C、C++、Perl),该编程语言能够以任何形式进行部署,包括作为独立程序或者作为模块、部件、子例程或适合在计算环境中使用的其他单元。本发明的系统和方法能够包括用本领域已知的任何合适的编程语言编写的指令,这些编程语言包括但不限于C、C++、Perl、Java、ActiveX、HTML5、Visual Basic或JavaScript。
计算机程序不一定对应于文件。程序能够被存储在保存其他程序或数据的文件的部分中,被存储在专用于所讨论的程序的单个文件中,或者被存储在多个协调文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。计算机程序能够被部署为在一个或多个计算机上执行,能够被部署为在一个站点处或者跨多个站点分布来执行,并且能够被部署为通过通信网络进行互连。
文件能够是数字文件,例如,被存储在硬盘驱动器、SSD、CD或其他有形的非瞬态介质上的数字文件。文件能够通过网络从一个设备被发送到另一个设备(例如,作为文件包,例如通过网络接口卡、调制解调器、无线卡等从服务器被发送到客户端)。
根据本发明编写文件涉及例如通过读/写头通过添加、移除或重新排列(例如具有净电荷或偶极矩的)粒子而将有形的非瞬态计算机可读介质变换成磁化模式,然后,该模式表示关于用户期望的并且对用户有用的客观物理现象的信息的新的搭配。在一些实施例中,写入涉及有形的非瞬态计算机可读介质中的材料的物理变换(例如,这些材料具有某些光学性质,使得光学读/写设备然后能够读取新的且有用的信息搭配,例如,刻录CD-ROM)。在一些实施例中,写入文件包括对诸如NAND闪速存储器设备之类的物理闪速存储器设备进行变换并且通过对由浮栅晶体管制成的存储单元的阵列中的物理元件进行变换来存储信息。写入文件的方法在本领域中是公知的,例如,该方法能够通过程序或通过软件的保存命令或编程语言的写入命令而被手动或自动地调用。
合适的计算设备通常包括大容量存储器、至少一个图形用户接口、至少一个显示设备,并且合适的计算设备通常还包括设备之间的通信。大容量存储器图示了一种计算机可读介质,即,计算机存储介质。计算机存储介质可以包括以用于存储信息的任何方法或技术实施的易失性、非易失性、可移动和不可移动的介质,例如,计算机可读指令、数据结构、程序模块或其他数据。计算机存储介质的示例包括RAM、ROM、EEPROM、闪速存储器或其他存储器技术、CD-ROM、数字通用盘(DVD)或其他光学存储设备、盒式磁带、磁带、磁盘存储设备或其他磁性存储设备、射频识别标签或芯片,或者可以能够存储所需信息并且能够由计算设备访问的任何其他介质。
并入参考文献
在整个本公开内容中,已经参考和引用了其他文献(例如,专利、专利申请、专利公布物、期刊、书籍、论文、网页内容)。出于所有目的,通过引用将所有这些文件都整体并入本文。
等同方案
除了本文所示和所述的内容之外,本发明的各种修改及其许多其他实施例对于本领域技术人员而言根据本文件的全部内容(包括参考本文引用的科学和专利文献)将变得十分明显。本文的主题包含能够在本文的各种实施例及其等同方案中适于实践本发明的重要信息、例示和指导。

Claims (20)

1.一种成像系统,所述系统包括:
至少两个成像元件,每个成像元件被配置为发出和接收对应于不同视场的图像信号;
介入设备,其包括细长主体和位于所述细长主体上的传感器,所述传感器对从所述成像元件中的至少一个成像元件发出的图像信号做出响应;以及
处理器,其与所述成像元件和所述介入设备通信,所述处理器被配置为根据图像信号来生成图像并且使用从所述传感器接收的传感器信号数据来识别所述介入设备在所述图像中的位置,所述传感器信号数据对应于从所述至少一个成像元件发出的所述图像信号。
2.根据权利要求1所述的系统,其中,所述至少两个成像元件包括第一成像元件和第二成像元件,并且相对于所述第二成像元件的位置来跟踪所述第一成像元件的位置。
3.根据权利要求2所述的系统,其中,相对于参考点来进一步跟踪所述第一成像元件。
4.根据权利要求1所述的系统,其中,使用从包括电磁跟踪、光学跟踪及其组合的组中选择的技术来跟踪所述至少两个成像元件的位置。
5.根据权利要求1所述的系统,其中,所述传感器信号数据包括对应于第一成像元件的第一传感器信号数据和对应于第二传感器元件的第二传感器信号数据,并且所述第一传感器信号数据与所述第二传感器信号数据被比较以识别所述介入设备的位置。
6.根据权利要求5所述的系统,其中,来自所述第一信号数据和所述第二信号数据的坐标信息被加权和比较以识别所述介入设备的所述位置。
7.根据权利要求1所述的系统,其中,所述成像元件中的至少一个成像元件是可移动的或固定的。
8.根据权利要求1所述的系统,还包括多路复用器,所述多路复用器被配置为编译来自所述成像元件的信号并且将经编译的信号传送到所述处理器。
9.根据权利要求1所述的系统,其中,所述成像元件中的至少一个成像元件包括超声换能器。
10.根据权利要求8所述的系统,其中,所述超声换能器是换能器阵列的部分。
11.一种用于识别介入设备的位置的系统,所述系统包括:
处理单位;以及
存储设备,其被耦合到所述处理单元,所述存储设备用于存储指令,所述指令在由所述处理单元执行时使所述处理单元:
从至少两个成像元件接收图像信号,其中,每个成像元件被配置为发射和接收对应于感兴趣区域的不同视场的图像信号;
根据所述图像信号来生成图像;
从位于至少一个成像元件的视场内的介入设备上的传感器接收传感器信号数据,所述传感器信号数据对应于从所述至少一个成像元件发出的信号;并且
基于所述传感器信号数据来识别所述介入设备在所述图像内的位置。
12.根据权利要求11所述的系统,其中,从所述成像元件接收的信号被共配准以生成所述图像。
13.根据权利要求11所述的系统,其中,所述成像元件包括第一成像元件和第二成像元件,并且相对于所述第二成像元件的位置来跟踪所述第一成像元件的位置。
14.根据权利要求13所述的系统,其中,相对于参考点来进一步跟踪所述第一成像元件。
15.根据权利要求12所述的系统,其中,使用电磁跟踪或光学跟踪来跟踪至少两个换能器阵列的位置。
16.根据权利要求11所述的系统,其中,所述传感器信号数据包括对应于第一成像元件的第一传感器信号数据和对应于第二传感器元件的第二传感器信号数据,并且所述第一传感器信号数据与所述第二传感器信号数据被比较以识别所述介入设备的所述位置。
17.根据权利要求11所述的系统,其中,来自所述第一信号数据和所述第二信号数据的坐标信息被加权和比较以识别所述介入设备的所述位置。
18.根据权利要求11所述的系统,其中,所述成像元件中的至少一个成像元件是可移动的或固定的。
19.根据权利要求11所述的系统,其中,所述成像元件中的至少一个成像元件包括超声换能器。
20.根据权利要求18所述的系统,其中,所述超声换能器是换能器阵列的部分。
CN201880012567.7A 2017-01-19 2018-01-15 用于对介入设备进行成像和跟踪的系统和方法 Pending CN110312476A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762448107P 2017-01-19 2017-01-19
US62/448,107 2017-01-19
PCT/EP2018/050800 WO2018134138A1 (en) 2017-01-19 2018-01-15 System and method for imaging and tracking interventional devices

Publications (1)

Publication Number Publication Date
CN110312476A true CN110312476A (zh) 2019-10-08

Family

ID=61258179

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880012567.7A Pending CN110312476A (zh) 2017-01-19 2018-01-15 用于对介入设备进行成像和跟踪的系统和方法

Country Status (5)

Country Link
US (1) US20210353362A1 (zh)
EP (1) EP3570756B1 (zh)
JP (1) JP2020506749A (zh)
CN (1) CN110312476A (zh)
WO (1) WO2018134138A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112601495A (zh) * 2018-08-22 2021-04-02 皇家飞利浦有限公司 用于约束介入声学成像中的传感器跟踪估计的系统、设备和方法
KR20210096622A (ko) * 2018-11-18 2021-08-05 트리그 메디컬 리미티드 이미징 장치를 위한 공간 등록 방법
US20230210604A1 (en) * 2021-12-31 2023-07-06 Auris Health, Inc. Positioning system registration using mechanical linkages

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030149366A1 (en) * 2002-02-05 2003-08-07 Stringer Bradley J. Multiplanar ultrasonic vascular imaging device, system incorporating same, method of use and protective sheath
US20160038119A1 (en) * 2013-04-26 2016-02-11 Ucl Business Plc A method and apparatus for determining the location of a medical instrument with respect to ultrasound imaging, and a medical instrument to facilitate such determination
CN105431092A (zh) * 2013-06-28 2016-03-23 皇家飞利浦有限公司 对介入仪器的声学突出显示
CN105578984A (zh) * 2013-09-24 2016-05-11 皇家飞利浦有限公司 介入工具的声学3d跟踪
CN105899143A (zh) * 2014-01-02 2016-08-24 皇家飞利浦有限公司 超声导航/组织定征组合

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6530885B1 (en) 2000-03-17 2003-03-11 Atl Ultrasound, Inc. Spatially compounded three dimensional ultrasonic images
US6443896B1 (en) 2000-08-17 2002-09-03 Koninklijke Philips Electronics N.V. Method for creating multiplanar ultrasonic images of a three dimensional object
WO2004084737A1 (en) 2003-03-27 2004-10-07 Koninklijke Philips Electronics N.V. Guidance of invasive medical devices by three dimensional ultrasonic imaging
US20060270934A1 (en) * 2003-03-27 2006-11-30 Bernard Savord Guidance of invasive medical devices with combined three dimensional ultrasonic imaging system
CN1764849B (zh) 2003-03-27 2010-05-26 皇家飞利浦电子股份有限公司 通过广角三维超声成像引导侵入式医疗设备
US7270684B2 (en) 2003-07-30 2007-09-18 L'oreal Composition for dyeing keratinous fibers comprising at least one azodiazine direct dye containing an aniline group and dyeing method using it
DE602004024580D1 (de) * 2003-12-22 2010-01-21 Koninkl Philips Electronics Nv System zum führen eines medizinischen instruments im körper eines patienten
US20110125022A1 (en) * 2009-11-25 2011-05-26 Siemens Medical Solutions Usa, Inc. Synchronization for multi-directional ultrasound scanning
CN102869308B (zh) 2010-05-03 2015-04-29 皇家飞利浦电子股份有限公司 用于对介入工具上的(一个或多个)超声换能器进行超声跟踪的设备和方法
US20130296691A1 (en) * 2012-05-04 2013-11-07 Ascension Technology Corporation Magnetically tracked surgical needle assembly
EP3760129A1 (en) * 2014-01-02 2021-01-06 Koninklijke Philips N.V. Instrument alignment and tracking with ultrasound imaging plane
JP6381979B2 (ja) * 2014-06-11 2018-08-29 キヤノンメディカルシステムズ株式会社 超音波診断装置及び制御プログラム
NL2014772B1 (en) * 2015-05-06 2017-01-26 Univ Erasmus Med Ct Rotterdam A lumbar navigation method, a lumbar navigation system and a computer program product.

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030149366A1 (en) * 2002-02-05 2003-08-07 Stringer Bradley J. Multiplanar ultrasonic vascular imaging device, system incorporating same, method of use and protective sheath
US20160038119A1 (en) * 2013-04-26 2016-02-11 Ucl Business Plc A method and apparatus for determining the location of a medical instrument with respect to ultrasound imaging, and a medical instrument to facilitate such determination
CN105431092A (zh) * 2013-06-28 2016-03-23 皇家飞利浦有限公司 对介入仪器的声学突出显示
CN105578984A (zh) * 2013-09-24 2016-05-11 皇家飞利浦有限公司 介入工具的声学3d跟踪
CN105899143A (zh) * 2014-01-02 2016-08-24 皇家飞利浦有限公司 超声导航/组织定征组合

Also Published As

Publication number Publication date
EP3570756A1 (en) 2019-11-27
JP2020506749A (ja) 2020-03-05
EP3570756B1 (en) 2021-03-17
US20210353362A1 (en) 2021-11-18
WO2018134138A1 (en) 2018-07-26

Similar Documents

Publication Publication Date Title
Huang et al. A review on real-time 3D ultrasound imaging technology
Sanders et al. Clinical sonography: a practical guide
US8126239B2 (en) Registering 2D and 3D data using 3D ultrasound data
JP6906113B2 (ja) 周期的に動く生体構造を視覚化する装置、システム及び方法
US9936896B2 (en) Active system and method for imaging with an intra-patient probe
CN105979879A (zh) 具有光学形状感测设备视角的虚拟图像
US20220273258A1 (en) Path tracking in ultrasound system for device tracking
US20240065669A1 (en) Ultrasound system and method
EP2977012B1 (en) Ultrasound imaging apparatus and controlling method thereof
CN111629671A (zh) 超声成像设备及控制超声成像设备的方法
US20230181148A1 (en) Vascular system visualization
CN110312476A (zh) 用于对介入设备进行成像和跟踪的系统和方法
EP3570751B1 (en) Multi-patch array and ultrasound system
JP2013255658A (ja) 超音波診断装置
US11596386B2 (en) Large area ultrasound transducer assembly and sensor tracking for aperture control and image gneration
EP3040031B1 (en) Ultrasound diagnosis apparatus and method of operating the same
JP2005185333A (ja) 三次元組織移動計測装置及び超音波診断装置
EP2422706A1 (en) 3D ultrasound system and method for measuring the reflection angles
JP2005185336A (ja) 放射線治療システム
JP2023122622A (ja) 医療デバイスを追跡および可視化するための方法およびシステム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20191008