CN113034375A - 用于提供模糊滤波以强调超声图像数据中的聚焦区域或深度的方法和系统 - Google Patents

用于提供模糊滤波以强调超声图像数据中的聚焦区域或深度的方法和系统 Download PDF

Info

Publication number
CN113034375A
CN113034375A CN202011250899.4A CN202011250899A CN113034375A CN 113034375 A CN113034375 A CN 113034375A CN 202011250899 A CN202011250899 A CN 202011250899A CN 113034375 A CN113034375 A CN 113034375A
Authority
CN
China
Prior art keywords
ultrasound image
focal region
interest
processor
blur
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011250899.4A
Other languages
English (en)
Inventor
奥利·何维德斯坦布利特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Precision Healthcare LLC
Original Assignee
GE Precision Healthcare LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Precision Healthcare LLC filed Critical GE Precision Healthcare LLC
Publication of CN113034375A publication Critical patent/CN113034375A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

本发明题为“用于提供模糊滤波以强调超声图像数据中的聚焦区域或深度的方法和系统”。本发明提供了一种通过对聚焦区域或深度之外的图像数据执行模糊滤波来强调二维(2D)超声图像中的聚焦区域或深度的系统和方法,二维超声图像为诸如2D彩色流图像和/或三维(3D)和/或四维(4D)超声图像数据的体积渲染。该方法可包括由至少一个处理器在显示系统处呈现对象的2D超声图像。该方法可包括由至少一个处理器接收2D超声图像内的感兴趣聚焦区域的识别。该方法可包括由至少一个处理器对所识别的感兴趣聚焦区域之外的2D超声图像的图像数据执行模糊滤波。该方法可包括由至少一个处理器在显示系统处呈现具有模糊滤波的2D超声图像。

Description

用于提供模糊滤波以强调超声图像数据中的聚焦区域或深度 的方法和系统
技术领域
某些实施方案涉及超声成像。更具体地讲,某些实施方案涉及用于通过对聚焦区域或深度之外的图像数据(诸如二维(2D)彩色流图像和/或三维(3D)和/或四维(4D)超声图像数据的体积渲染中的图像数据)执行模糊滤波来强调超声图像数据中的聚焦区域或深度的方法和系统。
背景技术
超声成像是用于对人体中的器官和软组织进行成像的医学成像技术。超声成像使用实时、非侵入式高频声波来产生二维(2D)、三维(3D)和/或四维(4D)(即实时/连续3D图像)图像。
超声成像是用于诊断各种医学病症的有价值的非侵入式工具。可分析和/或处理所采集的超声数据以检测由医疗专业人员评估以执行诊断的解剖结构。在超声图像是2D彩色流图像或3D或4D图像数据的体积渲染的情况下,将希望在加快临床医生的审查过程、帮助报告检查结果、增强培训等方面有所改进。
通过将此类系统与本申请的其余部分中参考附图阐述的本公开的一些方面进行比较,常规和传统方法的进一步限制和缺点对本领域的技术人员将变得显而易见。
发明内容
本发明提供了一种用于通过对二维(2D)超声图像中的聚焦区域或深度之外的图像数据执行模糊滤波来强调该聚焦区域或深度的系统和/或方法,二维超声图像为诸如2D彩色流超声图像和/或三维(3D)和/或四维(4D)超声图像数据的体积渲染,如权利要求书中更完整地描述。
从以下描述和附图将更全面地理解本公开的这些和其它优点、方面和新颖特征、以及其例示的实施方案的细节。
附图说明
图1是根据各种实施方案的用于强调2D超声图像中的聚焦区域或深度的示例性超声系统的框图,2D超声图像为诸如2D彩色流图像和/或3D和/或4D超声图像数据的体积渲染。
图2是根据各种实施方案的用于强调2D超声图像中的聚焦区域或深度的示例性医疗工作站的框图,2D超声图像为诸如2D彩色流图像和/或3D和/或4D超声图像数据的体积渲染。
图3是根据各种实施方案的以3D和/或4D图像数据的体积渲染描绘的对象的显示。
图4是根据各种实施方案的将模糊滤波应用于聚焦区域之外的图像数据的3D和/或4D超声图像数据的体积渲染的示例性显示。
图5是根据各种实施方案的将模糊滤波应用于聚焦区域之外的图像数据的3D和/或4D超声图像数据的体积渲染的示例性显示。
图6是根据示例性实施方案的将模糊滤波应用于聚焦区域之外的图像数据的2D彩色流图像的示例性显示。
图7是示出根据示例性实施方案的可用于强调2D超声图像中的聚焦区域或深度的示例性步骤的流程图,2D超声图像为诸如2D彩色流图像和/或3D和/或4D超声图像数据的体积渲染。
具体实施方式
某些实施方案可见于用于强调二维(2D)超声图像中的聚焦区域或深度的方法和系统中,二维超声图像为诸如2D彩色流图像和/或三维(3D)和/或四维(4D)超声图像数据的体积渲染。各种实施方案具有通过对聚焦区域或深度之外的图像数据执行模糊滤波来强调2D超声图像中的聚焦区域或深度的技术效果。
当结合附图阅读时,将更好地理解前述发明内容以及以下对某些实施方案的详述。就附图示出各种实施方案的功能块的图的范围而言,这些功能块不一定表示硬件电路之间的划分。因此,例如,一个或多个功能块(例如,处理器或存储器)可以在单件硬件(例如,通用信号处理器或随机存取存储器块、硬盘等)或多件硬件中来实现。类似地,程序可以是独立程序,可以作为子例程包含在操作系统中,可以是安装的软件包中的功能等。应当理解,各种实施方案不限于附图中所示的布置和工具。还应当理解,可以组合实施方案,或者可以利用其它实施方案,并且可以在不脱离各种实施方案的范围的情况下做出结构的、逻辑的和电气的改变。因此,以下详述不应视为限制性意义,并且本公开的范围由所附权利要求书及其等同物限定。
如本文所用,以单数形式列举并且以单词“一”或“一个”开头的元件或步骤应当被理解为不排除多个所述元件或步骤,除非明确说明此类排除。此外,对“示例性实施方案”、“各种实施方案”、“某些实施方案”、“代表性的实施方案”等的引用不旨在被解释为排除存在也结合了叙述的特征的附加实施方案。此外,除非明确地相反说明,否则“包含”、“包括”或“具有”具有特定性质的一个元件或多个元件的实施方案可以包括不具有该性质的附加元件。
同样如本文所用,术语“图像”广义地是指可视图像和表示可视图像的数据两者。然而,许多实施方案生成(或被配置为生成)至少一个可视图像。此外,如本文所用,短语“图像”用于指超声模式,诸如B模式(2D模式)、M模式、三维(3D)模式、CF模式、PW多普勒、CW多普勒、MGD,和/或B模式和/或CF的子模式,诸如剪切波弹性成像(SWEI)、TVI、Angio、B-flow、BMI、BMI_Angio,并且在某些情况下还包括MM、CM、TVD,其中“图像”和/或“平面”包括单个波束或多个波束。
此外,如本文所用,术语“处理器”或“处理单元”是指可以执行各种实施方案所需的计算的任何类型的处理单元,诸如单核或多核:CPU、加速处理单元(APU)、图形板、DSP、FPGA、ASIC或它们的组合。
应当指出,本文所述的生成或形成图像的各种实施方案可包括用于形成图像的处理,该处理在一些实施方案中包括波束形成,而在其它实施方案中不包括波束形成。例如,可在不进行波束形成的情况下形成图像,诸如通过将解调数据的矩阵乘以系数矩阵,使得乘积是图像,并且其中该过程不形成任何“波束”。另外,可使用可能源自多于一个发射事件的信道组合(例如,合成孔径技术)来执行图像的形成。
在各种实施方案中,在软件、固件、硬件或它们的组合中执行超声处理以形成图像,例如包括超声波束形成,诸如接收波束形成。具有根据各种实施方案形成的软件波束形成器架构的超声系统的一个具体实施在图1中示出。
图1是根据各种实施方案的用于强调2D超声图像中的聚焦区域或深度的示例性超声系统100的框图,2D超声图像为诸如2D彩色流图像和/或3D和/或4D超声图像数据的体积渲染。参见图1,示出了超声系统100。超声系统100包括发射器102、超声探头104、发射波束形成器110、接收器118、接收波束形成器120、A/D转换器122、RF处理器124、RF/IQ缓冲器126、用户输入设备130、信号处理器132、图像缓冲器136、显示系统134和档案138。
发射器102可包括合适的逻辑、电路、接口和/或代码,该逻辑、电路、接口和/或代码可用于驱动超声探头104。超声探头104可包括压电元件的二维(2D)阵列。超声探头104可包括通常构成相同元件的一组发射换能器元件106和一组接收换能器元件108。在某些实施方案中,超声探头104可操作为采集覆盖解剖结构(诸如心脏、血管或任何合适的解剖结构)的至少大部分的超声图像数据。
发射波束形成器110可包括合适的逻辑、电路、接口和/或代码,该逻辑、电路、接口和/或代码可用于控制发射器102,该发射器通过发射子孔径波束形成器114驱动该组发射换能器元件106将超声发射信号发射到感兴趣区域(例如,人、动物、地下空腔、物理结构等)中。发射的超声信号可从感兴趣对象中的结构(如血细胞或组织)反向散射,以产生回波。回波由接收换能器元件108接收。
超声探头104中的该组接收换能器元件108可用于将所接收的回波转换为模拟信号,通过接收子孔径波束形成器116进行子孔径波束形成,然后传送到接收器118。该接收器118可包括合适的逻辑、电路、接口和/或代码,该逻辑、电路、接口和/或代码可操作为接收来自接收子孔径波束形成器116的信号。可以将模拟信号传送到多个A/D转换器122中的一个或多个。
多个A/D转换器122可包括合适的逻辑、电路、接口和/或代码,该逻辑、电路、接口和/或代码可用于将来自接收器118的模拟信号转换为对应的数字信号。多个A/D转换器122设置在接收器118与RF处理器124之间。尽管如此,本公开在这方面并不受限制。因此,在一些实施方案中,多个A/D转换器122可被集成在接收器118内。
RF处理器124可包括合适的逻辑、电路、接口和/或代码,该逻辑、电路、接口和/或代码可用于解调由多个A/D转换器122输出的数字信号。根据一个实施方案,RF处理器124可包括复解调器(未示出),该复解调器可用于解调数字信号以形成代表对应回波信号的I/Q数据对。然后可将RF或I/Q信号数据传送到RF/IQ缓冲器126。该RF/IQ缓冲器126可包括合适的逻辑、电路、接口和/或代码,该逻辑、电路、接口和/或代码可操作为提供由RF处理器124生成的RF或I/Q信号数据的临时存储。
接收波束形成器120可包括合适的逻辑、电路、接口和/或代码,该逻辑、电路、接口和/或代码可操作为执行数字波束形成处理以例如对经由RF/IQ缓冲器126从RF处理器124所接收的延迟信道信号求和并且输出波束求和信号。所得到的处理的信息可以是从接收波束形成器120输出并且传送到信号处理器132的波束求和信号。根据一些实施方案,接收器118、多个A/D转换器122、RF处理器124和波束形成器120可被集成到单个波束形成器中,该单个波束形成器可以是数字的。在各种实施方案中,超声系统100包括多个接收波束形成器120。
用户输入设备130可用于输入患者数据、扫描参数、设置,选择协议和/或模板,启动自动图像分析功能,选择聚焦区域,选择聚焦深度等。在示例性实施方案中,用户输入设备130可操作为配置、管理和/或控制超声系统100中的一个或多个部件和/或模块的操作。就这一点而言,用户输入设备130可用于配置、管理和/或控制发射器102、超声探头104、发射波束形成器110、接收器118、接收波束形成器120、RF处理器124、RF/IQ缓冲器126、用户输入设备130、信号处理器132、图像缓冲器136、显示系统134和/或档案138的操作。用户输入设备130可包括按钮、旋转编码器、触摸屏、触摸板、轨迹球、运动跟踪、语音识别、鼠标设备、键盘、相机和/或能够接收用户指令的任何其它设备。在某些实施方案中,例如,用户输入设备130中的一者或多者可集成到其它部件诸如显示系统134中。例如,用户输入设备130可包括触摸屏显示器。在各种实施方案中,可显示模糊滤波的2D彩色流图像和/或3D或4D超声图像数据的体积渲染,以响应经由用户输入设备130接收的识别感兴趣聚焦区域的指令。
信号处理器132可包括合适的逻辑、电路、接口和/或代码,该逻辑、电路、接口和/或代码可用于处理超声扫描数据(即,求和IQ信号)以便生成用于在显示系统134上呈现的超声图像。信号处理器132可操作为根据所采集的超声扫描数据上的多个可选择超声模态来执行一个或多个处理操作。在示例性实施方案中,信号处理器132可用于执行显示处理和/或控制处理等。随着接收到回波信号,可以在扫描会话期间实时处理采集的超声扫描数据。除此之外或另选地,超声扫描数据可在扫描会话期间暂时存储在RF/IQ缓冲器126中并且在在线操作或离线操作中以不太实时的方式处理。在各种实施方案中,处理的图像数据可呈现在显示系统134处和/或可存储在档案138处。档案138可以是本地档案、图片归档和通信系统(PACS),或用于存储图像和相关信息的任何合适的设备。
信号处理器132可以是一个或多个中央处理单元、微处理器、微控制器等。例如,信号处理器132可以是集成部件,或者可分布在各个位置。在示例性实施方案中,信号处理器132可包括体积渲染处理器140和模糊滤波器处理器150。信号处理器132可能够从用户输入设备130和/或档案138接收输入信息、生成可由显示系统134显示的输出并且响应于来自用户输入设备130的输入信息来操纵输出等。例如,信号处理器132,包括体积渲染处理器140和模糊滤波器处理器150,可能够执行在本文根据各种实施方案所讨论的方法和/或指令集中的任一者。
超声系统100可用于按适用于所考虑的成像情况的帧速率连续采集超声扫描数据。典型的帧速率在20-120的范围内,但可更低或更高。所采集的超声扫描数据可以与帧速率相同、或更慢或更快的显示速率显示在显示系统134上。图像缓冲器136被包括以用于存储未被安排立即显示的所采集的超声扫描数据的处理的帧。优选地,图像缓冲器136具有足够的容量来存储至少几分钟的超声扫描数据的帧。超声扫描数据的帧以根据其采集顺序或时间易于从其取回的方式存储。图像缓冲器136可体现为任何已知的数据存储介质。
信号处理器132可包括体积渲染处理器140,该体积渲染处理器包括合适的逻辑、电路、接口和/或代码,该逻辑、电路、接口和/或代码可用于执行3D和/或4D体积的体积渲染。体积渲染处理器140可用于生成和呈现体积(例如3D和/或4D)数据集的体积渲染(例如2D投影)。就这一点而言,渲染3D和/或4D数据集的2D投影可包括相对于正被显示的对象设置或限定空间上的感知角度,并且然后为数据集中的每个体素限定或计算必要的信息(例如,不透明度和颜色)。这可例如使用合适的传输函数来为每个体素限定RGBA(红色、绿色、蓝色和α)值来完成。所得的体积渲染可包括将深度值与2D投影中的每个像素相关联的深度标测图。
在示例性实施方案中,体积渲染处理器140可被配置为在显示系统134处呈现体积渲染和/或可将体积渲染存储在档案138和/或任何合适的数据存储介质处。体积渲染可提供给模糊滤波器处理器150,用于(1)进行后处理以强调所选聚焦区域,以及(2)在显示系统134处呈现,如下所述。
信号处理器132可包括模糊滤波器处理器150,该模糊滤波器处理器包括合适的逻辑部件、电路、接口和/或代码,该逻辑部件、电路、接口和/或代码可用于后处理和呈现2D超声图像诸如2D彩色流图像和/或体积渲染,以强调2D超声图像内的所选聚焦区域。例如,所选聚焦区域可以是由在2D超声图像上方操纵的光标的位置限定的聚焦区域。又如,所选聚焦区域可以是经由用户输入设备130选择的聚焦深度。又如,可由模糊滤波器处理器150自动选择所选聚焦区域以突出显示由人工智能图像分析算法自动识别的结构。模糊滤波器处理器150可用于接收2D超声图像,接收用户和/或自动聚焦区域选择,以及对所选聚焦区域之外的2D超声图像中的超声图像数据应用模糊滤波。例如,模糊滤波器处理器150可通过应用方框线性滤波器(即,方框模糊)执行模糊滤波,使得非聚焦区域中的每个像素具有等于其相邻像素的平均值的值,以提供散景效果。又如,模糊滤波器处理器150可通过应用高斯模糊或任何合适的模糊滤波来执行模糊滤波,以不再强调聚焦区域之外的2D超声图像中的区域。
在代表性实施方案中,模糊滤波器处理器150可用于动态更新模糊滤波以响应聚焦区域选择的变化。例如,聚焦区域选择可对应于围绕光标的预定义形状,诸如圆形、方框或任何合适的形状。例如,光标周围的聚焦区域的尺寸可为默认尺寸或可由用户选择和/或调整的尺寸。光标周围的聚焦区域可由模糊滤波器处理器150保持在焦点上,而聚焦区域之外的区域被模糊滤波器处理器150模糊(即,失焦)。随着光标围绕2D超声图像移动,聚焦区域可由模糊滤波器处理器150动态地更新。又如,聚焦区域选择可对应于由用户输入设备130提供的深度选择,诸如通过滚动计算机鼠标的滚轮、旋转旋转编码器、操纵轨迹球、从深度选项的下拉菜单或列表中选择深度等。模糊滤波器处理器150可用于随着用户改变或滚动通过景深基于当前选择的深度动态地更新模糊滤波,使得仅所选深度处的结构保持在焦点上,同时由模糊滤波器处理器150对所选深度之外深度处的结构进行模糊滤波。
在各种实施方案中,模糊滤波器处理器150可包括合适的逻辑、电路、接口和/或代码,该逻辑、电路、接口和/或代码可用于自动分析要识别、分割、诊断的2D超声图像,和/或在体积渲染中描绘的类似结构。模糊滤波器处理器150可包括例如人工智能图像分析算法、一个或多个深度神经网络(例如,卷积神经网络,诸如u-net)和/或可利用被配置为提供自动化分析特征和/或工具的任何合适形式的人工智能图像分析技术或机器学习处理功能。除此之外和/或另选地,被配置为提供自动化分析特征和/或工具的人工智能图像分析技术或机器学习处理功能可由不同的处理器提供或分布在超声系统100、医疗工作站200和/或通信地耦接到超声系统100和/或医疗工作站200的远程处理器处的多个处理器上。例如,一个或多个图像分析工具可被提供为深度神经网络,该深度神经网络可由例如输入层、输出层以及输入层与输出层之间的一个或多个隐藏层构成。每个层可由可称为神经元的多个处理节点构成。例如,一个或多个图像分析工具可包括输入层,该输入层具有用于来自解剖结构的2D超声图像的每个像素或一组像素的神经元。输出层可具有对应于多个预定义的解剖结构的神经元。例如,如果执行基于超声波的心脏检查,则输出层可包括用于二尖瓣、主动脉瓣、心室腔室、心房腔室、隔膜、乳头肌、下壁和/或任何合适的心脏结构的神经元。其它医学成像规程可利用输出层,这些输出层包括用于神经、血管、骨、器官、组织或任何合适结构的神经元。每个层的每个神经元可执行处理功能,并且将处理的2D超声图像信息传递到下游层的多个神经元中的一个神经元以用于进一步处理。例如,第一层的神经元可学习识别2D超声图像中的结构边缘。第二层的神经元可学习基于来自第一层的检测边缘识别形状。第三层的神经元可学习所识别的形状相对于2D超声图像中的界标的位置。由深度神经网络执行的处理可以大概率识别2D超声图像中的解剖结构、结构的位置和解剖结构的异常。在各种实施方案中,模糊滤波器处理器150可基于已经检测到异常的解剖结构的位置来选择聚焦区域。例如,可选择聚焦区域或深度以强调由图像分析工具检测到的任何异常。模糊滤波器处理器150可将模糊滤波应用于聚焦区域之外的描绘结构异常的区域。
显示系统134可以是能够将视觉信息传送给用户的任何设备。例如,显示系统134可包括液晶显示器、发光二极管显示器、和/或任何合适的一种或多种显示器。显示系统134可用于显示来自信号处理器132和/或档案138的信息,诸如2D彩色流图像、体积渲染、模糊滤波的2D彩色流图像、模糊滤波的体积渲染和/或任何合适的信息。
档案138可以是与超声系统100集成和/或可通信地耦接(例如,通过网络)到超声系统100的一个或多个计算机可读存储器,诸如图像归档和通信系统(PACS)、服务器、硬盘、软盘、CD、CD-ROM、DVD、紧凑存储器、闪存存储器、随机存取存储器、只读存储器、可电擦除和可编程只读存储器和/或任何合适的存储器。档案138可包括例如由信号处理器132访问和/或结合到信号处理器132的数据库、库、信息集或其它存储器。例如,档案138能够暂时或永久地存储数据。档案138可能能够存储医学图像数据、由信号处理器132生成的数据和/或信号处理器132可读取的指令等。在各种实施方案中,档案138存储2D超声图像、3D和/或4D体积、由体积渲染处理器140生成的体积渲染、用于执行体积渲染的指令、模糊滤波的2D超声图像、用于识别2D超声图像中的异常的指令和/或用于执行模糊滤波的指令等。
图2是根据各种实施方案的用于强调2D超声图像中的聚焦区域或深度的示例性医疗工作站200的框图,2D超声图像为诸如2D彩色流图像和/或3D和/或4D超声图像数据的体积渲染。在各种实施方案中,医疗工作站200的部件可与超声系统100(如图1所示和如上所述)的部件共享各种特性。参见图2,医疗工作站200包括显示系统134、信号处理器132、档案138和用户输入设备130等。医疗工作站200的部件可在软件、硬件、固件等中实现。医疗工作站200的各种部件可以通信地链接。医疗工作站200的部件可单独实现和/或以各种形式集成。例如,显示系统134和用户输入设备130可集成为触摸屏显示器。
显示系统134可以是能够将视觉信息传送给用户的任何设备。例如,显示系统134可包括液晶显示器、发光二极管显示器、和/或任何合适的一种或多种显示器。显示系统134可用于显示来自信号处理器132和/或档案138的信息,诸如2D彩色流图像、体积渲染、模糊滤波的2D彩色流图像、模糊滤波的体积渲染和/或任何合适的信息。
信号处理器132可以是一个或多个中央处理单元、微处理器、微控制器等。例如,信号处理器132可以是集成部件,或者可分布在各个位置。信号处理器132包括体积渲染处理器140和模糊滤波器处理器150,如上文参见图1所述,并且可能能够从用户输入设备130和/或档案138接收输入信息、生成可由显示系统134显示的输出并且响应于来自用户输入设备130的输入信息来操纵输出等。例如,信号处理器132、体积渲染处理器140和/或模糊滤波器处理器150可能够执行在本文根据各种实施方案所讨论的方法和/或指令集中的任一者。
档案138可以是与医疗工作站200集成和/或可通信地耦接(例如,通过网络)到医疗工作站200的一个或多个计算机可读存储器,诸如图像归档和通信系统(PACS)、服务器、硬盘、软盘、CD、CD-ROM、DVD、紧凑存储器、闪存存储器、随机存取存储器、只读存储器、可电擦除和可编程只读存储器和/或任何合适的存储器。档案138可包括例如由信号处理器132访问和/或结合到信号处理器132的数据库、库、信息集或其它存储器。例如,档案138能够暂时或永久地存储数据。档案138可能能够存储医学图像数据、由信号处理器132生成的数据和/或信号处理器132可读取的指令等。在各种实施方案中,档案138存储2D超声图像、3D和/或4D体积、由体积渲染处理器140生成的体积渲染、用于执行体积渲染的指令、模糊滤波的2D超声图像、用于识别2D超声图像中的异常的指令和/或用于执行模糊滤波的指令等。
例如,用户输入设备130可包括能够从用户和/或在用户的指示下将信息传送给医疗工作站200的信号处理器132的任何设备。如上文相对于图1所讨论的,用户输入设备130可包括触摸面板、按钮、鼠标设备、键盘、旋转编码器、轨迹球、触摸板、相机、语音识别和/或能够接收用户指令的任何其它设备。
图3是根据各种实施方案的以3D和/或4D图像数据的体积渲染300描绘的对象的显示。参见图3,3D和/或4D图像数据的体积渲染300描绘了诸如心脏的对象。体积渲染300可由例如体积渲染处理器140从3D和/或4D超声数据生成,并且呈现在显示系统134处和/或存储在档案138或任何合适的数据存储介质处。
图4是根据各种实施方案的将模糊滤波304应用于聚焦区域302之外的图像数据的3D和/或4D超声图像数据的体积渲染300的示例性显示。参见图4,对体积渲染300进行后处理,以包括聚焦区域中的非模糊图像数据302和聚焦区域之外的模糊图像数据304。非模糊图像数据302的聚焦区域可基于选择聚焦区域的用户输入、选择聚焦深度的用户输入和/或选择对应于检测到的成像结构异常的聚焦区域或深度的人工智能图像分析算法进行选择。模糊图像数据304可由模糊滤波器处理器150提供,以强调和/或以其它方式突出所选聚焦区域中的图像数据302。
图5是根据各种实施方案的将模糊滤波304应用于聚焦区域302之外的图像数据的3D和/或4D超声图像数据的体积渲染300的示例性显示。参见图5,光标310定位在体积渲染300上方以选择体积渲染300中的聚焦区域。对体积渲染300进行后处理,以包括光标310周围的聚焦区域中的非模糊图像数据302和聚焦区域之外的模糊图像数据304。聚焦区域可为预定义的和/或用户选择的尺寸和形状320。例如,图5的聚焦区域是围绕光标310的圆形形状320。在各种实施方案中,聚焦区域的形状320可为框形、椭圆形或任何合适的形状。在各种实施方案中,随着围绕体积渲染300操纵光标310,聚焦区域被动态地更新。例如,随着光标310围绕体积渲染300移动以强调光标310周围的图像数据,模糊滤波器处理器150可将光标310周围的聚焦区域保持在焦点上,而聚焦区域之外的区域被模糊滤波器处理器150模糊。
图6是根据示例性实施方案的将模糊滤波304应用于聚焦区域302之外的图像数据的2D彩色流图像300的示例性显示。参见图6,2D超声图像300可为在聚焦区域之外具有非模糊图像数据302和模糊图像数据304的聚焦区域的2D彩色流图像。例如,具有非模糊图像数据302和模糊图像数据304的2D彩色流图像300可强调呈现给医务人员、提供在报告中的、作为文档提供等的非模糊图像数据302。
图7是示出根据示例性实施方案的可用于强调2D超声图像300中的聚焦区域或深度302的示例性步骤402至410的流程图400,2D超声图像为诸如2D彩色流图像和/或3D和/或4D超声图像数据的体积渲染。参考图7,示出了包括示例性步骤402至410的流程图400。某些实施方案可省略一个或多个步骤,和/或以与所列顺序不同的顺序执行步骤,和/或组合下文讨论的某些步骤。例如,在某些实施方案中可能不执行一些步骤。例如,如果2D超声图像是2D彩色流图像,则可省略步骤404。又如,某些步骤可能以与下面所列时间顺序不同的时间顺序执行,包括同时执行。
在步骤402处,超声系统100或医疗工作站200的信号处理器132可接收超声体积数据集。例如,超声系统100可用超声探头104采集3D和/或4D体积。超声探头104可将所采集的3D和/或4D体积提供给信号处理器132。又如,医疗工作站200或超声系统100的信号处理器132可从档案138或任何合适的数据存储介质检索3D和/或4D体积。另选地,超声系统100或医疗工作站200的信号处理器132可接收2D超声图像,诸如2D彩色流图像或任何合适的2D超声图像,并且跳到步骤406。
在步骤404处,超声系统100或医疗工作站200的信号处理器132可对超声体积数据集执行体积渲染以生成体积渲染300。例如,医疗工作站200或超声系统100的信号处理器132的体积渲染处理器140可将在步骤402处接收的3D和/或4D体积渲染到体积渲染300中,以呈现在超声系统100或医疗工作站200的显示系统134处。
在步骤406处,超声系统100或工作站200的信号处理器132可接收感兴趣聚焦区域302的识别。例如,信号处理器132的模糊滤波器处理器150可从用户输入设备130或经由人工智能图像分析算法接收所选的感兴趣聚焦区域。例如,聚焦区域可以是由经由用户输入设备130操纵的光标在2D超声图像300上方的位置限定的所选聚焦区域。又如,聚焦区域可以是经由用户输入设备130选择的聚焦深度。除此之外或另选地,可基于由人工智能图像分析算法检测到的成像结构异常来自动选择聚焦区域。
在步骤408处,超声系统100或工作站200的信号处理器132可对所识别的感兴趣聚焦区域302之外的体积渲染300(或任何合适的2D超声图像)的图像数据304执行模糊滤波。例如,信号处理器132的模糊滤波器处理器150可将方框线性滤波器(即,方框模糊)、高斯模糊和/或任何合适的模糊滤波应用于聚焦区域302之外的体积渲染300的图像数据304,以不再强调聚焦区域302之外的体积渲染300中的图像数据304。模糊滤波可得到在聚焦区域内的区域和/或深度处的非模糊图像数据302以及在聚焦区域之外的区域和/或深度处的模糊图像数据304。
在步骤410处,超声系统100或工作站200的信号处理器132可在显示系统134处呈现具有模糊滤波的体积渲染(或任何合适的2D超声图像300)。在各种实施方案中,如果诸如通过用户移动光标310或滚动到不同深度来重新限定聚焦区域,则可动态地重复步骤406至410。
本公开的各方面提供了用于通过对聚焦区域或深度302之外的图像数据304执行模糊滤波来强调二维(2D)超声图像300中的聚焦区域或深度302的方法400和系统100、200,二维超声图像为诸如2D彩色流图像和/或三维(3D)和/或四维(4D)超声图像数据的体积渲染。根据各种实施方案,方法400可包括由至少一个处理器在显示系统134处呈现404对象的2D超声图像300。方法400可包括由至少一个处理器132、150接收406在2D超声图像300内的感兴趣聚焦区域302的识别。方法400可包括由至少一个处理器132、150对所识别的感兴趣聚焦区域302之外的2D超声图像300的图像数据304执行408模糊滤波。方法400可包括由至少一个处理器132、150在显示系统134处呈现410具有模糊滤波304的2D超声图像300。
在代表性实施方案中,2D超声图像300是2D彩色流图像。在示例性实施方案中,2D超声图像300是体积渲染,并且方法400可包括由至少一个处理器132、140渲染404三维(3D)或四维(4D)体积以生成体积渲染300。在某些实施方案中,感兴趣聚焦区域302是经由用户输入设备130选择的聚焦深度。在各种实施方案中,感兴趣聚焦区域302是经由用户输入设备130选择的聚焦区域。在代表性实施方案中,聚焦区域302通过由用户输入设备130操纵的光标310在2D超声图像300上方的位置限定。聚焦区域302可包括围绕光标310的默认形状320或用户定义形状320中的一者。聚焦区域302可包括默认尺寸或用户定义尺寸中的一者。在示例性实施方案中,感兴趣聚焦区域302的识别可由至少一个处理器132、150基于通过应用至少一种人工智能图像分析算法检测到的对象的至少一个异常来接收。在某些实施方案中,模糊滤波304可为方框模糊或高斯模糊中的一者。
各种实施方案提供了用于通过对聚焦区域或深度302之外的图像数据304执行模糊滤波来强调2D超声图像300中的聚焦区域或深度302的系统100、200,2D超声图像为诸如2D彩色流图像和/或三维(3D)和/或四维(4D)超声图像数据的体积渲染300。系统100、200可包括至少一个处理器132、140、150和显示系统134。至少一个处理器132、150可被配置为接收对象的2D超声图像300内的感兴趣聚焦区域302的识别。至少一个处理器132、150可被配置为对所识别的感兴趣聚焦区域302之外的2D超声图像300的图像数据304执行模糊滤波。显示系统134可被配置为显示具有模糊滤波304的2D超声图像300。
在示例性实施方案中,系统100、200可为超声系统100或医疗工作站200。在某些实施方案中,2D超声图像300可为体积渲染。至少一个处理器132、140可被配置为渲染三维(3D)或四维(4D)体积以生成体积渲染300。在各种实施方案中,系统100、200可包括用户输入设备130。感兴趣聚焦区域302可为经由用户输入设备130选择的聚焦深度。在代表性实施方案中,系统100、200可包括用户输入设备130。感兴趣聚焦区域302可为经由用户输入设备130选择的聚焦区域。聚焦区域302通过由用户输入设备130操纵的光标310在2D超声图像300上方的位置限定。聚焦区域302可包括围绕光标310的默认形状320或用户定义形状320中的一者。聚焦区域302可包括默认尺寸或用户定义尺寸中的一者。在示例性实施方案中,至少一个处理器132、150可被配置为基于通过应用至少一种人工智能图像分析算法检测到的对象的至少一个异常来识别感兴趣聚焦区域302。在各种实施方案中,模糊滤波304可为方框模糊或高斯模糊中的一者。
某些实施方案提供非暂态计算机可读介质,该非暂态计算机可读介质上存储有计算机程序,该计算机程序具有至少一个代码段。该至少一个代码段可由机器执行以使该机器执行步骤400。该步骤400可包括在显示系统134处呈现404对象的2D超声图像300。该步骤400可包括接收406在2D超声图像300内的感兴趣聚焦区域302的识别。该步骤400可包括对所识别的感兴趣聚焦区域302之外的2D超声图像300的图像数据304执行408模糊滤波。该步骤400可包括在显示系统134处呈现410具有模糊滤波304的2D超声图像300。
在各种实施方案中,感兴趣区域302可为经由用户输入设备130选择的聚焦深度。在代表性实施方案中,感兴趣聚焦区域302可为经由用户输入设备130选择的聚焦区域。该聚焦区域302通过由用户输入设备130操纵的光标310在2D超声图像300上方的位置限定。聚焦区域302可包括围绕光标310的默认形状320或用户定义形状320中的一者。聚焦区域302可包括默认尺寸或用户定义尺寸中的一者。在示例性实施方案中,感兴趣聚焦区域302的识别可基于通过应用至少一种人工智能图像分析算法检测到的对象的至少一个异常。在某些实施方案中,模糊滤波304可为方框模糊或高斯模糊中的一者。
如本文所用,术语“电路”是指物理电子部件(即,硬件)以及可配置硬件、可由硬件执行和/或可以其它方式与硬件相关联的任何软件和/或固件(“代码”)。例如,如本文所用,当执行一条或多条第一代码时,特定处理器和存储器可包括第一“电路”,并且在执行一条或多条第二代码时,特定处理器和存储器可包括第二“电路”。如本文所用,“和/或”表示列表中的由“和/或”连结的项中的任一个或多个项。作为一个示例,“x和/或y”表示三元素集{(x),(y),(x,y)}中的任何元素。作为另一个示例,“x、y和/或z”表示七元素集{(x),(y),(z),(x,y),(x,z),(y,z),(x,y,z)}中的任何元素。如本文所用,术语“示例性”表示用作非限制性示例、实例或例证。如本文所用,术语“例如(e.g.)”和“例如(for example)”引出一个或多个非限制性示例、实例或例证的列表。如本文所用,电路“用于”或“被配置为”每当该电路包括执行功能的必需硬件和代码(如果需要的话)时就执行该功能,不管是否通过某些用户可配置的设置禁用或不启用该功能的执行。
其它实施方案可提供计算机可读设备和/或非暂态计算机可读介质,和/或机器可读设备和/或非暂态机器可读介质,该计算机可读设备和/或非暂态计算机可读介质和/或该机器可读设备和/或非暂态机器可读介质上存储有机器代码和/或具有可由机器和/或计算机执行的至少一个代码段的计算机程序,从而使机器和/或计算机执行如本文所述的步骤,以通过对聚焦区域或深度之外的图像数据执行模糊滤波来强调2D超声图像的聚焦区域或深度,2D超声图像为诸如2D彩色流图像和/或三维(3D)和/或四维(4D)超声图像数据的体积渲染。
因此,本公开可在硬件、软件或硬件和软件的组合中实现。本公开可能以集中方式在至少一个计算机系统中实现,或以分布式方式实现,其中不同的元件分布在若干互连的计算机系统上。适于执行本文所述的方法的任何种类的计算机系统或其它设备都是合适的。
各种实施方案也可嵌入计算机程序产品中,该计算机程序产品包括能够实现本文所述的方法的所有特征,并且当加载到计算机系统中时能够执行这些方法。本文中的计算机程序是指以任何语言、代码或符号表示的一组指令的任何表达,这些指令旨在使具有信息处理能力的系统直接执行特定功能或在以下两项或其中一项之后执行特定功能:a)转换为另一种语言、代码或符号;b)以不同的物质形式进行复制。
虽然已经参考某些实施方案来描述了本公开,但是本领域的技术人员应当理解,在不脱离本公开的范围的情况下,可以进行各种改变并可以替换等同物。另外,在不脱离本公开的范围的情况下,可以进行许多修改以使特定情况或材料适应于本公开的教导。因此,本公开不旨在限于所公开的特定实施方案,而是本公开将包括落入所附权利要求书的范围内的所有实施方案。

Claims (20)

1.一种方法,包括:
由至少一个处理器在显示系统处呈现对象的二维(2D)超声图像;
由所述至少一个处理器接收所述2D超声图像内的感兴趣聚焦区域的识别;
由所述至少一个处理器对所识别的感兴趣聚焦区域之外的所述2D超声图像的图像数据执行模糊滤波;以及
由所述至少一个处理器在所述显示系统处呈现具有所述模糊滤波的所述2D超声图像。
2.根据权利要求1所述的方法,其中所述2D超声图像是2D彩色流图像。
3.根据权利要求1所述的方法,其中所述2D超声图像是体积渲染,并且包括由所述至少一个处理器渲染三维(3D)或四维(4D)体积以生成所述体积渲染。
4.根据权利要求1所述的方法,其中所述感兴趣聚焦区域是经由用户输入设备选择的聚焦深度。
5.根据权利要求1所述的方法,其中所述感兴趣聚焦区域是经由用户输入设备选择的聚焦区域。
6.根据权利要求5所述的方法,其中:
所述聚焦区域通过由所述用户输入设备操纵的光标在所述2D超声图像上方的位置限定,
所述聚焦区域包括围绕所述光标的默认形状或用户定义形状中的一者,并且
所述聚焦区域包括默认尺寸或用户定义尺寸中的一者。
7.根据权利要求1所述的方法,其中所述感兴趣聚焦区域的所述识别由所述至少一个处理器基于通过应用至少一种人工智能图像分析算法检测到的所述对象的至少一个异常来接收。
8.根据权利要求1所述的方法,其中所述模糊滤波是方框模糊或高斯模糊中的一者。
9.一种系统,包括:
至少一个处理器,所述至少一个处理器被配置为:
接收对象的二维(2D)超声图像内的感兴趣聚焦区域的识别;以及
对所识别的感兴趣聚焦区域之外的所述2D超声图像的图像数据执行模糊滤波;以及
显示系统,所述显示系统被配置为显示具有所述模糊滤波的所述2D超声图像。
10.根据权利要求9所述的系统,其中所述系统是超声系统或医疗工作站。
11.根据权利要求9所述的系统,其中所述2D超声图像是体积渲染,并且其中所述至少一个处理器被配置为渲染三维(3D)或四维(4D)体积以生成所述体积渲染。
12.根据权利要求9所述的系统,包括用户输入设备,其中所述感兴趣聚焦区域是经由所述用户输入设备选择的聚焦深度。
13.根据权利要求9所述的系统,包括用户输入设备,其中:
所述感兴趣聚焦区域是经由所述用户输入设备选择的聚焦区域,
所述聚焦区域通过由所述用户输入设备操纵的光标在所述2D超声图像上方的位置限定,
所述聚焦区域包括围绕所述光标的默认形状或用户定义形状中的一者,并且
所述聚焦区域包括默认尺寸或用户定义尺寸中的一者。
14.根据权利要求9所述的系统,其中所述至少一个处理器被配置为基于通过应用至少一种人工智能图像分析算法检测到的所述对象的至少一个异常来识别所述感兴趣聚焦区域。
15.根据权利要求9所述的系统,其中所述模糊滤波是方框模糊或高斯模糊中的一者。
16.一种非暂态计算机可读介质,所述非暂态计算机可读介质上存储有计算机程序,所述计算机程序具有至少一个代码段,所述至少一个代码段能够由机器执行以使得所述机器执行包括下列的步骤:
在显示系统处呈现对象的二维(2D)超声图像;
接收所述2D超声图像内的感兴趣聚焦区域的识别;
对所识别的感兴趣聚焦区域之外的所述2D超声图像的图像数据执行模糊滤波;以及
在所述显示系统处呈现具有所述模糊滤波的所述2D超声图像。
17.根据权利要求16所述的非暂态计算机可读介质,其中所述感兴趣聚焦区域是经由用户输入设备选择的聚焦深度。
18.根据权利要求16所述的非暂态计算机可读介质,其中:
所述感兴趣聚焦区域是经由用户输入设备选择的聚焦区域,
所述聚焦区域通过由所述用户输入设备操纵的光标在所述2D超声图像上方的位置限定,
所述聚焦区域包括围绕所述光标的默认形状或用户定义形状中的一者,并且
所述聚焦区域包括默认尺寸或用户定义尺寸中的一者。
19.根据权利要求16所述的非暂态计算机可读介质,其中所述感兴趣聚焦区域的所述识别基于通过应用至少一种人工智能图像分析算法检测到的所述对象的至少一个异常。
20.根据权利要求16所述的非暂态计算机可读介质,其中所述模糊滤波是方框模糊或高斯模糊中的一者。
CN202011250899.4A 2019-12-06 2020-11-11 用于提供模糊滤波以强调超声图像数据中的聚焦区域或深度的方法和系统 Pending CN113034375A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/705,704 2019-12-06
US16/705,704 US20210174476A1 (en) 2019-12-06 2019-12-06 Method and system for providing blur filtering to emphasize focal regions or depths in ultrasound image data

Publications (1)

Publication Number Publication Date
CN113034375A true CN113034375A (zh) 2021-06-25

Family

ID=76210615

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011250899.4A Pending CN113034375A (zh) 2019-12-06 2020-11-11 用于提供模糊滤波以强调超声图像数据中的聚焦区域或深度的方法和系统

Country Status (2)

Country Link
US (1) US20210174476A1 (zh)
CN (1) CN113034375A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023045526A1 (en) * 2021-09-23 2023-03-30 International Business Machines Corporation Selectively pausing physical movement in a virtual environment
CN115908601A (zh) * 2022-09-19 2023-04-04 北京朗视仪器股份有限公司 一种基于人工交互的数字化口腔全景重建方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113962274B (zh) * 2021-11-18 2022-03-08 腾讯科技(深圳)有限公司 一种异常识别方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130033582A1 (en) * 2011-08-04 2013-02-07 Aptina Imaging Corporation Method of depth-based imaging using an automatic trilateral filter for 3d stereo imagers
US20130050432A1 (en) * 2011-08-30 2013-02-28 Kathryn Stone Perez Enhancing an object of interest in a see-through, mixed reality display device
US20140176592A1 (en) * 2011-02-15 2014-06-26 Lytro, Inc. Configuring two-dimensional image processing based on light-field parameters
US20190336101A1 (en) * 2016-11-16 2019-11-07 Teratech Corporation Portable ultrasound system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102390184B1 (ko) * 2017-04-26 2022-04-25 삼성전자주식회사 전자 장치 및 전자 장치의 영상 표시 방법
US20210004962A1 (en) * 2019-07-02 2021-01-07 Qualcomm Incorporated Generating effects on images using disparity guided salient object detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140176592A1 (en) * 2011-02-15 2014-06-26 Lytro, Inc. Configuring two-dimensional image processing based on light-field parameters
US20130033582A1 (en) * 2011-08-04 2013-02-07 Aptina Imaging Corporation Method of depth-based imaging using an automatic trilateral filter for 3d stereo imagers
US20130050432A1 (en) * 2011-08-30 2013-02-28 Kathryn Stone Perez Enhancing an object of interest in a see-through, mixed reality display device
US20190336101A1 (en) * 2016-11-16 2019-11-07 Teratech Corporation Portable ultrasound system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FEI XU 等: "Tumor Saliency Estimation for Breast Ultrasound Images via Breast Anatomy Modeling", 《ARXIV:1906.07760》, 18 June 2019 (2019-06-18), pages 13 - 14 *
JT ENNS 等: "The Role of Clarity and Blur in Guiding Visual Attention in Photographs", 《JOURNAL OF EXPERIMENTAL PSYCHOLOGY: HUMAN PERCEPTION AND PERFORMANCE》, vol. 39, no. 02, 17 September 2012 (2012-09-17), pages 568 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023045526A1 (en) * 2021-09-23 2023-03-30 International Business Machines Corporation Selectively pausing physical movement in a virtual environment
CN115908601A (zh) * 2022-09-19 2023-04-04 北京朗视仪器股份有限公司 一种基于人工交互的数字化口腔全景重建方法

Also Published As

Publication number Publication date
US20210174476A1 (en) 2021-06-10

Similar Documents

Publication Publication Date Title
US10515452B2 (en) System for monitoring lesion size trends and methods of operation thereof
EP3826544B1 (en) Ultrasound system with an artificial neural network for guided liver imaging
CN113034375A (zh) 用于提供模糊滤波以强调超声图像数据中的聚焦区域或深度的方法和系统
US11903768B2 (en) Method and system for providing ultrasound image enhancement by automatically adjusting beamformer parameters based on ultrasound image analysis
CN114902288A (zh) 利用基于解剖结构的三维(3d)模型切割进行三维(3d)打印的方法和系统
US11250564B2 (en) Methods and systems for automatic measurement of strains and strain-ratio calculation for sonoelastography
US20170011516A1 (en) Systems for monitoring lesion size trends and methods of operation thereof
CN112568927A (zh) 用于为三维的和四维的超声图像提供旋转预览的方法和系统
US20230123169A1 (en) Methods and systems for use of analysis assistant during ultrasound imaging
US11903898B2 (en) Ultrasound imaging with real-time visual feedback for cardiopulmonary resuscitation (CPR) compressions
US11974881B2 (en) Method and system for providing an anatomic orientation indicator with a patient-specific model of an anatomical structure of interest extracted from a three-dimensional ultrasound volume
US11510655B2 (en) Methods and systems for motion corrected wide-band pulse inversion ultrasonic imaging
CN112515705A (zh) 用于投影轮廓启用的计算机辅助检测(cad)的方法和系统
CN112955076A (zh) 用于基于多栅极多普勒信号的脉冲波多普勒信号随时间跟踪解剖结构的方法和系统
US20240070817A1 (en) Improving color doppler image quality using deep learning techniques
US20230316520A1 (en) Methods and systems to exclude pericardium in cardiac strain calculations
US11382595B2 (en) Methods and systems for automated heart rate measurement for ultrasound motion modes
US20210204908A1 (en) Method and system for assisted ultrasound scan plane identification based on m-mode analysis
US20210390685A1 (en) Method and system for providing clutter suppression in vessels depicted in b-mode ultrasound images
US11881301B2 (en) Methods and systems for utilizing histogram views for improved visualization of three-dimensional (3D) medical images
US20240206852A1 (en) System and method for automatically acquiring and rotating an ultrasound volume based on a localized target structure
CN114795276A (zh) 用于从超声图像自动估计肝肾指数的方法和系统
CN115024748A (zh) 用于自动检测超声图像视图和焦点以提供测量适用性反馈的方法和系统
CN118252541A (zh) 用于基于局部目标结构自动获取和旋转超声体积的系统和方法
CN117522887A (zh) 用于定义超声图像中的感兴趣区域的边界的系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination