CN112435305A - 一种基于深度学习的超高分辨超声成像方法 - Google Patents

一种基于深度学习的超高分辨超声成像方法 Download PDF

Info

Publication number
CN112435305A
CN112435305A CN202010657793.XA CN202010657793A CN112435305A CN 112435305 A CN112435305 A CN 112435305A CN 202010657793 A CN202010657793 A CN 202010657793A CN 112435305 A CN112435305 A CN 112435305A
Authority
CN
China
Prior art keywords
ultrasonic
training
image
imaging
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010657793.XA
Other languages
English (en)
Inventor
刘欣
周天扬
刘颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN202010657793.XA priority Critical patent/CN112435305A/zh
Publication of CN112435305A publication Critical patent/CN112435305A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution

Abstract

本发明公开了一种基于深度学习的超高分辨超声成像方法,构建深度学习超分辨超声成像模型;基于仿真超声训练数据,训练上述构建的深度学习模型;在超声造影剂的介入下,对成像对象进行超声成像,以获取不同时刻的一组超声图像;然后基于训练好的深度学习模型,对上述实验获取的超声图像序列进行处理,实现对每一帧超声图像中微泡的精确定位;最后,将所有帧的定位结果进行叠加,实现超高分辨超声成像。本发明提出的方法在显著提高超声成像的空间分辨率的同时,保持了较高的成像时间分辨率。在深度学习模型训练完成之后的定位过程中,该方法的计算复杂度较小,并且避免了参数精细调节,不需要额外的人工干预,适用于快速的超高分辨超声成像。

Description

一种基于深度学习的超高分辨超声成像方法
技术领域
本发明涉及一种基于深度学习(Deep Learning,DL)的超高分辨超声成像方法。具体而言,构建深度学习超分辨超声成像模型,包括深度卷积神经网络(ConvolutionalNeural Networks,CNN)架构和损失函数;基于仿真超声训练数据,训练上述构建的深度学习模型;在超声造影剂(微泡)的介入下,对成像对象进行超声成像,以获取不同时刻的一组超声图像;然后,基于训练好的深度学习模型,对上述实验获取的超声图像序列进行处理,实现对每一帧超声图像中微泡的精确定位;最后,将所有帧的定位结果进行叠加,实现超高分辨超声成像。基于该成像方法,需要获取超声成像系统的点扩散函数(PointSpreadFunction,PSF) 并生成相应的训练数据。详细而言,基于超声成像系统,对成像区域内的单个点散射体(微泡)进行多次成像,通过多次测量得到单个微泡的平均横向半高宽FHWMx与平均纵向半高宽 FHWMy计算得到横向标准差δx与纵向标准差δy,基于此,估算出超声成像系统的点扩散函数;然后基于上述估算得到的点扩散函数,生成仿真超声训练数据用于深度学习模型的训练。本发明提出的方法在显著提高超声成像的空间分辨率的同时,保持了较高的成像时间分辨率。在深度学习模型训练完成之后的定位过程中,该方法的计算复杂度较小,并且避免了参数精细调节,不需要额外的人工干预,适用于快速的超高分辨超声成像。
背景技术
超声成像是现阶段主要的医学成像模态之一,已被广泛应用于临床实践,其优势在于可以非侵入地对大于10cm的组织实现无辐射成像。然而,受衍射理论限制,超声成像的空间分辨率不高,大约为发射波长的一半。从某种角度而言,这限制了超声成像在临床中的进一步应用。
深度学习是一种新兴的技术,目前已被广泛应用于各种领域。当被用于图像超分辨重建时,深度学习技术有很好的表现。简要而言,深度学习方法以低分辨图像为深度卷积神经网络的输入,相应的高分辨图像为训练标签,通过训练来学习低分辨图像到高分辨图像之间的端到端映射。基于训练好的深度学习模型,可以实现对低分辨图像的超分辨重建。
在基于造影剂(微泡)的超声成像中,超声成像系统获取的原始超声图像可视为低分辨图像,原始超声图像中由微泡真实位置构成的图像可被视为高分辨图像。基于此,在本发明中,我们拟将深度学习技术与超声成像相结合,以期通过训练深度学习模型实现原始超声图像中微泡的精确定位,从而实现超高分辨超声成像。考虑到,由于梯度消失或梯度爆炸等原因,较深的网络变得难以训练。为了克服这个限制,本发明在全卷积神经网络的基础上添加了跳跃连接,构建了5个残差模块,使得训练误差大大减小,误差可以收敛到一个较小的值附近。考虑到,采用图像处理中常用的均方误差(Mean Square Error,MSE)损失函数来训练深度学习模型会使得重建图像过于平滑,无法很好地保留图像细节信息,不适用于微泡定位任务。因此,我们使用MSE结合L1正则化的损失函数来训练深度学习模型。考虑到,在构建好了一个合理的深度学习模型并且经过了较好的训练以后,在定位过程中,我们只要将原始超声图像输入到模型中就可以得到输出的微泡定位结果,无需任何额外的运算或者人工调参,以此在实现快速超声成像的同时,减小计算复杂度,避免参数依赖性。
发明内容
本发明的目的在于针对现有超声成像技术中存在的不足,提出一种基于深度学习的超高分辨超声成像方法,在显著提高超声成像的空间分辨率的同时,保持较高的成像时间分辨率。在定位过程中,减小计算复杂度,避免参数精细调节,减小对人工干预的依赖性。
为达到上述目的,本技术的发明构思是:
构建深度学习超分辨超声成像模型,包括深度卷积神经网络架构和损失函数;基于仿真超声训练数据,训练上述构建的深度学习模型;在超声造影剂(微泡)的介入下,对成像对象进行超声成像,以获取不同时刻的一组超声图像;然后,基于训练好的深度学习模型,对上述实验获取的超声图像序列进行处理,实现对每一帧超声图像中微泡的精确定位;最后,将所有帧的定位结果进行叠加,实现超高分辨超声成像。基于该成像方法,需要获取超声成像系统的点扩散函数并生成相应的训练数据。详细而言,基于超声成像系统,对成像区域内的单个点散射体(微泡)进行多次成像,通过多次测量得到单个微泡的平均横向半高宽FHWMx与平均纵向半高宽FHWMy计算得到横向标准差δx与纵向标准差δy,基于此,估算出超声成像系统的点扩散函数;然后基于上述估算得到的点扩散函数,生成仿真超声训练数据用于深度学习模型的训练。本发明提出的方法在显著提高超声成像的空间分辨率的同时,保持了较高的成像时间分辨率。在深度学习模型训练完成之后的定位过程中,该方法的计算复杂度较小,并且避免了参数精细调节,不需要额外的人工干预,适用于快速的超高分辨超声成像。
根据上述发明构想,本发明采用下述技术方案:
一种基于深度学习的超高分辨超声成像方法,其操作步骤如下:
(1)构建深度学习超分辨超声成像模型。具体步骤如下:
(1-1)搭建深度卷积神经网络架构:
受图像超分辨重建的启发,本发明提出的方法采用一个结合亚像素卷积和残差架构的端到端的网络用于微泡的定位。网络的初始输入是原始超声图像,相应的最终输出是微泡定位图像。网络以监督的方式进行训练,使用原始超声图像和相应的包含微泡真实位置的图像来作为训练数据集。该网络包含13个卷积层。第1个卷积层用于提取图像的浅层特征。然后,在中间残差结构中的10个卷积层;采用5个残差模块,每个残差模块包含2个卷积层,用于局部残差学习。第12个卷积层和第1个卷积层相连接,用于全局残差学习。网络末端的第 13个卷积层(即亚像素卷积层)用于实现上采样操作。网络的总体结构根据深度卷积神经网络架构图所示,包括虚线框中的残差模块的结构和亚像素卷积层的原理。
(1-2)构建损失函数:
与典型的超定位方法不同,本发明提出的方法直接将原始超声图像映射到微泡定位图像。损失函数对网络训练有很大影响。使用图像处理中常用的均方误差(MSE)损失往往会使得输出结果过于平滑,不适用于微泡定位任务。因此,我们使用MSE结合L1正则化的损失函数来训练网络:
Figure RE-RE-GDA0002753117690000031
式(1)中,
Figure RE-RE-GDA0002753117690000032
是计算出的损失值,y是整个小批量的训练标签,包括微泡的真实位置的图像,
Figure RE-RE-GDA0002753117690000033
是整个小批量的网络的预测输出图像,yi是小批量中第i个训练标签,
Figure RE-RE-GDA0002753117690000034
是小批量中第i个网络预测输出图像,N是网络每次优化遍历的小批量图像数量,g是小2D高斯核,
Figure RE-RE-GDA0002753117690000035
表示卷积操作。
(2)网络训练:
为了在实际实验中得到较好的超分辨成像结果,需要估算出超声成像系统的PSF,并生成相应的训练数据用于深度学习模型的训练,其具体过程在步骤(5)和(6)中展开。
具体训练过程为,使用Adam优化算法在包含10000对原始超声图像和相应标签的训练集上训练总共60个周期,遍历训练集60次,其中网络每次优化遍历的小批量大小N为4,高斯核g具有1像素的标准偏差,初始学习率为0.001。为了使误差收敛到较小的值,我们使用学习率衰减策略,降低训练误差平稳时的学习率。
(3)在超声造影剂的介入下,对成像对象进行超声扫描,获取不同时刻的一组超声图像,超声造影剂采用微泡。每帧图像包含多个点散射体,即微泡,随机分布在成像区域内;
(4)基于训练好的深度学习模型,对上述实验获取的超声图像序列进行处理,实现对每一帧超声图像中微泡的精确定位,最后,将所有帧的定位结果进行叠加,实现超高分辨超声成像。
通过以上步骤,可实现一种基于深度学习的超高分辨超声成像方法。其中估算超声成像系统的PSF,并生成相应的训练数据的具体步骤如下:
(5)估算超声成像系统的PSF
(5-1)基于超声成像系统,对成像区域内的单个点散射体(微泡)进行多次成像,计算多次测量得到的单个微泡的平均横向半高宽FHWMx与平均纵向半高宽FHWMy
(5-2)基于获取的平均横向半高宽和平均纵向半高宽,通过公式(2)计算得到横向标准差δx与纵向标准差δy
Figure RE-RE-GDA0002753117690000041
式(2)中,FHWMx为横向半高宽,FHWMy为纵向半高宽;δx与δy分别为横向标准差与纵向标准差;
(5-3)基于得到的δx与δy,应用公式(3)计算得到超声成像系统的PSF;
Figure RE-RE-GDA0002753117690000042
式(3)中,I(x,y)代表微泡在(x,y)处的理论强度大小,(x0,y0)代表微泡的真实位置,I0代表微泡在(x0,y0)处的强度大小,σx和σy是分别是横向标准差与纵向标准差;
(6)然后基于上述计算得到的PSF模型,生成仿真超声训练数据。具体步骤如下:
(6-1)首先是在32×32像素的网格区域中,不包括图像角落处的小边界,生成随机分布的微泡的集合。对于包含n个微泡的图像,首先在图像区域内独立地对n个随机空间位置进行采样。
(6-2)然后通过前向模型生成无噪声仿真超声图像。该前向模型通过在微泡的真实位置处的冲激函数与上述估计出的PSF卷积来模拟超声成像过程。随后,这n个空间位置被映射到128×128像素网格作为训练标签。
(6-3)最后,为了增加训练模型的鲁棒性,我们将不同信噪比(signal-to-noiseratios,SNRs) 的高斯白噪声添加到部分仿真超声训练数据中。例如高斯白噪声10,20,30,40dB。
本发明与现有技术相比,具有如下显而易见的突出实质性特点和显著优点:
对比现有超声成像方法,本发明可有效提高超声成像的空间分辨率,实现超高分辨的超声成像;同时,该方法具有较高的定位速度,基于该方法,还可有效提高成像的时间分辨率,实现快速超声成像。此外,基于该方法,定位过程中的计算复杂度较小,并且避免了参数精细调节,不需要额外的人工干预。
附图说明
图1为本发明基于深度学习的超高分辨超声成像方法”的深度卷积神经网络架构示意图。
图2为仿真血管真实分布示意图。
图3为基于仿真血管模型生成的部分仿真原始超声图像和基于该方法得到的对应的定位结果。
图4为仿真原始超声图像叠加得到的均值图像和基于该方法得到的超高分辨超声图像。图4(a)为均值图像;图4(b)为超高分辨超声图像。
图5为本发明基于深度学习的超高分辨超声成像方法的流程原理图。
具体实施方式
本发明优选实施例结合附图详述如下:
在本实施例中,参见图1-5,本深度学习的超高分辨超声成像方法:为了验证该方法的可行性,以超声仿真图像为例,其具体步骤如下:
(1)构建深度学习超分辨超声成像模型。具体步骤如下:
(1-1)搭建深度卷积神经网络架构:
受单图像超分辨重建的启发,本发明提出的方法采用一个结合亚像素卷积和残差架构的端到端的网络用于微泡的定位。网络的初始输入是原始超声图像,相应的最终输出是微泡定位图像。网络以监督的方式进行训练,使用原始超声图像和相应的包含微泡真实位置的图像来作为训练数据集。该网络包含13个卷积层。第1个卷积层用于提取图像的浅层特征。然后,在中间残差结构中的10个卷积层,采用5个残差模块,每个残差模块包含2个卷积层,用于局部残差学习。第12个卷积层和第1个卷积层相连接,用于全局残差学习。网络末端的第 13个卷积层即亚像素卷积层用于实现上采样操作,在本实施例中采用的上采样因子为4。所提出的网络的总体结构如附图1所示,包括虚线框中的残差模块的结构和亚像素卷积层的原理。
(1-2)构建损失函数:
与典型的超定位方法不同,本发明提出的方法直接将原始超声图像映射到微泡定位图像。损失函数对网络训练有很大影响。使用图像处理中常用的均方误差(MSE)损失往往会使得输出结果过于平滑,不适用于微泡定位任务。因此,我们使用MSE结合L1正则化的损失函数来训练网络:
Figure RE-RE-GDA0002753117690000061
式(1)中,
Figure RE-RE-GDA0002753117690000062
是计算出的损失值,y是整个小批量的训练标签,包括微泡的真实位置的图像;
Figure RE-RE-GDA0002753117690000063
是整个小批量的网络的预测输出图像,yi是小批量中第i个训练标签,
Figure RE-RE-GDA0002753117690000064
是小批量中第i个网络预测输出图像,N是网络每次优化遍历的小批量图像数量;g是小2D高斯核;
Figure RE-RE-GDA0002753117690000065
表示卷积操作。
(2)网络训练:
为了在实际实验中得到较好的超分辨成像结果,需要估算出超声成像系统的PSF,并生成相应的训练数据用于深度学习模型的训练,其具体过程在步骤(5)和(6)中展开。
具体训练过程为,使用Adam优化算法在包含10000对原始超声图像和相应标签的训练集上训练总共60个周期,遍历训练集60次,其中网络每次优化遍历的小批量大小N为4,高斯核g具有1像素的标准偏差,初始学习率为0.001。为了使误差收敛到较小的值,我们使用学习率衰减策略;降低训练误差平稳时的学习率。
(3)基于附图2所示仿真血管模型,进行模拟超声成像,获取不同时刻的一组超声图像。每帧图像包含多个点散射体(微泡),随机分布在仿真血管模型区域内;其具体仿真步骤如下:
(3-1)在每次超声成像过程中,在仿真血管模型区域内,随机激活30个位置的点散射体,通过卷积上述计算出的点扩散函数,来进行仿真超声成像;之后,随机改变仿真血管模型中 30个点散射体的位置,并再次对其进行仿真超声成像;为了模拟微泡在仿真血管模型内的运动,上述成像过程重复1000次,得到1000帧原始超声图像;
(3-2)在获取所有原始超声图像之后,为模拟实际实验中噪声的影响,为生成的超声图像逐一添加10dB的高斯白噪声;
(4)基于训练好的深度学习模型,对上述获取的这组超声图像进行处理,实现对每一帧图像中微泡的精确定位,如附图3所示,最后,将所有帧的定位结果进行叠加,实现超高分辨超声成像,如附图4所示。
通过以上步骤,可实现一种基于深度学习的超高分辨超声成像方法。其中估算超声成像系统的PSF,并生成相应的训练数据的具体步骤如下:
(5)估算超声成像系统的PSF
(5-1)基于超声成像系统,对成像区域内的单个点散射体(微泡)进行多次成像,计算多次测量得到的单个微泡的平均横向半高宽FHWMx与平均纵向半高宽FHWMy
(5-2)基于获取的平均横向半高宽和平均纵向半高宽,通过公式(2)计算得到横向标准差δx与纵向标准差δy
Figure RE-RE-GDA0002753117690000071
式(2)中,FHWMx为横向半高宽,FHWMy为纵向半高宽;δx与δy分别为横向标准差与纵向标准差;
(5-3)基于得到的δx与δy,应用公式(3)计算得到超声成像系统的PSF;
Figure RE-RE-GDA0002753117690000072
式(3)中,I(x,y)代表微泡在(x,y)处的理论强度大小,(x0,y0)代表微泡的真实位置,I0代表微泡在(x0,y0)处的强度大小,σx和σy是分别是横向标准差与纵向标准差;
(6)然后基于上述计算得到的PSF模型,生成仿真超声训练数据。具体步骤如下:
(6-1)首先是在32×32像素的网格区域中,不包括图像角落处的小边界,生成随机分布的微泡的集合。对于包含n个微泡的图像,首先在图像区域内独立地对n个随机空间位置进行采样。在本实施例中,n取1-10之间的随机整数。
(6-2)然后通过前向模型生成无噪声仿真超声图像。该前向模型通过在微泡的真实位置处的冲激函数与上述估计出的PSF卷积来模拟超声成像过程。随后,这n个空间位置被映射到128×128像素网格作为训练标签。
(6-3)最后,为了增加训练模型的鲁棒性,我们将不同信噪比的高斯白噪声添加到部分仿真超声训练数据中。高斯白噪声采用10,20,30,40dB。
由最后得到的超分辨超声图像可以看出,本发明提出的方法可有效提高超声成像的空间分辨率,实现超高分辨的超声成像;同时,该方法具有较高的定位速度,基于该方法,还可有效提高成像的时间分辨率;此外,基于该方法,定位过程中的计算复杂度较小,并且避免了参数精细调节,不需要额外的人工干预。因此,该方法极大地改善了现有超声技术的成像性能。
本发明不仅局限于上述具体实施方式,本领域一般技术人员根据本发明公开的内容,可以采用其它多种具体实施方式实施本发明,因此,凡是采用本发明的设计结构和思路,做一些简单的变化或更改的设计,都落入本发明保护的范围。

Claims (1)

1.一种基于深度学习的超高分辨超声成像方法,其特征在于,操作步骤如下:
(1)构建深度学习超分辨超声成像模型,步骤如下:
(1-1)搭建深度卷积神经网络架构:
采用结合亚像素卷积和残差架构的端到端的网络用于微泡的定位;网络的初始输入是原始超声图像,相应的最终输出是微泡定位图像;网络以监督的方式进行训练,使用原始超声图像和相应的包含微泡真实位置的图像来作为训练数据集;该网络包含13个卷积层:第1个卷积层用于提取图像的浅层特征;然后,在中间残差结构中的10个卷积层;采用5个残差模块,每个残差模块包含2个卷积层,用于局部残差学习;第12个卷积层和第1个卷积层相连接,用于全局残差学习;网络末端的第13个卷积层,即亚像素卷积层,用于实现上采样操作;网络的总体结构根据深度卷积神经网络架构图所示,包括虚线框中的残差模块的结构和亚像素卷积层的结构;
(1-2)构建损失函数:
直接将原始超声图像映射到微泡定位图像;损失函数对网络训练有很大影响;使用MSE结合L1正则化的损失函数来训练网络:
Figure FDA0002577379750000011
在式(1)中,
Figure FDA0002577379750000012
是计算出的损失值,y是整个小批量的训练标签,包括微泡的真实位置的图像,
Figure FDA0002577379750000013
是整个小批量的网络的预测输出图像,yi是小批量中第i个训练标签,
Figure FDA0002577379750000014
是小批量中第i个网络预测输出图像,N是网络每次优化遍历的小批量图像数量,g是小2D高斯核,
Figure FDA0002577379750000015
表示卷积操作;
(2)网络训练:
为了在实际实验中得到较好的超分辨成像结果,进行估算出超声成像系统的PSF,并生成相应的训练数据用于深度学习模型的训练,其具体过程在步骤(5)和(6)中展开;
具体训练过程为,使用Adam优化算法在包含10000对原始超声图像和相应标签的训练集上训练总共60个周期,遍历训练集60次,其中网络每次优化遍历的小批量大小N为4,高斯核g具有1像素的标准偏差,初始学习率为0.001;为了使误差收敛到较小的值,使用学习率衰减策略,降低训练误差平稳时的学习率;
(3)在超声造影剂的介入下,对成像对象进行超声扫描,获取不同时刻的一组超声图像;所述超声造影剂采用微泡,每帧图像包含多个点散射体,随机分布在成像区域内;
(4)基于训练好的深度学习模型,对上述实验获取的超声图像序列进行处理,实现对每一帧超声图像中微泡的精确定位,最后,将所有帧的定位结果进行叠加,实现超高分辨超声成像;
通过以上步骤,实现所述基于深度学习的超高分辨超声成像方法;其中估算超声成像系统的PSF,并生成相应的训练数据的步骤如下:
(5)估算超声成像系统的PSF:
(5-1)基于超声成像系统,对成像区域内的单个点散射体,采用微泡进行多次成像,计算多次测量得到的单个微泡的平均横向半高宽FHWMx与平均纵向半高宽FHWMy
(5-2)基于获取的平均横向半高宽和平均纵向半高宽,通过公式(2)计算得到横向标准差δx与纵向标准差δy
Figure FDA0002577379750000021
在式(2)中,FHWMx为横向半高宽,FHWMy为纵向半高宽;δx与δy分别为横向标准差与纵向标准差;
(5-3)基于得到的δx与δy,应用公式(3)计算得到超声成像系统的PSF;
Figure FDA0002577379750000022
式(3)中,I(x,y)代表微泡在(x,y)处的理论强度大小,(x0,y0)代表微泡的真实位置,I0代表微泡在(x0,y0)处的强度大小,σx和σy是分别是横向标准差与纵向标准差;
(6)然后基于上述计算得到的PSF模型,生成仿真超声训练数据,步骤如下:
(6-1)在32×32像素的网格区域中,不包括图像角落处的小边界,生成随机分布的微泡的集合;对于包含n个微泡的图像,首先在图像区域内独立地对n个随机空间位置进行采样;
(6-2)然后通过前向模型生成无噪声仿真超声图像,该前向模型通过在微泡的真实位置处的冲激函数与上述估计出的PSF卷积来模拟超声成像过程;随后,这n个空间位置被映射到128×128像素网格作为训练标签;
(6-3)最后,为了增加训练模型的鲁棒性,将不同信噪比SNRs的高斯白噪声,10,20,30,40dB,添加到部分仿真超声训练数据中。
CN202010657793.XA 2020-07-09 2020-07-09 一种基于深度学习的超高分辨超声成像方法 Pending CN112435305A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010657793.XA CN112435305A (zh) 2020-07-09 2020-07-09 一种基于深度学习的超高分辨超声成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010657793.XA CN112435305A (zh) 2020-07-09 2020-07-09 一种基于深度学习的超高分辨超声成像方法

Publications (1)

Publication Number Publication Date
CN112435305A true CN112435305A (zh) 2021-03-02

Family

ID=74689899

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010657793.XA Pending CN112435305A (zh) 2020-07-09 2020-07-09 一种基于深度学习的超高分辨超声成像方法

Country Status (1)

Country Link
CN (1) CN112435305A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113160180A (zh) * 2021-04-23 2021-07-23 深圳高性能医疗器械国家研究院有限公司 一种基于深度学习的磁共振图像相位复原方法
CN113296259A (zh) * 2021-05-25 2021-08-24 中国科学院国家天文台南京天文光学技术研究所 基于孔径调制子系统和深度学习的超分辨成像方法和装置
CN114331840A (zh) * 2021-12-24 2022-04-12 汉姆德(宁波)智能医疗科技有限公司 重建高保真超分辨显微图像的方法、装置
CN114897752A (zh) * 2022-05-09 2022-08-12 四川大学 一种基于深度学习的单透镜大景深计算成像系统及方法
CN115601604A (zh) * 2022-11-29 2023-01-13 西南石油大学(Cn) 一种基于长短时记忆网络的多任务微泡轨迹追踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108095756A (zh) * 2017-11-30 2018-06-01 上海大学 一种基于sofi的超高分辨平面波超声成像方法
CN109998589A (zh) * 2019-04-09 2019-07-12 上海大学 一种基于压缩感知的超高分辨超声成像方法
CN110136063A (zh) * 2019-05-13 2019-08-16 南京信息工程大学 一种基于条件生成对抗网络的单幅图像超分辨率重建方法
CN111127320A (zh) * 2019-12-23 2020-05-08 哈尔滨工业大学(威海) 基于深度学习的光声图像超分辨重建方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108095756A (zh) * 2017-11-30 2018-06-01 上海大学 一种基于sofi的超高分辨平面波超声成像方法
CN109998589A (zh) * 2019-04-09 2019-07-12 上海大学 一种基于压缩感知的超高分辨超声成像方法
CN110136063A (zh) * 2019-05-13 2019-08-16 南京信息工程大学 一种基于条件生成对抗网络的单幅图像超分辨率重建方法
CN111127320A (zh) * 2019-12-23 2020-05-08 哈尔滨工业大学(威海) 基于深度学习的光声图像超分辨重建方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XIN LIU等: ""Deep Learning for Ultrasound Localization Microscopy"", 《IEEE TRANSACTIONS ON MEDICAL IMAGING》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113160180A (zh) * 2021-04-23 2021-07-23 深圳高性能医疗器械国家研究院有限公司 一种基于深度学习的磁共振图像相位复原方法
CN113160180B (zh) * 2021-04-23 2024-02-09 深圳高性能医疗器械国家研究院有限公司 一种基于深度学习的磁共振图像相位复原方法
CN113296259A (zh) * 2021-05-25 2021-08-24 中国科学院国家天文台南京天文光学技术研究所 基于孔径调制子系统和深度学习的超分辨成像方法和装置
CN114331840A (zh) * 2021-12-24 2022-04-12 汉姆德(宁波)智能医疗科技有限公司 重建高保真超分辨显微图像的方法、装置
CN114897752A (zh) * 2022-05-09 2022-08-12 四川大学 一种基于深度学习的单透镜大景深计算成像系统及方法
CN114897752B (zh) * 2022-05-09 2023-04-25 四川大学 一种基于深度学习的单透镜大景深计算成像系统及方法
CN115601604A (zh) * 2022-11-29 2023-01-13 西南石油大学(Cn) 一种基于长短时记忆网络的多任务微泡轨迹追踪方法
CN115601604B (zh) * 2022-11-29 2023-04-07 西南石油大学 一种基于长短时记忆网络的多任务微泡轨迹追踪方法

Similar Documents

Publication Publication Date Title
CN112435305A (zh) 一种基于深度学习的超高分辨超声成像方法
CN108460726B (zh) 一种基于增强递归残差网络的磁共振图像超分辨重建方法
CN111028306B (zh) 基于AR2 U-Net神经网络的快速磁共振成像方法
CN111445390B (zh) 基于宽残差注意力的三维医学图像超分辨率重建方法
CN109214989B (zh) 基于多方向特征预测先验的单幅图像超分辨率重建方法
CN107464216A (zh) 一种基于多层卷积神经网络的医学图像超分辨率重构方法
CN106408524A (zh) 基于二维图像辅助的深度图像增强方法
CN110675321A (zh) 一种基于渐进式的深度残差网络的超分辨率图像重建方法
CN111123183A (zh) 基于复数R2U_Net网络的快速磁共振成像方法
CN110634105A (zh) 一种光流法和深度网络结合的视频高时空分辨率信号处理方法
CN108596994A (zh) 一种基于深度学习和数据自洽的磁共振弥散加权成像方法
CN111899165A (zh) 一种基于功能模块的多任务图像重建卷积网络模型
CN111968036A (zh) 一种分层图像超分辨率方法、系统、计算机设备及应用
CN117078692B (zh) 一种基于自适应特征融合的医疗超声图像分割方法及系统
CN114792287A (zh) 一种基于多图像融合的医学超声图像超分辨率重建方法
CN110060315A (zh) 一种基于人工智能的图像运动伪影消除方法及系统
CN113506222A (zh) 一种基于卷积神经网络的多模态图像超分辨方法
CN106952226A (zh) 一种f‑msa超分辨率重建方法
US7778493B2 (en) Pixelation reconstruction for image resolution and image data transmission
CN110047038B (zh) 一种基于层级递进网络的单图像超分辨重建方法
CN113313728B (zh) 一种颅内动脉分割方法及系统
CN117173022A (zh) 基于多路径融合和注意力的遥感图像超分辨率重建方法
CN115170691A (zh) 基于深度学习和交替方向乘子法的磁共振成像的重构方法
CN114897689A (zh) 一种基于生成对抗网络的快速超声定位显微成像方法
CN107680146A (zh) Pet图像的重建方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210302

RJ01 Rejection of invention patent application after publication