CN117420209A - 基于深度学习的全聚焦相控阵超声快速高分辨率成像方法 - Google Patents

基于深度学习的全聚焦相控阵超声快速高分辨率成像方法 Download PDF

Info

Publication number
CN117420209A
CN117420209A CN202311736943.6A CN202311736943A CN117420209A CN 117420209 A CN117420209 A CN 117420209A CN 202311736943 A CN202311736943 A CN 202311736943A CN 117420209 A CN117420209 A CN 117420209A
Authority
CN
China
Prior art keywords
network
full
training
network model
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311736943.6A
Other languages
English (en)
Other versions
CN117420209B (zh
Inventor
刘尚瑀
朱智
侯春雨
孙春贵
刘洋
李兴捷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Foundry Research Institute Co Ltd Of China National Machinery Research Institute Group
Original Assignee
Shenyang Foundry Research Institute Co Ltd Of China National Machinery Research Institute Group
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Foundry Research Institute Co Ltd Of China National Machinery Research Institute Group filed Critical Shenyang Foundry Research Institute Co Ltd Of China National Machinery Research Institute Group
Priority to CN202311736943.6A priority Critical patent/CN117420209B/zh
Publication of CN117420209A publication Critical patent/CN117420209A/zh
Application granted granted Critical
Publication of CN117420209B publication Critical patent/CN117420209B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/04Analysing solids
    • G01N29/06Visualisation of the interior, e.g. acoustic microscopy
    • G01N29/0654Imaging
    • G01N29/069Defect imaging, localisation and sizing using, e.g. time of flight diffraction [TOFD], synthetic aperture focusing technique [SAFT], Amplituden-Laufzeit-Ortskurven [ALOK] technique
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/44Processing the detected response signal, e.g. electronic circuits specially adapted therefor
    • G01N29/4481Neural networks

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)

Abstract

基于深度学习的全聚焦相控阵超声快速高分辨率成像方法,其依次包含有下述步骤和内容:步骤1.构建图像数据集,步骤1.1采集全矩阵数据:对待识别目标进行相控阵检测,采集其全矩阵数据;步骤1.2形成图像数据集:通过全聚焦算法分别计算全聚焦图像,将得到的图像数据集划分为训练集、验证集和测试集;步骤2.构建深度学习神经网络;步骤3.网络训练:使用步骤1中的训练数据集进行训练,直至验证集损失函数值不再下降,模型收敛,卷积层中参数值固定;步骤4.网络应用。本发明计算量小,计算速度快;硬件要求和成本低,综合技术效果优良。

Description

基于深度学习的全聚焦相控阵超声快速高分辨率成像方法
技术领域
本发明涉及工业无损检测领域中的超声成像技术领域,特别涉及基于深度学习的全聚焦相控阵超声快速高分辨率成像方法。
背景技术
相控阵全聚焦超声检测是利用含有多个阵元的相控阵超声探头相继发射超声波,对待检区域进行检测,每个阵元再相继接收这些超声数据(全矩阵数据),并根据全聚焦成像算法通过后处理数据的方式进行成像的超声检测技术。相比于常规相控阵超声,全聚焦超声检测可以通过后处理算法对成像区域的任一位置(像素点)进行聚焦,因而可以获得更高的检测灵敏度及分辨力,同时直观的成像可以更好的表征检测区域的缺陷信息。但全聚焦算法是对全矩阵数据进行后处理实现成像,全矩阵数据内包含所有阵元(阵元数通常为32、64、128...)的发射和接收信号,数据量巨大。同时,全聚焦算法是通过对待检区域进行布点,即选择像素点,并对每一个像素点的幅值进行叠加计算,最终实现成像。因此,全聚焦成像质量直接取决于像素点的数量,然而每个像素点幅值均需要进行全聚焦算法计算,像素点越多,算法计算时间越久。超声检测需要在检测过程中实时对检测结果进行评判,因此如何快速获得更高分辨率的全聚焦图像对该检测方法是至关重要的。
目前,针对全聚焦算法成像时间的优化分为多个方面。首先,波数成像算法可以避免算法中超声传播路径的计算,一定程度上可以提高成像速度,但计算时需对三维数据进行处理,内存负载过大,难以在便携式超声相控阵设备中应用。对全矩阵数据进行简化也是常用的提速方法,如三角矩阵、稀疏矩阵等,减少数据可以提高成像速度,但大量实验也表明,针对特定检测需求,减少数据会降低成像质量,难以满足高质量的检测需求。随着计算机硬件的发展,通过使用GPU、DSPFPGA等加速成像的方法被应用在全聚焦成像中,强大的硬件可以近一步缩短全聚焦的成像时间。但硬件的成本与日益增长的检测需求发展难以匹配。综上所述,目前诸多方法针对更高分辨率的全聚焦图像均有一定的限制。
发明内容
本发明提供了一种涉及工业无损检测领域中的基于深度学习的全聚焦相控阵超声的快速高分辨率成像技术,特别涉及一种基于深度学习的全聚焦相控阵超声快速高分辨率成像方法。
鉴于现有技术中相关方法的一些不足,本发明提出了一种基于深度学习的全聚焦相控阵超声快速高分辨率成像方法,使得在全聚焦算法得到低分辨率图像后,可通过本方法快速得到高分辨率的图像。
本发明基于深度学习的全聚焦相控阵超声快速高分辨率成像方法,其技术关键是:该方法依次包含有下述步骤和内容:
步骤1 构建图像数据集
步骤1.1 采集全矩阵数据
对含有缺陷的待检测目标进行相控阵超声检测,检测要求是:使用超声检测,根据设定的延时法则激发阵列探头中的各独立压电晶片(即阵元),合成声束并实现声束的移动、偏转和聚焦等功能,再按一定的延时法则对各阵元接收到的超声信号进行处理并以图像的方式显示被检对象内部状态;检测时采集接收到的超声信号的全矩阵数据;
单个探头上共有n个晶片X 1 、X 2 …X n ,在X1晶片激发超声波时,所有晶片即X 1 、X 2 …X n 都接收超声波,结束后X2再激发超声波,所有晶片接收;采样点数为某晶片接收到单个超声信号中选取数据点的个数,个数为m,各个晶片依次激发超声波且所有晶片都接收超声波;最终得到n×n×m的矩阵,即为全矩阵数据;
共采集含缺陷的全矩阵数据k组,n、m、k均为自然数;针对可采用相控阵超声方法检测的任何材料、任何缺陷类型,本方法均适用,且无规格尺寸限制;
步骤1.2 形成图像数据集
针对同一组全矩阵数据,通过全聚焦算法分别计算含有a个和b个像素点的全聚焦图像,其中a << b,a、b均为自然数;
将同一个全矩阵数据得到的一组a个像素点和b个像素点的两张图像称为一个图像对,共得到k组图像对,作为图像数据集;
步骤2.构建深度学习神经网络
将得到的图像数据集随机划分为训练集、测试集和验证集,其比例分别为70%,10%和20%;其中:训练集用于深度学习网络训练,网络模型通过对训练集进行学习和参数调整;测试集用于评估已经训练好的网络模型的性能和泛化能力;通过在测试集上运行网络模型并比较网络模型对应的预测结果与真实标签之间的差异,评估网络模型的准确性和性能;验证集用于网络模型的调优和参数选择;
在网络模型训练过程中,使用验证集来评估网络模型在未知数据上的表现,并根据网络模型的性能来进行网络模型参数的调整和选择;
步骤3.网络训练
搭建好网络模型后,使用步骤2中划分的训练集进行训练:每次输入固定数量的图像后,经前向传播获得损失函数值,利用反向传播算法优化网络模型各个卷积层中参数;重复进行多次训练,对比每次验证集的损失函数值,直至损失函数值不再下降,网络模型收敛,卷积层中参数值固定;
步骤4.网络应用
训练完成后,先采用全聚焦算法对全矩阵数据进行处理,得到a个像素点的低分辨率图像,再将含有a个像素点的低分辨率图像输入网络模型中,网络模型的输出即为含有b个像素点的高分辨率图像。
本发明所述基于深度学习的全聚焦相控阵超声快速高分辨率成像方法,优选要求保护的技术内容是:
在步骤2.构建深度学习神经网络作为训练网络时满足下述要求:
划分数据集后,为了降低网络参数量与提高网络处理速度,本发明中使用由7个深度可分离卷积层堆叠而成的全卷积神经网络作为训练网络F;对于前6个卷积层,卷积层通道数为32,卷积核尺寸为3×3,步长为1,卷积层的激活函数为Relu;其中:第三层网络的输出特征与第四层网络的输出特征在通道上拼接后,作为第五层网络的输入;第二层网络的输出特征与第五层网络的输出特征在通道上拼接后,作为第六层网络的输入;第一层网络的输出特征与第六层网络的输出特征在通道上拼接后,作为第七层网络的输入;
对于第7个卷积层,卷积层通道数为1,卷积核尺寸为3×3,步长为1,卷积层的激活函数为Tanh;其他结构的卷积网络模型,如UNET,FCN等,也可作为本发明中的训练网络。
损失函数为L,其计算公式如下:
式中,为输入图像,对应a个像素点图像;/>为输出图像,对应b个像素点图像;为输入图像经过网络训练后的函数值。
该方法还满足下述要求:
其一,在步骤1.2形成图像数据集时,如图2所示,全聚焦算法是一种特殊的相控阵超声检测技术,利用全矩阵数据,对目标网格化区域内的每一个点P累加计算其幅值,Pxz)点的幅值计算如下:
其中,Tpi晶片发射超声波传到P点,之后再返回j晶片的时间;E为幅值,i晶片发射j晶片接收信号中T p 时间所对应的幅值,即全矩阵数据;
T p 计算公式如下:
其中,x pZ pP点的横坐标与纵坐标(以探头中心为原点的坐标系),x i为发射晶片的横坐标,x j为接收晶片的横坐标,V为试块的声速;根据上式在全矩阵数据中得到每一个P点对应的幅值,再进行叠加,得到P点最终的幅值。
本发明的有益效果为:
本发明所述基于深度学习的全聚焦相控阵超声快速高分辨率成像方法只需用全聚焦算法计算低分辨率的图像,其计算量小,可以大幅减少运算量,提升计算速度;本发明不需要强大的硬件设施,减少设备研发成本和制造成本,且更适合超声相控阵便携式操作的特点。其综合技术效果优良。
附图说明
图1为基于深度学习的全聚焦相控阵超声快速高分辨率成像方法原理示意简图;
图2为全聚焦成像示意图;
图3为网络训练示意图;
图4为网络应用实例示意简图。
具体实施方式
下面结合实施例和说明书附图对本发明做进一步说明,但不限于此。
关于图1的附带说明:图1为基于深度学习的全聚焦相控阵超声快速高分辨率成像方法原理示意简图;低分辨率图像,经过有7个深度可分离卷阶层堆叠而成的全卷积神经网络处理(首先,对于前6个卷积层,卷积层通道数为 32,卷积核 尺寸为 3×3,步长为 1,卷积层的激活函数为 Relu;接下来到第7个卷积层,卷积层通道数为 1,卷积核尺寸为 3×3,步长为 1,卷积层的激活函数为 Tanh;同时使用skip-Connection建立映射关系;共同作为一个工具处理相关数据);最终将低分辨率图像处理成高分辨率图像;达成本发明的目的。补充说明:图1实际上涉及残差网络,残差网络通过将编码器中的特征图与解码器中对应层级的特征图进行连接,将低级特征引导到解码器中。这样做的好处是,解码器可以利用低级特征中的细节信息来辅助分割过程,从而更好地保留和恢复图像的细节。
关于图2的附带说明:图2为全聚焦成像示意图;在X-Z坐标平面内,虚线框内为全聚焦图像区域;在虚线框上方的黑色粗线段代表相控阵超声探头上的n个阵元,即单个探头上的成组晶片X 1 、X 2 …X n ;图2虚线框内即全聚焦图像区域里的各小正方形代表目标网格化区域内的每一个像素(点P)
图3的解释:在搭建好网络模型后,使用步骤2中划分的训练集进行训练:在输入训练集中图像(每次输入固定数量的图像)之后,导入训练深度学习模型,利用训练集图像多次进行训练,经前向传播获得损失函数值,利用反向传播算法优化网络模型的各个卷积层中参数;重复进行多次训练,对比每次验证集的损失函数值,直至损失函数值不再下降,网络模型收敛,卷积层中参数值固定;这样就能得到收敛模型。
图4的解释:R为全矩阵数据,S为低分辨率图像(a个像素点),T为高分辨率图像(b个像素点);使用全聚焦算法可以根据全矩阵数据R得到低分辨率图像S,经过本发明所述深度学习模型训练后,则能进一步得到将高分辨率图像T,达成发明目的。
实施例1
基于深度学习的全聚焦相控阵超声快速高分辨率成像方法,图1-图4;该方法依次包含有下述步骤和内容:
步骤1 构建图像数据集
步骤1.1 采集全矩阵数据
对含有缺陷的待检测目标进行相控阵超声检测,检测要求是:使用超声检测,根据设定的延时法则激发阵列探头中的各独立压电晶片(即阵元),合成声束并实现声束的移动、偏转和聚焦等功能,再按一定的延时法则对各阵元接收到的超声信号进行处理并以图像的方式显示被检对象内部状态;检测时采集接收到的超声信号的全矩阵数据;
图2为全数据采集示意图,单个探头上共有n个晶片X 1 、X 2 …X n (图2最上方的各个黑色粗线段代表晶片X 1 、X 2 …X n );在X1晶片激发超声波时,所有晶片即X 1 、X 2 …X n 都接收超声波,结束后X2再激发超声波,所有晶片接收;采样点数为某晶片接收到单个超声信号中选取数据点的个数,个数为m,各个晶片依次激发超声波且所有晶片都接收超声波;最终得到 n×m的矩阵,即为全矩阵数据;图2中虚线框内为全聚焦图像区域;
共采集含缺陷的全矩阵数据k组,n、m、k均为自然数;针对可采用相控阵超声方法检测的任何材料、任何缺陷类型,本方法均适用,且无规格尺寸限制;
步骤1.2 形成图像数据集
针对同一组全矩阵数据,通过全聚焦算法分别计算含有a个和b个像素点的全聚焦图像,其中a << b,a、b均为自然数;如图2所示,全聚焦算法是一种特殊的相控阵超声检测技术,利用全矩阵数据,对目标网格化区域内的每一个点P累加计算其幅值,Px、z)点的幅值计算如下:
其中,T pi晶片发射超声波传到P点,之后再返回j晶片的时间;E为幅值;分别为i晶片发射j晶片接收信号中T p 时间所对应的幅值,即全矩阵数据中相对应的数值;
T p 计算公式如下:
其中,X p Z p P点的横坐标与纵坐标(以探头中心为原点的坐标系),x i为发射晶片的横坐标,x j为接收晶片的横坐标,V为试块的声速;根据上式在全矩阵数据中得到每一个P点对应的幅值,再进行叠加,得到P点最终的幅值;
将同一个全矩阵数据得到的一组a个像素点和b个像素点的两张图像称为一个图像对,共得到k组图像对,作为图像数据集;
步骤2.构建深度学习神经网络
将得到的图像数据集随机划分为训练集、测试集和验证集,其比例分别为70%,10%和20%;其中:训练集用于深度学习网络训练,网络模型通过对训练集进行学习和参数调整;测试集用于评估已经训练好的网络模型的性能和泛化能力;通过在测试集上运行网络模型并比较网络模型对应的预测结果与真实标签之间的差异,能够评估网络模型的准确性和性能;验证集用于网络模型的调优和参数选择;
在网络模型训练过程中,使用验证集来评估网络模型在未知数据上的表现,并根据网络模型的性能来进行网络模型参数的调整和选择;
划分数据集后,为了降低网络参数量与提高网络处理速度,本发明中使用由7个深度可分离卷积层堆叠而成的全卷积神经网络作为训练网络F;对于前6个卷积层,卷积层通道数为32,卷积核尺寸为3×3,步长为1,卷积层的激活函数为Relu;其中:第三层网络的输出特征与第四层网络的输出特征在通道上拼接后,作为第五层网络的输入;第二层网络的输出特征与第五层网络的输出特征在通道上拼接后,作为第六层网络的输入;第一层网络的输出特征与第六层网络的输出特征在通道上拼接后,作为第七层网络的输入;对于第7个卷积层,卷积层通道数为1,卷积核尺寸为3×3,步长为1,卷积层的激活函数为Tanh;其他结构的卷积网络模型,如UNETFCN等,也可作为本发明中的训练网络;
损失函数为L1;其计算公式如下:
式中,为输入图像,对应a个像素点图像;/>为输出图像,对应b个像素点图像;为输入图像经过网络训练后的函数值;
步骤3.网络训练
搭建好网络模型后,如图3所示,使用步骤2中划分的训练集进行训练,每次输入固定数量的图像后,经前向传播获得损失函数值,利用反向传播算法优化网络模型各个卷积层中参数;重复进行多次训练,对比每次验证集的损失函数值,直至损失函数值不再下降,网络模型收敛,卷积层中参数值固定;
步骤4.网络应用
训练完成后,如图4所示,先采用全聚焦算法对全矩阵数据进行处理,得到a个像素点的低分辨率图像,再将含有a个像素点的低分辨率图像输入网络模型中,网络模型的输出即为含有b个像素点的高分辨率图像。

Claims (3)

1.基于深度学习的全聚焦相控阵超声快速高分辨率成像方法,其特征在于:该方法依次包含有下述步骤和内容:
步骤1. 构建图像数据集
步骤1.1 采集全矩阵数据
对待检测目标进行相控阵超声检测,检测要求是:使用超声检测,根据设定的延时法则激发阵列探头中的各独立压电晶片,合成声束并实现声束的移动、偏转和聚焦功能,再按延时法则对各阵元接收到的超声信号进行处理并以图像的方式显示被检对象内部状态;检测时采集接收到的超声信号的全矩阵数据;
单个探头上共有n个晶片X 1 、X 2 …X n ,在X 1 晶片激发超声波时,所有晶片即X 1 、X 2 …X n 都接收超声波,结束后X 2 再激发超声波,所有晶片接收;采样点数为某晶片接收到单个超声信号中选取数据点的个数,个数为m,各个晶片依次激发超声波且所有晶片都接收超声波;最终得到n×n×m的矩阵,即为全矩阵数据;
共采集含缺陷的全矩阵数据k组,n、m、k均为自然数;
步骤1.2 形成图像数据集
针对同一组全矩阵数据,通过全聚焦算法分别计算含有a个和b个像素点的全聚焦图像,其中a << b,a、b均为自然数;
将同一个全矩阵数据得到的一组a个像素点和b个像素点的两张图像称为一个图像对,共得到k组图像对,作为图像数据集;
步骤2.构建深度学习神经网络
将得到的图像数据集随机划分为训练集、测试集和验证集,其比例分别为70%,10%和20%;其中:训练集用于深度学习网络训练,网络模型通过对训练集进行学习和参数调整;测试集用于评估已经训练好的网络模型的性能和泛化能力;通过在测试集上运行网络模型并比较网络模型对应的预测结果与真实标签之间的差异,评估网络模型的准确性和性能;验证集用于网络模型的调优和参数选择;
在网络模型训练过程中,使用验证集来评估网络模型在未知数据上的表现,并根据网络模型的性能来进行网络模型参数的调整和选择;
步骤3.网络训练
搭建好网络模型后,使用步骤2中划分的训练集进行训练:每次输入固定数量的图像后,经前向传播获得损失函数值,利用反向传播算法优化网络模型各个卷积层中参数;重复进行多次训练,对比每次验证集的损失函数值,直至损失函数值不再下降,网络模型收敛,卷积层中参数值固定;
步骤4.网络应用
训练完成后,先采用全聚焦算法对全矩阵数据进行处理,得到a个像素点的低分辨率图像,再将含有a个像素点的低分辨率图像输入网络模型中,网络模型的输出即为含有b个像素点的高分辨率图像。
2.按照权利要求1所述基于深度学习的全聚焦相控阵超声快速高分辨率成像方法,其特征在于:在步骤2.构建深度学习神经网络作为训练网络时满足下述要求:
划分数据集后,为了降低网络参数量与提高网络处理速度,使用由7个深度可分离卷积层堆叠而成的全卷积神经网络作为训练网络F;对于前6个卷积层,卷积层通道数为32,卷积核尺寸为3×3,步长为1,卷积层的激活函数为Relu;其中:第三层网络的输出特征与第四层网络的输出特征在通道上拼接后,作为第五层网络的输入;第二层网络的输出特征与第五层网络的输出特征在通道上拼接后,作为第六层网络的输入;第一层网络的输出特征与第六层网络的输出特征在通道上拼接后,作为第七层网络的输入;
对于第7个卷积层,卷积层通道数为1,卷积核尺寸为3×3,步长为1,卷积层的激活函数为Tanh;
损失函数为L,其计算公式如下:
式中,为输入图像,对应a个像素点图像;/>为输出图像,对应b个像素点图像;/>为输入图像经过网络训练后的函数值。
3.按照权利要求1所述基于深度学习的全聚焦相控阵超声快速高分辨率成像方法,其特征在于:该方法还满足下述要求:
在步骤1.2形成图像数据集时,全聚焦算法利用全矩阵数据,对目标网格化区域内的每一个点P累加计算其幅值,P(x、z)点的幅值A P 计算如下:
其中,T p 为i晶片发射超声波传到P点,之后再返回j晶片的时间;E为幅值,为i晶片发射j晶片接收信号中T p 时间所对应的幅值,即全矩阵数据;
T p 计算公式如下:
其中,x pZ p为P点的横坐标与纵坐标,x i为发射晶片的横坐标,x j为接收晶片的横坐标,V为试块的声速;根据上式在全矩阵数据中得到每一个P点对应的幅值,再进行叠加,得到P点最终的幅值。
CN202311736943.6A 2023-12-18 2023-12-18 基于深度学习的全聚焦相控阵超声快速高分辨率成像方法 Active CN117420209B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311736943.6A CN117420209B (zh) 2023-12-18 2023-12-18 基于深度学习的全聚焦相控阵超声快速高分辨率成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311736943.6A CN117420209B (zh) 2023-12-18 2023-12-18 基于深度学习的全聚焦相控阵超声快速高分辨率成像方法

Publications (2)

Publication Number Publication Date
CN117420209A true CN117420209A (zh) 2024-01-19
CN117420209B CN117420209B (zh) 2024-05-07

Family

ID=89531119

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311736943.6A Active CN117420209B (zh) 2023-12-18 2023-12-18 基于深度学习的全聚焦相控阵超声快速高分辨率成像方法

Country Status (1)

Country Link
CN (1) CN117420209B (zh)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106802323A (zh) * 2017-01-22 2017-06-06 北京工业大学 一种基于全矩阵数据的超声全聚焦成像系统
CN106841390A (zh) * 2017-03-14 2017-06-13 浙江大学 一种基于支持向量机的环焊缝超声相控阵自动聚焦方法
CN106991429A (zh) * 2017-02-27 2017-07-28 陕西师范大学 图像识别深度信念网络结构的构建方法
US20170293825A1 (en) * 2016-04-08 2017-10-12 Wuhan University Method and system for reconstructing super-resolution image
CN107247949A (zh) * 2017-08-02 2017-10-13 北京智慧眼科技股份有限公司 基于深度学习的人脸识别方法、装置和电子设备
CN108520522A (zh) * 2017-12-31 2018-09-11 南京航空航天大学 基于深度全卷积神经网络的视网膜眼底图像分割方法
CN108932725A (zh) * 2018-06-08 2018-12-04 哈尔滨工程大学 基于卷积神经网络的场景流估计方法
CN110163235A (zh) * 2018-10-11 2019-08-23 腾讯科技(深圳)有限公司 图像增强模型的训练、图像增强方法、装置和存储介质
CN110349087A (zh) * 2019-07-08 2019-10-18 华南理工大学 基于适应性卷积的rgb-d图像高质量网格生成方法
US20210319265A1 (en) * 2020-11-02 2021-10-14 Zhengzhou University Method for segmentation of underground drainage pipeline defects based on full convolutional neural network
US20220061816A1 (en) * 2020-09-01 2022-03-03 GE Precision Healthcare LLC Systems and methods to improve resolution of ultrasound images with a neural network
CN114923984A (zh) * 2022-05-23 2022-08-19 大连理工大学 基于反向传播神经网络的亚波长分辨力阵列超声成像方法
CN115406970A (zh) * 2022-11-01 2022-11-29 汕头市超声检测科技有限公司 一种全聚焦高分辨率成像算法
GB2610449A (en) * 2021-09-06 2023-03-08 Harbin Inst Technology Efficient high-resolution non-destructive detecting method based on convolutional neural network
WO2023077809A1 (zh) * 2021-11-05 2023-05-11 五邑大学 神经网络训练的方法、电子设备及计算机存储介质
CN116818904A (zh) * 2023-06-30 2023-09-29 北京航空航天大学 一种锂离子电池析锂超声无损检测方法及系统
CN116843825A (zh) * 2023-06-01 2023-10-03 中国机械总院集团沈阳铸造研究所有限公司 一种渐进式cbct稀疏视角重建方法

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170293825A1 (en) * 2016-04-08 2017-10-12 Wuhan University Method and system for reconstructing super-resolution image
CN106802323A (zh) * 2017-01-22 2017-06-06 北京工业大学 一种基于全矩阵数据的超声全聚焦成像系统
CN106991429A (zh) * 2017-02-27 2017-07-28 陕西师范大学 图像识别深度信念网络结构的构建方法
CN106841390A (zh) * 2017-03-14 2017-06-13 浙江大学 一种基于支持向量机的环焊缝超声相控阵自动聚焦方法
CN107247949A (zh) * 2017-08-02 2017-10-13 北京智慧眼科技股份有限公司 基于深度学习的人脸识别方法、装置和电子设备
CN108520522A (zh) * 2017-12-31 2018-09-11 南京航空航天大学 基于深度全卷积神经网络的视网膜眼底图像分割方法
CN108932725A (zh) * 2018-06-08 2018-12-04 哈尔滨工程大学 基于卷积神经网络的场景流估计方法
CN110163235A (zh) * 2018-10-11 2019-08-23 腾讯科技(深圳)有限公司 图像增强模型的训练、图像增强方法、装置和存储介质
CN110349087A (zh) * 2019-07-08 2019-10-18 华南理工大学 基于适应性卷积的rgb-d图像高质量网格生成方法
US20220061816A1 (en) * 2020-09-01 2022-03-03 GE Precision Healthcare LLC Systems and methods to improve resolution of ultrasound images with a neural network
US20210319265A1 (en) * 2020-11-02 2021-10-14 Zhengzhou University Method for segmentation of underground drainage pipeline defects based on full convolutional neural network
GB2610449A (en) * 2021-09-06 2023-03-08 Harbin Inst Technology Efficient high-resolution non-destructive detecting method based on convolutional neural network
WO2023077809A1 (zh) * 2021-11-05 2023-05-11 五邑大学 神经网络训练的方法、电子设备及计算机存储介质
CN114923984A (zh) * 2022-05-23 2022-08-19 大连理工大学 基于反向传播神经网络的亚波长分辨力阵列超声成像方法
CN115406970A (zh) * 2022-11-01 2022-11-29 汕头市超声检测科技有限公司 一种全聚焦高分辨率成像算法
CN116843825A (zh) * 2023-06-01 2023-10-03 中国机械总院集团沈阳铸造研究所有限公司 一种渐进式cbct稀疏视角重建方法
CN116818904A (zh) * 2023-06-30 2023-09-29 北京航空航天大学 一种锂离子电池析锂超声无损检测方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周正干: "相控阵超声检测技术中的全聚焦成像算法 及其校准研究", 《机 械 工 程 学 报》, vol. 51, no. 10, 31 May 2015 (2015-05-31), pages 1 - 7 *

Also Published As

Publication number Publication date
CN117420209B (zh) 2024-05-07

Similar Documents

Publication Publication Date Title
EP3581961A1 (en) Method and apparatus for ultrasound imaging with improved beamforming
JP7359850B2 (ja) 超音波信号の適応ビームフォーミングの方法及びシステム
CN102608205B (zh) 基于变波速相位迁移的多层物体无损检测超声成像方法
US10591597B2 (en) Ultrasound imaging apparatus and method for controlling the same
CN113238189A (zh) 基于阵列测量和稀疏先验信息的声源辨识方法、系统
CN113504306B (zh) 一种基于超声相控阵低秩矩阵恢复的钢轨缺陷检测方法
CN111983619A (zh) 一种基于迁移学习的水声目标前向散射声扰动定位方法
CN107802286B (zh) 基于多频时间反转技术的超声成像方法和系统
CN103018333B (zh) 分层物体的合成孔径聚焦超声成像方法
Varghese et al. Unpaired image-to-image translation of structural damage
CN113552571B (zh) 基于psm算法的水下激光致声saft成像方法
CN117420209B (zh) 基于深度学习的全聚焦相控阵超声快速高分辨率成像方法
CN117314968A (zh) 运动信息估计方法、装置、设备、存储介质和程序产品
CN116309921A (zh) 基于cuda技术的延迟求和声成像并行加速方法
CN115712120A (zh) 超声成像方法、装置、计算机设备和存储介质
Wang et al. Data-driven subsampling matrices design for phased array ultrasound nondestructive testing
Song et al. Ultrasonic phased array sparse-TFM imaging based on deep learning and genetic algorithm
Dziewierz et al. A design methodology for 2D sparse NDE arrays using an efficient implementation of refracted-ray TFM
Lv et al. Improved SRCNN for super-resolution reconstruction of retinal images
JP2017500553A (ja) 断片の表面を再構築する方法
EP4361627A1 (en) Method and apparatus for determining the set of focal laws of a plurality of focal points located in a three-dimensional test object in the presence of a coupling medium
EP3841400A1 (fr) Procede et dispositif d&#39;imagerie ameliore pour imager un objet
Cui et al. Real-time total focusing method imaging for ultrasonic inspection of three-dimensional multilayered media
Ebner et al. Metrically Scaled Monocular Depth Estimation through Sparse Priors for Underwater Robots
RU2805009C1 (ru) Устройство для построения карты глубины в неплотных средах

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant