CN111507047A - 一种基于SP-CUnet的逆散射成像方法 - Google Patents

一种基于SP-CUnet的逆散射成像方法 Download PDF

Info

Publication number
CN111507047A
CN111507047A CN202010302849.XA CN202010302849A CN111507047A CN 111507047 A CN111507047 A CN 111507047A CN 202010302849 A CN202010302849 A CN 202010302849A CN 111507047 A CN111507047 A CN 111507047A
Authority
CN
China
Prior art keywords
data
layer
size
matrix
rewinding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010302849.XA
Other languages
English (en)
Other versions
CN111507047B (zh
Inventor
王晓华
瞿铖辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202010302849.XA priority Critical patent/CN111507047B/zh
Publication of CN111507047A publication Critical patent/CN111507047A/zh
Application granted granted Critical
Publication of CN111507047B publication Critical patent/CN111507047B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Abstract

本发明提供了一种基于SP‑CUnet的逆散射成像方法,该方法针对复值数据相位信息采用不充分以及最大池化方法只能反映局部信息的问题,引入了复卷积模块以及频谱池化模块,结合Unet网络强大的分类成像能力提出了基于SP‑CUnet的逆散射成像方法。本发明对仿真得到的散射数据预处理后带入网络进行训练,训练完成的网络不仅可以在多散射体分布以及噪声干扰的情况下得到理想的成像效果,而且对训练样本的需求量并不大,且成像精度高。

Description

一种基于SP-CUnet的逆散射成像方法
技术领域
本发明属于电磁场建模仿真技术领域,具体涉及一种基于频谱池化下的复卷积U型网络(Spectral pooling-Complex Unet,SP-CUnet)的逆散射成像方法。
背景技术
逆散射问题由于存在不适定性和非线性,通常采用正则化的迭代优化方法求解,但该方法存在耗时,难于实时重建的缺点。近年来,基于卷积神经网络提取散射体几何及电磁特性的方法被提出,此类方法大多使用一些参数来表示散射体,例如散射体的位置、尺寸、形状和分段介电常数,具有准确高效的特征。基于卷积神经网络的设计方法需要大量的样本数据进行训练。训练成熟的神经网络能在短时间内重建成像区域内的散射体特性,进而替代传统的正则化迭代方法。
文献“Deep Convolutional Neural network for inverse problem inimaging”首次提出利用卷积神经网络求解逆问题,达到图像重建的目的;文献“Solvingill-posed inverse problems using iterative deep neural networks”提出了一种基于正则化理论求解不适定逆问题的部分学习方法;文献“Deep learning schemes forfull wave nonlinear inverse scattering problems”提出利用卷积神经网络解决全波逆散射问题。但目前求解逆散射问题的网络模型只能处理实数值的数据,而电磁散射数据通常为复数,这意味着必须丢弃相位信息。并且在多散射体分布以及噪声干扰的情况下,利用散射场幅度数值进行重建的结果往往不够精确。
发明内容
本发明的目的是提供一种基于复数卷积神经网络的逆散射成像方法,以解决现有的逆散射神经网络模型无法处理复数值数据的问题。并且利用频谱池化代替传统的最大池化,提取更多的数据特征。
本发明提出的一种基于SP-CUnet的逆散射成像方法,具体包括如下步骤:
本次发明的输入数据为散射数据ES,输出数据为预测的介电常数分布esponr_。
步骤1:在电磁仿真软件中设置成像区域,收发天线的位置、个数,散射体的位置、尺寸、数量和分段介电常数分布,通过子空间优化法的正演过程求解散射电场ES,记录介电常数分布esponr。其中ES为[64,64,1]大小的矩阵,矩阵的每个元素均为复数;esponr为[64,64,1]大小的矩阵,矩阵的每个元素均为实数,即成像区域的每个点对应的介电常数值。不断修改散射体的位置、尺寸、数量和分段介电常数分布,可以得到525组不同的散射电场数据ES以及525组与之对应的介电常数分布数据esponr。
步骤2:对步骤1中得到的525组散射电场数据ES添加高斯白噪声,模拟真实的散射数据,其中信噪比为百分之五。数据受噪声影响后可能出现幅值变小等问题,此时需要对数据进行预处理。得到的散射电场数据通常幅值较小且部分散射电场数据幅值近乎为0,需要对数据进行预处理。预处理的具体方法:设定阈值为0.001,剔除幅值小于阈值的散射电场数据,并且采用最大值归一化,最后扩充幅值,保证幅值范围在[0,255]。
步骤3:制作训练集和测试集。训练集和测试集均包含输入数据和标记数据两个部分。从步骤2中预处理后的525组散射电场数据ES中随机选择500组数据作为训练集的输入数据,训练集的标记数据即为与之对应的500组介电常数分布数据esponr。其余25组散射电场数据ES作为测试集的输入数据,测试集的标记数据即为与之对应的25组介电常数分布数据esponr。
步骤4.从所述训练集的500组样本数据中每次按顺序取出5组样本数据作为输入数据喂入神经网络进行训练,100次训练即可遍历训练集的所有数据。记100次训练为一轮,200轮后结束训练。每组输入数据进入网络进行学习后,会得到一个预测的介电常分布数据esponr_,计算所述神经网络预测的介电常数分布数据esponr_和每组输入数据对应的标记数据esponr之间的误差,进而通过Adam算法不断优化神经网络的参数,使得误差不断减小,直至训练结束,得到训练好的SP-CUnet神经网络。
复卷积神经网络的测试:
在测试阶段,将测试集的数据作为输入数据喂入所述训练好的SP-CUnet神经网络中,从而得到对应的仿真结果。
1、本发明对输入的散射数据进行预处理
输入数据的特征对神经网络的训练起到至关重要的作用。本发明对幅值较小的散射数据进行剔除。为保证细化数据之间的特征,对训练集和测试集的输入数据进行归一化处理,提高算法准确性。
2、处理复数值的散射数据
现有的Unet只能进行实数卷积计算,对于复值的散射数据而言,实数卷积计算难以提取到有效的特征。本发明实数卷积修改为实部和实部、实部和虚部、虚部和实部、虚部和虚部的卷积计算以解决的Unet只能处理实数数据的问题,提高了在多散射体以及噪声干扰情况下的重建精度。
3、频谱池化
以最大池化为例,对于一个2×2大小的滑动窗口,将其应用于二维输入数据时,每个窗口中的最大值只反映非常局部的信息,而且往往不能很好地表示窗口特征。为了保留数据更多的特征,本发明中用频谱池化代替最大池化。
附图说明
图1为本发明实例的成像区域的示意图
图2为本发明复卷积神经网络结构示意图
图3为本发明复卷积神经网络训练流程图
图4为本发明单散射体仿真结果示意图
图5为本发明双散射体仿真结果示意图
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明的实施步骤作进一步详细的说明。
本发明提出的一种基于SP-CUnet的逆散射成像方法,具体包括如下步骤:
本次发明的输入数据为散射数据ES,输出数据为预测的介电常数分布esponr_。
步骤1:在电磁仿真软件中设置成像区域,收发天线的位置、个数,散射体的位置、尺寸、数量和分段介电常数分布,通过子空间优化法的正演过程求解散射电场ES,记录介电常数分布esponr。其中ES为[64,64,1]大小的矩阵,矩阵的每个元素均为复数;esponr为[64,64,1]大小的矩阵,矩阵的每个元素均为实数,即成像区域的每个点对应的介电常数值。不断修改散射体的位置、尺寸、数量和分段介电常数分布,可以得到525组不同的散射电场数据ES以及525组与之对应的介电常数分布数据esponr。
步骤2:对步骤1中得到的525组散射电场数据ES添加高斯白噪声,模拟真实的散射数据,其中信噪比为百分之五。数据受噪声影响后可能出现幅值变小等问题,此时需要对数据进行预处理。得到的散射电场数据通常幅值较小且部分散射电场数据幅值近乎为0,需要对数据进行预处理。预处理的具体方法:设定阈值为0.001,剔除幅值小于阈值的散射电场数据,并且采用最大值归一化,最后扩充幅值,保证幅值范围在[0,255]。
步骤3:制作训练集和测试集。训练集和测试集均包含输入数据和标记数据两个部分。从步骤2中预处理后的525组散射电场数据ES中随机选择500组数据作为训练集的输入数据,训练集的标记数据即为与之对应的500组介电常数分布数据esponr。其余25组散射电场数据ES作为测试集的输入数据,测试集的标记数据即为与之对应的25组介电常数分布数据esponr。
步骤4.从所述训练集的500组样本数据中每次按顺序取出5组样本数据作为输入数据喂入神经网络进行训练,100次训练即可遍历训练集的所有数据。记100次训练为一轮,200轮后结束训练。每组输入数据进入网络进行学习后,会得到一个预测的介电常分布数据esponr_,计算所述神经网络预测的介电常数分布数据esponr_和每组输入数据对应的标记数据esponr之间的误差,进而通过Adam算法不断优化神经网络的参数,使得误差不断减小,直至训练结束,得到训练好的SP-CUnet神经网络。
复卷积神经网络的测试:
在测试阶段,将测试集的数据作为输入数据依次喂入所述训练好的SP-CUnet神经网络中,从而得到对应的仿真结果。
参考图1,本发明的成像区域示意图。图中成像区域D为一个2m×2m大小的正方形区域,区域D中的背景介电常数为1,区域D的中心在(0,0)处。散射介质e的介电常数取值范围为[1.5,3],散射体的介电常数可自行设置,但必须大于1,散射体的形状通常为球形或者矩形,并且允许散射体重叠,散射体的具体形状不做要求,也可自行设置,本发明实例为球形散射体,半径为1.5至2.5。收发天线均匀分布在以(0,0)处为圆心,半径为1.5米的圆上,收发天线的数量可自行设置,本发明实例的收发天线个数均为64。
参考图2,本发明的神经网络结构如图2所示,具体参数如下:
(1)首先,输入数据依次通过Cconv1、Cconv2和Cconv3,其中,Cconv1、Cconv2和Cconv3均为复卷积层,分别从Cconv1、Cconv2和Cconv3输出的数据均进入各自的32层数据通道,复卷积计算的输入size为64×64,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为32,输出size为64×64。复值归一化计算的动态均值的动量为0.99,动态浮点数设置为0.001。激活函数为CReLU。
(2)Cconv3之后的32层数据通道中的数据一路进入SP1,其中,SP1为频谱池化层,复卷积计算的输入size为64×64,输出size为32×32,从SP1输出的数据进入其对应的32层数据通道,然后SP1之后的32层数据通道中的数据依次通过Cconv4和Cconv5。
(3)Cconv4和Cconv5均为复卷积层,分别从Cconv4和Cconv5输出的数据均进入各自的64层数据通道,复卷积计算的输入size为32×32,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为64,输出size为32×32。复值归一化计算的动态均值的动量为0.99,动态浮点数设置为0.001。激活函数为CReLU。
(4)Cconv5之后的64层数据通道中的数据一路进入SP2,其中,SP2为频谱池化层,复卷积计算的输入size为32×32,输出size为16×16,从SP2输出的数据进入其对应的64层数据通道,然后SP2之后的64层数据通道中的数据依次通过Cconv6和Cconv7。
(5)Cconv6和Cconv7为复卷积层,分别从Cconv6和Cconv7输出的数据均进入各自的128层数据通道,复卷积计算的输入size为8×8,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为128,输出size为16×16。复值归一化计算的动态均值的动量为0.99,动态浮点数设置为0.001。激活函数为CReLU。
(6)Cconv7之后的128层数据通道中的数据进入DeConv1,DeConv1为反卷积层,复卷积计算的输入size为16×16,卷积size为2×2,步长为1,卷积核深度为64,输出size为32×32,然后Cconv5之后的64层数据通道中的数据另一路通过Skip Connection连接层在DeConv1之后的64层数据通道中的数据之前与其进行拼接,拼接后的数据依次通过Cconv8和Cconv9。
(7)Cconv8和Cconv9为复卷积层,分别从Cconv8和Cconv9输出的数据均进入各自的64层数据通道,复卷积计算的输入size为32×32,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为64,输出size为32×32。复值归一化计算的动态均值的动量为0.99,动态浮点数设置为0.001。激活函数为CReLU。
(8)Cconv9之后的64层数据通道中的数据进入DeConv2,DeConv2为反卷积层,复卷积计算的输入size为32×32,卷积size为2×2,步长为1,卷积核深度为32,输出size为64×64,然后Cconv3之后的32层数据通道中的数据另一路通过Skip Connection连接层在DeConv2之后的32层数据通道中的数据之前与其进行拼接,拼接后的数据依次通过Cconv10和Cconv11。
(9)Cconv10和Cconv11为复卷积层,分别从Cconv10和Cconv11输出的数据均进入各自的32层数据通道,复卷积计算的输入size为64×64,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为32,输出size为64×64。复值归一化计算的动态均值的动量为0.99,动态浮点数设置为0.001。激活函数为CReLU。
(10)Cconv11之后的32层数据通道中的数据进入Average,Average为均值层,输入size为64×64,输出size为64×64,从Average均值层输出的数据进入单层数据通道。
(11)Skip Connection为连接层,在指定维度对数据矩阵进行拼接。
参考图2中网络结构可知,所述神经网络主要包含以下计算层:
复卷积层:
复卷积层包括三部分:复卷积计算、复值归一化和CReLU激活函数。复卷积与实数卷积的区别主要在于输入和运算两个部分。复卷积的输入层分为实部层和虚部层两个部分,神经网络的参数也为复数,也分为实部层和虚部层,卷积运算整合为实部和实部、实部和虚部、虚部和实部、虚部和虚部的卷积之和。如果神经网络的参数W,W=A+iB,A表示实部,B表示虚部。输入数据为Z,Z=X+iY,X表示实部,Y表示虚部。
Z·W=(X·A-Y·B)+i(X·B-Y·A) (1)
公式(1)得到的结果会经过复值归一化,此时,记Z·W=x,将x的虚部和实部看成两个分量,按各自分量的协方差矩阵进行相应的缩放。归一化处理后的数据
Figure BDA0002454652730000069
可表示为:
Figure BDA0002454652730000061
E[x]表示x的期望,协方差矩阵V表示为:
Figure BDA0002454652730000062
Cov表示协方差计算,
Figure BDA0002454652730000063
表示x的实部值,
Figure BDA0002454652730000064
表示x的虚部值。如果V是正定矩阵,则
Figure BDA0002454652730000065
一定存在解析解。根据Tikhonov正则化,可以增加额外项I,保证V为正定矩阵。基于正定矩阵V得到的数据
Figure BDA0002454652730000066
其均值μ=0,协方差Γ×1,自相关系数C=0。具体计算过程如下:
Figure BDA0002454652730000067
移位参数β是一个复数,有两个可学习的分量(实部均值和虚部均值)。缩放参数γ是一个2×2大小的正定矩阵且自由度为3,那么它的4个参数只有3个可以由网络学习到。与上文中提到的
Figure BDA0002454652730000068
按照分量进行缩放类似,γ也会根据其分量对数据进行缩放。γ的具体表现形式如下
Figure BDA0002454652730000071
由于
Figure BDA0002454652730000072
的实部方差和虚部方差均为1,为了保证归一化之后数据的模值为1,γrr和γii的初始值均为
Figure BDA0002454652730000073
γri的初始值为0,可以得到复值归一化;
Figure BDA0002454652730000074
CReLU激活函数对数据进行修正,对实部和虚部两个部分分别施加ReLU激活函数。
频谱池化层:
频谱池化会对输入的数据进行快速傅里叶变换,通过截断频域来实现降低维度,池化完成的数据将进行傅里叶逆变换恢复到时域。本发明将使原始输入数据的维度减小一半。与其他池化策略相比,这种方法保留了更多的局部信息,并在选择池化输出大小方面提供了灵活性。具体实施步骤如下:
⑥输入:二维数据x∈RM×N,以矩阵形式存储,大小:M×N,M为行数,N为列数。
⑦y←f(x),f(·)表示快速傅里叶变换。使得数据x转换到频域形式y。y的依然为M×N大小的矩阵。
⑧假设池化后的矩阵大小为H×W,H为行数,W为列数。则从y的中心频点位置开始剪裁,只保留H×W大小的矩阵并记为
Figure BDA0002454652730000075
Figure BDA0002454652730000076
傅里叶逆变换得到
Figure BDA0002454652730000077
在时域上的数据形式,完成池化操作。
⑩输出:池化后的数据
Figure BDA0002454652730000078
以矩阵形式存储。
反卷积层:
反卷积的过程采用神经网络算法中的反卷积算法将数据维度提高一倍,最终将恢复到输入数据的维度。由于卷积核深度的因素,最终数据的结果为多深度数据特征。采用平均值处理将维度降低到一维,得到预测的介电常数。
结合图2和图3,可以得到SP-CUnet中数据的传递过程:
参考图3,在电磁仿真软件中设置成像区域,收发天线的位置、个数,散射体的位置、尺寸、数量和分段介电常数分布,通过子空间优化法的正演过程求解散射电场ES,记录介电常数分布esponr,不断修改散射体的位置、尺寸、数量和分段介电常数分布,可以得到525组不同的散射电场数据以及525组与之对应的介电常数分布数据。对得到的525组散射电场数据ES添加高斯白噪声,并进行预处理。抽取500组数据作为训练集,25组数据为测试集。
具体地,训练过程中,从训练集中选取输入数据N,N的矩阵形式为[5,64,64,1],其中5表示共有5组样本数据,每组数据为[64,64,1]大小的矩阵,64、64和1分表代表矩阵的行、列以及数据通道。
(1)N经过Cconv1复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N1,N1为[5,64,64,32]大小的矩阵。
(2)N1经过Cconv2复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N2,N2为[5,64,64,32]大小的矩阵。
(3)N2经过Cconv3复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N3,N3为[5,64,64,32]大小的矩阵。
(4)N3经过SP1频谱池化后得到N4,N4为[5,32,32,32]大小的矩阵。本次池化操作使得数据的维度减少了一半。
(5)N4经过Cconv4复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N5,N5为[5,32,32,64]大小的矩阵。
(6)N5经过Cconv5复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N6,N6为[5,32,32,64]大小的矩阵。
(7)N6经过SP2频谱池化后得到N7,N7为[5,16,16,64]大小的矩阵。本次池化操作使得数据的维度减少了一半。
(8)N7经过Cconv6复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N8,N8为[5,16,16,128]大小的矩阵。
(9)N8经过Cconv7复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N9,N9为[5,16,16,128]大小的矩阵。
(10)N9经过DeConv1反卷积层计算后得到N10,N10为[5,32,32,64]大小的矩阵。N10通过Skip Connection和N6在数据通道层面进行拼接,使得N10更新为[5,32,32,128]。
(11)N10经过Cconv8复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N11,N11为[5,32,32,64]大小的矩阵。
(12)N11经过Cconv9复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N12,N12为[5,32,32,64]大小的矩阵。
(13)N12经过DeConv2反卷积层计算后得到N13,N13为[5,64,64,32]大小的矩阵。N13通过Skip Connection和N3在数据通道层面进行拼接,使得N13更新为[5,64,64,64]。
(14)N13经过Cconv10复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N14,N14为[5,64,64,32]大小的矩阵。
(15)N14经过Cconv11复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N15,N15为[5,64,64,32]大小的矩阵。
(16)N15经过Average均值计算后得到esponr_,esponr_为[5,64,64,1]大小的矩阵。即根据数据通道层进行求和平均计算。esponr_为网络预测的介电常数分布矩阵。
(17)计算esponr_与esponr之间的均方差误差,根据Adam算法进行不断化调参数,得到最优化的神经网络结构。
参考图4,测试集中的一组单散射体测试数据,图(a)表示标记数据,即区域D的原始的介电常数分布esponr。球形介质表示目标散射体e,介电常数为2并均匀分布在该散射体上。其余背景介电常数为1。当输入电场数据经过SP-CUNet后,得到的预测结果esponr_如图(b)所示,可以看出,网络模型能很好的预测出单散射体介质的位置,大小,轮廓和介电常数分布。
参考图5,测试集中的一组双散射体测试数据,图(a)表示标记数据,即区域D的原始的介电常数分布esponr。目标散射体e由左右两个球形散射体组成,左侧球形散射体介电常数为2.5并均匀分布在该散射体上。右侧球形散射体介电常数为1.5并均匀分布在该散射体上。其余背景介电常数为1。当输入电场数据经过SP-CUNet后,得到的预测结果esponr_如图(b)所示,可以看出,网络模型能很好的预测出两个散射体的相对位置,大小,轮廓和介电常数分布。
以上所述,仅为本发明的具体实施方式,本说明书中所公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换;所公开的所有特征、或所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以任何方式组合;本领域的技术人员根据本发明技术方案的技术特征所做出的任何非本质的添加、替换,均属于本发明的保护范围。

Claims (7)

1.一种基于SP-CUnet的逆散射成像方法,其特征在于,该方法包括以下步骤:
步骤1:在电磁仿真软件中设置成像区域,收发天线的位置、个数,散射体的位置、尺寸、数量和分段介电常数分布,通过子空间优化法的正演过程求解散射电场ES,记录介电常数分布esponr,其中ES为[64,64,1]大小的矩阵,矩阵的每个元素均为复数;esponr为[64,64,1]大小的矩阵,矩阵的每个元素均为实数,即成像区域的每个点对应的介电常数值,不断修改散射体的位置、尺寸、数量和分段介电常数分布,得到525组不同的散射电场数据ES以及525组与之对应的介电常数分布数据esponr;
步骤2:对步骤1中得到的525组散射电场数据ES添加高斯白噪声,模拟真实的散射数据,其中信噪比为百分之五,数据受噪声影响后可能出现幅值变小等问题,此时需要对数据进行预处理;得到的散射电场数据通常幅值较小且部分散射电场数据幅值近乎为0,需要对数据进行预处理;
步骤3:制作训练集和测试集,训练集和测试集均包含输入数据和标记数据两个部分,从步骤2中预处理后的525组散射电场数据ES中随机选择500组数据作为训练集的输入数据,训练集的标记数据即为与之对应的500组介电常数分布数据esponr,其余25组散射电场数据ES作为测试集的输入数据,测试集的标记数据即为与之对应的25组介电常数分布数据esponr;
步骤4.从所述训练集的500组数据中每次按顺序取出5组数据作为输入数据喂入神经网络进行训练,100次训练即可遍历训练集的所有数据,记100次训练为一轮,200轮后结束训练。每组输入数据进入网络进行学习后,会得到一个预测的介电常分布数据esponr_,计算所述神经网络预测的介电常数分布数据esponr_和每组输入数据对应的标记数据esponr之间的误差,进而通过Adam算法不断优化神经网络的参数,使得误差不断减小,直至训练结束,得到训练好的SP-CUnet神经网络;
步骤5.在测试阶段,将测试集的数据作为输入数据依次喂入所述训练好的SP-CUnet神经网络中,从而得到对应的仿真结果。
2.根据权利要求1所述的基于SP-CUnet的逆散射成像方法,其特征在于,所述成像区域D为一个2m×2m大小的正方形区域,所述成像区域D中的背景介电常数为1,所述成像区域D的中心在(0,0)处,散射介质e的介电常数取值范围为[1.5,3],散射体的介电常数大于1,散射体的形状为球形或者矩形,且允许散射体重叠。
3.根据权利要求2所述的基于SP-CUnet的逆散射成像方法,其特征在于,所述散射体的具体形状为球形散射体,半径为1.5至2.5,收发天线均匀分布在以(0,0)处为圆心,半径为1.5米的圆上,收发天线的数量均为64。
4.根据权利要求3所述的基于SP-CUnet的逆散射成像方法,其特征在于,所述预处理的具体方法:设定阈值为0.001,剔除幅值小于阈值的散射电场数据,并且采用最大值归一化,最后扩充幅值,保证幅值范围在[0,255]。
5.根据权利要求1-4任意一项所述的基于SP-CUnet的逆散射成像方法,其特征在于,所述神经网络具体为:
(1)首先,输入数据依次通过Cconv1、Cconv2和Cconv3,其中,Cconv1、Cconv2和Cconv3均为复卷积层,分别从Cconv1、Cconv2和Cconv3输出的数据均进入各自的32层数据通道,复卷积计算的输入size为64×64,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为32,输出size为64×64。复值归一化计算的动态均值的动量为0.99,动态浮点数设置为0.001。激活函数为CReLU;
(2)Cconv3之后的32层数据通道中的数据一路进入SP1,其中,SP1为频谱池化层,复卷积计算的输入size为64×64,输出size为32×32,从SP1输出的数据进入其对应的32层数据通道,然后SP1之后的32层数据通道中的数据依次通过Cconv4和Cconv5;
(3)Cconv4和Cconv5均为复卷积层,分别从Cconv4和Cconv5输出的数据均进入各自的64层数据通道,复卷积计算的输入size为32×32,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为64,输出size为32×32,复值归一化计算的动态均值的动量为0.99,动态浮点数设置为0.001。激活函数为CReLU;
(4)Cconv5之后的64层数据通道中的数据一路进入SP2,其中,SP2为频谱池化层,复卷积计算的输入size为32×32,输出size为16×16,从SP2输出的数据进入其对应的64层数据通道,然后SP2之后的64层数据通道中的数据依次通过Cconv6和Cconv7;
(5)Cconv6和Cconv7为复卷积层,分别从Cconv6和Cconv7输出的数据均进入各自的128层数据通道,复卷积计算的输入size为8×8,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为128,输出size为16×16,复值归一化计算的动态均值的动量为0.99,动态浮点数设置为0.001。激活函数为CReLU;
(6)Cconv7之后的128层数据通道中的数据进入DeConv1,DeConv1为反卷积层,复卷积计算的输入size为16×16,卷积size为2×2,步长为1,卷积核深度为64,输出size为32×32,然后Cconv5之后的64层数据通道中的数据另一路通过Skip Connection连接层在DeConv1之后的64层数据通道中的数据之前与其进行拼接,拼接后的数据依次通过Cconv8和Cconv9;
(7)Cconv8和Cconv9为复卷积层,分别从Cconv8和Cconv9输出的数据均进入各自的64层数据通道,复卷积计算的输入size为32×32,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为64,输出size为32×32,复值归一化计算的动态均值的动量为0.99,动态浮点数设置为0.001,激活函数为CReLU;
(8)Cconv9之后的64层数据通道中的数据进入DeConv2,DeConv2为反卷积层,复卷积计算的输入size为32×32,卷积size为2×2,步长为1,卷积核深度为32,输出size为64×64,然后Cconv3之后的32层数据通道中的数据另一路通过Skip Connection连接层在DeConv2之后的32层数据通道中的数据之前与其进行拼接,拼接后的数据依次通过Cconv10和Cconv11;
(9)Cconv10和Cconv11为复卷积层,分别从Cconv10和Cconv11输出的数据均进入各自的32层数据通道,复卷积计算的输入size为64×64,卷积size为3×3,采用边缘填充,步长为1,卷积核深度为32,输出size为64×64,复值归一化计算的动态均值的动量为0.99,动态浮点数设置为0.001,激活函数为CReLU;
(10)Cconv11之后的32层数据通道中的数据进入Average,Average为均值层,输入size为64×64,输出size为64×64,从Average均值层输出的数据进入单层数据通道;
(11)Skip Connection为连接层,在指定维度对数据矩阵进行拼接。
6.根据权利要求5所述的基于SP-CUnet的逆散射成像方法,其特征在于,所述神经网络具体包含以下计算层:
复卷积层:
复卷积层包括3部分:复卷积计算、复值归一化和CReLU激活函数,复卷积与实数卷积的区别主要在于输入和运算两个部分,复卷积的输入层分为实部层和虚部层两个部分,神经网络的参数也为复数,也分为实部层和虚部层,卷积运算整合为实部和实部、实部和虚部、虚部和实部、虚部和虚部的卷积之和,如果神经网络的参数W,W=A+iB,A表示实部,B表示虚部。输入数据为Z,Z=X+iY,X表示实部,Y表示虚部。
Z·W=(X·A-Y·B)+i(X·B-Y·A) 公式1
公式1得到的结果会经过复值归一化,此时,记Z·W=x,将x的虚部和实部看成两个分量,按各自分量的协方差矩阵进行相应的缩放,归一化处理后的数据
Figure FDA00024546527200000413
可表示为:
Figure FDA0002454652720000041
其中,E[x]表示x的期望,协方差矩阵V表示为:
Figure FDA0002454652720000042
Cov表示协方差计算,
Figure FDA0002454652720000043
表示x的实部值,
Figure FDA0002454652720000044
表示x的虚部值;如果V是正定矩阵,则
Figure FDA0002454652720000045
一定存在解析解;根据Tikhonov正则化,可以增加额外项I,保证V为正定矩阵,基于正定矩阵V得到的数据
Figure FDA0002454652720000046
其均值μ=0,协方差Γ=1,自相关系数C=0,具体计算过程如下:
Figure FDA0002454652720000047
移位参数β是一个复数,有两个可学习的分量(实部均值和虚部均值),缩放参数γ是一个2×2大小的正定矩阵且自由度为3,那么它的4个参数只有3个可以由网络学习到,与上面的
Figure FDA0002454652720000048
按照分量进行类似的缩放,γ也会根据其分量对数据进行缩放,γ的具体表现形式如下
Figure FDA0002454652720000049
由于
Figure FDA00024546527200000410
的实部方差和虚部方差均为1,为了保证归一化之后数据的模值为1,γrr和γii的初始值均为
Figure FDA00024546527200000411
γri的初始值为0,可以得到复值归一化;
Figure FDA00024546527200000412
CReLU激活函数对数据进行修正,对实部和虚部两个部分分别施加ReLU激活函数;
频谱池化层:
频谱池化会对输入的数据进行快速傅里叶变换,通过截断频域来实现降低维度,池化完成的数据将进行傅里叶逆变换恢复到时域,使原始输入数据的维度减小一半,具体步骤如下:
①输入:二维数据x∈RM×N,以矩阵形式存储,大小:M×N,M为行数,N为列数;
②y←f(x),f(·)表示快速傅里叶变换,使得数据x转换到频域形式y,y依然为M×N大小的矩阵。
③假设池化后的矩阵大小为H×W,H为行数,W为列数,则从y的中心频点位置开始剪裁,只保留H×W大小的矩阵并记为
Figure FDA0002454652720000051
Figure FDA0002454652720000052
傅里叶逆变换得到
Figure FDA0002454652720000053
在时域上的数据形式,完成池化操作;
⑤输出:池化后的数据
Figure FDA0002454652720000054
以矩阵形式存储;
反卷积层:
反卷积的过程采用神经网络算法中的反卷积算法将数据维度提高一倍,最终将恢复到输入数据的维度,由于卷积核深度的因素,最终数据的结果为多深度数据特征,采用平均值处理将维度降低到一维,得到预测的介电常数。
7.根据权利要求6所述的基于SP-CUnet的逆散射成像方法,其特征在于,所述神经网络的训练过程为:从所述训练集中选取输入数据N,N的矩阵形式为[5,64,64,1],其中5表示共有5组样本数据,每组样本数据为[64,64,1]大小的矩阵,64、64和1分表代表矩阵的行、列以及数据通道。
(1)N经过Cconv1复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N1,N1为[5,64,64,32]大小的矩阵;
(2)N1经过Cconv2复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N2,N2为[5,64,64,32]大小的矩阵;
(3)N2经过Cconv3复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N3,N3为[5,64,64,32]大小的矩阵;
(4)N3经过SP1频谱池化后得到N4,N4为[5,32,32,32]大小的矩阵,本次池化操作使得数据的维度减少了一半;
(5)N4经过Cconv4复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N5,N5为[5,32,32,64]大小的矩阵;
(6)N5经过Cconv5复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N6,N6为[5,32,32,64]大小的矩阵;
(7)N6经过SP2频谱池化后得到N7,N7为[5,16,16,64]大小的矩阵。本次池化操作使得数据的维度减少了一半;
(8)N7经过Cconv6复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N8,N8为[5,16,16,128]大小的矩阵;
(9)N8经过Cconv7复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N9,N9为[5,16,16,128]大小的矩阵;
(10)N9经过DeConv1反卷积层计算后得到N10,N10为[5,32,32,64]大小的矩阵;N10通过Skip Connection和N6在数据通道层面进行拼接,使得N10更新为[5,32,32,128];
(11)N10经过Cconv8复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N11,N11为[5,32,32,64]大小的矩阵;
(12)N11经过Cconv9复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N12,N12为[5,32,32,64]大小的矩阵;
(13)N12经过DeConv2反卷积层计算后得到N13,N13为[5,64,64,32]大小的矩阵。N13通过Skip Connection和N3在数据通道层面进行拼接,使得N13更新为[5,64,64,64];
(14)N13经过Cconv10复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N14,N14为[5,64,64,32]大小的矩阵;
(15)N14经过Cconv11复卷积层的复值卷积计算、复值归一化和CReLU激活函数修正后得到N15,N15为[5,64,64,32]大小的矩阵;
(16)N15经过Average均值计算后得到esponr_,esponr_为[5,64,64,1]大小的矩阵。即根据数据通道层进行求和平均计算。esponr_为网络预测的介电常数分布矩阵;
(17)计算esponr_与esponr之间的均方差误差,根据Adam算法进行不断化调参数,得到最优化的神经网络结构。
CN202010302849.XA 2020-04-17 2020-04-17 一种基于SP-CUnet的逆散射成像方法 Expired - Fee Related CN111507047B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010302849.XA CN111507047B (zh) 2020-04-17 2020-04-17 一种基于SP-CUnet的逆散射成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010302849.XA CN111507047B (zh) 2020-04-17 2020-04-17 一种基于SP-CUnet的逆散射成像方法

Publications (2)

Publication Number Publication Date
CN111507047A true CN111507047A (zh) 2020-08-07
CN111507047B CN111507047B (zh) 2022-10-14

Family

ID=71874401

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010302849.XA Expired - Fee Related CN111507047B (zh) 2020-04-17 2020-04-17 一种基于SP-CUnet的逆散射成像方法

Country Status (1)

Country Link
CN (1) CN111507047B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112711909A (zh) * 2020-12-30 2021-04-27 浙江大学 一种基础三维形状体散射幅度函数的快速计算方法
CN112748382A (zh) * 2020-12-15 2021-05-04 杭州电子科技大学 基于CUNet伪影定位的SPEED磁共振成像方法
CN113378472A (zh) * 2021-06-23 2021-09-10 合肥工业大学 一种基于生成对抗网络的混合边界电磁逆散射成像方法
CN113538693A (zh) * 2021-07-06 2021-10-22 太原理工大学 一种基于深度学习的微波乳腺图像重建方法
CN117973456A (zh) * 2024-03-29 2024-05-03 安徽大学 基于深度学习网络模型的电磁逆散射成像方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101247758A (zh) * 2005-05-11 2008-08-20 明尼苏达大学评议会 用于利用磁感应进行成像的方法和设备
CN107239797A (zh) * 2017-05-23 2017-10-10 西安电子科技大学 基于全卷积神经网络的极化sar地物分类方法
CN110325929A (zh) * 2016-12-07 2019-10-11 阿瑞路资讯安全科技股份有限公司 用于检测有线网络变化的信号波形分析的系统和方法
WO2019233222A1 (zh) * 2018-06-04 2019-12-12 山东大学 用于桥隧结构病害无损检测诊断的自动爬墙式雷达光电机器人系统
CN110728324A (zh) * 2019-10-12 2020-01-24 西安电子科技大学 基于深度复值全卷积神经网络的极化sar图像分类方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101247758A (zh) * 2005-05-11 2008-08-20 明尼苏达大学评议会 用于利用磁感应进行成像的方法和设备
CN110325929A (zh) * 2016-12-07 2019-10-11 阿瑞路资讯安全科技股份有限公司 用于检测有线网络变化的信号波形分析的系统和方法
CN107239797A (zh) * 2017-05-23 2017-10-10 西安电子科技大学 基于全卷积神经网络的极化sar地物分类方法
WO2019233222A1 (zh) * 2018-06-04 2019-12-12 山东大学 用于桥隧结构病害无损检测诊断的自动爬墙式雷达光电机器人系统
CN110728324A (zh) * 2019-10-12 2020-01-24 西安电子科技大学 基于深度复值全卷积神经网络的极化sar图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BERMANI, E 等: "A threshold electromagnetic classification approach for cylinders embedded in a lossy medium by using a neural network technique", 《MICROWAVE AND OPTICAL TECHNOLOGY LETTERS》 *
张清河等: "基于支持向量机的介质圆柱体逆散射问题研究", 《电波科学学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112748382A (zh) * 2020-12-15 2021-05-04 杭州电子科技大学 基于CUNet伪影定位的SPEED磁共振成像方法
CN112711909A (zh) * 2020-12-30 2021-04-27 浙江大学 一种基础三维形状体散射幅度函数的快速计算方法
CN113378472A (zh) * 2021-06-23 2021-09-10 合肥工业大学 一种基于生成对抗网络的混合边界电磁逆散射成像方法
CN113378472B (zh) * 2021-06-23 2022-09-13 合肥工业大学 一种基于生成对抗网络的混合边界电磁逆散射成像方法
CN113538693A (zh) * 2021-07-06 2021-10-22 太原理工大学 一种基于深度学习的微波乳腺图像重建方法
CN117973456A (zh) * 2024-03-29 2024-05-03 安徽大学 基于深度学习网络模型的电磁逆散射成像方法

Also Published As

Publication number Publication date
CN111507047B (zh) 2022-10-14

Similar Documents

Publication Publication Date Title
CN111507047B (zh) 一种基于SP-CUnet的逆散射成像方法
CN107316013B (zh) 基于nsct变换和dcnn的高光谱图像分类方法
CN110532932B (zh) 一种多分量雷达信号脉内调制方式识别方法
CN104751000B (zh) 一种机电复合传动状态监测信号小波降噪方法
CN107808138B (zh) 一种基于FasterR-CNN的通信信号识别方法
CN112749621B (zh) 一种基于深度卷积神经网络的遥感图像云层检测方法
CN101685158B (zh) 基于隐马尔科夫树模型的sar图像去噪方法
CN109712149B (zh) 一种基于小波能量和模糊c均值的图像分割方法
CN116047427B (zh) 一种小样本雷达有源干扰识别方法
CN107133648B (zh) 基于自适应多尺度融合稀疏保持投影的一维距离像识别方法
CN113657491A (zh) 一种用于信号调制类型识别的神经网络设计方法
CN116402825B (zh) 轴承故障红外诊断方法、系统、电子设备及存储介质
Xue et al. Dynamic coarse‐to‐fine ISAR image blind denoising using active joint prior learning
CN111999731A (zh) 一种基于感知生成对抗网络的电磁逆散射成像方法
CN107301631B (zh) 一种基于非凸加权稀疏约束的sar图像降斑方法
CN116337449A (zh) 一种基于信息融合的稀疏自编码故障诊断方法、系统
CN113392871B (zh) 一种基于散射机制多通道扩张卷积神经网络的极化sar地物分类方法
CN116343032A (zh) 结合高斯回归混合模型和mrf高光谱函数数据的分类方法
CN116778225A (zh) 基于解耦与重构学习的sar真假目标鉴别与目标识别方法
CN111104876A (zh) 一种基于神经网络的红外光谱反卷积方法
Du et al. A novel unsupervised bands selection algorithm for hyperspectral image
CN114821161A (zh) 基于黎曼最近正则子空间模型的极化sar图像分类方法
CN114898091A (zh) 一种基于区域信息的图像对抗样本生成方法及设备
CN114866172A (zh) 基于倒残差深度神经网络的干扰识别方法和装置
Karvonen et al. An iterative incidence angle normalization algorithm for sea ice SAR images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20221014

CF01 Termination of patent right due to non-payment of annual fee