CN115018943B - 一种基于无训练的深度级联网络的电磁逆散射成像方法 - Google Patents
一种基于无训练的深度级联网络的电磁逆散射成像方法 Download PDFInfo
- Publication number
- CN115018943B CN115018943B CN202210610817.5A CN202210610817A CN115018943B CN 115018943 B CN115018943 B CN 115018943B CN 202210610817 A CN202210610817 A CN 202210610817A CN 115018943 B CN115018943 B CN 115018943B
- Authority
- CN
- China
- Prior art keywords
- network
- current
- scatterer
- formula
- iteration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 69
- 238000005457 optimization Methods 0.000 claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 17
- 125000003275 alpha amino acid group Chemical group 0.000 claims description 12
- 150000001875 compounds Chemical class 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 7
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 abstract description 2
- 238000010276 construction Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 11
- 238000013135 deep learning Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Radar, Positioning & Navigation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Remote Sensing (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于无训练的深度级联网络的电磁逆散射成像方法,包括:1数据准备阶段,根据测量到的散射场,获得输入数据;2网络结构搭建阶段,模拟基于子空间优化迭代算法的过程,设计深度级联网络结构;3损失函数设计,在目标函数中使用不包含参考真实值的待求散射体的数据损失与状态损失外,增加若干其他包含先验信息的已知散射体的总电流损失和介电常数损失,作为正则化项以提高重建质量;4通过迭代优化深度级联网络,对单个待求的散射体进行建模,得到单个待求的散射体的重建结果。本发明将完整的物理法则通过损失的形式融合到无训练的深度级联网络中,从而能在无训练集的情况下实现高精度且泛化能力强的电磁逆散射成像。
Description
技术领域
本发明属于电磁逆散射成像的技术领域,尤其涉及一种使用无训练的深度级联网络进行电磁逆散射成像。
背景技术
电磁逆散射通过测量得到的散射场来确定给定区域内未知散射体的信息,比如几何形状、参数分布等。由于多重散射和解的非唯一性特性,逆散射问题呈现出高度的非线性和不适定性,这给求解过程带来了极大的挑战。多年来,研究人员致力于攻克这两个挑战以获得高质量的成像质量,提出了各种重建方法。传统线性迭代方法,比如对比源反演(CSI)、子空间优化(SOM)等,这些方法根据问题内在的物理法则建立模型,以迭代的方法获得重建结果,对逆散射成像问题有较强的适应性,但是其成像质量还有很大的提升空间。
近年来,随着机器学习尤其是深度学习的快速发展,越来越多的研究人员认识到了深度学习方法对数据的强大的处理和学习能力,并开始了将深度学习用于求解电磁逆散射问题的探索。比如,Wei等人提出了一种直接反演方法(DIS),通过神经网络直接学习散射场到目标散射体的映射关系。Li等人利用深度神经网络架构和非线性迭代方法之间的联系,建立了多层复值残差卷积神经网络(DeepNIS)来逐步提高重建图像质量。Song等人提出了一种新型感知生成对抗网络(PGAN)将问题转换为图像到图像的分辨率增强问题。上述论文中的测试结果表明,深度逆散射方法在成像质量和速度上都比传统的方法出色。但是由于深度方法中的映射关系主要是基于对大量训练数据的学习建立起来的,其泛化能力不可避免地会被训练数据限制,比如当测试数据与训练数据几何形状相差较大时,模型的性能会大大下降。
上述传统迭代方法与深度学习方法在电磁逆散射成像中有各自的优缺点,如何有效地利用两者的优势,即传统迭代方法的强适应性和深度学习方法的高成像质量,获得高质量且泛化能力强的重建方法是一个关键技术难题。
发明内容
本发明为了解决上述关键技术难题,提出了一种基于无训练的深度级联网络的方法来解决电磁逆散射成像问题,以期将完整的物理法则通过损失的形式融合到无训练的深度级联网络中,从而能在没有训练数据集的情况下,实现高精度且泛化能力强的电磁逆散射成像。
本发明为解决技术问题采用如下技术方案:
本发明一种基于无训练的深度级联网络的电磁逆散射成像方法的特点在于,包括以下步骤:
步骤一、数据生成:
步骤1.1、在电磁散射系统中,令单个待求的散射体εr位于给定的感兴趣区域D内,在所述感兴趣区域D周围配置有Nf根发射天线和Nr根接收天线,所述发射天线向所述感兴趣区域D发射平面波后所形成的入射场记为并由所述接收天线接收散射场信息;
步骤1.2、将所述感兴趣区域D离散成M×M的网格,并采用矩量法计算所述单个待求的散射体εr的测量散射场
步骤1.3、根据所述测量散射场利用反向传播方法生成低分辨率对比度图像ξbp;
步骤1.4、对所述低分辨率对比度图像ξbp增加一个维度,用于存放所述低分辨率对比度图像ξbp的虚部,从而得到三维低分辨率对比度图像
步骤1.5、对所述三维低分辨率对比度图像再增加一个维度,用于存放Ni个三维低分辨率对比度图像/>从而得到四维低分辨对比度图像/>
步骤1.6、对所述测量散射场进行奇异值分解处理,获得确定性部分电流/>
步骤1.7、对所述确定性部分电流增加一个维度,并用于存储所述确定性部分电流/>的实部和虚部,从而得到四维确定性电流/>
步骤1.8、将所述四维低分辨对比度图像在虚部所在的维度上与所述四维确定性电流/>在实、虚部所在的维度上进行拼接,得到单个待求的散射体εr的电流对比度拼接数据/>并作为深度级联网络的输入;
步骤1.9、在所述电磁散射系统中,对K个已知的散射体按照步骤1.2-步骤1.8的过程进行处理,获得K个已知的散射体的电流对比度拼接数据,并根据第k个已知的散射体的参考介电常数通过正向计算得到第k个已知的散射体的参考总电流/>K表示重建过程中使用的已知的散射体的总个数;k∈[1,K];
步骤二、深度级联网络SOM-Net(θ)的结构搭建:
步骤2.1、由N个子网络构成所述深度级联网络SOM-Net(θ),其中,θ表示所述深度级联网络的参数;且每个所述子网络采用U-Net网络结构;
步骤2.2、定义网络的当前迭代次数为t;总迭代次数为T;
步骤2.3、在第t次迭代中,当n=1时,所述单个待求的散射体εr的电流对比度拼接数据输入第t次迭代的第n个级联子网络Sn中进行处理,并输出第t次迭代时第n个子网络的预测总电流/>根据所述第t次迭代时第n个子网络的预测总电流/>利用李普曼-施温格方程和基于子空间优化迭代方法中的对比度更新公式,得到第t次迭代时第n个子网络的预测对比度图像/>
当n=2,3,...,N-1时,第t次迭代时第n-1个子网络Sn-1输出的预测总电流的实、虚部所在的维度上与第n-1个子网络的预测对比度图像/>的虚部所在的维度上进行拼接,得到第t次迭代时第n-1个电流对比度拼接数据/>并输入第t次迭代时第n个子网络Sn中进行处理,输出第t次迭代时第n个子网络的预测总电流/>
当n=N时,由所述第t次迭代时第n个子网络Sn输出所述深度级联网络SOM-Net(θ)在第t次迭代时最终的预测总电流,记为利用李普曼-施温格方程和基于子空间优化迭代方法中的对比度更新公式,得到第t次迭代时单个待求的散射体εr的预测散射场/>预测对比度图像/>以及预测介电常数图像/>
步骤三、设计损失函数:
步骤3.1、利用式(1)设计无训练的深度级联网络的总优化目标LU(θ):
式(1)中,Lunt(θ)表示单个待求的散射体部分的损失,并通过式(2)得到;Lk,pri(θ)表示第k个已知的散射体部分的损失,并通过式(5)得到;λ表示超参数,其值为0或1,λ=0时表示没有向无训练的深度级联网络SOM-Net(θ)中加入其他已知的散射体,λ=1表示向无训练的深度级联网络SOM-Net(θ)中加入K个已知的散射体;
Lunt(θ)=LD(θ)+LS(θ) (2)
式(2)中,LD(θ)表示数据损失,并通过式(3)得到;LS(θ)表示状态损失,并通过式(4)得到;
式(3)中,表示无训练的深度级联网络SOM-Net(θ)得到的预测散射场/>中对应第l根发射天线的预测散射场,/>表示所述测量散射场/>中对应第l根发射天线的测量散射场;
式(4)中,表示由无训练的深度级联网络SOM-Net(θ)预测得到的预测总电流/>中对应第l根入射天线的预测总电流大小,/>表示由无训练的深度级联网络SOM-Net(θ)预测得到的对比度,/>表示所述入射场/>中对应第l根入射天线的入射场,GD表示所述感兴趣区域D内源与场关系的格林函数,/>表示所述四维确定性电流/>中对应第l根入射天线的确定性电流;
Lpri(θ)=LD(θ)+LS(θ)+Lssim(θ)+Lmse(θ) (5)
式(5)中,Lssim表示已知的散射体的介电常数损失,并通过式(6)得到;Lmse表示已知的散射体的总电流损失,并通过式(7)得到;
式(6)中,表示第k个已知的散射体的预测介电常数,并通过式(8)得到;
式(7)中,表示第k个已知的散射体的预测总电流/>中对应第l根入射天线的预测总电流,/>表示第k个已知的散射体的参考总电流/>中对应第l根入射天线的参考总电流;
式(8)中,i为虚数单位,η0,k0分别为均匀介质背景的阻抗和波数;
步骤四、通过迭代优化深度级联网络SOM-Net(θ),获得待求散射体的重建图像:
当网络中没有加入已知散射体时,深度级联网络SOM-Net(θ)的输入固定为批尺寸为1的单个待求的散射体εr的电流对比度拼接数据当网络中加入K个已知的散射体时,深度级联网络SOM-Net(θ)的输入固定为批尺寸为K+1的散射体对应的电流对比度拼接数据;利用Adam优化器对所述深度级联网络SOM-Net(θ)进行训练,并对总优化目标LU(θ)进行最小化求解,以不断更新参数θ;直到达到总迭代次数T或总优化目标LU(θ)收敛为止,从而获得单个待求的散射体εr的高质量重建结果。
与已有技术相比,本发明有益效果体现在:
1、本发明所提方法基于传统迭代方法设计深度级联网络,将物理知识融入网络结构中,深度级联网络内在包含的物理先验信息和完整物理法则控制的损失函数共同作用,在传统迭代方法的基础上提高了重建质量,从而获得了高质量的逆散射重建结果。
2、本发明所提方法在没有训练集的情况下,不依赖大量的训练数据,而是使用完整的物理法则定义的损失函数对网络进行优化更新,仅从测量散射场来重建待求的散射体,这使得所提方法克服了由训练数据带来的泛化能力问题,保持了类似于传统迭代方法对电磁逆散射问题的适应性。
3、本发明所提方法可以通过向网络增加若干其他已知的散射体来提供先验信息,进一步提高了待求散射体的重建质量。
附图说明
图1为本发明方法的流程图与迭代求解示意图;
图2为本发明深度级联网络SOM-Net的结构图;
图3为本发明MNIST手写数字数据集重建结果展示图;
图4为本发明不同复杂形状数据重建结果展示图;
图5为本发明添加不同比例噪声的“Austria”数据集重建结果展示图;
图6为本发明频率为3GHz的实验数据重建结果展示图。
具体实施方式
本实施例中,一种基于无训练的深度级联网络的电磁逆散射成像方法,首先利用反向传播方法从测量散射场计算得到低分辨率对比度图像ξbp,利用奇异值分解散射场得到确定性部分电流/>将这两个变量维度变换后拼接得到电流对比度拼接数据/>作为深度级联网络的输入;然后使用深度级联网络SOM-Net(θ)重建得到待求散射体的预测总电流和重建图像,网络参数通过最小化完整物理法则约束的目标损失函数迭代优化更新,在每一次迭代中深度网络本身的先验信息结合物理法则对重建结果进行优化调整,当达到迭代终止条件时停止迭代,获得最终的重建结果。具体地说,如图1所示,包括以下步骤:
步骤一、数据生成:
步骤1.1、在电磁散射系统中,假设入射频率为300MHZ,令单个待求的散射体εr位于给定的感兴趣区域D内,定义感兴趣区域D大小为2.0米×2.0米,在感兴趣区域D周围配置有Nf=16根发射天线和Nr=32根接收天线,发射天线向感兴趣区域D发射平面波后所形成的入射场记为并由接收天线接收散射场信息;
步骤1.2、将感兴趣区域D离散成M×M=64×64的网格,并采用矩量法计算单个待求的散射体εr的测量散射场
步骤1.3、根据测量散射场利用反向传播方法生成低分辨率对比度图像ξbp;
步骤1.4、对低分辨率对比度图像ξbp增加一个维度,用于存放低分辨率对比度图像ξbp的虚部,从而得到三维低分辨率对比度图像
步骤1.5、对三维低分辨率对比度图像再增加一个维度,用于存放Ni个三维低分辨率对比度图像/>从而得到四维低分辨对比度图像/>
步骤1.6、对测量散射场进行奇异值分解处理,获得确定性部分电流/>
步骤1.7、对确定性部分电流增加一个维度,并用于存储确定性部分电流/>的实部和虚部,从而得到四维确定性电流/>
步骤1.8、将四维低分辨对比度图像在虚部所在的维度上与四维确定性电流/>在实、虚部所在的维度上进行拼接,得到单个待求的散射体εr的电流对比度拼接数据并作为深度级联网络的输入;
步骤1.9、在电磁散射系统中,对K个已知的散射体按照步骤1.2-步骤1.8的过程进行处理,获得K个已知的散射体的电流对比度拼接数据,并根据第k个已知的散射体的参考介电常数通过正向计算得到第k个已知的散射体的参考总电流/>K表示重建过程中使用的已知的散射体的总个数,K为一个较小的自然数;
本发明所用的散射体假设为均匀且无损耗的,相对介电常数大小在1.5-2.5之间随机分布,背景为自由空间;其中设置测量所得的散射场包含了10%的高斯噪声。本发明向深度级联网络中加入的已知散射体,设置为从MNIST数据集中随机挑选出来的数据,为保持实验结果的一致性,在结果展示中所用的已知散射体数据均保持一致;为了验证所提方法在不同形状和不同噪声水平下的有效性与适应性,分别生成了四张来自MNIST数据集的数字数据、四张不同形状的数据、四张不同噪声水平下的“Austria”数据以及一张用“FoamDieExt”配置频率为3GHz的实验数据;
步骤二、深度级联网络SOM-Net(θ)的结构搭建:
步骤2.1、由N个子网络构成深度级联网络SOM-Net(θ),其中,θ表示深度级联网络的参数;其网络结构如图2所示,本实施例中,N=4;且每个子网络采用U-Net网络结构;
步骤2.2、由于没有训练数据集的存在,本发明中将用迭代的方式来更新深度级联网络的参数θ;定义网络的当前迭代次数为t;总迭代次数为T;本实施例中,T=1500;
步骤2.3、在第t次迭代中,当n=1时,单个待求的散射体εr的电流对比度拼接数据输入第t次迭代的第n个级联子网络Sn中进行处理,并输出第t次迭代时第n个子网络的预测总电流/>根据第t次迭代时第n个子网络的预测总电流/>利用李普曼-施温格方程和基于子空间优化迭代方法中的对比度更新公式,得到第t次迭代时第n个子网络的预测对比度图像/>
当n=2,3,...,N-1时,第t次迭代时第n-1个子网络Sn-1输出的预测总电流的实、虚部所在的维度上与第n-1个子网络的预测对比度图像/>的虚部所在的维度上进行拼接,得到第t次迭代时第n-1个电流对比度拼接数据/>并输入第t次迭代时第n个子网络Sn中进行处理,输出第t次迭代时第n个子网络的预测总电流/>
当n=N时,由第t次迭代时第n个子网络Sn输出深度级联网络SOM-Net(θ)在第t次迭代时最终的预测总电流,记为利用李普曼-施温格方程和基于子空间优化迭代方法中的对比度更新公式,得到第t次迭代时单个待求的散射体εr的预测散射场/>预测对比度图像/>以及预测介电常数图像/>
步骤三、设计损失函数:
无训练的深度级联网络通过完整的物理法则定义的损失函数进行约束,对于待求散射体部分和已知散射体部分定义了不同的损失函数组合。
步骤3.1、利用式(1)设计无训练的深度级联网络的总优化目标LU(θ):
式(1)中,Lunt(θ)表示单个待求散射体部分的损失,并通过式(2)得到;Lk,pri(θ)表示第k个已知的散射体部分的损失,并通过式(5)得到;λ表示超参数,其值为0或1,λ=0时表示没有向无训练的深度级联网络SOM-Net(θ)中加入其他已知的散射体,λ=1表示向无训练的深度级联网络SOM-Net(θ)中加入K个已知的散射体;本实施例中,展示了K=1时的重建结果;
Lunt(θ)=LD(θ)+LS(θ) (2)
式(2)中,LD(θ)表示数据损失,并通过式(3)得到;LS(θ)表示状态损失,并通过式(4)得到;
式(3)中,表示无训练的深度级联网络SOM-Net(θ)得到的预测散射场/>中对应第l根发射天线的预测散射场,/>表示测量散射场/>中对应第l根发射天线的测量散射场;
式(4)中,表示由无训练的深度级联网络SOM-Net(θ)预测得到的预测总电流中对应第l根入射天线的预测总电流大小,/>表示由无训练的深度级联网络SOM-Net(θ)预测得到的对比度,/>表示入射场/>中对应第l根入射天线的入射场,GD表示感兴趣区域D内源与场关系的格林函数,/>表示四维确定性电流/>中对应第l根入射天线的确定性电流;
Lpri(θ)=LD(θ)+LS(θ)+Lssim(θ)+Lmse(θ) (5)
式(5)中,Lssim表示已知的散射体的介电常数损失,并通过式(6)得到;Lmse表示已知的散射体的总电流损失,并通过式(7)得到;
式(6)中,表示第k个已知的散射体的预测介电常数,并通过式(8)得到;
式(7)中,表示第k个已知的散射体的预测总电流/>中对应第l根入射天线的预测总电流,/>表示第k个已知的散射体的参考总电流/>中对应第l根入射天线的参考总电流;
式(8)中,i为虚数单位,η0,k0分别为均匀介质背景的阻抗和波数;
步骤四、通过迭代优化深度级联网络SOM-Net(θ),获得待求散射体的重建图像:
当网络中没有加入已知散射体时,深度级联网络SOM-Net(θ)的输入固定为批尺寸为1的单个待求的散射体εr的电流对比度拼接数据当网络中加入K个已知的散射体时,深度级联网络SOM-Net(θ)的输入固定为批尺寸为K+1的散射体对应的电流对比度拼接数据;深度级联网络结构内在包含的深度先验、待求散射体部分的完整物理法则约束的无真实值参考损失以及其他已知散射体包含的先验信息三者共同指导深度网络对单个待求散射体的建模,利用Adam优化器对深度级联网络SOM-Net(θ)进行训练,并对优化目标LU(θ)进行最小化求解,以不断更新参数θ;直到达到总迭代次数T或优化目标LU(θ)收敛为止,从而获得单个待求的散射体εr的高质量重建结果。
本实施例中,深度展开网络使用Adam优化器对目标损失函数进行最小化求解,设置优化器参数β1=0.9,β2=0.999,迭代次数设为1500,前750次迭代保持初始学习率为0.001,从第751次迭代开始学习率以线性衰减,直到最后一次迭代学习率降为0。每次迭代后调整网络参数,不断优化重建质量,损失函数收敛后迭代结束,最终得到预测的待求散射体重建结果。
本发明使用结构相似性(SSIM)和均方根误差(RMSE)作为评价指标,对不同形状和介电常数大小的散射体直接求解。本发明所提方法与传统的基于子空间的迭代优化法(subspace optimization method,SOM)、基于U-Net的监督式深度学习方法进行比较,以体现本发明方法的重建质量,并且在一些复杂形状散射体上,与监督式的SOM-Net网络进行重建的方法进行了对比,以体现本发明方法的适应性,其中监督式U-Net、SOM-Net网络以MNIST扩展数据集为训练数据集得到测试模型,为了便于比较,结果展示中将使用SOM方法重建图像的方法记为SOM,将使用U-Net网络重建图像的方法记为U-Net,将使用监督式SOM-Net网络重建图像的方法记为SOM-Net,将本发明方法根据所加其他已知散射体个数,记为本发明方法(K)。
本发明方法在手写数字数据集上、不同复杂形状上、不同噪声水平下的“Austria”上以及实验数据上进行了重建。以下图中,GT表示真实目标散射体的对比度图像;BP表示反向传播方法的重建图像;SOM表示使用传统SOM迭代算法的重建图像;U-Net表示使用U-Net网络重建图像;SOM-Net表示使用监督式SOM-Net网络重建图像;本发明方法(0)表示没有增加其他已知散射体情况下的重建图像,本发明方法(1)表示增加一个其他已知散射体信息情况下的重建图像,在MNIST数据集上数据的重建结果如图3所示。在不同复杂形状上的重建结果如图4所示,所选形状分别为双圆环、矩形、五角星与字母P。在“Austria”数据集上的重建结果如图5所示,不同比例噪声下,介电常数为2的“Austria”数据集的重建结果,其中Test#9-Test#12依次添加了10%、20%、25%和30%的高斯白噪声;如图6所示的频率为3GHz的实验数据重建结果,其中虚线表示真实图像的位置。
由上述重建结果可知,本发明所提方法可以在无训练的情况下高精度的重建散射体,相较于传统迭代方法在不同噪声的“Austria”数据集和实验数据上表现出了明显的优势;本发明方法的深度级联网络的训练不需要大量标签数据的指导,克服了深度网络因为标签数据的限制而存在的泛化能力不足的问题,在对不同复杂形状的数据进行重建时得到验证。
Claims (1)
1.一种基于无训练的深度级联网络的电磁逆散射成像方法,其特征在于,包括以下步骤:
步骤一、数据生成:
步骤1.1、在电磁散射系统中,令单个待求的散射体εr位于给定的感兴趣区域D内,在所述感兴趣区域D周围配置有Nf根发射天线和Nr根接收天线,所述发射天线向所述感兴趣区域D发射平面波后所形成的入射场记为并由所述接收天线接收散射场信息;
步骤1.2、将所述感兴趣区域D离散成M×M的网格,并采用矩量法计算所述单个待求的散射体εr的测量散射场
步骤1.3、根据所述测量散射场利用反向传播方法生成低分辨率对比度图像ξbp;
步骤1.4、对所述低分辨率对比度图像ξbp增加一个维度,用于存放所述低分辨率对比度图像ξbp的虚部,从而得到三维低分辨率对比度图像
步骤1.5、对所述三维低分辨率对比度图像再增加一个维度,用于存放Ni个三维低分辨率对比度图像/>从而得到四维低分辨对比度图像/>
步骤1.6、对所述测量散射场进行奇异值分解处理,获得确定性部分电流/>
步骤1.7、对所述确定性部分电流增加一个维度,并用于存储所述确定性部分电流/>的实部和虚部,从而得到四维确定性电流/>
步骤1.8、将所述四维低分辨对比度图像在虚部所在的维度上与所述四维确定性电流在实、虚部所在的维度上进行拼接,得到单个待求的散射体εr的电流对比度拼接数据并作为深度级联网络的输入;
步骤1.9、在所述电磁散射系统中,对K个已知的散射体按照步骤1.2-步骤1.8的过程进行处理,获得K个已知的散射体的电流对比度拼接数据,并根据第k个已知的散射体的参考介电常数通过正向计算得到第k个已知的散射体的参考总电流/>K表示重建过程中使用的已知的散射体的总个数;k∈[1,K];
步骤二、深度级联网络SOM-Net(θ)的结构搭建:
步骤2.1、由N个子网络构成所述深度级联网络SOM-Net(θ),其中,θ表示所述深度级联网络的参数;且每个所述子网络采用U-Net网络结构;
步骤2.2、定义网络的当前迭代次数为t;总迭代次数为T;
步骤2.3、在第t次迭代中,当n=1时,所述单个待求的散射体εr的电流对比度拼接数据输入第t次迭代的第n个级联子网络Sn中进行处理,并输出第t次迭代时第n个子网络的预测总电流/>根据所述第t次迭代时第n个子网络的预测总电流/>利用李普曼-施温格方程和基于子空间优化迭代方法中的对比度更新公式,得到第t次迭代时第n个子网络的预测对比度图像/>
当n=2,3,...,N-1时,第t次迭代时第n-1个子网络Sn-1输出的预测总电流的实、虚部所在的维度上与第n-1个子网络的预测对比度图像/>的虚部所在的维度上进行拼接,得到第t次迭代时第n-1个电流对比度拼接数据/>并输入第t次迭代时第n个子网络Sn中进行处理,输出第t次迭代时第n个子网络的预测总电流/>
当n=N时,由所述第t次迭代时第n个子网络Sn输出所述深度级联网络SOM-Net(θ)在第t次迭代时最终的预测总电流,记为利用李普曼-施温格方程和基于子空间优化迭代方法中的对比度更新公式,得到第t次迭代时单个待求的散射体εr的预测散射场/>预测对比度图像/>以及预测介电常数图像/>
步骤三、设计损失函数:
步骤3.1、利用式(1)设计无训练的深度级联网络的总优化目标LU(θ):
式(1)中,Lunt(θ)表示单个待求的散射体部分的损失,并通过式(2)得到;Lk,pri(θ)表示第k个已知的散射体部分的损失,并通过式(5)得到;λ表示超参数,其值为0或1,λ=0时表示没有向无训练的深度级联网络SOM-Net(θ)中加入其他已知的散射体,λ=1表示向无训练的深度级联网络SOM-Net(θ)中加入K个已知的散射体;
Lunt(θ)=LD(θ)+LS(θ) (2)
式(2)中,LD(θ)表示数据损失,并通过式(3)得到;LS(θ)表示状态损失,并通过式(4)得到;
式(3)中,表示无训练的深度级联网络SOM-Net(θ)得到的预测散射场/>中对应第l根发射天线的预测散射场,/>表示所述测量散射场/>中对应第l根发射天线的测量散射场;
式(4)中,表示由无训练的深度级联网络SOM-Net(θ)预测得到的预测总电流/>中对应第l根入射天线的预测总电流大小,/>表示由无训练的深度级联网络SOM-Net(θ)预测得到的对比度,/>表示所述入射场/>中对应第l根入射天线的入射场,GD表示所述感兴趣区域D内源与场关系的格林函数,/>表示所述四维确定性电流/>中对应第l根入射天线的确定性电流;
Lpri(θ)=LD(θ)+LS(θ)+Lssim(θ)+Lmse(θ) (5)
式(5)中,Lssim表示已知的散射体的介电常数损失,并通过式(6)得到;Lmse表示已知的散射体的总电流损失,并通过式(7)得到;
式(6)中,表示第k个已知的散射体的预测介电常数,并通过式(8)得到;
式(7)中,表示第k个已知的散射体的预测总电流/>中对应第l根入射天线的预测总电流,/>表示第k个已知的散射体的参考总电流/>中对应第l根入射天线的参考总电流;
式(8)中,i为虚数单位,η0,k0分别为均匀介质背景的阻抗和波数;
步骤四、通过迭代优化深度级联网络SOM-Net(θ),获得待求散射体的重建图像:
当网络中没有加入已知散射体时,深度级联网络SOM-Net(θ)的输入固定为批尺寸为1的单个待求的散射体εr的电流对比度拼接数据当网络中加入K个已知的散射体时,深度级联网络SOM-Net(θ)的输入固定为批尺寸为K+1的散射体对应的电流对比度拼接数据;利用Adam优化器对所述深度级联网络SOM-Net(θ)进行训练,并对总优化目标LU(θ)进行最小化求解,以不断更新参数θ;直到达到总迭代次数T或总优化目标LU(θ)收敛为止,从而获得单个待求的散射体εr的高质量重建结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210610817.5A CN115018943B (zh) | 2022-05-31 | 2022-05-31 | 一种基于无训练的深度级联网络的电磁逆散射成像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210610817.5A CN115018943B (zh) | 2022-05-31 | 2022-05-31 | 一种基于无训练的深度级联网络的电磁逆散射成像方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115018943A CN115018943A (zh) | 2022-09-06 |
CN115018943B true CN115018943B (zh) | 2024-02-20 |
Family
ID=83070637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210610817.5A Active CN115018943B (zh) | 2022-05-31 | 2022-05-31 | 一种基于无训练的深度级联网络的电磁逆散射成像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115018943B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116484522B (zh) * | 2023-04-13 | 2024-04-19 | 大连理工大学 | 一种基于级联网络的天线罩电性能补偿加工量确定方法 |
CN117973456A (zh) * | 2024-03-29 | 2024-05-03 | 安徽大学 | 基于深度学习网络模型的电磁逆散射成像方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3637099A1 (en) * | 2018-10-08 | 2020-04-15 | Ecole Polytechnique Federale de Lausanne (EPFL) | Image reconstruction method based on a trained non-linear mapping |
CN111488549A (zh) * | 2020-04-10 | 2020-08-04 | 杭州电子科技大学 | 一种基于深度学习求解电磁逆散射问题的混合输入方法 |
CN113378472A (zh) * | 2021-06-23 | 2021-09-10 | 合肥工业大学 | 一种基于生成对抗网络的混合边界电磁逆散射成像方法 |
-
2022
- 2022-05-31 CN CN202210610817.5A patent/CN115018943B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3637099A1 (en) * | 2018-10-08 | 2020-04-15 | Ecole Polytechnique Federale de Lausanne (EPFL) | Image reconstruction method based on a trained non-linear mapping |
CN111488549A (zh) * | 2020-04-10 | 2020-08-04 | 杭州电子科技大学 | 一种基于深度学习求解电磁逆散射问题的混合输入方法 |
CN113378472A (zh) * | 2021-06-23 | 2021-09-10 | 合肥工业大学 | 一种基于生成对抗网络的混合边界电磁逆散射成像方法 |
Non-Patent Citations (1)
Title |
---|
大尺度电磁散射与逆散射问题的深度学习方法;王龙刚;钟威;阮恒心;贺凯;李廉林;;电波科学学报;20181031(第05期);第519-524页 * |
Also Published As
Publication number | Publication date |
---|---|
CN115018943A (zh) | 2022-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115018943B (zh) | 一种基于无训练的深度级联网络的电磁逆散射成像方法 | |
Skorokhodov et al. | Epigraf: Rethinking training of 3d gans | |
CN109683161B (zh) | 一种基于深度admm网络的逆合成孔径雷达成像的方法 | |
Yuan et al. | Neighborloss: a loss function considering spatial correlation for semantic segmentation of remote sensing image | |
Guo et al. | Robust SAR automatic target recognition via adversarial learning | |
CN113378472B (zh) | 一种基于生成对抗网络的混合边界电磁逆散射成像方法 | |
CN114624646A (zh) | 一种基于模型驱动复数神经网络的doa估计方法 | |
CN114545494A (zh) | 基于稀疏约束的无监督地震数据重建方法及装置 | |
Hu et al. | FCNN-based ISAR sparse imaging exploiting gate units and transfer learning | |
CN114972619A (zh) | 一种基于自对齐双重回归的单图像人脸三维重建方法 | |
Wei et al. | Flow-based gan for 3d point cloud generation from a single image | |
Hu et al. | Self-perceptual generative adversarial network for synthetic aperture sonar image generation | |
Anupama et al. | Synthnet: A skip connected depthwise separable neural network for novel view synthesis of solid objects | |
Li et al. | Vision Transformer for Cell Tumor Image Classification | |
Maxim et al. | Occtransformers: Learning occupancy using attention | |
Zhu et al. | Few-shot 3D Shape Generation | |
CN114626987B (zh) | 一种基于物理的深度展开网络的电磁逆散射成像方法 | |
Radl et al. | Analyzing the internals of neural radiance fields | |
Prasad et al. | Deep implicit surface reconstruction of 3d plant geometry from point cloud | |
Liu et al. | SG-SRNs: Superpixel-Guided Scene Representation Networks | |
CN117706514B (zh) | 基于生成对抗网络的杂波消除方法、系统及设备 | |
US20240127530A1 (en) | Method, electronic device, and computer program product for generating target object | |
Li et al. | Robustness-aware 2-bit quantization with real-time performance for neural network | |
CN112528869B (zh) | 一种基于复数神经网络的无相位数据成像方法 | |
Sharma et al. | Super-resolution reconstruction and denoising of 3D millimetre-wave images using a complex-valued convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |