CN111948652B - 一种基于深度学习的sar智能参数化超分辨成像方法 - Google Patents

一种基于深度学习的sar智能参数化超分辨成像方法 Download PDF

Info

Publication number
CN111948652B
CN111948652B CN202010694576.8A CN202010694576A CN111948652B CN 111948652 B CN111948652 B CN 111948652B CN 202010694576 A CN202010694576 A CN 202010694576A CN 111948652 B CN111948652 B CN 111948652B
Authority
CN
China
Prior art keywords
atoms
sar
point
line
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010694576.8A
Other languages
English (en)
Other versions
CN111948652A (zh
Inventor
曾涛
王岩
丁泽刚
卫扬铠
龙腾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202010694576.8A priority Critical patent/CN111948652B/zh
Publication of CN111948652A publication Critical patent/CN111948652A/zh
Application granted granted Critical
Publication of CN111948652B publication Critical patent/CN111948652B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9004SAR image acquisition techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于深度学习的SAR智能参数化超分辨成像方法,首先,基于属性散射中心模型,本技术在传统仅包含点原子的SAR回波模型中额外引入线原子和面原子,构建SAR混合观测模型。随后,基于SAR混合观测模型和传统交替方向乘子法ADMM,本技术通过设置不同的非线性阈值函数,构建了多成分ADMM算法来估计点、线和面原子的参数。最后,通过将MC‑ADMM映射成神经网络,即将MC‑ADMM的每一次迭代过程映射成一层神经网络结构,成功构建MCADMM‑Net,快速高效的获取高智能SAR超分辨图像。本发明旨在提供一种高智能、高精度、高效率的SAR超分辨成像解决方案,预期可应用于机载、星载SAR成像等领域,可大幅增强SAR图像质量,有助于提升SAR图像的可理解性。

Description

一种基于深度学习的SAR智能参数化超分辨成像方法
技术领域
本发明属于SAR成像技术领域,具体涉及一种基于深度学习的SAR智能参数化超分辨成像方法。
背景技术
合成孔径雷达(Synthetic Aperture Radar,SAR)作为一种利用微波进行感知的主动传感器,能够不受天气、光照等条件限制,对感兴趣目标进行全天候、全天时、远距离的持续观测,从而提供感兴趣区域的高分辨图像。目前,SAR成像技术已经广泛应用于机载、星载、弹载等多种平台,如经典的后向投影算法(backprojection,BP)算法,成为各国争相发展的重要微波遥感技术。与低分辨率图像相比,高分辨率SAR图像可以提供场景的更多细节和目标更精细的轮廓,有助于目标解译和识别。但是,那SAR图像分辨率面临局限性雷达系统的性能,例如有限的带宽和方位角成像范围宽度。
近十年发展的压缩感知(compressedsensing,CS)理论使得研究人员能够从少量的线性测量中高精度重建稀疏信号,该方法已被广泛研究并成功应用于信号处理领域。而对于SAR,由于实际观测中感兴趣目标的空间分布稀疏,许多基于压缩感知理论的方法被用于SAR成像处理,如经典的正交匹配追踪算法(Orthogonal Matching Pursuit,OMP)算法,成功获得超分辨率SAR图像。但是,现阶段,基于CS的SAR成像方法具有以下三个限制。
首先,传统稀疏成像方法是基于点散射模型的,即要被观测场景被视为一系列点散射体的叠加,这些点散射体未考虑分布目标在不同观察角下的各向异性散射特性。因此,上述稀疏成像更倾向于描绘分布式目标的一些局部点散射特征,而非线散射和面散射特征。
其次,它们依靠迭代式的图像重建策略,该策略需要在每次迭代中执行耗时的矩阵求逆操作。这使得传统稀疏成像方法,需要数百次迭代以获得足够高的成功质量。这意味着传统稀疏成像算法的计算复杂度高,难以满足实时性要求。
除此之外,传统稀疏成像往往需要手动设置正则化参数以及一些其他的优化参数。如何自适应地确定这些成像参数,仍然是一项艰巨的任务。幸运的是,最近兴盛的深度学习(deep learning,DL)技术为回归型神经网络提供了最先进的性能,并且已经在诸如稀疏信号恢复中取得不俗的效果。而在SAR成像领域,虽然常规神经网络(CNN)已经应用于雷达超分辨成像中,但是其神经网络架构可解释性差,网络结构仍为“黑盒子”,且网络参数多、训练速度慢。
发明内容
有鉴于此,本发明的目的是提供一种基于深度学习的SAR智能参数化超分辨成像方法,可以解决传统SAR超分辨成像算法中的点目标模型失配、计算复杂度高和参数难自适应等问题,实现高智能、高精度、高效率的SAR超分辨成像。
一种SAR超分辨成像方法,包括如下步骤:
步骤一、建立点、线和面原子的智能参数化模型,解析表达出雷达观测角度、雷达发射频率和点、线和面原子几何参数间的关系,具体为:
线原子和面原子的几何结构可以分别采用
Figure BDA0002590579760000021
Figure BDA0002590579760000022
来表示,其中
Figure BDA0002590579760000023
Figure BDA0002590579760000024
分别表示线、面原子的中心的坐标;Ll和Lr分别表示线、面原子的长度,Hr表示面原子的宽度;
Figure BDA0002590579760000025
Figure BDA0002590579760000026
分别表示线、面原子的倾斜角度;则基于属性散射中心模型,线原子的智能参数化回波模型可以分别写为:
Figure BDA0002590579760000027
其中,m=1,2,3…,M,n=1,2,3,…,N,其中M和N分别为方位向角度采样点数和距离向频率采样点数;sinc(·)为sinc函数;φm和θm分别为雷达平台的第m个俯仰角度和第m个方位角度;fn为雷达发射信号的第n个频点;c为光速;
面原子的智能参数化回波模型写为:
Figure BDA0002590579760000028
步骤二、建立SAR混合观测模型,解析表达出被观测场景的回波和点、线和面原子间的关系,具体为:
传统点目标模型下,SAR回波可以写为一系列点原子回波的线性叠加,即:
Figure BDA0002590579760000031
其中,i=1,2,3…Jp表示点原子的数目,(xi,yi)表示第i个点原子的坐标,σi表示第i个点原子的散射系数,wm,n为接收高斯白噪声;建立矩阵
Figure BDA0002590579760000032
Figure BDA0002590579760000033
分别表示接收回波和高斯白噪声的二维矩阵形式,其中S的第(m,n)个元素为s(m,n),W的第(m,n)个元素为wm,n;随后,建立矩阵
Figure BDA0002590579760000034
表示第i个点原子回波,其第(m,n)个元素为(3)式中的指数项;因此,(2)式可以改写为
y=Apxp+w   (4)
其中y=vec(S),w=vec(W),vec()表示向量化操作符;其中
Figure BDA0002590579760000035
表示点原子的观测矩阵,其中
Figure BDA0002590579760000036
Figure BDA0002590579760000037
表示点原子的散射系数向量,其中
Figure BDA0002590579760000038
SAR混合观测模型表示场景回波由Jp个点原子、Jl个线原子和Jr个面原子回波组成,即:
y=Apxp+Alxl+Arxr+w   (5)
其中
Figure BDA0002590579760000039
Figure BDA00025905797600000310
分别表示点原子、线原子和面原子的观测矩阵,而
Figure BDA00025905797600000311
其中
Figure BDA00025905797600000312
Figure BDA00025905797600000313
分别表示式(1)和(2)中
Figure BDA00025905797600000314
Figure BDA00025905797600000315
在输入参数
Figure BDA00025905797600000316
Figure BDA00025905797600000317
下的矩阵形式;
Figure BDA00025905797600000318
Figure BDA00025905797600000319
分别表示线原子和面原子的散射系数向量;
步骤三、在SAR混合观测模型的约束下,建立最优化求解方程,通过迭代求解三个子问题,解析表达出MC-ADMM求解器,具体为:
基于式(5)中的SAR混合观测模型,令
Figure BDA00025905797600000320
Figure BDA00025905797600000321
以及
Figure BDA00025905797600000322
Figure BDA00025905797600000323
其中Ip,Il和Ir均为单位阵,那么,式(5)改写为:
y=Φx+w   (6)
随后,x的估计值通过求解下式来得到:
Figure BDA0002590579760000041
λp,λl和λr分别为预先设定的[0,1]之间的正则化参数;
依据ADMM理论,(7)式转化为求解下述三子个问题
Figure BDA0002590579760000042
其中z和u均为x的中间变量,ρ和η分别为x和u的步长参数;由ADMM理论可知,(8)中的三个子问题的解可由下述MC-ADMM求解器给出:
Figure BDA0002590579760000043
其中(·)H表示共轭转置;
Figure BDA0002590579760000044
为软阈值函数,其中sign(·)表示取符号;通过不断迭代求解
Figure BDA0002590579760000045
Figure BDA0002590579760000046
这三部分,即可得到最后的估计结果x(k),其中K为迭代的次数;
步骤四、将MC-ADMM求解器的迭代过程映射成MCADMM-Net网络,即MC-ADMM的第k次迭代过程对应MCADMM-Net的第k层,而第k层神经网络由三部分组成,分别对应MC-ADMM中的三个子部分,具体为:
MCADMM-Net网络中第k层网络由重构层
Figure BDA0002590579760000047
非线性层
Figure BDA0002590579760000048
和乘子更新层
Figure BDA0002590579760000049
三部分组成;第k层网络的重构层
Figure BDA00025905797600000410
中,y,z(k-1)和u(k-1)为输入参数,Φ(k)和ρ(k)为可学习参数;对于非线性层
Figure BDA00025905797600000411
其输入为x(k)和u(k-1),可学习参数为
Figure BDA00025905797600000412
Figure BDA00025905797600000413
对于乘子更新层
Figure BDA00025905797600000414
其输入为x(k),z(k)和u(k-1),可学习参数为η(k)
步骤五、基于SAR混合观测模型产生训练数据,将场景观测回波输入进训练完毕的神经网络,估计得到点、线和面原子的几何参数,具体为:
首先,产生网络的训练数据:
1),随机产生多组式(6)中的散射系数向量x,其中非零元素的数目和位置随机产生,并使得真值的数值在[-1,1]中均匀分布;
2),将随机产生的各组散射系数向量x代入式(6),来产生对应的观测数据y;
3),各组散射系数向量x将及对应的观测数据y作为MCADMM-Net网络的训练数据集;
然后,将均方根误差
Figure BDA00025905797600000512
作为MCADMM-Net网络的损失函数,并利用训练数据集来训练网络:
其中,
Figure BDA0002590579760000051
其中
Figure BDA0002590579760000052
为网路的可学习参数;
待网络收敛之后,输入场景的观测回波yin,即可得到散射系数向量的估计值
Figure BDA0002590579760000053
步骤六、生成观测矩阵对应的点、线和面原子的子图像,基于估计得到的点、线和面原子的系数向量,得到SAR超分辨图像,具体为:
首先,针对式(6)中的观测矩阵Φ对应的Jp个点原子,Jl个线原子和Jr个面原子,通过以下三步,分别产生每一个点、线和面原子的子图像:
1),对于第jp个点原子,产生相应的子图像矩阵
Figure BDA0002590579760000054
2),对于第jl个线原子,产生相应的子图像矩阵
Figure BDA0002590579760000055
3),对于第jr个面原子,产生相应的子图像矩阵
Figure BDA0002590579760000056
随后,基于估计得到的系数向量
Figure BDA0002590579760000057
最后的超分辨成像结果I为:
Figure BDA0002590579760000058
其中,
Figure BDA0002590579760000059
Figure BDA00025905797600000510
分别表示散射系数向量的估计值
Figure BDA00025905797600000511
中点原子、线原子以及面原子对应的估计值。
本发明具有如下有益效果:
本发明提出一种基于深度学习的SAR智能参数化超分辨成像方法,首先,基于属性散射中心模型,本技术在传统仅包含点原子的SAR回波模型中额外引入线原子和面原子,构建SAR混合观测模型。随后,基于SAR混合观测模型和传统交替方向乘子法(AlternatingDirectionMethod of Multipliers,ADMM),本技术通过设置不同的非线性阈值函数,构建了多成分ADMM(multiplecomponentsADMM,MC-ADMM)算法来估计点、线和面原子的参数。最后,通过将MC-ADMM映射成神经网络,即将MC-ADMM的每一次迭代过程映射成一层神经网络结构,成功构建MCADMM-Net,快速高效的获取高智能SAR超分辨图像。本发明旨在提供一种高智能、高精度、高效率的SAR超分辨成像解决方案,预期可应用于机载、星载SAR成像等领域,可大幅增强SAR图像质量,有助于提升SAR图像的可理解性。
附图说明
图1为本发明基于深度学习的SAR智能超分辨成像技术的流程框图。
图2(a)和图2(b)分别为线、面原子几何参数示意图。
图3为SAR混合观测模型示意图。
图4为本发明映射得到的MCADMM-Net网络结构示意图。
图5(a)、图5(b)和图5(c)分别为实施例中单个点、线和面原子图像。
图6为实施例中的不同方法的成像结果。
图7(a)为BP算法结果图,图7(b)为OMP算法结果图,图7(c)本发明技术结果图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明是一种基于深度学习的SAR智能参数化超分辨成像方法,流程图如图1所示,其具体步骤包括:
步骤一、建立点、线和面原子的智能参数化模型,解析表达出雷达观测角度、雷达发射频率和点、线和面原子几何参数间的关系。
如图2(a)和图2(b)所示,线原子和面原子的几何结构可以分别采用
Figure BDA0002590579760000061
Figure BDA0002590579760000062
来表示,其中
Figure BDA0002590579760000063
Figure BDA0002590579760000064
分别表示线、面原子的中心的坐标;Ll和Lr分别表示线、面原子的长度,Hr表示面原子的宽度;
Figure BDA0002590579760000065
Figure BDA0002590579760000066
分别表示线、面原子的倾斜角度。那么,基于属性散射中心模型,线原子的智能参数化模型可以分别写为:
Figure BDA0002590579760000067
其中,
Figure BDA0002590579760000068
表示线原子的回波模型,m=1,2,3…,M,n=1,2,3,…,N,其中M和N分别为方位向角度采样点数和距离向频率采样点数;sinc(·)为sinc函数;φm和θm分别为雷达平台的第m个俯仰角度和第m个方位角度;fn为雷达发射信号的第n个频点;c为光速。
面原子的智能参数化模型可以写为:
Figure BDA0002590579760000071
其中
Figure BDA0002590579760000072
表示面原子的回波模型,m=1,2,3…,M,n=1,2,3,…,N,其中M和N分别为方位向角度采样点数和距离向频率采样点数。
步骤二、建立SAR混合观测模型,解析表达出被观测场景的回波和点、线和面原子间的关系。
传统点目标模型下,SAR回波可以写为一系列点原子回波的线性叠加,即
Figure BDA0002590579760000073
其中,i=1,2,3…Jp表示点原子的数目,(xi,yi)表示第i个点原子的坐标,σi表示第i个点原子的散射系数,wm,n为接收高斯白噪声。分别建立矩阵
Figure BDA0002590579760000074
分别表示接收回波和高斯白噪声的二维矩阵形式,其中S的第(m,n)个元素为(3)中的s(m,n),W的第(m,n)个元素为(3)中的wm,n。随后,建立矩阵
Figure BDA0002590579760000075
表示第i个点原子回波,其第(m,n)个元素为(3)中的指数项。因此,(2)式可以改写为
y=Apxp+w   (4)
其中y=vec(S),w=vec(W),其中vec表示向量化操作符,即将矩阵按列进行展开成向量;其中
Figure BDA0002590579760000076
表示点原子的观测矩阵,其中
Figure BDA00025905797600000716
Figure BDA0002590579760000078
表示点原子的散射系数向量,其中
Figure BDA00025905797600000715
如图3所示,参照(3)式,SAR混合观测模型表示场景回波由Jp个点原子、Jl个线原子和Jr个面原子回波组成,即
y=Apxp+Alxl+Arxr+w   (5)
其中
Figure BDA0002590579760000079
Figure BDA00025905797600000710
分别表示点原子、线原子和面原子的观测矩阵,而
Figure BDA00025905797600000711
其中
Figure BDA00025905797600000712
Figure BDA00025905797600000713
分别表示式(1)和(2)中
Figure BDA00025905797600000714
Figure BDA0002590579760000081
在输入参数
Figure BDA0002590579760000082
Figure BDA0002590579760000083
下的矩阵形式;
Figure BDA0002590579760000084
Figure BDA0002590579760000085
分别表示线原子和面原子的系数向量。
步骤三、在SAR混合观测模型的约束下,建立最优化求解方程,通过迭代求解三个子问题,解析表达出MC-ADMM求解器。
基于(5)中的SAR混合观测模型,令
Figure BDA0002590579760000086
Figure BDA0002590579760000087
以及
Figure BDA0002590579760000088
Figure BDA0002590579760000089
其中Ip,Il和Ir均为单位阵。那么,式(5)可以改写为
y=Φx+w   (6)
随后,x的估计值可以通过求解下式来得到
Figure BDA00025905797600000810
其中λp,λl和λr分别为预先设定的[0,1]之间的正则化参数。
依据ADMM理论,(7)式转化为求解下述三子个问题
Figure BDA00025905797600000811
其中z和u均为x的中间变量,ρ和η分别为x和u的步长参数。由ADMM理论可知,(8)中的三个子问题的解可由下述MC-ADMM求解器给出:
Figure BDA00025905797600000812
其中(·)H表示共轭转置。
Figure BDA00025905797600000813
为软阈值函数,其中sign(·)表示取符号。那么通过不断迭代求解
Figure BDA00025905797600000814
Figure BDA00025905797600000815
这三部分,即可得到最后的估计结果x(k),其中K为迭代的次数。
步骤四、将MC-ADMM的迭代过程映射成MCADMM-Net,即MC-ADMM的第k次迭代过程对应MCADMM-Net的第k层,而第k层神经网络由三部分组成,分别对应MC-ADMM中的三个子部分。
将式(9)中的
Figure BDA0002590579760000091
Figure BDA0002590579760000092
这三部分的迭代关系映射成如图4所示的网络结构,即MCADMM-Net,图4中的箭头指向表示数据传递的方向。图4表示MCADMM-Net中第k层网络由重构层
Figure BDA0002590579760000093
非线性层
Figure BDA0002590579760000094
和乘子更新层
Figure BDA0002590579760000095
三部分组成。
对于图4中第k层网络的重构层
Figure BDA0002590579760000096
y,z(k-1)和u(k-1)为输入参数,可学习参数为Φ(k)和ρ(k);对于非线性层
Figure BDA0002590579760000097
其输入为x(k)和u(k-1),可学习参数为
Figure BDA0002590579760000098
Figure BDA0002590579760000099
对于乘子更新层
Figure BDA00025905797600000910
其输入为x(k),z(k)和u(k-1),可学习参数为η(k)
步骤五、基于SAR混合观测模型产生训练数据,将场景观测回波输入进训练完毕的神经网络,估计得到点、线和面原子的几何参数。
首先,我们按照如下三步产生网络的训练数据。
1),随机产生式(6)中的系数向量
Figure BDA00025905797600000911
其中上标(·)gt表示真值,即
Figure BDA00025905797600000912
中非零元素的数目和位置随机产生,使真值的数值在[-1,1]中均匀分布;
2),通过将
Figure BDA00025905797600000913
代入式(6)来产生观测数据
Figure BDA00025905797600000914
3),将
Figure BDA00025905797600000915
作为网络的训练数据集,即
Figure BDA00025905797600000916
为训练输入数据,
Figure BDA00025905797600000917
为网络对应的真值。
然后,选择如下的均方根误差(mean square error,MSE)作为网络的损失函数来训练网络:
Figure BDA00025905797600000918
其中
Figure BDA00025905797600000919
为网路的可学习参数,且这些参数按照(9)来初始化,即网络的每一次参数均与(9)中相应参数相同。
最后,生成1000组训练数据,依据(10)式和后向传播发来训练网络。待网络收敛之后,输入场景的观测回波yin,即可得到系数向量的估计值
Figure BDA00025905797600000920
步骤六、生成观测矩阵对应的点、线和面原子的子图像,基于估计得到的点、线和面原子的系数向量,得到SAR超分辨图像。
首先,针对式(6)中的观测矩阵Φ对应的Jp个点原子,Jl个线原子和Jr个面原子,通过以下三步,分别产生每一个点、线和面原子的子图像:
1),对于第jp个点原子,产生相应的子图像矩阵
Figure BDA00025905797600000921
即如图5(a)所示,
Figure BDA00025905797600000922
中只有一个非零元素,非零元素的位置由第jp个点原子的坐标决定,非零元素的幅度为1。
2),对于第jl个线原子,产生相应的子图像矩阵
Figure BDA0002590579760000101
即如图5(b)所示,非零元素的位置由第jl个线原子的参数
Figure BDA0002590579760000102
决定,非零元素的幅度为1。
3),对于第jr个面原子,产生相应的子图像矩阵
Figure BDA0002590579760000103
即如图5(c)所示,非零元素的位置由第jr个线原子的参数
Figure BDA0002590579760000104
决定,非零元素的幅度为1。
随后,基于估计得到的系数向量
Figure BDA0002590579760000105
最后的超分辨成像结果可以由下式给出
Figure BDA0002590579760000106
其中I为最终得到的超分辨SAR图像。
至此,实现了基于神经网络的SAR智能参数化超分辨成像技术。
实施例:
如图6所示,在场景中放置两个点目标,一个线目标和一个面目标,各个目标的参数如下表1所示,相应的雷达参数如下表2所示。
表1为实施例子中图6中目标的参数
Figure BDA0002590579760000107
表2为实施例子中雷达参数
雷达参数 数值 单位
波长 0.02 m
带宽 1.5 GHz
距离向采样点数N 20
俯仰角 15 deg
方位角 [88,92] deg
方位向采样点数M 8
观测距离 15 Km
随后,依照表1、表2中的参数以及式步骤一和步骤二中(1),(2)和(3),我们可以得到图6所示场景的观测回波。通过将经典的后向投影算法(backprojection,BP)算法应用于观测回波中,可以得到图7(a)所示的成像结果,可以看到成像结果中目标的分辨率较差,且具有很强的旁瓣。
接下来,以表1中的目标参数为基准,基于式(1),(2)和(3)和步骤三中的式(6)产生观测矩阵Φ。Φ共包括361个点原子,121个线原子和121个面原子。其中361个点原子的x坐标为-0.6750至0.6750均匀产生(19个),y坐标为-0.75至0.6间均匀产生(19个);121个线原子的参数中(x,y)=(0,0),长度Ll在[0.5,0.7]中均匀分布(11个),角度
Figure BDA0002590579760000112
在[-5,5]0中均匀分布(11个);121个面原子的参数中(x,y)=(0,0.4),长度Ll在[0.5,0.7]中均匀分布(11个),角度
Figure BDA0002590579760000111
在[-5,5]0中均匀分布(11个)。
最后,设置网络的层数K=10,按照步骤五产生1000组训练数据,对网络进行训练。得到收敛的网络后,分别将经典的OMP算法和本发明技术应用于观测回波后得到相应的系数向量估计结果后,基于步骤六中的式(11)得到图7(b)和(c)的结果。可以看出,相继于经典的OMP算法,本发明技术获得了图像质量更高的SAR超分辨图像。且本法所提技术2000次运行平均耗时只有0.0758m,而OMP算法却大约需要3.31s。
因此,本发明所提技术不仅能够获得提升SAR超分辨图像质量,而且运行速度极快,足以满足实时性要求。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (1)

1.一种SAR超分辨成像方法,其特征在于,包括如下步骤:
步骤一、建立点、线和面原子的智能参数化模型,解析表达出雷达观测角度、雷达发射频率与点、线和面原子几何参数间的关系,具体为:
线原子和面原子的几何结构分别采用
Figure FDA0003923787060000011
Figure FDA0003923787060000012
来表示,其中
Figure FDA0003923787060000013
Figure FDA0003923787060000014
分别表示线、面原子的中心的坐标;Ll和Lr分别表示线、面原子的长度,Hr表示面原子的宽度;
Figure FDA0003923787060000015
Figure FDA0003923787060000016
分别表示线、面原子的倾斜角度;则基于属性散射中心模型,线原子的智能参数化回波模型分别写为:
Figure FDA0003923787060000017
其中,m=1,2,3…,M,n=1,2,3,…,N,其中M和N分别为方位向角度采样点数和距离向频率采样点数;sinc(·)为sinc函数;φm和θm分别为雷达平台的第m个俯仰角度和第m个方位角度;fn为雷达发射信号的第n个频点;c为光速;
面原子的智能参数化回波模型写为:
Figure FDA0003923787060000018
步骤二、建立SAR混合观测模型,解析表达出被观测场景的回波与点、线和面原子间的关系,具体为:
传统点目标模型下,SAR回波写为一系列点原子回波的线性叠加,即:
Figure FDA0003923787060000019
其中,i=1,2,3…Jp表示点原子的数目,(xi,yi)表示第i个点原子的坐标,σi表示第i个点原子的散射系数,wm,n为接收高斯白噪声;建立矩阵
Figure FDA00039237870600000110
Figure FDA00039237870600000111
分别表示接收回波和高斯白噪声的二维矩阵形式,其中S的第(m,n)个元素为s(m,n),W的第(m,n)个元素为wm,n;随后,建立矩阵
Figure FDA00039237870600000112
表示第i个点原子回波,其第(m,n)个元素为(3)式中的指数项;因此,(3)式改写为:
y=Apxp+w                 (4)
其中y=vec(S),w=vec(W),vec()表示向量化操作符;其中
Figure FDA0003923787060000021
表示点原子的观测矩阵,其中
Figure FDA0003923787060000022
Figure FDA0003923787060000023
表示点原子的散射系数向量,其中
Figure FDA0003923787060000024
SAR混合观测模型表示场景回波由Jp个点原子、Jl个线原子和Jr个面原子回波组成,即:
y=Apxp+Alxl+Arxr+w                       (5)
其中
Figure FDA0003923787060000025
Figure FDA0003923787060000026
分别表示点原子、线原子和面原子的观测矩阵,而
Figure FDA0003923787060000027
其中
Figure FDA0003923787060000028
Figure FDA0003923787060000029
分别表示式(1)和(2)中
Figure FDA00039237870600000210
Figure FDA00039237870600000211
在输入参数
Figure FDA00039237870600000212
Figure FDA00039237870600000213
下的矩阵形式;
Figure FDA00039237870600000214
Figure FDA00039237870600000215
分别表示线原子和面原子的散射系数向量;
步骤三、在SAR混合观测模型的约束下,建立最优化求解方程,通过迭代求解三个子问题,解析表达出MC-ADMM求解器,具体为:
基于式(5)中的SAR混合观测模型,令
Figure FDA00039237870600000216
Figure FDA00039237870600000217
以及
Figure FDA00039237870600000218
Figure FDA00039237870600000219
其中Ip,Il和Ir均为单位阵,那么,式(5)改写为:
y=Φx+w                   (6)
随后,x的估计值通过求解下式来得到:
Figure FDA00039237870600000220
λp,λl和λr分别为预先设定的[0,1]之间的正则化参数;
依据ADMM理论,(7)式转化为求解下述三子个问题
Figure FDA00039237870600000221
其中z和u均为x的中间变量,ρ和η分别为x和u的步长参数;由ADMM理论可知,(8)中的三个子问题的解可由下述MC-ADMM求解器给出:
Figure FDA0003923787060000031
其中(·)H表示共轭转置;
Figure FDA0003923787060000032
为软阈值函数,其中sign(·)表示取符号;通过不断迭代求解
Figure FDA0003923787060000033
Figure FDA0003923787060000034
这三部分,即可得到最后的估计结果x(K),其中K为迭代的次数;
步骤四、将MC-ADMM求解器的迭代过程映射成MCADMM-Net网络,即MC-ADMM的第k次迭代过程对应MCADMM-Net的第k层,而第k层神经网络由三部分组成,分别对应MC-ADMM中的三个子部分,具体为:
MCADMM-Net网络中第k层网络由重构层
Figure FDA0003923787060000035
非线性层
Figure FDA0003923787060000036
和乘子更新层
Figure FDA0003923787060000037
三部分组成;第k层网络的重构层
Figure FDA0003923787060000038
中,y,z(k-1)和u(k-1)为输入参数,Φ(k)和ρ(k)为可学习参数;对于非线性层
Figure FDA0003923787060000039
其输入为x(k)和u(k-1),可学习参数为
Figure FDA00039237870600000310
Figure FDA00039237870600000311
对于乘子更新层
Figure FDA00039237870600000312
其输入为x(k),z(k)和u(k-1),可学习参数为η(k)
步骤五、基于SAR混合观测模型产生训练数据,将场景观测回波输入进训练完毕的神经网络,估计得到点、线和面原子的几何参数,具体为:
首先,产生网络的训练数据:
1),随机产生多组式(6)中的散射系数向量x,其中非零元素的数目和位置随机产生,并使得真值的数值在[-1,1]中均匀分布;
2),将随机产生的各组散射系数向量x代入式(6),来产生对应的观测数据y;
3),各组散射系数向量x将及对应的观测数据y作为MCADMM-Net网络的训练数据集;
然后,将均方根误差
Figure FDA00039237870600000315
作为MCADMM-Net网络的损失函数,并利用训练数据集来训练网络:
其中,
Figure FDA00039237870600000313
其中
Figure FDA00039237870600000314
为网路的可学习参数;
待网络收敛之后,输入场景的观测回波yin,即可得到散射系数向量的估计值
Figure FDA0003923787060000041
步骤六、生成观测矩阵对应的点、线和面原子的子图像,基于估计得到的点、线和面原子的系数向量,得到SAR超分辨图像,具体为:
首先,针对式(6)中的观测矩阵Φ对应的Jp个点原子,Jl个线原子和Jr个面原子,通过以下三步,分别产生每一个点、线和面原子的子图像:
1),对于第jp个点原子,产生相应的子图像矩阵
Figure FDA0003923787060000042
2),对于第jl个线原子,产生相应的子图像矩阵
Figure FDA0003923787060000043
3),对于第jr个面原子,产生相应的子图像矩阵
Figure FDA0003923787060000044
随后,基于估计得到的系数向量
Figure FDA0003923787060000045
最后的超分辨成像结果I为:
Figure FDA0003923787060000046
其中,
Figure FDA0003923787060000047
Figure FDA0003923787060000048
分别表示散射系数向量的估计值
Figure FDA0003923787060000049
中点原子、线原子以及面原子对应的估计值。
CN202010694576.8A 2020-07-17 2020-07-17 一种基于深度学习的sar智能参数化超分辨成像方法 Active CN111948652B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010694576.8A CN111948652B (zh) 2020-07-17 2020-07-17 一种基于深度学习的sar智能参数化超分辨成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010694576.8A CN111948652B (zh) 2020-07-17 2020-07-17 一种基于深度学习的sar智能参数化超分辨成像方法

Publications (2)

Publication Number Publication Date
CN111948652A CN111948652A (zh) 2020-11-17
CN111948652B true CN111948652B (zh) 2023-05-05

Family

ID=73340702

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010694576.8A Active CN111948652B (zh) 2020-07-17 2020-07-17 一种基于深度学习的sar智能参数化超分辨成像方法

Country Status (1)

Country Link
CN (1) CN111948652B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538307B (zh) * 2021-06-21 2023-06-20 陕西师范大学 基于多视角超分辨深度网络的合成孔径成像方法
CN113640795B (zh) * 2021-07-27 2024-02-13 北京理工大学 一种基于生成对抗网络的sar智能参数化自聚焦方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102323583B (zh) * 2011-09-13 2013-01-09 电子科技大学 一种超分辨线阵三维合成孔径雷达成像方法
CN103713288B (zh) * 2013-12-31 2015-10-28 电子科技大学 基于迭代最小化稀疏贝叶斯重构线阵sar成像方法
CN109633638B (zh) * 2018-11-19 2020-11-03 上海无线电设备研究所 一种基于电磁散射模型的大角度sar超分辨成像方法
CN109683161B (zh) * 2018-12-20 2023-09-26 南京航空航天大学 一种基于深度admm网络的逆合成孔径雷达成像的方法
CN110244299B (zh) * 2019-06-21 2021-12-28 西安交通大学 一种基于admm的sar图像恢复的分布式方法

Also Published As

Publication number Publication date
CN111948652A (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
CN109683161B (zh) 一种基于深度admm网络的逆合成孔径雷达成像的方法
CN103713288B (zh) 基于迭代最小化稀疏贝叶斯重构线阵sar成像方法
CN104952050B (zh) 基于区域分割的高光谱图像自适应解混方法
CN107193003B (zh) 一种稀疏奇异值分解扫描雷达前视成像方法
CN107037429B (zh) 基于门限梯度追踪算法的线阵sar三维成像方法
CN110161499B (zh) 改进的稀疏贝叶斯学习isar成像散射系数估计方法
Yang et al. Cooperative multitask learning for sparsity-driven SAR imagery and nonsystematic error autocalibration
CN110244303B (zh) 基于sbl-admm的稀疏孔径isar成像方法
CN105699969B (zh) 基于广义高斯约束的最大后验估计角超分辨成像方法
CN112099008B (zh) 基于cv-admmn的sa-isar成像与自聚焦方法
CN111948652B (zh) 一种基于深度学习的sar智能参数化超分辨成像方法
CN113567982B (zh) 一种基于混合范数的方位向周期采样数据稀疏sar成像方法及装置
CN106443621A (zh) 冲击噪声条件的基于正交匹配稀疏重构的相干信源动态doa追踪方法
CN110728706A (zh) 基于深度学习的sar图像精细配准方法
CN112147608A (zh) 一种快速高斯网格化非均匀fft穿墙成像雷达bp方法
CN114442092B (zh) 一种分布式无人机sar深度学习三维成像方法
CN115453528A (zh) 基于快速sbl算法实现分段观测isar高分辨成像方法及装置
CN114325707A (zh) 基于深度展开网络的稀疏孔径微动目标isar成像方法
CN114019507A (zh) 一种基于l1/2范数正则化的sar干涉图生成方法
CN117192548A (zh) 基于深度展开的稀疏isar高分辨成像方法
CN116243313A (zh) 一种基于距离分区的sar快速智能稀疏自聚焦技术
CN112946644B (zh) 基于最小化卷积加权l1范数的稀疏孔径ISAR成像方法
CN115453523A (zh) 一种扫描雷达稀疏目标批处理超分辨方法
CN114966687A (zh) 基于低秩和非局部自相似的稀疏isar成像方法及系统
CN110133647B (zh) 一种分块稀疏贝叶斯学习isar成像散射系数估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant