CN111948652B - 一种基于深度学习的sar智能参数化超分辨成像方法 - Google Patents
一种基于深度学习的sar智能参数化超分辨成像方法 Download PDFInfo
- Publication number
- CN111948652B CN111948652B CN202010694576.8A CN202010694576A CN111948652B CN 111948652 B CN111948652 B CN 111948652B CN 202010694576 A CN202010694576 A CN 202010694576A CN 111948652 B CN111948652 B CN 111948652B
- Authority
- CN
- China
- Prior art keywords
- atoms
- sar
- point
- line
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 38
- 238000013135 deep learning Methods 0.000 title abstract description 10
- 238000000034 method Methods 0.000 claims abstract description 23
- 238000013528 artificial neural network Methods 0.000 claims abstract description 14
- 239000011159 matrix material Substances 0.000 claims description 33
- 239000013598 vector Substances 0.000 claims description 26
- 238000012549 training Methods 0.000 claims description 17
- 238000002592 echocardiography Methods 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 4
- 238000003491 array Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 8
- 230000006870 function Effects 0.000 abstract description 5
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/9004—SAR image acquisition techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于深度学习的SAR智能参数化超分辨成像方法,首先,基于属性散射中心模型,本技术在传统仅包含点原子的SAR回波模型中额外引入线原子和面原子,构建SAR混合观测模型。随后,基于SAR混合观测模型和传统交替方向乘子法ADMM,本技术通过设置不同的非线性阈值函数,构建了多成分ADMM算法来估计点、线和面原子的参数。最后,通过将MC‑ADMM映射成神经网络,即将MC‑ADMM的每一次迭代过程映射成一层神经网络结构,成功构建MCADMM‑Net,快速高效的获取高智能SAR超分辨图像。本发明旨在提供一种高智能、高精度、高效率的SAR超分辨成像解决方案,预期可应用于机载、星载SAR成像等领域,可大幅增强SAR图像质量,有助于提升SAR图像的可理解性。
Description
技术领域
本发明属于SAR成像技术领域,具体涉及一种基于深度学习的SAR智能参数化超分辨成像方法。
背景技术
合成孔径雷达(Synthetic Aperture Radar,SAR)作为一种利用微波进行感知的主动传感器,能够不受天气、光照等条件限制,对感兴趣目标进行全天候、全天时、远距离的持续观测,从而提供感兴趣区域的高分辨图像。目前,SAR成像技术已经广泛应用于机载、星载、弹载等多种平台,如经典的后向投影算法(backprojection,BP)算法,成为各国争相发展的重要微波遥感技术。与低分辨率图像相比,高分辨率SAR图像可以提供场景的更多细节和目标更精细的轮廓,有助于目标解译和识别。但是,那SAR图像分辨率面临局限性雷达系统的性能,例如有限的带宽和方位角成像范围宽度。
近十年发展的压缩感知(compressedsensing,CS)理论使得研究人员能够从少量的线性测量中高精度重建稀疏信号,该方法已被广泛研究并成功应用于信号处理领域。而对于SAR,由于实际观测中感兴趣目标的空间分布稀疏,许多基于压缩感知理论的方法被用于SAR成像处理,如经典的正交匹配追踪算法(Orthogonal Matching Pursuit,OMP)算法,成功获得超分辨率SAR图像。但是,现阶段,基于CS的SAR成像方法具有以下三个限制。
首先,传统稀疏成像方法是基于点散射模型的,即要被观测场景被视为一系列点散射体的叠加,这些点散射体未考虑分布目标在不同观察角下的各向异性散射特性。因此,上述稀疏成像更倾向于描绘分布式目标的一些局部点散射特征,而非线散射和面散射特征。
其次,它们依靠迭代式的图像重建策略,该策略需要在每次迭代中执行耗时的矩阵求逆操作。这使得传统稀疏成像方法,需要数百次迭代以获得足够高的成功质量。这意味着传统稀疏成像算法的计算复杂度高,难以满足实时性要求。
除此之外,传统稀疏成像往往需要手动设置正则化参数以及一些其他的优化参数。如何自适应地确定这些成像参数,仍然是一项艰巨的任务。幸运的是,最近兴盛的深度学习(deep learning,DL)技术为回归型神经网络提供了最先进的性能,并且已经在诸如稀疏信号恢复中取得不俗的效果。而在SAR成像领域,虽然常规神经网络(CNN)已经应用于雷达超分辨成像中,但是其神经网络架构可解释性差,网络结构仍为“黑盒子”,且网络参数多、训练速度慢。
发明内容
有鉴于此,本发明的目的是提供一种基于深度学习的SAR智能参数化超分辨成像方法,可以解决传统SAR超分辨成像算法中的点目标模型失配、计算复杂度高和参数难自适应等问题,实现高智能、高精度、高效率的SAR超分辨成像。
一种SAR超分辨成像方法,包括如下步骤:
步骤一、建立点、线和面原子的智能参数化模型,解析表达出雷达观测角度、雷达发射频率和点、线和面原子几何参数间的关系,具体为:
线原子和面原子的几何结构可以分别采用和来表示,其中和分别表示线、面原子的中心的坐标;Ll和Lr分别表示线、面原子的长度,Hr表示面原子的宽度;和分别表示线、面原子的倾斜角度;则基于属性散射中心模型,线原子的智能参数化回波模型可以分别写为:
其中,m=1,2,3…,M,n=1,2,3,…,N,其中M和N分别为方位向角度采样点数和距离向频率采样点数;sinc(·)为sinc函数;φm和θm分别为雷达平台的第m个俯仰角度和第m个方位角度;fn为雷达发射信号的第n个频点;c为光速;
面原子的智能参数化回波模型写为:
步骤二、建立SAR混合观测模型,解析表达出被观测场景的回波和点、线和面原子间的关系,具体为:
传统点目标模型下,SAR回波可以写为一系列点原子回波的线性叠加,即:
其中,i=1,2,3…Jp表示点原子的数目,(xi,yi)表示第i个点原子的坐标,σi表示第i个点原子的散射系数,wm,n为接收高斯白噪声;建立矩阵和分别表示接收回波和高斯白噪声的二维矩阵形式,其中S的第(m,n)个元素为s(m,n),W的第(m,n)个元素为wm,n;随后,建立矩阵表示第i个点原子回波,其第(m,n)个元素为(3)式中的指数项;因此,(2)式可以改写为
y=Apxp+w (4)
SAR混合观测模型表示场景回波由Jp个点原子、Jl个线原子和Jr个面原子回波组成,即:
y=Apxp+Alxl+Arxr+w (5)
步骤三、在SAR混合观测模型的约束下,建立最优化求解方程,通过迭代求解三个子问题,解析表达出MC-ADMM求解器,具体为:
y=Φx+w (6)
随后,x的估计值通过求解下式来得到:
λp,λl和λr分别为预先设定的[0,1]之间的正则化参数;
依据ADMM理论,(7)式转化为求解下述三子个问题
其中z和u均为x的中间变量,ρ和η分别为x和u的步长参数;由ADMM理论可知,(8)中的三个子问题的解可由下述MC-ADMM求解器给出:
步骤四、将MC-ADMM求解器的迭代过程映射成MCADMM-Net网络,即MC-ADMM的第k次迭代过程对应MCADMM-Net的第k层,而第k层神经网络由三部分组成,分别对应MC-ADMM中的三个子部分,具体为:
MCADMM-Net网络中第k层网络由重构层非线性层和乘子更新层三部分组成;第k层网络的重构层中,y,z(k-1)和u(k-1)为输入参数,Φ(k)和ρ(k)为可学习参数;对于非线性层其输入为x(k)和u(k-1),可学习参数为和对于乘子更新层其输入为x(k),z(k)和u(k-1),可学习参数为η(k);
步骤五、基于SAR混合观测模型产生训练数据,将场景观测回波输入进训练完毕的神经网络,估计得到点、线和面原子的几何参数,具体为:
首先,产生网络的训练数据:
1),随机产生多组式(6)中的散射系数向量x,其中非零元素的数目和位置随机产生,并使得真值的数值在[-1,1]中均匀分布;
2),将随机产生的各组散射系数向量x代入式(6),来产生对应的观测数据y;
3),各组散射系数向量x将及对应的观测数据y作为MCADMM-Net网络的训练数据集;
其中,
步骤六、生成观测矩阵对应的点、线和面原子的子图像,基于估计得到的点、线和面原子的系数向量,得到SAR超分辨图像,具体为:
首先,针对式(6)中的观测矩阵Φ对应的Jp个点原子,Jl个线原子和Jr个面原子,通过以下三步,分别产生每一个点、线和面原子的子图像:
本发明具有如下有益效果:
本发明提出一种基于深度学习的SAR智能参数化超分辨成像方法,首先,基于属性散射中心模型,本技术在传统仅包含点原子的SAR回波模型中额外引入线原子和面原子,构建SAR混合观测模型。随后,基于SAR混合观测模型和传统交替方向乘子法(AlternatingDirectionMethod of Multipliers,ADMM),本技术通过设置不同的非线性阈值函数,构建了多成分ADMM(multiplecomponentsADMM,MC-ADMM)算法来估计点、线和面原子的参数。最后,通过将MC-ADMM映射成神经网络,即将MC-ADMM的每一次迭代过程映射成一层神经网络结构,成功构建MCADMM-Net,快速高效的获取高智能SAR超分辨图像。本发明旨在提供一种高智能、高精度、高效率的SAR超分辨成像解决方案,预期可应用于机载、星载SAR成像等领域,可大幅增强SAR图像质量,有助于提升SAR图像的可理解性。
附图说明
图1为本发明基于深度学习的SAR智能超分辨成像技术的流程框图。
图2(a)和图2(b)分别为线、面原子几何参数示意图。
图3为SAR混合观测模型示意图。
图4为本发明映射得到的MCADMM-Net网络结构示意图。
图5(a)、图5(b)和图5(c)分别为实施例中单个点、线和面原子图像。
图6为实施例中的不同方法的成像结果。
图7(a)为BP算法结果图,图7(b)为OMP算法结果图,图7(c)本发明技术结果图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明是一种基于深度学习的SAR智能参数化超分辨成像方法,流程图如图1所示,其具体步骤包括:
步骤一、建立点、线和面原子的智能参数化模型,解析表达出雷达观测角度、雷达发射频率和点、线和面原子几何参数间的关系。
如图2(a)和图2(b)所示,线原子和面原子的几何结构可以分别采用和来表示,其中和分别表示线、面原子的中心的坐标;Ll和Lr分别表示线、面原子的长度,Hr表示面原子的宽度;和分别表示线、面原子的倾斜角度。那么,基于属性散射中心模型,线原子的智能参数化模型可以分别写为:
其中,表示线原子的回波模型,m=1,2,3…,M,n=1,2,3,…,N,其中M和N分别为方位向角度采样点数和距离向频率采样点数;sinc(·)为sinc函数;φm和θm分别为雷达平台的第m个俯仰角度和第m个方位角度;fn为雷达发射信号的第n个频点;c为光速。
面原子的智能参数化模型可以写为:
步骤二、建立SAR混合观测模型,解析表达出被观测场景的回波和点、线和面原子间的关系。
传统点目标模型下,SAR回波可以写为一系列点原子回波的线性叠加,即
其中,i=1,2,3…Jp表示点原子的数目,(xi,yi)表示第i个点原子的坐标,σi表示第i个点原子的散射系数,wm,n为接收高斯白噪声。分别建立矩阵分别表示接收回波和高斯白噪声的二维矩阵形式,其中S的第(m,n)个元素为(3)中的s(m,n),W的第(m,n)个元素为(3)中的wm,n。随后,建立矩阵表示第i个点原子回波,其第(m,n)个元素为(3)中的指数项。因此,(2)式可以改写为
y=Apxp+w (4)
如图3所示,参照(3)式,SAR混合观测模型表示场景回波由Jp个点原子、Jl个线原子和Jr个面原子回波组成,即
y=Apxp+Alxl+Arxr+w (5)
步骤三、在SAR混合观测模型的约束下,建立最优化求解方程,通过迭代求解三个子问题,解析表达出MC-ADMM求解器。
y=Φx+w (6)
随后,x的估计值可以通过求解下式来得到
其中λp,λl和λr分别为预先设定的[0,1]之间的正则化参数。
依据ADMM理论,(7)式转化为求解下述三子个问题
其中z和u均为x的中间变量,ρ和η分别为x和u的步长参数。由ADMM理论可知,(8)中的三个子问题的解可由下述MC-ADMM求解器给出:
步骤四、将MC-ADMM的迭代过程映射成MCADMM-Net,即MC-ADMM的第k次迭代过程对应MCADMM-Net的第k层,而第k层神经网络由三部分组成,分别对应MC-ADMM中的三个子部分。
将式(9)中的和这三部分的迭代关系映射成如图4所示的网络结构,即MCADMM-Net,图4中的箭头指向表示数据传递的方向。图4表示MCADMM-Net中第k层网络由重构层非线性层和乘子更新层三部分组成。
对于图4中第k层网络的重构层y,z(k-1)和u(k-1)为输入参数,可学习参数为Φ(k)和ρ(k);对于非线性层其输入为x(k)和u(k-1),可学习参数为和对于乘子更新层其输入为x(k),z(k)和u(k-1),可学习参数为η(k)。
步骤五、基于SAR混合观测模型产生训练数据,将场景观测回波输入进训练完毕的神经网络,估计得到点、线和面原子的几何参数。
首先,我们按照如下三步产生网络的训练数据。
然后,选择如下的均方根误差(mean square error,MSE)作为网络的损失函数来训练网络:
步骤六、生成观测矩阵对应的点、线和面原子的子图像,基于估计得到的点、线和面原子的系数向量,得到SAR超分辨图像。
首先,针对式(6)中的观测矩阵Φ对应的Jp个点原子,Jl个线原子和Jr个面原子,通过以下三步,分别产生每一个点、线和面原子的子图像:
其中I为最终得到的超分辨SAR图像。
至此,实现了基于神经网络的SAR智能参数化超分辨成像技术。
实施例:
如图6所示,在场景中放置两个点目标,一个线目标和一个面目标,各个目标的参数如下表1所示,相应的雷达参数如下表2所示。
表1为实施例子中图6中目标的参数
表2为实施例子中雷达参数
雷达参数 | 数值 | 单位 |
波长 | 0.02 | m |
带宽 | 1.5 | GHz |
距离向采样点数N | 20 | |
俯仰角 | 15 | deg |
方位角 | [88,92] | deg |
方位向采样点数M | 8 | |
观测距离 | 15 | Km |
随后,依照表1、表2中的参数以及式步骤一和步骤二中(1),(2)和(3),我们可以得到图6所示场景的观测回波。通过将经典的后向投影算法(backprojection,BP)算法应用于观测回波中,可以得到图7(a)所示的成像结果,可以看到成像结果中目标的分辨率较差,且具有很强的旁瓣。
接下来,以表1中的目标参数为基准,基于式(1),(2)和(3)和步骤三中的式(6)产生观测矩阵Φ。Φ共包括361个点原子,121个线原子和121个面原子。其中361个点原子的x坐标为-0.6750至0.6750均匀产生(19个),y坐标为-0.75至0.6间均匀产生(19个);121个线原子的参数中(x,y)=(0,0),长度Ll在[0.5,0.7]中均匀分布(11个),角度在[-5,5]0中均匀分布(11个);121个面原子的参数中(x,y)=(0,0.4),长度Ll在[0.5,0.7]中均匀分布(11个),角度在[-5,5]0中均匀分布(11个)。
最后,设置网络的层数K=10,按照步骤五产生1000组训练数据,对网络进行训练。得到收敛的网络后,分别将经典的OMP算法和本发明技术应用于观测回波后得到相应的系数向量估计结果后,基于步骤六中的式(11)得到图7(b)和(c)的结果。可以看出,相继于经典的OMP算法,本发明技术获得了图像质量更高的SAR超分辨图像。且本法所提技术2000次运行平均耗时只有0.0758m,而OMP算法却大约需要3.31s。
因此,本发明所提技术不仅能够获得提升SAR超分辨图像质量,而且运行速度极快,足以满足实时性要求。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (1)
1.一种SAR超分辨成像方法,其特征在于,包括如下步骤:
步骤一、建立点、线和面原子的智能参数化模型,解析表达出雷达观测角度、雷达发射频率与点、线和面原子几何参数间的关系,具体为:
线原子和面原子的几何结构分别采用和来表示,其中和分别表示线、面原子的中心的坐标;Ll和Lr分别表示线、面原子的长度,Hr表示面原子的宽度;和分别表示线、面原子的倾斜角度;则基于属性散射中心模型,线原子的智能参数化回波模型分别写为:
其中,m=1,2,3…,M,n=1,2,3,…,N,其中M和N分别为方位向角度采样点数和距离向频率采样点数;sinc(·)为sinc函数;φm和θm分别为雷达平台的第m个俯仰角度和第m个方位角度;fn为雷达发射信号的第n个频点;c为光速;
面原子的智能参数化回波模型写为:
步骤二、建立SAR混合观测模型,解析表达出被观测场景的回波与点、线和面原子间的关系,具体为:
传统点目标模型下,SAR回波写为一系列点原子回波的线性叠加,即:
其中,i=1,2,3…Jp表示点原子的数目,(xi,yi)表示第i个点原子的坐标,σi表示第i个点原子的散射系数,wm,n为接收高斯白噪声;建立矩阵和分别表示接收回波和高斯白噪声的二维矩阵形式,其中S的第(m,n)个元素为s(m,n),W的第(m,n)个元素为wm,n;随后,建立矩阵表示第i个点原子回波,其第(m,n)个元素为(3)式中的指数项;因此,(3)式改写为:
y=Apxp+w (4)
SAR混合观测模型表示场景回波由Jp个点原子、Jl个线原子和Jr个面原子回波组成,即:
y=Apxp+Alxl+Arxr+w (5)
步骤三、在SAR混合观测模型的约束下,建立最优化求解方程,通过迭代求解三个子问题,解析表达出MC-ADMM求解器,具体为:
y=Φx+w (6)
随后,x的估计值通过求解下式来得到:
λp,λl和λr分别为预先设定的[0,1]之间的正则化参数;
依据ADMM理论,(7)式转化为求解下述三子个问题
其中z和u均为x的中间变量,ρ和η分别为x和u的步长参数;由ADMM理论可知,(8)中的三个子问题的解可由下述MC-ADMM求解器给出:
步骤四、将MC-ADMM求解器的迭代过程映射成MCADMM-Net网络,即MC-ADMM的第k次迭代过程对应MCADMM-Net的第k层,而第k层神经网络由三部分组成,分别对应MC-ADMM中的三个子部分,具体为:
MCADMM-Net网络中第k层网络由重构层非线性层和乘子更新层三部分组成;第k层网络的重构层中,y,z(k-1)和u(k-1)为输入参数,Φ(k)和ρ(k)为可学习参数;对于非线性层其输入为x(k)和u(k-1),可学习参数为和对于乘子更新层其输入为x(k),z(k)和u(k-1),可学习参数为η(k);
步骤五、基于SAR混合观测模型产生训练数据,将场景观测回波输入进训练完毕的神经网络,估计得到点、线和面原子的几何参数,具体为:
首先,产生网络的训练数据:
1),随机产生多组式(6)中的散射系数向量x,其中非零元素的数目和位置随机产生,并使得真值的数值在[-1,1]中均匀分布;
2),将随机产生的各组散射系数向量x代入式(6),来产生对应的观测数据y;
3),各组散射系数向量x将及对应的观测数据y作为MCADMM-Net网络的训练数据集;
其中,
步骤六、生成观测矩阵对应的点、线和面原子的子图像,基于估计得到的点、线和面原子的系数向量,得到SAR超分辨图像,具体为:
首先,针对式(6)中的观测矩阵Φ对应的Jp个点原子,Jl个线原子和Jr个面原子,通过以下三步,分别产生每一个点、线和面原子的子图像:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010694576.8A CN111948652B (zh) | 2020-07-17 | 2020-07-17 | 一种基于深度学习的sar智能参数化超分辨成像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010694576.8A CN111948652B (zh) | 2020-07-17 | 2020-07-17 | 一种基于深度学习的sar智能参数化超分辨成像方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111948652A CN111948652A (zh) | 2020-11-17 |
CN111948652B true CN111948652B (zh) | 2023-05-05 |
Family
ID=73340702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010694576.8A Active CN111948652B (zh) | 2020-07-17 | 2020-07-17 | 一种基于深度学习的sar智能参数化超分辨成像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111948652B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113538307B (zh) * | 2021-06-21 | 2023-06-20 | 陕西师范大学 | 基于多视角超分辨深度网络的合成孔径成像方法 |
CN113640795B (zh) * | 2021-07-27 | 2024-02-13 | 北京理工大学 | 一种基于生成对抗网络的sar智能参数化自聚焦方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102323583B (zh) * | 2011-09-13 | 2013-01-09 | 电子科技大学 | 一种超分辨线阵三维合成孔径雷达成像方法 |
CN103713288B (zh) * | 2013-12-31 | 2015-10-28 | 电子科技大学 | 基于迭代最小化稀疏贝叶斯重构线阵sar成像方法 |
CN109633638B (zh) * | 2018-11-19 | 2020-11-03 | 上海无线电设备研究所 | 一种基于电磁散射模型的大角度sar超分辨成像方法 |
CN109683161B (zh) * | 2018-12-20 | 2023-09-26 | 南京航空航天大学 | 一种基于深度admm网络的逆合成孔径雷达成像的方法 |
CN110244299B (zh) * | 2019-06-21 | 2021-12-28 | 西安交通大学 | 一种基于admm的sar图像恢复的分布式方法 |
-
2020
- 2020-07-17 CN CN202010694576.8A patent/CN111948652B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111948652A (zh) | 2020-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109683161B (zh) | 一种基于深度admm网络的逆合成孔径雷达成像的方法 | |
CN103713288B (zh) | 基于迭代最小化稀疏贝叶斯重构线阵sar成像方法 | |
CN104952050B (zh) | 基于区域分割的高光谱图像自适应解混方法 | |
CN107193003B (zh) | 一种稀疏奇异值分解扫描雷达前视成像方法 | |
CN107037429B (zh) | 基于门限梯度追踪算法的线阵sar三维成像方法 | |
CN110161499B (zh) | 改进的稀疏贝叶斯学习isar成像散射系数估计方法 | |
Yang et al. | Cooperative multitask learning for sparsity-driven SAR imagery and nonsystematic error autocalibration | |
CN110244303B (zh) | 基于sbl-admm的稀疏孔径isar成像方法 | |
CN105699969B (zh) | 基于广义高斯约束的最大后验估计角超分辨成像方法 | |
CN112099008B (zh) | 基于cv-admmn的sa-isar成像与自聚焦方法 | |
CN111948652B (zh) | 一种基于深度学习的sar智能参数化超分辨成像方法 | |
CN113567982B (zh) | 一种基于混合范数的方位向周期采样数据稀疏sar成像方法及装置 | |
CN106443621A (zh) | 冲击噪声条件的基于正交匹配稀疏重构的相干信源动态doa追踪方法 | |
CN110728706A (zh) | 基于深度学习的sar图像精细配准方法 | |
CN112147608A (zh) | 一种快速高斯网格化非均匀fft穿墙成像雷达bp方法 | |
CN114442092B (zh) | 一种分布式无人机sar深度学习三维成像方法 | |
CN115453528A (zh) | 基于快速sbl算法实现分段观测isar高分辨成像方法及装置 | |
CN114325707A (zh) | 基于深度展开网络的稀疏孔径微动目标isar成像方法 | |
CN114019507A (zh) | 一种基于l1/2范数正则化的sar干涉图生成方法 | |
CN117192548A (zh) | 基于深度展开的稀疏isar高分辨成像方法 | |
CN116243313A (zh) | 一种基于距离分区的sar快速智能稀疏自聚焦技术 | |
CN112946644B (zh) | 基于最小化卷积加权l1范数的稀疏孔径ISAR成像方法 | |
CN115453523A (zh) | 一种扫描雷达稀疏目标批处理超分辨方法 | |
CN114966687A (zh) | 基于低秩和非局部自相似的稀疏isar成像方法及系统 | |
CN110133647B (zh) | 一种分块稀疏贝叶斯学习isar成像散射系数估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |