CN113506233B - 基于深度学习的sar自聚焦方法 - Google Patents
基于深度学习的sar自聚焦方法 Download PDFInfo
- Publication number
- CN113506233B CN113506233B CN202110772455.5A CN202110772455A CN113506233B CN 113506233 B CN113506233 B CN 113506233B CN 202110772455 A CN202110772455 A CN 202110772455A CN 113506233 B CN113506233 B CN 113506233B
- Authority
- CN
- China
- Prior art keywords
- focusing
- sar
- image
- self
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000013135 deep learning Methods 0.000 title claims description 5
- 230000006870 function Effects 0.000 claims abstract description 44
- 238000013528 artificial neural network Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 16
- 238000012360 testing method Methods 0.000 claims abstract description 9
- 230000004913 activation Effects 0.000 claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 238000003062 neural network model Methods 0.000 claims description 4
- 238000012886 linear function Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 abstract description 6
- 230000000694 effects Effects 0.000 abstract description 4
- 238000012545 processing Methods 0.000 abstract description 3
- 238000004088 simulation Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于深度学习的SAR图像自聚焦方法,主要解决传统方法处理具有空变误差的SAR图像聚焦效果差和耗时的问题。其实现方案为:1)获取多幅粗聚焦SAR图像,将其按照比例随机划分为训练集和测试集;2)构建由八个卷积层和四个反卷积层级联组成的SAR自聚焦网络模型;3)构造SAR自聚焦神经网络的模型损失函数Loss;4)利用训练数据集对SAR图像自聚焦神经网络进行训练,直到损失函数收敛,得到训练好的网络模型;5)将测试集中的粗聚焦SAR图像输入到训练好的网络模型中,得到聚焦后的SAR图像。本发明能够精确地估计运动误差导致的二维相位误差,提高了聚焦性能,加快了聚焦速度,可用于SAR图像成像。
Description
技术领域
本发明属于雷达成像技术领域,特别涉及一种合成孔径SAR的自聚焦方法,可用于SAR成像。
背景技术
合成孔径雷达SAR是一种主动式微波成像系统,具有在不同气候和光照条件下对地面、海面进行全天候的观察能力,在地质资源勘探、海洋监测和城市规划等诸多应用中发挥了重要的作用。由于受到气流的扰动影响,无人机载SAR的运动轨迹通常与理想航迹存在偏差。如果不进行运动补偿,运动误差会导致图像散焦,甚至无法成像。由于受体积和成本的限制,在无人机载SAR上难以安装高精度的惯性导航系统,从而使得基于导航信息的运动补偿不能满足成像要求。为此,基于数据的自聚焦方法被提出来了,这些方法主要从回波数据或者成像结果中估计误差并补偿,来获取高质量的SAR图像。
目前,基于数据的自聚焦方法主要可以分为基于相位误差的自聚焦方法和基于图像质量的自聚焦方法。
Wahl在其发表的论文“Phase Gradient Autofocus-A Robust Tool for HighResolution SAR Phase Correction”《IEEE Transaction on Aerospace and ElectronicSystems》,1994,30(3):827-835)中提出了一种有效的基于相位误差的自聚焦方法,该方法通过对选取的特显点进行移位、加窗和相位误差梯度估计等处理得到相位误差,但是该方法在处理具有空变误差的SAR图像时,其聚焦效果很差。
Zeng在其发表的论文“SAR Image Autofocus Utilizing Minimum-EntropyCritrrion”《IEEE Geoscience and Remote Sensing Letters》,2013,10(6):1552-1556)中提出了一种经典的基于图像质量的自聚焦方法,其通过最小化图像熵来得到相位误差的最优解,但是该方法需要进行迭代搜索,耗时十分严重。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于深度学习的SAR自聚焦方法,以通过卷积神经网络直接估计二维相位误差并补偿,提高聚焦性能,加快聚焦速度。
为实现上述目的,本发明的技术方案包括如下:
(1)获取多幅粗聚焦SAR图像,将其按照4:1的比例随机划分为训练集和测试集;
(2)构建由八个卷积层和四个反卷积层依次级联组成的SAR自聚焦卷积神经网络,并将图像对比度损失函数loss1与相位一致损失函数loss2之和作为该神经网络的损失函数Loss,其中八个卷积层和前三个反卷积层后的激活函数同是ReLU函数,第四个反卷积层后的激活函数是线性函数;
(3)将单张粗聚焦SAR图像输入到构建的SAR自聚焦神经网络中,得到图像的二维相位误差预测值e-jθ,用图像的相位误差对其粗聚焦图像的相位进行补偿,并计算补偿后的单张SAR图像通过该网络的损失函数值L;
(4)利用图像训练集对SAR自聚焦神经网络进行训练:
(4a)设学习率参数为0.0001;
(4b)从训练集随机抽取一张粗聚焦SAR图像,并将其送入(3)构建的SAR自聚焦神经网络中得到函数值L,利用L通过后向传播算法完成对该网络的权值更新;
(4c)重复步骤4b),直至SAR自聚焦神经网络的损失函数Loss收敛,得到训练好的SAR图像精细配准的神经网络模型;
(5)将测试集中的粗聚焦SAR图像输入到训练好的网络模型中,得到聚焦后的SAR图像。
本发明与现有技术相比具有以下优点:
1.本发明采用深度学习的方法,构建网络模型和损失函数,智能地实现了SAR自聚焦,能够精确地估计运动误差导致的二维相位误差,提高了聚焦性能。
2.本发明设计了一种适用于SAR自聚焦的神经网络模型,在训练完成之后,可利用训练好的模型直接预测二维相位误差,避免了迭代搜索,加快了聚焦速度。
附图说明
图1是本发明的实现流程图;
图2是本发明构建SAR自聚焦卷积神经网络的前八个卷积层结构图;
图3是本发明构建SAR自聚焦卷积神经网络的后四个反卷积层结构图;
图4是本发明的仿真结果图。
具体实施方式
下面结合附图对本发明的实施例和效果做进一步描述。
参照图1,本发明的实施步骤如下:
步骤一,获取网络训练与测试的数据集。
1a)获取多张粗聚焦SAR图像,并按照4:1的比例随机划分为训练集和测试集。
步骤二,构建用于SAR自聚焦的网络模型。
2a)该网络依次由八个卷积层和四个反卷积层级联组成。
参照图2,所述八个卷积层,其前四层卷积层输出特征图个数分别为32、64、128、256,卷积核尺寸分别为7×7、5×5、3×3、3×3,步长均为2×2,激活函数是ReLU函数;后四层卷积层输出特征图个数均为256,卷积核尺寸均为3×3,步长均为1×1,激活函数是ReLU函数;
参照图3,所述四个反卷积层,其前三个反卷积层的输出特征图个数分别为256、128、64,卷积核尺寸分别为3×3、3×3、5×5,步长均为2×2,激活函数是ReLU函数;最后的一个反卷积层的输出特征图个数为1,卷积核尺寸均为7×7,步长为2×2,激活函数是线性函数。
2b)该网络的输出结果是运动误差导致的二维相位误差预测值e-jθ,根据该网络预测的二维相位误差对输入的粗聚焦图像进行相位补偿,并计算补偿后的单张SAR图像通过该网络的函数值L;
2b1)对输入的粗聚焦图像进行二维傅里叶逆变换得到二维频域数据S;
2b2)将二维频域数据S与通过预测得到的二维相位误差e-jθ相乘,得到补偿后的频域数据X:
X=S·e-jθ
2b3)对X进行二维傅里叶变换得到补偿后的SAR图像。
步骤三,构建SAR自聚焦神经网络的损失函数Loss。
3a)构建用于最大化聚焦后图像的对比度的图像对比度损失函数loss1:
其中,E(·)为求期望函数,I是补偿后SAR图像。
3b)构建SAR自聚焦网络的相位一致损失函数loss2:
其中,n=1,2,…N,N为多普勒单元的个数,m代表距离单元序号,m=1,2,…,M,M为距离像的个数。
3c)将3a)中的图像对比度损失函数loss1与3b)中的相位一致损失函数函数loss2作为SAR自聚焦神经网络的损失函数Loss:
Loss=loss1+loss2
步骤四,利用(1)获得的数据集对(2)构建的神经网络进行训练,得到训练好的网络模型。
(4a)设学习率参数为0.0001;
(4b)从训练集随机抽取一张粗聚焦SAR图像,并将其送入(3)构建的SAR自聚焦神经网络中得到函数值L;
(4c)利用L通过后向传播算法完成对该网络的权值更新;
(4d)重复步骤4b)和4c),直至SAR自聚焦神经网络的损失函数收敛,得到训练好的SAR图像精细配准的神经网络模型;
步骤五,将测试集中的粗聚焦SAR图像输入到训练好的网络模型中,得到聚焦后的SAR图像。
本发明效果可通过以下仿真进一步说明:
一.仿真条件:
用三张粗聚焦的实测SAR图像验证本发明的有效性和实用性,三张SAR图像的距离分辨率为0.2米,方位分辨率为0.2米,图像尺寸为512×512;
二.仿真内容:
用本发明和传统的基于相位误差的自聚焦方法对三张粗聚焦的实测SAR图像进行自聚焦处理,结果如图4所示。其中:
图4(a)这一列是采用传统方法对三张粗聚焦的SAR图像进行自聚焦处理的结果。
图4(b)这一列是用本发明方法对三张粗聚焦的SAR图像进行自聚焦处理的结果。
从图4(a)和图4(b)两幅图像的对比可以看到,本发明相比于传统的基于相位误差的自聚焦方法,能更有效地对SAR图像进行高质量聚焦。
以上描述仅是本发明的一个具体事例,并未构成对本发明的任何限制,显然对于本领域的专业人员来说,在了解本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修改和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。
Claims (6)
1.一种基于深度学习的SAR自聚焦方法,其特征在于,包括:
(1)获取多幅粗聚焦SAR图像,将其按照4:1的比例随机划分为训练集和测试集;
(2)构建由八个卷积层和四个反卷积层依次级联组成的SAR自聚焦卷积神经网络,并将图像对比度损失函数loss1与相位一致损失函数loss2之和作为该神经网络的损失函数Loss,其中八个卷积层和前三个反卷积层后的激活函数同是ReLU函数,第四个反卷积层后的激活函数是线性函数;
(3)将单张粗聚焦SAR图像输入到构建的SAR自聚焦神经网络中,得到图像的二维相位误差预测值e-jθ,用图像的相位误差预测值对其粗聚焦图像的相位进行补偿,并计算补偿后的单张SAR图像通过该网络的损失函数值L;
(4)利用图像训练集对SAR自聚焦神经网络进行训练:
(4a)设学习率参数为0.0001;
(4b)从训练集随机抽取一张粗聚焦SAR图像,并将其送入(2)构建的SAR自聚焦神经网络中得到损失函数值L,利用L通过后向传播算法完成对该网络的权值更新;
(4c)重复步骤(4b),直至SAR自聚焦神经网络的损失函数Loss收敛,得到训练好的SAR图像精细配准的神经网络模型;
(5)将测试集中的粗聚焦SAR图像输入到训练好的网络模型中,得到聚焦后的SAR图像。
2.根据权利要求1所述的方法,其特征在于,(2)中构建的SAR自聚焦神经网络中的各层参数设置如下:
所述八个卷积层,其前四层卷积层输出特征图个数分别为32、64、128、256,卷积核尺寸依次为7×7、5×5、3×3、3×3,步长均为2×2;后四层卷积层输出的特征图个数均为256,卷积核尺寸均为3×3,步长均为1×1;
所述四个反卷积层,其前三个反卷积层的输出特征图个数分别为256、128、64,卷积核尺寸依次为3×3、3×3、5×5,步长均为2×2;最后一个反卷积层的输出特征图个数为1,卷积核尺寸为7×7,步长为2×2。
3.根据权利要求1所述的方法,其中(2)中的SAR自聚焦网络的图像对比度损失函数loss1,表示如下:
其中,E(·)为求期望函数,I是补偿后SAR图像。
4.根据权利要求1所述的方法,其中(2)中的SAR自聚焦网络的相位一致损失函数,表示如下:
其中,n=1,2,…N,N为多普勒单元的个数,m代表距离单元序号,m=1,2,…,M-1,M为距离像的个数。
5.根据权利要求1所述的方法,其特征在于,(3)中根据该网络预测的二维相位误差预测值对输入的粗聚焦图像进行相位补偿,实现步骤如下:
3a1)对输入的粗聚焦图像进行二维傅里叶逆变换得到二维频域数据S;
3a2)将二维频域数据S与通过预测得到的二维相位误差预测值e-jθ相乘,得到补偿后的频域数据X:
X=S·e-jθ
3a3)对X进行二维傅里叶变换得到补偿后的SAR图像。
6.根据权利要求1所述的方法,其特征在于,(3)中计算补偿后的单张SAR图像的损失函数值L:
L=l1+l2
其中,l1是单张粗聚焦图像通过图像对比度损失函数loss1计算出的值,l2是单张粗聚焦图像通过相位一致损失函数loss2计算出的值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110772455.5A CN113506233B (zh) | 2021-07-08 | 2021-07-08 | 基于深度学习的sar自聚焦方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110772455.5A CN113506233B (zh) | 2021-07-08 | 2021-07-08 | 基于深度学习的sar自聚焦方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113506233A CN113506233A (zh) | 2021-10-15 |
CN113506233B true CN113506233B (zh) | 2024-04-19 |
Family
ID=78011792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110772455.5A Active CN113506233B (zh) | 2021-07-08 | 2021-07-08 | 基于深度学习的sar自聚焦方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113506233B (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1652156A (zh) * | 2004-02-05 | 2005-08-10 | 中国科学院声学研究所 | 一种利用图像分块进行合成孔径声纳图像自聚焦的方法 |
WO2008021374A2 (en) * | 2006-08-15 | 2008-02-21 | General Dynamics Advanced Information Systems, Inc | Methods for two-dimensional autofocus in high resolution radar systems |
CN101833095A (zh) * | 2010-04-14 | 2010-09-15 | 电子科技大学 | 一种基于空域展开的星机联合sar二维频域成像方法 |
WO2013112225A1 (en) * | 2012-01-10 | 2013-08-01 | Raytheon Company | Sar autofocus for ground penetration radar |
CN104931967A (zh) * | 2015-06-12 | 2015-09-23 | 西安电子科技大学 | 一种改进的高分辨率sar成像自聚焦方法 |
CN105093225A (zh) * | 2015-08-25 | 2015-11-25 | 西安电子科技大学 | 基于双重稀疏约束的逆合成孔径雷达自聚焦成像方法 |
CN105676220A (zh) * | 2014-11-21 | 2016-06-15 | 中国航空工业集团公司雷华电子技术研究所 | 一种结合二维逆滤波的高分辨聚束sar自聚焦方法 |
WO2018028255A1 (zh) * | 2016-08-11 | 2018-02-15 | 深圳市未来媒体技术研究院 | 基于对抗网络的图像显著性检测方法 |
CN110441033A (zh) * | 2019-07-03 | 2019-11-12 | 中国科学院上海光学精密机械研究所 | 基于强度编码调制的相干组束图像测量装置及其测量方法 |
CN110728706A (zh) * | 2019-09-30 | 2020-01-24 | 西安电子科技大学 | 基于深度学习的sar图像精细配准方法 |
CN111123257A (zh) * | 2019-12-30 | 2020-05-08 | 西安电子科技大学 | 基于图时空网络的雷达动目标多帧联合检测方法 |
CN111145102A (zh) * | 2019-11-22 | 2020-05-12 | 南京理工大学 | 一种基于卷积神经网络的合成孔径雷达图像去噪方法 |
CN111223057A (zh) * | 2019-12-16 | 2020-06-02 | 杭州电子科技大学 | 基于生成对抗网络的增量式聚焦的图像到图像转换方法 |
WO2020224123A1 (zh) * | 2019-06-24 | 2020-11-12 | 浙江大学 | 一种基于深度学习的致痫灶三维自动定位系统 |
CN112880986A (zh) * | 2021-03-26 | 2021-06-01 | 北京理工大学 | 基于卷积神经网络的拼接式望远镜平移误差检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11514325B2 (en) * | 2018-03-21 | 2022-11-29 | The Regents Of The University Of California | Method and system for phase recovery and holographic image reconstruction using a neural network |
-
2021
- 2021-07-08 CN CN202110772455.5A patent/CN113506233B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1652156A (zh) * | 2004-02-05 | 2005-08-10 | 中国科学院声学研究所 | 一种利用图像分块进行合成孔径声纳图像自聚焦的方法 |
WO2008021374A2 (en) * | 2006-08-15 | 2008-02-21 | General Dynamics Advanced Information Systems, Inc | Methods for two-dimensional autofocus in high resolution radar systems |
CN101833095A (zh) * | 2010-04-14 | 2010-09-15 | 电子科技大学 | 一种基于空域展开的星机联合sar二维频域成像方法 |
WO2013112225A1 (en) * | 2012-01-10 | 2013-08-01 | Raytheon Company | Sar autofocus for ground penetration radar |
CN105676220A (zh) * | 2014-11-21 | 2016-06-15 | 中国航空工业集团公司雷华电子技术研究所 | 一种结合二维逆滤波的高分辨聚束sar自聚焦方法 |
CN104931967A (zh) * | 2015-06-12 | 2015-09-23 | 西安电子科技大学 | 一种改进的高分辨率sar成像自聚焦方法 |
CN105093225A (zh) * | 2015-08-25 | 2015-11-25 | 西安电子科技大学 | 基于双重稀疏约束的逆合成孔径雷达自聚焦成像方法 |
WO2018028255A1 (zh) * | 2016-08-11 | 2018-02-15 | 深圳市未来媒体技术研究院 | 基于对抗网络的图像显著性检测方法 |
WO2020224123A1 (zh) * | 2019-06-24 | 2020-11-12 | 浙江大学 | 一种基于深度学习的致痫灶三维自动定位系统 |
CN110441033A (zh) * | 2019-07-03 | 2019-11-12 | 中国科学院上海光学精密机械研究所 | 基于强度编码调制的相干组束图像测量装置及其测量方法 |
CN110728706A (zh) * | 2019-09-30 | 2020-01-24 | 西安电子科技大学 | 基于深度学习的sar图像精细配准方法 |
CN111145102A (zh) * | 2019-11-22 | 2020-05-12 | 南京理工大学 | 一种基于卷积神经网络的合成孔径雷达图像去噪方法 |
CN111223057A (zh) * | 2019-12-16 | 2020-06-02 | 杭州电子科技大学 | 基于生成对抗网络的增量式聚焦的图像到图像转换方法 |
CN111123257A (zh) * | 2019-12-30 | 2020-05-08 | 西安电子科技大学 | 基于图时空网络的雷达动目标多帧联合检测方法 |
CN112880986A (zh) * | 2021-03-26 | 2021-06-01 | 北京理工大学 | 基于卷积神经网络的拼接式望远镜平移误差检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113506233A (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108428220B (zh) | 静止轨道卫星序列遥感影像海岛礁区域自动几何校正方法 | |
CN104251990B (zh) | 合成孔径雷达自聚焦方法 | |
CN110109112B (zh) | 一种基于InSAR的填海地区机场形变监测方法 | |
CN106054188B (zh) | 无人机合成孔径雷达成像的图像偏移自聚焦方法 | |
CN110728706B (zh) | 基于深度学习的sar图像精细配准方法 | |
CN114966693B (zh) | 基于深度学习的机载舰船目标isar精细化成像方法 | |
CN110954860B (zh) | 一种doa和极化参数估计方法 | |
CN111551934A (zh) | 一种用于无人机载sar成像的运动补偿自聚焦方法与装置 | |
Yu et al. | Application of a convolutional autoencoder to half space radar hrrp recognition | |
CN113506233B (zh) | 基于深度学习的sar自聚焦方法 | |
CN117436329A (zh) | 一种基于机器学习的合成孔径雷达图像风向反演方法 | |
CN106908790A (zh) | 一种机载sar雷达速度的优化估计方法 | |
CN116659684A (zh) | 星载综合孔径微波辐射计海陆污染误差校正方法 | |
CN106872979A (zh) | 基于海面起伏目标sar图像再聚焦的海浪参数获取方法 | |
CN116243313A (zh) | 一种基于距离分区的sar快速智能稀疏自聚焦技术 | |
Ma et al. | A Method for Establishing Tropospheric Atmospheric Refractivity Profile Model Based on Multiquadric RBF and k-means Clustering | |
CN115079175A (zh) | 一种基于SE-Unet的合成孔径雷达欠采样成像方法 | |
Kang et al. | Robust calibration method for distributed ISAR time‐varying frequency errors based on the contrast maximisation principle | |
CN105759266B (zh) | 一种基于图形处理单元的sar雷达回波获取方法 | |
Wang et al. | An accelerate FFBP algorithm of bistatic forward-looking SAR based on azimuth equidistant coordinates | |
CN107219524B (zh) | 一种基于全局最小相位近似的sar成像优化方法 | |
CN114879188B (zh) | 模型自适应的深度学习sar三维成像方法 | |
CN117969881B (zh) | 基于遥感数据反演台风海况海面风速的方法、装置及介质 | |
CN115047420B (zh) | 一种基于微波光子信号和改进粒子群的电磁参数估计方法 | |
CN108226929A (zh) | 一种正侧视sar慢速目标的检测方法及检测系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |