CN109991602A - 基于深度残差网络的isar图像分辨率增强方法 - Google Patents
基于深度残差网络的isar图像分辨率增强方法 Download PDFInfo
- Publication number
- CN109991602A CN109991602A CN201910284674.1A CN201910284674A CN109991602A CN 109991602 A CN109991602 A CN 109991602A CN 201910284674 A CN201910284674 A CN 201910284674A CN 109991602 A CN109991602 A CN 109991602A
- Authority
- CN
- China
- Prior art keywords
- network
- isar
- depth
- resnet
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明属于雷达信号处理领域,特别涉及一种基于深度残差网络的ISAR图像分辨率增强方法。包括以下步骤:S1,生成训练数据集和验证数据集;S2,实现深度ResNet网络架构;S3,训练深度ResNet网络,使用的数据集为S1生成的训练数据集;S4,计算深度ResNet网络的MSE,使用的数据集为S1生成的验证数据集;S5,调整网络架构,增加ResNet的ResBlock个数n,重复S3、S4,比较验证数据集上的MSE,当MSE无明显下降时,选取对应n值作为网络的ResBlock个数。与传统的ISAR分辨率增强技术相比,该方法可以同时进行距离向和方位向分辨率增强,得到更高质量的ISAR像;该方法不需要进行模型参数求解,有效解决了谱估计和稀疏表示方法中容易产生假点的问题,提高了散射点的估计精度和稳健性。
Description
技术领域
本发明属于雷达信号处理领域,涉及一种ISAR图像分辨率增强方法,特别是一种基于深度残差网络的ISAR图像分辨率增强方法。
背景技术
逆合成孔径雷达(Inverse Synthetic Aperture Radar,ISAR)作为一种高分辨率的微波成像系统,广泛应用于防空反导、空间监视、海面监视等领域。雷达像分辨率越高,从雷达像中获得的目标局部精细结构和尺寸信息越丰富,因此提高空间分辨率对ISAR成像具有重要意义。ISAR成像的距离向和方位向分辨率分别由雷达发射信号的带宽和成像观测角度范围决定。常用的ISAR像分辨率增强的方法主要有两种:一是通过增加雷达系统发射信号带宽和观测角度范围来提高距离向分辨率和方位向分辨率,但该方法受到成本、器件、功耗、设备体积等多方面的限制;二是利用带宽外推技术、参数谱估计及稀疏重构等信号处理的方法。带宽外推和参数谱估计方法受模型和参数的影响大,散射点估计精度低,容易产生虚假点,尤其对弱散射点的恢复能力不好,而且带宽外推方法只适用于距离向分辨率增强。理论上,参数谱估计和稀疏重构方法可以同时实现距离向和方位向分辨率增强,但需要进行模型近似和复杂的矩阵分解运算,且成像效果对噪声敏感,实用效果欠佳。
发明内容
本发明要解决的技术问题是利用深度学习方法,提供一种基于深度残差网络的ISAR图像分辨率增强方法,该方法能同时增强ISAR像距离向和方位向分辨率。
为解决以上技术问题,本发明的方法是:一种基于深度残差网络的ISAR图像分辨率增强方法,该方法利用深度残差网络(Residual Network,ResNet)学习低分辨ISAR像和高分辨ISAR像之间关于点扩散函数(Point-spread Function,PSF)的映射关系,而后将低分辨ISAR像作为输入即可输出高分辨ISAR像,实现ISAR图像的分辨率增强。
具体实现步骤如下:
S1生成训练数据集和验证数据集
利用仿真软件(例如MATLAB)生成训练数据集和验证数据集(CanerInverse synthetic aperture radar imaging with matlab algorithms,John Wiley&Sons,Inc.,Hoboken,New Jersey.2012.),数据集中每个样本对包含一幅低分辨ISAR像和一幅高分辨ISAR像。
具体生成过程如下:
S1.1随机产生二维散射中心模型;
S1.2根据设定的中心频率、带宽等雷达参数生成模型的低分辨率(LowResolution,LR)回波,并对其进行快速傅里叶变换(Fast Fourier Transform,FFT),产生LR图像作为ResNet网络的输入;
S1.3将散射中心模型与高分辨率(High Resolution,HR)雷达的PSF相卷积得到对应的HR图像作为ResNet网络的标签,其中PSF为:
其中,fc表示雷达中心频率,B表示雷达带宽,Ω表示成像总转角,c表示光速,Φc表示雷达视线与y轴夹角中心值,(x,y)表示散射中心的坐标;
S2实现深度ResNet网络架构
利用编程的方法实现深度ResNet网络架构,设定网络的学习率、批次大小、epoch等超参数,并随机初始化网络权值和偏置。批次大小(batch size)指每一次迭代使用的样本数,设置为5。学习率是指根据MSE对各个权重的导数来更新权重的速率,设置为10-5。epoch指所有样本重复训练的轮次,设置为10。
该深度ResNet网络使用去除批正则化(Batch Normalization,BN)的残差块(Residual Block,ResBlock)架构,保存了ISAR图像的原始对比度信息,并使用参数化修正线性单元(Parametric Rectified Linear Unit,PReLU)作为激活函数,适应性地学习部分负系数,在训练的过程中将复图像数据分为两个通道输入,同时学习ISAR像的幅度和相位信息。所述深度ResNet网络基于TensorFlow框架编程实现,具体实现过程如下:
S2.1搭建ResNet网络输入模块:将ResNet网络输入通过一个卷积层和一个PReLU函数后,得到输入模块的输出X并赋给下一层网络;
S2.2搭建ResBlock残差模块:将ResBlock的输入依次通过一个卷积层、一个修正线性单元(Rectified Linear Unit,ReLU)函数、一个卷积层后与ResBlock的输入相加作为ResBlock的输出;
S2.3将X通过串联的n(n的初始值设为4)个ResBlock后,再通过一个卷积层得到的结果与X相加后赋给ResNet网络输出模块;
S2.4搭建ResNet网络输出模块:将S2.3得到的输出通过一个卷积层后得到ResNet网络的最终输出。
S3训练深度ResNet网络
训练过程在一块NVIDIA 1080GPU上进行,训练时间控制在6h以内。将训练数据集中的低分辨ISAR像作为输入,高分辨ISAR像作为标签,使用Adam(adaptive momentestimation)优化方法对深度ResNet网络进行训练,迭代更新网络的权值和偏置参数。
S4计算深度ResNet网络的MSE
完成深度ResNet网络训练后,需要用验证数据集对其性能进行评估。将验证数据集中的低分辨ISAR像输入给ResNet网络,计算其输出与高分辨ISAR像标签之间的MSE(MeanSquare Error,MSE),这里的均方误差是指对两幅图像所有对应的像素差值的平方求和再取均值。
S5调整网络架构
增加深度ResNet网络的ResBlock个数n(每次增加2),重复S3、S4,比较验证数据集上的MSE,当MSE无明显下降时,选取对应n值作为网络的ResBlock个数。
实验表明,n大于12时,MSE下降不明显。综合考虑计算效率和网络泛化性能,本发明选取n等于12,此时ResNet网络对ISAR像分辨率增强的综合性能最佳。
本发明的有益效果:
1.本发明利用深度ResNet网络学习低分辨ISAR像和高分辨ISAR像之间关于点扩散函数的映射关系,进而重建高分辨ISAR像。与传统的ISAR分辨率增强技术相比,该方法可以同时进行距离向和方位向分辨率增强,得到更高质量的ISAR像;
2.该方法利用深度ResNet网络自动学习样本数据的分布和高低分辨ISAR像点扩展函数之间的对应关系,不需要进行模型参数求解,有效解决了谱估计和稀疏表示方法中容易产生假点的问题,提高了散射点的估计精度和稳健性;
3.该方法所用深度ResNet网络架构和参数由训练过程自动生成,不需要事先进行模型与参数的选取。
附图说明
图1是本发明实现的流程图;
图2是生成训练数据集与验证数据集的流程图;
图3是本发明的深度ResNet网络架构图;
图4是本发明对距离向分辨率增强的效果图;
图5是本发明对方位向分辨率增强的效果图;
图6是无噪声情况下,用常用理论点散射飞机模型的测试结果;
图7是对转台成像装置上的飞机模型进行测量的实验结果。
具体实施方式
下面结合附图对本发明的实施方式进行详细说明。
图1是本发明实现的流程图。S1,生成训练数据集和验证数据集,根据文章“Inverse synthetic aperture radar imaging with matlab algorithms”中训练数据生成的方法基于MATLAB生成本发明所需的数据集,具体步骤见图2;S2,实现深度ResNet网络架构;S3,训练深度ResNet网络,使用的数据集为S1生成的训练数据集;S4,计算深度ResNet网络的MSE,使用的数据集为S1生成的验证数据集;S5,调整网络架构,增加ResNet的ResBlock个数n(每次增加2),重复S3、S4,比较验证数据集上的MSE,当MSE无明显下降时,选取对应n值作为网络的ResBlock个数。实验表明n大于12时,MSE下降不明显,故最终深度ResNet网络的ResBlock个数选择为12。
图2是S1生成训练数据集与验证数据集的流程图。S1又分为以下几个步骤:S1.1随机产生二维散射中心模型;在二维平面上的正方形区域内随机产生m个点,m是随机的正整数,每个点的二维坐标和散射系数也是随机的;S1.2根据设定的中心频率、带宽等雷达参数生成模型的低分辨率(Low Resolution,LR)回波,并对其进行快速傅里叶变换(FastFourier Transform,FFT),产生LR图像作为ResNet网络的输入;S1.3将散射中心模型与高分辨率(High Resolution,HR)雷达的点扩散函数、PSF相卷积得到对应的HR图像作为ResNet网络的标签。其中PSF为:
图3是本发明S2实现的深度ResNet网络的架构图,深度ResNet网络的构建步骤如下:
S2.1搭建ResNet网络输入模块:将ResNet网络输入通过一个卷积层和一个PReLU函数后,得到输入模块的输出X并赋给下一层网络;
S2.2搭建ResBlock残差模块:将ResBlock的输入依次通过一个卷积层、一个修正线性单元(Rectified Linear Unit,ReLU)函数、一个卷积层后与ResBlock的输入相加作为ResBlock的输出;
S2.3将X通过串联的n(n的初始值设为4)个ResBlock后,再通过一个卷积层得到的结果与X相加后赋给ResNet网络输出模块;
S2.4搭建ResNet网络输出模块:将S2.3得到的输出通过一个卷积层后得到ResNet网络的最终输出。
图4是本发明对距离向分辨率增强的效果图。其中(a)为沿距离向分布的两个理想散射点和点扩展函数卷积得到的图像;(b)为对理想散射点的仿真雷达回波直接进行FFT得到的低分辨ISAR图像;(c)是将(b)利用本发明的ResNet网络输出的高分辨ISAR图像。
图5是本发明对方位向分辨率增强的效果图。其中(a)为方位向的两散射点分布;(b)对雷达回波直接进行FFT得到的低分辨ISAR图像;(c)是利用本发明的ResNet网络输出的高分辨ISAR图像。
图6是无噪声情况下,用常用理论点散射飞机模型的测试结果。其中(a)理论点散射模型的散射点分布;(b)对雷达回波直接进行FFT得到的低分辨ISAR图像;(c)是利用SPGL1稀疏方法重构的高分辨图像;(d)是本发明的ResNet网络输出的高分辨ISAR图像。图像均以对数幅度方式显示,动态范围为35dB。可以看出本发明所述深度ResNet网络方法确实可以提高ISAR像的分辨率,相比于稀疏方法SPGL1,没有产生假散射点,提高了散射点的估计精度。
图7是对转台成像装置上飞机模型进行测量的实验结果。频率范围为213.6GHz至226.4GHz,旋转角约为3.4°。理论上距离向分辨率和方位向分辨率分别为1.17cm和1.15cm,将σx和σy均设置为0.35cm,根据分辨率的-3dB定义,可知理论上期望图像的距离向分辨率和方位向分辨率约为0.49cm,距离向超分辨倍数约为2.40倍,方位向超分辨倍数约为2.36倍。
其中(a)为该飞机模型;(b)为对雷达回波直接进行二维FFT所得的低分辨ISAR图像;(c)是利用SPGL1稀疏方法重构的高分辨图像;(d)是本发明的ResNet网络输出的高分辨ISAR图像。本发明的ResNet网络方法与SPGL1比较,除了图像更清晰、不产生假点等优点外,还具有效率高的优点,SPGL1需要约39.5秒来产生输出图像,而ResNet网络方法只需要大约4.5秒,这是因为本发明的ResNet网络避免了稀疏恢复中最耗时的迭代过程。
Claims (7)
1.一种基于深度残差网络的ISAR图像分辨率增强方法,其特征在于:该方法利用深度残差网络学习低分辨ISAR像和高分辨ISAR像之间关于点扩散函数的映射关系,而后将低分辨ISAR像作为输入即可输出高分辨ISAR像,实现ISAR图像的分辨率增强;
具体实现步骤如下:
S1生成训练数据集和验证数据集
利用仿真软件生成训练数据集和验证数据集,数据集中每个样本对包含一幅低分辨ISAR像和一幅高分辨ISAR像;
S2实现深度ResNet网络架构
利用编程的方法实现深度ResNet网络架构,设定网络的学习率、批次大小、epoch这些超参数,并随机初始化网络权值和偏置;
所述深度ResNet网络基于TensorFlow框架编程实现,具体实现过程如下:
S2.1搭建ResNet网络输入模块:将ResNet网络输入通过一个卷积层和一个PReLU函数后,得到输入模块的输出X并赋给下一层网络;
S2.2搭建ResBlock残差模块:将ResBlock的输入依次通过一个卷积层、一个修正线性单元函数、一个卷积层后与ResBlock的输入相加作为ResBlock的输出;
S2.3将X通过串联的n个ResBlock后,再通过一个卷积层,得到的结果与X相加后赋给ResNet网络输出模块;
S2.4搭建ResNet网络输出模块:将S2.3得到的输出通过一个卷积层后得到ResNet网络的最终输出;
S3训练深度ResNet网络
将训练数据集中的低分辨ISAR像作为输入,高分辨ISAR像作为标签,使用Adam优化方法对深度ResNet网络进行训练,迭代更新网络的权值和偏置参数;
S4计算深度ResNet网络的MSE
完成深度ResNet网络训练后,需要用验证数据集对其性能进行评估;将验证数据集中的低分辨ISAR像输入给ResNet网络,计算其输出与高分辨ISAR像标签之间的MSE;
S5调整网络架构
增加深度ResNet网络的ResBlock个数n,重复S3、S4,比较验证数据集上的MSE,当MSE无明显下降时,选取对应n值作为网络的ResBlock个数。
2.一种根据权利要求1所述基于深度残差网络的ISAR图像分辨率增强方法,其特征在于:S1生成训练数据集和验证数据集的具体过程如下:
S1.1随机产生二维散射中心模型;
S1.2根据设定的中心频率、带宽雷达参数生成模型的低分辨率回波,并对其进行快速傅里叶变换,产生LR图像作为ResNet网络的输入;
S1.3将散射中心模型与高分辨率雷达的PSF相卷积得到对应的HR图像作为ResNet网络的标签,其中PSF为:
其中,fc表示雷达中心频率,B表示雷达带宽,Ω表示成像总转角,c表示光速,Φc表示雷达视线与y轴夹角中心值,(x,y)表示散射中心的坐标。
3.一种根据权利要求1所述基于深度残差网络的ISAR图像分辨率增强方法,其特征在于:S2中,批次大小设置为5,学习率设置为10-5,epoch设置为10。
4.一种根据权利要求1所述基于深度残差网络的ISAR图像分辨率增强方法,其特征在于:S2.3中,n的初始值设为4。
5.一种根据权利要求1所述基于深度残差网络的ISAR图像分辨率增强方法,其特征在于:S3中,训练过程在一块NVIDIA 1080 GPU上进行,训练时间控制在6h以内。
6.一种根据权利要求1所述基于深度残差网络的ISAR图像分辨率增强方法,其特征在于:S5中,ResBlock个数n每次增加2。
7.一种根据权利要求1所述基于深度残差网络的ISAR图像分辨率增强方法,其特征在于:ResBlock个数n等于12时,ResNet网络对ISAR像分辨率增强的综合性能最佳。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910284674.1A CN109991602A (zh) | 2019-04-10 | 2019-04-10 | 基于深度残差网络的isar图像分辨率增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910284674.1A CN109991602A (zh) | 2019-04-10 | 2019-04-10 | 基于深度残差网络的isar图像分辨率增强方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109991602A true CN109991602A (zh) | 2019-07-09 |
Family
ID=67132774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910284674.1A Pending CN109991602A (zh) | 2019-04-10 | 2019-04-10 | 基于深度残差网络的isar图像分辨率增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109991602A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110244303A (zh) * | 2019-07-12 | 2019-09-17 | 中国人民解放军国防科技大学 | 基于sbl-admm的稀疏孔径isar成像方法 |
CN110929811A (zh) * | 2019-10-21 | 2020-03-27 | 北京理工大学 | 一种获取全波形激光雷达高分辨率数据的深度学习方法 |
CN111781598A (zh) * | 2020-07-10 | 2020-10-16 | 西安电子科技大学 | 基于dsn的高分辨二维isar成像方法 |
CN113312180A (zh) * | 2021-06-07 | 2021-08-27 | 北京大学 | 一种基于联邦学习的资源分配优化方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107657586A (zh) * | 2017-10-13 | 2018-02-02 | 深圳市唯特视科技有限公司 | 一种基于深度残差网络的单照片超分辨增强方法 |
CN108629736A (zh) * | 2017-03-15 | 2018-10-09 | 三星电子株式会社 | 用于设计超分辨率深度卷积神经网络的系统和方法 |
CN109345476A (zh) * | 2018-09-19 | 2019-02-15 | 南昌工程学院 | 基于深度残差网络的高光谱图像超分辨率重建方法及装置 |
CN109345449A (zh) * | 2018-07-17 | 2019-02-15 | 西安交通大学 | 一种基于融合网络的图像超分辨率及去非均匀模糊方法 |
CN109472743A (zh) * | 2018-10-25 | 2019-03-15 | 中国科学院电子学研究所 | 遥感图像的超分辨率重建方法 |
CN109509152A (zh) * | 2018-12-29 | 2019-03-22 | 大连海事大学 | 一种基于特征融合的生成对抗网络的图像超分辨率重建方法 |
US20190095795A1 (en) * | 2017-03-15 | 2019-03-28 | Samsung Electronics Co., Ltd. | System and method for designing efficient super resolution deep convolutional neural networks by cascade network training, cascade network trimming, and dilated convolutions |
-
2019
- 2019-04-10 CN CN201910284674.1A patent/CN109991602A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629736A (zh) * | 2017-03-15 | 2018-10-09 | 三星电子株式会社 | 用于设计超分辨率深度卷积神经网络的系统和方法 |
US20190095795A1 (en) * | 2017-03-15 | 2019-03-28 | Samsung Electronics Co., Ltd. | System and method for designing efficient super resolution deep convolutional neural networks by cascade network training, cascade network trimming, and dilated convolutions |
CN107657586A (zh) * | 2017-10-13 | 2018-02-02 | 深圳市唯特视科技有限公司 | 一种基于深度残差网络的单照片超分辨增强方法 |
CN109345449A (zh) * | 2018-07-17 | 2019-02-15 | 西安交通大学 | 一种基于融合网络的图像超分辨率及去非均匀模糊方法 |
CN109345476A (zh) * | 2018-09-19 | 2019-02-15 | 南昌工程学院 | 基于深度残差网络的高光谱图像超分辨率重建方法及装置 |
CN109472743A (zh) * | 2018-10-25 | 2019-03-15 | 中国科学院电子学研究所 | 遥感图像的超分辨率重建方法 |
CN109509152A (zh) * | 2018-12-29 | 2019-03-22 | 大连海事大学 | 一种基于特征融合的生成对抗网络的图像超分辨率重建方法 |
Non-Patent Citations (3)
Title |
---|
YING TAI等: ""Image super-resolution via deep recursive residual network"", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
李程远: ""基于深度学习的SAR图像超分辨研究"", 《中国优秀硕士学位论文全文数据库工程科技辑||辑》 * |
码迷: "《http://www.mamicode.com/info-detail-2278503.html》", 1 May 2018 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110244303A (zh) * | 2019-07-12 | 2019-09-17 | 中国人民解放军国防科技大学 | 基于sbl-admm的稀疏孔径isar成像方法 |
CN110244303B (zh) * | 2019-07-12 | 2020-12-25 | 中国人民解放军国防科技大学 | 基于sbl-admm的稀疏孔径isar成像方法 |
CN110929811A (zh) * | 2019-10-21 | 2020-03-27 | 北京理工大学 | 一种获取全波形激光雷达高分辨率数据的深度学习方法 |
CN110929811B (zh) * | 2019-10-21 | 2023-07-28 | 北京理工大学 | 一种获取全波形激光雷达高分辨率数据的深度学习方法 |
CN111781598A (zh) * | 2020-07-10 | 2020-10-16 | 西安电子科技大学 | 基于dsn的高分辨二维isar成像方法 |
CN111781598B (zh) * | 2020-07-10 | 2023-03-14 | 西安电子科技大学 | 基于dsn的高分辨二维isar成像方法 |
CN113312180A (zh) * | 2021-06-07 | 2021-08-27 | 北京大学 | 一种基于联邦学习的资源分配优化方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109991602A (zh) | 基于深度残差网络的isar图像分辨率增强方法 | |
CN107462887B (zh) | 基于压缩感知的宽幅星载合成孔径雷达成像方法 | |
US20210034921A1 (en) | Systems and methods for generating augmented training data for machine learning models | |
WO2023045431A1 (zh) | 逆合成孔径雷达成像方法、装置、电子设备及存储介质 | |
CN107390216B (zh) | 基于波数域相干因子的高速超分辨率驻点扫描成像方法 | |
CN110880196B (zh) | 基于深度学习的肿瘤光声图像快速重建方法及装置 | |
CN103149561A (zh) | 一种基于场景块稀疏的稀疏微波成像方法 | |
CN106569191A (zh) | 一种利用高分辨率成像获取目标rcs的方法 | |
CN110609282B (zh) | 基于后向投影的太赫兹孔径编码三维成像方法及装置 | |
CN108957448B (zh) | 一种基于广义全变差正则化的雷达关联成像方法 | |
CN109343003B (zh) | 一种快速迭代收缩波束形成声源识别方法 | |
CN108008389A (zh) | 一种基于gpu的快速频域后向投影三维成像方法 | |
CN114972041B (zh) | 基于残差网络的极化雷达图像超分辨率重建方法和装置 | |
CN107578455A (zh) | 基于卷积神经网络的任意尺寸样本纹理合成方法 | |
CN104251991A (zh) | 一种基于稀疏度估计的分维度阈值迭代稀疏微波成像方法 | |
CN116718998B (zh) | 毫米波随机稀疏阵列生成方法、装置、存储介质 | |
CN108095756A (zh) | 一种基于sofi的超高分辨平面波超声成像方法 | |
CN112147608A (zh) | 一种快速高斯网格化非均匀fft穿墙成像雷达bp方法 | |
CN114428249B (zh) | 非高斯海面sar成像方法 | |
CN109766646B (zh) | 一种基于稀疏通道回波数据重建的超声成像方法及装置 | |
Lang et al. | Undersampled MRI reconstruction based on spectral graph wavelet transform | |
CN113466864A (zh) | 快速联合免逆稀疏贝叶斯学习超分辨isar成像算法 | |
CN116659684A (zh) | 星载综合孔径微波辐射计海陆污染误差校正方法 | |
CN105068071B (zh) | 一种基于反投影算子的快速成像方法 | |
CN116597077A (zh) | 一种基于深度展开网络的扫描雷达场景重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190709 |
|
RJ01 | Rejection of invention patent application after publication |