CN115358924A - 一种深度学习星载微波辐射计遥感亮温超分辨率重建方法 - Google Patents

一种深度学习星载微波辐射计遥感亮温超分辨率重建方法 Download PDF

Info

Publication number
CN115358924A
CN115358924A CN202210829471.8A CN202210829471A CN115358924A CN 115358924 A CN115358924 A CN 115358924A CN 202210829471 A CN202210829471 A CN 202210829471A CN 115358924 A CN115358924 A CN 115358924A
Authority
CN
China
Prior art keywords
brightness temperature
resolution
microwave
super
temperature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210829471.8A
Other languages
English (en)
Inventor
殷晓斌
单鼎
徐青
李炎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ocean University of China
Original Assignee
Ocean University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ocean University of China filed Critical Ocean University of China
Priority to CN202210829471.8A priority Critical patent/CN115358924A/zh
Publication of CN115358924A publication Critical patent/CN115358924A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Radiation Pyrometers (AREA)

Abstract

本发明属于星载微波辐射计遥感亮温处理技术领域,公开了一种深度学习星载微波辐射计遥感亮温超分辨率重建方法,包括构建微波亮温超分辨率数据集;构建微波亮温超分辨率模型MW‑SRUNet:编码器部分通过反卷积对原始亮温进行上采样,通过卷积、池化提取地球表面地物亮温信息,生成特征矩阵;解码器部分通过多次反卷积把亮温恢复至原始亮温的尺寸;使用地球表面亮温变化剧烈区域自定义损失函数进行模型的训练,减少异常值对模型训练的影响,使用自定义评价函数对模型训练过程进行评价,直观了解模型超分辨率性能;模型的输出即为重建后的高分辨率微波亮温。本发明解决了微波亮温分辨率低的问题,实现了微波亮温的4倍超分辨率重建。

Description

一种深度学习星载微波辐射计遥感亮温超分辨率重建方法
技术领域
本发明属于星载微波辐射计亮温处理技术领域,特别涉及一种深度学习星载微波辐射计遥感亮温超分辨率重建方法。
背景技术
高分辨率的地球表面亮温对于地球系统变化研究具有重要作用。由于天线尺寸和卫星重量受到限制,星载微波辐射计遥感亮温的分辨率通常都比较低,使得数据无法得到充分使用,因此需要提高微波遥感亮温分辨率。
提升微波辐射计遥感亮温的空间分辨率主要有两种措施:一方面是从载荷物理技术角度,提升载荷辐射计的天线的口径,从而得到主波束效率高、半功率宽度较小的天线方向图的载荷天线。但是星载微波辐射计天线口径受制于平台空间的限制,存在口径大小的极限,且由于航天设备的特殊性,使其具有研发周期长,耗资高的特点。此外,大尺寸的天线会增加卫星的重量,在卫星工作中大天线的形变、抖动等因素会影响微波辐射计亮温的质量。从卫星系统设计的角度来看,不能为了提升空间分辨率而无限制增加天线的口径,并且硬件设备受到工业技术的限制,也已趋近于极限。另一方面则是从数据处理的角度,提升微波辐射计亮温的空间分辨率。通过各种超分辨率的算法,将高分辨率的亮温通过反卷积技术恢复出来,即超分辨率亮温重建技术,该技术能在不改变物理天线尺寸的限制下,获取更高分辨率的亮温。但是现有超分辨率亮温重建方法在处理微波亮温时效果差,无法实现高分辨率的重建。
发明内容
针对现有技术存在的不足,本发明提供一种深度学习星载微波辐射计遥感亮温超分辨率重建方法,有效提升微波亮温的分辨率,实现4倍超分辨率重建。
为了解决上述技术问题,本发明采用的技术方案是:
一种深度学习星载微波辐射计遥感亮温超分辨率重建方法,包括以下步骤:
S1、构建微波亮温超分辨率数据集;
S2、基于步骤S1的微波亮温超分辨率数据集构建基于UNet的深度卷积神经网络微波亮温超分辨率模型MW-SRUNet(Microwave Super Resolution UNet):将UNet网络引入微波亮温超分辨率模型,所述微波亮温超分辨率模型MW-SRUNet包括编码器部分和解码器部分,在编码器部分,首先通过反卷积对原始亮温进行上采样,然后通过卷积、池化提取地球表面地物亮温信息,生成特征矩阵;解码器部分的网络结构是编码器结构的镜像,通过反卷积把亮温恢复至原始亮温的尺寸;
S3、将原始低分辨率微波亮温输入步骤S2构建的微波亮温超分辨率模型MW-SRUNet,模型的输出即为重建后的高分辨率微波亮温。
进一步的,步骤S1中的数据集为高-低分辨率亮温匹配数据集,低分辨率亮温为微波辐射计原始亮温,高分辨率亮温为对应区域分辨率增强型亮温,具体包括:
S101:将全球微波亮温进行掩膜,只保留有亮温值的区域;
S102:将全球微波亮温的有值区域进行切块以建立超分辨率数据集,其中:将低分辨率亮温切块,像元大小设置为n1×n1,则对应的高分辨率亮温块大小为n2×n2,n2=4n1
S103:将切块的全球微波亮温进行顺序统计滤波,以对亮温进行批量截取,并且可以设置截取歩长以降低亮温块之间的重复性;
S104:将预处理得到的全球微波亮温块按照测量时间进行迭代连接,使数据以三维矩阵形式储存,第一维为样本数,第二维和第三维为亮温的长和宽,构建用于微波亮温超分辨率模型MW-SRUNet的高-低分辨率亮温匹配数据集。
进一步的,步骤S2具体包括:
S201:微波亮温超分辨率模型MW-SRUNet训练过程中,将步骤S1构建的微波亮温超分辨率数据集的70%用于训练,20%作为验证集对迭代的参数进行验证,保存验证集误差最小的模型,余下10%数据作为模型的预测集;
S202:微波亮温超分辨率模型MW-SRUNet基于Tensorflow-Keras框架实现,优化方法使用Adam,回调函数使用Reduce LR On Plateau,用于自适应调整学习率;
S203:使用地球表面亮温变化剧烈区域自定义损失函数进行模型的训练,以减少异常值对模型训练的影响,并且可以使网络的收敛性更好,损失函数公式具体如下:
Figure BDA0003747628590000021
式中,N为亮温中的像元个数,Ii是从真实数据中采样的高分辨率亮温,
Figure BDA0003747628590000022
表示重建的高分辨率亮温;
S204:使用自定义评价函数对模型训练过程进行评价,以更直观地了解模型训练过程中超分辨率性能,评价函数公式具体如下:
Figure BDA0003747628590000031
Figure BDA0003747628590000032
式中,L表示亮温中像素值中的最大值,MSE表示高分辨率亮温与低分辨率亮温之间的均方误差。
进一步的,微波亮温超分辨率模型MW-SRUNet的输入层为24×24个像素的低分辨率亮温,输出层为96×96的高分辨率亮温,在编码器部分,首先通过两次2×2反卷积对原始亮温进行4倍上采样,然后通过4次卷积、池化提取地球表面地物亮温信息,生成特征矩阵;在解码器部分,通过4次反卷积把亮温恢复至96×96,获得微波亮温的4倍超分辨率重建亮温。
与现有技术相比,本发明优点在于:
(1)本发明构建的微波亮温超分辨率数据集,可以用于全球范围的微波亮温超分辨率重建,可为今后微波亮温的超分辨率工作提供数据支撑,拓展了星载微波辐射计亮温数据在地球系统变化中的应用研究。
(2)本发明的微波亮温超分辨率模型MW-SRUNet,基于UNet网络设计,增加了网络层数可以学习更深层的地球表面地物亮温特征;引入反卷积层对亮温进行自适应的上采样,直接以低分辨率亮温作为网络的输入,构建端到端网络结构,从而能够更加明确地学习地球表面地物亮温的本源信息;通过跳层连接,在上采样过程中融合下采样过程中的特征矩阵,该方法有助于减少由于下采样的数据流中的分辨率降低而导致的信息丢失;使用地球表面亮温变化剧烈区域自定义损失函数进行模型的训练,以减少较大的异常值对模型训练的影响,并且可以使网络的收敛性更好;使用自定义评价函数对模型训练过程进行评价,以更直观地了解模型训练过程中超分辨率性能。
(3)本发明解决了微波亮温分辨率低的问题,成功将36km分辨率的微波亮温提升至9km,实现了微波亮温的4倍超分辨率重建,应用范围广,陆地和海洋亮温分辨率都可以提升。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中深度学习星载微波辐射计遥感亮温超分辨率重建方法的流程示意图;
图2为本发明实施例中微波亮温超分辨率模型MW-SRUNet的网络结构图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步的说明。
实施例1
结合图1、图2,一种深度学习星载微波辐射计遥感亮温超分辨率重建方法,包括以下步骤:
S1、构建微波亮温超分辨率数据集。
该数据集为高-低分辨率亮温匹配数据集,低分辨率亮温为微波辐射计原始亮温,高分辨率亮温为对应区域分辨率增强型亮温。具体包括:
S101:将全球微波亮温进行掩膜,只保留有亮温值的区域。
S102:将全球微波亮温的有值区域进行切块以建立超分辨率数据集。其中:将低分辨率亮温切块,像元大小设置为n1×n1,则对应的高分辨率亮温块大小为n2×n2,n2=4n1
S103:将切块的全球微波亮温进行顺序统计滤波,以对亮温进行批量截取,并且可以设置截取歩长以降低亮温块之间的重复性。
S104:将预处理得到的全球微波亮温块按照测量时间进行迭代连接,使数据以三维矩阵形式储存,第一维为样本数,第二维和第三维为亮温的长和宽。构建用于微波亮温超分辨率模型MW-SRUNet(Microwave Super Resolution UNet)的高-低分辨率亮温匹配数据集。
S2、基于步骤S1的微波亮温超分辨率数据集构建基于UNet的深度卷积神经网络微波亮温超分辨率模型MW-SRUNet(Microwave Super Resolution UNet)。
本发明将UNet网络引入微波亮温超分辨率模型,实现微波亮温超分辨率任务,建立微波亮温超分辨率模型MW-SRUNet。如图2所示,所述微波亮温超分辨率模型MW-SRUNet包括编码器部分和解码器部分,在编码器部分,首先通过反卷积对原始亮温(即低分辨率亮温)进行上采样,然后通过卷积、池化提取地球表面地物亮温信息,生成特征矩阵;解码器部分的网络结构是编码器结构的镜像,通过反卷积把亮温恢复至原始亮温的尺寸。
下面是一个具体实施步骤:微波亮温超分辨率模型MW-SRUNet的输入层为24×24个像素的低分辨率亮温,输出层为96×96的高分辨率亮温,在编码器部分,首先通过两次2×2反卷积对原始亮温进行4倍上采样,然后通过4次卷积、池化提取地球表面地物亮温信息,生成特征矩阵(图中未标注注释处的卷积均为3*3卷积);解码器部分的网络结构是编码器结构的镜像,在解码器部分,通过4次反卷积把亮温恢复至96×96,获得微波亮温的4倍超分辨率重建亮温。
步骤S2在构建模型时,该模型的训练细节:
S201:微波亮温超分辨率模型MW-SRUNet训练过程中,将步骤S1构建的微波亮温超分辨率数据集的70%用于训练,20%作为验证集对迭代的参数进行验证,保存验证集误差最小的模型,余下10%数据作为模型的预测集。
S202:微波亮温超分辨率模型MW-SRUNet基于Tensorflow-Keras框架实现,优化方法使用Adam,回调函数使用Reduce LR On Plateau,用于自适应调整学习率。
S203:使用地球表面亮温变化剧烈区域自定义损失函数进行模型的训练,以减少较大的异常值对模型训练的影响,并且可以使网络的收敛性更好,损失函数公式具体如下:
Figure BDA0003747628590000051
式中,N为亮温中的像元个数,Ii是从真实数据中采样的高分辨率亮温,
Figure BDA0003747628590000052
表示重建的高分辨率亮温。
S204:使用自定义评价函数对模型训练过程进行评价,以更直观地了解模型训练过程中超分辨率性能,评价函数公式具体如下:
Figure BDA0003747628590000053
Figure BDA0003747628590000054
式中,L表示亮温中像素值中的最大值,MSE表示高分辨率亮温与低分辨率亮温之间的均方误差。
S3、将原始低分辨率微波亮温输入步骤S2构建的微波亮温超分辨率模型MW-SRUNet,模型的输出即为重建后的高分辨率微波亮温。
实施例2
本实施例以美国国家航空航天局NASA发射的土壤水分主动被动卫星(SoilMoisture Active Passive,SMAP)为例,将本发明提出的深度学习星载微波辐射计遥感亮温超分辨率重建方法与传统双三次插值方法Bicubic以及SRCNN方法进行定量对比(如表1所示)。其中,定量对比的评价指标包括亮温质量评估和定量遥感回归精度评估。亮温质量评估包括峰值信噪比(Peak Signal to Noise Ratio,PSNR)和结构相似性(StructuralSimilarity,SSIM),分别计算为:
Figure BDA0003747628590000061
式中,L表示亮温中像素值中的最大值,MSE表示高分辨率亮温与低分辨率亮温之间的均方误差;
Figure BDA0003747628590000062
式中,
Figure BDA0003747628590000063
表示重建图像和参考图像间亮度的比较,
Figure BDA0003747628590000064
表示对比度的比较,
Figure BDA0003747628590000065
是结构比较函数,α、β、γ是调整相对重要性的控制参数。实际使用时,为了简化计算,一般会将控制参数设为α=β=γ=1。定量遥感回归精度评估包括均方根误差(Root Mean Squared Error,RMSE)和皮尔逊线性相关系数(Pearson Linear Correlation Coefficient,PLCC),分别计算为:
Figure BDA0003747628590000066
Figure BDA0003747628590000067
式中,N为亮温中的像元个数,I(i是从真实数据中采样的高分辨率亮温,
Figure BDA0003747628590000068
表示重建的高分辨率亮温。
表1不同超分辨率方法的重建结果评价指标
Figure BDA0003747628590000069
Figure BDA0003747628590000071
可以发现,MW-SRUNet重建结果平均PSNR值为32.12、SSIM值为0.9726,优于传统插值方法的22.89/0.8358,优于浅层CNN方法的23.1850/0.8636,平均RMSE为5.62K,远小于传统方法和浅层CNN方法的15.36K/14.53K,平均PLCC为0.9884,优于传统方法和浅层CNN方法的0.9507/0.9551。在重建结果的各项评价指标中,MW-SRUNet算法均优于传统双三次插值方法和浅层CNN方法。
综上所述,本发明能够解决传统的星载微波辐射计遥感亮温分辨率低的问题,从而达到不需要从载荷天线设计上做改进,仅从亮温数据处理的角度提升微波辐射计亮温的空间分辨率。
本发明的深度学习星载微波辐射计遥感亮温超分辨率重建方法有效解决了微波亮温分辨率低的问题,成功将36km亮温的空间分辨率提升至9km,实现了微波亮温的4倍超分辨率重建,为高分辨率微波遥感亮温数据的获取提供了新的方法与途径,拓展了星载微波辐射计亮温数据在地球系统变化中的应用研究。
当然,上述说明并非是对本发明的限制,本发明也并不限于上述举例,本技术领域的普通技术人员,在本发明的实质范围内,做出的变化、改型、添加或替换,都应属于本发明的保护范围。

Claims (4)

1.一种深度学习星载微波辐射计遥感亮温超分辨率重建方法,其特征在于,包括以下步骤:
S1、构建微波亮温超分辨率数据集;
S2、基于步骤S1的微波亮温超分辨率数据集构建基于UNet的深度卷积神经网络微波亮温超分辨率模型MW-SRUNet:将UNet网络引入微波亮温超分辨率模型,所述微波亮温超分辨率模型MW-SRUNet包括编码器部分和解码器部分,在编码器部分,首先通过反卷积对原始亮温进行上采样,然后通过卷积、池化提取地球表面地物亮温信息,生成特征矩阵;解码器部分的网络结构是编码器结构的镜像,通过多次反卷积把亮温恢复至原始亮温的尺寸;
S3、将原始低分辨率微波亮温输入步骤S2构建的微波亮温超分辨率模型MW-SRUNet,模型的输出即为重建后的高分辨率微波亮温。
2.根据权利要求1所述的一种深度学习星载微波辐射计遥感亮温超分辨率重建方法,其特征在于,所述步骤S1中的数据集为高-低分辨率亮温匹配数据集,低分辨率亮温为微波辐射计原始亮温,高分辨率亮温为对应区域分辨率增强型亮温,具体包括:
S101:将全球微波亮温进行掩膜,只保留有亮温值的区域;
S102:将全球微波亮温的有值区域进行切块以建立超分辨率数据集,其中:将低分辨率亮温切块,像元大小设置为n1×n1,则对应的高分辨率亮温块大小为n2×n2,n2=4n1
S103:将切块的全球微波亮温进行顺序统计滤波,以对亮温进行批量截取,并且可以设置截取歩长以降低亮温块之间的重复性;
S104:将预处理得到的全球微波亮温块按照测量时间进行迭代连接,使数据以三维矩阵形式储存,第一维为样本数,第二维和第三维为亮温的长和宽,构建用于微波亮温超分辨率模型MW-SRUNet的高-低分辨率亮温匹配数据集。
3.根据权利要求1所述的一种深度学习星载微波辐射计遥感亮温超分辨率重建方法,其特征在于,所述S2具体包括:
S201:微波亮温超分辨率模型MW-SRUNet训练过程中,将步骤S1构建的微波亮温超分辨率数据集的70%用于训练,20%作为验证集对迭代的参数进行验证,保存验证集误差最小的模型,余下10%数据作为模型的预测集;
S202:微波亮温超分辨率模型MW-SRUNet基于Tensorflow-Keras框架实现,优化方法使用Adam,回调函数使用Reduce LR On Plateau,用于自适应调整学习率;
S203:使用地球表面亮温变化剧烈区域自定义损失函数进行模型的训练,以减少异常值对模型训练的影响,并且可以使网络的收敛性更好,损失函数公式具体如下:
Figure FDA0003747628580000021
式中,N为亮温中的像元个数,Ii是从真实数据中采样的高分辨率亮温,
Figure FDA0003747628580000022
表示重建的高分辨率亮温;
S204:使用自定义评价函数对模型训练过程进行评价,以更直观地了解模型训练过程中超分辨率性能,评价函数公式具体如下:
Figure FDA0003747628580000023
Figure FDA0003747628580000024
式中,L表示亮温中像素值中的最大值,MSE表示高分辨率亮温与低分辨率亮温之间的均方误差。
4.根据权利要求1所述的一种深度学习星载微波辐射计遥感亮温超分辨率重建方法,其特征在于,微波亮温超分辨率模型MW-SRUNet的输入层为24×24个像素的低分辨率亮温,输出层为96×96的高分辨率亮温,在编码器部分,首先通过两次2×2反卷积对原始亮温进行4倍上采样,然后通过4次卷积、池化提取地球表面地物亮温信息,生成特征矩阵;在解码器部分,通过4次反卷积把亮温恢复至96×96,获得微波亮温的4倍超分辨率重建亮温。
CN202210829471.8A 2022-07-15 2022-07-15 一种深度学习星载微波辐射计遥感亮温超分辨率重建方法 Pending CN115358924A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210829471.8A CN115358924A (zh) 2022-07-15 2022-07-15 一种深度学习星载微波辐射计遥感亮温超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210829471.8A CN115358924A (zh) 2022-07-15 2022-07-15 一种深度学习星载微波辐射计遥感亮温超分辨率重建方法

Publications (1)

Publication Number Publication Date
CN115358924A true CN115358924A (zh) 2022-11-18

Family

ID=84031376

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210829471.8A Pending CN115358924A (zh) 2022-07-15 2022-07-15 一种深度学习星载微波辐射计遥感亮温超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN115358924A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117114998A (zh) * 2023-10-25 2023-11-24 中国海洋大学 一种用于微波辐射计亮温数据的分辨率增强方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117114998A (zh) * 2023-10-25 2023-11-24 中国海洋大学 一种用于微波辐射计亮温数据的分辨率增强方法
CN117114998B (zh) * 2023-10-25 2024-02-06 中国海洋大学 一种用于微波辐射计亮温数据的分辨率增强方法

Similar Documents

Publication Publication Date Title
CN111754403B (zh) 一种基于残差学习的图像超分辨率重构方法
CN106709875B (zh) 一种基于联合深度网络的压缩低分辨率图像复原方法
CN109118432B (zh) 一种基于快速循环卷积网络的图像超分辨率重建方法
CN112435191B (zh) 一种基于多个神经网络结构融合的低照度图像增强方法
CN108921783B (zh) 一种基于混合损失函数约束的卫星影像超分辨率重建方法
CN111861884B (zh) 一种基于深度学习的卫星云图超分辨率重建方法
CN111369466B (zh) 基于可变形卷积的卷积神经网络的图像畸变矫正增强方法
CN110349087B (zh) 基于适应性卷积的rgb-d图像高质量网格生成方法
CN108492249B (zh) 基于小卷积递归神经网络的单帧超分辨重建方法
CN113902658B (zh) 基于密集多尺度网络的rgb图像到高光谱图像重建方法
CN107958450B (zh) 基于自适应高斯滤波的全色多光谱影像融合方法及系统
CN109785279B (zh) 一种基于深度学习的图像融合重建方法
Hui et al. Two-stage convolutional network for image super-resolution
CN113902620A (zh) 一种基于可变形卷积网络的视频超分辨率系统及方法
CN115578255A (zh) 一种基于帧间亚像素块匹配的超分辨率重建方法
CN115358924A (zh) 一种深度学习星载微波辐射计遥感亮温超分辨率重建方法
CN114862679A (zh) 基于残差生成对抗网络的单图超分辨率重建方法
Yang et al. MRDN: A lightweight Multi-stage residual distillation network for image Super-Resolution
CN110288529B (zh) 一种基于递归局部合成网络的单幅图像超分辨率重建方法
Shen et al. Deeper super-resolution generative adversarial network with gradient penalty for sonar image enhancement
CN116740340A (zh) 基于深度学习的计算光谱成像误差矫正方法
Zhou et al. Single-image super-resolution based on local biquadratic spline with edge constraints and adaptive optimization in transform domain
Wang et al. Pixel attention convolutional network for image super-resolution
CN116433548A (zh) 一种基于多级信息提取的高光谱与全色图像融合方法
CN106709873B (zh) 一种基于三次样条插值和迭代更新的超分辨率方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination