CN113012044A - 一种基于深度学习的遥感影像时空融合方法及系统 - Google Patents

一种基于深度学习的遥感影像时空融合方法及系统 Download PDF

Info

Publication number
CN113012044A
CN113012044A CN202110191128.0A CN202110191128A CN113012044A CN 113012044 A CN113012044 A CN 113012044A CN 202110191128 A CN202110191128 A CN 202110191128A CN 113012044 A CN113012044 A CN 113012044A
Authority
CN
China
Prior art keywords
resolution
resolution image
cloud
prediction
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110191128.0A
Other languages
English (en)
Inventor
贾铎
程昌秀
沈石
宋长青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Normal University
Original Assignee
Beijing Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Normal University filed Critical Beijing Normal University
Priority to CN202110191128.0A priority Critical patent/CN113012044A/zh
Publication of CN113012044A publication Critical patent/CN113012044A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4046Scaling the whole image or part thereof using neural networks

Abstract

本发明涉及一种基于深度学习的遥感影像时空融合方法及系统。该方法包括:基于预测时段内的所有高分辨率影像生成两个模拟的无云高分辨率影像,并获取与所述无云高分辨率影像相同时期的低分辨率影像,构建无云高‑低分辨率影像对;构建融合网络以及超分辨率重建网络;利用无云高‑低分辨率影像生成训练好的融合网络以及训练好的超分辨率重建网络;基于滑动窗口的线性加权方法确定前向预测结果以及后向预测结果;基于滑动窗口的线性加权方法对前向预测结果以及后向预测结果进行线性加权平均,确定最终的融合结果。本发明能够提高时空融合方法在云污染严重区域适用性以及同时适用于不同地表时间变化类型预测。

Description

一种基于深度学习的遥感影像时空融合方法及系统
技术领域
本发明涉及遥感影像时空融合领域,特别是涉及一种基于深度学习的遥感影像时空融合方法及系统。
背景技术
遥感影像时间序列在生态系统动态监测以及生态系统对气候变化的响应等领域应用广泛,然而单一传感器的遥感影像难以兼具高时间分辨率和高空间分辨率。时空融合是生成高时空分辨率遥感影像时间序列的可行方式,其通过融合高空间分辨率低时间分辨率遥感影像(下称高分辨影像)和低空间分辨率高时间分辨率遥感影像(下称低分辨影像)生成兼具高空间分辨率和高时间分辨率的密集遥感影像时间序列。现有的时空融合方法主要包含以下问题:(1)难以同时适用于不同地表时间变化类型预测,其中,地表时间变化类型包括渐变类型和突变类型。(2)现有时空融合方法需要至少一对无云的高-低分辨率影像对,然而在部分云污染严重的区域,甚至没有一景可用的无云影像,这一情况限制了时空融合在云污染严重区域的应用。
发明内容
本发明的目的是提供一种基于深度学习的遥感影像时空融合方法及系统,以解决现有时空融合方法在云污染严重区域适用性差以及难以同时适用于不同地表时间变化类型预测的问题。
为实现上述目的,本发明提供了如下方案:
一种基于深度学习的遥感影像时空融合方法,包括:
基于预测时段内的所有高分辨率影像生成两个模拟的无云高分辨率影像,并获取与所述无云高分辨率影像相同时期的低分辨率影像,构建无云高-低分辨率影像对;
建立面向渐变预测的时间变化映射以及面向突变预测的空间信息映射,并针对所述时间变化映射构建融合网络以及针对所述空间信息映射构建超分辨率重建网络;
利用所述无云高-低分辨率影像对分别对所述融合网络以及所述超分辨率重建网络进行训练,生成训练好的融合网络以及训练好的超分辨率重建网络;所述训练好的融合网络用于预测前向预测中的渐变信息以及后向预测中的渐变信息,所述训练好的超分辨率重建网络用于预测前向预测中的突变信息以及后向预测中的突变信息;
基于滑动窗口的线性加权方法对所述前向预测中的渐变信息以及所述前向预测中的突变信息进行线性加权平均,确定前向预测结果;
基于滑动窗口的线性加权方法对所述后向预测中的渐变信息以及所述后向预测中的突变信息进行线性加权平均,确定后向预测结果;
基于滑动窗口的线性加权方法对所述前向预测结果以及所述后向预测结果进行线性加权平均,确定最终的融合结果;所述最终的融合结果为缺失的高分辨率影像。
可选的,所述基于预测时段内的所有高分辨率影像生成两个模拟的无云高分辨率影像,并获取与所述无云高分辨率影像相同时期的低分辨率影像,构建无云高-低分辨率影像对,具体包括:
从所述所有高分辨率影像内筛选出云覆盖率小于40%的高分辨率影像作为筛选后的高分辨率影像;
选择距离预测时期最近的前后两个时期作为已知时期,并从所述筛选后的高分辨率影像中获取所述已知时期对应的已知高分辨率影像;
分别对两个所述已知时期内的已知高分辨率影像中由于云覆盖导致的缺失像元进行重建,生成重建后的无云高分辨率影像;
获取与所述重建后的无云高分辨率影像相同时期的低分辨率影像,构建无云高-低分辨率影像对。
可选的,所述分别对两个所述已知时期内的已知高分辨率影像中由于云覆盖导致的缺失像元进行重建,生成重建后的无云高分辨率影像,具体包括:
计算待重建高分辨率影像中的每个目标块Pt与辅助块数据集PA内每一个辅助块相交的非缺失像元的相关系数,并取所述相关系数最大的辅助块作为目标辅助块;所述目标块为所述待重建高分辨率影像中的以缺失像元为中心的邻域块;所述辅助块为除所述待重建高分辨率影像外的所有高分辨率影像对应位置的邻域块;
根据所述目标辅助块以及所述目标块计算缺失像元值,并以所述缺失像元值替代缺失像元;
遍历所述待重建高分辨率影像中所有缺失像元,完成对所述待重建高分辨率影像中的缺失像元的重建,生成重建后的无云高分辨率影像。
可选的,所述训练好的融合网络具体包括:第一提取块、第一多尺度注意力块以及第一重建块;
将任一已知时期的高分辨影像输入至所述第一提取块,生成64个第一特征图;
获取两个不同时期的低分辨率影像,并将两个不同时期的低分辨率影像相减确定低分辨率影像增量;所述两个不同时期为所述任一已知时期相邻的前向已知时期以及后向已知时期;
将所述低分辨率影像增量以及所述任一已知时期的高分辨影像进行叠置后输入至所述第一多尺度注意力块,生成64个第二特征图;
将所述第一特征图以及所述第二特征图相加输入至所述第一重建块,生成渐变信息。
可选的,所述训练好的超分辨率重建网络具体包括:第二提取块、第三提取块、卷积层、第二多尺度注意力块以及第二重建块;
将任一已知时期的低分辨率影像输入至第二提取块,生成64个第三特征图;
将另一已知时期的高分辨率影像与低分辨率影像相减后输入至第三提取块,生成64个第四特征图;
将所述第三特征图以及所述第四特征图进行叠置后输入至所述卷积层,生成第五特征图;
将所述第五特征图输入至所述第二多尺度注意力块,生成第六特征图;
将所述第六特征图输入至所述第二重建块,生成突变信息。
可选的,所述前向预测结果为:
Figure BDA0002944137250000041
其中,
Figure BDA0002944137250000042
为前向预测结果,(x0,y0)为中心像元,B为影像波段,t2为预测时期,pspatial(x0,y0,B,t2)为前向预测中的突变信息
Figure BDA0002944137250000043
的权重,ptemp(x0,y0,B,t2)为前向预测中的渐变信息
Figure BDA0002944137250000044
的权重。
可选的,所述后向预测结果为:
Figure BDA0002944137250000045
其中,
Figure BDA00029441372500000411
为后向预测结果,pspatial′(x0,y0,B,t2)为后向预测中的突变信息
Figure BDA00029441372500000412
的权重,ptemp′(x0,y0,B,t2)为后向预测中的渐变信息
Figure BDA0002944137250000048
的权重。
可选的,所述最终的融合结果为:
Figure BDA0002944137250000049
其中,
Figure BDA00029441372500000410
为最终融合结果,pfw(x0,y0,B,t2)为所述前向预测结果的权重,pbw(x0,y0,B,t2)为所述后向预测结果的权重。
一种基于深度学习的遥感影像时空融合系统,包括:
无云高-低分辨率影像对构建模块,用于基于预测时段内的所有高分辨率影像生成两个模拟的无云高分辨率影像,并获取与所述无云高分辨率影像相同时期的低分辨率影像,构建无云高-低分辨率影像对;
融合网络以及超分辨率重建网络构建模块,用于建立面向渐变预测的时间变化映射以及面向突变预测的空间信息映射,并针对所述时间变化映射构建融合网络以及针对所述空间信息映射构建超分辨率重建网络;
训练模块,用于利用所述无云高-低分辨率影像对分别对所述融合网络以及所述超分辨率重建网络进行训练,生成训练好的融合网络以及训练好的超分辨率重建网络;所述训练好的融合网络用于预测前向预测中的渐变信息以及后向预测中的渐变信息,所述训练好的超分辨率重建网络用于预测前向预测中的突变信息以及后向预测中的突变信息;
前向预测结果确定模块,用于基于滑动窗口的线性加权方法对所述前向预测中的渐变信息以及所述前向预测中的突变信息进行线性加权平均,确定前向预测结果;
后向预测结果确定模块,用于基于滑动窗口的线性加权方法对所述后向预测中的渐变信息以及所述后向预测中的突变信息进行线性加权平均,确定后向预测结果;
最终的融合结果确定模块,用于基于滑动窗口的线性加权方法对所述前向预测结果以及所述后向预测结果进行线性加权平均,确定最终的融合结果;所述最终的融合结果为缺失的高分辨率影像。
可选的,所述无云高-低分辨率影像对构建模块具体包括:
筛选单元,用于从所述所有高分辨率影像内筛选出云覆盖率小于40%的高分辨率影像作为筛选后的高分辨率影像;
已知高分辨率影像获取单元,用于选择距离预测时期最近的前后两个时期作为已知时期,并从所述筛选后的高分辨率影像中获取所述已知时期对应的已知高分辨率影像;
重建后的无云高分辨率影像生成单元,用于分别对两个所述已知时期内的已知高分辨率影像中由于云覆盖导致的缺失像元进行重建,生成重建后的无云高分辨率影像;
无云高-低分辨率影像对构建单元,用于获取与所述重建后的无云高分辨率影像相同时期的低分辨率影像,构建无云高-低分辨率影像对。
根据本发明提供的具体实施例,本发明公开了以下技术效果:本发明提供了一种基于深度学习的遥感影像时空融合方法及系统,基于预测时段内的所有可利用的高分辨率影像生成无云高分辨率影像,进而与相同时期的低分辨率影像组成无云高-低分辨率影像对的策略,保证了时空融合方法在预测时段内没有无云影像时的有效性。本发明所提供的基于深度学习的遥感影像时空融合方法及系统适用于云污染严重区域的高时空分辨率遥感影像时间序列的构建任务,且适用于不同地表时间变化类型的预测。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明所提供的基于深度学习的遥感影像时空融合方法流程图;
图2为不同时期下高分辨率影像以及低分辨率影像示意图;
图3为本发明所提供的训练好的融合网络结构示意图;
图4为本发明所提供的第一多尺度注意力块或第二多尺度注意力块结构示意图;
图5为本发明所提供的训练好的超分辨率重建网络结构示意图;
图6为本发明所提供的基于深度学习的遥感影像时空融合系统结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于深度学习的遥感影像时空融合方法及系统,能够提高时空融合方法在云污染严重区域适用性以及同时适用于不同地表时间变化类型预测。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明所提供的基于深度学习的遥感影像时空融合方法流程图,如图1所示,一种基于深度学习的遥感影像时空融合方法,包括:
步骤101:基于预测时段内的所有高分辨率影像生成两个模拟的无云高分辨率影像,并获取与所述无云高分辨率影像相同时期的低分辨率影像,构建无云高-低分辨率影像对。
所述步骤101具体包括:从所述所有高分辨率影像内筛选出云覆盖率小于40%的高分辨率影像作为筛选后的高分辨率影像;选择距离预测时期最近的前后两个时期作为已知时期,并从所述筛选后的高分辨率影像中获取所述已知时期对应的已知高分辨率影像;分别对两个所述已知时期内的已知高分辨率影像中由于云覆盖导致的缺失像元进行重建,生成重建后的无云高分辨率影像;获取与所述重建后的无云高分辨率影像相同时期的低分辨率影像,构建无云高-低分辨率影像对。
分别对两个所述已知时期内的已知高分辨率影像中由于云覆盖导致的缺失像元进行重建,生成重建后的无云高分辨率影像,具体包括:计算待重建高分辨率影像中的每个目标块Pt与辅助块数据集PA内每一个辅助块相交的非缺失像元的相关系数,并取所述相关系数最大的辅助块作为目标辅助块;所述目标块为所述待重建高分辨率影像中的以缺失像元为中心的邻域块;所述辅助块为除所述待重建高分辨率影像外的所有高分辨率影像对应位置的邻域块;根据所述目标辅助块以及所述目标块计算缺失像元值,并以所述缺失像元值替代缺失像元;遍历所述待重建高分辨率影像中所有缺失像元,完成对所述待重建高分辨率影像中的缺失像元的重建,生成重建后的无云高分辨率影像。
步骤102:建立面向渐变预测的时间变化映射以及面向突变预测的空间信息映射,并针对所述时间变化映射构建融合网络以及针对所述空间信息映射构建超分辨率重建网络。
步骤103:利用所述无云高-低分辨率影像对分别对所述融合网络以及所述超分辨率重建网络进行训练,生成训练好的融合网络以及训练好的超分辨率重建网络;所述训练好的融合网络用于预测前向预测中的渐变信息以及后向预测中的渐变信息,所述训练好的超分辨率重建网络用于预测前向预测中的突变信息以及后向预测中的突变信息。
所述训练好的融合网络具体包括:第一提取块、第一多尺度注意力块以及第一重建块;将任一已知时期的高分辨影像输入至所述第一提取块,生成64个第一特征图;获取两个不同时期的低分辨率影像,并将两个不同时期的低分辨率影像相减确定低分辨率影像增量;所述两个不同时期为所述任一已知时期相邻的前向已知时期以及后向已知时期;将所述低分辨率影像增量以及所述任一已知时期的高分辨影像进行叠置后输入至所述第一多尺度注意力块,生成64个第二特征图;将所述第一特征图以及所述第二特征图相加输入至所述第一重建块,生成渐变信息。
所述训练好的超分辨率重建网络具体包括:第二提取块、第三提取块、卷积层、第二多尺度注意力块以及第二重建块;将任一已知时期的低分辨率影像输入至第二提取块,生成64个第三特征图;将另一已知时期的高分辨率影像与低分辨率影像相减后输入至第三提取块,生成64个第四特征图;将所述第三特征图以及所述第四特征图进行叠置后输入至所述卷积层,生成第五特征图;将所述第五特征图输入至所述第二多尺度注意力块,生成第六特征图;将所述第六特征图输入至所述第二重建块,生成突变信息。
步骤104:基于滑动窗口的线性加权方法对所述前向预测中的渐变信息以及所述前向预测中的突变信息进行线性加权平均,确定前向预测结果。
所述前向预测结果为:
Figure BDA0002944137250000081
其中,
Figure BDA0002944137250000082
为前向预测结果,(x0,y0)为中心像元,B为影像波段,t2为预测时期,pspatial(x0,y0,B,t2)为前向预测中的突变信息
Figure BDA0002944137250000083
的权重,ptemp(x0,y0,B,t2)为前向预测中的渐变信息
Figure BDA0002944137250000084
的权重。
步骤105:基于滑动窗口的线性加权方法对所述后向预测中的渐变信息以及所述后向预测中的突变信息进行线性加权平均,确定后向预测结果。
所述后向预测结果为:
Figure BDA0002944137250000091
其中,
Figure BDA0002944137250000097
为后向预测结果,pspatial′(x0,y0,B,t2)为后向预测中的突变信息
Figure BDA0002944137250000098
的权重,ptemp′(x0,y0,B,t2)为后向预测中的渐变信息
Figure BDA0002944137250000094
的权重。
步骤106:基于滑动窗口的线性加权方法对所述前向预测结果以及所述后向预测结果进行线性加权平均,确定最终的融合结果;所述最终的融合结果为缺失的高分辨率影像。
所述最终的融合结果为:
Figure BDA0002944137250000095
其中,
Figure BDA0002944137250000096
为最终融合结果,pfw(x0,y0,B,t2)为所述前向预测结果的权重,pbw(x0,y0,B,t2)为所述后向预测结果的权重。
本发明所提出的时空融合方法基于预测时段内的所有可用的高分辨率影像和所有低分辨率影像生成具有与高分辨率影像相同的空间分辨率及与低分辨率影像相同的时间分辨率的遥感影像时间序列。
具体的,如图2所示,为了对该时间序列中由于重访周期限制等原因导致的某一时期(t2)的缺失的高分辨率影像F2进行预测,本发明所提出的时空融合方法首先基于预测时段内的所有可利用的高分辨率影像,生成两个已知时期t1和t3的无云高分辨率影像(F1和F3),上述两个时期的高分辨率影像(F1和F3)与相同时期的低分辨率影像组成两个无云高-低分辨率影像对(F1,C1和F3,C3),结合预测时期t2的低分辨率影像C2生成预测时期t2的高分辨率影像F2。由于利用了两对高-低分辨率影像对,所提出的方法可以同时考虑前向预测与后向预测从而得到更加鲁棒的融合结果。
基于本发明所提供的基于深度学习的遥感影像时空融合方法,作为可选的一种实施方式,将本发明应用于实际应用中,具体过程如下:
步骤1:生成模拟无云影像对。
A)对所有可用的高分辨率影像筛选出云覆盖率小于40%的影像。
B)从步骤A)中筛选出的高分辨率影像中选择距离预测时期t2最近的前后两个时期t1和t3作为已知时期。
C)对上述时期t1和t3的影像中由于云覆盖导致的缺失像元进行重建从而生成无云的高分辨率影像F1和F3。以其中的一景高分辨率影像为例,简述其重建步骤:
首先定义相关符号如下:
Pt表示待重建影像中的以缺失像元为中心的邻域块(记作目标块)。PA表示辅助块数据集,其由除了待重建影像外的该年份的所有高分辨率影像中的对应位置的邻域块组成。要求辅助块数据集PA中的每一个辅助块的中心像元无缺失,并且每一个辅助块与目标块Pt中的相交的非缺失的像元个数大于30。基于以上定义简述步骤C)如下:
a)计算待重建影像中的每个目标块Pt与PA中的每一个辅助块中的相交(共同位置)的非缺失像元的相关系数,其计算公式如下:
Figure BDA0002944137250000101
式中,
Figure BDA0002944137250000102
代表PA中第i个辅助块的第j个相交的无云像元,
Figure BDA0002944137250000103
表示目标块中的第j个相交的无云像元,n代表相交的无云像元的总个数。
Figure BDA0002944137250000104
Figure BDA0002944137250000105
分别代表PA中第i个辅助块和目标块中的相交无云像元的均值。
b)取相关系数最大的辅助块作为目标辅助块,记作Pa
c)以下式基于Pa和Pt计算缺失像元值Vt(x,y),以Vt(x,y)替代缺失像元从而对该缺失像元进行填补。
Figure BDA0002944137250000106
式中,Va(x,y)表示目标辅助块中的对应于缺失像元处的像元值,
Figure BDA0002944137250000107
表示Pt中的相交的非缺失像元的标准差,
Figure BDA0002944137250000108
表示Pa中的相交的非缺失像元的标准差,
Figure BDA0002944137250000109
表示Pt中的相交的非缺失像元的均值,
Figure BDA00029441372500001010
表示Pa中的相交的非缺失像元的均值。
d)遍历待重建影像中的所有缺失像元,完成该影像的缺失像元的重建。
e)对b)中选出的高分辨率影像F1和F3重复步骤c)从而完成重建。
步骤2:构建时间变化映射,得到渐变信息
Figure BDA0002944137250000111
的预测。
时空融合方法的基本原理可表示为:
F2=F1+ΔF
ΔF=f(ΔC)
ΔC=C2-C1
即待预测影像F2可表示为已知时期t1的高分辨率影像F1与两个时期(t1与t2)之间高分辨率影像的增量ΔF之和。ΔF基于t1与t2之间的低分辨率影像增量ΔC进行估算。由上述可知,时空融合的关键在于构建ΔF与ΔC之间的转换函数f。传统的时空融合方法在构建转换函数f时常采用基于滑动窗口的线性加权等形式,此类人为预定义的转换函数缺乏可推广性。
本发明提出以深度学习构建自适应的转换函数f,用于实现渐变信息
Figure BDA0002944137250000112
的预测。为了便于描述,将转换函数f定义为时间变化映射M1。基于此时间变化映射M1可得到渐变信息
Figure BDA0002944137250000113
的预测:
Figure BDA0002944137250000114
上式可理解为,在进行预测时以低分辨率影像在t1与t2时期的增量C12以及F1为网络的输入,可得到渐变信息预测结果
Figure BDA0002944137250000115
式中Φ1为网络的参数。为了学习Φ1,假设时间变化映射M1在t1与t3时期以及t1与t2时期间具有一致性,即参数Φ1不变,基于上述假设,为了学习Φ1,在训练阶段,网络的输入为t1与t3时期的低分辨率影像增量C13以及F1,输出为已知时期t3的高分辨率影像F3。以上学习参数Φ1的过程可表示为:
Figure BDA0002944137250000116
式中,
Figure BDA0002944137250000117
代表均方误差loss函数。
为了进行映射参数Φ1的学习,本发明设计了融合网络,该网络的核心任务是通过一个时期的高分辨率影像F1与低分辨率影像增量C12进行融合得到另一个时期的高分辨率影像F2
该网络结构包括:第一提取块、第一多尺度注意力块和第一重建块。网络结构具体如图3所示,高分辨影像F1首先输入至提取块,经提取块处理后生成64个特征图。输入的不同时刻的低分辨率影像(C1和C3)首先进行相减得到两个时期的低分辨率影像的增量。上述低分辨率影像(C1和C3)的增量与输入的高分辨影像F1进行叠置后输入至多尺度注意力块,经过处理后得到64个特征图,上述特征图与提取块输出的64个特征图相加后输入至重建块。为了加快收敛速度,网络采用跳跃连接策略。具体的,输入的高分辨率影像F1与低分辨率影像(C1和C3)的增量相加后与重建块的输出相加。
a)第一提取块
第一提取块用于将输入的影像转换为高维非线性特征,从而为后续的多尺度注意力块提供足够的有效特征信息。提取块由两个卷积层组成并使用PReLU作为激活函数,每个卷积层包括64个卷积核,卷积核尺寸为3×3。
b)第一多尺度注意力块
由于提取的特征的有效性存在差异。设计基于空洞卷积inception模块和自注意力机制的第一多尺度注意力块用于进一步挖掘并利用有效的多尺度特征。其结构如图4所示,多特征输入至多尺度注意力块后首先输入至3个并联的空洞卷积层,三个空洞卷积层均包括64个卷积核,卷积核尺寸均为3×3,dilation factor分别设置为1、2和5。上述并联的三个空洞卷积层均产生64个特征图。上述特征图进行叠置后输入至一个卷积核大小为1×1的卷积层,该卷积层包括64个卷积核。经过该卷积层处理后产生64个特征图,该特征图与多尺度注意力块的输入进行跳跃连接,即该卷积层处理后产生的64个特征图与多尺度注意力块的输入相加。上述特征进一步采用多尺度注意力机制挖掘有效特征。具体的,多特征首先输入至平均池化层(Avgpool),之后输入至全连接层,该全连接层以Relu为激活函数,后接另一个全连接层。之后输入至Sigmoid。Sigmoid的输出与注意力机制的输入的多特征相乘。最后,将多尺度注意力的输入与多尺度注意力的输出进行跳跃连接,即多尺度注意力的输入的多特征与多尺度注意力输出的多特征相加。
c)第一重建块
第一重建块由一个使用一个3×3大小卷积核的卷积层组成,其用于将提取的多特征转变为最终的预测影像。
基于此训练后的时间变化映射M1的参数Φ1,采用下式得到渐变预测
Figure BDA0002944137250000131
即在预测阶段,以C12和F1为输入。
Figure BDA0002944137250000132
步骤3:构建空间信息映射M2得到突变预测
Figure BDA0002944137250000133
通过构建空间信息映射M2进行突变信息
Figure BDA0002944137250000134
的预测其公式如下:
Figure BDA0002944137250000135
即在训练阶段,以已知时期t3的低分辨率影像C3和已知时期t1的高分辨率影像和低分辨率影像的差F1-C1为输入,以F3为输出。基于训练后的空间信息映射M2的参数Φ2,通过下式得到突变信息的预测结果
Figure BDA0002944137250000136
即在预测阶段以C2和F1-C1为输入。
Figure BDA0002944137250000137
为了进行映射参数Φ2的学习,本发明设计了超分辨率重建网络。
该网络包括:第二提取块,第三提取块,第二多尺度注意力块和第二重建块。超分辨率重建网络各部分与融合网络各部分结构一致。超分辨率重建网络结构如图5所示,输入的低分辨率影像C3首先输入至第二提取块,经处理后生成64个特征图。相似地,另一已知时期的高分辨率影像与低分辨率影像相减后输入至第三提取块生成64个特征图。上述两个提取块输出的特征图进行叠置后输入至带有64个特征图的一个卷积核大小为3×3的卷积层,得到64个特征图,上述特征图进一步输入至第二多尺度注意力块得到64个特征图,上述特征图进一步输入至第二重建块,最后经重建块处理后得到重建影像。
步骤4:渐变预测
Figure BDA0002944137250000138
与突变预测
Figure BDA0002944137250000139
结合。
步骤2得到的突变预测结果
Figure BDA00029441372500001310
与步骤3得到的渐变预测结果
Figure BDA00029441372500001311
分别侧重于预测突变和渐变信息。为了进一步综合上述两个预测结果的优势,以基于3×3大小的滑动窗口对
Figure BDA0002944137250000141
Figure BDA0002944137250000142
进行线性加权平均得到时空融合结果
Figure BDA0002944137250000143
即前向预测结果:
Figure BDA0002944137250000144
式中,pspatial与ptemp分别表示
Figure BDA0002944137250000145
Figure BDA0002944137250000146
的权重,其根据两个预测值
Figure BDA0002944137250000147
与预测时期低分辨率影像C2在3×3滑动窗口内的总偏差的反距离加权确定,具体计算公式如下:
Figure BDA0002944137250000148
Figure BDA0002944137250000149
式中,σtemp和σspatial的计算公式为:
Figure BDA00029441372500001410
Figure BDA00029441372500001411
步骤5:进行后向预测。
步骤2-4是完整的前向预测的执行过程。在前向预测的过程中,对于时间变化映射,在训练阶段以C13,F1为输入,以F3为输出。在预测阶段以C12,F1为输入。对于空间信息映射,在训练阶段以C3和F1-C1为输入,以F3为输出,在预测阶段以C2和F1-C1为输入。以下进一步阐述后向预测的过程,其步骤与前向预测的步骤完全一致,仅训练和预测阶段输入数据的顺序发生变化。前向预测和后向预测的训练和预测阶段的输入与输出如下表1所示:
表1前向预测和后向预测的训练和预测阶段的输入与输出示意表
Figure BDA00029441372500001412
Figure BDA0002944137250000151
具体如下:
后向预测的时间变化映射M1的构建过程可表示为:
Figure BDA0002944137250000152
即为了学习后向预测的时间变化映射M1的参数Φ′1,在训练阶段以C31和F3为输入,F1为输出。基于训练后得到的时间变化映射参数Φ′1,在预测阶段以C32和F3为输入得到渐变预测
Figure BDA0002944137250000153
Figure BDA0002944137250000154
后向预测的空间信息映射M2的构建表示为:
Figure BDA0002944137250000155
式中,Φ′2为后向预测中空间信息映射的参数。采用与步骤3相同的超分辨率重建网络,在训练阶段以C1和F3-C3为输入,F1为输出。
基于此训练后的空间信息映射的参数Φ′2,在预测阶段以C2和F3-C3为输入得到突变预测
Figure BDA0002944137250000156
Figure BDA0002944137250000157
采用与步骤4完全相同的基于3×3大小的滑动窗口对
Figure BDA0002944137250000158
Figure BDA0002944137250000159
进行线性加权平均得到最终的后向预测结果
Figure BDA00029441372500001510
Figure BDA00029441372500001511
式中,pspatial′与ptemp′分别表示
Figure BDA0002944137250000161
Figure BDA0002944137250000162
的权重,其根据两个预测值(
Figure BDA0002944137250000163
Figure BDA0002944137250000164
)与预测时期低分辨率影像C2在3×3滑动窗口内的总偏差的反距离加权确定。
步骤6:前向预测与后向预测融合。
最后,将前向预测
Figure BDA0002944137250000165
与后向预测结果
Figure BDA0002944137250000166
进行加权平均得到最终的融合结果
Figure BDA0002944137250000167
其过程如下:
Figure BDA0002944137250000168
式中,
Figure BDA0002944137250000169
Figure BDA00029441372500001610
的权重系数pfw及pbw的计算方式与步骤4和步骤5的权重系数的计算方式完全一致。
具体计算公式如下:
Figure BDA00029441372500001611
Figure BDA00029441372500001612
式中,σfw和σbw的计算公式为:
Figure BDA00029441372500001613
Figure BDA00029441372500001614
整个流程描述的是针对时间序列中的一景缺失高分辨率影像的预测。对时间序列中的所有缺失的高分辨率影像重复上述步骤即完成时间序列数据集的重建。
Figure BDA00029441372500001615
图6为本发明所提供的基于深度学习的遥感影像时空融合系统结构图,如图6所示,一种基于深度学习的遥感影像时空融合系统,包括:
无云高-低分辨率影像对构建模块601,用于基于预测时段内的所有高分辨率影像生成两个模拟的无云高分辨率影像,并获取与所述无云高分辨率影像相同时期的低分辨率影像,构建无云高-低分辨率影像对。
所述无云高-低分辨率影像对构建模块601具体包括:筛选单元,用于从所述所有高分辨率影像内筛选出云覆盖率小于40%的高分辨率影像作为筛选后的高分辨率影像;已知高分辨率影像获取单元,用于选择距离预测时期最近的前后两个时期作为已知时期,并从所述筛选后的高分辨率影像中获取所述已知时期对应的已知高分辨率影像;重建后的无云高分辨率影像生成单元,用于分别对两个所述已知时期内的已知高分辨率影像中由于云覆盖导致的缺失像元进行重建,生成重建后的无云高分辨率影像;无云高-低分辨率影像对构建单元,用于获取与所述重建后的无云高分辨率影像相同时期的低分辨率影像,构建无云高-低分辨率影像对。
融合网络以及超分辨率重建网络构建模块602,用于建立面向渐变预测的时间变化映射以及面向突变预测的空间信息映射,并针对所述时间变化映射构建融合网络以及针对所述空间信息映射构建超分辨率重建网络。
训练模块603,用于利用所述无云高-低分辨率影像对分别对所述融合网络以及所述超分辨率重建网络进行训练,生成训练好的融合网络以及训练好的超分辨率重建网络;所述训练好的融合网络用于预测前向预测中的渐变信息以及后向预测中的渐变信息,所述训练好的超分辨率重建网络用于预测前向预测中的突变信息以及后向预测中的突变信息。
前向预测结果确定模块604,用于基于滑动窗口的线性加权方法对所述前向预测中的渐变信息以及所述前向预测中的突变信息进行线性加权平均,确定前向预测结果。
后向预测结果确定模块605,用于基于滑动窗口的线性加权方法对所述后向预测中的渐变信息以及所述后向预测中的突变信息进行线性加权平均,确定后向预测结果。
最终的融合结果确定模块606,用于基于滑动窗口的线性加权方法对所述前向预测结果以及所述后向预测结果进行线性加权平均,确定最终的融合结果;所述最终的融合结果为缺失的高分辨率影像。
综上,本发明提出了一种基于深度学习的遥感影像时空融合方法及系统用于构建高时空分辨率的遥感影像时间序列数据集。具体包括如下四个阶段:在第一阶段,首先基于预测时段内的所有可利用的高分辨率影像生成两个模拟的无云高分辨率影像,并与相同获取时期的低分辨率影像构建无云高-低分辨率影像对。在第二阶段,分别建立面向渐变预测和突变预测的时间变化映射和空间信息映射,针对上述映射分别构建融合网络和超分辨率重建网络,并基于生成的无云高-低分辨率影像对上述两个网络进行训练。在第三阶段,利用训练好的网络,分别对前向和后向预测中的渐变和突变信息进行预测。在第四阶段,采用两次基于滑动窗口的线性加权,分别用于综合渐变和突变预测结果以及结合前向预测和后向预测的结果得到最终的融合结果,从而能够达到以下效果:
1)本发明可实现不同地表时间变化情况下(包括渐变和突变)的预测,相较于现有的时空融合方法多针对一种特定时间变化情况下的融合,本发明具有更强的可推广性。
本发明可同时实现渐变和突变的预测,具体通过以下步骤实现的:
(1)突变预测:使时空融合适用于突变预测是时空融合的难点。注意到预测时期低分辨率影像C2包含了突变信息,然而该影像较低的空间分辨率导致此部分突变信息存在明显的信息缺失。因此,突变信息预测的关键在于对低分辨率影像C2的空间细节信息的恢复。现有基于深度学习的时空融合方法多基于深度学习的超分辨率重建,然而时空融合任务中高-低分辨率影像空间分辨率差异较大常导致超分辨率重建结果中存在信息缺失,进一步恢复空间细节常需要采用附加的步骤如高通滤波等。为了直接使超分辨率重建结果中具有足够的空间细节而无需借助其他的辅助模块,本发明提出将空间细节信息加入至原始的超分辨率重建映射中构建空间信息映射。相较于原始的超分辨率重建,本发明构建的空间信息映射可直接恢复预测时期低分辨率影像的空间细节,从而保证了突变预测的有效性。
(2)渐变预测:为了实现渐变预测,本发明构建了时间变化映射。其实质是以深度学习建立自适应的权重系数替代原有的人为预定义的线性权重系数。由于引入了先验信息,本发明提出的时间变化映射相较于时空融合常采用的线性权重函数的方式在渐变预测方面具有更强的泛化能力。
2)本发明所提出的方法可以有效适用于云污染严重区域的时空融合。
云污染严重区域在预测时段内可能没有可利用的无云高-低分辨率影像对。
对于该情况,时空融合无法执行。
本发明针对该情况,设计了基于预测时段内的所有可利用的高分辨率影像生成无云高分辨率影像,进而与相同时期的低分辨率影像组成无云高-低分辨率影像对的策略。该策略保证了时空融合方法在预测时段内没有无云影像时的有效性。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种基于深度学习的遥感影像时空融合方法,其特征在于,包括:
基于预测时段内的所有高分辨率影像生成两个模拟的无云高分辨率影像,并获取与所述无云高分辨率影像相同时期的低分辨率影像,构建无云高-低分辨率影像对;
建立面向渐变预测的时间变化映射以及面向突变预测的空间信息映射,并针对所述时间变化映射构建融合网络以及针对所述空间信息映射构建超分辨率重建网络;
利用所述无云高-低分辨率影像对分别对所述融合网络以及所述超分辨率重建网络进行训练,生成训练好的融合网络以及训练好的超分辨率重建网络;所述训练好的融合网络用于预测前向预测中的渐变信息以及后向预测中的渐变信息,所述训练好的超分辨率重建网络用于预测前向预测中的突变信息以及后向预测中的突变信息;
基于滑动窗口的线性加权方法对所述前向预测中的渐变信息以及所述前向预测中的突变信息进行线性加权平均,确定前向预测结果;
基于滑动窗口的线性加权方法对所述后向预测中的渐变信息以及所述后向预测中的突变信息进行线性加权平均,确定后向预测结果;
基于滑动窗口的线性加权方法对所述前向预测结果以及所述后向预测结果进行线性加权平均,确定最终的融合结果;所述最终的融合结果为缺失的高分辨率影像。
2.根据权利要求1所述的基于深度学习的遥感影像时空融合方法,其特征在于,所述基于预测时段内的所有高分辨率影像生成两个模拟的无云高分辨率影像,并获取与所述无云高分辨率影像相同时期的低分辨率影像,构建无云高-低分辨率影像对,具体包括:
从所述所有高分辨率影像内筛选出云覆盖率小于40%的高分辨率影像作为筛选后的高分辨率影像;
选择距离预测时期最近的前后两个时期作为已知时期,并从所述筛选后的高分辨率影像中获取所述已知时期对应的已知高分辨率影像;
分别对两个所述已知时期内的已知高分辨率影像中由于云覆盖导致的缺失像元进行重建,生成重建后的无云高分辨率影像;
获取与所述重建后的无云高分辨率影像相同时期的低分辨率影像,构建无云高-低分辨率影像对。
3.根据权利要求2所述的基于深度学习的遥感影像时空融合方法,其特征在于,所述分别对两个所述已知时期内的已知高分辨率影像中由于云覆盖导致的缺失像元进行重建,生成重建后的无云高分辨率影像,具体包括:
计算待重建高分辨率影像中的每个目标块Pt与辅助块数据集PA内每一个辅助块相交的非缺失像元的相关系数,并取所述相关系数最大的辅助块作为目标辅助块;所述目标块为所述待重建高分辨率影像中的以缺失像元为中心的邻域块;所述辅助块为除所述待重建高分辨率影像外的所有高分辨率影像对应位置的邻域块;
根据所述目标辅助块以及所述目标块计算缺失像元值,并以所述缺失像元值替代缺失像元;
遍历所述待重建高分辨率影像中所有缺失像元,完成对所述待重建高分辨率影像中的缺失像元的重建,生成重建后的无云高分辨率影像。
4.根据权利要求3所述的基于深度学习的遥感影像时空融合方法,其特征在于,所述训练好的融合网络具体包括:第一提取块、第一多尺度注意力块以及第一重建块;
将任一已知时期的高分辨影像输入至所述第一提取块,生成64个第一特征图;
获取两个不同时期的低分辨率影像,并将两个不同时期的低分辨率影像相减确定低分辨率影像增量;所述两个不同时期为所述任一已知时期相邻的前向已知时期以及后向已知时期;
将所述低分辨率影像增量以及所述任一已知时期的高分辨影像进行叠置后输入至所述第一多尺度注意力块,生成64个第二特征图;
将所述第一特征图以及所述第二特征图相加输入至所述第一重建块,生成渐变信息。
5.根据权利要求4所述的基于深度学习的遥感影像时空融合方法,其特征在于,所述训练好的超分辨率重建网络具体包括:第二提取块、第三提取块、卷积层、第二多尺度注意力块以及第二重建块;
将任一已知时期的低分辨率影像输入至第二提取块,生成64个第三特征图;
将另一已知时期的高分辨率影像与低分辨率影像相减后输入至第三提取块,生成64个第四特征图;
将所述第三特征图以及所述第四特征图进行叠置后输入至所述卷积层,生成第五特征图;
将所述第五特征图输入至所述第二多尺度注意力块,生成第六特征图;
将所述第六特征图输入至所述第二重建块,生成突变信息。
6.根据权利要求5所述的基于深度学习的遥感影像时空融合方法,其特征在于,所述前向预测结果为:
Figure FDA0002944137240000031
其中,
Figure FDA0002944137240000032
为前向预测结果,(x0,y0)为中心像元,B为影像波段,t2为预测时期,pspatial(x0,y0,B,t2)为前向预测中的突变信息
Figure FDA0002944137240000033
的权重,ptemp(x0,y0,B,t2)为前向预测中的渐变信息
Figure FDA0002944137240000034
的权重。
7.根据权利要求6所述的基于深度学习的遥感影像时空融合方法,其特征在于,所述后向预测结果为:
Figure FDA0002944137240000035
其中,
Figure FDA0002944137240000036
为后向预测结果,pspatial′(x0,y0,B,t2)为后向预测中的突变信息
Figure FDA0002944137240000037
的权重,ptemp′(x0,y0,B,t2)为后向预测中的渐变信息
Figure FDA0002944137240000041
的权重。
8.根据权利要求7所述的基于深度学习的遥感影像时空融合方法,其特征在于,所述最终的融合结果为:
Figure FDA0002944137240000042
其中,
Figure FDA0002944137240000043
为最终融合结果,pfw(x0,y0,B,t2)为所述前向预测结果的权重,pbw(x0,y0,B,t2)为所述后向预测结果的权重。
9.一种基于深度学习的遥感影像时空融合系统,其特征在于,包括:
无云高-低分辨率影像对构建模块,用于基于预测时段内的所有高分辨率影像生成两个模拟的无云高分辨率影像,并获取与所述无云高分辨率影像相同时期的低分辨率影像,构建无云高-低分辨率影像对;
融合网络以及超分辨率重建网络构建模块,用于建立面向渐变预测的时间变化映射以及面向突变预测的空间信息映射,并针对所述时间变化映射构建融合网络以及针对所述空间信息映射构建超分辨率重建网络;
训练模块,用于利用所述无云高-低分辨率影像对分别对所述融合网络以及所述超分辨率重建网络进行训练,生成训练好的融合网络以及训练好的超分辨率重建网络;所述训练好的融合网络用于预测前向预测中的渐变信息以及后向预测中的渐变信息,所述训练好的超分辨率重建网络用于预测前向预测中的突变信息以及后向预测中的突变信息;
前向预测结果确定模块,用于基于滑动窗口的线性加权方法对所述前向预测中的渐变信息以及所述前向预测中的突变信息进行线性加权平均,确定前向预测结果;
后向预测结果确定模块,用于基于滑动窗口的线性加权方法对所述后向预测中的渐变信息以及所述后向预测中的突变信息进行线性加权平均,确定后向预测结果;
最终的融合结果确定模块,用于基于滑动窗口的线性加权方法对所述前向预测结果以及所述后向预测结果进行线性加权平均,确定最终的融合结果;所述最终的融合结果为缺失的高分辨率影像。
10.根据权利要求9所述的基于深度学习的遥感影像时空融合系统,其特征在于,所述无云高-低分辨率影像对构建模块具体包括:
筛选单元,用于从所述所有高分辨率影像内筛选出云覆盖率小于40%的高分辨率影像作为筛选后的高分辨率影像;
已知高分辨率影像获取单元,用于选择距离预测时期最近的前后两个时期作为已知时期,并从所述筛选后的高分辨率影像中获取所述已知时期对应的已知高分辨率影像;
重建后的无云高分辨率影像生成单元,用于分别对两个所述已知时期内的已知高分辨率影像中由于云覆盖导致的缺失像元进行重建,生成重建后的无云高分辨率影像;
无云高-低分辨率影像对构建单元,用于获取与所述重建后的无云高分辨率影像相同时期的低分辨率影像,构建无云高-低分辨率影像对。
CN202110191128.0A 2021-02-19 2021-02-19 一种基于深度学习的遥感影像时空融合方法及系统 Pending CN113012044A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110191128.0A CN113012044A (zh) 2021-02-19 2021-02-19 一种基于深度学习的遥感影像时空融合方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110191128.0A CN113012044A (zh) 2021-02-19 2021-02-19 一种基于深度学习的遥感影像时空融合方法及系统

Publications (1)

Publication Number Publication Date
CN113012044A true CN113012044A (zh) 2021-06-22

Family

ID=76403745

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110191128.0A Pending CN113012044A (zh) 2021-02-19 2021-02-19 一种基于深度学习的遥感影像时空融合方法及系统

Country Status (1)

Country Link
CN (1) CN113012044A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036889A (zh) * 2023-08-22 2023-11-10 黑龙江省网络空间研究中心(黑龙江省信息安全测评中心、黑龙江省国防科学技术研究院) 一种基于mlp的遥感影像融合方法
CN117115679A (zh) * 2023-10-25 2023-11-24 北京佳格天地科技有限公司 一种时空融合遥感影像对筛选方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070076917A1 (en) * 2003-03-21 2007-04-05 Lockheed Martin Corporation Target detection improvements using temporal integrations and spatial fusion
CN105046648A (zh) * 2015-06-25 2015-11-11 北京师范大学 一种构建高时空遥感数据的方法
CN108932710A (zh) * 2018-07-10 2018-12-04 武汉商学院 遥感时空信息融合方法
CN111754404A (zh) * 2020-06-18 2020-10-09 重庆邮电大学 基于多尺度机制和注意力机制的遥感图像时空融合方法
CN111932457A (zh) * 2020-08-06 2020-11-13 北方工业大学 遥感影像高时空融合处理算法及装置
CN112017135A (zh) * 2020-07-13 2020-12-01 香港理工大学深圳研究院 一种遥感影像数据时空融合的方法、系统及设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070076917A1 (en) * 2003-03-21 2007-04-05 Lockheed Martin Corporation Target detection improvements using temporal integrations and spatial fusion
CN105046648A (zh) * 2015-06-25 2015-11-11 北京师范大学 一种构建高时空遥感数据的方法
CN108932710A (zh) * 2018-07-10 2018-12-04 武汉商学院 遥感时空信息融合方法
CN111754404A (zh) * 2020-06-18 2020-10-09 重庆邮电大学 基于多尺度机制和注意力机制的遥感图像时空融合方法
CN112017135A (zh) * 2020-07-13 2020-12-01 香港理工大学深圳研究院 一种遥感影像数据时空融合的方法、系统及设备
CN111932457A (zh) * 2020-08-06 2020-11-13 北方工业大学 遥感影像高时空融合处理算法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DUO JIA 等: "A Hybrid Deep Learning-Based Spatiotemporal Fusion Method for Combining Satellite Images with Different Resolutions" *
DUO JIA 等: "A Novel Deep Learning-Based Spatiotemporal Fusion Method for Combining Satellite Images with Different Resolutions Using a Two-Stream Convolutional Neural Network" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036889A (zh) * 2023-08-22 2023-11-10 黑龙江省网络空间研究中心(黑龙江省信息安全测评中心、黑龙江省国防科学技术研究院) 一种基于mlp的遥感影像融合方法
CN117115679A (zh) * 2023-10-25 2023-11-24 北京佳格天地科技有限公司 一种时空融合遥感影像对筛选方法

Similar Documents

Publication Publication Date Title
CN111311490B (zh) 基于多帧融合光流的视频超分辨率重建方法
CN109905624B (zh) 一种视频帧插值方法、装置及设备
CN112700392A (zh) 一种视频超分辨率处理方法、设备及存储介质
CN111062872A (zh) 一种基于边缘检测的图像超分辨率重建方法及系统
CN113012044A (zh) 一种基于深度学习的遥感影像时空融合方法及系统
CN103413286A (zh) 一种基于学习的高动态范围与高分辨率图像联合重建方法
CN112819697B (zh) 一种遥感影像时空融合方法及系统
CN110992414B (zh) 一种基于卷积神经网络的室内单目场景深度估计的方法
CN112419150B (zh) 一种基于双边上采样网络的任意倍数图像超分辨率重建方法
CN113222825A (zh) 基于可见光图像训练的红外图像超分辨率重构方法及应用
CN110163221B (zh) 在图像中进行物体检测的方法、装置、车辆、机器人
CN117173025B (zh) 基于跨层混合注意力Transformer的单帧图像超分辨率方法及系统
CN114022356A (zh) 基于小波域的河道流量水位遥感图像超分辨率方法与系统
CN113920014A (zh) 一种基于神经网络化的联合三边滤波器用于深度图超分辨率重建方法
CN111767679B (zh) 时变矢量场数据的处理方法及装置
CN103793900B (zh) 一种基于混合自适应回归的红外盲元补偿方法
CN102769745B (zh) 插值依赖的图像自适应下采样方法
KR101979584B1 (ko) 디인터레이싱 방법 및 장치
CN109614976B (zh) 一种基于Gabor特征的异源图像融合方法
CN111369483A (zh) 一种融合多源遥感数据生成高时空分辨率遥感数据的方法
CN111179171A (zh) 基于残差模块和注意力机制的图像超分辨率重建方法
CN115797181A (zh) 一种面向矿井模糊环境的图像超分辨率重建方法
CN116563103A (zh) 一种基于自适应神经网络的遥感图像时空融合方法
CN116403152A (zh) 一种基于空间上下文学习网络的人群密度估计方法
CN110750757B (zh) 一种基于灰度线性建模及金字塔分解的图像抖动量计算方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210622

RJ01 Rejection of invention patent application after publication