CN112767292A - 一种用于时空融合的地理加权空间混合分解方法 - Google Patents
一种用于时空融合的地理加权空间混合分解方法 Download PDFInfo
- Publication number
- CN112767292A CN112767292A CN202110007657.0A CN202110007657A CN112767292A CN 112767292 A CN112767292 A CN 112767292A CN 202110007657 A CN202110007657 A CN 202110007657A CN 112767292 A CN112767292 A CN 112767292A
- Authority
- CN
- China
- Prior art keywords
- spatial
- pixel
- resolution
- classification
- objective function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 238000000354 decomposition reaction Methods 0.000 title claims abstract description 68
- 230000004927 fusion Effects 0.000 title claims abstract description 53
- 238000002310 reflectometry Methods 0.000 claims abstract description 23
- 239000011159 matrix material Substances 0.000 claims abstract description 13
- 239000013598 vector Substances 0.000 claims description 15
- 239000000203 mixture Substances 0.000 claims description 13
- 230000000694 effects Effects 0.000 claims description 10
- 239000011449 brick Substances 0.000 claims description 9
- 230000003595 spectral effect Effects 0.000 claims description 7
- 230000008030 elimination Effects 0.000 claims description 6
- 238000003379 elimination reaction Methods 0.000 claims description 6
- 230000008878 coupling Effects 0.000 claims description 5
- 238000010168 coupling process Methods 0.000 claims description 5
- 238000005859 coupling reaction Methods 0.000 claims description 5
- 230000000593 degrading effect Effects 0.000 claims description 3
- 230000014509 gene expression Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims 1
- 238000007500 overflow downdraw method Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种用于时空融合的地理加权空间混合分解方法,首先利用聚类有效性指数判断邻近时刻已知的高空间分辨率数据非监督分类下的最优分类数,并获取分类图;其次根据设定的窗口大小基于双重平方函数确定地理加权矩阵;然后根据空间混合分解算法利用加权最小二乘原理构建目标函数,该目标函数可继续追加约束项;最小化目标函数,依次求得每一个窗口内各类地物反射率;最后根据分类图和各类地物反射率构造融合影像。与现有技术相比,本发明能够有效地恢复地物分布空间异质性,提高时空融合精度,可普适性地应用于各种基于空间混合分解的时空融合方法,且不会增加原有模型的复杂度,在该领域具有很好的应用价值。
Description
技术领域
本发明涉及遥感影像融合技术领域,尤其是涉及一种用于时空融合的地理加权空间混合分解方法。
背景技术
Landsat和Terra\Aqua卫星是目前广泛用于全球观测的卫星。因受到技术水平和造价成本等条件的限制,其获取的Landsat和MODIS数据的时间和空间分辨率之间相互制约。自Landsat系列和Terra\Aqua卫星发射以来,Landsat和MODIS遥感数据广泛地应用于监测全球地表变化。但是受到技术水平和造价成本等条件的限制,单个卫星获取的数据无法同时达到高时间和高空间分辨率的要求,从而无法满足地表实时精细监测的需求。具体地,Landsat获取的数据的空间分辨率为30m,但重访周期约为16天;Terra\Aqua卫星获取的MODIS数据的空间分辨率虽为500m,但每天可获得至少一景。为获取满足应用需求的高时间和空间分辨率的遥感数据,时空融合技术应运而生。目前常用的时空融合方法主要分为两大类:基于空间加权的方法和基于空间混合分解的方法。其中,基于空间混合分解的方法主要包括:以混合分解为基础的数据融合(Unmixing-Based Data Fusion,UBDF)、遥感数据时空融合方法(Spatial and Temporal Data Fusion Approach,STDFA)和基于虚拟数据对的空间混合分解方法(Virtual Image Pair-Based Spatio-Temporal Fusion with SpatialUnmixing,VIPSTF-SU)。基于空间混合分解的方法因其明确的数学表达和物理含义而受到广泛的关注和研究。
相比于其他方法,基于空间混合分解的方法对已知信息要求较低,在数据缺乏的区域具有很好的应用价值,同时能够最大限度地利用已知的高空间分辨率信息。一般来说,遥感数据具有空间非平稳性的特点。在一定空间范围内,同一类地物反射率值可能存在较大的变化,像元灰度值间的相关性也随空间位置发生变化。依据地学第一定律,空间距离越近的像元相关性越大。因此,与中心像元距离更近的邻域像元在空间混合分解过程中应当发挥更大的作用。然而,现有的空间混合分解方法没有考虑邻域内同一类地物反射率空间变异性的影响,使得周围邻域像元对中心目标像元的混合分解过程施加了同等的影响。该问题的存在阻碍了基于空间混合分解的时空融合方法的预测精度,限制了其在异质性较强的区域的应用。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种用于时空融合的地理加权空间混合分解方法。
本发明的目的可以通过以下技术方案来实现:
一种用于时空融合的地理加权空间混合分解方法,该方法包括如下步骤:
S1:根据聚类有效性指数,确定已知的邻近时刻高空间分辨率影像的最优分类数,并依该最优分类数进行分类,获取高空间分辨率分类图。
S2:依次访问预测时刻低空间分辨率数据中每一个低分辨率像元,以该低分辨率像元为中心建立一个窗口,计算窗口内各邻域像元与中心像元之间的空间距离,获取空间距离矩阵,以相应的空间距离计算权重,获取地理加权矩阵。
S3:将步骤S1中得到的高空间分辨率分类图退化至与预测时刻低空间分辨率数据相同的分辨率,计算窗口内各类地物占比矩阵,并对各低分辨率像元构造目标函数,最小化该目标函数,获取各低分辨率像元内各类地物反射率值。
S4:根据分类图和各类地物反射率值构建融合影像。
进一步地,步骤S1中,对不同的分类数C计算聚类有效性指数XB(C)的值,最小的聚类有效性指数值所对应的分类数即为已知的邻近时刻高空间分辨率影像的最优分类数。聚类有效性指数的计算式为:
其中,C为待定的分类数,S为已知的邻近时刻高空间分辨率影像的像元的个数,m为模糊指数,yi为第i个像元对应的光谱特征向量,vc为第c类聚类中心的光谱特征向量,vk为第k类聚类中心的光谱特征向量,c≠k,uci为第i个像元中第c类的隶属度。
进一步地,步骤S2中,根据双重平方函数,以相应的空间距离计算权重,获取的地理加权矩阵为:
式中,b为双重平方函数中的带宽参数,dij为窗口内第j个邻域像元与中心像元i之间的空间距离,wij为在低分辨率像元i空间混合分解时,第j个邻域像元对其施加的权重。
进一步地,步骤S3中,依据加权最小二乘方法及空间混合分解的基本原理对各低分辨率像元构造目标函数。所述目标函数设有追加的约束项,用于与其他空间混合分解模型进行耦合。耦合地理加权模型的广义目标函数表达式为:
式中,N为窗口内低分辨率像元个数,wij为第j个邻域像元对中心像元i的混合分解施加的权重,Ei为需要求解的中心像元各类地物反射率向量,Qj为窗口内第j个邻域像元的反射率,Pj为窗口内第j个邻域像元的各类地物占比行向量,L为广义目标函数中的约束项,α为权衡参数。进一步地,窗口内第j个邻域像元的各类地物占比行向量Pj可选择通过软分类方法获取的分类图计算得到。
进一步地,对广义目标函数中的约束项包括但不限于采用砖块效应消除技术,构成基于砖块效应消除的地理加权空间混合分解方法。
本发明提供的用于时空融合的地理加权空间混合分解方法,相较于现有技术至少包括如下有益效果:
一、本发明更准确地考虑了空间混合分解过程中邻域像元对中心像元的影响,提高了融合影像的精度:本发明方法扩展了经典的空间混合分解方法,在空间混合分解模型中创新性地加入了利用双重平方函数量化得到的地理加权矩阵,充分顾及了邻域内同一地物反射率空间变异性的影响,能够有效地恢复地物分布空间异质性,提高时空融合精度;
二、本发明方法具有很好的普适性和扩展性:本发明方法对现有的空间混合分解模型进行扩展,未增加原有方法的输入数据,可直接应用于目前任一种空间混合分解方法,且不会增加现有模型的复杂度,对未来可能提出的新的空间混合分解方法也有很高的应用价值。
附图说明
图1为实施例中用于时空融合的地理加权空间混合分解方法的流程示意图;
图2为实施例仿真实验中异质区域的结果图,其中(a1)为采用原始的UBDF的影像融合结果,(b1)为采用本发明的UBDF-GW的影像融合结果,(c1)为采用原始的STDFA的影像融合结果,(d1)为采用本发明的STDFA-GW的影像融合结果,(e1)为采用原始的VIPSTF-SU的影像融合结果,(f1)为采用本发明的VIPSTF-SU-GW的影像融合结果,(g1)为参考影像;(a2)为采用UBDF-FCM的影像融合结果,(b2)为采用本发明的UBDF-FCM-GW的影像融合结果,(c2)为采用STDFA-FCM的影像融合结果,(d2)为采用本发明的STDFA-FCM-GW的影像融合结果,(e2)为采用VIPSTF-SU-FCM的影像融合结果,(f2)为采用本发明的VIPSTF-SU-FCM-GW的影像融合结果,(g2)为参考影像。
图3为实施例仿真实验中变化区域的结果图,其中(a1)为采用原始的UBDF的影像融合结果,(b1)为采用本发明的UBDF-GW的影像融合结果,(c1)为采用原始的STDFA的影像融合结果,(d1)为采用本发明的STDFA-GW的影像融合结果,(e1)为采用原始的VIPSTF-SU的影像融合结果,(f1)为采用本发明的VIPSTF-SU-GW的影像融合结果,(g1)为参考影像;(a2)为采用UBDF-FCM的影像融合结果,(b2)为采用本发明的UBDF-FCM-GW的影像融合结果,(c2)为采用STDFA-FCM的影像融合结果,(d2)为采用本发明的STDFA-FCM-GW的影像融合结果,(e2)为采用VIPSTF-SU-FCM的影像融合结果,(f2)为采用本发明的VIPSTF-SU-FCM-GW的影像融合结果,(g2)为参考影像。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
实施例
如图1所示,本发明涉及一种用于时空融合的地理加权空间混合分解方法,该方法考虑了空间混合分解过程中不同距离的邻域像元对中心像元的影响大小,具体包括如下步骤:
步骤一、根据聚类有效性指数(cluster validity index of Xie and Beni,XB),确定已知的邻近时刻高空间分辨率遥感影像的最优分类数。XB指数的计算方式为:
其中,C为待定的分类数,S为邻近时刻高空间分辨率遥感影像的像元的个数,m为模糊指数(通常取2),yi是第i个像元对应的光谱特征向量,vc为第c类聚类中心的光谱特征向量,vk为第k类聚类中心的光谱特征向量,c≠k;uci为第i个像元中第c类的隶属度。对不同的分类数C计算XB(C)的值,最小的值所对应的分类数即为最优分类数。在确定的最优分类数下,对该数据进行非监督分类,获取分类图。
步骤二、依次访问预测时刻低空间分辨率数据中每一个低分辨率像元,并以该像元为中心建立一个窗口,该像元即称为中心像元。计算窗口内各邻域像元与中心像元之间的空间距离,得到空间距离矩阵。根据双重平方函数,以相应的距离计算权重,得到地理加权矩阵:
其中,b为双重平方函数中的带宽参数,可取为空间混合分解窗口对角线长度的一半。dij为窗口内第j个邻域像元与中心像元i之间的空间距离。wij即为在低分辨率像元i空间混合分解时,第j个邻域像元对其施加的权重。
步骤三、将步骤一中得到的高空间分辨率分类图退化至与预测时刻低空间分辨率数据相同的分辨率,计算窗口内各类地物占比矩阵P。在现有的空间混合分解模型基础上,对各低分辨率像元构造加权目标函数,生成新的SU-GW模型。最小化该目标函数,获取各低分辨率像元内各类地物反射率值。对各低分辨率像元构造目标函数为:
式中,N为窗口内低分辨率像元个数,Pj为窗口内第j个邻域像元的各类地物占比向量,wij为第j个邻域像元对中心像元i的混合分解施加的权重。在UBDF方法中,Ei为需要求解的中心像元各类地物反射率,Qj为窗口内第j个邻域像元的反射率。在STDFA方法中,Ei为需要求解的已知时刻与预测时刻间中心像元各类地物反射率变化量,Qj为窗口内第j个邻域像元相应的反射率变化量。VIPSTF-SU方法中,Ei为需要求解的虚拟时刻与预测时刻间中心像元各类地物反射率变化量,Qj为窗口内第j个邻域像元相应的反射率变化量。
进一步地,目标函数可继续追加约束项,实现与其他扩展模型的耦合。即在已有的其他的空间混合分解方法上耦合该地理加权模型,得到的广义的地理加权空间混合分解方法的目标函数:
其中,Pj可通过软分类方法获取的分类图计算得到,构成基于软分类的地理加权空间混合分解方法。L为对目标函数追加的约束项,可采用砖块效应消除技术,构成基于砖块效应消除的地理加权空间混合分解方法。亦可将软分类方法和约束项同时纳入目标函数,得到同时基于软分类且含有约束的地理加权空间混合分解方法。α为权衡参数。通过最小化该目标函数,获得各低分辨率像元内各类地物反射率值。
步骤四、根据分类图和各类地物反射率值构建融合影像。
为了验证本发明方法的有效性,本实施例采用本发明方法预测融合影像。基于空间混合分解的时空融合方法中包括三种常用经典方法UBDF、STDFA、VIPSTF-SU,本实施例将本发明方法分别用于上述三种方法上。此外,本实施例还将采用基于软分类(即Fuzzy c-means,FCM)的地理加权空间混合分解方法作为扩展的空间混合分解方法的代表。以下简称表示的含义为:SU-GW:基于地理加权空间混合分解方法;SU-FCM:基于软分类的空间混合分解方法;SU-FCM-GW:基于软分类的地理加权空间混合分解方法。本实施例同时将SU-GW和SU-FCM-GW的预测结果分别与现有的原始的空间混合分解方法(SU)和扩展的空间混合分解方法(SU-FCM)进行比较。两个测试区域皆位于澳大利亚的新南威尔士州北部(异质区域与变化区域)。两个区域的融合影像结果分别如图2和图3所示,第一行为SU及SU-GW方法整个区域的预测结果,第二行为相应的局部放大的子图,第三行为SU-FCM及SU-FCM-GW方法整个区域的预测结果,第四行为相应的局部放大的子图。
根据图2、3可知,原始的空间混合分解方法(SU)预测的结果存在明显的砖块效应且光谱畸变较为严重;基于软分类的空间混合分解方法(SU-FCM)借助软分类技术更好地描述了低分辨率像元内的类内光谱差异,预测结果精度较好,但仍存在砖块效应和光谱畸变现象。在本发明方法中,更加准确地考虑了空间混合分解过程中邻域像元对中心像元的影响,充分顾及了邻域内同一地物反射率的空间变异性,在原始方法和基于软分类的方法上都体现出对砖块效应及光谱畸变较好的修复效果。因此,本发明的结果在视觉展示上有很大的提高。
采用均方根误差(Root Mean Square Error,RMSE)和相关系数(CorrelationCoefficient,CC)评价指标对各方法获取的融合影像进行精度评价,如表1所示。其中RMSE度量预测影像与参考影像的差异性,其值越大表明预测影像越偏离参考影像;CC反映预测影像与参考影像之间的相关度,其值越大表示预测影像与参考影像越接近。
表1影像融合结果精度评价
从表1的客观评价结果可以看出,本发明方法的精度相较于非地理加权模型有明显的提高,CC和RMSE值均表明本发明方法能够得到更接近真实情况的融合影像。综上所述,本发明的用于时空融合的地理加权空间混合分解方法在视觉展示和精度评价上都有明显优势,得到的融合影像能较好地保持地物的光谱和空间信息,是一种可行有效的时空融合方法。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的工作人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (9)
1.一种用于时空融合的地理加权空间混合分解方法,其特征在于,包括下列步骤:
1)根据聚类有效性指数,确定已知的邻近时刻高空间分辨率影像的最优分类数,并依该最优分类数进行分类,获取高空间分辨率分类图;
2)依次访问预测时刻低空间分辨率数据中每一个低分辨率像元,以该低分辨率像元为中心建立一个窗口,计算窗口内各邻域像元与中心像元之间的空间距离,获取空间距离矩阵,以相应的空间距离计算权重,获取地理加权矩阵;
3)将步骤1)中得到的高空间分辨率分类图退化至与预测时刻低空间分辨率数据相同的分辨率,计算窗口内各类地物占比矩阵,并对各低分辨率像元构造目标函数,最小化该目标函数,获取各低分辨率像元内各类地物反射率值;
4)根据分类图和各类地物反射率值构建融合影像。
2.根据权利要求1所述的用于时空融合的地理加权空间混合分解方法,其特征在于,步骤1)中,对不同的分类数C计算聚类有效性指数XB(C)的值,最小的聚类有效性指数值所对应的分类数即为已知的邻近时刻高空间分辨率影像的最优分类数。
4.根据权利要求1所述的用于时空融合的地理加权空间混合分解方法,其特征在于,步骤2)中,根据双重平方函数,以相应的空间距离计算权重,获取地理加权矩阵。
6.根据权利要求1所述的用于时空融合的地理加权空间混合分解方法,其特征在于,步骤3)中,所述目标函数的构建通过已有的空间混合分解方法与地理加权模型进行耦合实现。
7.根据权利要求6所述的用于时空融合的地理加权空间混合分解方法,其特征在于,通过已有的空间混合分解方法与地理加权模型进行耦合构造目标函数;包括采用软分类方法获取高分辨率分类图,构成基于软分类的地理加权空间混合分解方法;或对目标函数追加约束项,对含有约束的空间混合分解方法与地理加权模型耦合,构成含有约束的地理加权空间混合分解方法;或将软分类方法与约束项同时纳入目标函数,构成基于软分类且含有约束的地理加权空间混合分解方法。
9.根据权利要求7所述的用于时空融合的地理加权空间混合分解方法,其特征在于,对目标函数追加的约束项采用砖块效应消除技术,构成基于砖块效应消除的地理加权空间混合分解方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110007657.0A CN112767292B (zh) | 2021-01-05 | 2021-01-05 | 一种用于时空融合的地理加权空间混合分解方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110007657.0A CN112767292B (zh) | 2021-01-05 | 2021-01-05 | 一种用于时空融合的地理加权空间混合分解方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112767292A true CN112767292A (zh) | 2021-05-07 |
CN112767292B CN112767292B (zh) | 2022-09-16 |
Family
ID=75699275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110007657.0A Active CN112767292B (zh) | 2021-01-05 | 2021-01-05 | 一种用于时空融合的地理加权空间混合分解方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112767292B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115580342A (zh) * | 2022-11-17 | 2023-01-06 | 成都国恒空间技术工程股份有限公司 | 基于智联网的航天情报获取方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722865A (zh) * | 2012-05-22 | 2012-10-10 | 北京工业大学 | 一种超分辨率稀疏重建方法 |
CN104715467A (zh) * | 2015-03-06 | 2015-06-17 | 中国科学院遥感与数字地球研究所 | 一种改进型多源遥感数据时空融合方法 |
CN104915674A (zh) * | 2014-10-24 | 2015-09-16 | 北京师范大学 | Landsat8和MODIS融合构建高时空分辨率数据识别秋粮作物的方法 |
CN106454209A (zh) * | 2015-08-06 | 2017-02-22 | 航天图景(北京)科技有限公司 | 基于时空信息融合技术的无人机应急快反数据链系统及方法 |
CN107392925A (zh) * | 2017-08-01 | 2017-11-24 | 西安电子科技大学 | 基于超像素编码和卷积神经网络的遥感影像地物分类方法 |
CN109285133A (zh) * | 2018-09-28 | 2019-01-29 | 哈尔滨工业大学 | 一种细节增强的遥感图像数据时空谱一体化融合方法 |
CN111353937A (zh) * | 2020-02-28 | 2020-06-30 | 南京航空航天大学 | 一种遥感图像的超分辨率重构方法 |
CN111583330A (zh) * | 2020-04-13 | 2020-08-25 | 中国地质大学(武汉) | 一种多尺度时空马尔可夫遥感影像亚像元定位方法及系统 |
CN112017135A (zh) * | 2020-07-13 | 2020-12-01 | 香港理工大学深圳研究院 | 一种遥感影像数据时空融合的方法、系统及设备 |
CN112085685A (zh) * | 2020-08-12 | 2020-12-15 | 同济大学 | 一种可消除砖块效应的基于空间混合分解的时空融合方法 |
-
2021
- 2021-01-05 CN CN202110007657.0A patent/CN112767292B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722865A (zh) * | 2012-05-22 | 2012-10-10 | 北京工业大学 | 一种超分辨率稀疏重建方法 |
CN104915674A (zh) * | 2014-10-24 | 2015-09-16 | 北京师范大学 | Landsat8和MODIS融合构建高时空分辨率数据识别秋粮作物的方法 |
CN104715467A (zh) * | 2015-03-06 | 2015-06-17 | 中国科学院遥感与数字地球研究所 | 一种改进型多源遥感数据时空融合方法 |
CN106454209A (zh) * | 2015-08-06 | 2017-02-22 | 航天图景(北京)科技有限公司 | 基于时空信息融合技术的无人机应急快反数据链系统及方法 |
CN107392925A (zh) * | 2017-08-01 | 2017-11-24 | 西安电子科技大学 | 基于超像素编码和卷积神经网络的遥感影像地物分类方法 |
CN109285133A (zh) * | 2018-09-28 | 2019-01-29 | 哈尔滨工业大学 | 一种细节增强的遥感图像数据时空谱一体化融合方法 |
CN111353937A (zh) * | 2020-02-28 | 2020-06-30 | 南京航空航天大学 | 一种遥感图像的超分辨率重构方法 |
CN111583330A (zh) * | 2020-04-13 | 2020-08-25 | 中国地质大学(武汉) | 一种多尺度时空马尔可夫遥感影像亚像元定位方法及系统 |
CN112017135A (zh) * | 2020-07-13 | 2020-12-01 | 香港理工大学深圳研究院 | 一种遥感影像数据时空融合的方法、系统及设备 |
CN112085685A (zh) * | 2020-08-12 | 2020-12-15 | 同济大学 | 一种可消除砖块效应的基于空间混合分解的时空融合方法 |
Non-Patent Citations (2)
Title |
---|
G.M.FOODY: ""Geographical weighting as a further refinement to regression modeling: An example focused on the NDVI-rainfall relationship"", 《REMOTE SENSING OF ENVIRONMENT》 * |
YIHANG ZHANG等: ""Unsupervised Subpixel Mapping of Remotely Sensed Imagery Based on Fuzzy C-Means Clustering Approach"", 《IEEE GEOSCIENCE AND REMOTE SENSING LETTERS》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115580342A (zh) * | 2022-11-17 | 2023-01-06 | 成都国恒空间技术工程股份有限公司 | 基于智联网的航天情报获取方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112767292B (zh) | 2022-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ge | Sub-pixel land-cover mapping with improved fraction images upon multiple-point simulation | |
Nivedita Priyadarshini et al. | A comparative study of advanced land use/land cover classification algorithms using Sentinel-2 data | |
CN115077656B (zh) | 水库水储量反演方法和装置 | |
Jamali et al. | Urban environmental and land cover change analysis using the scatter plot, kernel, and neural network methods | |
CN112767292B (zh) | 一种用于时空融合的地理加权空间混合分解方法 | |
Peng et al. | Geographically weighted spatial unmixing for spatiotemporal fusion | |
Wu et al. | Spatiotemporal fusion with only two remote sensing images as input | |
CN112529828B (zh) | 参考数据非敏感的遥感影像时空融合模型构建方法 | |
Xiong et al. | Fusing Landsat-7, Landsat-8 and Sentinel-2 surface reflectance to generate dense time series images with 10m spatial resolution | |
Li et al. | Subpixel change detection based on improved abundance values for remote sensing images | |
Luo et al. | Investigating the seasonal dynamics of surface water over the Qinghai–Tibet Plateau using Sentinel-1 imagery and a novel gated multiscale ConvNet | |
Liu | Estimation of the spatial distribution of urban population using high spatial resolution satellite imagery | |
Lv et al. | A novel spatial–spectral extraction method for subpixel surface water | |
Hu et al. | A spatial constraint and deep learning based hyperspectral image super-resolution method | |
CN112085685B (zh) | 一种可消除砖块效应的基于空间混合分解的时空融合方法 | |
CN115630308A (zh) | 一种降尺度和融合联合的地表温度时空分辨率增强方法 | |
CN115100091A (zh) | 一种sar图像转光学图像的转换方法及装置 | |
CN113450456A (zh) | 高可识别度的dem制作方法 | |
CN112686803A (zh) | 基于考虑点扩散函数效应的时空超分辨率映射 | |
Oldeland et al. | Do image resolution and classifier choice impact island biogeographical parameters of terrestrial islands? | |
Bozheva et al. | The effect of spatial resolution of remotely sensed data in dasymetric mapping of residential areas | |
CN117216311B (zh) | 用于时序形变监测的sar影像推荐方法 | |
Alzahrani et al. | On Satellite Imagery of Land Cover Classification for Agricultural Development. | |
Van Der Kwast et al. | Using remote sensing derived spatial metrics for the calibration of land-use change models | |
CN114972986A (zh) | 一种基于gwdm的地表温度降尺度方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |