CN105719262B - 基于子字典稀疏重构的全色与多光谱遥感图像融合方法 - Google Patents
基于子字典稀疏重构的全色与多光谱遥感图像融合方法 Download PDFInfo
- Publication number
- CN105719262B CN105719262B CN201610040489.4A CN201610040489A CN105719262B CN 105719262 B CN105719262 B CN 105719262B CN 201610040489 A CN201610040489 A CN 201610040489A CN 105719262 B CN105719262 B CN 105719262B
- Authority
- CN
- China
- Prior art keywords
- image
- dictionary
- xms
- ypan
- multispectral
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 61
- 230000003595 spectral effect Effects 0.000 claims abstract description 14
- 230000004927 fusion Effects 0.000 claims description 40
- 239000013598 vector Substances 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 2
- 239000002994 raw material Substances 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 5
- 238000001228 spectrum Methods 0.000 abstract 2
- 238000002156 mixing Methods 0.000 abstract 1
- 238000004321 preservation Methods 0.000 abstract 1
- 238000011156 evaluation Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 4
- 238000011084 recovery Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于子字典稀疏重构的全色与多光谱遥感图像融合方法,通过将高空间分辨率多光谱字典看成是由各个波段的高空间分辨率光谱字典的合并组成,再分别通过各个波段的光谱图像和全色图像构建各个波段的子字典,使其即包含光谱信息又包含空间信息,从而解决因缺乏高空间分辨率的多光谱数据其字典较难构建的问题;并基于稀疏重构模型给出完整的融合方法。与现有同类方法相比,本发明不需要引入其它多组全色与多光谱图像或其它模拟高空间分辨率的多光谱图像,而是直接采用源图像构建,提高了方法的实际应用性能与字典的自适应性,使得融合图像在保持光谱信息的同时融入更多的空间细节信息,融合效果更好。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于子字典稀疏重构的全色与多光谱遥感图像融合方法。
背景技术
基于重构的方法是近年来兴起的一种新的全色与多光谱遥感图像融合方法。此类方法基本思路是将全色与多光谱遥感图像看作是其对应的高空间分辨率多光谱图像的退化,再对其进行建模并通过正则项约束解空间,从而将图像融合的过程转变成逆问题的求解过程。
Li和Yang[1]首次利用图像稀疏表示的先验知识,提出基于压缩传感理论的全色与多光谱图像融合方法,将全色与多光谱图像融合问题转化成具有线性约束的信号恢复恢复问题,其信号的恢复与求解是建立在信号稀疏表示的基础上的,因此,字典的构造直接影响信号恢复的效果。Li和Yang在构造字典时,从其他已知的高空间分辨率的多光谱图像中随机采样,构造出具有高空间分辨率的多光谱图像字典。并且在对模拟的全色与多光谱图像融合中获得了较前两类方法更优的融合效果。
然而,在实际应用中,高空间分辨率(米级或亚米级)的多光谱图像本身正是期望得到的融合结果图像,不易获得。针对此问题,Jiang等人[2]提出将其它多组全色和多光谱图像构成样本对,并用K-SVD对每对样本训练字典,在把所有字典以对角线方式排列进行级联,构成最终字典。这种方法需要其他多对全色和多光谱图像对,并且最终构成的对角级联字典将达到1280×20000维,计算量巨大。Cheng等人[3]提出了一种两步字典学习方法,直接从源多光谱与全色图像自身出发训练字典,首先用AWLP方法进行粗融合,再把粗融合的结果做为训练样本,用线性约束的K-SVD方法训练字典。这种方法较前几种方法更为实用,但是粗融合的结果不可避免的将影响训练字典的性能,使得字典中的原子不能有效表示融合图像,最终会影响融合结果。
本方案中涉及的参考文献:
[1]S.Li,B.Yang.A New Pan-sharpening Method using a Compressed SensingTechnique[J].IEEE Transactions on Geoscience and Remote Sensing,2011,49(2):738–746.
[2]C.Jiang,H.Y.Zhang,H.F.Shen,et al.A Practical Compressed Sensing-based Pan-sharpening Method[J].IEEE Geoscience and Remote Sensing Letters,2012,9(4):629-633.
[3]M.Cheng,C.Wang,J.Li.Sparse Representation Based PansharpeningUsing Trained Dictionary[J].IEEE Geoscience and Remote Sensing Letters,2014,11(1):293-297.
[4]Y.Zhang.Problems in the Fusion of Commercial High-resolutionSatellite Images as Well as Landsat-7Images and Initial Solutions[C]//Archives Photogramming Remote Sensing Spatial Information.2002:587-592.
[5]C.A.Laben,V.Bernard,W.Brower.Process for Enhancing the SpatialResolution of Multispectral Imagery using Pan-sharpening,U.S.Patent 6011875,Jan.4,2000.
[6]X.Otazu,M.González-Audícana,O.Fors,J.Núnez.Introduction of SensorSpectral Response into Image Fusion Method:Application to Wavelet-basedMethods[J].IEEE Transactions on Geoscience and Remote Sensing,2005,43(10):2376-2385.
[7]L.Alparone,L.Wald,J.Chanussot,C.Thomas,P.Gamba,L.Bruce.Comparisonof Pansharpening Algorithms:Outcome of the 2006GRS-S data-fusion Contest[J],IEEE Transactions on Geoscience and Remote Sensing,2007,45(10):3012-3021.
[8]Z.Li,H.Leung.Fusion of Multispectral and panchromatic images usinga restoration-based method[J].IEEE Transactions on Geoscience and RemoteSensing,2009,47(5):1482-1491.
[9]L.Alparone,B.Aiazzi,S.Baronti,A.Garzelli,F.Nencini,M.Selva.Multispectral and Panchromatic Data Fusion Assessment withoutReference[J].Photogrammetric Engineering and Remote Sensing,2008,74(2):193-200.
发明内容
本发明针对现有基于稀疏重构的全色与多光谱遥感图像融合方法中字典较难构建的问题,提出基于子字典稀疏重构的全色与多光谱遥感图像融合方法,以提高方法的实际应用性能。
为了实现上述任务,本发明采用以下技术方案:
一种基于子字典稀疏重构的全色与多光谱遥感图像融合方法,包括以下步骤:
记YPAN和YMS分别表示已知的全色图像和多光谱图像,XMS表示未知高空间分辨率的多光谱图像,其中YMS和XMS的第b个波段的图像分别记为YMSb(b=1,2,...,B)和XMSb(b=1,2,...,B),B表示光谱波段总数目,记全色图像与多光谱图像的空间分辨率之比为γ:1;
步骤一,高空间分辨率多光谱图像字典的构造
步骤1.1,将B个波段的YMSb(b=1,2,...,B)分别上采样成与YPAN大小相同的图像,记为MSb(b=1,2,...,B);
步骤1.2,从YPAN以及其对应位置处的MSb(b=1,2,...,B)中随机选M个大小为图像块,并将图像块拉直成向量依次排列,组成第a(a∈b)个波段的子字典,即
Da=[y_MSb,1,y_MSb,2,...,y_MSb,M,yPAN1,yPAN2,...,yPANM] 式1
式1中y_MSb,j,与yPANj分别表示MSb与YPAN图像中的第j个图像块拉直成的向量,j=1,2,...,M;
步骤1.3,采用步骤1.2的方法依次构造B个波段的子字典Db(b=1,2,...,B);
步骤1.4,子字典的级联构成了高空间分辨率多光谱图像字典D,即D=[D1D2...Db...DB]T;
步骤二,基于稀疏重构的图像融合
步骤2.1,对YMSb(b=1,2,...,B)、YPAN分别以大小为 的滑动窗口依次按照从左上到右下的顺序提取图像块,提取图像块时的步长均为1,再将图像块拉直并依次排列组成矩阵yMSb(b=1,2,...,B)与yPAN;
步骤2.3,建立模型,令:
y=M×xMS+v 式2
步骤2.4,采用BP算法求解下面方程
其中,Φ=MD,D表示步骤1.4中的字典,α为稀疏表示系数,即保证x可以用稀疏表示字典中原子的线性组合表示;ε为一个正常数,表示容许误差,||α||0表示α的范数,||y-Φα||2表示y-Φα的范数;
步骤2.5,将xMS进行重构:
xMS=D·α 式4
步骤2.6,将xMSb矩阵中的每一列排列成大小的块,再将这些块按照从左上到右下的顺序放到XMSb的对应位置处,并取平均,即对同一位置的子带系数进行累加并除以累加的次数,从而得到融合图像XMSb(b=1,2,...,B)。
本发明与现有技术相比具有以下技术特点:
1.与现有的方法相比,本发明不需要高空间分辨率的多光谱图像参与,提高了方法的实际应用性能;
2.本发明提出的字典构建方法直接采用源图像构建,提高了字典的自适应性,使得融合图像在保持光谱信息的同时融入更多的空间细节信息,融合效果更好。
附图说明
图1为本发明方法的流程示意图;
图2为QuickBrid卫星数据以及几种方法的融合结果图;其中图2(a)为实际多光谱图像,图2(b)为实际全色图像,图2(c)为Brovey方法融合结果图,图2(d)为GS方法融合结果图,图2(e)为AWLP方法融合结果图,图2(f)为CPSR方法融合结果图,图2(g)TDSR方法融合结果图,图2(h)为本发明方法的融合结果图;
图3是IKONOS卫星数据以及几种方法的融合结果图,其中图3(a)为实际多光谱图像,图3(b)为实际全色图像,图3(c)为Brovey方法融合结果图,图3(d)为GS方法融合结果图,图3(e)为AWLP方法融合结果图,图3(f)为CPSR方法融合结果图,图3(g)TDSR方法融合结果图,图3(h)为本发明方法的融合结果图。
具体实施方式
本实例中采用目前较为常用的QuickBird和IKONOS卫星数据说明本发明的融合效果。这两种数据的多光谱波段分别是蓝、绿、红以及近红外波段,共4个波段,这两种数据的全色与多光谱遥感图像的空间分辨率之比为4:1。本发明方法将与5种流行或近年来较先进的方法进行比较,包括Brovey方法[4],Gram-Schmidt(GS)方法[5],AWLP方法[6],以及经典的基于稀疏表示的融合方法(CPSR)[1]和基于两步字典训练的稀疏重构方法(TDSR)[3]。其中,Brovey与GS方法是基于分量替换的融合方法,这两种方法已经集成到遥感图像处理平台(ENVI,The Environment for Visualizing Images)中。AWLP是经典的基于ARSIS的全色与光谱融合方法,该方法在图像融合大赛中取得出色的成绩[7]。CPSR与TDSR方法是近年来提出的同样基于稀疏表示的全色与多光谱图像融合方法。上述方法的参数设置与各自参考文献一致。
由于实际卫星数据没有标准参考融合结果图像,本发明采用常用无参考图像的评价指标(QNR,Quality with No Reference)[9]进行评价,其包括评价光谱信息损失程度Dλ和评价空间信息损失程度Ds。
实施例1:
遵从上述技术方案,如图1所示,一种基于字典稀疏重构的全色与多光谱遥感图像融合方法,包括以下步骤:
记YPAN和YMS分别表示已知的全色图像和多光谱图像,XMS表示未知高空间分辨率的多光谱图像,其中YMS和XMS的第b个波段的图像分别记为YMSb(b=1,2,...,B)和XMSb(b=1,2,...,B),B表示光谱波段总数目,记全色图像与多光谱图像的空间分辨率之比为γ:1;
步骤一,高空间分辨率多光谱图像字典的构造
步骤1.1,采用双线性差值的方法将B个波段的YMSb(b=1,2,...,B)分别上采样成与YPAN大小相同的图像,记为MSb(b=1,2,...,B);本发明中所指的高空间分辨率图像是指达到米级或亚米级的遥感图像;
步骤1.2,从YPAN以及其对应位置处的MSb(b=1,2,...,B)中随机选M个大小为图像块,并将图像块拉直成向量依次排列,组成第a(a∈b)个波段的子字典;本实施例中,选取M=10000个大小为12×12的图像块,则式1变成:
Da=[y_MSb,1,y_MSb,2,...,y_MSb,10000,yPAN1,yPAN2,...,yPAN10000]
上式中,y_MSb,j,与yPANj分别表示MSb与YPAN图像中的第j(j=1,2,…10000)个图像块拉直成的向量;
步骤1.3,采用步骤1.2的方法依次构造B(B=4)个波段的子字典Db(b=1,2,3,4);
步骤1.4,子字典的级联构成了高空间分辨率多光谱图像字典D,即D=[D1D2D3D4]T。
步骤二,基于稀疏重构的图像融合
步骤2.1,对YMSb(b=1,2,...,B)、YPAN分别以大小为 的滑动窗口依次按照从左上到右下的顺序提取图像块,提取图像块时的步长均为1,再将图像块拉直并依次排列组成矩阵yMSb(b=1,2,...,B)与yPAN;在本实施例中,滑动窗口 分别取3×3和12×12的窗口;
步骤2.3,建立模型,令:
y=M×xMS+v
步骤2.4,采用BP算法求解下面方程
其中,Φ=MD,D表示步骤1.4中的字典,α为稀疏表示系数,即保证x可以用稀疏表示字典中原子的线性组合表示;ε为正常数,取0.1;||α||0表示α的范数,即向量中非零元素个数;||y-Φα||2为y-Φα的范数;
步骤2.5,融合图像xMS可以重构为:
xMS=D·α
步骤2.6,将xMSb矩阵中的每一列排列成12×12大小的块,再将这些块按照提取的顺序(从左上到右下的顺序)放到XMSb的对应位置处,并取平均,即对同一位置的子带系数进行累加并除以累加的次数,从而得到融合图像MSb(b=1,2,3,4)。
图2(a)和图2(b)是一组空间分辨率为2.8米多光谱图像和空间分辨率为0.7米全色图像的实际QuickBird卫星图像数据。几种方法的融合结果如图2(c)-(h)所示,并且将图中上部白色框中区域进行放大显示在每组结果的右下方。从图2(c)可以看出Brovey方法得到的融合结果出现明显的光谱畸变,在绿色植被处更为明显。图2(d)为GS方法得到的融合结果,其中源图像的空间细节信息较好的保留下来,但是出现光谱信息丢失的现象。而AWLP,CPSR与TDSR方法在光谱保持性方面更优,如图2(e)-图2(g)所示。观察图2(h)可以发现在图像光谱颜色以及空间细节处本方法融合的更加自然。
表1给出客观评价结果,从表中评价指标可以看出,本方法对与实际QuickBird卫星图像数据能更有效的融合,在光谱和空间信息保持上均具有更好的融合结果。
表1QuickBrid卫星实际数据几种方法融合结果的客观评价
实施例2:
本实施例与实施例1的步骤基本相同,根据文献[8],在IKONOS卫星数据中M2中参数取:w1=0.1071,w2=0.2646,w3=0.2696,w4=0.3587,其他步骤参数均与实施例1中相同。
图3(a)和图3(b)分别为IKONOS卫星数据中4米空间分辨率的多光谱图像和1米空间分辨率的全色图像。图3(c)-图3(h)分别是几种方法的融合结果,同时对图中的部分区域进行放大,并将其显示在每组融合结果的右下角处。通过视觉观察可以看出,图3(c)和图3(d)中Brovey和GS方法在河流区域处色彩融合与原始多光谱图像色彩差异较大,有明显的光谱失真。图3(e)-图3(h)分别是AWLP,CPSR,TDSR以及本章提出方法的融合结果,它们之间视觉差异较小。
表2是对图3中融合结果的客观指标评价。虽然TSDR方法在Dλ指标上最优,但是对于Ds和QNR指标本发明方法更具优势,说明本发明方法具有更少的空间信息损失,并且在综合指标上更优。
表2IKONOS卫星实际数据以及几种方法的融合结果
Claims (1)
1.一种基于子字典稀疏重构的全色与多光谱遥感图像融合方法,其特征在于,包括以下步骤:
记YPAN和YMS分别表示已知的全色图像和多光谱图像,XMS表示未知高空间分辨率的多光谱图像,其中YMS和XMS的第b个波段的图像分别记为YMSb和XMSb,b=1,2,...,B,B表示光谱波段总数目,记全色图像与多光谱图像的空间分辨率之比为γ:1;
步骤一,高空间分辨率多光谱图像字典的构造
步骤1.1,将B个波段的YMSb分别上采样成与YPAN大小相同的图像,记为MSb;
步骤1.2,从YPAN以及其对应位置处的MSb中随机选M个大小为图像块,并将图像块拉直成向量依次排列,组成第a个波段的子字典,a∈b;即:
Da=[y_MSb,1,y_MSb,2,...,y_MSb,M,yPAN1,yPAN2,...,yPANM] 式1
式1中y_MSb,j与yPANj分别表示MSb与YPAN图像中的第j个图像块拉直成的向量,j=1,2,...,M;
步骤1.3,采用步骤1.2的方法依次构造B个波段的子字典Db;
步骤1.4,子字典的级联构成了高空间分辨率多光谱图像字典D,即D=[D1,D2,...,Db,...DB]T;
步骤二,基于稀疏重构的图像融合
步骤2.1,对YMSb、YPAN分别以大小为的滑动窗口依次按照从左上到右下的顺序提取图像块,提取图像块时的步长均为1,再将图像块拉直并依次排列组成矩阵yMSb与yPAN;
步骤2.2,令其中和为单位矩阵,1为长度为γ的全1向量;令M2=(w1I,w2I,...,wbI,...,wBI),其中为单位矩阵,wb表示每个波段对应线性组合的权重,并且满足
步骤2.3,建立模型,令:
y=M×xMS+v 式2
其中,xMS表示XMSb以的滑动窗口依次按照从左上到右下的顺序提取图像块,并将图像块拉直依次排列组成的矩阵;v1与v2分别表示未知高空间分辨率多光谱图像退化成多光谱图像与全色图像的噪声;
步骤2.4,采用BP算法求解下面方程
其中,Φ=MD,D表示步骤1.4中的字典,α为稀疏表示系数;ε表示容许误差,||α||0表示α的l0范数,||y-Φα||2表示y-Φα的l2范数;
步骤2.5,将xMS进行重构:
xMS=D·α 式4
步骤2.6,将xMSb矩阵中的每一列排列成大小的块,再将这些块按照从左上到右下的顺序放到XMSb的对应位置处,并取平均,从而得到融合图像XMSb。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610040489.4A CN105719262B (zh) | 2016-01-21 | 2016-01-21 | 基于子字典稀疏重构的全色与多光谱遥感图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610040489.4A CN105719262B (zh) | 2016-01-21 | 2016-01-21 | 基于子字典稀疏重构的全色与多光谱遥感图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105719262A CN105719262A (zh) | 2016-06-29 |
CN105719262B true CN105719262B (zh) | 2018-06-22 |
Family
ID=56153696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610040489.4A Active CN105719262B (zh) | 2016-01-21 | 2016-01-21 | 基于子字典稀疏重构的全色与多光谱遥感图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105719262B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106204450B (zh) * | 2016-07-08 | 2019-05-03 | 咸阳师范学院 | 基于深度稀疏自编码的多尺度几何遥感图像融合方法 |
CN112102218B (zh) * | 2020-09-25 | 2023-07-07 | 北京师范大学 | 一种生成高空间分辨率多光谱影像的融合方法 |
CN112784803A (zh) * | 2021-02-03 | 2021-05-11 | 北华航天工业学院 | 一种基于连续小波变换的区域尺度农业大棚信息增强方法 |
CN113436069B (zh) * | 2021-06-16 | 2022-03-01 | 中国电子科技集团公司第五十四研究所 | 一种基于最大信噪比投影的遥感图像融合方法 |
CN114972128B (zh) * | 2022-08-01 | 2022-11-01 | 中国科学院空天信息创新研究院 | 光学遥感图像全色锐化方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102542549A (zh) * | 2012-01-04 | 2012-07-04 | 西安电子科技大学 | 基于压缩感知的多光谱与全色图像超分辨融合方法 |
CN104794681A (zh) * | 2015-04-28 | 2015-07-22 | 西安电子科技大学 | 基于多冗余字典和稀疏重构的遥感图像融合方法 |
CN104867124A (zh) * | 2015-06-02 | 2015-08-26 | 西安电子科技大学 | 基于对偶稀疏非负矩阵分解的多光谱与全色图像融合方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7340099B2 (en) * | 2003-01-17 | 2008-03-04 | University Of New Brunswick | System and method for image fusion |
KR100944462B1 (ko) * | 2008-03-07 | 2010-03-03 | 한국항공우주연구원 | 위성 영상 융합 방법 및 시스템 |
-
2016
- 2016-01-21 CN CN201610040489.4A patent/CN105719262B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102542549A (zh) * | 2012-01-04 | 2012-07-04 | 西安电子科技大学 | 基于压缩感知的多光谱与全色图像超分辨融合方法 |
CN104794681A (zh) * | 2015-04-28 | 2015-07-22 | 西安电子科技大学 | 基于多冗余字典和稀疏重构的遥感图像融合方法 |
CN104867124A (zh) * | 2015-06-02 | 2015-08-26 | 西安电子科技大学 | 基于对偶稀疏非负矩阵分解的多光谱与全色图像融合方法 |
Non-Patent Citations (3)
Title |
---|
Image fusion with nonsubsampled contourlet transform and sparse representation;Jun Wang 等;《Journal of Electronic Imaging》;20131231;第22卷(第4期);第043019-1-043019-15页 * |
基于稀疏表示的遥感图像融合方法;尹雯 等;《光学学报》;20130430;第33卷(第4期);第0428003-1-0428003-8 * |
基于训练字典的遥感图像融合;刘婷 等;《计算机工程与应用》;20131231;第49卷(第19期);第135-140页 * |
Also Published As
Publication number | Publication date |
---|---|
CN105719262A (zh) | 2016-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105719262B (zh) | 基于子字典稀疏重构的全色与多光谱遥感图像融合方法 | |
CN109886870B (zh) | 基于双通道神经网络的遥感图像融合方法 | |
CN106251320B (zh) | 基于联合稀疏与结构字典的遥感图像融合方法 | |
Luo et al. | Pansharpening via unsupervised convolutional neural networks | |
CN108830796B (zh) | 基于谱空结合和梯度域损失的高光谱图像超分辨重构方法 | |
CN110070518B (zh) | 一种基于双路径支持下的高光谱图像超分辨率制图方法 | |
CN112819737B (zh) | 基于3d卷积的多尺度注意力深度卷积网络的遥感图像融合方法 | |
CN104867124B (zh) | 基于对偶稀疏非负矩阵分解的多光谱与全色图像融合方法 | |
CN103208102A (zh) | 一种基于稀疏表示的遥感图像融合方法 | |
CN105550989B (zh) | 基于非局部高斯过程回归的图像超分辨方法 | |
CN113327218B (zh) | 一种基于级联网络的高光谱与全色图像融合方法 | |
CN112184554A (zh) | 一种基于残差混合膨胀卷积的遥感图像融合方法 | |
Yang et al. | Dual-stream convolutional neural network with residual information enhancement for pansharpening | |
CN109360147B (zh) | 基于彩色图像融合的多光谱图像超分辨率重建方法 | |
CN108288256A (zh) | 一种多光谱马赛克图像复原方法 | |
CN102842115A (zh) | 基于双重字典学习的压缩感知图像超分辨率重建方法 | |
CN105447840A (zh) | 基于主动采样与高斯过程回归的图像超分辨方法 | |
CN109559278B (zh) | 基于多特征学习的超分辨图像重建方法及系统 | |
CN107169946B (zh) | 基于非负稀疏矩阵与超球面彩色变换的图像融合方法 | |
CN107635136A (zh) | 基于视觉感知和双目竞争的无参考立体图像质量评价方法 | |
CN110136060A (zh) | 基于浅层密集连接网络的图像超分辨率重建方法 | |
CN104504672B (zh) | 基于NormLV特征的低秩稀疏邻域嵌入超分辨方法 | |
CN115760814A (zh) | 一种基于双耦合深度神经网络的遥感图像融合方法及系统 | |
CN111160478B (zh) | 一种基于深度学习的高光谱目标显著性检测方法 | |
CN109859153B (zh) | 一种基于自适应光谱-空间梯度稀疏正则化的多光谱图像融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20200924 Address after: Room 11606, 16 / F, unit 1, building 2, Zhonggang international, west of Wenjing Road, Xi'an Economic and Technological Development Zone, Shaanxi Province 710016 Patentee after: Easoft Technology Co., Ltd Address before: 710069 Shaanxi city of Xi'an province Taibai Road No. 229 Patentee before: NORTHWESTERN University |