CN105761234A - 一种基于结构稀疏表示的遥感影像融合方法 - Google Patents
一种基于结构稀疏表示的遥感影像融合方法 Download PDFInfo
- Publication number
- CN105761234A CN105761234A CN201610059167.4A CN201610059167A CN105761234A CN 105761234 A CN105761234 A CN 105761234A CN 201610059167 A CN201610059167 A CN 201610059167A CN 105761234 A CN105761234 A CN 105761234A
- Authority
- CN
- China
- Prior art keywords
- image
- luminance component
- structure group
- full
- sparse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 42
- 230000004927 fusion Effects 0.000 claims abstract description 15
- 230000003044 adaptive effect Effects 0.000 claims abstract description 8
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims 1
- 230000003595 spectral effect Effects 0.000 abstract description 7
- 238000012549 training Methods 0.000 abstract description 3
- 238000007499 fusion processing Methods 0.000 abstract 1
- 238000004321 preservation Methods 0.000 abstract 1
- 238000001228 spectrum Methods 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 3
- 238000013441 quality evaluation Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003716 rejuvenation Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
- G06T3/4061—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution by injecting details from different spectral ranges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10036—Multispectral image; Hyperspectral image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种基于结构稀疏表示的遥感图像融合方法,利用自适应权值系数计算模型求出多光谱图像的亮度分量,将相似图像块组成结构组,利用结构组稀疏模型求出亮度分量和全色图像的结构组字典和组稀疏系数,应用绝对值最大规则进行全色图像稀疏系数的部分替换,生成新的稀疏系数,利用全色图像的组字典和新的稀疏系数重构出高空间分辨率亮度图像。最后,用通用分量替换模型进行融合,获得高分辨率多光谱图像。本发明将结构组稀疏表示引入到遥感图像融合领域,克服了在经典稀疏表示融合方法中只考虑单一图像块的局限,同经典稀疏表示方法相比,本发明具有更加优越的光谱保持和空间分辨率提高性能,且极大地缩短了遥感图像融合过程中训练字典的时间。
Description
技术领域
本发明涉及图像处理技术,具体是一种基于结构稀疏表示的遥感影像融合方法。
背景技术
在许多遥感应用中,如土地利用分类变化检测,地图更新和灾难预警监测要求使用高光谱和高空间分辨率的遥感图像。由于辐射能量的限制,遥感传感器所获得图像的空间分辨率和光谱分辨率之间是相互矛盾的。多光谱(MS)图像光谱信息丰富,但空间分辨率较低,高空间分辨率的全色(PAN)图像可以准确地获得目标的细节信息,但其光谱信息较少。通过融合得到MS图像和PAN图像所提供的光谱和空间信息,融合后的图像既具有高空间分辨率,又尽可能保留原来MS图像的光谱信息,这样可以更好地进行遥感图像的分类、特征提取及变化检测等。
目前主要的遥感图像融合方法主要分为两种,一种是分量替换的方法,另一种是多尺度分析的方法。传统的分量替换方法,如IHS变换、PCA变换等融合方法,简单易行,能够较好增强遥感图像的空间分辨率,但容易产生光谱畸变。多尺度分析的方法是通过某种算法来模拟多光谱图像缺失的空间细节信息,比如小波变化融合方法和拉普拉斯金字塔方法。虽然随分解层数的增加,该类方法抽取的空间细节会增加,但融合后多图像的光谱保持能力会变弱。近年,越来越多研究者开始利用基于图像块的稀疏表示算法进行遥感图像的融合,如一种基于稀疏表示的遥感图像融合方法(申请号:201310108594.3),大大提高了图像融合的质量。但是经典稀疏表示其字典训练过程没有考虑图像块之间的结构相似性,且时间复杂度高。结构组稀疏表示(SGSR),采用自适应的结构组字典来代替传统的基于整幅图像块的字典学习,考虑了相似块之间的联系,显著降低字典学习的时间复杂度,提高了稀疏系数求解精度。结构组稀疏表示开始用于图像超分辨率和图像去噪中,取得比经典稀疏表示更好的性能,但这些研究均为针对单幅图像处理的,多幅图像的融合方法还处于空白。
发明内容
本发明的目的在于克服上述现有技术缺点,在通用分量替换融合框架下实现基于结构组稀疏表示的遥感图像融合,即提出一种基于结构稀疏表示的遥感影像融合方法,该方法一方面能提高融合后图像的空间分辨率,减少光谱扭曲和色彩失真,另一方面,还能降低稀疏表示算法字典训练时的时间复杂度,提高计算效率。
为实现上述目的,本发明的技术方案如下:
一种基于结构稀疏表示的遥感影像融合方法,首先利用自适应权值系数模型求出多光谱图像的亮度分量,其次将相似图像块组成结构组,利用组稀疏模型分别求出亮度分量和全色图像的结构组字典和组稀疏系数,然后,根据绝对值最大规则进行全色图像稀疏系数的部分替换得到新的稀疏系数,利用全色图像的组字典和新的稀疏系数重构出高空间分辨率亮度图像。最后根据通用分量替换框架得到融合后的高分辨率多光谱图像。
本发明包括如下步骤:
1)利用不同的遥感影像成像设备分别获得不同类型低分辨率多光谱图像和高分辨率全色图像。
2)利用自适应权值系数模型进行亮度分量计算,由多光谱每个波段图像进行加权平均得到。
3)利用结构组稀疏模型获得亮度分量和全色图像的结构组。
4)利用结构组稀疏模型分别求解步骤3)中亮度分量和全色图像的结构组字典;
5)利用步骤4)获得的结构组字典分别求解亮度分量和全色图像的组稀疏系数;
6)利用步骤5)获得的亮度分量的稀疏系数以及绝对值最大规则对步骤5)获得的全色图像的稀疏系数进行部分替换;
7)利用步骤3)获得的全色图像的结构组字典和步骤6)获得的新的稀疏系数进行重构得到高空间分辨率的亮度分量每个结构组的图像块。
8)将每个结构组按照块索引的位置恢复到原图像的位置,得到高空间分辨率的亮度分量图像。
9)根据通用亮度分量替换框架利用步骤7)获得的新的亮度分量,得到融合后的高空间分辨率的多光谱图像。
本发明的有益效果是:
1、本发明将结构组稀疏表示引入遥感图像融合领域,能同时保持较高空间分辨率和光谱信息,有利于后续图像分类识别等。
2、本发明引入结构组作为亮度分量和全色图像字典学习和稀疏表示的基本单位,区别于经典稀疏表示方法中以图像块为字典学习和稀疏表示的基本单位,充分考虑了图像块之间相似性,能够得到更准确的稀疏系数。
3、本发明引入结构组字典学习方法,每一个结构组都有其结构组字典,字典具有自适应性,简单快速,相比经典的稀疏表示方法,大大减少了字典学习的时间。
4、本发明引入绝对值最大融合规则对全色图像的稀疏系数结果进行部分替换,克服了传统融合技术中光谱扭曲的缺陷,使得本发明比现有技术的光谱扭曲度大大减小。
附图说明
图1是本发明基于结构组稀疏表示的遥感影像融合方法的流程图。
图2是本发明图像结构组构造图。
图3是本发明基于结构组稀疏表示的遥感影像融合方法的仿真图。
具体实施方式
以下结合附图和实施例对本发明的作详细说明:本实施例在以本发明技术方案为前提下进行实施的例子,给出了详细的实施方式和过程,但本发明的保护范围不应限于下述的实施例。
1、利用不同的遥感影像成像设备分别获得不同类型低分辨率多光谱图像和高分辨率全色图像。
读入低分辨率多光谱图像和高分辨率全色图像。
本发明实施例中的低分辨率多光谱图像大小为64×64×4,分辨率为9.6m;高分辨率全色图像大小为256×256,分辨率为2m。
2、利用自适应权值系数模型计算亮度分量,由多光谱每个波段图像进行加权平均得到。
通过下采样至多光谱图像相同的分辨率得到的全色图像XPAN,通过(1)式分别得到四个波段的权重系数δj和偏置常数θ。MMS,j是多光谱图像的第j波段。
然后再通过(2)式得到自适应的亮度分量I。
3、利用自适应图像结构组模型获得亮度分量和全色图像的结构组。
用8×8的窗口分别对多光谱图像和全色图像进行滑动取块,窗口重叠范围为7。每幅图像均划分为62001个图像块。
用32×32的窗口作为结构组选取窗口,窗口相互重叠,每幅图像都划分为3969组32×32的窗口。在每个选取窗口里选择一个初始块XK,利用灰度值计算出和当前选取窗口内其他图像块的欧氏距离,选择60个跟XK欧氏距离最小的图像块。
将每个选取窗口内的60个图像块按列向量排列,然后将60个图像块用矩阵形式排列成的大小为64×60。
亮度分量和全色图像的总的结构组大小均为64×60×3969。
4、所述的结构组字典具体步骤如下:
利用式(3)、(4)对亮度分量的结构组和全色图像的结构组进行奇异值分解
利用式(5)、(6)得到亮度分量的结构组字典DGI和全色图像的结构组字典DGP。
表示的列向量。
5、所述的组稀疏系数求解方法步骤如下;
根据式(7)、(8)得到:
αGI表示亮度分量的稀疏系数,αGP表示全色图像的稀疏系数。
6、为了保留尽可能增强融合后图像的空间信息,又能尽量保留图像原有的光谱信息,减少光谱畸变。根据式(9)绝对值最大规则对亮度分量的稀疏系数αGI和全色图像的稀疏系数αGP进行比较,对全色图像的稀疏系数αGp进行部分替换;
经过公式(9)得到高分辨率亮度分量的稀疏系数αGIP。
7、全色图像包含更多的空间信息,为了增强遥感图像融合后的空间细节信息,利用PAN图像的字典作为最后图像块重构时的字典。根据式(10)重构出高空间分辨率的亮度分量每个结构组的图像块。
图像的重构公式为:
y=DGP×αGIP(10)
其中,y即为高空间分辨率的亮度图像结构组的图像块。
8、将每个结构组中列向量化的图像块重新转化为8×8的图像块。将每个图像块重新恢复到原图像的位置,重叠部分取均值,得到高空间分辨率的亮度分量图像Ih。
9、根据通用亮度分量替换框架利用高空间分辨率的亮度分量图像。得到融合后的高空间分辨率的多光谱图像。步骤如下:
根据式(11)计算多光谱图像MS每个波段j的权重
根据式(12)计算注入多光谱图像中的细节信息w:
w=I-Il(12)
其中h表示高分辨率,l表示低分辨率,Il为亮度分量I,Ih为高分辨率亮度分量。
根据式(13)得到融合后的高空间分辨率的多光谱图像
本发明实例中融合后的高分辨率多光谱图像大小为256×256×4,分辨率为2米。本发明的效果可以通过以下仿真实验作进一步说明。
实验的仿真环境为MatlabR2012b。所进行测试的计算机主频为Interl(R)Core3.40G,操作系统为Windows7。图3(a)和图3(b)是一组。
待融合图像,图3(c)是一幅参考图像,这三幅图像均为Worldview卫星图像,图3(d)~(h)分别为传统算法推广的HIS变换法(GIHS)、主成分分析法(PCA)、高通滤波法(HPF)、加性小波融合法(AWLP)、稀疏表示方法(SR)的融合结果,图3(i)为采用本发明对图3(a)和图3(b)待融合图像进行融合后获得的高分辨率多光谱图像。
为了证明本发明的效果,分别计算推广的HIS变换法(GIHS)、主成分分析法(PCA)、高通滤波法(HPF)、加性小波融合法(AWLP)、稀疏表示法(SR)以及本发明的融合结果的客观评价指标,得到相关系数(CC)、均方根误差(RMSE)、通用图像质量评价指标(UIQI)、相对全局融合误差(ERGAS)、空间映射角(SAM)和如下表:
相关系数越接近1,表示融合图像与参考图像越接近,本发明的三个波段相关系数评价指标均大于现有技术的评价值,融合结果越好,通用图像质量评价指标用来客观评估光谱信息的保留程度,结果范围在[0,1],图像质量指数越大越好,越与参考图像相似,本发明在所有波段的通用图像质量评价指标值都高于传统方法。相对全局融合误差ERGAS小于现有技术的评价值,均方根误差表示融合图像与参考图像误差的大小,均方根误差越小,图像融合的效果越好,空间映射角表示光谱的曲折程度,越接近0,融合效果越好,相对全局融合误差越小融合图像和参考图像越接近,融合的效果就越好。由此可以看出本发明的评价结果整体上优于现有技术的评价结果,本发明比已有技术有较好的客观评价效果。
为了验证本发明比经典的稀疏表示融合方法在字典学习的时间上有着巨大优势,分别统计本方法和经典稀疏表示方法的字典学习时间如下表:
采用本发明的字典学习的时间仅需12.7810秒,而经典的稀疏表示方法的字典学习时间则需要170.0784秒。本发明字典学习时间仅仅约为经典稀疏表示方法的十分之一。而字典学习占据了融合算法计算时间的约80%。大大降低了运算的时间复杂度。
Claims (8)
1.一种基于结构稀疏表示的遥感图像融合方法,其特征在于,包括步骤:
①利用不同的遥感影像成像设备分别获得不同类型低分辨率多光谱图像和高分辨率全色图像;
②利用自适应权值系数模型,由MS每个波段图像进行加权平均得到亮度分量;
③利用结构组稀疏模型分别获得亮度分量和全色图像的结构组;
④利用结构组稀疏模型分别求解步骤③中亮度分量和全色图像的结构组字典;
⑤利用步骤④获得的结构组字典分别求解亮度分量和全色图像的组稀疏系数;
⑥利用步骤⑤获得的亮度分量的稀疏系数以及绝对值最大规则对步骤⑤获得的全色图像的稀疏系数进行部分替换,得到新的稀疏系数;
⑦利用步骤③获得的全色图像的结构组字典和步骤⑥获得的新的稀疏系数进行重构得到新的高空间分辨率的亮度分量;
⑧根据通用亮度分量替换框架利用步骤⑦获得的新的亮度分量,得到融合后的高空间分辨率的多光谱图像。
2.根据权利要求1所述的基于结构稀疏表示的遥感图像融合方法,其特征在于:步骤②所述的自适应权值系数模型具体步骤如下:
首先将步骤①获得全色图像下采样至多光谱图像大小,根据下列公式(1)求得每个波段的权重系数δj和偏置常数θ;
其中:MMS,j是MS图像的第j波段,j=1,2,…4;XPAN是经过下采样至原始多光谱图像一样大小的PAN图像;
求得每个波段的权重系数δj和偏置常数θ后根据公式(2)得到亮度分量I:
3.根据权利要求2所述的基于结构稀疏表示的遥感图像融方法,其特征在于:步骤③所述的图像结构组稀疏模型获得亮度分量和全色图像的结构组的具体步骤如下:
用n×n的窗口将原始图像划分为S个图像块XK,K=1,2,…S,选择一个初始块XK,在选取窗口中利用灰度值计算出欧氏距离,选择c个跟XK最相似的图像块;每个图像块按列向量排列,然后将c个图像块用矩阵形式排列成结构组
4.根据权利要求3所述的基于结构稀疏表示的遥感图像融方法,其特征在于:步骤④所述的利用结构组稀疏模型分别求解步骤③中亮度分量和全色图像的结构组字典;具体步骤如下:
设每一个结构组对应的组字典为在下的稀疏表示过程中求得一个稀疏系数向量使得
为了方便表示,用DGαG表示因此整幅图像x的结构组稀疏表示模型用下式表示:
x=DGαG(3)
其中DG表示的合并,αG表示的合并;
采用自适应字典学习方法进行字典学习;首先对每个结构组进行奇异值分解
结构字典中每个原子等于下式:
表示的列向量。
5.根据权利要求4所述的基于结构稀疏表示的遥感图像融合方法,其特征在于:上述步骤⑤利用步骤④获得的结构组字典分别求解亮度分量和全色图像的组稀疏系数具体步骤如下:
利用分裂Bregman迭代(SplitBregmanIteration,SBI)算法框架去直接求解下式表示的非凸的l0范数优化问题:
αGI表示亮度分量的稀疏系数,αGP表示全色图像的稀疏系数。DGI表示亮度分量的结构组字典,DGP表示全色图像的结构组字典。
6.根据权利要求5所述的基于结构稀疏表示的遥感图像融合方法,其特征在于:利用步骤⑤获得的亮度分量的稀疏系数以及绝对值最大规则对步骤④获得的全色图像的稀疏系数进行部分替换具体步骤如下:
根据绝对值最大的融合规则,利用公式(8)得到高分辨率亮度分量的稀疏系数αGIP,
αGI为亮度分量的组稀疏系数,αGP为全色图像的组稀疏系数。
7.根据权利要求6所述的基于结构稀疏表示的遥感图像融合方法,其特征在于:利用步骤③获得的全色图像的结构组字典和步骤⑥获得的新的稀疏系数进行重构得到新的高空间分辨率的亮度分量具体步骤如下:
根据下列图像的重构公式(9)得到高空间分辨率的亮度图像:
y=DGP×αGIP(9)
DGP为全色图像的组字典,y为高空间分辨率的亮度图像。
8.根据权利要求7所述的基于结构稀疏表示的遥感图像融合方法,其特征在于:根据通用亮度分量替换框架利用步骤⑦获得的新的亮度分量,得到融合后的高空间分辨率的多光谱图像具体步骤如下:
利用公式(10)得到融合后的高空间分辨率多光谱遥感图像;
其中h表示高分辨率,l表示低分辨率,w=Ih-Il,Il为亮度分量I,Ih为高分辨率亮度分量,w为注入MS图像中的细节信息,为对应MS图像每个波段的权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610059167.4A CN105761234A (zh) | 2016-01-28 | 2016-01-28 | 一种基于结构稀疏表示的遥感影像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610059167.4A CN105761234A (zh) | 2016-01-28 | 2016-01-28 | 一种基于结构稀疏表示的遥感影像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105761234A true CN105761234A (zh) | 2016-07-13 |
Family
ID=56342691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610059167.4A Pending CN105761234A (zh) | 2016-01-28 | 2016-01-28 | 一种基于结构稀疏表示的遥感影像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105761234A (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251320A (zh) * | 2016-08-15 | 2016-12-21 | 西北大学 | 基于联合稀疏与结构字典的遥感图像融合方法 |
CN106886986A (zh) * | 2016-08-31 | 2017-06-23 | 电子科技大学 | 基于自适应组结构稀疏字典学习的图像融合方法 |
CN106960221A (zh) * | 2017-03-14 | 2017-07-18 | 哈尔滨工业大学深圳研究生院 | 一种基于光谱特征和空间特征融合的高光谱图像分类方法及系统 |
CN107274343A (zh) * | 2017-06-01 | 2017-10-20 | 清华大学 | 一种稀疏框架下基于光谱库的多光谱遥感图像光谱超分辨率方法 |
CN108388917A (zh) * | 2018-02-26 | 2018-08-10 | 东北大学 | 一种基于改进深度学习模型的高光谱图像分类方法 |
CN108765322A (zh) * | 2018-05-16 | 2018-11-06 | 上饶师范学院 | 图像去噪方法及装置 |
CN109509160A (zh) * | 2018-11-28 | 2019-03-22 | 长沙理工大学 | 一种利用逐层迭代超分辨率的分层次遥感图像融合方法 |
CN109934154A (zh) * | 2019-03-08 | 2019-06-25 | 北京科技大学 | 一种遥感影像变化检测方法及检测装置 |
CN110070518A (zh) * | 2019-03-15 | 2019-07-30 | 南京航空航天大学 | 一种基于双路径支持下的高光谱图像超分辨率制图方法 |
CN110213626A (zh) * | 2018-02-28 | 2019-09-06 | Tcl集团股份有限公司 | 视频处理方法及终端设备 |
CN111080566A (zh) * | 2019-12-12 | 2020-04-28 | 太原科技大学 | 一种基于结构组双稀疏学习的可见光与红外图像融合方法 |
CN111524079A (zh) * | 2020-04-22 | 2020-08-11 | 四川大学 | 基于分量替换和低通滤波的多光谱遥感图像全色锐化方法 |
CN113554112A (zh) * | 2021-07-30 | 2021-10-26 | 西安交通大学 | 一种遥感图像融合方法、系统、设备及介质 |
CN114708178A (zh) * | 2022-03-30 | 2022-07-05 | 北京理工大学 | 基于引导滤波与稀疏表示的遥感影像融合方法 |
CN114926459A (zh) * | 2022-06-21 | 2022-08-19 | 上海市计量测试技术研究院 | 图像质量评价方法、系统及计算机可读介质 |
CN115797175A (zh) * | 2022-11-30 | 2023-03-14 | 哈尔滨工业大学 | 一种基于亚像素字典学习的高光谱遥感图像空间超分辨方法 |
-
2016
- 2016-01-28 CN CN201610059167.4A patent/CN105761234A/zh active Pending
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251320A (zh) * | 2016-08-15 | 2016-12-21 | 西北大学 | 基于联合稀疏与结构字典的遥感图像融合方法 |
CN106251320B (zh) * | 2016-08-15 | 2019-03-26 | 西北大学 | 基于联合稀疏与结构字典的遥感图像融合方法 |
CN106886986A (zh) * | 2016-08-31 | 2017-06-23 | 电子科技大学 | 基于自适应组结构稀疏字典学习的图像融合方法 |
CN106886986B (zh) * | 2016-08-31 | 2019-06-21 | 电子科技大学 | 基于自适应组结构稀疏字典学习的图像融合方法 |
CN106960221A (zh) * | 2017-03-14 | 2017-07-18 | 哈尔滨工业大学深圳研究生院 | 一种基于光谱特征和空间特征融合的高光谱图像分类方法及系统 |
CN107274343A (zh) * | 2017-06-01 | 2017-10-20 | 清华大学 | 一种稀疏框架下基于光谱库的多光谱遥感图像光谱超分辨率方法 |
CN108388917A (zh) * | 2018-02-26 | 2018-08-10 | 东北大学 | 一种基于改进深度学习模型的高光谱图像分类方法 |
CN110213626A (zh) * | 2018-02-28 | 2019-09-06 | Tcl集团股份有限公司 | 视频处理方法及终端设备 |
CN110213626B (zh) * | 2018-02-28 | 2020-10-16 | Tcl科技集团股份有限公司 | 视频处理方法及终端设备 |
CN108765322B (zh) * | 2018-05-16 | 2021-04-27 | 上饶师范学院 | 图像去噪方法及装置 |
CN108765322A (zh) * | 2018-05-16 | 2018-11-06 | 上饶师范学院 | 图像去噪方法及装置 |
CN109509160A (zh) * | 2018-11-28 | 2019-03-22 | 长沙理工大学 | 一种利用逐层迭代超分辨率的分层次遥感图像融合方法 |
CN109934154B (zh) * | 2019-03-08 | 2021-06-01 | 北京科技大学 | 一种遥感影像变化检测方法及检测装置 |
CN109934154A (zh) * | 2019-03-08 | 2019-06-25 | 北京科技大学 | 一种遥感影像变化检测方法及检测装置 |
CN110070518A (zh) * | 2019-03-15 | 2019-07-30 | 南京航空航天大学 | 一种基于双路径支持下的高光谱图像超分辨率制图方法 |
CN111080566A (zh) * | 2019-12-12 | 2020-04-28 | 太原科技大学 | 一种基于结构组双稀疏学习的可见光与红外图像融合方法 |
CN111524079A (zh) * | 2020-04-22 | 2020-08-11 | 四川大学 | 基于分量替换和低通滤波的多光谱遥感图像全色锐化方法 |
CN111524079B (zh) * | 2020-04-22 | 2023-06-20 | 四川大学 | 基于分量替换和低通滤波的多光谱遥感图像全色锐化方法 |
CN113554112A (zh) * | 2021-07-30 | 2021-10-26 | 西安交通大学 | 一种遥感图像融合方法、系统、设备及介质 |
CN113554112B (zh) * | 2021-07-30 | 2023-09-19 | 西安交通大学 | 一种遥感图像融合方法、系统、设备及介质 |
CN114708178A (zh) * | 2022-03-30 | 2022-07-05 | 北京理工大学 | 基于引导滤波与稀疏表示的遥感影像融合方法 |
CN114926459A (zh) * | 2022-06-21 | 2022-08-19 | 上海市计量测试技术研究院 | 图像质量评价方法、系统及计算机可读介质 |
CN115797175A (zh) * | 2022-11-30 | 2023-03-14 | 哈尔滨工业大学 | 一种基于亚像素字典学习的高光谱遥感图像空间超分辨方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105761234A (zh) | 一种基于结构稀疏表示的遥感影像融合方法 | |
US11238602B2 (en) | Method for estimating high-quality depth maps based on depth prediction and enhancement subnetworks | |
CN110910447B (zh) | 一种基于动静态场景分离的视觉里程计方法 | |
Rao et al. | A residual convolutional neural network for pan-shaprening | |
CN111127374B (zh) | 一种基于多尺度密集网络的Pan-sharpening方法 | |
CN103208102B (zh) | 一种基于稀疏表示的遥感图像融合方法 | |
CN106408524B (zh) | 基于二维图像辅助的深度图像增强方法 | |
CN110501072B (zh) | 一种基于张量低秩约束的快照式光谱成像系统的重构方法 | |
CN110415199B (zh) | 基于残差学习的多光谱遥感图像融合方法及装置 | |
CN111145131A (zh) | 一种基于多尺度生成式对抗网络的红外和可见光图像融合方法 | |
CN110517306B (zh) | 一种基于深度学习的双目深度视觉估计的方法和系统 | |
CN111080567A (zh) | 基于多尺度动态卷积神经网络的遥感图像融合方法及系统 | |
CN104657962B (zh) | 基于级联线性回归的图像超分辨重建方法 | |
CN113283444B (zh) | 一种基于生成对抗网络的异源图像迁移方法 | |
CN102915527A (zh) | 基于形态学成分分析的人脸图像超分辨率重建方法 | |
CN110148103A (zh) | 基于联合优化的高光谱和多光谱图像融合方法、计算机可读存储介质、电子设备 | |
CN103020939A (zh) | 利用多时相数据去除光学遥感影像大面积厚云的方法 | |
CN110490799A (zh) | 基于自融合卷积神经网络的高光谱遥感影像超分辨率方法 | |
CN115035003A (zh) | 交互补偿注意力的红外与可见光图像对抗融合方法 | |
CN116612334B (zh) | 一种基于空谱联合注意力机制的医学高光谱图像分类方法 | |
CN115578262A (zh) | 基于afan模型的偏振图像超分辨率重建方法 | |
Zhou et al. | PADENet: An efficient and robust panoramic monocular depth estimation network for outdoor scenes | |
CN109559278B (zh) | 基于多特征学习的超分辨图像重建方法及系统 | |
CN112686830B (zh) | 基于图像分解的单一深度图的超分辨率方法 | |
CN106157240A (zh) | 基于字典学习的遥感图像超分辨率方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160713 |