CN106251320A - 基于联合稀疏与结构字典的遥感图像融合方法 - Google Patents
基于联合稀疏与结构字典的遥感图像融合方法 Download PDFInfo
- Publication number
- CN106251320A CN106251320A CN201610668711.5A CN201610668711A CN106251320A CN 106251320 A CN106251320 A CN 106251320A CN 201610668711 A CN201610668711 A CN 201610668711A CN 106251320 A CN106251320 A CN 106251320A
- Authority
- CN
- China
- Prior art keywords
- image
- sparse
- dictionary
- fusion
- full
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 81
- 230000004927 fusion Effects 0.000 claims description 75
- 238000005070 sampling Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000001228 spectrum Methods 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 6
- 238000012966 insertion method Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000003595 spectral effect Effects 0.000 description 16
- 238000002474 experimental method Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 239000000243 solution Substances 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 238000007499 fusion processing Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10036—Multispectral image; Hyperspectral image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10041—Panchromatic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/513—Sparse representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了基于联合稀疏与结构字典的遥感图像融合方法,首先通过在线稀疏字典算法分别从全色图像和多光谱图像学习获得相应的结构字典;然后采用联合稀疏表示获取全色图像不同于多光谱图像的特有成分;最后利用ARSIS融合框架将全色图像的特有成分注入到多光谱图像,得到高分辨率多光谱图像;本发明有效利用字典的稀疏特性和原子间的相关性,进一步降低字典训练的复杂度,提高结构字典的自适应性,使得特有分量的重构更为准确,提高图像融合的质量;同时,本发明充分考虑全色图像的细节信息和低频信息,使得融合更为全面有效。
Description
技术领域
本发明属于图像处理技术领域,具体涉及基于联合稀疏与结构字典的遥感图像融合方法。
背景技术
遥感卫星在拍摄获取多光谱(MS)图像的同时,可获取同场景的全色(PAN)图像,其中,多光谱图像富含光谱信息,但空间分辨率低,清晰度差;全色图像的空间分辨率高,但光谱分辨率低;因此,如何充分利用多光谱图像的光谱信息和全色图像的空间信息获取高分辨率多光谱图像,成为遥感图像融合研究的热点话题。目前,卫星遥感图像的融合方法大致可归为四类:基于替代的方法、基于ARSIS思想的方法、基于多分辨率分析的方法和基于稀疏表示的方法。
分量替代方法最大的特点是计算效率高,能保持空间细节信息,但很难避免出现光谱扭曲现象;基于ARSIS思想的方法通常能够很好的保持多光谱图像的光谱信息,但不足之处是混叠以及局部差异会导致融合质量的下降;而基于多尺度分析方法能更好地保持光谱信息,但是会产生模糊或者信息扭曲,导致空间信息丢失,同时对图像所有几何特征表示不全面。
稀疏性是近些年提出的一种新型的先验假设,它符合人类的视觉特性,且稀疏表示能充分利用图像信号的内部结构信息。最近几年,在字典学习的基础上,越来越多的融合方法被提出。现有方法中有利用稀疏表示和ARSIS思想相结合的融合方法,该类方法首先利用稀疏表示从全色图像获取细节信息,然后通过ARSIS融合框架将细节信息注入到光谱图像各波段中,这类方法的融合效果虽得到极大地提高,但存在的不足是:只融合了全色图像的细节信息而忽略了低频信息。
为充分利用图像内部及图像间存在的结构特性和相关性,以降低图像处理的工作量和提高图像融合的准确度,本文提出基于联合稀疏与结构字典的融合方法(JSRDIP);一方面,充分考虑全色图像的细节信息和低频信息,使得融合更为全面有效,再者充分利用图像存在的结构特性,以进一步提高图像融合的质量;另一方面,改善遥感图像融合方法普遍存在的效率低的问题。
发明内容
针对上述现有技术中存在的缺陷或不足,本发明的目的在于,提供基于联合稀疏与结构字典的遥感图像融合方法,解决现有技术中遥感图像融合不全面、融合质量和融合效率低的问题。
为了实现上述任务,本发明采用如下技术方案予以实现:
基于联合稀疏与结构字典的遥感图像融合方法,包括以下步骤:
步骤一:获取多光谱图像和全色图像,对多光谱图像进行上采样处理得到上采样图像;
步骤二:对步骤一所得的上采样图像中各波段图像求均值得到强度分量,将全色图像与强度分量进行匹配得到新的全色图像;
步骤三:采用在线稀疏字典学习算法对步骤一得到的上采样图像中各波段图像以及步骤二得到的新的全色图像分别训练,获取对应的结构字典;
步骤四:采用联合稀疏模型,从步骤二得到的新的全色图像中提取不同于步骤一得到的上采样图像中各波段图像的特有分量;
步骤五:基于ARSIS融合框架,将步骤四得到的特有分量融入到步骤一得到的上采样图像的各波段图像中,得到融合多光谱图像。
本发明还有如下区别技术特征:
进一步的,步骤一中所述对多光谱图像进行上采样处理得到上采样图像是指:
采用双三次线性插入方法将多光谱图像上采样p倍得到上采样图像XMS,其中,p为全色图像和多光谱图像空间分辨率的比值。
更进一步的,p=4。
进一步的,步骤二的具体步骤包括:
步骤2.1:对步骤一所得的上采样图像XMS中各波段图像求均值,得到强度分量I,即
其中,是XMS第j(j=1,2,…,k)个波段的光谱图像,k是波段的个数;
步骤2.2:将步骤一所得的全色图像与步骤2.1所得的强度分量I进行直方图匹配,得到新的全色图像XPAN。
进一步的,步骤四的具体步骤包括:
步骤4.1:对上采样图像XMS中各波段图像和XPAN图像利用联合稀疏建模得到如下式所示的优化问题:
利用OMP算法对上式求解,得到稀疏系数其中,αCj为公共稀疏系数,为中第j个波段图像对应的特有稀疏系数,为全色图像XPAN对应的特有稀疏系数;
步骤4.2:采用类似绝对值取大的方法对步骤4.1获得的全色图像XPAN对应的特有稀疏系数进行选取,得到融合所需的全色图像特有稀疏系数αpj,所述类似绝对值取大的方法如下式:
步骤4.3:将步骤4.2获得的全色图像特有稀疏系数αpj重构,得到所需的特有分量计算公式如下:
其中,Dp为全色图像XPAN经过训练所获取的结构字典。
进一步的,步骤五的具体步骤包括:
基于ARSIS融合框架,将步骤4.3获得的特有分量融入到步骤一所得的上采样图像XMS的各波段图像中,得到融合多光谱图像,融入模型为:
其中,为融合后光谱图像的第j个波段图像。
本发明与现有技术相比,具有以下优点:
(1)本发明采用联合稀疏模型来提取全色图像不同于多光谱图像各波段图像的稀疏特有分量,充分利用图像内部和图像间的相关性,进一步降低对图像处理的工作量,且提高了全色图像特有成分重构的精度;
(2)本发明采用在线稀疏字典学习方法对全色图像和多光谱图像各波段图像进行字典训练,有效利用字典的稀疏特性和原子间的相关性,进一步降低字典训练的复杂度,提高结构字典的自适应性;使得特有分量的重构更为准确,提高图像融合的质量;
(3)本发明在建模求解过程中充分考虑全色图像的细节信息和低频信息,使得融合更为全面有效。
附图说明
图1是本发明的融合框架图。
图2是模拟图像中不同融合方法对QuickBird卫星图像融合结果;其中,图2(a)为源多光谱图像,图2(b)为全色图像,图2(c)为参考图像,图2(d)为CS_BP方法融合图像,图2(e)为CS_OMP方法融合图像,图2(f)为DCS方法融合图像,图2(g)为SRDIP方法融合图像,图2(h)为DIP_OSDL方法融合图像,图2(i)为JSRDIP方法融合图像。
图3是模拟图像中不同融合方法对IKONOS卫星图像融合结果;其中,图3(a)为源多光谱图像,图3(b)为全色图像,图3(c)为参考图像,图3(d)为CS_BP方法融合图像,图3(e)为CS_OMP方法融合图像,图3(f)为DCS方法融合图像,图3(g)为SRDIP方法融合图像,图3(h)为DIP_OSDL方法融合图像,图3(i)为JSRDIP方法融合图像。
图4是实际图像中不同融合方法对QuickBird卫星图像融合结果;其中,图4(a)为源多光谱图像,图4(b)为全色图像,图4(c)为CS_BP方法融合图像,图4(d)为CS_OMP方法融合图像,图4(e)为DCS方法融合图像,图4(f)为SRDIP方法融合图像,图4(g)为DIP_OSDL方法融合图像,图4(h)为JSRDIP方法融合图像。
图5是实际图像中不同融合方法对IKONOS卫星图像融合结果;其中,图5(a)为源多光谱图像,图5(b)为全色图像,图5(c)为CS_BP方法融合图像,图5(d)为CS_OMP方法融合图像,图5(e)为DCS方法融合图像,图5(f)为SRDIP方法融合图像,图5(g)为DIP_OSDL方法融合图像,图5(h)为JSRDIP方法融合图像。
以下结合附图和实施例对本发明的具体内容作进一步详细地解释和说明。
具体实施方式
为了使本发明的目的、技术方案及优势更加清楚,结合附图及实施例对本发明做进一步详细说明。
结合图1所示的融合框架,本发明的具体实现包括如下步骤:
步骤一:获取多光谱图像和全色图像,对多光谱图像进行上采样处理得到上采样图像;使多光谱图像与全色图像的尺寸大小相同,以便后续处理;步骤一中所述对多光谱图像进行上采样处理得到上采样图像是指:
采用双三次线性插入方法将多光谱图像上采样p倍得到上采样图像XMS,其中,p为全色图像和多光谱图像空间分辨率的比值,p=4;
步骤二:对步骤一所得的上采样图像中各波段图像求均值得到强度分量,将全色图像与强度分量进行匹配得到新的全色图像;进行匹配时是以多光谱图像为标准,调节全色图像的色调与反差,以便做进一步的运算;
步骤2.1:对步骤一所得的XMS中各波段图像求均值得到强度分量I,以便与全色图像做匹配,其中
其中,是XMS第j(j=1,2,…,k)个波段的光谱图像,k是波段的个数,k=4;
步骤2.2:将步骤一所得的全色图像与步骤2.1所得的强度分量I进行直方图匹配,得到新的全色图像XPAN;
步骤三:采用在线稀疏字典学习(online sparse dictionary learning,OSDL)算法对步骤一得到的上采样图像中各波段图像以及步骤二得到的全色图像分别训练,获取对应的结构字典;
利用双稀疏模型,采用OSDL算法对步骤一获得的上采样图像XMS中各波段图像以及步骤二获得的全色图像XPAN分别训练以获取各自对应的结构字典Dj(j=1,2,…,k)和DP。
为获取有效快捷且自适应性强的字典,训练过程中需在字典中添加一些特定约束项,双稀疏模型的约束项即为字典的稀疏特性;在双稀疏模型中,有效结构字典中的原子为基字典Φ中少数任意原子的线性组合所构成,因此,双稀疏模型的表达式为:
其中,A∈RL×m和X∈Rm×n分别为稀疏字典和系数矩阵,xi和aj分别为稀疏系数和稀疏字典原子,p和k分别为稀疏系数和字典的稀疏度,基字典Φ∈Rn×L由剪切小波的Kronecker积构成,因此,双稀疏模型中稀疏字典学习的表达式如下:
采用在线稀疏字典学习算法(OSDL)对图像块进行训练,学习得到稀疏字典,再与基字典线性构成学习型结构字典;因在OSDL算法学习过程中采用的是批量处理替代原来的小图像块处理方式,从而减少了稀疏编码和稀疏字典更新时二者交替变换的次数,进一步降低计算复杂度,训练效率得以提高;再者,OSDL算法采用随机梯度下降法对稀疏字典中每个原子进行更新,可增强字典的自适应性,可使图像稀疏求解及重构更为准确,进一步提高融合图像的质量;
步骤四:采用联合稀疏模型(Joint Sparsity Model,JSM),从步骤二得到的新的全色图像中提取不同于步骤一得到的上采样图像中各波段图像的特有分量;联合稀疏不仅可充分提取全色图像的特有分量,还可以进一步降低计算的复杂度,且提取出的特有分量较全面地包含多光谱图像所缺失的信息;
不同传感器可获得地物信息之间所存在的冗余信息和互补信息,融合处理就是利用冗余性和互补性来增加图像的信息量;在JSM-1模型中,所有图像都是由一个稀疏共同分量和一个稀疏特有分量组成,因此,对图像做融合处理时可转化为将稀疏特有分量融合到新图像中以尽可能的包含所有待融合图像的信息;
步骤4.1:对上采样图像XMS中各波段图像和XPAN图像利用联合稀疏建模得到:
其中,Dcj=[D,Dp,Dj],分析字典D由剪切小波(The Cropped Wavelets)构成;
令E=blkdiag(Dj,Dp)Ψ=[B,E],则上式转化为如下式所示的优化问题:
利用OMP算法对上式求解,得到稀疏系数其中,αCj为公共稀疏系数,为中第j个波段图像对应的特有稀疏系数,为全色图像XPAN对应的特有稀疏系数;联合稀疏求解得到的特有稀疏系数用来重构融合所需的全色图像的特有分量;
步骤4.2:由于全色图像的特有分量无需全部融入到多光谱图像各波段中去,因此选取最大活跃度对应的特有稀疏系数αpj作为融合系数;为了更好地提取所需的特有稀疏系数,采用类似绝对值取大的方法对步骤4.1获得的全色图像XPAN对应的特有稀疏系数进行选取,得到融合所需的全色图像特有稀疏系数αpj,选取方式如下式所示:
步骤4.3:将步骤4.2获得的全色图像特有稀疏系数αpj重构,得到所需的特有分量重构出的特有分量是为了融入到多光谱图像中去,以提高多光谱图像的分辨率,特有分量计算公式如下:
其中,Dp为全色图像XPAN经过训练所获取的结构字典;
步骤五:基于ARSIS融合框架,将步骤四得到的特有分量融入到步骤一得到的上采样图像的各波段图像中,得到融合多光谱图像;其中,采用ARSIS融合框架是为了使融合图像很好地保留源图像的光谱信息;
基于ARSIS融合框架,将步骤4.3获得的特有分量融入到步骤一所得的上采样图像XMS的各波段图像中,得到高分辨率多光谱图像,融入模型为:
其中,为融合后光谱图像的第j个波段图像。
实施例
本发明采用四组卫星遥感图像来验证所提融合算法的有效性;QuickBird卫星可提供空间分辨率为0.7米的全色图像和空间分辨率为2.8米的多光谱图像;IKONOS卫星提供空间分辨率为1米的全色图像和空间分辨率为4米的多光谱图像;其中,多光谱图像包括红、绿、蓝和近红外四个波段;为更好评估融合方法的实用性,本发明给出模拟图像实验和实际图像实验,其中,模拟图像实验中采用的模拟图像是通过对实际图像依次进行MTF滤波和下采样4倍获得,实际图像实验是直接将真实图像进行融合。
实验中采用已配准好的全色图像和多光谱图像,其大小分别为256×256和64×64,本发明主要与基于压缩感知(CS)、基于分布压缩感知(DCS)以及同类采用注入模型(SRDIP)的融合方法进行比较;一方面为使实验对比分析更准确,实验部分将给出原CS方法(CS_BP)以及CS改进方法(CS_OMP)作为对比实验;另一方面为突出结构字典的性能,增加DIP_OSDL融合方法作为对比试验。CS方法和DCS实验中,全色图像和多光谱图像对应的图像块大小分别是8×8和2×2,重叠像素值个数分别为1和4,实验重构误差ε设为1,其中,CS方法采用的字典为随机抽取的图像块组成,且字典大小为1000,而DCS所采用的字典包含K-SVD算法训练得到学习型字典和分析型字典;SRDIP融合方法实验中,全色图像的图像块大小为8×8,重叠像素值个数为7,字典大小为64,trous小波分解层数为2,稀疏表示求解误差为0.01,K-SVD训练字典中,稀疏编码的稀疏度为6,迭代次数为10;DIP_OSDL方法选用的全色图像的图像块大小为3×3,像素重叠个数为2,字典大小为64,trous小波分解层数为2,稀疏求解误差为0.01,采用OSDL算法训练字典时,稀疏编码的稀疏度为6,稀疏字典的稀疏度为40,迭代次数为3,其中,高频结构字典DHF为64×128,低频结构字典DIF大小为64×64;本文方法选取的全色图像块大小为4×4,像素重叠个数为3,稀疏求解允许误差为0.01,字典训练中稀疏字典的稀疏度为40,稀疏编码的稀疏度为6。
模拟图像实验效果分析:
图2(a)、(b)和图3(a)、(b)分别为QuickBird和IKONOS源多光谱图和的全色图,图2(c)和图3(c)为参考图像,图2(e)~(i)和图3(e)~(i)分别为QuickBird和IKONOS卫星融合结果图(只显示RGB三个波段),每幅图像中的左下角为局部放大图;通过对原始图像和融合图像进行视觉比较,可以看出所有方法都能提高源多光谱图像的分辨率,但是CS方法融合图像的颜色发生较大改变;从图2(f)~(h)可以看出,其他方法均能很好地保留源多光谱图像的光谱信息,但这些方法的局部放大图像出现有块状效应;图3(g)和图3(h)可以看出,SRDIP和DIP_OSDL的融合图像虽然清晰度很高,但是部分地方融合过度,部分地方融合不到位;而从图2(i)和图3(i)可以看到,本发明在提高多光谱图像空间分辨率的同时,很好地保留了源图像的光谱信息,获得更好、更为自然的融合图像。
通过对图像的分析可以对融合结果有比较直观的认识,但单纯依靠主观评价很难给出正确判断,因此,需结合客观指标共同对融合结果进行评估;本发明采用SSIM、MI、CC、SAM、Q4这五种客观评价指标对图像进行全面地评估;其中,SSIM通过从亮度、对比度和结构这三个方面的比较,实现对融合结果中每个波段图像与参考图像中每个波段图像结构相似的度量;MI用以测量参考图像与融合图像的互相关信息;CC表示相关系数,用于测量两个图像对应的波段图像的光谱和空间信息相关程度;SAM表示全局光谱扭曲测量,最优值为0;Q4是一种综合性更强的融合图像质量标准,最优值为1。
表1和表3所示为不同融合方法下模拟图像融合结果的客观指标;从表1和表3可以看到,本发明的各方面客观指标较优于其他方法,其中,本发明的SAM值远远低于CS方法和DCS方法,这是因为本发明采用基于ARSIS融合框架,所以可以很好地保留源多光谱图像的光谱信息;同时,本发明的CC、MI以及SSIM值均远远高于CS方法,即本文方法融合图像与参考图像的相关性以及所含的互信息量都要远远高于CS方法。
相对于SRDIP和DIP_OSDL方法,本文方法也呈现出相对的优越性;表2和表4给出各种融合方法的计算复杂度,从表中可以看到,本发明的耗时远远低于其他方法,即本发明的计算效率有了明显的提高;综上,本发明在保证融合质量最佳的情况下,计算效率也得到极大提高。
表1 不同融合方法对QuickBird卫星获得的图像融合结果的客观指标
表2 对QuickBird卫星获得的图像进行融合所耗时间
表3 不同融合方法对IKONOS卫星获得的图像融合结果的客观指标
表4 对IKONOS卫星获得的图像进行融合所耗时间
实际图像实验效果分析:
图4(a)、(b)以及图5(a)、(b)分别表示QuickBird和IKONOS卫星图像的源多光谱图和全色图,图4(c)~(h)和图5(c)~(h)分别为QuickBird和IKONOS卫星融合结果图(只显示RGB三个波段),每幅图左下角为融合图像的局部放大图;其中,图4(c)、(d)和图5(c)、(d)是CS方法的融合结果,可以看到,相比于其他方法,图4(c)、(d)和图5(c)、(d)的对比度较差,有少许光谱失真,且图4(d)从整体上看去有些模糊;从图4(e)和图5(e)整体来看,相比于DSC方法,本发明的融合图像的空间分辨率较高;对比图5(f)~(h)的局部放大区域可以看到,本发明得到的融合图像的轮廓较SRDIP方法和DIP_OSDL方法更稍清晰。
实际图像实验中,由于没有参考图像,为有效客观评估各融合方法的性能,采用无参考图像的客观评价指标QNR来评价图像融合质量;QNR包含光谱信息损失指标Dλ和空间信息损失指标Ds,其中,QNR的最优值为1,而Dλ和Ds的最优值为0。
表5和表7所示为不同融合方法下实际图像融合结果的客观指标;从表5和表7可以看到,本发明融合过程中产生的光谱信息损失最少,虽然在表5中DIP_OSDL方法的空间信息损失略低于本发明,但本发明的无参评价客观指标QNR较其他所有方法是最优的;而对表6和表8的中融合图像耗时进行分析,本发明的计算效率明显高于其他方法,且本发明的计算效率相比无字典训练的CS方法提高将近一倍。
综上所述,本发明在很好保留待融合图像光谱信息的同时,大大提高了融合图像的空间分辨率,且进一步降低融合过程的计算复杂度。
表5 不同融合方法对QuickBird卫星获得的图像融合结果的客观指标
表6 对QuickBird卫星获得的图像进行融合所耗时间
表7 不同融合方法对IKONOS卫星获得的图像融合结果的客观指标
表8 对IKONOS卫星获得的图像进行融合所耗时间
Claims (6)
1.基于联合稀疏与结构字典的遥感图像融合方法,其特征在于,包括以下步骤:
步骤一:获取多光谱图像和全色图像,对多光谱图像进行上采样处理得到上采样图像;
步骤二:对步骤一所得的上采样图像中各波段图像求均值得到强度分量,将全色图像与强度分量进行匹配得到新的全色图像;
步骤三:采用在线稀疏字典学习算法对步骤一得到的上采样图像中各波段图像以及步骤二得到的新的全色图像分别训练,获取对应的结构字典;
步骤四:采用联合稀疏模型,从步骤二得到的新的全色图像中提取不同于步骤一得到的上采样图像中各波段图像的特有分量;
步骤五:基于ARSIS融合框架,将步骤四得到的特有分量融入到步骤一得到的上采样图像的各波段图像中,得到融合多光谱图像。
2.如权利要求1所述的基于联合稀疏与结构字典的遥感图像融合方法,其特征在于,步骤一中所述对多光谱图像进行上采样处理得到上采样图像是指:
采用双三次线性插入方法将多光谱图像上采样p倍得到上采样图像XMS,其中,p为全色图像和多光谱图像空间分辨率的比值。
3.如权利要求2所述的基于联合稀疏与结构字典的遥感图像融合方法,其特征在于,p=4。
4.如权利要求1所述的基于联合稀疏与结构字典的遥感图像融合方法,其特征在于,步骤二的具体步骤包括:
步骤2.1:对步骤一所得的上采样图像XMS中各波段图像求均值,得到强度分量I,即
其中,是XMS第j(j=1,2,…,k)个波段的光谱图像,k是波段的个数;
步骤2.2:将步骤一所得的全色图像与步骤2.1所得的强度分量I进行直方图匹配,得到新的全色图像XPAN。
5.如权利要求1所述的基于联合稀疏与结构字典的遥感图像融合方法,其特征在于,步骤四的具体步骤包括:
步骤4.1:对上采样图像XMS中各波段图像和XPAN图像利用联合稀疏建模得到如下式所示的优化问题:
利用OMP算法对上式求解,得到稀疏系数其中,αCj为公共稀疏系数,为中第j个波段图像对应的特有稀疏系数,为全色图像XPAN对应的特有稀疏系数;
步骤4.2:采用类似绝对值取大的方法对步骤4.1获得的全色图像XPAN对应的特有稀疏系数进行选取,得到融合所需的全色图像特有稀疏系数αpj,所述类似绝对值取大的方法如下式:
步骤4.3:将步骤4.2获得的全色图像特有稀疏系数αpj重构,得到所需的特有分量计算公式如下:
其中,Dp为全色图像XPAN经过训练所获取的结构字典。
6.如权利要求1所述的基于联合稀疏与结构字典的遥感图像融合方法,其特征在于,步骤五的具体步骤包括:
基于ARSIS融合框架,将步骤4.3获得的特有分量融入到步骤一所得的上采样图像XMS的各波段图像中,得到融合多光谱图像,融入模型为:
其中,为融合后光谱图像的第j个波段图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610668711.5A CN106251320B (zh) | 2016-08-15 | 2016-08-15 | 基于联合稀疏与结构字典的遥感图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610668711.5A CN106251320B (zh) | 2016-08-15 | 2016-08-15 | 基于联合稀疏与结构字典的遥感图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106251320A true CN106251320A (zh) | 2016-12-21 |
CN106251320B CN106251320B (zh) | 2019-03-26 |
Family
ID=57593017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610668711.5A Active CN106251320B (zh) | 2016-08-15 | 2016-08-15 | 基于联合稀疏与结构字典的遥感图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106251320B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107170013A (zh) * | 2017-05-03 | 2017-09-15 | 北京理工大学 | 一种rgb相机光谱响应曲线的标定方法 |
CN107169945A (zh) * | 2017-04-25 | 2017-09-15 | 西安电子科技大学 | 基于稀疏张量和多视图特征的遥感图像融合方法 |
CN107545554A (zh) * | 2017-04-25 | 2018-01-05 | 西北工业大学 | 一种基于导向滤波的两级遥感图像融合方法 |
CN108596819A (zh) * | 2018-03-28 | 2018-09-28 | 广州地理研究所 | 一种基于稀疏表达的内陆光学复杂水体高光谱重构方法 |
CN108921116A (zh) * | 2018-07-10 | 2018-11-30 | 武汉商学院 | 遥感影像时变信息提取方法 |
CN108932710A (zh) * | 2018-07-10 | 2018-12-04 | 武汉商学院 | 遥感时空信息融合方法 |
CN109214405A (zh) * | 2017-11-23 | 2019-01-15 | 长沙理工大学 | 一种自适应联合特征字典进行遥感图像稀疏识别的方法 |
CN109272010A (zh) * | 2018-07-27 | 2019-01-25 | 吉林大学 | 基于卷积神经网络的多尺度遥感图像融合方法 |
CN109886870A (zh) * | 2018-12-29 | 2019-06-14 | 西北大学 | 基于双通道神经网络的遥感图像融合方法 |
CN109993717A (zh) * | 2018-11-14 | 2019-07-09 | 重庆邮电大学 | 一种结合引导滤波和ihs变换的遥感图像融合方法 |
CN111080566A (zh) * | 2019-12-12 | 2020-04-28 | 太原科技大学 | 一种基于结构组双稀疏学习的可见光与红外图像融合方法 |
CN113436069A (zh) * | 2021-06-16 | 2021-09-24 | 中国电子科技集团公司第五十四研究所 | 一种基于最大信噪比投影的遥感图像融合方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040141659A1 (en) * | 2003-01-17 | 2004-07-22 | Yun Zhang | System and method for image fusion |
US20080131024A1 (en) * | 2006-12-01 | 2008-06-05 | Harris Corporation | Structured Smoothing for Superresolution of Multispectral Imagery Based on Registered Panchromatic Image |
CN103065282A (zh) * | 2012-12-27 | 2013-04-24 | 浙江大学 | 一种基于稀疏线性系统的图像融合方法 |
CN103617597A (zh) * | 2013-10-25 | 2014-03-05 | 西安电子科技大学 | 基于差值图像稀疏表示的遥感图像融合方法 |
CN104794681A (zh) * | 2015-04-28 | 2015-07-22 | 西安电子科技大学 | 基于多冗余字典和稀疏重构的遥感图像融合方法 |
CN105761234A (zh) * | 2016-01-28 | 2016-07-13 | 华南农业大学 | 一种基于结构稀疏表示的遥感影像融合方法 |
-
2016
- 2016-08-15 CN CN201610668711.5A patent/CN106251320B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040141659A1 (en) * | 2003-01-17 | 2004-07-22 | Yun Zhang | System and method for image fusion |
US20080131024A1 (en) * | 2006-12-01 | 2008-06-05 | Harris Corporation | Structured Smoothing for Superresolution of Multispectral Imagery Based on Registered Panchromatic Image |
CN103065282A (zh) * | 2012-12-27 | 2013-04-24 | 浙江大学 | 一种基于稀疏线性系统的图像融合方法 |
CN103617597A (zh) * | 2013-10-25 | 2014-03-05 | 西安电子科技大学 | 基于差值图像稀疏表示的遥感图像融合方法 |
CN104794681A (zh) * | 2015-04-28 | 2015-07-22 | 西安电子科技大学 | 基于多冗余字典和稀疏重构的遥感图像融合方法 |
CN105761234A (zh) * | 2016-01-28 | 2016-07-13 | 华南农业大学 | 一种基于结构稀疏表示的遥感影像融合方法 |
Non-Patent Citations (2)
Title |
---|
DUARTE M.F,等: "Distributed compressed sensing of jointly sparse signals", 《ASILOMARCONFERENCE ON SIGNALS&SYSTEMS &COMPUTER》 * |
彭真明等: "基于多尺度稀疏字典的多聚焦图像超分辨融合", 《光学精密工程》 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107169945A (zh) * | 2017-04-25 | 2017-09-15 | 西安电子科技大学 | 基于稀疏张量和多视图特征的遥感图像融合方法 |
CN107545554A (zh) * | 2017-04-25 | 2018-01-05 | 西北工业大学 | 一种基于导向滤波的两级遥感图像融合方法 |
CN107169945B (zh) * | 2017-04-25 | 2019-06-21 | 西安电子科技大学 | 基于稀疏张量和多视图特征的遥感图像融合方法 |
CN107170013A (zh) * | 2017-05-03 | 2017-09-15 | 北京理工大学 | 一种rgb相机光谱响应曲线的标定方法 |
CN107170013B (zh) * | 2017-05-03 | 2020-04-21 | 北京理工大学 | 一种rgb相机光谱响应曲线的标定方法 |
CN109214405A (zh) * | 2017-11-23 | 2019-01-15 | 长沙理工大学 | 一种自适应联合特征字典进行遥感图像稀疏识别的方法 |
CN108596819A (zh) * | 2018-03-28 | 2018-09-28 | 广州地理研究所 | 一种基于稀疏表达的内陆光学复杂水体高光谱重构方法 |
CN108921116B (zh) * | 2018-07-10 | 2021-09-28 | 武汉商学院 | 遥感影像时变信息提取方法 |
CN108932710A (zh) * | 2018-07-10 | 2018-12-04 | 武汉商学院 | 遥感时空信息融合方法 |
CN108921116A (zh) * | 2018-07-10 | 2018-11-30 | 武汉商学院 | 遥感影像时变信息提取方法 |
CN108932710B (zh) * | 2018-07-10 | 2021-11-12 | 武汉商学院 | 遥感时空信息融合方法 |
CN109272010A (zh) * | 2018-07-27 | 2019-01-25 | 吉林大学 | 基于卷积神经网络的多尺度遥感图像融合方法 |
CN109272010B (zh) * | 2018-07-27 | 2021-06-29 | 吉林大学 | 基于卷积神经网络的多尺度遥感图像融合方法 |
CN109993717A (zh) * | 2018-11-14 | 2019-07-09 | 重庆邮电大学 | 一种结合引导滤波和ihs变换的遥感图像融合方法 |
CN109886870A (zh) * | 2018-12-29 | 2019-06-14 | 西北大学 | 基于双通道神经网络的遥感图像融合方法 |
CN109886870B (zh) * | 2018-12-29 | 2023-03-03 | 西北大学 | 基于双通道神经网络的遥感图像融合方法 |
CN111080566A (zh) * | 2019-12-12 | 2020-04-28 | 太原科技大学 | 一种基于结构组双稀疏学习的可见光与红外图像融合方法 |
CN113436069A (zh) * | 2021-06-16 | 2021-09-24 | 中国电子科技集团公司第五十四研究所 | 一种基于最大信噪比投影的遥感图像融合方法 |
CN113436069B (zh) * | 2021-06-16 | 2022-03-01 | 中国电子科技集团公司第五十四研究所 | 一种基于最大信噪比投影的遥感图像融合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106251320B (zh) | 2019-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106251320B (zh) | 基于联合稀疏与结构字典的遥感图像融合方法 | |
Liu et al. | Remote sensing image fusion based on two-stream fusion network | |
CN111127374B (zh) | 一种基于多尺度密集网络的Pan-sharpening方法 | |
CN109886870B (zh) | 基于双通道神经网络的遥感图像融合方法 | |
CN112819737B (zh) | 基于3d卷积的多尺度注意力深度卷积网络的遥感图像融合方法 | |
Huang et al. | Deep hyperspectral image fusion network with iterative spatio-spectral regularization | |
CN114119444B (zh) | 一种基于深度神经网络的多源遥感图像融合方法 | |
CN109509160A (zh) | 一种利用逐层迭代超分辨率的分层次遥感图像融合方法 | |
CN106920214B (zh) | 空间目标图像超分辨率重建方法 | |
Xiao et al. | A dual-UNet with multistage details injection for hyperspectral image fusion | |
CN105761234A (zh) | 一种基于结构稀疏表示的遥感影像融合方法 | |
CN108765280A (zh) | 一种高光谱图像空间分辨率增强方法 | |
CN103208102A (zh) | 一种基于稀疏表示的遥感图像融合方法 | |
CN105447840B (zh) | 基于主动采样与高斯过程回归的图像超分辨方法 | |
CN106157269B (zh) | 基于方向多尺度群低秩分解的全色图像锐化方法 | |
CN109559278B (zh) | 基于多特征学习的超分辨图像重建方法及系统 | |
CN103020939A (zh) | 利用多时相数据去除光学遥感影像大面积厚云的方法 | |
CN114511470B (zh) | 一种基于注意力机制的双分支全色锐化方法 | |
CN104680502A (zh) | 基于稀疏字典和非下采样Contourlet变换的红外图像超分辨重建方法 | |
CN105719262B (zh) | 基于子字典稀疏重构的全色与多光谱遥感图像融合方法 | |
Zhong et al. | Attention_FPNet: Two-branch remote sensing image pansharpening network based on attention feature fusion | |
CN106157240A (zh) | 基于字典学习的遥感图像超分辨率方法 | |
Xu et al. | AS 3 ITransUNet: Spatial-Spectral Interactive Transformer U-Net with Alternating Sampling for Hyperspectral Image Super-Resolution | |
CN110163830B (zh) | 基于Riesz-Lap变换及PCNN的图像融合方法 | |
Aswatha et al. | An encoder-decoder based deep architecture for visible to near infrared image transformation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20200925 Address after: Room 11606, 16 / F, unit 1, building 2, Zhonggang international, west of Wenjing Road, Xi'an Economic and Technological Development Zone, Shaanxi Province 710016 Patentee after: Easoft Technology Co., Ltd Address before: 710069 Shaanxi city of Xi'an province Taibai Road No. 229 Patentee before: NORTHWESTERN University |
|
TR01 | Transfer of patent right |