CN107169945A - 基于稀疏张量和多视图特征的遥感图像融合方法 - Google Patents
基于稀疏张量和多视图特征的遥感图像融合方法 Download PDFInfo
- Publication number
- CN107169945A CN107169945A CN201710278782.9A CN201710278782A CN107169945A CN 107169945 A CN107169945 A CN 107169945A CN 201710278782 A CN201710278782 A CN 201710278782A CN 107169945 A CN107169945 A CN 107169945A
- Authority
- CN
- China
- Prior art keywords
- multispectral
- image
- low
- feature
- full
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 15
- 238000000034 method Methods 0.000 claims abstract description 32
- 238000013459 approach Methods 0.000 claims abstract description 18
- 230000004927 fusion Effects 0.000 claims abstract description 16
- 238000001228 spectrum Methods 0.000 claims abstract description 16
- 230000009466 transformation Effects 0.000 claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims description 20
- 238000000513 principal component analysis Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 3
- 238000001028 reflection method Methods 0.000 claims description 3
- 238000011426 transformation method Methods 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 5
- 238000012545 processing Methods 0.000 abstract description 5
- 230000010354 integration Effects 0.000 abstract description 3
- 230000003595 spectral effect Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 238000012417 linear regression Methods 0.000 description 3
- 230000007812 deficiency Effects 0.000 description 2
- FGRBYDKOBBBPOI-UHFFFAOYSA-N 10,10-dioxo-2-[4-(N-phenylanilino)phenyl]thioxanthen-9-one Chemical compound O=C1c2ccccc2S(=O)(=O)c2ccc(cc12)-c1ccc(cc1)N(c1ccccc1)c1ccccc1 FGRBYDKOBBBPOI-UHFFFAOYSA-N 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003716 rejuvenation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10041—Panchromatic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于稀疏张量和多视图特征的遥感图像融合方法,其实现步骤为:(1)输入待融合图像。(2)获得低通系数和带通系数。(3)获得图像边缘特征。(4)构成图像多视图特征。(5)计算特征接近度。(6)构成多模字典。(7)张量稀疏表示。(8)融合系数。(9)逆变换后输出融合后图像。本发明利用了低分辨多光谱图像多视图特征矩阵和全色图像多视图特征矩阵和张量基追踪方法对融合后图像空谱信息进行增强,提高了融合图像的清晰度并光谱扭曲,克服了现有图像融合技术处理视角过于单一和欠缺对于多光谱图像谱间关系考虑的缺点。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及遥感图像融合技术领域中的一种基于稀疏张量和多视图特征的遥感图像融合方法。本发明用于融合同一个传感器获得的关于同一个场景的多光谱图像和全色图像融合,在保持多光谱图像光谱信息的同时提高图像的空间分辨率,可应用于地形测绘与地图更新、地物分类、遥感监测和森林资源调查、军事侦察等领域。
背景技术
目前,现有的遥感图像融合方法最具代表性的是基于模型类的融合方法。该方法结合了稀疏表示理论使得融合后的图像取得了更高的空间分辨率,它的优点在于实现简单、速度快。但是存在的缺点是缺少了对于多光谱图像的谱间信息的考虑,同时只是基于图像灰度信息的处理视角过于单一,使得融合后的多光谱图像产生了光谱扭曲。
Jiang C,Zhang H,Shen H,et al在其发表的论文“Two-step sparse coding forthe pan-sharpening of remote sensing images”(《Selected Topics in AppliedEarth Observations and Remote Sensing》IEEE Journal of,2014,7(5):1792-1805)中提出了一种两步稀疏编码的遥感图像融合方法。该方法的步骤是,第一步稀疏编码过程是低分辨多光谱图像的图像块由对应位置的低分辨全色图像块线性表示。第二步稀疏编码是通过低分辨字典来稀疏表示残差。两步稀疏编码结束后,得到融合后的多光谱图像。该方法存在的不足之处是,由于该方法将多光谱图像分波段融合,没能充分考虑对波段间的信息充分利用,使得融合结果产生了色彩失真。
上海交通大学在其拥有专利技术“一种基于稀疏表示的遥感图像融合方法”(申请日:2013年03月29日,申请号:201310108594.3,公开号:103208102B)中公开了一种基于稀疏表示的遥感图像融合方法。首先建立多光谱图像与其亮度分量之间的线性回归模型;其次利用训练的高、低分辨率字典分别对全色图像和多光谱图像进行稀疏表示,并根据线性回归模型获得多光谱图像亮度分量稀疏表示系数;然后根据全色图像和亮度分量的稀疏表示系数提取细节成分,并在通用分量替换融合框架下注入到多光谱图像各波段的稀疏表示系数中;最后进行图像复原得到高空间分辨率的多光谱图像。该方法存在的不足是,从单一视图对多光谱和全色图像进行考虑,使得融合后的图像的空间分辨率受到制约;其次,该方法没有考虑到多光谱的谱间关系,导致最终的融合图像的光谱有扭曲。
发明内容
本发明的目的是针对上述现有技术的不足,提出一种基于稀疏张量和多视图特征的遥感图像融合方法。
本发明的思路是,本发明根据待融合图像的灰度特征、纹理特征、边缘特征构成图像的多视图特征,基于非采样轮廓变换的框架对低通系数进行融合,计算多视图特征块的特征接近度并构成多模字典,在多模字典下对带通系数融合,经过逆变换后得到高分辨的多光谱图像。由于利用了低分辨多光谱图像多视图特征矩阵和全色图像多视图特征矩阵和张量基追踪方法对融合后图像空谱信息进行增强,提高了融合图像的清晰度并光谱扭曲,克服了现有图像融合技术处理视角过于单一和欠缺对于多光谱图像谱间关系考虑的缺点。
为实现上述目的,本发明包括如下步骤:
(1)输入待融合图像:
分别输入待融合的低分辨多光谱图像和全色图像;
(2)提取低通和带通系数:
(2a)从低分辨多光谱图像中提取低分辨多光谱主成分低通系数和低分辨多光谱主成分带通系数;
(2b)利用非采样轮廓波变换方法,对全色图像进行分解,得到全色图像低通系数和全色图像带通系数;
(3)提取边缘特征:
(3a)利用一二阶梯度算子和拉普拉斯算子,对低分辨多光谱主成分进行梯度变换,得到低分辨多光谱主成分边缘特征;
(3b)利用一二阶梯度算子和拉普拉斯算子,对全色图像进行梯度变换,得到全色图像边缘特征;
(4)获得多视图特征矩阵:
(4a)将低分辨多光谱主成分、低分辨多光谱主成分带通系数、低分辨多光谱边缘特征按第三维方向依次排列,组成低分辨多光谱多视图特征矩阵;
(4b)将全色图像、全色图像带通系数、全色图像边缘特征按第三维方向依次排列,组成全色图像多视图特征矩阵;
(5)获得多视图特征小块:
(5a)利用列向量化方法,对低分辨多光谱多视图特征矩阵进行列向量化,得到低分辨多光谱多视图特征小块;
(5b)利用列向量化方法,对全色图像多视图特征矩阵进行列向量化,得到全色图像多视图特征小块;
(6)获得特征接近度:
(6a)按照图像块的排列顺序,依次选取低分辨多光谱多视图特征小块中的一个小块;
(6b)按照下式,计算所选的低分辨多光谱多视图特征小块与全部的全色图像多视图特征小块的特征接近度:
其中,Fij表示第i个多光谱多视图特征小块与第j个全色图像多视图特征小块的特征接近度,min表示取最小值操作,max表示取最大值操作,Var表示协方差操作,T表示多光谱多视图特征小块和全色图像多视图特征小块按第二维度方向组合得到的矩阵;
(6c)判断是否选完所有的图像块,若是,则执行步骤(7),否则,执行步骤(6a)
(7)获得因子矩阵:
利用索引映射法,将特征接近度映射与其对应的全色图像,获得因子矩阵;
(8)将低分辨多光谱带通系数按照第三维方向组合,得到低分辨多光谱带通系数张量块;
(9)将全色图像带通系数按照第三维方向组合,得到全色图像带通系数张量块;
(10)获得多模字典:
利用张量模展开方法,对低分辨多光谱带通系数进行模方向展开,获得多模字典;
(11)获得稀疏系数:
(11a)使用张量基追踪方法,获得低分辨多光谱带通系数在多模字典下的多光谱稀疏系数;
(11b)使用张量基追踪方法,获得全色图像带通系数在多模字典下的全色稀疏系数;
(12)获得融合后的带通系数:
将多光谱稀疏系数与全色稀疏系数相加,得到融合后的带通系数;
(13)获得融合后的多光谱图像主成分:
利用非采样的轮廓波变换的逆变换,将融合后的带通系数与低分辨多光谱低通系数逆变换,得到融合后的多光谱图像主成分;
(14)获得融合后的多光谱图像:
利用主成分分析逆变换方法将,将融合后的多光谱图像主成分逆变换,得到融合后的多光谱图像。
与现有的技术相比本发明具有以下优点:
第一,本发明能够根据低分辨多光谱图像多视图特征矩阵和全色图像多视图特征矩阵,对低分辨多光谱图像和全色图像进行融合,克服了现有技术存在的只是基于图像灰度信息的处理视角过于单一的问题,使得本发明在融合过程中增强了对空间信息的捕捉能力,融合结果具有更高的空间分辨率。
第二,本发明利用张量基追踪方法,对低分辨多光谱图像的带通系数进行重构,克服了现有技术中欠缺对于多光谱图像的谱间关系的考虑,使得本发明能够显著的改善融合结果的光谱扭曲现象。
附图说明
图1为本发明的流程图;
图2为本发明的仿真图。
具体实施方式
下面结合附图对本发明作进一步的描述。
参考附图1,对本发明实现的步骤作进一步的详细描述。
步骤1,输入待融合图像。
分别输入待融合的低分辨多光谱图像M和全色图像P。
本发明的实施例中,输入的低分辨多光谱图像大小为64×64×4,分辨率为2m;高分辨率的全色图像大小为256×256,分辨率为0.5m。
步骤2,提取低分辨多光谱主成分C1的低通系数LM与带通系数HM。
第一步,利用主成分分析方法,对低分辨多光谱图像进行主成分分析,得到低分辨多光谱的主成分C1,C1的大小为256×256。
第二步,利用非采样轮廓波变换方法,对低分辨多光谱主成分C1进行分解,得到低分辨多光谱主成分低通系数LM和低分辨多光谱主成分带通系数HM。
本发明的实施例在非采样轮廓波变换中,使用的金字塔滤波器类型为“9-7”,方向滤波器组类型为“pkva”,低分辨多光谱主成分低通系数LM大小为256×256,低分辨多光谱主成分带通系数HM大小为256×256×4。
步骤3,提取全色图像P的低通系数LP和带通系数HP。
利用轮廓波变换方法,对全色图像进行分解,得到全色图像的低通系数LP和全色图像带通系数HP。
本发明的实施例中,全色图像低通系数LP大小为256×256,全色图像带通系数HP大小为256×256×4。
步骤4,提取待融合图像边缘特征FP。
第一步,利用一二阶梯度算子,经过梯度变换,得到主成分C1的水平方向一阶梯度f1、垂直方向上一阶梯度f2、水平方向二阶梯度f3、垂直方向二阶梯度f4。
第二步,将主成分C1的水平方向一阶梯度f1、垂直方向上一阶梯度f2、水平方向二阶梯度f3、垂直方向二阶梯度f4按第三维的方向组合得到低分辨多光谱主成分边缘特征FM。
第三步,利用一二阶梯度算子,经过梯度变换,得到全色图像P的水平方向一阶梯度f5、垂直方向一阶梯度f6、水平方向二阶梯度f7、垂直方向上二阶梯度f8;
第四步,将全色图像P的水平方向一阶梯度f5、垂直方向一阶梯度f6、水平方向二阶梯度f7、垂直方向上二阶梯度f8按第三维的方向组合得到全色图像边缘信息FP。
步骤5,获得低分辨多光谱的多视图特征矩阵BM。
将低分辨多光谱主成分C1、低分辨多光谱主成分带通系数HM、低分辨多光谱边缘特征FM按第三维方向组合排列,得到低分辨多光谱多视图特征矩阵BM。
步骤6,获得全色图像多视图特征矩阵BP。
将全色图像P、全色图像带通系数HP、全色图像边缘特征FP按第三维方向组合排列,组成低分辨多光谱多视图特征矩阵BP。
步骤7,获得低分辨多光谱多视图特征小块NM。
利用列向量化方法,对低分辨多光谱多视图特征矩阵BM进行列向量化,得到低分辨多光谱多视图特征小块NM。
步骤8,获得全色图像多视图特征小块NP。
利用列向量化方法,对全色图像多视图特征矩阵BP进行列向量化,得到全色图像多视图特征小块NP。
步骤9,获得特征接近度。
第一步,按照图像块的排列顺序,依次选取低分辨多光谱多视图特征小块NM的一个小块。
第二步,按照下式,计算所选的低分辨多光谱多视图特征小块与全部的全色图像多视图特征小块的特征接近度:
其中,Fij表示第i个多光谱多视图特征小块与第j个全色图像多视图特征小块的特征接近度,min表示取最小值操作,max表示取最大值操作,Var表示协方差操作,T表示多光谱多视图特征小块和全色图像多视图特征小块按第二维度方向组合得到的矩阵。
第三步,判断是否选完所有的图像块,若是,则执行步骤10,否则,执行步骤9的第一步。
步骤10,获得因子矩阵D1。
第一步,利用列向量化方法,对全色图像进行列向量化,得到全色图像列向量。
第二步,对所有的特征接近度由高到低排序,保留前200个特征接近度的索引。
第三步,将特征接近度的索引映射到全色图像列向量。
第四步,在全色图像列向量中,选取前200个特征接近度索引对应的全色图像列向量。
第五步,将全色图像列向量组合成矩阵,得到因子矩阵D1。
步骤11,将低分辨多光谱带通系数HM按照第三维方向组合,得到低分辨多光谱带通系数张量块E1。
步骤12,将全色图像带通系数HP按照第三维方向组合,得到全色图像带通系数张量块E2。
步骤13,获得多模字典DN。
第一步,将低分辨多光谱带通系数张量块E1按照模2方向展开,得到低分辨多光谱模2矩阵D2;
第二步,将低分辨多光谱带通系数张量块E1张量块按照模3方向展开,得到低分辨多光谱模3矩阵D3;
第三步,将因子矩阵D1、低分辨多光谱模2矩阵D2、低分辨多光谱模3矩阵D3组合得到多模字典DN。
步骤14,使用张量基追踪方法,获得低分辨多光谱带通系数张量块E1在多模字典DN下的多光谱稀疏系数A 1。
所述张量基追踪公式如下:
其中,min表示取最小值操作,A表示待求解的稀疏系数,M表示带通系数,D表示多模字典,ε表示重构误差,s.t表示限制条件的符号,||·||1表示一范数操作,表示二范数平方操作。
步骤15,使用张量基追踪方法,获得全色图像带通系数张量块E2在多模字典DN下的全色稀疏系数A 2。
所述张量基追踪公式如下:
其中,min表示取最小值操作,A表示待求解的稀疏系数,M表示带通系数,D表示多模字典,ε表示重构误差,s.t表示限制条件的符号,||·||1表示一范数操作,表示二范数平方操作。
步骤16,获得融合后的带通系数A N。
将多光谱稀疏系数A 1与全色稀疏系数A 2相加,得到融合后的带通系数A N=A 1+A 2。
步骤17,获得融合后的多光谱图像主成分C2。
利用非采样的轮廓波变换的逆变换,将融合后的带通系数HN与低分辨多光谱低通系数LM逆变换,得到融合后的多光谱图像主成分C2。
步骤18,获得融合后的多光谱图像。
利用主成分分析逆变换方法将,将融合后的多光谱图像主成分C2逆变换,得到融合后的多光谱图像。
下面结合附图2对本发明的仿真效果做进一步说明。
1.仿真条件:
本发明的仿真所使用待融合的图像由Geoeye数据集提供,包括2.0m空间分辨率的低分辨多光谱图像和0.5m空间分辨率的高分辨全色图像。低分辨多光谱图像具有四个光谱带:蓝色(B),绿色(G),红色(R)和近红外(NIR)。
仿真环境:MATLAB R2014a on PC with Intel(R)core(TM)/2.50G/2.5G。
2.仿真结果与分析:
图2(a)是本发明仿真实验中输入的待融合低分辨的多光谱图像,图2(b)是本发明仿真实验中输入的待融合高分辨的全色图像,图2(c)是高分辨多光谱图像,作为本发明仿真实验中的参考图像,图2(d)是采用本发明对图2(a)和图2(b)融合后获得的高分辨多光谱图像。
由图2(d)与图2(a)的比较可见,图2(a)的图像细节不清晰,如图像的道路的边缘模糊,图像中的白色小块不清楚,而图2(d)在空间分辨率、光谱信息、视觉效果上明显优于图2(a),且更加接近于图2(c)的视觉效果,图2(d)中道路轮廓更加清晰,白色小块的空间分辨率和光谱分辨率有明显提升。
本发明则很好地利用了附图2(a)和附图2(b)中待融合图像自身的多视图特征,对融合后图像的空间分辨率进行增强。此外,对多光谱图像谱间关系的考虑,使得本发明显著的改善了融合结果的光谱扭曲现象。
综上所述,可以看出本发明能够很好的提升待融合图像的空间信息和光谱信息,克服了现有图像融合技术中视图单一、缺少对图像谱间信息考虑的缺点。
Claims (5)
1.一种基于稀疏张量和多视图特征的遥感图像融合方法,包括如下步骤:
(1)输入待融合图像:
分别输入待融合的低分辨多光谱图像和全色图像;
(2)提取低通和带通系数:
(2a)从低分辨多光谱图像中提取低分辨多光谱主成分低通系数和低分辨多光谱主成分带通系数;
(2b)利用非采样轮廓波变换方法,对全色图像进行分解,得到全色图像低通系数和全色图像带通系数;
(3)提取边缘特征:
(3a)利用一二阶梯度算子和拉普拉斯算子,对低分辨多光谱主成分进行梯度变换,得到低分辨多光谱主成分边缘特征;
(3b)利用一二阶梯度算子和拉普拉斯算子,对全色图像进行梯度变换,得到全色图像边缘特征;
(4)获得多视图特征矩阵:
(4a)将低分辨多光谱主成分、低分辨多光谱主成分带通系数、低分辨多光谱边缘特征按第三维方向依次排列,组成低分辨多光谱多视图特征矩阵;
(4b)将全色图像、全色图像带通系数、全色图像边缘特征按第三维方向依次排列,组成全色图像多视图特征矩阵;
(5)获得多视图特征小块:
(5a)利用列向量化方法,对低分辨多光谱多视图特征矩阵进行列向量化,得到低分辨多光谱多视图特征小块;
(5b)利用列向量化方法,对全色图像多视图特征矩阵进行列向量化,得到全色图像多视图特征小块;
(6)获得特征接近度:
(6a)按照图像块的排列顺序,依次选取低分辨多光谱多视图特征小块中的一个小块;
(6b)按照下式,计算所选的低分辨多光谱多视图特征小块与全部的全色图像多视图特征小块的特征接近度:
<mrow>
<msub>
<mi>F</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<mi>V</mi>
<mi>a</mi>
<mi>r</mi>
<mo>(</mo>
<mi>T</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>V</mi>
<mi>a</mi>
<mi>r</mi>
<mo>(</mo>
<mi>T</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
其中,Fij表示第i个多光谱多视图特征小块与第j个全色图像多视图特征小块的特征接近度,min表示取最小值操作,max表示取最大值操作,Var表示协方差操作,T表示多光谱多视图特征小块和全色图像多视图特征小块按第二维度方向组合得到的矩阵;
(6c)判断是否选完所有的图像块,若是,则执行步骤(7),否则,执行步骤(6a)
(7)获得因子矩阵:
利用索引映射法,将特征接近度映射与其对应的全色图像,获得因子矩阵;
(8)将低分辨多光谱带通系数按照第三维方向组合,得到低分辨多光谱带通系数张量块;
(9)将全色图像带通系数按照第三维方向组合,得到全色图像带通系数张量块;
(10)获得多模字典:
利用张量模展开方法,对低分辨多光谱带通系数进行模方向展开,获得多模字典;
(11)获得稀疏系数:
(11a)使用张量基追踪方法,获得低分辨多光谱带通系数在多模字典下的多光谱稀疏系数;
(11b)使用张量基追踪方法,获得全色图像带通系数在多模字典下的全色稀疏系数;
(12)获得融合后的带通系数:
将多光谱稀疏系数与全色稀疏系数相加,得到融合后的带通系数;
(13)获得融合后的多光谱图像主成分:
利用非采样的轮廓波变换的逆变换,将融合后的带通系数与低分辨多光谱低通系数逆变换,得到融合后的多光谱图像主成分;
(14)获得融合后的多光谱图像:
利用主成分分析逆变换方法将,将融合后的多光谱图像主成分逆变换,得到融合后的多光谱图像。
2.根据权利要求1所述的基于稀疏张量和多视图特征的遥感图像融合方法,其特征在于:步骤(2a)中所述的提取低分辨多光谱主成分低通系数和低分辨多光谱主成分带通系数的步骤如下:
第一步,利用主成分分析方法,对低分辨多光谱图像进行主成分分析,得到低分辨多光谱的主成分;
第二步,利用非采样轮廓波变换方法,对低分辨多光谱主成分进行分解,得到低分辨多光谱主成分低通系数和低分辨多光谱主成分带通系数。
3.根据权利要求1所述的基于稀疏张量和多视图特征的遥感图像融合方法,其特征在于:步骤(7)中所述索引映射法的步骤如下:
第一步,利用列向量化方法,对全色图像进行列向量化,得到全色图像列向量;
第二步,对所有的特征接近度由高到低排序,保留前200个特征接近度的索引;
第三步,将特征接近度的索引映射到全色图像列向量;
第四步,在全色图像列向量中,选取前200个特征接近度索引对应的全色图像列向量;
第五步,将全色图像列向量组合成矩阵,得到因子矩阵。
4.根据权利要求1所述的基于稀疏张量和多视图特征的遥感图像融合方法,其特征在于:步骤(10)中所述张量模展开方法的步骤如下:
第一步,将低分辨多光谱带通系数张量块按照模2方向展开,得到低分辨多光谱模2矩阵;
第二步,将低分辨多光谱带通系数张量块按照模3方向展开,得到低分辨多光谱模3矩阵;
第三步,将因子矩阵、低分辨多光谱模2矩阵、低分辨多光谱模3矩阵组合,得到多模字典。
5.根据权利要求1所述的基于稀疏张量和多视图特征的遥感图像融合方法,其特征在于:步骤(11a)、步骤(11b)中所述张量基追踪公式如下:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>min</mi>
<mo>|</mo>
<mo>|</mo>
<munder>
<mi>A</mi>
<mo>&OverBar;</mo>
</munder>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>1</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>s</mi>
<mo>.</mo>
<mi>t</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>|</mo>
<mo>|</mo>
<munder>
<mi>A</mi>
<mo>&OverBar;</mo>
</munder>
<mo>&times;</mo>
<mi>D</mi>
<mo>-</mo>
<munder>
<mi>M</mi>
<mo>&OverBar;</mo>
</munder>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>2</mn>
<mn>2</mn>
</msubsup>
<mo>&le;</mo>
<mi>&epsiv;</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,min表示取最小值操作,||·||1表示一范数操作,A表示稀疏系数,M表示带通系数,s.t表示限制条件符号,表示二范数平方操作,D表示多模字典,ε表示重构误差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710278782.9A CN107169945B (zh) | 2017-04-25 | 2017-04-25 | 基于稀疏张量和多视图特征的遥感图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710278782.9A CN107169945B (zh) | 2017-04-25 | 2017-04-25 | 基于稀疏张量和多视图特征的遥感图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107169945A true CN107169945A (zh) | 2017-09-15 |
CN107169945B CN107169945B (zh) | 2019-06-21 |
Family
ID=59814016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710278782.9A Active CN107169945B (zh) | 2017-04-25 | 2017-04-25 | 基于稀疏张量和多视图特征的遥感图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107169945B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108520235A (zh) * | 2018-04-09 | 2018-09-11 | 中国人民解放军国防科技大学 | 一种压缩光谱特征感知方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104794681A (zh) * | 2015-04-28 | 2015-07-22 | 西安电子科技大学 | 基于多冗余字典和稀疏重构的遥感图像融合方法 |
CN104867124A (zh) * | 2015-06-02 | 2015-08-26 | 西安电子科技大学 | 基于对偶稀疏非负矩阵分解的多光谱与全色图像融合方法 |
CN106204450A (zh) * | 2016-07-08 | 2016-12-07 | 咸阳师范学院 | 基于深度稀疏自编码的多尺度几何遥感图像融合方法 |
CN106251320A (zh) * | 2016-08-15 | 2016-12-21 | 西北大学 | 基于联合稀疏与结构字典的遥感图像融合方法 |
-
2017
- 2017-04-25 CN CN201710278782.9A patent/CN107169945B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104794681A (zh) * | 2015-04-28 | 2015-07-22 | 西安电子科技大学 | 基于多冗余字典和稀疏重构的遥感图像融合方法 |
CN104867124A (zh) * | 2015-06-02 | 2015-08-26 | 西安电子科技大学 | 基于对偶稀疏非负矩阵分解的多光谱与全色图像融合方法 |
CN106204450A (zh) * | 2016-07-08 | 2016-12-07 | 咸阳师范学院 | 基于深度稀疏自编码的多尺度几何遥感图像融合方法 |
CN106251320A (zh) * | 2016-08-15 | 2016-12-21 | 西北大学 | 基于联合稀疏与结构字典的遥感图像融合方法 |
Non-Patent Citations (2)
Title |
---|
WENQING WANG: "Fusion of multispectral and panchromatic images via sparse representation and local autoregressive model", 《INFORMATION FUSION》 * |
王峰: "基于多特征的遥感图像融合算法", 《西北工业大学学报》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108520235A (zh) * | 2018-04-09 | 2018-09-11 | 中国人民解放军国防科技大学 | 一种压缩光谱特征感知方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107169945B (zh) | 2019-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111709902B (zh) | 基于自注意力机制的红外和可见光图像融合方法 | |
CN109064396A (zh) | 一种基于深度成分学习网络的单幅图像超分辨率重建方法 | |
CN103093444B (zh) | 基于自相似性和结构信息约束的图像超分辨重建方法 | |
CN106778682B (zh) | 一种卷积神经网络模型的训练方法及其设备 | |
CN105243670B (zh) | 一种稀疏和低秩联合表达的视频前景对象精准提取方法 | |
CN109426858A (zh) | 神经网络、训练方法、图像处理方法及图像处理装置 | |
CN108460391B (zh) | 基于生成对抗网络的高光谱图像无监督特征提取方法 | |
CN107833183A (zh) | 一种基于多任务深度神经网络的卫星图像同时超分辨和着色的方法 | |
CN107122826A (zh) | 用于卷积神经网络的处理方法和系统、和存储介质 | |
CN108537731A (zh) | 基于压缩多尺度特征融合网络的图像超分辨率重建方法 | |
CN104867124B (zh) | 基于对偶稀疏非负矩阵分解的多光谱与全色图像融合方法 | |
CN107316015A (zh) | 一种基于深度时空特征的高精度面部表情识别方法 | |
CN112184554A (zh) | 一种基于残差混合膨胀卷积的遥感图像融合方法 | |
CN105046672A (zh) | 一种图像超分辨率重建方法 | |
CN108304357A (zh) | 一种基于字体流形的中文字库自动生成方法 | |
CN108121975A (zh) | 一种联合原始数据和生成数据的人脸识别方法 | |
CN107358260A (zh) | 一种基于表面波cnn的多光谱图像分类方法 | |
CN106339753A (zh) | 一种有效提升卷积神经网络稳健性的方法 | |
CN107301372A (zh) | 基于迁移学习的高光谱图像超分辨率方法 | |
CN106920214A (zh) | 空间目标图像超分辨率重建方法 | |
CN110717953A (zh) | 基于cnn-lstm组合模型的黑白图片的着色方法和系统 | |
CN102750385A (zh) | 基于标签检索的相关性—质量排序图像检索方法 | |
CN109345494A (zh) | 基于潜在低秩表示和结构张量的图像融合方法及装置 | |
CN107610093A (zh) | 基于相似性特征融合的全参考型图像质量评价方法 | |
CN109002771A (zh) | 一种基于递归神经网络的遥感图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |