CN111882512A - 基于深度学习的图像融合方法、装置、设备和存储介质 - Google Patents
基于深度学习的图像融合方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN111882512A CN111882512A CN202010715887.8A CN202010715887A CN111882512A CN 111882512 A CN111882512 A CN 111882512A CN 202010715887 A CN202010715887 A CN 202010715887A CN 111882512 A CN111882512 A CN 111882512A
- Authority
- CN
- China
- Prior art keywords
- branch
- image
- fused
- hyperspectral
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 29
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 19
- 238000003860 storage Methods 0.000 title claims abstract description 12
- 230000006870 function Effects 0.000 claims abstract description 85
- 239000011159 matrix material Substances 0.000 claims abstract description 71
- 238000012549 training Methods 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims abstract description 38
- 230000004927 fusion Effects 0.000 claims abstract description 25
- 238000001228 spectrum Methods 0.000 claims abstract description 14
- 230000003595 spectral effect Effects 0.000 claims description 41
- 238000004590 computer program Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 7
- 230000006798 recombination Effects 0.000 claims description 7
- 238000005215 recombination Methods 0.000 claims description 7
- 238000009826 distribution Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000013398 bayesian method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 102000002274 Matrix Metalloproteinases Human genes 0.000 description 1
- 108010000684 Matrix Metalloproteinases Proteins 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000000701 chemical imaging Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003707 image sharpening Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035764 nutrition Effects 0.000 description 1
- 235000016709 nutrition Nutrition 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 230000008521 reorganization Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000013535 sea water Substances 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
- Y02A40/22—Improving land use; Improving water use or availability; Controlling erosion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度学习的图像融合方法、装置、设备和存储介质,该方法包括:获取待融合的高光谱图像和待融合的多光谱图像;将待融合的高光谱图像和待融合的多光谱图像分别重组为对应的二维矩阵形式;将二维矩阵形式的多光谱图像输入至预先构建的双支路网络中的第一支路,将二维矩阵形式的高光谱图像输入预先构建的双支路网络中的第二支路;通过最小化第一支路的第一损失函数来训练第一支路,以及,最小化第二支路的第二损失函数来训练第二支路,直到训练次数达到设定次数阈值或第一损失函数且第二损失函数的函数值在设定函数值范围内;输出第二支路中重构的高分辨且高光谱图像,确定融合后的图像。实现了对高光谱图像的空间分辨率的提升。
Description
技术领域
本发明涉及光学遥感图像分辨率增强技术领域,具体涉及一种基于深度学习的图像融合方法、装置、设备和存储介质。
背景技术
湿地具有防控海水、沉积营养、调节气候、保护海岸以及维护生态等重要价值,在保护生态平衡和维持人类生产方面发挥重要作用。其中,滨海湿地尤为重要,因为它是陆地和海洋生态系统的过渡地带,是自然力量与人类活动交互强烈的地带。植被作为滨海湿地的重要一员,不仅为人类生产和生活提供原料,还在湿地的气候监测、环境保护、生态维持和物种监护等领域发挥重要的作用。植被的类型和分布严重影响着湿地生态的平衡与健康,因此,滨海湿地植被的精准分类研究具有重要意义。
滨海湿地的植被通常呈大面积集中分布,因而具备天然的遥感监测优势。要实现湿地植被的精准分类,往往需要高空间且高光谱分辨率的遥感图像。然而,由于硬件设备的技术限制,单一传感器难以获取同时具备高空间和高光谱分辨率的图像。
发明内容
有鉴于此,提供一种基于深度学习的图像融合方法、装置、设备和存储介质,以解决相关技术中无法对高光谱图像进行空间分辨率提升的问题。
本发明采用如下技术方案:
第一方面,本申请实施例提供了一种基于深度学习的图像融合方法,该方法包括:
获取待融合的高光谱图像和待融合的多光谱图像,其中,所述待融合的高光谱图像和所述待融合的多光谱图像均为湿地图像;
将所述待融合的高光谱图像和待融合的多光谱图像分别重组为对应的二维矩阵形式;
将所述二维矩阵形式的多光谱图像输入至预先构建的双支路网络中的第一支路,将所述二维矩阵形式的高光谱图像输入预先构建的双支路网络中的第二支路;
通过最小化第一支路的第一损失函数来训练所述第一支路,以及,最小化第二支路的第二损失函数来训练所述第二支路,直到训练次数达到设定次数阈值或所述第一损失函数且所述第二损失函数的函数值在设定函数值范围内;
输出所述第二支路中重构的高分辨且高光谱图像,确定融合后的图像。
第二方面,本申请实施例提供了一种基于深度学习的图像融合装置,该装置包括:
图像获取模块,用于获取待融合的高光谱图像和待融合的多光谱图像,其中,所述待融合的高光谱图像和所述待融合的多光谱图像均为湿地图像;
重组模块,用于将所述待融合的高光谱图像和待融合的多光谱图像分别重组为对应的二维矩阵形式;
输入模块,用于将所述二维矩阵形式的多光谱图像输入至预先构建的双支路网络中的第一支路,将所述二维矩阵形式的高光谱图像输入预先构建的双支路网络中的第二支路;
训练模块,用于通过最小化第一支路的第一损失函数来训练所述第一支路,以及,最小化第二支路的第二损失函数来训练所述第二支路,直到训练次数达到设定次数阈值或所述第一损失函数且所述第二损失函数的函数值在设定函数值范围内;
输出模块,用于输出所述第二支路中重构的高分辨且高光谱图像,确定融合后的图像。
第三方面,本申请实施例提供了一种设备,该设备包括:
处理器,以及与所述处理器相连接的存储器;
所述存储器用于存储计算机程序,所述计算机程序至少用于执行本申请实施例第一方面所述的基于深度学习的图像融合方法;
所述处理器用于调用并执行所述存储器中的所述计算机程序。
第四方面,本申请实施例提供了一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时,实现如第一方面所述的基于深度学习的图像融合方法中各个步骤。
本发明采用以上技术方案,通过将待融合的高光谱图像和待融合的多光谱图像分别重组为对应的二维矩阵形式,这样可以将携带光谱信息的矩阵和携带空间信息的线性表示稀疏矩阵分离出来;另外,基于双支路融合网络,通过提取多光谱图像的空间信息和高光谱图像的光谱信息来重构高分辨的高光谱图像,应用神经网络实现对高光谱图像空间分辨率的提升,为滨海湿地植被的精准分类提供更有效的数据。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种基于深度学习的图像融合方法的流程图;
图2是本申请实施例中适用的一种三维图像重组为二维形式的示意图;
图3是本申请实施例中适用的一种无监督双支路网络的示意图;
图4是本申请实施例提供的一种基于深度学习的图像融合装置的结构示意图;
图5是本申请实施例提供的一种设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将对本发明的技术方案进行详细的描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施方式,都属于本发明所保护的范围。
首先对本申请实施例的可应用场景和基本概念进行说明,相对于多光谱图像而言,高光谱图像具有较高的光谱分辨率,能够提供不同材料的光谱特征,多光谱图像虽然具有较低的光谱分辨率,但是其空间分辨率往往由于高光谱图像,而单通道全色图像的空间分辨率更甚于多光谱图像的空间分辨率。因此,收集同一场景的全色、多光谱和高光谱图像,再利用融合技术产生高空间和光谱分辨率图像是解决硬件瓶颈对分辨率限制的一种有效手段。
光谱图像融合技术的发展和星载成像仪的进步密不可分。自1986年第一颗同时载有多光谱和全色图像传感器的卫星SPOT-1发射之后,全色锐化技术逐步发展起来。全色锐化是一种通过融合同一场景的多光谱和全色图像来增强多光谱图像的空间分辨率的方法。在过去的几十年里,已有大量的全色锐化算法被提出,其中代表性的方法有三类:主成分替换(Component substitution,CS)、多分辨率分析(Multiresolution analysis,MRA)和稀疏表示(Sparse representation,SR)。CS和MRA均是通过从全色图像中提取空间细节添加到多光谱图像中以增强多光谱图像的空间分辨率。具体而言,CS提取的空间细节是全色图像和多光谱图像各波段经过光谱变换所得的非零均值成分之间的像素级差异,而MRA则通过对全色图像进行线性空间变换数字滤波来提取空间细节。通常,CS能在空间上较好地锐化图像,而MRA融合的图像具有更好的光谱质量。图像SR意味着将图像建模为一个字典中某些元素的线性组合,这源于压缩感知理论。SR全色锐化方法将遥感成像过程建模为一个与压缩感知理论中的测量矩阵对应的线性变换,其中,高分辨的全色图像和低分辨的多光谱图像视为测量值,则可以利用稀疏正则化来重建高分辨的多光谱图像。
随着高光谱成像技术的出现,很多学者们将多光谱图像全色锐化方法引入高光谱和多光谱图像融合领域,用于提升高光谱图像的空间分辨率。但是由于高光谱图像具有比多光谱图像更丰富的光谱信息和更低的空间分辨率,应用传统的多光谱图像锐化技术来增强高光谱图像分辨率是一个更具有挑战性的选择,而且容易引起光谱失真。当然,也有专门针对高光谱和多光谱图像融合的研究,主要包括基于解混、Bayesian和深度学习的方法。Gross和Schott首次应用光谱解混成功实现了高光谱和全色图像的融合,在光谱响应函数和点扩展函数等相关传感器特性约束下,分别从高分辨和低分辨图像中获取高分辨率丰度矩阵和端元信息,而融合后的图像即为这两个矩阵的乘积。随后,学者们提出多种不同的方法,比如非负矩阵分解、耦合非负矩阵分解、字典学习和稀疏编码等,来提取端元和丰度矩阵,进而有效地融合高光谱和多光谱图像。由Eismann等人首次提出的基于最大后验估计的Bayesian方法,在使用高光谱全色或多光谱数据源提高所有高光谱波段图像的空间分辨率方面取得了突破。Bayesian方法的主要思想是在子空间上利用两个待融合图像的光谱信息实现融合,这种思想引领了很多后来者们研发多种有效的融合方案。现有的上述融合方法大都假定高和低分辨图像间的下采样函数是已知的,但是由于传感器误差和复杂的环境,这种假设总是有偏差的。
近年来,基于深度学习的图像超分辨技术取得了卓越的成效,其中大多是监督的,即利用深度神经网络学习高低分辨图像对之间的映射关系,并将学到的映射作用于低分辨图像,从而提升其分辨率。但是这种监督学习方法不适用于高光谱图像分辨率增强,因为监督学习需要大量的高低分辨数据对,对于高光谱图像这很难实现。此外,有研究指出,深度学习从数据集中学到的端到端映射函数普适性较差,因为不同的传感器的映射函数往往存在差异性,而且同一传感器拍摄的图像在不同波段的映射函数也可能存在差异。因此,近期,兴起了对基于无监督学习的高光谱和多光谱融合的研究。Sidorov和Hardeberg将Ulyanov等人提出的基于卷积神经网络(Convolutional neural network,CNN)的图像深度先验算法拓展到高光谱图像领域,实现了对高光谱图像的去噪、填充和超分重构。Qu等人提出了无监督的稀疏Dirichlet网络,实现了高光谱和多光谱图像的融合,从而重构出高分辨的高光谱图像。但是基于深度学习的高光谱图像分辨率增强算法的研究仍有待改进,因此,有必要继续深入研究基于深度学习的高光谱和多光谱图像融合,进而提升此类方法的性能。
实施例
图1为本发明实施例提供的一种基于深度学习的图像融合方法的流程图,该方法可以由本发明实施例提供的基于深度学习的图像融合装置来执行,该装置可采用软件和/或硬件的方式实现。参考图1,该方法具体可以包括如下步骤:
S101、获取待融合的高光谱图像和待融合的多光谱图像,其中,待融合的高光谱图像和待融合的多光谱图像均为湿地图像。
其中,光谱图像可以表示为多个基向量的线性组合,基向量包含了光谱信息,而线性表示的系数则包含了空间信息。具体的,Ils表示待融合的高光谱图像,也即,低分辨率的高光谱图像;Ihs表示待融合的多光谱图像,也即,高分辨的多光谱头像。其中,M、N和B分别表示待融合的高光谱图像的行数、列数和波段数,m、n和b分别表示待融合的多光谱图像的行数、列数和波段数。通常情况下,m>>M、n>>N、B>>b,因为多光谱图像的空间分辨率往往高于高光谱图像,而其光谱分辨率低于高光谱图像。在一个具体的例子中,本申请的应用场景是对滨海湿地的图像进行融合。
S102、将待融合的高光谱图像和待融合的多光谱图像分别重组为对应的二维矩阵形式。
其中,待融合的高光谱图像和待融合的多光谱图像均为三维数组形式,为了进行图像融合,需要分别重组为对应的二维矩阵形式。具体可以通过如下方式实现:将待融合的多光谱图像的每一个波段按照从左到右以及从上到下的方式拉伸为第一波段数目个序列,将第一波段数目个序列横向依次排列,得到待融合的多光谱图像的二维矩阵形式;将待融合的高光谱图像的每一个波段按照从左到右以及从上到下的方式拉伸为第二波段数目个序列,将第二波段数目个序列横向依次排列,得到待融合的高光谱图像的二维矩阵形式。
具体的,将高光谱图像Ils的每一个波段图像拉伸为一列,再将所得的B个长为MN的序列横向依次排列,则可生成Ils对应的二维形式对多光谱图像Ihs进行同样的图像重组操作,得到对应的二维矩阵在一个具体的例子中,第一波段数目为b,第二波段数目为B。
S103、将二维矩阵形式的多光谱图像输入至预先构建的双支路网络中的第一支路,将二维矩阵形式的高光谱图像输入预先构建的双支路网络中的第二支路。
在一个具体的例子中,第一支路为利用多光谱图像重构多光谱图像的支路,包含编码器、Bottleneck隐藏层和解码器,编码器是用于将高维图像映射到其低维表示的Bottleneck隐藏层,Bottleneck隐藏层则是从多光谱图像中提取空间信息,而解码器则是用于提取光谱信息,最终利用所提取的空间信息和光谱信息重构出逼近原始多光谱图像的多光谱图像。第二支路为利用高光谱图像重构多光谱图像的支路,与第一支路网络结构相同,且与第一支路共享编码器和Bottleneck隐藏层,其解码器则是用于提取高光谱图像的高光谱信息,联合解码器提取的高光谱信息和编码器提取的高空间信息重构出高分辨的高光谱图像,将该重构的高分辨高光谱图像与光谱响应矩阵相乘来重构与原始多光谱图像逼近的多光谱图像。其中,第二支路中间环节中重构的高分辨高光谱图像即为所需的最终融合结果。可选的,第一支路和第二支路的编码器和隐藏层相同,隐藏层满足Dirichlet分布;第一支路和第二支路的解码器不同。
S104、通过最小化第一支路的第一损失函数来训练第一支路,以及,最小化第二支路的第二损失函数来训练第二支路,直到训练次数达到设定次数阈值或第一损失函数且第二损失函数的函数值在设定函数值范围内。
具体的,将所得的和同时输入所提的双支路网络,交替训练两条支路,通过最小化第一支路的第一损失函数来训练第一支路,再通过最小化第二支路的第二损失函数来训练第二支路,直至训练次数达到设定次数阈值或者两个损失函数的函数值都基本稳定在设定函数值范围内。
示例性的,通过最小化第一支路的第一损失函数,以反向传播的方式更新第一支路中的第一网络参数来训练第一支路;最小化第二支路的第二损失函数来训练第二支路,包括:通过最小化第二支路的第二损失函数,以反向传播的方式更新第二支路中的第二网络参数来训练第二支路。反复交替执行最小化第一支路的第一损失函数和第二支路的第二损失函数的步骤。
S105、输出第二支路中重构的高分辨且高光谱图像,确定融合后的图像。
可选的,输出第二支路中重构的二维矩阵形式的图像,对二维矩阵形式的图像执行重组的逆过程,得到高分辨率且高光谱的图像。
本发明采用以上技术方案,通过将待融合的高光谱图像和待融合的多光谱图像分别重组为对应的二维矩阵形式,这样可以将携带光谱信息的矩阵和携带空间信息的线性表示稀疏矩阵分离出来;这样,基于双支路融合网络,通过提取多光谱图像的空间信息和高光谱图像的光谱信息来重构高分辨的高光谱图像,应用神经网络实现对高光谱图像空间分辨率的提升,为滨海湿地植被的精准分类提供更有效的数据。
为了使本申请的技术方案更容易理解,下面用一个具体的实现流程来进行说明。在得到二维矩阵形式的高光谱图像和多光谱图像后,假设高光谱图像中任一点的光谱向量可以表示成k个光谱基向量的线性组合,则二维矩阵形式的高光谱图像可表示为其中,是携带空间信息的线性表示稀疏矩阵,满足非负性且和为1,也即,∑Sls=1,是携带光谱信息、由k个光谱基向量组成的矩阵。类似地,可以表示为其中,
示例性的,多光谱图像的光谱基矩阵为高光谱图像的光谱基矩阵和传感器光谱响应矩阵的乘积。高光谱图像和多光谱图像的光谱基之间存在关系Ψhs=ΨlsF,其中,F表示与传感器有关的光谱响应矩阵。利用高光谱图像的光谱信息和多光谱图像的空间信息即可重构出高分辨的高光谱图像,即有X=ShsΨls。由于Ψhs=ΨlsF,所以容易通过高分辨高光谱图像X生成对应的高分辨多光谱图像,即
因此,本申请实施例提供了一种双支路融合网络,网络的具体设置为:强制Bottleneck隐藏层Shs满足Dirichlet分布以约束其非负性及和为1的先验;第一支路的第一损失函数为其中,最小化是为了使第一支路的重构输出逼近输入的高分辨多光谱图像,利于其空间信息Shs和光谱信息Ψhs的准确提取;E1(Shs)是Shs的熵函数,最小化熵是为了约束Shs的稀疏性;λ是正则化系数,用于控制对Shs稀疏性的约束力度;第二支路的第二损失函数为其中,最小化是为了使第二支路的重构输出逼近输入的高分辨多光谱图像,利于多光谱图像的空间信息Shs和高光谱图像光谱信息Ψls的准确提取。
将待融合的高光谱图像Ils和待融合的多光谱图像Ihs经过重组为对应的二维矩阵形式后输入该网络,训练到预设的停止条件,即可输出融合的高分辨高光谱图像X。具体的训练方式如下:
通过最小化以反向传播的方式更新第一支路中的网络参数;再通过最小化以反向传播的方式更新第二支路中的参数;反复交替执行上述第一支路和第二支路的网络参数更新的步骤,直至和的值基本不再降低或训练次数达到第一支路和第二支路预设的最大训练次数;输出支路2中间重构的二维形式图像X,再对其进行图像重组的逆过程,即可得到最终的融合结果
在一个具体的例子中,图2示出了一种三维图像重组为二维形式的示意图;图3示出了一种无监督双支路网络的示意图。参考图2,H表示表示图像的行数,W表示图像的列数,以及,C表示图像的波段数。若图像为高光谱图像,则H取值为M、W取值为N,以及,C取值为B;若图像为多光谱图像,则H取值为m,W取值为n,以及,C取值为b。参考图3,支路1为本申请实施例的第一支路,支路2为本申请实施例的第二支路。
本申请实施例中,预先构建的双支路网络共享同一个编码器,可进行交替训练,且二者最终的重构目标一致,将原始高光谱图像和多光谱图像紧密地联系起来,从而获得较好的融合结果。另外,这是一种无监督算法,无需大量的数据进行训练,避免了监督算法对数据量的需求以及应用场景的限制,具有实用性高的优点。
图4是本发明是实施例提供的一种基于深度学习的图像融合装置的结构示意图,该装置适用于执行本发明实施例提供给的一种基于深度学习的图像融合方法。如图4所示,该装置具体可以包括图像获取模块401、重组模块402、输入模块403、训练模块404和输出模块405。
其中,图像获取模块401,用于获取待融合的高光谱图像和待融合的多光谱图像,其中,待融合的高光谱图像和待融合的多光谱图像均为湿地图像;重组模块402,用于将待融合的高光谱图像和待融合的多光谱图像分别重组为对应的二维矩阵形式;输入模块403,用于将二维矩阵形式的多光谱图像输入至预先构建的双支路网络中的第一支路,将二维矩阵形式的高光谱图像输入预先构建的双支路网络中的第二支路;训练模块404,用于通过最小化第一支路的第一损失函数来训练第一支路,以及,最小化第二支路的第二损失函数来训练第二支路,直到训练次数达到设定次数阈值或第一损失函数且第二损失函数的函数值在设定函数值范围内;输出模块405,用于输出第二支路中重构的高分辨且高光谱图像,确定融合后的图像。
本发明采用以上技术方案,通过将待融合的高光谱图像和待融合的多光谱图像分别重组为对应的二维矩阵形式,这样可以将携带光谱信息的矩阵和携带空间信息的线性表示稀疏矩阵分离出来;这样,基于双支路融合网络,通过提取多光谱图像的空间信息和高光谱图像的光谱信息来重构高分辨的高光谱图像,应用神经网络实现对高光谱图像空间分辨率的提升,为滨海湿地植被的精准分类提供更有效的数据。
可选的,重组模块402具体用于:
将待融合的多光谱图像的每一个波段按照从左到右以及从上到下的方式拉伸为第一波段数目个序列,将第一波段数目个序列横向依次排列,得到待融合的多光谱图像的二维矩阵形式;
将待融合的高光谱图像的每一个波段按照从左到右以及从上到下的方式拉伸为第二波段数目个序列,将第二波段数目个序列横向依次排列,得到待融合的高光谱图像的二维矩阵形式。
可选的,训练模块404具体用于:通过最小化第一支路的第一损失函数,以反向传播的方式更新第一支路中的第一网络参数来训练第一支路;
最小化第二支路的第二损失函数来训练第二支路,包括:通过最小化第二支路的第二损失函数,以反向传播的方式更新第二支路中的第二网络参数来训练第二支路。
可选的,训练模块404还用于:
反复交替执行最小化第一支路的第一损失函数和第二支路的第二损失函数的步骤。
可选的,输出模块405具体用于:
输出第二支路中重构的二维矩阵形式的图像;
对二维矩阵形式的图像执行重组的逆过程,得到高分辨率且高光谱的图像。
可选的,第一支路和第二支路的编码器和隐藏层相同,隐藏层满足Dirichlet分布;第一支路和第二支路的解码器不同。
可选的,多光谱图像的光谱基矩阵为高光谱图像的光谱基矩阵和传感器光谱响应矩阵的乘积。
本发明实施例提供的基于深度学习的图像融合装置可执行本发明任意实施例提供的基于深度学习的图像融合方法,具备执行方法相应的功能模块和有益效果。
本发明实施例还提供一种设备,请参阅图5,图5为一种设备的结构示意图,如图5所示,该设备包括:处理器510,以及与处理器510相连接的存储器520;存储器520用于存储计算机程序,所述计算机程序至少用于执行本发明实施例中的基于深度学习的图像融合方法;处理器510用于调用并执行所述存储器中的所述计算机程序;上述基于深度学习的图像融合方法至少包括如下步骤:获取待融合的高光谱图像和待融合的多光谱图像;将待融合的高光谱图像和待融合的多光谱图像分别重组为对应的二维矩阵形式;将二维矩阵形式的多光谱图像输入至预先构建的双支路网络中的第一支路,将二维矩阵形式的高光谱图像输入预先构建的双支路网络中的第二支路;通过最小化第一支路的第一损失函数来训练第一支路,以及,最小化第二支路的第二损失函数来训练第二支路,直到训练次数达到设定次数阈值或第一损失函数且第二损失函数的函数值在设定函数值范围内;输出第二支路中重构的高分辨且高光谱图像,确定融合后的图像。
本发明实施例还提供一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时,实现如本发明实施例中的基于深度学习的图像融合方法中各个步骤:获取待融合的高光谱图像和待融合的多光谱图像;将待融合的高光谱图像和待融合的多光谱图像分别重组为对应的二维矩阵形式;将二维矩阵形式的多光谱图像输入至预先构建的双支路网络中的第一支路,将二维矩阵形式的高光谱图像输入预先构建的双支路网络中的第二支路;通过最小化第一支路的第一损失函数来训练第一支路,以及,最小化第二支路的第二损失函数来训练第二支路,直到训练次数达到设定次数阈值或第一损失函数且第二损失函数的函数值在设定函数值范围内;输出第二支路中重构的高分辨且高光谱图像,确定融合后的图像。
可以理解的是,上述各实施例中相同或相似部分可以相互参考,在一些实施例中未详细说明的内容可以参见其他实施例中相同或相似的内容。
需要说明的是,在本发明的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明的描述中,除非另有说明,“多个”的含义是指至少两个。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种基于深度学习的图像融合方法,其特征在于,包括:
获取待融合的高光谱图像和待融合的多光谱图像,其中,所述待融合的高光谱图像和所述待融合的多光谱图像均为湿地图像;
将所述待融合的高光谱图像和待融合的多光谱图像分别重组为对应的二维矩阵形式;
将所述二维矩阵形式的多光谱图像输入至预先构建的双支路网络中的第一支路,将所述二维矩阵形式的高光谱图像输入预先构建的双支路网络中的第二支路;
通过最小化第一支路的第一损失函数来训练所述第一支路,以及,最小化第二支路的第二损失函数来训练所述第二支路,直到训练次数达到设定次数阈值或所述第一损失函数且所述第二损失函数的函数值在设定函数值范围内;
输出所述第二支路中重构的高分辨且高光谱图像,确定融合后的图像。
2.根据权利要求1所述的方法,其特征在于,将所述待融合的高光谱图像和待融合的多光谱图像分别重组为对应的二维矩阵形式,包括:
将所述待融合的多光谱图像的每一个波段按照从左到右以及从上到下的方式拉伸为第一波段数目个序列,将所述第一波段数目个序列横向依次排列,得到所述待融合的多光谱图像的二维矩阵形式;
将所述待融合的高光谱图像的每一个波段按照从左到右以及从上到下的方式拉伸为第二波段数目个序列,将所述第二波段数目个序列横向依次排列,得到所述待融合的高光谱图像的二维矩阵形式。
3.根据权利要求1所述的方法,其特征在于,所述通过最小化第一支路的第一损失函数来训练所述第一支路,包括:通过最小化第一支路的第一损失函数,以反向传播的方式更新所述第一支路中的第一网络参数来训练所述第一支路;
所述最小化第二支路的第二损失函数来训练所述第二支路,包括:通过最小化第二支路的第二损失函数,以反向传播的方式更新所述第二支路中的第二网络参数来训练所述第二支路。
4.根据权利要求3所述的方法,其特征在于,还包括:
反复交替执行最小化第一支路的第一损失函数和第二支路的第二损失函数的步骤。
5.根据权利要求1所述的方法,其特征在于,所述输出所述第二支路中重构的高分辨且高光谱图像,确定融合后的图像,包括:
输出所述第二支路中重构的二维矩阵形式的图像;
对所述二维矩阵形式的图像执行重组的逆过程,得到高分辨率且高光谱的图像。
6.根据权利要求1所述的方法,其特征在于,所述第一支路和所述第二支路的编码器和隐藏层相同,隐藏层满足Dirichlet分布;所述第一支路和所述第二支路的解码器不同。
7.根据权利要求1所述的方法,其特征在于,所述多光谱图像的光谱基矩阵为所述高光谱图像的光谱基矩阵和传感器光谱响应矩阵的乘积。
8.一种基于深度学习的图像融合装置,其特征在于,包括:
图像获取模块,用于获取待融合的高光谱图像和待融合的多光谱图像,其中,所述待融合的高光谱图像和所述待融合的多光谱图像均为湿地图像;
重组模块,用于将所述待融合的高光谱图像和待融合的多光谱图像分别重组为对应的二维矩阵形式;
输入模块,用于将所述二维矩阵形式的多光谱图像输入至预先构建的双支路网络中的第一支路,将所述二维矩阵形式的高光谱图像输入预先构建的双支路网络中的第二支路;
训练模块,用于通过最小化第一支路的第一损失函数来训练所述第一支路,以及,最小化第二支路的第二损失函数来训练所述第二支路,直到训练次数达到设定次数阈值或所述第一损失函数且所述第二损失函数的函数值在设定函数值范围内;
输出模块,用于输出所述第二支路中重构的高分辨且高光谱图像,确定融合后的图像。
9.一种设备,其特征在于,包括:
处理器,以及与所述处理器相连接的存储器;
所述存储器用于存储计算机程序,所述计算机程序至少用于执行权利要求1-7任一项所述的基于深度学习的图像融合方法;
所述处理器用于调用并执行所述存储器中的所述计算机程序。
10.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时,实现如权利要求1-7任一项所述的基于深度学习的图像融合方法中各个步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010715887.8A CN111882512B (zh) | 2020-07-20 | 2020-07-20 | 基于深度学习的图像融合方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010715887.8A CN111882512B (zh) | 2020-07-20 | 2020-07-20 | 基于深度学习的图像融合方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111882512A true CN111882512A (zh) | 2020-11-03 |
CN111882512B CN111882512B (zh) | 2022-12-20 |
Family
ID=73155964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010715887.8A Active CN111882512B (zh) | 2020-07-20 | 2020-07-20 | 基于深度学习的图像融合方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111882512B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114187517A (zh) * | 2021-12-14 | 2022-03-15 | 广州赋安数字科技有限公司 | 一种融合视频监控和遥感的异常目标检测方法及系统 |
CN115311187A (zh) * | 2022-10-12 | 2022-11-08 | 湖南大学 | 基于内部和外部先验的高光谱融合成像方法、系统及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040141659A1 (en) * | 2003-01-17 | 2004-07-22 | Yun Zhang | System and method for image fusion |
CN109636769A (zh) * | 2018-12-18 | 2019-04-16 | 武汉大学 | 基于双路密集残差网络的高光谱和多光谱图像融合方法 |
CN109886870A (zh) * | 2018-12-29 | 2019-06-14 | 西北大学 | 基于双通道神经网络的遥感图像融合方法 |
-
2020
- 2020-07-20 CN CN202010715887.8A patent/CN111882512B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040141659A1 (en) * | 2003-01-17 | 2004-07-22 | Yun Zhang | System and method for image fusion |
CN109636769A (zh) * | 2018-12-18 | 2019-04-16 | 武汉大学 | 基于双路密集残差网络的高光谱和多光谱图像融合方法 |
CN109886870A (zh) * | 2018-12-29 | 2019-06-14 | 西北大学 | 基于双通道神经网络的遥感图像融合方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114187517A (zh) * | 2021-12-14 | 2022-03-15 | 广州赋安数字科技有限公司 | 一种融合视频监控和遥感的异常目标检测方法及系统 |
CN115311187A (zh) * | 2022-10-12 | 2022-11-08 | 湖南大学 | 基于内部和外部先验的高光谱融合成像方法、系统及介质 |
CN115311187B (zh) * | 2022-10-12 | 2023-01-24 | 湖南大学 | 基于内部和外部先验的高光谱融合成像方法、系统及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111882512B (zh) | 2022-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Deng et al. | Machine learning in pansharpening: A benchmark, from shallow to deep networks | |
Zhao et al. | Hierarchical regression network for spectral reconstruction from RGB images | |
CN110119780B (zh) | 基于生成对抗网络的高光谱图像超分辨重建方法 | |
Chang et al. | Weighted low-rank tensor recovery for hyperspectral image restoration | |
CN110660038B (zh) | 一种基于生成对抗网络的多光谱图像与全色图像融合方法 | |
CN110969577A (zh) | 一种基于深度双重注意力网络的视频超分辨率重建方法 | |
CN111080567A (zh) | 基于多尺度动态卷积神经网络的遥感图像融合方法及系统 | |
CN109509160A (zh) | 一种利用逐层迭代超分辨率的分层次遥感图像融合方法 | |
US20130011051A1 (en) | Coded aperture imaging | |
CN109146787B (zh) | 一种基于插值的双相机光谱成像系统的实时重建方法 | |
CN111882512B (zh) | 基于深度学习的图像融合方法、装置、设备和存储介质 | |
CN106920214A (zh) | 空间目标图像超分辨率重建方法 | |
Han et al. | Edge-Guided Remote Sensing Image Compression | |
Song et al. | Deep memory-augmented proximal unrolling network for compressive sensing | |
CN115861083B (zh) | 一种多尺度和全局特征的高光谱与多光谱遥感融合方法 | |
CN106600533B (zh) | 单图像超分辨率重建方法 | |
CN114723631A (zh) | 基于深度上下文先验与多尺度重建子网络的图像去噪方法、系统及装置 | |
CN102819829A (zh) | 基于分形的超分辨率遥感影像的重建算法 | |
CN104408697A (zh) | 基于遗传算法和正则先验模型的图像超分辨重建方法 | |
CN116773018A (zh) | 一种计算光谱成像的空谱联合图像重建方法及系统 | |
CN113962882B (zh) | 一种基于可控金字塔小波网络的jpeg图像压缩伪影消除方法 | |
CN117576483B (zh) | 基于多尺度卷积自编码器的多源数据融合地物分类方法 | |
Niresi et al. | Robust hyperspectral inpainting via low-rank regularized untrained convolutional neural network | |
CN117392327A (zh) | 一种基于先验图像和自编码器模型的高光谱图像重构方法 | |
CN104683818A (zh) | 基于双正交不变集多小波的图像压缩方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |