CN110189282A - 基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法 - Google Patents

基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法 Download PDF

Info

Publication number
CN110189282A
CN110189282A CN201910382946.1A CN201910382946A CN110189282A CN 110189282 A CN110189282 A CN 110189282A CN 201910382946 A CN201910382946 A CN 201910382946A CN 110189282 A CN110189282 A CN 110189282A
Authority
CN
China
Prior art keywords
image
multispectral
network
feature
equation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910382946.1A
Other languages
English (en)
Inventor
李映
王栋
马力
白宗文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201910382946.1A priority Critical patent/CN110189282A/zh
Publication of CN110189282A publication Critical patent/CN110189282A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10041Panchromatic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

本发明涉及一种基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法,该方法分为模型训练和图像融合两个部分。在模型训练阶段,首先将原始清晰多光谱和全色图像降采样,得到模拟训练图像对;然后提取模拟的多光谱和全色图像的特征,利用密集连接网络融合特征,并利用跳跃连接重建高空间分辨率多光谱图像;最后利用Adam算法调整模型的参数。在图像融合阶段,首先提取多光谱和全色图像的特征,利用密集连接网络融合特征,并结合跳跃连接重建高空间分辨率多光谱图像。两个特征提取子网络负责提取输入图像对的特征,三个密集连接网络负责融合特征,跳跃连接和两个转置卷积负责重建高空间分辨率多光谱图像。

Description

基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合 方法
技术领域
本发明属于遥感图像处理领域,具体涉及一种基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法。
背景技术
遥感图像具有两个重要的性质——光谱分辨率和空间分辨率。光谱分辨率指传感器在接收目标辐射的光谱时能够分辨的最小波长范围,这个波长范围越窄,光谱分辨率就越高,传感器能够区分和识别的光谱中各波段光的能力就越强,产生的波段数目就越多,所得到的遥感图像的光谱信息就越丰富。空间分辨率指遥感图像上能够识别的两个相邻地物的最小距离,这个最小距离越小,空间分辨率就越高,遥感图像中可见的地物的细节信息就越丰富,其识别物体的能力就越强。
大多数遥感应用都需要在空间域和光谱域都具有最高分辨率的图像,然而,由于对数据存储量和传感器信噪比做出的折中,这样的图像很难通过单个传感器来获取。因此由于目前的传感器技术的限制,获取的遥感图像要么光谱分辨率较高空间分辨率较低,要么空间分辨率较高光谱分辨率较低。为了缓解这一问题,人们诉求于多传感器。许多光学地球观测卫星,如IKONOS、高分2号和WorldView-2,都携带两种光学传感器来在同一地理区域同时获取具有不同但互补特性的两种图像,其中全色传感器采集只有单个波段的高空间分辨率的图像,而多光谱传感器获取具有多个波段的低空间分辨率的图像。这两种图像分别被称为全色图像和多光谱图像。
在实际应用中,图像中的色彩信息和目标的清晰度对于图像的解译和分析都具有至关重要的作用,因此人们常常会在各种场合需要具有高空间分辨率的多光谱图像。显然,单独的多光谱图像或者全色图像往往难以满足用户的需要。于是,人们尝试使用图像融合技术将多光谱图像和全色图像独有的信息有机地结合起来,利用全色图像中的空间细节信息提升多光谱图像的空间分辨率,得到与全色图像相同的空间分辨率,又具有原来多光谱图像丰富的光谱信息的多光谱图像。这就是多光谱图像融合技术,也叫做多光谱图像全色锐化。目前将多光谱图像和全色图像融合,是得到在光谱域和空间域中都具有最高分辨率的图像的唯一方案。近年来,使用高分辨率遥感图像(例如Google Earth和Bing Maps)的商业产品日益增多,对融合的多光谱图像数据的需求不断增长。此外,多光谱和全色图像融合技术是许多遥感任务如变化检测、目标识别、图像分类等的用于图像增强的重要的预处理步骤。因此,多光谱图像融合受到了遥感界和图像处理界的广泛关注,一直在被深入研究。
本发明针对多光谱和全色图像融合问题,充分利用多光谱图像内丰富的光谱信息和全色图像内空间细节信息,结合两个卷积子网络提取多光谱和全色图像的空间细节和光谱特征,并利用密集连接网络将高层特征进行融合,在融合的特征上利用跳跃连接重构高空间分辨率的多光谱图像,提出一种基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法。
发明内容
要解决的技术问题
为了克服现有的多光谱和全色图像融合方法不能准确地生成高空间分辨率多光谱图像的问题,本发明提出一种基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法。
技术方案
一种基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法,其特征在于包括模型训练和图像融合两个部分;步骤如下:
第一部分:融合模型的训练
输入:图像块集合F0={MS,PAN},其中原始多光谱图像块MS的尺寸为H×W×S,原始全色图像PAN的尺寸为4H×4W×1,H、W和S分别表示多光谱图像的高度、宽度和通道数;
(1)构建仿真训练数据集
步骤1a:将原始多光谱图像块MS进行下采样,从而得到模拟的多光谱图像块该图像块的尺寸为
步骤2b:将下采样的多光谱图像进行双线性插值上采样,从而得到与MS的高度和宽度相同的多光谱图像
步骤3c:将原始全色图像PAN进行下采样得到全色图像 与模拟的上采样多光谱图像的高度和宽度相同;
(2)提取模拟的多光谱图像和全色图像的特征
步骤2a:使用子网络ΦM提取模拟的上采样多光谱图像的特征FM2,如等式(1)、(2)和(3)所示;所述的子网络ΦM由两个卷积层PM1和PM2构成;
FM2=PM2(FM1)=PReLU(WM2*FM1+bM2) (2)
PReLU(x)=max(x,αx) (3)
其中,PReLU()为激活函数,α为该函数的一个参数;WM1和WM2分别为卷积层PM1和PM2的权重;bM1和bM2分别为卷积层PM1和PM2的偏置项;WM1和WM2尺寸为3×3;“*”表示卷积操作;
步骤2b:使用子网络ΦP提取模拟的上采样多光谱图像的特征FP2,如等式(4)和(5)所示;所述的子网络ΦP由两个卷积层PP1和PP2构成;
FP2=PP2(FP1)=PReLU(WP2*FP1+bP2) (5)
其中,WP1和WP2分别为卷积层PP1和PP2的权重;bP1和bP2分别为卷积层PP1和PP2的偏置项;WP1和WP2尺寸为3×3;
步骤2c:提取的模拟的多光谱和全色图像的特征 表示拼接操作;
(3)基于密集连接网络的特征融合
步骤3a:利用密集连接网络提取特征F3,如等式(6)所示;
F3=P3(F2)=D(F2) (6)
其中,D(x)为密集连接网络;所述的密集连接网络包括6对1×1和3×3的卷积层,其中1×1的卷积核的个数为128,3×3的卷积核的个数为32;
步骤3b:提取第二层密集连接网络特征F4,如等式(7)所示;
F4=P4(F3)=D(F3) (7)
步骤3c:提取第三层密集连接网络特征F5,如等式(8)所示;
F5=P5(F4)=D(F4) (8)
(4)基于跳跃连接的高空间分辨率多光谱图像重建
步骤4a:构建跳跃连接,得到特征F6
步骤4b:从融合的特征图F6中重建空间高分辨率多光谱图像F7,如等式(9)所示。
F7=P7(F6)=W7*PReLU(W6*F6+b6)+b7 (9)
其中,W6和W7表示两个转置卷积层中的权重,b6和b7表示转置卷积层中的偏置项;
(5)反向传播调整参数
步骤5a:构建损失函数Loss,如等式(10)所示;
其中,S表示模拟训练图像对的数量;||·||1表示L1范式;i表示图像对的下标;
步骤5b:利用Adam优化算法计算最优的网络参数{W,b};
输出:良好学习的网络;
第二部分:多光谱图像的融合
输入:图像块集合F0={MS,PAN},其中MS的尺寸为H×W×S,PAN的尺寸为4H×4W×1,H、W和S分别表示多光谱图像的高度、宽度和通道数;
(1)构建数据集
将多光谱图像MS进行双线性插值上采样,从而得到与PAN的高度和宽度相同的多光谱图像
(2)提取多光谱和全色图像的特征
步骤6a:使用子网络ΦM提取上采样多光谱图像的特征FM2,如等式(24)和(25)所示:
FM2=PM2(FM1)=PReLU(WM2*FM1+bM2) (25)
步骤6b:使用子网络ΦP提取全色图像PAN的特征FP2,如等式(26)和(27)所示:
FP1=PP1(PAN)=PReLU(WP1*PAN+bP1) (26)
FP2=PP2(FP1)=PReLU(WP2*FP1+bP2) (27)
步骤6c:提取的多光谱和全色图像的特征
(3)基于密集连接网络的特征融合
步骤7a:利用训练好的密集连接网络提取特征F3,如等式(28)所示:
F3=P3(F2)=D(F2) (28)
步骤7b:提取第二层密集连接网络特征F4,如等式(29)所示:
F4=P4(F3)=D(F3) (29)
步骤7c:提取第三层密集连接网络特征F5,如等式(30)所示:
F5=P5(F4)=D(F4) (30)
(4)基于跳跃连接的多光谱图像重建
步骤8a:构建跳跃连接,得到特征F6
步骤8b:从融合的特征图F6中重建出高空间分辨率多光谱图像F7,如等式(31)所示:
F7=P7(F6)=W7*PReLU(W6*F6+b6)+b7 (31)
输出:多光谱和全色图像融合的高空间分辨率多光谱图像F7
有益效果
本发明提出的一种基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法,充分利用多光谱图像内丰富的光谱信息和全色图像内空间细节信息。首先提取多光谱和全色图像特征,利用密集连接网络融合特征,并利用跳跃连接提取底层细节信息,从而有效提高了重构图像的视觉质量,在空域更加有效地重构图像的边缘和纹理等结构特征。对多光谱和全色图像在特征空间中利用密集连接网络进行融合,并利用跳跃连接恢复边缘和纹理等空间细节,能够较好地重构出具有高空间分辨率的多光谱图像。
附图说明
图1为本发明的流程图。
图2为本发明的具体网络结构。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
本发明提供了一种基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法。该方法分为模型训练和图像融合两个部分。在模型训练阶段,首先将原始清晰多光谱和全色图像降采样,得到模拟训练图像对;然后提取模拟的多光谱和全色图像的特征,利用密集连接网络融合特征,并利用跳跃连接重建高空间分辨率多光谱图像;最后利用Adam算法调整模型的参数。在图像融合阶段,首先提取多光谱和全色图像的特征,利用密集连接网络融合特征,并结合跳跃连接重建高空间分辨率多光谱图像。具体深度卷积网络结构如图2所示,两个子网络负责提取输入图像对的特征,三个密集连接网络负责融合特征,跳跃连接和两个转置卷积负责重建高空间分辨率多光谱图像。
具体实施流程如下:
1.融合模型的训练
输入:图像块集合F0={MS,PAN},其中MSi的尺寸为H×W×S,PAN的尺寸为4H×4W×1,H、W和S分别表示多光谱图像的高度、宽度和通道数。
(1)构建仿真训练数据集
步骤1:将原始多光谱图像块MS进行下采样,从而得到模拟的多光谱图像块该图像块的尺寸为
步骤2:将下采样的多光谱图像进行双线性插值上采样,从而得到与MS的高度和宽度相同的多光谱图像
步骤3:将原始全色图像PAN进行下采样得到全色图像 与模拟的上采样多光谱图像的高度和宽度相同。
(2)提取模拟的多光谱图像和全色图像的特征
步骤1:如图2所示,使用子网络ΦM提取模拟的上采样多光谱图像的特征FM2,如等式(1)、(2)和(3)所示;子网络ΦM由两个卷积层PM1和PM2构成;PReLU()为激活函数,α为该函数的一个参数;WM1和WM2分别为卷积层PM1和PM2的权重;bM1和bM2分别为卷积层PM1和PM2的偏置项;WM1和WM2尺寸为3×3;“*”表示卷积操作;
FM2=PM2(FM1)=PReLU(WM2*FM1+bM2) (2)
PReLU(x)=max(x,αx) (3)
步骤2:如图2所示,使用子网络ΦP提取模拟的上采样多光谱图像的特征FP2,如等式(4)和(5)所示;子网络ΦP由两个卷积层PP1和PP2构成;WP1和WP2分别为卷积层PP1和PP2的权重;bP1和bP2分别为卷积层PP1和PP2的偏置项;WP1和WP2尺寸为3×3;
FP2=PP2(FP1)=PReLU(WP2*FP1+bP2) (5)
步骤3:提取的模拟的多光谱和全色图像的特征 表示拼接操作。
(3)基于密集连接网络的特征融合
步骤1:利用密集连接网络提取特征F3;图2中绿色部分为密集连接网络,其中conv表示卷积层,1×1和3×3表示卷积核的大小,32和128分别表示卷积核的个数。在图2密集连接网络内部从左向右依次有6对1×1和3×3的卷积层,它们表示本发明采用的每个密集连接网络中有6个特征融合层,它们依次对应等式(8)-(13),其中Hk,l表示融合模型的第k层中第l个特征融合层,Wk,l,m表示该权重属于融合模型的第k层中第l个特征融合层中第m个卷积层,bk,l,m表示该偏置项属于融合模型的第k层中第l个融合层中第m个卷积层;在等式(8)-(13)中k均为3,表示该密集连接网络位于融合模型的第三层;图2的密集连接网络中最后一个1×1卷积层用于整合前6层的输出,如等式(6)所示;在等式(6)中,F3表示融合模型第三层输出的特征,该层为密集连接网络D(),该D()的输出为该网络第7层H3,7()的输出,[x0,x1,...,xl-1]表示将密集连接网络中第0到l-1层输出的特征图做拼接操作,l表示密集连接网络中的层数;x0表示密集连接网络第0层输出的特征图,也就是密集连接网络的输入,如等式(7)所示;xl为密集连接网络第l层的输出,W3,7和b3,7分别表示该卷积层的权重和偏置项;
F3=P3(F2)=D(F2)=H3,7([x0,...,x6])=PReLU(W3,7*[x0,x1,...,x6]+b3,7)(6)
x0=F2 (7)
x1=H3,1(x0)=PReLU(W3,1,2*PReLU(W3,1,1*x0+b3,1,1)+b3,1,2) (8)
x2=H3,2([x0,x1])=PReLU(W3,2,2*PReLU(W3,2,1*[x0,x1]+b3,2,1)+b3,2,2) (9)
x3=H3,3([x0,...,x2])=PReLU(W3,3,2*PReLU(W3,3,1*[x0,...,x2]+b3,3,1)+b3,3,2) (10)
x4=H3,4([x0,...,x3])=PReLU(W3,4,2*PReLU(W3,4,1*[x0,...,x3]+b3,4,1)+b3,4,2) (11)
x5=H3,5([x0,...,x4])=PReLU(W3,5,2*PReLU(W3,5,1*[x0,...,x4]+b3,5,1)+b3,5,2) (12)
x6=H3,6([x0,...,x5])=PReLU(W3,6,2*PReLU(W3,6,1*[x0,...,x5]+b3,6,1)+b3,6,2) (13)
步骤2:提取第二层密集连接网络特征F4,如等式(14)所示;该密集连接网络的结构和步骤1中密集连接网络的结构相同;该层密集连接网络中的权重和偏置项的具体数值通过训练得到。
F4=P4(F3)=D(F3) (14)
步骤3:提取第三层密集连接网络特征F5,如等式(15)所示;该密集连接网络的结构和步骤1中密集连接网络的结构相同;该层密集连接网络中的权重和偏置项的具体数值通过训练得到。
F5=P5(F4)=D(F4) (15)
(4)基于跳跃连接的高空间分辨率多光谱图像重建
步骤1:如图2所示,高空间分辨率多光谱图像重建模块由一个和两个转置卷积层(由conv transpose表示)组成;通过构建跳跃连接,可得到特征
步骤2:从融合的特征图F6中重建出期望的空间高分辨率多光谱图像F7,如等式(16)所示,*T表示转置卷积;W6和W7表示两个转置卷积层中的权重,b6和b7表示转置卷积层中的偏置项。
F7=P7(F6)=W7*T PReLU(W6*T F6+b6)+b7 (16)
(5)反向传播调整参数
步骤1:构建损失函数Loss;S表示训练图像对的数量;||·||1表示L1范式;i表示图像对的下标;
步骤2:利用Adam优化算法计算最优的网络参数{W,b};网络共进行3×105次批训练;每批训练数据为10组图像对;初始学习率为0.001;每迭代105次学习率减半;在这个学习过程中,我们用{Wt,bt}来表示{W,b}经过随机初始化后在第t次更新后的值,表示由{Wt,bt}计算得到的网络输出,通过计算参考图像MS和之间的预测误差对于{Wt,bt}的偏导数,得到{Wt,bt}的梯度如下:
我们令θ={W,b}表示网络中的所有参数,其迭代地更新如下:
mt=β1·mt-1+(1-β1)·gt (19)
vt=β2·vt-1+(1-β2)·(gt)2 (20)
输出:良好学习的网络。
2.多光谱图像的融合
输入:图像块集合F0={MS,PAN},其中MS的尺寸为H×W×S,PAN的尺寸为4H×4W×1,H、W和S分别表示多光谱图像的高度、宽度和通道数。
(1)构建数据集
将多光谱图像MS进行双线性插值上采样,从而得到与PAN的高度和宽度相同的多光谱图像
(2)提取多光谱和全色图像的特征
步骤1:如图2所示,使用子网络ΦM提取上采样多光谱图像的特征FM2,如等式(24)和(25)所示;子网络ΦM由两个卷积层PM1和PM2构成;PReLU()为激活函数,α为该函数的一个参数;WM1和WM2分别为卷积层PM1和PM2的权重;bM1和bM2分别为卷积层PM1和PM2的偏置项;WM1和WM2尺寸为3×3;“*”表示卷积操作;
FM2=PM2(FM1)=PReLU(WM2*FM1+bM2) (25)
步骤2:如图2所示,使用子网络ΦP提取全色图像PAN的特征FP2,如等式(26)和(27)所示;子网络ΦP由两个卷积层PP1和PP2构成;WP1和WP2分别为卷积层PP1和PP2的权重;bP1和bP2分别为卷积层PP1和PP2的偏置项;WP1和WP2尺寸为3×3;
FP1=PP1(PAN)=PReLU(WP1*PAN+bP1) (26)
FP2=PP2(FP1)=PReLU(WP2*FP1+bP2) (27)
步骤3:提取的多光谱和全色图像的特征
(3)基于密集连接网络的特征融合
步骤1:利用密集连接网络提取特征F3,如等式(28)所示;D(x)为密集连接网络;
F3=P3(F2)=D(F2) (28)
步骤2:提取第二层密集连接网络特征F4,如等式(29)所示;
F4=P4(F3)=D(F3) (29)
步骤3:提取第三层密集连接网络特征F5,如等式(30)所示;
F5=P5(F4)=D(F4) (30)
(4)基于跳跃连接的多光谱图像重建
步骤1:如图2所示,高空间分辨率多光谱图像重建模块由一个和两个转置卷积层(由conv transpose表示)组成;通过构建跳跃连接,可得到特征
步骤2:从融合的特征图F6中重建出期望的空间高分辨率多光谱图像F7,如等式(16)所示,*T表示转置卷积;W6和W7表示两个转置卷积层中的权重,b6和b7表示转置卷积层中的偏置项。
F7=P7(F6)=W7*T PReLU(W6*T F6+b6)+b7 (31)
输出:多光谱和全色图像融合的高空间分辨率多光谱图像F7

Claims (1)

1.一种基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法,其特征在于包括模型训练和图像融合两个部分;步骤如下:
第一部分:融合模型的训练
输入:图像块集合F0={MS,PAN},其中原始多光谱图像块MS的尺寸为H×W×S,原始全色图像PAN的尺寸为4H×4W×1,H、W和S分别表示多光谱图像的高度、宽度和通道数;
(1)构建仿真训练数据集
步骤1a:将原始多光谱图像块MS进行下采样,从而得到模拟的多光谱图像块该图像块的尺寸为
步骤2b:将下采样的多光谱图像进行双线性插值上采样,从而得到与MS的高度和宽度相同的多光谱图像
步骤3c:将原始全色图像PAN进行下采样得到全色图像 与模拟的上采样多光谱图像的高度和宽度相同;
(2)提取模拟的多光谱图像和全色图像的特征
步骤2a:使用子网络ΦM提取模拟的上采样多光谱图像的特征FM2,如等式(1)、(2)和(3)所示;所述的子网络ΦM由两个卷积层PM1和PM2构成;
FM2=PM2(FM1)=PReLU(WM2*FM1+bM2) (2)
PReLU(x)=max(x,αx) (3)
其中,PReLU()为激活函数,α为该函数的一个参数;WM1和WM2分别为卷积层PM1和PM2的权重;bM1和bM2分别为卷积层PM1和PM2的偏置项;WM1和WM2尺寸为3×3;“*”表示卷积操作;
步骤2b:使用子网络ΦP提取模拟的上采样多光谱图像的特征FP2,如等式(4)和(5)所示;所述的子网络ΦP由两个卷积层PP1和PP2构成;
FP2=PP2(FP1)=PReLU(WP2*FP1+bP2) (5)
其中,WP1和WP2分别为卷积层PP1和PP2的权重;bP1和bP2分别为卷积层PP1和PP2的偏置项;WP1和WP2尺寸为3×3;
步骤2c:提取的模拟的多光谱和全色图像的特征F2=FP2⊕FM2;“⊕”表示拼接操作;
(3)基于密集连接网络的特征融合
步骤3a:利用密集连接网络提取特征F3,如等式(6)所示;
F3=P3(F2)=D(F2) (6)
其中,D(x)为密集连接网络;所述的密集连接网络包括6对1×1和3×3的卷积层,其中1×1的卷积核的个数为128,3×3的卷积核的个数为32;
步骤3b:提取第二层密集连接网络特征F4,如等式(7)所示;
F4=P4(F3)=D(F3) (7)
步骤3c:提取第三层密集连接网络特征F5,如等式(8)所示;
F5=P5(F4)=D(F4) (8)
(4)基于跳跃连接的高空间分辨率多光谱图像重建
步骤4a:构建跳跃连接,得到特征F6,F6=F2⊕F5
步骤4b:从融合的特征图F6中重建空间高分辨率多光谱图像F7,如等式(9)所示。
F7=P7(F6)=W7*PReLU(W6*F6+b6)+b7 (9)
其中,W6和W7表示两个转置卷积层中的权重,b6和b7表示转置卷积层中的偏置项;
(5)反向传播调整参数
步骤5a:构建损失函数Loss,如等式(10)所示;
其中,S表示模拟训练图像对的数量;||·||1表示L1范式;i表示图像对的下标;
步骤5b:利用Adam优化算法计算最优的网络参数{W,b};
输出:良好学习的网络;
第二部分:多光谱图像的融合
输入:图像块集合F0={MS,PAN},其中MS的尺寸为H×W×S,PAN的尺寸为4H×4W×1,H、W和S分别表示多光谱图像的高度、宽度和通道数;
(1)构建数据集
将多光谱图像MS进行双线性插值上采样,从而得到与PAN的高度和宽度相同的多光谱图像
(2)提取多光谱和全色图像的特征
步骤6a:使用子网络ΦM提取上采样多光谱图像的特征FM2,如等式(24)和(25)所示:
FM2=PM2(FM1)=PReLU(WM2*FM1+bM2) (25)
步骤6b:使用子网络ΦP提取全色图像PAN的特征FP2,如等式(26)和(27)所示:
FP1=PP1(PAN)=PReLU(WP1*PAN+bP1) (26)
FP2=PP2(FP1)=PReLU(WP2*FP1+bP2) (27)
步骤6c:提取的多光谱和全色图像的特征F2=FP2⊕FM2
(3)基于密集连接网络的特征融合
步骤7a:利用训练好的密集连接网络提取特征F3,如等式(28)所示:
F3=P3(F2)=D(F2) (28)
步骤7b:提取第二层密集连接网络特征F4,如等式(29)所示:
F4=P4(F3)=D(F3) (29)
步骤7c:提取第三层密集连接网络特征F5,如等式(30)所示:
F5=P5(F4)=D(F4) (30)
(4)基于跳跃连接的多光谱图像重建
步骤8a:构建跳跃连接,得到特征F6,F6=F2⊕F5
步骤8b:从融合的特征图F6中重建出高空间分辨率多光谱图像F7,如等式(31)所示:
F7=P7(F6)=W7*PReLU(W6*F6+b6)+b7 (31)
输出:多光谱和全色图像融合的高空间分辨率多光谱图像F7
CN201910382946.1A 2019-05-09 2019-05-09 基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法 Pending CN110189282A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910382946.1A CN110189282A (zh) 2019-05-09 2019-05-09 基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910382946.1A CN110189282A (zh) 2019-05-09 2019-05-09 基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法

Publications (1)

Publication Number Publication Date
CN110189282A true CN110189282A (zh) 2019-08-30

Family

ID=67715879

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910382946.1A Pending CN110189282A (zh) 2019-05-09 2019-05-09 基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法

Country Status (1)

Country Link
CN (1) CN110189282A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930315A (zh) * 2019-10-23 2020-03-27 西北工业大学 基于双通路卷积网络和层次clstm的多光谱图像全色锐化方法
CN111127374A (zh) * 2019-11-22 2020-05-08 西北大学 一种基于多尺度密集网络的Pan-sharpening方法
CN111223044A (zh) * 2019-11-12 2020-06-02 郑州轻工业学院 基于密集连接网络的全色图像与多光谱图像融合的方法
CN112861774A (zh) * 2021-03-04 2021-05-28 山东产研卫星信息技术产业研究院有限公司 一种使用遥感图像识别舰船目标的方法及系统
CN113435474A (zh) * 2021-05-25 2021-09-24 中国地质大学(武汉) 一种基于双生成对抗网络的遥感图像融合方法
CN114581347A (zh) * 2022-01-24 2022-06-03 中国科学院空天信息创新研究院 无参考影像的光学遥感空谱融合方法、装置、设备及介质

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120000736A (ko) * 2010-06-28 2012-01-04 서울대학교산학협력단 영상의 분광 및 공간특성이 반영된 융합계수를 이용하여 고해상도 위성영상을 융합하는 방법
CN107155110A (zh) * 2017-06-14 2017-09-12 福建帝视信息科技有限公司 一种基于超分辨率技术的图片压缩方法
CN108038519A (zh) * 2018-01-30 2018-05-15 浙江大学 一种基于稠密的特征金字塔网络的宫颈图像处理方法及装置
CN108171249A (zh) * 2018-01-29 2018-06-15 北京工业大学 一种基于rgbd数据的局部描述子学习方法
CN108182456A (zh) * 2018-01-23 2018-06-19 哈工大机器人(合肥)国际创新研究院 一种基于深度学习的目标检测模型及其训练方法
CN108226892A (zh) * 2018-03-27 2018-06-29 天津大学 一种基于深度学习的复杂噪声环境下的雷达信号恢复方法
CN108288035A (zh) * 2018-01-11 2018-07-17 华南理工大学 基于深度学习的多通道图像特征融合的人体动作识别方法
CN108491874A (zh) * 2018-03-19 2018-09-04 天津大学 一种基于生成式对抗网络的图像单分类方法
CN108537765A (zh) * 2018-03-12 2018-09-14 西北工业大学 一种星载全色与多光谱图像融合方法
CN108717680A (zh) * 2018-03-22 2018-10-30 北京交通大学 基于全稠密连接网络的空域图像隐写分析方法
CN108717569A (zh) * 2018-05-16 2018-10-30 中国人民解放军陆军工程大学 一种膨胀全卷积神经网络及其构建方法
CN108764298A (zh) * 2018-04-29 2018-11-06 天津大学 基于单分类器的电力图像环境影响识别方法
CN108805166A (zh) * 2018-05-03 2018-11-13 全球能源互联网研究院有限公司 一种建立图像分类神经网络模型及图像分类方法、装置
CN108846334A (zh) * 2018-05-30 2018-11-20 安徽大学 一种云类别自动识别方法及系统
CN109003239A (zh) * 2018-07-04 2018-12-14 华南理工大学 一种基于迁移学习神经网络的多光谱图像锐化方法
CN109102469A (zh) * 2018-07-04 2018-12-28 华南理工大学 一种基于卷积神经网络的遥感图像全色锐化方法
CN109117750A (zh) * 2018-07-24 2019-01-01 深圳先进技术研究院 一种基于深度学习的情绪识别方法、系统及电子设备
CN109146831A (zh) * 2018-08-01 2019-01-04 武汉大学 基于双支深度学习网络的遥感图像融合方法及系统
CN109410164A (zh) * 2018-11-14 2019-03-01 西北工业大学 多尺度卷积神经网络的卫星全色与多光谱图像融合方法
CN109509149A (zh) * 2018-10-15 2019-03-22 天津大学 一种基于双通道卷积网络特征融合的超分辨率重建方法
CN109636769A (zh) * 2018-12-18 2019-04-16 武汉大学 基于双路密集残差网络的高光谱和多光谱图像融合方法

Patent Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120000736A (ko) * 2010-06-28 2012-01-04 서울대학교산학협력단 영상의 분광 및 공간특성이 반영된 융합계수를 이용하여 고해상도 위성영상을 융합하는 방법
CN107155110A (zh) * 2017-06-14 2017-09-12 福建帝视信息科技有限公司 一种基于超分辨率技术的图片压缩方法
CN108288035A (zh) * 2018-01-11 2018-07-17 华南理工大学 基于深度学习的多通道图像特征融合的人体动作识别方法
CN108182456A (zh) * 2018-01-23 2018-06-19 哈工大机器人(合肥)国际创新研究院 一种基于深度学习的目标检测模型及其训练方法
CN108171249A (zh) * 2018-01-29 2018-06-15 北京工业大学 一种基于rgbd数据的局部描述子学习方法
CN108038519A (zh) * 2018-01-30 2018-05-15 浙江大学 一种基于稠密的特征金字塔网络的宫颈图像处理方法及装置
CN108537765A (zh) * 2018-03-12 2018-09-14 西北工业大学 一种星载全色与多光谱图像融合方法
CN108491874A (zh) * 2018-03-19 2018-09-04 天津大学 一种基于生成式对抗网络的图像单分类方法
CN108717680A (zh) * 2018-03-22 2018-10-30 北京交通大学 基于全稠密连接网络的空域图像隐写分析方法
CN108226892A (zh) * 2018-03-27 2018-06-29 天津大学 一种基于深度学习的复杂噪声环境下的雷达信号恢复方法
CN108764298A (zh) * 2018-04-29 2018-11-06 天津大学 基于单分类器的电力图像环境影响识别方法
CN108805166A (zh) * 2018-05-03 2018-11-13 全球能源互联网研究院有限公司 一种建立图像分类神经网络模型及图像分类方法、装置
CN108717569A (zh) * 2018-05-16 2018-10-30 中国人民解放军陆军工程大学 一种膨胀全卷积神经网络及其构建方法
CN108846334A (zh) * 2018-05-30 2018-11-20 安徽大学 一种云类别自动识别方法及系统
CN109003239A (zh) * 2018-07-04 2018-12-14 华南理工大学 一种基于迁移学习神经网络的多光谱图像锐化方法
CN109102469A (zh) * 2018-07-04 2018-12-28 华南理工大学 一种基于卷积神经网络的遥感图像全色锐化方法
CN109117750A (zh) * 2018-07-24 2019-01-01 深圳先进技术研究院 一种基于深度学习的情绪识别方法、系统及电子设备
CN109146831A (zh) * 2018-08-01 2019-01-04 武汉大学 基于双支深度学习网络的遥感图像融合方法及系统
CN109509149A (zh) * 2018-10-15 2019-03-22 天津大学 一种基于双通道卷积网络特征融合的超分辨率重建方法
CN109410164A (zh) * 2018-11-14 2019-03-01 西北工业大学 多尺度卷积神经网络的卫星全色与多光谱图像融合方法
CN109636769A (zh) * 2018-12-18 2019-04-16 武汉大学 基于双路密集残差网络的高光谱和多光谱图像融合方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
RAN WEN ET AL: "Image Superresolution Using Densely Connected Residual Networks", 《IEEE SIGNAL PROCESSING LETTERS》 *
XIANGYU LIU ET AL: "Remote Sensing Image Fusion Based on Two-stream Fusion Network", 《ARXIV:1711.02549V3》 *
YUCHENG WANG ET AL: "Deep Bi-Dense Networks for Image Super-Resolution", 《2018 DIGITAL IMAGE COMPUTING: TECHNIQUES AND APPLICATIONS (DICTA)》 *
高瑞超等: "基于稀疏表示的多光谱与全色遥感图像融合新方法", 《港工技术》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930315A (zh) * 2019-10-23 2020-03-27 西北工业大学 基于双通路卷积网络和层次clstm的多光谱图像全色锐化方法
CN110930315B (zh) * 2019-10-23 2022-02-11 西北工业大学 基于双通路卷积网络和层次clstm的多光谱图像全色锐化方法
CN111223044A (zh) * 2019-11-12 2020-06-02 郑州轻工业学院 基于密集连接网络的全色图像与多光谱图像融合的方法
CN111223044B (zh) * 2019-11-12 2024-03-15 郑州轻工业学院 基于密集连接网络的全色图像与多光谱图像融合的方法
CN111127374A (zh) * 2019-11-22 2020-05-08 西北大学 一种基于多尺度密集网络的Pan-sharpening方法
CN111127374B (zh) * 2019-11-22 2022-02-11 西北大学 一种基于多尺度密集网络的Pan-sharpening方法
CN112861774A (zh) * 2021-03-04 2021-05-28 山东产研卫星信息技术产业研究院有限公司 一种使用遥感图像识别舰船目标的方法及系统
CN113435474A (zh) * 2021-05-25 2021-09-24 中国地质大学(武汉) 一种基于双生成对抗网络的遥感图像融合方法
CN114581347A (zh) * 2022-01-24 2022-06-03 中国科学院空天信息创新研究院 无参考影像的光学遥感空谱融合方法、装置、设备及介质
CN114581347B (zh) * 2022-01-24 2024-03-12 中国科学院空天信息创新研究院 无参考影像的光学遥感空谱融合方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
CN110189282A (zh) 基于密集和跳跃连接深度卷积网络的多光谱和全色图像融合方法
CN108830796B (zh) 基于谱空结合和梯度域损失的高光谱图像超分辨重构方法
CN111127374B (zh) 一种基于多尺度密集网络的Pan-sharpening方法
Rao et al. A residual convolutional neural network for pan-shaprening
CN111080567B (zh) 基于多尺度动态卷积神经网络的遥感图像融合方法及系统
Xie et al. HPGAN: Hyperspectral pansharpening using 3-D generative adversarial networks
Gao et al. Enhanced autoencoders with attention-embedded degradation learning for unsupervised hyperspectral image super-resolution
CN114119444B (zh) 一种基于深度神经网络的多源遥感图像融合方法
CN110415199B (zh) 基于残差学习的多光谱遥感图像融合方法及装置
CN112819737B (zh) 基于3d卷积的多尺度注意力深度卷积网络的遥感图像融合方法
CN110930315B (zh) 基于双通路卷积网络和层次clstm的多光谱图像全色锐化方法
CN110245678A (zh) 一种异构孪生区域选取网络及基于该网络的图像匹配方法
CN109801218B (zh) 基于多层耦合卷积神经网络的多光谱遥感图像Pan-sharpening方法
CN112184554A (zh) 一种基于残差混合膨胀卷积的遥感图像融合方法
CN105096286A (zh) 遥感图像的融合方法及装置
Liang et al. An improved DualGAN for near-infrared image colorization
CN116309070A (zh) 一种高光谱遥感图像超分辨率重建方法、装置及计算机设备
CN115760814A (zh) 一种基于双耦合深度神经网络的遥感图像融合方法及系统
Li et al. HyperNet: A deep network for hyperspectral, multispectral, and panchromatic image fusion
Xiao et al. Physics-based GAN with iterative refinement unit for hyperspectral and multispectral image fusion
CN113793289A (zh) 基于cnn和nsct的多光谱图像和全色图像模糊融合方法
CN117252761A (zh) 一种跨传感器遥感图像超分辨率增强方法
Parajuli et al. Attentional dense convolutional neural network for water body extraction from sentinel-2 images
CN113112441B (zh) 基于密集网络和局部亮度遍历算子的多波段低分辨率图像同步融合方法
CN113902646A (zh) 基于深浅层特征加权融合网络的遥感影像泛锐化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination