CN112288668B - 基于深度无监督密集卷积网络的红外和可见光图像融合方法 - Google Patents
基于深度无监督密集卷积网络的红外和可见光图像融合方法 Download PDFInfo
- Publication number
- CN112288668B CN112288668B CN202011233636.2A CN202011233636A CN112288668B CN 112288668 B CN112288668 B CN 112288668B CN 202011233636 A CN202011233636 A CN 202011233636A CN 112288668 B CN112288668 B CN 112288668B
- Authority
- CN
- China
- Prior art keywords
- image
- fusion
- convolution
- infrared
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 61
- 230000004927 fusion Effects 0.000 claims abstract description 119
- 238000000034 method Methods 0.000 claims description 49
- 238000011156 evaluation Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 16
- 230000004913 activation Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 abstract description 36
- 238000013507 mapping Methods 0.000 abstract description 7
- 238000012545 processing Methods 0.000 abstract description 6
- 238000013461 design Methods 0.000 abstract description 4
- 238000013441 quality evaluation Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 30
- 238000013527 convolutional neural network Methods 0.000 description 23
- 108010057516 2-hydroxymuconic semialdehyde dehydrogenase Proteins 0.000 description 14
- 102100033983 Serpin-like protein HMSD Human genes 0.000 description 14
- 230000000694 effects Effects 0.000 description 12
- 241000282414 Homo sapiens Species 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000000354 decomposition reaction Methods 0.000 description 3
- 230000000717 retained effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000016776 visual perception Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度无监督密集卷积网络的红外和可见光图像融合方法,属于图像处理领域。首先,输入待融合的红外图像A与可见光图像B;接着,通过密集卷积操作提取输入图像的特征;然后,通过特征融合层来融合图像特征获得融合特征;最后,经过重构融合特征输出得到融合图像。本发明通过构建密集卷积网络,生成从源图像到最终融合图的直接映射,避免了人工手动操作,模型中算法利用无参考图像质量评价指标设计损失函数和优化网络模型,最终获得高质量的融合图像。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种红外与可见光图像的图像融合方法,可以应用于各种图像处理系统。
背景技术
图像融合是指利用一定的技术将两幅或者多幅多源图像的重要信息进行合并的过程,目的是使所获得的融合图像能够充分利用不同源图像特有信息,以便更准确全面描述场景信息。作为图像融合技术中一个重要组成部分,红外与可见光图像融合后的图像清晰度更高、信息量更大、获取目标和场景的信息更全面且更适合人类视觉感知,已经在工业和民用等领域得到应用。在民用领域中,将红外与可见光融合技术应用在汽车夜视系统中,可以提高汽车在浓雾、大雨等恶劣天气条件下行车的安全性。
近年来,由于深度学习在计算机视觉与图像处理领域中取得的相关成果,使得许多学者开始研究将深度学习应用到图像融合方面。文献“李红,刘芳,杨淑媛,等.基于深度支撑值学习网络的遥感图像融合[J].计算机学报,2016.”将深度学习用于遥感图像融合中,提出了一种基于深度支撑值学习网络的融合方法。本方法利用在训练深度网络时加入结构风险最小化的损失函数,使得融合图像较好地保持了图像的光谱信息和空间信息。文献“Liu Y,Chen X,Ward R,et al.Image Fusion With Convolutional SparseRepresentation.IEEE Signal Processing Letters,2016.”提出基于卷积稀疏表示的图像融合算法。算法通过高斯滤波将图像分解为基础层和细节,利用基于卷积稀疏表示的方法对上述两尺度图像进行融合得到加权平均的融合图像。本方法克服了传统的基于稀疏表示的方法细节保留能力低的问题,所提出的方法用于图像融合可以得到一定的效果,但算法存在实现复杂、实现效率不高以及融合效果不理想的问题。文献“Tang H,Xiao B,Li W,et al.Pixel Convolutional Neural Network for Multi-Focus ImageFusion.Information Sciences,2017.”提出基于逐像素的卷积神经网络的多聚焦图像融合方法,利用数据驱动的焦点检测方法来克服手动焦点检测的低效率,但要取得更好的融合效果需要依赖后续的优化处理。针对上述文献存在问题,本发明提出一种基于密集卷积网络(Dense Convolutional Networks,DCN)的红外和可见光图像融合算法。
发明内容
要解决的技术问题
针对传统的红外与可见光图像融合算法过度依赖人工设计、算法复杂度高、效率低问题,以及基于深度学习的图像融合存在的需要标准参考图像的问题,本发明提出一种基于密集卷积网络的红外与可见光图像融合的新方法。通过构建密集卷积网络,生成从源图像到最终融合图的直接映射,避免了人工手动操作,模型中算法利用无参考图像质量评价指标设计损失函数和优化网络模型,最终获得高质量的融合图像。
技术方案
一种基于深度无监督密集卷积网络的红外和可见光图像融合方法,其特征在于步骤如下:
步骤1:输入待融合的红外图像A与可见光图像B;
步骤2:将红外图像A依次输入四个卷积层C1、DC1、DC2、DC3进行特征提取,将可见光图像B依次输入四个卷积层C1、DC1、DC2、DC3进行特征提取,每个卷积层的卷积核的大小均为3×3,步长为1,卷积层的特征图输出通道为16,每个卷积层的输入都为前面所有卷积层输出的级联;
步骤3:采用L1范数加法策略来融合不同输入图像的特征,用以获得最终的融合特征,即:
其中m∈{1,2,...,M},M=64代表特征图的数量,和/>表示输入红外图像A与可见光图像B中获得的特征图,fm表示融合后的特征图,(x,y)表示待融合和融合后的特征图对应位置,wk(x,y),(k=1,2)表示权重,其计算公式为:
步骤4:将步骤3输出的融合后的特征图fm作为输入,依次输入卷积层C2、C3、C4、C5,每一个卷积层的卷积核的大小均为3×3,步长为1,前三层的卷积层非线性激活函数为泄漏整流行函数,最后一层非线性激活函数为Sigmoid函数,通过上述卷积和激活可以重建输出最终的融合图像。
步骤2中所述的C1为1×16。
步骤2中所述的DC1为16×16。
步骤2中所述的DC2为32×16。
步骤2中所述的DC3为48×16。
步骤4中所述的C2为64×64。
步骤4中所述的C3为64×32。
步骤4中所述的C4为32×16。
步骤4中所述的C5为16×1。
一种用于基于深度无监督密集卷积网络的红外和可见光图像融合方法的损失函数,其特征在于基于结构相似性和图像质量:
(1)结构相似度SSIM,用于计算两幅图像在对应位置的不同滑动窗口的结构相似度,假设输入图像为I,输出图像为O,则SSIM可定义为:
其中C1、C2为常数,设置为2×10-6,μI表示输入图像I中的滑动窗口的均值,μO表示输出图O中的滑动窗口的均值,表示μI的方差,σIO表示μI与μO之间的协方差,SSIM取值范围为[-1,1];因此,图像的结构相似性损失定义为:
LSSIM=1-SSIM(I,O) (4)
(2)邻域内的图像质量测量,根据两幅输入图像的结构相似性作为匹配的指标,当输入图像A的标准差std(A|w)大于输入图像B的对应标准差std(B|w),则表明输入图像A更匹配,因此图像质量的表达式为:
其中O表示输出图像,w表示滑动窗口,大小设置为7×7,滑动窗口以一个像素为步长从左到右、从上到下依次滑动;
(3)基于结构相似性和图像质量的损失函数,在密集卷积网络训练采用融合性能评价度量是通过上述结构相似度SSIM和邻域内的图像质量Scope(A,B,O)测量两部分因素,得到基于结构相似性和图像质量的损失函数:
其中,N表示图像中滑动窗口的总数。
有益效果
本发明提出一种基于密集卷积网络的红外与可见光图像融合的新方法,通过针对红外和可见光图像构建密集卷积网络,利用基于结构、亮度和对比度的结构相似性以及基于标准差的图像质量,针对性的设计了基于结构相似性和图像质量的损失函数以优化网络模型,同时为了优化网络模型,采用自适应矩估计算法最小化损失函数。其次,本发明采用泄漏整流线性单元作为网络的激活函数,为加快网络模型收敛速度并生成从源图像到最终融合图的直接映射,得到高质量的融合图像,避免了人工手动操作。实验结果表明,本发明通过该网络得到从源图像到融合图像的直接映射,避免了传统图像融合方法中依赖标准参考图像以及需要后续优化处理,解决传统图像融合方法的算法复杂、效率低问题,图像的融合质量得到进一步提高。
附图说明
图1基于深度无监督密集卷积网络的红外和可见光图像融合算法结构示意图;
图2基于深度无监督密集卷积网络的红外和可见光图像融合网络结构图;
图3红外与可见光图像组;
图4本发明算法在不同图像集的融合结果:(a1)源图像1;(a2)源图像2;(a3)DWT;(a4)CSR;(a5)WLS(a6)HMSD;(a7)GDGF-PCNN;(a8)CNN;(a9)DF;(a10)本发明(b1)源图像1;(b2)源图像2;(b3)DWT;(b4)CSR;(b5)WLS;(b6)HMSD;(b7)GDGF-PCNN(b8)CNN;(b9)DF;(b10)本发明;(c1)源图像1;(c2)源图像2;(c3)DWT;(c4)CSR;(c5)WLS(c6)HMSD;(c7)GDGF-PCNN;(c8)CNN;(c9)DF;(c10)本发明;(d1)源图像1;(d2)源图像2;(d3)DWT;(d4)CSR;(d5)WLS(d6)HMSD;(d7)GDGF-PCNN;(d8)CNN;(d9)DF;(d10)本发明;
图5不同客观指标的折线图:(a)QEN;(b):QG;(c):QW;(d):QCB;
图6本发明算法在不同图像集的融合结果:(a)多聚焦图像融合;(b)医学图像融合;(c)多曝光图像融合。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
密集卷积网络的网络结构
本发明提出的基于密集卷积网络的网络结构目的在于生成一幅红外和可见光融合图像,网络结构如图2所示。从输入图像1,2到输出图像F,该网络结构主要包括以下四部分:(1)输入,(2)特征提取,(3)特征融合,(4)输出。
首先,输入待融合的红外图像A与可见光图像B;接着,通过密集卷积操作提取输入图像的特征;然后,通过特征融合层来融合图像特征获得融合特征;最后,经过重构融合特征输出得到融合图像。即:(1)输入,(2)特征提取,(3)特征融合,(4)输出。
(1)输入。在网络学习阶段,本发明提出的密集卷积网络结构的输入为一对待融合的红外与可见光图像,并且两幅图像的大小要保持一致,本发明中训练时所用的图像大小为256×256。
(2)特征提取。如图2所示特征提取部分采用密集卷积网络以提取深层特征,其中包含四个卷积层,每一层的输入都为前面所有层输出的级联,从而能够增强特征的复用和特征的传播,减少参数的训练。第一个卷积层用于提取粗略信息,随着卷积层数的增加,提取的信息也增多。对于每一个卷积层,特征图的输出通道为16,卷积核的大小均为3×3,步长为1。
(3)特征融合。特征融合部分的作用在于融合不同输入图像的互补特征,用以获得最终的融合特征。本发明采用加法策略来融合不同输入图像的特征,即:
其中m∈{1,2,...,M},M=64代表特征图的数量,和/>表示由密集卷积网络从输入图像获得的特征图,fm表示融合后的特征图,(x,y)表示特征图和融合后的特征图中的对应位置,wk(x,y),(k=1,2)表示权重,其计算公式为:
(4)输出。输出模块的功能是生成融合图像,该模块将特征融合部分输出的结果(即fm)作为输入。如图2所示,通过一个级联卷积神经网络结构重建融合图像。具体来说,这个图像重建网络由四个卷积层(C2(64×64)、C3(64×32)、C4(32×16)、C5(16×1))构成,对于每一个卷积层,卷积核的大小均为3×3,步长为1。在四个卷积层中,前三层的激活函数为泄漏整流行函数(Leaky Rectified Linear Unit,LeakyReLU)作为非线性激活函数,最后一层用Sigmoid函数作为非线性激活函数。
基于结构相似性和图像质量的损失函数
在对密集卷积网络模型进行训练过程中,需要采用相应的损失函数完成网络模型参数学习。假设输入的一对图像为A与B,θ是用于被优化的网络参数,训练网络模型的目标是学习一个映射函数f用来生成一幅全聚焦图像而期望得到的图像为y*,使得生成的图像/>尽可能无限地接近期望得到的图像y*。通常情况下,卷积神经网络(Convolutional Neural Network,CNN)是通过设计的优化损失函数来学习模型参数,使得预测结果与参考标准近可能的接近,即/>与y*之间的距离可以通过最小化损失函数来有效估计所需要的映射函数f计算,损失函数可采用均方误差L1范数、L2范数等。本发明提出一种基于结构相似度和图像质量测量的损失函数,其定义如下:
(1)结构相似度SSIM,用于计算两幅图像在对应位置的不同滑动窗口的结构相似度,假设输入图像为I,输出图像为O,则SSIM可定义为:
其中C1、C2为常数,设置为2×10-6,μI表示输入图像I中的滑动窗口的均值,μO表示输出图O中的滑动窗口的均值,表示μI的方差,σIO表示μI与μO之间的协方差,SSIM取值范围为[-1,1]。因此,图像的结构相似性损失定义为:
LSSIM=1-SSIM(I,O) (4)
(3)邻域内的图像质量测量,根据两幅输入图像的结构相似性作为匹配的指标,当输入图像A的标准差std(A|w)大于输入图像B的对应标准差std(B|w),则表明输入图像A更匹配,因此图像质量的表达式为:
其中O表示输出图像,w表示滑动窗口,大小设置为7×7,滑动窗口以一个像素为步长从左到右、从上到下依次滑动。
(3)基于结构相似性和图像质量的损失函数,在密集卷积网络训练采用融合性能评价度量是通过上述结构相似度SSIM和邻域内的图像质量Scope(A,B,O)测量两部分因素,得到基于结构相似性和图像质量的损失函数:
密集卷积网络的训练细节
在本发明提出的密集卷积网络训练中,所采用的训练参数设置如表1所示,网络结构中所涉及的8个卷积层,其中前四个卷积层在密集卷积网络中用于特征提取,如图2中C1(1×16)、DC1(16×16)、DC2(32×16)、DC3(48×16),后面四个卷积层在卷积神经网络中用于特征重构(如图2中C2(64×64)、C3(64×32)、C4(32×16)、C5(16×1)),其中所有卷积层的大小设置为3×3,步长设置为1,密集块的输出通道均为16。第一层是在输入图像上进行滤波操作的,最后四层是融合图像。特征提取的分支是由三个级联的卷积层组成的密集卷积网络。本发明提出的密集卷积网络在训练过程中,所有的卷积层的激活函数都采用负斜率为0.2的LeakyReLU。采用随机初始化权重参数所有的卷积层(除了最后一层)都连接一个负斜率为0.2的LeakyReLU。在进行卷积之前,对所有的特征图进行边缘零填充以确保其大小与输入的一致。
表1深度无监督密集卷积网络训练参数设置
本发明所采用的训练图片来自标准的库MS-COCO的40000张图片,大小均为256×256,训练网络模型是采用TensorFlow,采用自适应优化算法进行训练,以便达到最小化损失函数。批量大小设置为2,纪元大小为4。动量和重量衰减分别设置为0.9和0.0005,所有权重均进行随机初始化,学习率为0.0001。
1.实验参数设置
实验环境为Intel(R)Core(TM)i3-8350 CPU@3.4GHz,内存为16GB,GPU处理器为NVIDA GeForce GTX 1080Ti。
实验数据来源为标准图像融合图像库。将所提出的融合方法与常用基于DWT、CSR、WLS、HMSD、GDGF-PCNN、CNN以及DF的融合方法进行对比,红外与可见光图像融合方法进行比较,这些方法是基于离散小波变换(Discrete Wavelet Transform,DWT)、卷积稀疏表示(Convolutional Sparse Representation,CSR)、加权最小二乘(weighted least square,WLS)、混合多尺度分解(Hybrid Multi-scale Decomposition,HMSD)、梯度域导向滤波和改进PCNN(Gradient domain guided filter and improved PCNN,GDGF-PCNN)、卷积神经网络(Convolution Neural Network,CNN)和密集融合(Dense Fuse,DF)的图像融合方法的图像融合方法,对比方法中相关参数取相应论文中给出的最佳参数。客观评价在图像融合中起着重要作用,因为融合方法的表现主要通过多个客观评价指标进行定量评估。在本发明中,本发明选择的四个客观度量准则:1)归一化的互信息(Normalized mutualinformation,QNMI),其测量融合图像和源图像之间的互信息量。2)基于梯度的度量(Gradient-based metric,QG),其评估从源图像注入融合图像的空间细节的程度。3)基于结构相似性的度量(Structural Similarity-based metric,QSS),其测量融合图像中保留的结构信息的量。4)基于人类感知的度量(Human Perception-based metric,QHP),它解决了人类视觉系统的主要特征。对于上述四个度量中的每一个,值越大表示融合性能越好。
2.实验内容
本发明通过构建密集卷积网络,生成从源图像到最终融合图像的直接映射,避免了人工手动操作,同时利用结构相似性和图像质量来设计损失函数以优化网络模型,得到高质量的融合图像。通过归一化互信息QNMI、基于梯度的度量QG、基于结构相似的度量QSS以及人类感知QHP评价生成的融合图像的质量,并与不同的图像融合算法作对比,进一步验证该方法的可行性。图3是采用的红外和可见光对比图像组,图4是红外和可见光在不同融合方法下结果图,图5是不同融合效果折线图。对于不同类型的图像(多聚焦图像、医学图像和多曝光图像)融合的结果如图6所示。
3.评价指标
图像融合的效果通常是用客观评价指标进行性能评价,但对客观评价指标的选择并没有统一的准则,因此本发明图像融合中普遍接受的四个准则进行评价。
(1)规范化的互信息QNMI
Hossny提出的规范化的互信息QNMI指标用来有效评估图像融合算法的性能。QNMI可以计算为:
其中,H(A)、H(B)和H(F)分别表示源图像A、源图像B和融合图像F的熵,MI(A,F)表示源图像A和融合图像F之间的互信息,MI(B,F)表示源图像B和融合图像F之间的互信息。
(2)基于梯度的度量QG
QG是一种常用的融合度量方法,用于评估从源图像中注入到融合图像中的梯度信息的范围,值越高说明融合图像越清晰。QG计算过程为:
其中,而/>和/>表示在像素(x,y)处的边缘强度和方向保留值。QBF(x,y)的定义与QAF(x,y)相似。加权因子wA(x,y)和wB(x,y)分别表示QAF(x,y)和QBF(x,y)的显著性。
(3)基于结构相似性的度量QSS
QSS测量融合图像中保留的结构信息的量,值越高说明融合图像信息保留越完整。QSS计算过程为:
其中:SSIM(A,F|w)为A和F之间的结构相似度,定义为SSIM(A,F|w)=l(m,n)·c(m,n)·s(m,n),l(m,n)表示两幅图像的亮度相似性,c(m,n)表示两幅图像的对比度相似性,s(m,n)表示两幅图像的结构相似性,SSIM(B,F|w),SSIM(A,B|w)的定义相似。w为一个7×7的窗口大小,权值τ(w)定义如下式:
其中s(A|w)和s(B|w)分别为源图像A和B在窗口为w处的方差。
(4)基于人类感知的度量QHP
QHP是一种基于人类感知的融合度量,它利用了人类视觉系统模型的主要特征,将源图像的对比度特征与融合图像的对比度特征进行比较。设QAF和QBF分别表示融合图像F从源图像A、源图像B保留的对比度信息,首先计算全局质量图(Global Quality Map,QGQM):
QGQM(i,j)=λA(i,j)QAF(i,j)+λB(i,j)QBF(i,j) (10)
其中,λA和λB分别表示QAF和QBF的显著性。然后对QGQM取平均值得到QHP。
4.仿真测试
为了对本发明提出的本发明算法的有效性进行检验,将本发明提出的算法分别与基于离散小波变换(Discrete Wavelet Transform,DWT)、卷积稀疏表示(ConvolutionalSparse Representation,CSR)、加权最小二乘(weighted least square,WLS)、混合多尺度分解(Hybrid Multi-scale Decomposition,HMSD)、梯度域导向滤波和改进PCNN(Gradientdomain guided filter and improved PCNN,GDGF-PCNN)、卷积神经网络(ConvolutionNeural Network,CNN)和密集融合(Dense Fuse,DF)的图像融合方法相比较,并从主观和客观层面进行分析。其中基于DWT的图像融合方法是经典的多尺度变换的融合方法,其在多聚焦图像融合的效果良好;基于CSR的图像融合方法是近几年提出的应用较广泛的变换域的方法;基于WLS的图像融合方法是近年来提出的新的空间域方法,被广泛应用在该领域并取得较好的效果;基于HMSD和GDGF-PCNN的图像融合方法属于混合变换的方法且GDGF-PCNN的融合方法为本文第三章提出的融合方法;基于CNN和DF的图像融合方法属于深度学习的方法,是最新提出来用于红外与可见光图像融合的方法。实验对比方法分别从变换域、空间域、混合变换和深度学习四个方面对图像融合算法进行对比测试,因此实验测试方法具有多样性,能够充分验证本发明提出的算法。
本发明采用4组红外和可见光图像进行实验,如下图3所示。其中图像的大小为256×256。对比方法的参数设置均采用对应文章中给出的最优参数。本发明实验环境为Intel(R)Core(TM)i3-8350 CPU@3.4GHz,内存为16GB,同时采用Python3.6编程。
红外与可见光图像融合实验与分析
将本发明方法分别与基于DWT、CSR、WLS、HMSD、GDGF-PCNN、CNN以及DF的融合方法进行对比,结果图如图4所示,其中(1)(2)分别表示待融合的红外与可见光图像,(3)表示基于DWT方法的图像融合结果,(4)表示基于CSR方法的图像融合结果,(5)表示基于WLS方法的图像融合结果,(6)表示基于HMSD方法的图像融合结果,(7)表示基于GDGF-PCNN方法的图像融合结果,(8)表示基于CNN方法的图像融合结果,(9)表示基于DF方法图像融合结果,(10)表示基于本发明算法图像融合结果。
(1)主观评价
由图4(a1)可以看到红外图像中的中心处的矩形目标,图4(a2)可以看到可见光图像中远处的路灯以及山上的房子,通过基于DWT和基于CNN的图像融合方法得到的融合图像细节信息丢失(如图4(a3)和(a8)中红外图像中的矩形目标不完整);基于CSR和基于HMSD的图像融合方法对比度降低并且信息丢失(如图4(a4)中远处的山以及(a6)中近处的路面);基于WLS的图像融合方法得到的融合图像边缘过渡不自然(如图4(a5)中远处山的边缘);基于DF的图像融合方法得到的融合图像对比度下降(如图4(a9)中远处的山和路灯);基于GDGF-PCNN的图像融合方法和本发明所提算法不存在明显的错误,所得的融合图像对目标的细节保留完整同时对比度也有所提高。
由图4(b1)可以看到红外图像中运动中的汽车、人以及房屋,图4(b2)可以看到可见光图像中道路两边的栅栏和路灯,通过基于DWT和基于DF的图像融合方法得到的融合图像细节信息丢失(如图4(b3)和(b9)中左下角的汽车);基于CSR和基于WLS的图像融合方法得到的融合图像对比度降低(如图4(b4)和(b5)所示);基于HMSD、GDGF-PCNN和CNN的图像融合方法(如图4(b6)、(b7)和(b8)所示)得到的融合图像与本发明所提算法效果相差不大,所得的融合图像不仅能够保留可见光图像的细节信息,而且能分辨出红外图像中的目标。
由图4(c1)可以看出红外图像中包含在可见光图像中没有发现的目标,图4(c2)可以看到可见光图像中的栅栏、树木以及房屋,通过基于DWT的图像融合方法得到的融合图像细节信息丢失(如图4(c3)中的栅栏);基于CSR的融合方法不适于红外和可见光的融合,图像存在大范围失真(如图4(c4)所示);基于CNN的图像融合方法得到的融合图像存在模糊(如图4(c8)所示);基于DF的图像融合方法得到的融合图像存在块效应(如图4(c9)中下方区域);基于WLS、HMSD和GDGF-PCNN的图像融合方法(如图4(c5)、(c6)和(c7)所示)得到的融合图像与本发明所提算法效果相差不大,不仅能够保留可见光图像中的细节信息,而且能分辨出红外图像中的目标。
由图4(d1)可以看到红外图像中植物的叶子以及远处树林中隐藏的目标,图4(d2)可以看到可见光图像中明亮的正方形板,通过基于DWT和基于CNN的图像融合方法得到的融合图像细节信息丢失(如图4(d3)和(d8)中近处的树叶);基于WLS和基于DF的图像融合方法得到的融合图像对比度降低(如图4(d5)和(d9)所示);基于CSR和基于HMSD的图像融合方法得到的融合图像存在大范围失真(如图4(d4)和(d6)中左上方区域);基于GDGF-PCNN的图像融合方法(如图4(d7)所示)与本发明所提算法效果相差不大,不仅能够保留可见光图像中的细节信息,而且能分辨出红外图像中的目标。
(2)客观评价
上述主观评价会受到主观因素的影响,为了更客观的评价本发明方法的有效性和适用性,本发明采用信息熵QEN、图像梯度QG、结构相似性QW以及视觉感知QCB对本发明所提出的方法和七种对比方法进行融合图像的客观评价,以此来评价不同图像融合方法的融合性能。其中,QEN越大,融合后图像包含源图像的细节信息越多;QG越大,融合后图像对比度越大且视觉效果越好;QW越大,融合后图像与源图像的相似度越高,包含源图像的细节信息越多;QCB越大,融合图像更利于视觉感知。表2给出了五组红外与可见光图像的融合结果的客观评价值,其中加粗的数值代表最优的结果。
表2四组红外与可见光图像在不同融合方法下的客观评价指标
由表可知:对于第一组融合图像,本发明算法的QG、QW和QCB值最大,基于GDGF-PCNN的融合方法的QEN值最大;对于第二组融合图像,本发明算法的QG和QCB值最大,基于DF的融合方法的QEN值最大,基于GDGF-PCNN的融合方法的QW值最大;对于第三组融合图像,本发明算法的QEN和QW值最大,基于GDGF-PCNN的融合方法的QG和QCB值最大;对于最后一组融合图像,本发明算法的QEN、QG、QW和QCB均取得最大值。同时从上表中可以看出本发明提出的基于本发明的融合方法相较于第三章提出的基于GDGF-PCNN的融合方法在总体上表现更优,得到的融合图像效果更好。为了更直观的比较本发明算法相对于其他对比算法在对红外与可见光图像融合的优越性,使用折线图进一步对客观评价指标进行分析,结果如图5所示。
由图5可以更直观的看出:对于指标QEN,本发明算法在第三组以及第四组融合图像中取得最大值,基于GDGF-PCNN的融合方法在第一组融合图像中取得最大值,基于DF的融合方法在第二组融合图像中取得最大值;对于指标QG,本发明算法在第一组、第二组以及第四组融合图像中取得最大值,基于GDGF-PCNN的融合方法在第三组融合图像中取得最大值;对于QW,本发明算法在第一组、第三组以及第四组融合图像中取得最大值,基于GDGF-PCNN的融合方法在第二组融合图像中取得最大值;对于指标QCB,本发明算法在第一组、第二组以及第四组融合图像中取得最大值,基于GDGF-PCNN的融合方法在第三组融合图像中取得最大值。虽然本发明算法在客观评价中的个别指标的值略低于其他方法,但综合考虑主观感受和客观评价,相比于其他七种融合方法,本发明的方法是最优的,不仅能够准确检测图像中的目标信息,而且更利于人类的视觉感知。
Claims (10)
1.一种基于深度无监督密集卷积网络的红外和可见光图像融合方法,其特征在于步骤如下:
步骤1:输入待融合的红外图像A与可见光图像B;
步骤2:将红外图像A依次输入四个卷积层C1、DC1、DC2、DC3进行特征提取,将可见光图像B依次输入四个卷积层C1、DC1、DC2、DC3进行特征提取,每个卷积层的卷积核的大小均为3×3,步长为1,卷积层的特征图输出通道为16,每个卷积层的输入都为前面所有卷积层输出的级联;
步骤3:采用L1范数加法策略来融合不同输入图像的特征,用以获得最终的融合特征,即:
其中m∈{1,2,...,M},M=64代表特征图的数量,和/>表示输入红外图像A与可见光图像B中获得的特征图,fm表示融合后的特征图,(x,y)表示待融合和融合后的特征图对应位置,wk(x,y),(k=1,2)表示权重,其计算公式为:
步骤4:将步骤3输出的融合后的特征图fm作为输入,依次输入卷积层C2、C3、C4、C5,每一个卷积层的卷积核的大小均为3×3,步长为1,前三层的卷积层非线性激活函数为泄漏整流行函数,最后一层非线性激活函数为Sigmoid函数,通过上述卷积和激活可以重建输出最终的融合图像。
2.根据权利要求1所述的一种基于深度无监督密集卷积网络的红外和可见光图像融合方法,其特征在于步骤2中所述的C1为1×16。
3.根据权利要求1所述的一种基于深度无监督密集卷积网络的红外和可见光图像融合方法,其特征在于步骤2中所述的DC1为16×16。
4.根据权利要求1所述的一种基于深度无监督密集卷积网络的红外和可见光图像融合方法,其特征在于步骤2中所述的DC2为32×16。
5.根据权利要求1所述的一种基于深度无监督密集卷积网络的红外和可见光图像融合方法,其特征在于步骤2中所述的DC3为48×16。
6.根据权利要求1所述的一种基于深度无监督密集卷积网络的红外和可见光图像融合方法,其特征在于步骤4中所述的C2为64×64。
7.根据权利要求1所述的一种基于深度无监督密集卷积网络的红外和可见光图像融合方法,其特征在于步骤4中所述的C3为64×32。
8.根据权利要求1所述的一种基于深度无监督密集卷积网络的红外和可见光图像融合方法,其特征在于步骤4中所述的C4为32×16。
9.根据权利要求1所述的一种基于深度无监督密集卷积网络的红外和可见光图像融合方法,其特征在于步骤4中所述的C5为16×1。
10.根据权利要求1所述的一种基于深度无监督密集卷积网络的红外和可见光图像融合方法,其特征在于,训练基于深度无监督密集卷积网络采用的损失函数基于结构相似性和图像质量,具体为:
(1)结构相似度SSIM,用于计算两幅图像在对应位置的不同滑动窗口的结构相似度,假设输入图像为I,输出图像为O,则SSIM可定义为:
其中C1、C2为常数,设置为2×10-6,μI表示输入图像I中的滑动窗口的均值,μO表示输出图O中的滑动窗口的均值,表示μI的方差,σIO表示μI与μO之间的协方差,SSIM取值范围为[-1,1];因此,图像的结构相似性损失定义为:
LSSIM=1-SSIM(I,O) (4)
(2)邻域内的图像质量测量,根据两幅输入图像的结构相似性作为匹配的指标,当输入图像A的标准差std(A|w)大于输入图像B的对应标准差std(B|w),则表明输入图像A更匹配,因此图像质量的表达式为:
其中O表示输出图像,w表示滑动窗口,大小设置为7×7,滑动窗口以一个像素为步长从左到右、从上到下依次滑动;
(3)基于结构相似性和图像质量的损失函数,在密集卷积网络训练采用融合性能评价度量是通过上述结构相似度SSIM和邻域内的图像质量Scope(A,B,O)测量两部分因素,得到基于结构相似性和图像质量的损失函数:
其中,N表示图像中滑动窗口的总数。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011000402 | 2020-09-22 | ||
CN2020110004023 | 2020-09-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112288668A CN112288668A (zh) | 2021-01-29 |
CN112288668B true CN112288668B (zh) | 2024-04-16 |
Family
ID=74351182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011233636.2A Active CN112288668B (zh) | 2020-09-22 | 2020-11-06 | 基于深度无监督密集卷积网络的红外和可见光图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112288668B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114862730B (zh) * | 2021-02-04 | 2023-05-23 | 四川大学 | 一种基于多尺度分析与vgg-19的红外与可见光图像融合方法 |
CN113160104B (zh) * | 2021-05-20 | 2024-03-12 | 广东工业大学 | 一种基于密集连接网络的图像融合方法 |
CN113298744B (zh) * | 2021-06-07 | 2022-10-28 | 长春理工大学 | 一种端到端的红外与可见光图像融合方法 |
CN113554570B (zh) * | 2021-08-04 | 2023-12-19 | 西安交通大学 | 一种基于深度学习的双域ct图像环状伪影去除方法 |
CN113592018B (zh) * | 2021-08-10 | 2024-05-10 | 大连大学 | 基于残差密集网络和梯度损失的红外光与可见光图像融合方法 |
CN113822352B (zh) * | 2021-09-15 | 2024-05-17 | 中北大学 | 基于多特征融合的红外弱小目标检测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447936A (zh) * | 2018-12-21 | 2019-03-08 | 江苏师范大学 | 一种红外和可见光图像融合方法 |
CN109919887A (zh) * | 2019-02-25 | 2019-06-21 | 中国人民解放军陆军工程大学 | 一种基于深度学习的无监督图像融合方法 |
CN110009569A (zh) * | 2019-04-17 | 2019-07-12 | 中国人民解放军陆军工程大学 | 一种基于轻量级卷积神经网络的红外和可见光图像融合方法 |
CN110428432A (zh) * | 2019-08-08 | 2019-11-08 | 梅礼晔 | 结肠腺体图像自动分割的深度神经网络算法 |
AU2020100178A4 (en) * | 2020-02-04 | 2020-03-19 | Huang, Shuying DR | Multiple decision maps based infrared and visible image fusion |
KR102095443B1 (ko) * | 2019-10-17 | 2020-05-26 | 엘아이지넥스원 주식회사 | 구조텐서를 이용한 딥러닝 기반의 영상 개선 방법 및 장치 |
CN111260594A (zh) * | 2019-12-22 | 2020-06-09 | 天津大学 | 一种无监督的多模态图像融合方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10839543B2 (en) * | 2019-02-26 | 2020-11-17 | Baidu Usa Llc | Systems and methods for depth estimation using convolutional spatial propagation networks |
-
2020
- 2020-11-06 CN CN202011233636.2A patent/CN112288668B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447936A (zh) * | 2018-12-21 | 2019-03-08 | 江苏师范大学 | 一种红外和可见光图像融合方法 |
CN109919887A (zh) * | 2019-02-25 | 2019-06-21 | 中国人民解放军陆军工程大学 | 一种基于深度学习的无监督图像融合方法 |
CN110009569A (zh) * | 2019-04-17 | 2019-07-12 | 中国人民解放军陆军工程大学 | 一种基于轻量级卷积神经网络的红外和可见光图像融合方法 |
CN110428432A (zh) * | 2019-08-08 | 2019-11-08 | 梅礼晔 | 结肠腺体图像自动分割的深度神经网络算法 |
KR102095443B1 (ko) * | 2019-10-17 | 2020-05-26 | 엘아이지넥스원 주식회사 | 구조텐서를 이용한 딥러닝 기반의 영상 개선 방법 및 장치 |
CN111260594A (zh) * | 2019-12-22 | 2020-06-09 | 天津大学 | 一种无监督的多模态图像融合方法 |
AU2020100178A4 (en) * | 2020-02-04 | 2020-03-19 | Huang, Shuying DR | Multiple decision maps based infrared and visible image fusion |
Non-Patent Citations (1)
Title |
---|
基于卷积神经网络的红外与可见光图像融合;董安勇;杜庆治;苏斌;赵文博;于闻;;红外技术(07);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112288668A (zh) | 2021-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112288668B (zh) | 基于深度无监督密集卷积网络的红外和可见光图像融合方法 | |
CN111709902B (zh) | 基于自注意力机制的红外和可见光图像融合方法 | |
CN112001868B (zh) | 基于生成对抗性网络的红外和可见光图像融合方法及系统 | |
CN105913413B (zh) | 一种基于在线流形学习的彩色图像质量客观评价方法 | |
CN110175986B (zh) | 一种基于卷积神经网络的立体图像视觉显著性检测方法 | |
CN111563418A (zh) | 一种基于注意力机制的非对称多模态融合显著性检测方法 | |
CN113837974B (zh) | 一种基于改进beeps滤波算法的nsst域电力设备红外图像增强方法 | |
CN115393225A (zh) | 一种基于多层次特征提取融合的低光照图像增强方法 | |
CN112184646B (zh) | 基于梯度域导向滤波和改进pcnn的图像融合方法 | |
CN108985301A (zh) | 一种多特征类子字典学习的高光谱图像分类方法 | |
Yuan et al. | FLGC‐Fusion GAN: An Enhanced Fusion GAN Model by Importing Fully Learnable Group Convolution | |
CN110163855B (zh) | 一种基于多路深度卷积神经网络的彩色图像质量评价方法 | |
CN115457249A (zh) | 红外图像与可见光图像融合匹配的方法及系统 | |
CN114639002A (zh) | 一种基于多模式特征的红外与可见光图像融合方法 | |
Qu et al. | Umle: Unsupervised multi-discriminator network for low light enhancement | |
CN116033279B (zh) | 一种夜晚监控相机的近红外图像彩色化方法、系统及设备 | |
CN111105387B (zh) | 基于统计特征视角合成质量预测方法、信息数据处理终端 | |
CN117495718A (zh) | 一种多尺度自适应的遥感图像去雾方法 | |
CN117333410A (zh) | 基于Swin Transformer与GAN的红外与可见光图像融合方法 | |
CN117252936A (zh) | 一种适配多种训练策略的红外图像彩色化方法及系统 | |
CN116206214A (zh) | 一种基于轻量化卷积神经网络和双注意力的自动识别滑坡方法、系统、设备及介质 | |
Kong et al. | Full-reference IPTV image quality assessment by deeply learning structural cues | |
CN113222879B (zh) | 一种用于红外与可见光图像融合的生成对抗网络 | |
CN114067187A (zh) | 一种基于对抗生成网络的红外偏振可见光人脸翻译方法 | |
CN113947547A (zh) | 基于多尺度核预测卷积神经网络的蒙特卡洛渲染图降噪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |